transformers/docs/source/ja/main_classes/optimizer_schedules.md

2.4 KiB

Optimization

.optimization モジュールは以下を提供します。

  • モデルの微調整に使用できる重み減衰が修正されたオプティマイザー、および
  • _LRSchedule から継承するスケジュール オブジェクトの形式のいくつかのスケジュール:
  • 複数のバッチの勾配を累積するための勾配累積クラス

AdamW (PyTorch)

autodoc AdamW

AdaFactor (PyTorch)

autodoc Adafactor

AdamWeightDecay (TensorFlow)

autodoc AdamWeightDecay

autodoc create_optimizer

Schedules

Learning Rate Schedules (Pytorch)

autodoc SchedulerType

autodoc get_scheduler

autodoc get_constant_schedule

autodoc get_constant_schedule_with_warmup

autodoc get_cosine_schedule_with_warmup

autodoc get_cosine_with_hard_restarts_schedule_with_warmup

autodoc get_linear_schedule_with_warmup

autodoc get_polynomial_decay_schedule_with_warmup

autodoc get_inverse_sqrt_schedule

Warmup (TensorFlow)

autodoc WarmUp

Gradient Strategies

GradientAccumulator (TensorFlow)

autodoc GradientAccumulator