グラディエントディセント
メニューを表示するにはスワイプしてください
定義
勾配降下法は、関数のパラメータを最も急激に減少する方向に反復的に調整することで関数を最小化する最適化アルゴリズム。 機械学習において、モデルがデータから効率的に学習するための基礎的手法。
勾配の理解
関数の勾配は、ある点における方向と急勾配度を表す。 これは、関数を最小化するためにどちらの方向に進むべきかを示す。
単純な関数の場合:
J(θ)=θ2導関数(勾配)は:
∇J(θ)=dθd(θ2)=2θつまり、任意のθの値に対して、勾配はθをどのように調整すれば最小値に向かって降下できるかを示す。
勾配降下法の公式
重み更新則は次の通り:
θ←θ−α∇J(θ)ここで:
- θ - モデルパラメータ;
- α - 学習率(ステップサイズ);
- ∇J(θ) - 最小化を目指す関数の勾配。
この関数の場合:
θnew=θold−α(2θold)つまり、θを反復的に、スケーリングされた勾配を引くことで更新する。
段階的な移動 – 視覚的な例
開始値: θ=3, α=0.3
- θ1=3−0.3(2×3)=3−1.8=1.2;
- θ2=1.2−0.3(2×1.2)=1.2−0.72=0.48;
- θ3=0.48−0.3(2×0.48)=0.48−0.288=0.192;
- θ4=0.192−0.3(2×0.192)=0.192−0.115=0.077.
数回の反復後、θ=0(最小値)に近づく。
学習率 – αの賢い選択
- 大きすぎる α - 行き過ぎて収束しない;
- 小さすぎる α - 収束が遅すぎる;
- 最適な α - 速度と精度のバランス。
勾配降下法はいつ停止するか?
勾配降下法は次の場合に停止する:
∇J(θ)≈0これは、さらなる更新がごくわずかとなり、最小値が見つかったことを意味する。
すべて明確でしたか?
フィードバックありがとうございます!
セクション 3. 章 9
AIに質問する
AIに質問する
何でも質問するか、提案された質問の1つを試してチャットを始めてください
セクション 3. 章 9