バックプロパゲーション(誤差逆伝播)
Backpropagation
ニューラルネットの学習で、出力側から入力側へ誤差を逆方向に伝えながら勾配を効率的に計算する手法。
バックプロパゲーション(誤差逆伝播)とは
バックプロパゲーション(Backpropagation)は、ニューラルネットワークの学習で、出力側から入力側へ誤差を"逆向きに"伝えながら、各パラメータの勾配を効率的に計算する手法です。日本語では誤差逆伝播法と呼ばれます。
現代のディープラーニングにおける学習アルゴリズムの中核で、これがなければ大規模なNNは現実的に学習できません。
仕組み
- 順伝播(Forward): 入力を受け取り、層を通して予測を出す
- 損失の計算: 予測と正解のズレを損失関数で数値化
- 逆伝播(Backward): 出力層から入力層へ、**連鎖律(微分の連鎖)**を使って各パラメータの勾配を計算
- パラメータ更新: 勾配降下法で重みを修正する
「答え合わせ → 責任をさかのぼって配分 → 修正」という流れです。
なぜ重要か
- 効率性: 全パラメータの勾配を、層ごとに一度の計算で求められる
- スケーラビリティ: 数十億パラメータのモデルでも学習可能にする
- 汎用性: CNN・RNN・Transformerなど、ほぼすべてのNNで使われる
他概念との関係
- 損失関数: 逆伝播の起点となる"誤差"そのもの
- 勾配降下法: 逆伝播で得た勾配を使い、パラメータを実際に更新する
- 活性化関数: 微分可能であることが逆伝播の前提
バックプロパゲーションは、ディープラーニングが実用化できた最大の理由の一つと覚えておくとよいでしょう。
