RNN(再帰型ニューラルネット)
Recurrent Neural Network
過去の情報を内部状態として保持しながら処理する、時系列・文章向けのニューラルネット。Transformer登場前の主力。
RNN(再帰型ニューラルネット)とは
RNN(Recurrent Neural Network)は、過去の情報を内部状態として保持しながら、順にデータを処理するニューラルネットワークです。文章・音声・株価など、順序や時系列を持つデータを扱うのに適しています。
Transformer登場以前は、自然言語処理・音声認識の主力モデルとして幅広く使われていました。
仕組み
- 逐次処理: 入力を1つずつ順番に処理していく
- 内部状態(隠れ状態): 過去の情報を圧縮して保持し、次の処理に引き継ぐ
- 再帰構造: 同じ重みを繰り返し使うことで、可変長の入力に対応できる
「過去を覚えながら読み進める」イメージで、文脈を扱えるのが特徴です。
発展形
- LSTM: 長期の情報を保ちやすくした改良版
- GRU: LSTMを簡素化し、計算を軽くしたもの
これらは長い系列でも情報が途切れにくいように工夫されたRNNです。
他との違い・現状
- CNN: 画像など空間パターンに強い
- RNN: 時系列・文章に強いが、逐次処理のため並列化しにくい
- Transformer: 並列処理が可能で長文にも強く、現在は自然言語処理の主流
現在のLLMはほぼTransformerベースですが、音声認識・時系列予測などではRNN/LSTMが今も現役で使われています。
