パラメータ
Parameter
AIモデル内部に持つ学習可能な重みの数。数B〜数百B規模のモデルが実務で広く使われ、規模は公開/非公開がモデルごとに分かれる。
パラメータとは
パラメータ(Parameter)は、AIモデル内部に存在する学習可能な「重み」の数です。ニューラルネットワークの各ニューロン間をつなぐ係数にあたり、学習によって最適な値に調整されていきます。
モデルの「○○Bパラメータ」(BはBillion=10億)という表記は、このパラメータ総数を指します。
規模の目安
オープンに公開されているモデルで見ると、概ね以下のレンジが用いられます。
- 小規模モデル: 数B程度(スマホ・エッジでも動かしやすい)
- 中規模モデル: 数十B前後(一般的な用途)
- 大規模モデル: 数百B以上(サーバ前提の大型モデル)
パラメータ数が多いほど表現力・知識量が増える傾向がありますが、その分計算コスト・推論速度・メモリ使用量も増えます。
なお、GPT・Claude のような代表的な商用モデルはパラメータ数を公表していないケースが多く、公開情報に基づかない数値の断定は避けるのが実務的です。
大きければ良いわけではない
近年は「パラメータ数の競争」から、質の高い学習データや学習方法の工夫に焦点が移っています。
- 小型でも**蒸留(Distillation)**で高性能化できる
- **MoE(Mixture of Experts)**で実効パラメータ数を抑えつつ規模を拡張
- 用途特化なら数Bでも十分なケースも多い
他との関係
パラメータは事前学習で値が決まり、ファインチューニングやLoRAで一部を調整できます。LLMの性能・料金・応答速度に直結する、モデルの基本スペック指標です。
