パラメータ

Parameter

AIモデル内部に持つ学習可能な重みの数。数B〜数百B規模のモデルが実務で広く使われ、規模は公開/非公開がモデルごとに分かれる。

パラメータとは

パラメータ(Parameter)は、AIモデル内部に存在する学習可能な「重み」の数です。ニューラルネットワークの各ニューロン間をつなぐ係数にあたり、学習によって最適な値に調整されていきます。

モデルの「○○Bパラメータ」(BはBillion=10億)という表記は、このパラメータ総数を指します。

規模の目安

オープンに公開されているモデルで見ると、概ね以下のレンジが用いられます。

  • 小規模モデル: 数B程度(スマホ・エッジでも動かしやすい)
  • 中規模モデル: 数十B前後(一般的な用途)
  • 大規模モデル: 数百B以上(サーバ前提の大型モデル)

パラメータ数が多いほど表現力・知識量が増える傾向がありますが、その分計算コスト・推論速度・メモリ使用量も増えます。

なお、GPT・Claude のような代表的な商用モデルはパラメータ数を公表していないケースが多く、公開情報に基づかない数値の断定は避けるのが実務的です。

大きければ良いわけではない

近年は「パラメータ数の競争」から、質の高い学習データ学習方法の工夫に焦点が移っています。

  • 小型でも**蒸留(Distillation)**で高性能化できる
  • **MoE(Mixture of Experts)**で実効パラメータ数を抑えつつ規模を拡張
  • 用途特化なら数Bでも十分なケースも多い

他との関係

パラメータは事前学習で値が決まり、ファインチューニングLoRAで一部を調整できます。LLMの性能・料金・応答速度に直結する、モデルの基本スペック指標です。

士業AIで業務を効率化しませんか?

税務・会計・法務の専門AIが、日々の業務をサポートします。
まずは無料プランからお試しください。

無料で今すぐ試す