AICとは

AICは、統計モデルの複雑さとデータの当てはまりの良さのバランスを評価し、最も適切なモデルを選択するための基準であり、多数のパラメータを持つ複雑なモデルに対してペナルティを課すことで、過学習(Overfitting)を抑制するための指標のことです。

AICの概要とモデル選択における役割

AIC(Akaike Information Criterion、赤池情報量規準)は、統計学および機械学習において、複数の候補モデルの中から未知のデータに対する予測性能が最も高いと期待されるモデルを選択するために使用される評価指標です。

この規準は、日本の統計学者である赤池弘次博士によって1973年に提唱され、「良いモデルとは、データの当てはまりが良く、かつモデルが単純であること」という考え方に基づいています。

AICは、以下の2つの要素を考慮に入れます。

  1. 最大対数尤度(Maximized Log-Likelihood): モデルが与えられたデータに対してどれだけ適切に適合しているかを示す指標です。
  2. パラメータの数: モデルの複雑さを示す指標です。

モデルが複雑になるほど(パラメータが増えるほど)、訓練データへの当てはまりは良くなりますが、未知のデータへの適合性(汎化性能)は低下しやすくなります。AICは、モデルの当てはまりの良さから、モデルの複雑さに対する罰則項(ペナルティ)を差し引くことで、このトレードオフを定量的に評価します。

主な目的は、情報理論の観点から、モデルが持つ情報損失を推定し、将来的なデータに対する予測誤差が最小となるであろうモデルを客観的に選定することです。

AICの計算式と解釈

AICは、以下の計算式で定義されます。

\text{AIC} = -2 \ln(L) + 2k

1. 構成要素の解説

記号名称意味
ln(L)最大対数尤度 (Maximum Log-Likelihood)モデルがデータにどれだけ当てはまっているかを示す指標。通常、負の値を取るため、−2ln(L) は当てはまりが良いほど小さい値になる。
kパラメータの数 (Number of Parameters)モデルの複雑さ。独立変数の数や、回帰係数の数など。
2k罰則項(ペナルティ)パラメータ数が増えることによる過学習のリスクを評価し、複雑さに比例して加算される。

2. AICの解釈

AICは、統計モデルによって生じる情報損失の推定値であり、値が小さいほど、そのモデルが優れていると判断されます。

  • 小さいAIC: パラメータ数が少ないにもかかわらず、高い対数尤度を達成している、すなわち、シンプルさと適合性のバランスが取れていることを示します。
  • モデルの選択: 複数の候補モデルがある場合、AICの値が最も小さいモデルを、最も将来の予測性能が高いモデルとして選択します。

3. AICの応用

AICは、回帰分析における説明変数の選択、時系列分析におけるモデル次数の決定、クラスタリングにおける最適なクラスタ数の決定など、多岐にわたる統計的モデリングの場面で、モデルの客観的な比較・選択基準として利用されています。

関連用語

過学習 | 今更聞けないIT用語集
BIC | 今更聞けないIT用語集
AIソリューション

お問い合わせ

システム開発・アプリ開発に関するご相談がございましたら、APPSWINGBYまでお気軽にご連絡ください。

APPSWINGBYの

ソリューション

APPSWINGBYのセキュリティサービスについて、詳しくは以下のメニューからお進みください。

システム開発

既存事業のDXによる新規開発、既存業務システムの引継ぎ・機能追加、表計算ソフトによる管理からの卒業等々、様々なWebシステムの開発を行っています。

iOS/Androidアプリ開発

既存事業のDXによるアプリの新規開発から既存アプリの改修・機能追加まで様々なアプリ開発における様々な課題・問題を解決しています。


リファクタリング

他のベンダーが開発したウェブサービスやアプリの不具合改修やソースコードの最適化、また、クラウド移行によってランニングコストが大幅にあがってしまったシステムのリアーキテクチャなどの行っています。