※ ChatGPTを利用し、要約された質問です(原文:AIC(赤池情報量規準)の導出過程)
AIC(赤池情報量規準)の導出過程
このQ&Aのポイント
AIC(赤池情報量規準)の導出過程とは、統計モデルの良さを評価するための指標であるAICの計算方法を説明したものです。
AICは最尤推定値を求める過程から導出され、標本数やパラメータ数などの要素を考慮してモデルの良さを判断します。
具体的には、最尤推定値を用いて平均対数尤度のn倍を計算し、さらに期待平均対数尤度を推定します。AICはこの期待平均対数尤度の不偏推定量を用いて計算され、小さいほど良いモデルとされます。
現在AIC(赤池情報量規準)について勉強しています。
対数尤度/平均対数尤度/期待平均対数尤度
といった似た言葉が多く混乱しています。
以下の記述は私の理解を整理したものですが、おかしな点はあるでしょうか?
-----------------------------------------------
以下のように記号を定義する
θ:未知のパラメータ
θ*:真のパラメータ
θ★:パラメータの最尤推定量
K:モデルの自由パラメータ数
対数尤度:l(θ)
平均対数尤度のn倍:l*(θ)
期待平均対数尤度:l'*(K)
統計モデルの良さを評価したいとき
●(K-L情報量)が小さい(0に近い)モデルほど良いモデル
↓
●(K-L情報量)は (定数)-(平均対数尤度) で表されるので
(平均対数尤度)が大きいほど良いモデル
↓
●(平均対数尤度のn倍)が大きいほど良いモデル
(∵nは標本数であり一定だから)
↓
●(平均対数尤度のn倍)の不偏推定量である(対数尤度)が最大になるような未知のパラメーターθ★を求める。これが最尤推定値。
↓
●(平均対数尤度のn倍)に最尤推定値θ★を代入した、
l*(θ★)が大きいほど良いモデル
↓
●l*(θ★)は、得られた標本 x_i (i=1,2,…,n) に依存する値
(∵最尤推定値θ★はx_iによって表される) なので、
l*(θ★)の x_i (i=1,2,…,n) についての期待値をとると
これが(期待平均対数尤度) l*'(K) となり、この値が大きいほど良いモデル
↓
●とはいえ、真のモデルが未知であるため、(期待平均対数尤度)は
実際には求められない
↓
●(期待平均対数尤度)の不偏推定量である l(θ★)-K が大きいほど
良いモデル
↓
●歴史的経緯により、l(θ★)-K を-2倍した値が、AIC(赤池情報量規準)
であり、AICが小さいほど良いモデル
以上
-----------------------------------------------
ここまでで、どこかおかしなところはあるでしょうか?
よろしくお願いします。
お礼
だんだんわかってきました。 もう少し考えてみます。 ありがとうございました!