バイアスは, モデルの予測が真の値からどの程度外れているかを示す値である.
高バイアスのモデルは, 訓練データに対して適合度が低く, データのパターンを十分に学習できていないため, 過少適合(underfitting)の状態であると言える.
バリアンスは, モデルの予測がどの程度変動するかを測定するもので, 異なる訓練データセットを使用してモデルを再訓練した際の予測の一貫性を示す.
高バリアンスのモデルは, 訓練データに対して過度に適合し, 新しいデータに対する汎化性能が低くなり, 過剰適合(overfitting)の状態であると言える.
ノイズは, 観測データ内のランダムな誤差や変動のことを指し, これは測定誤差やモデルが説明できないデータの複雑さなど, 様々な要因によって生じうる.
モデルの訓練時においてノイズを含むデータを用いると, モデルがノイズに過度に適合してしまい, 汎化性能が低下する可能性がある.
訓練誤差は, モデルが訓練データにどの程度適合しているかを示す指標である.
訓練誤差が小さいことは, モデルが訓練データを正確に学習していることを意味するが, 必ずしもいいことではない.
モデルが訓練データに対して過剰適合し, 未知のデータに対する汎化能力を損なう可能性があるためである.
汎化誤差は, モデルが未知のデータに対してどの程度適合しているかを示す指標であり, バイアス・バリアンス・ノイズの3つの要素から構成される.
バイアスとバリアンスはトレードオフの関係にあるため, モデル構築時は両者が最も低くなるバランスを見つけることが重要である.
データ集合を D, 期待値を E, 損失関数を L, 説明変数を x, 真の値を h(x), 予測モデルを y(x;D), 入力データの確率密度関数を p(x), 実データを t とすると, 汎化誤差 E[L] は次のようにバイアス・バリアンス・ノイズの和に分解できる.
E[L]=∬{y(x;D)−t}2p(x,t)dxdt=∬{(y(x)−h(x))+(h(x)−t)}2p(x,t)dxdt=∫{y(x)−h(x)}2p(x)dx+∬{h(x)−t}2p(x,t)dxdt+2∬{y(x)−h(x)}{h(x)−t}p(x,t)dxdt(1)
第3項については
=2∬{y(x)−h(x)}{h(x)−t}p(x,t)dxdt2∫[∫{y(x)−h(x)}{h(x)−t}p(t∣x)dt]p(x)dx
と分割され, 内側の積分は
====∫{y(x)−h(x)}{h(x)−t}p(t∣x)dt{y(x)−h(x)}∫{h(x)−t}p(t∣x)dt{y(x)−h(x)}(h(x)∫p(t∣x)dt−∫tp(t∣x)dt){y(x)−h(x)}(h(x)−h(x))0
となるから, 第3項は 0 となる. ここで, ∫p(t∣x)dt=1,∫tp(t∣x)dt=h(x) に注意すること.
したがって, 式 (1) は
E[L]=∫{y(x)−h(x)}2p(x)dx+∬{h(x)−t}2p(x,t)dxdt(2)
となり, 第2項はノイズに対応する.
続けて, モデルの誤差である第1項について, 学習データセット D によるモデルの変動を考えるため, 期待値 ED∼p を導入すると, 次のように書ける.
(モデルの誤差)=ED∼p[∫{y(x)−h(x)}2p(x)dx]
ここで, モデルの予測平均 yˉ(x)=ED∼p[y(x;D)] を用いると,
====ED∼p[∫{y(x)−h(x)}2p(x)dx]∫ED∼p[{(y(x)−yˉ(x))+(yˉ(x)−h(x))}2]p(x)dx∫ED∼p[{y(x)−yˉ(x)}2]p(x)dx+∫ED∼p[{yˉ(x)−h(x)}2]p(x)dx+∫ED∼p[2{y(x)−yˉ(x)}{yˉ(x)−h(x)}]p(x)dx∫ED∼p[{y(x)−yˉ(x)}2]p(x)dx+∫{yˉ(x)−h(x)}2p(x)dx+∫2{yˉ(x)−h(x)}{ED∼p[y(x)]−yˉ(x)}p(x)dx∫ED∼p[{y(x)−yˉ(x)}2]p(x)dx+∫{yˉ(x)−h(x)}2p(x)dx
となる.
これを式 (2) に代入すると, 汎化誤差 E[L] は次のようにバイアス・バリアンス・ノイズの和に分解される.
E[L]=(Bias)2∫{ED∼p[y(x;D)]−h(x)}2dx+Variance∫ED∼p[{y(x;D)−ED∼p[y(x;D)]}2]dx+Noise∬{h(x)−t}2p(x,t)dxdt
バイアス・バリアンス分解においては, ある特定の D ではなく, 全ての可能な D に対するモデルの平均的な振る舞いを考慮するために, 期待値 ED∼p を導入している.
ノイズ項や yˉ(x),h(x) はデータセット D に依存しないため, 期待値 ED∼p の影響を受けないことに注意する.
正則化は, 機械学習モデルの訓練において, モデルの複雑さを抑制するために損失関数に正則化項を導入する手法である.
L1正則化は, モデルの重みの絶対値の和を損失関数に加える手法であり, スパースな解を促進する特徴がある.
線形回帰に対して適用する手法をラッソ回帰(Lasso Regression)と呼ぶ.
L2正則化は, モデルの重みの二乗の和を損失関数に加える手法であり, 重みの大きさを抑制し, 過剰適合を防ぐ効果がある.
線形回帰に対して適用する手法をリッジ回帰(Ridge Regression)と呼ぶ.
データの次元が増えることによって, 計算量の増加, データの疎性化, 過学習などの課題が生じることを次元の呪いという.
次元の呪いを回避するために, 次元削減や利用する特徴量を最適化する特徴量選択が有効である.