ベイズの定理(ベイズ則)は, 観測されたデータ(結果)から, その原因である確率を求めるために使われる定理である.
一般的な式は以下の通り :
P(H∣D)=P(D)P(D∣H)P(H)
ここで, 各項の意味は
- P(H) : 事前確率 (Prior Probability)
- データDが観測される前の時点における, 仮説 H が起こる確率
- P(D) : 周辺尤度 (Marginal Likelihood)
- 全事象に対する, データ D が観測される確率
- P(D∣H) : 尤度 (Likelihood)
- 仮説 H の下で, データ D が観測される条件つき確率
- P(H∣D) : 事後確率 (Posterior Probability)
- データ D が観測された後の時点における, 仮説 H が起こる条件つき確率
である.
「事後確率は, 事前確率と尤度に比例し, 周辺尤度に反比例する」と覚える.
(事後確率)=(周辺尤度)(尤度)×(事前確率)
ベイズの定理は, 連続的な確率変数に対しても適用できる.
この場合は, 新しいデータ x が観測された下で, それまで既知だったパラメータ θ が取り得る値の分布を求めることができる.
式は以下の通り :
π(θ∣x)=∫θf(x∣θ)π(θ)dθf(x∣θ)π(θ)
ここで, 各項の意味は
- π(θ) : 事前分布 (Prior Distribution)
- データ x が観測される前の時点における, パラメータ θ の分布
- f(x∣θ) : 尤度関数 (Likelihood Function)
- パラメータ θ の下で, データ x が観測される確率密度関数
- ∫θf(x∣θ)π(θ)dθ : 周辺尤度 (Marginal Likelihood)
- 全ての θ に対する, データ x が観測される確率
- π(θ∣x) : 事後分布 (Posterior Distribution)
- データ x が観測された下での, パラメータ θ の分布
である.
※ 連続型と離散型の両方の確率変数が混在するパターンもある(練習問題3参照).
ナイーブベイズ分類器(単純ベイズ分類器)は, 先述のベイズの定理を基にした機械学習の分類アルゴリズムであり, 教師あり学習に分類される.
文書分類やスパムフィルタなどの問題に広く利用されており, 例えば, あるテキストが与えられた場合に, 各単語の出現頻度を特徴量とし, そのテキストがどのカテゴリに属するかを確率的に推定する.
このアルゴリズムが「ナイーブ」と呼ばれる理由は, 全ての特徴量は互いに独立であるという仮定を置いているためである.
例えば, 「丸い」「赤い」「甘い」という特徴から「リンゴ」を判定する場合, 本来は「赤ければ甘い可能性が高い」といった相関があるはずだが, ナイーブベイズではこれらを完全に無関係なものとして扱うのである.
- 処理が高速 : 学習も予測も計算量が少なく、リアルタイム処理に向いている.
- 省メモリ : 必要な統計量(確率の積)を保持するだけなので, メモリ効率が良い.
- 高次元データに強い : 特徴量が多くても, 各特徴量を独立に扱うため精度が落ちにくい(= 次元の呪いに比較的強い).
- 少量のデータでもOK : 学習データが少なくても, それなりの精度を出せる.
- 独立性の仮定 : 現実のデータには特徴量間の相関があることが多いため, 他モデル(ランダムフォレストやSVMなど)に精度で負ける可能性がある.
とある製品Aを製造する工場1, 2が存在する.
出荷される製品Aのうち, 工場1で製造されるものは全体の 70% , 工場2で製造されるものは全体の 30% である.
また, 製造時に工場1では 2%, 工場2では 10% の確率で不良品が発生してしまうという.
このとき, 消費者が購入した製品Aが不良品であった場合, それが工場1で製造されたものである確率を求めよ.
解答 (クリックで展開)
各事象を以下のように定義する.
- 事象 X : 製品Aが工場1で製造される
- 事象 Y : 製品Aが不良品である
このとき, 求める確率は P(X∣Y) である.
ここで, 問題の仮定から P(X)=0.7,P(Y∣X)=0.02 であり, P(Y) については各工場で不良品が発生する確率を足し合わせればよいから,
P(Y)=0.7×0.02+0.3×0.1=0.044
よって, ベイズの定理から,
P(X∣Y)=P(Y)P(Y∣X)P(X)=0.0440.02×0.7=0.3181⋯≈0.318.
全人口のうち 1% が感染しているある病気への感染を判定する検査Xが存在する.
この検査Xについては, 以下の性質があることが分かっている.
- 実際に病気に感染している場合には, 98% の確率で陽性判定を示す.
- 本当は病気ではない場合にも 0.1% の確率で陽性判定を示す.
ある被験者がこの検査Xを受けて陽性判定を受けたとする.
この被験者が実際に病気に感染している確率を求めよ.
解答 (クリックで展開)
各事象を以下のように定義する.
- 事象 P : 検査Xで陽性判定を受ける (文字が被った...)
- 事象 I : 実際に病気に感染している
このとき, 求める確率は P(I∣P) である.
ここで, 問題の仮定から P(P)=0.98,P(P∣I)=0.01 であり, P(P) については実際に病気に感染している場合と感染していない場合のそれぞれで陽性判定を受けるケースを考えればよいから,
P(P)=0.01×0.98+0.99×0.001=0.0107⋯
よって, ベイズの定理から,
P(I∣P)=P(P)P(P∣I)P(I)=0.01070.98×0.01=0.9158⋯≈0.916.
全社員の平均通勤時間 μ を確率変数とする.
μ は当日の天候に影響を受けるので, 確率 31 で μ=0.5, 確率 21 で μ=1, 確率 61 で μ=2 となる.
上記で定まる μ に対して, 社員の通勤時間 X は正規分布 N(μ,1) に従うものとする.
今朝、ある社員の通勤時間が X=0.8 であった.
このとき, μ=0.5 である確率を求めよ.
ただし, 標準正規分布の確率密度関数は, 以下の値を用いて良い.
ϕ(0.3)≈0.3814,ϕ(−0.2)≈0.3910,ϕ(−1.2)≈0.1942
解答 (クリックで展開)
求める確率は P(μ=0.5∣X=0.8) であり, ベイズの定理を用いると,
P(μ=0.5∣X=0.8)=f(X=0.8)f(X=0.8∣μ=0.5)P(μ=0.5)(3.1)
となる.
ただし, f(X∣μ) は, 正規分布 N(μ,1) の確率密度関数である :
f(X∣μ)=2π1exp(−2(X−μ)2)(3.2)
ここで, 標準正規分布 N(0,1) の確率密度関数を ϕ(z) とすると,
ϕ(z)=2π1exp(−2z2)(3.3)
と書けるから, 式(3.2)と式(3.3)を比較すると, f(X∣μ)=ϕ(X−μ) が成り立つことが分かる.
これを基に, 各 μ における尤度 f(X=0.8∣μ) を計算すると,
- μ=0.5 のとき : f(X=0.8∣μ=0.5)=ϕ(0.8−0.5)=ϕ(0.3)≈0.3814
- μ=1 のとき : f(X=0.8∣μ=1)=ϕ(0.8−1)=ϕ(−0.2)≈0.3910
- μ=2 のとき : f(X=0.8∣μ=2)=ϕ(0.8−2)=ϕ(−1.2)≈0.1942
となるから, 周辺尤度 f(X=0.8) は,
f(X=0.8)=0.3814×31+0.3910×21+0.1942×61=0.355
したがって, 式(3.1)より,
P(μ=0.5∣X=0.8)=0.3550.3814×31=0.3581⋯≈0.358.