統計的仮説検定 の説明の仕方ですが、2000年代からは、 z検定 などの個別の方法を、順番に説明するのが一般的です。 そうした文献では、尤度比検定が出て来ません。
一方、比較的古い書籍では、尤度比検定を説明して、そこからの各論として、個別の方法を説明していることがあります。
また、最近の文献では、尤度比を使うものの、従来の尤度比検定とは異なるものとして、ベイズファクターが紹介されるようになって来ています。
このページは、尤度比検定やベイズファクターとは、どういうものなのかについて、筆者が改めて整理してみたものです。
尤度比検定は、2つモデルの尤度関数について、尤度関数の最大値の比を調べる方法です。
尤度比が1に近い場合は、2つのモデルに優劣がないことになります。
優れていると考えているモデルを分母にして、尤度比が1よりもどのくらい小さくなるのかを評価します。
尤度比検定と似ているものとして、「ベイズファクター(ベイズ因子)」と呼ばれる方法があります。
ベイズファクターは、成り立ちが ベイズ統計 から来ていますが、そこから導かれた式は尤度比です。 尤度統計学 の立場では、尤度比検定とベイズファクターは、その点で同じものです。
以下は、慣例となっている使い方などの違いです。
尤度比検定では、優れていると考えているモデルを分母にして、尤度比が1よりもどのくらい小さくなるのかを評価するのが一般的です。
ベイズファクターでは、優れていると考えているモデルを分子にして、尤度比が1よりもどのくらい大きくなるのかを評価するのが一般的です。
尤度比検定では、分子と分母について、尤度関数の最大値(最尤値)を求めてそれらの比を評価します。
ベイズファクターでは、分子と分母について、周辺尤度を求めて、それらの比を評価します。
尤度比検定では、カイ二乗検定の形にして評価することが通例ですが、ベイズファクターでは、尤度比の大きさを直接評価することが通例です。
尤度比は、仮説検定に使われます。
なお、世の中の解説では、尤度比検定をフィッシャー流の検定として使う話題が多く、ベイズファクターをネイマン・ピアソン流の検定として使う話題が多いですが、 逆の使い方もできます。
そのため、「一般的な仮説検定や尤度比検定では、帰無仮説と対立仮説を対等に扱わないので、帰無仮説の採択ができない。 一方、ベイズファクターは、対等に扱うので、帰無仮説を採択することができる。」という説明を見かけることがありますが、誤解ではないかと筆者は考えています。
フィッシャー流の仮説検定に尤度を使う場合は、尤度比検定では、帰無仮説が分子です。
例えば、平均値の検定で、帰無仮説が「母平均が0」の場合、母平均を0とした場合の尤度が分子になります。 母平均を、データの平均値とした場合の尤度が分母になります。 これらの比が1に近いかどうかを評価します。
1よりも十分に小さければ、「帰無仮説ではない」という意味になります。 ほぼ1の場合、「帰無仮説と、データには違いがない」という意味になります。
帰無仮説と対立仮説の検定 のページにあるように、 ネイマン・ピアソン流の検定 を厳密にやろうとすると、帰無仮説と対立仮説の両方について、確認の作業が必要になります。
「どちらの仮説でもない」という可能性がない場合、別の言い方をすれば、「帰無仮説に近い・対立仮説に近い・帰無仮説と対立仮説に違いがない」の三択の場合、尤度比の値を見れば、この評価ができます。2つの仮説に対して、それぞれ確認作業をする必要がないです。
尤度比が1よりも十分に大きければ、分子の方の仮説に近いです。 1よりも十分に小さければ(ただし、0よりは大きい)、分母の方の仮説に近いです。 尤度比が、ほぼ1の場合、「両方の仮説の中間」ということになりますが、これはつまり、「仮説に違いがない」という意味になります。
「仮説に違いがない」ということが検証できる方法になることがわかりにくいですが、 例えば、帰無仮説が「傾きの係数なし」、対立仮説が「傾きの係数あり」の場合、尤度比が1に近いということは、「傾きの係数をいれても意味がない」ということになります。
分子に帰無仮説、分母に対立仮説を置く尤度比検定の使い方は、 ネイマン・ピアソンの定理により、 最強力検定 になることが知られています。
尤度比検定は、それ自体を使うだけでなく、他の手法へのハブのような役割も持っています。
平均値の検定や、平均値の差の検定などの良く知られた検定は、尤度比検定の尤度に、具体的な確率密度関数を入れることで導出されます。
帰無仮説が成り立っている場合の尤度を分母にして、データが得られている場合の尤度を分子にした比がスタートになります。 この比を整理していくと、良く知られた検定統計量が導かれます。
尤度比の形のままの場合、尤度比が十分に小さければ、帰無仮説が棄却できると考えます。
尤度比の対数について、サンプル数が無限大になると、カイ二乗分布に近付くことが知られています。
これの意味するところですが、サンプル数が多い時は、まず、カイ二乗分布を使う 適合度検定 と同じ検定ができることになります。
それだけでなく、サンプル数が多い時は、平均値の検定など、尤度比検定で表現できる他の検定についても、カイ二乗検定で扱えることになります。
「数理統計学 基礎から学ぶデータ解析」 鈴木武・山田作太郎 著 内田老鶴圃 1996
尤度比検定から、各種の検定手法を導出しています。
また、それらが、サンプル数が多い時に、どのようなカイ二乗検定になるのかを説明しています。
「数理統計学の基礎」 野田一雄・宮岡悦良 著 共立出版 1992
ワルド検定やスコア検定との関係についても説明があります。
「統計科学の基礎 データと確率の結びつきがよくわかる数理」 白石高章 著 日本評論社 2012
正規1標本モデルと、2標本モデルの例があります。
「統計学」 森棟公夫 他 著 有斐閣 2015
「数理統計学」 吉田朋広 著 朝倉書店 2006
「独習 統計学 24講 すべての医療系学生・研究者に贈る」 鶴田陽和 著 朝倉書店 2013
「Rを使った〈全自動〉ベイズファクタ分析 js-STAR_XR+でかんたんベイズ仮説検定」 田中敏・中野博幸 著 北大路書房 2022
ベイズファクタについて、ソフトウェアの具体的な使い方も含めた解説書です。
順路
次は
多変量解析