カイ二乗検定とは

カイ二乗検定(Chi-squared Test:$\chi^2$検定)とは、カテゴリカルデータ(名義尺度や順序尺度など、質的な分類データ)が、ある特定の理論的な分布に従っているか(適合度検定)、あるいは複数のカテゴリカル変数間に統計的な関連性があるか(独立性の検定)を評価するために用いられる統計的仮説検定の総称を指します。

この検定は、観測された度数と、帰無仮説のもとで期待される度数との間のずれを評価し、そのずれが偶然の範囲内であるかどうかを判断します。

カイ二乗検定の基本的な概念

カイ二乗検定は、データの分布に関するパラメトリックな仮定を置かない「非パラメトリック検定」の一つとして広く利用されます。特に、アンケート調査の結果やクロス集計表など、度数データを取り扱う際に非常に強力なツールとなります。

主な概念は以下の通りです。

  1. カテゴリカルデータ(Categorical Data): 性別(男性、女性)、血液型(A, B, O, AB)、満足度(不満、普通、満足)など、データをいくつかのカテゴリに分類したものです。数値データとは異なり、順序や間隔に意味を持たない場合が多いです。
  2. 観測度数(Observed Frequencies): 実際にデータ収集によって得られた、各カテゴリの出現頻度(カウント数)です。
  3. 期待度数(Expected Frequencies): 帰無仮説(例:データが特定の分布に従う、または変数間に独立性がある)が正しいと仮定した場合に、各カテゴリで理論上期待される出現頻度です。
  4. カイ二乗値(Chi-squared Value): 観測度数と期待度数との間の「ずれ」を数値化したものです。この値が大きいほど、観測度数と期待度数の間に大きな隔たりがあることを示し、帰無仮説が誤っている可能性が高まります。 基本的なカイ二乗統計量の計算式は以下の通りです。 \chi^2 = \sum \frac{(O_i – E_i)^2}{E_i} ここで、
    • Oi はi番目のカテゴリの観測度数
    • Ei​ は i番目のカテゴリの期待度数
    • ∑は全てのカテゴリにわたる合計
  5. カイ二乗分布(Chi-squared Distribution): 検定統計量であるカイ二乗値が従う確率分布です。この分布は「自由度(Degrees of Freedom)」というパラメータによって形状が変化します。自由度は、データのカテゴリ数や行数・列数によって決まります。カイ二乗値が特定の自由度のカイ二乗分布においてどの程度の確率で出現するかを評価し、p値を算出します。

カイ二乗検定の種類と手順

カイ二乗検定は、その目的に応じて主に以下の2つのタイプに分けられます。

1. 適合度検定(Goodness-of-Fit Test)

一つのカテゴリカル変数において、観測された度数の分布が、特定の仮定された理論的分布(例: 各カテゴリが均等に現れる、または既知の比率に従う)に適合しているかどうかを検定します。

  • 帰無仮説 (H0): 観測されたデータの分布は、仮定された理論分布に適合する。
  • 対立仮説 (H1): 観測されたデータの分布は、仮定された理論分布に適合しない。

手順の概要:

  1. 観測度数と期待度数を設定:
    • 観測度数は、実際に集計された各カテゴリの頻度です。
    • 期待度数は、帰無仮説(例:サイコロの各目が均等に出る、男女比が1:1であるなど)に基づいて計算します。
  2. カイ二乗値を計算: 上記のカイ二乗統計量の式に従って計算します。
  3. 自由度を決定: 自由度は「カテゴリ数 – 1」で計算されます。
  4. p値を計算し、結論を導く: 計算されたカイ二乗値と自由度を用いてp値を求めます。p値が有意水準(例: 0.05)より小さい場合、帰無仮説を棄却し、「観測データは仮定された分布に適合しない」と結論します。

: サイコロを多数回振ったときに、各目が出る回数が理論上期待される回数(均等な確率)から著しくずれているかどうかを検定する。

2. 独立性の検定(Test of Independence)

二つのカテゴリカル変数間に統計的な関連性があるかどうかを検定します。データは通常、クロス集計表(分割表)として整理されます。

  • 帰無仮説 (H0): 二つの変数は独立である(関連性がない)。
  • 対立仮説 (H1): 二つの変数は独立ではない(何らかの関連性がある)。

手順の概要:

  1. クロス集計表を作成し、観測度数を把握: 2つの変数(例: 性別と支持政党)の組み合わせごとのカウント数をまとめます。
  2. 期待度数を計算: 帰無仮説(二つの変数が独立である)が正しいと仮定した場合の期待度数を計算します。各セルの期待度数は、その行の合計と列の合計を全合計で割って求めることができます。

 E_{ij} = \frac{(i\text{行目の合計}) \times (j\text{列目の合計})}{\text{全合計}}

  1. カイ二乗値を計算: 各セルの観測度数と期待度数を用いて、カイ二乗統計量の式に従って計算します。
  2. 自由度を決定: 自由度は「(行数 – 1) × (列数 – 1)」で計算されます。
  3. p値を計算し、結論を導く: 計算されたカイ二乗値と自由度を用いてp値を求めます。p値が有意水準より小さい場合、帰無仮説を棄却し、「二つの変数間には統計的な関連性がある」と結論します。

: ある製品の購入意向が、性別によって異なるかどうかを調査する。

カイ二乗検定のメリットとデメリット

メリット

  • カテゴリカルデータの分析: 質的なデータであるカテゴリカルデータを直接分析できる数少ない統計手法の一つです。
  • 非パラメトリック: データの分布に関する特定の仮定を必要としないため、適用範囲が広いです。
  • 解釈の容易さ: 観測度数と期待度数のずれという直感的な概念に基づいており、結果の解釈が比較的容易です。
  • 幅広い応用性: アンケート分析、医療統計、マーケティング調査、社会科学研究など、多岐にわたる分野で利用されます。

デメリット

  • 度数データに限定: 連続変数や順序尺度データ(順序に意味がある場合)の直接的な比較には適しません。
  • サンプルサイズに依存: 期待度数が小さいセル(一般的には5未満)が多数ある場合、カイ二乗分布による近似の精度が低下し、検定結果の信頼性が損なわれる可能性があります。このような場合、フィッシャーの正確確率検定などの代替手法を検討する必要があります。
  • 関連性の強さを示さない: 独立性の検定は、変数間に統計的な関連性があるかどうかを示すだけで、その関連性の「強さ」や「方向性」は直接示しません。関連性の強さを評価するには、ファイ係数やクラメールのVなどの関連尺度を別途計算する必要があります。
  • 因果関係は示さない: 統計的な関連性が認められたとしても、それが直接的な因果関係を意味するわけではありません。

カイ二乗検定($\chi^2$検定)とは、カテゴリカルデータの観測度数が期待される度数とどれだけ異なっているかを評価する統計的仮説検定の総称です。主に「適合度検定」と「独立性の検定」の2種類があり、それぞれ単一の変数が特定の分布に従うか、または二つの変数間に統計的な関連性があるかを判断するために用いられます。

非パラメトリックであるため幅広いデータに適用でき、結果の解釈も直感的です。しかし、期待度数が小さい場合の精度の問題や、関連性の強さや因果関係を直接示さない点には留意が必要です。これらの特性を理解し、適切に適用することで、カテゴリカルデータの分析において非常に有用なツールとなります。

関連用語

コルモゴロフ-スミルノフ検定 | 今更聞けないIT用語集New!!
カテゴリカルデータ | 今更聞けないIT用語集
AIソリューション

お問い合わせ

システム開発・アプリ開発に関するご相談がございましたら、APPSWINGBYまでお気軽にご連絡ください。

APPSWINGBYの

ソリューション

APPSWINGBYのセキュリティサービスについて、詳しくは以下のメニューからお進みください。

システム開発

既存事業のDXによる新規開発、既存業務システムの引継ぎ・機能追加、表計算ソフトによる管理からの卒業等々、様々なWebシステムの開発を行っています。

iOS/Androidアプリ開発

既存事業のDXによるアプリの新規開発から既存アプリの改修・機能追加まで様々なアプリ開発における様々な課題・問題を解決しています。


リファクタリング

他のベンダーが開発したウェブサービスやアプリの不具合改修やソースコードの最適化、また、クラウド移行によってランニングコストが大幅にあがってしまったシステムのリアーキテクチャなどの行っています。