帰無仮説と対立仮説はペアである。帰無仮説が棄却できるのであれば、そのときの検定は有意であるといえる。逆に帰無仮説が棄却できないのであれば、そのとき検定は有意ではない、という。要するに帰無仮説とは生じた疑問が問題ない(これを”無に帰す”と言う)ということであって、「否定(帰無仮説)の否定(棄却)は肯定(検定有意)」と覚えればわかりやすい。そのときにペアとなる疑問の生じる仮説が対立仮説というのである。
これは主に仮説検定の中でも回帰分析においていえることであり、その判断基準がP値といわれることが多い(これについては過去の説明を参照してほしいが、P値だけをとらえるのは先行研究でも批判されているところである)。説明変数が無理にふたつはいると、対立を起こして、本来有意にならないものがあるとき、多重共線性(マルチコリニアリティ)を起こすことがあるが、これは回帰決定の分野で大きな問題である。
もっともらしさを尤度Lとしたとき、その尤度Lを考えるときにAIC(Akaike information criterion)が数理的に求まる。過適合(機械学習のケースでは過学習)の時に非常に強力な効果をもつ指標として世界的に有名である。説明変数を増やせば、より適合なモデルとする判断になることは明らか(多重共線性と過適合の違いはその性質であり、前者が変数内での矛盾を表すのに対して、後者は見せかけ上の強い相関を表す)であるが、それをうまく回避できる指標であり、モデルの安定化を図るために考案されたものである。
AIC=-2logL+2k
パラメータ数kにおいて定義されるがこのAICは統計数理研究所の赤池博士によって策定されたモデル式であり、尤度検定に対しての有効な数式である。このAICの”小さい”モデルを選択するというのが最善とされる。赤池博士は統計学での世界的な権威であったが、残念ながら、2009年に他界されている。赤池博士の残した業績はベイズ統計理論と融合し、今でもその脈絡は強く息づいている。