大分前に,東大でシンポがあったときに,著者割で購入した久保さんの本。サインも頂いときました。なかなか読まないのでアメリカに持ってきたのですが,やっと読み始めました。メモを適宜残していきたいと思います。読了前から言えることは,とにかくお薦めです。
データ解析のための統計モデリング入門――一般化線形モデル・階層ベイズモデル・MCMC (確率と情報の科学)
- 作者: 久保拓弥
- 出版社/メーカー: 岩波書店
- 発売日: 2012/05/19
- メディア: 単行本
- 購入: 16人 クリック: 163回
- この商品を含むブログ (29件) を見る
読了:まとめ*1
やはり,久保さんが書かれただけあって,大変かゆいところに手が届く良い本だと思います。この本の前身である講義ノートにお世話になった派ですが,全部が全部新しいというわけではないにしても,買って損した気分はまったくしていません。ボク的には完全にお薦めですが,結局,「まともそうな統計解析は容易ではない:頭と時間を使わねばならない」ことが分かってテンションが下がる人がいるかもしれません。でもそういう意味でも,一度は通っておくべき道な気がします*2。久保さんらしい「ちょっと無責任っぽさ*3をにじませる脚注」があったり,ちょっと説明しすぎ,なところもあるような気もしますが,それはそれでいい気がします*4。色々書きましたが,お薦めです。回帰分析とかANOVAとか一通り伝統的な解析方法とその使いどころを学んだ後の方が,読み応えがあるかもしれません(あるいは,理解しやすいかもしれません)。余談ですが,AICのところやモデルの限界とかを考えると,結構不安定な基盤の上で研究を進めているなぁと思ったりもしました。
以下,個人的雑多なメモ。
- AICがなぜ使えるか?の説明が大変わかりやすい。
- あー,そういうことだったんですね,とある意味目から鱗でした。今更何をと言われそうですが,すみません。なんとなくのイメージはあったのですが,こんな感じまで理解はしてなかったです。ちょっと頭を使わないときつかったですが,でも理解できたはずです。
- ネストの話あたりも,あーだからここで,AICはネストしたモデル間の比較にしか使えないとかっていうRipleyさんのコメントに対する返答があったりするんですね。繋がっておもしろかったです。
- ちょっとわかりづらいのは,p86で「この説明変数xiは応答変数とまったく無関係な乱数なので,一定モデルのAICと比較すると,xモデルのAICは2ぐらい大きくなる,つまり「予測の良さ」が悪化するはずです」と書いておいて,p88で「この例題では説明変数xiが無意味なものだったので,統計モデルの複雑化によってAICが1増加しましたが,」と書いているところ。ボクの理解が正しければ,前者の予測は,変数に本質的な意味はない(はずな)のでAICの2×パラメータ数の部分からAICが2増えるだろうと予測しているだけど,実際は最大対数尤度に平均0.5のさらなるバイアスがかかるので,AICは1しか増えないということだと思う。だからなんだ?という気もするけど。この例を逆に考えると,AICの差の議論ってやはり難しいよなぁ。真のモデルじゃなくても,真のモデルとAICの差が1だったりするわけだし。AICの差が2未満は,本質的な違いではないとかっていうrule of thumbがあるけど,この例では当てはまってないわけで。
- なんでAICは2がかかっているのか?この本か,別の本かなんかで関連する記述かなんかを見た気がするけど忘れた。
- AICは予測の良さを基準とした規準。
- 尤度比検定は常に片側検定(p106)
- あまり考えたことなかったけど,これは確かにその通りですね。
- "「等分散性の検定」はよく使われていますが,これは検定の誤用"
- AICはパラメータ数は「最尤推定したパラメータ数」と意味するらしいので,(最尤推定していない)ランダム効果(ここではri)は含まれない(p160脚注)とのこと。
- へーそうだったんですか,という感じ。自由度の問題?といい,ランダム効果で説明できる部分は多いのにパラメータ数に含めないっていうのは,勝手な推測ですがこのあたりが議論になっていそうですね。
- ギブスサンプリングのFCDというのはよくわからなかったけど,収束判定,事前分布の分散の指定とリンク関数,出力結果の扱い方は「とりあえずWinBUGSを使った経験が少しある」ボクも勉強になりました(第9章)。