はじめに
- 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。
視聴メモ
(前回の復習)二乗誤差の最小化
(前回の復習)ROADMAP
- モデルを決める->どう最適化するかを考える
(前回の復習)特徴量
- ベクトルの和を行列の積で表現することは多い
(前回の復習)回帰・誤差
- MSE以外にあるか
- ある。誤差の表し方は自由。
- 表現できるか->簡単に解けるか
(前回の復習)その他
- ベクトルの書き方
- スカラと区別する
- 大文字にしたり上に矢印を書いたり線を入れたり
データの非線形性
- データの分布が非線形なら、線形モデルより表現能力が高い予測を行いたい
- -> 多項式回帰とか。複雑にする。
- 線形回帰モデル(前回まで)
- 単回帰
- 重回帰
- 多項式回帰モデル
- 次元が増えるので、水増しした特徴量を使っても良い
モデルの複雑さ
- 多項式特徴量を導入すればリッチな表現の回帰を実現できるが、どの程度リッチにすればいいのか。
- 20次多項式回帰は4次多項式回帰より良い?!
- -> 我々はなにを知ろうとしているのか?MSEを下げるのが最終目的ではない!
- -> 訓練用とテスト用のサンプルに分ける
モデルの複雑さをどう制御するか
- 2つある(やってることは同じ)
- モデル選択
- 適切な複雑さのモデルを選択する
- 正則化
- モデルの複雑さを抑制する仕組みを誤差関数に埋め込む
- -> 結果的に、適切な複雑さのモデルが学習される
- モデルの複雑さを抑制する仕組みを誤差関数に埋め込む
- モデル選択
k-hold交差検証によるテスト誤差の評価
- テスト事例がたまたま偏ったデータかもしれない
- -> 事例を分割して、順に訓練事例・テスト事例として使う