オンライン講座
はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習)CNN 畳み込みNN 入力の次元が大きいのが特徴(20 * 20 でも400) 画像理解に役立つネットワークの構造を考える 実際の画像認識には局所的な…
はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ 機械学習から深層学習へ これまで機械学習は線形モデルwxをベースにしていた 深層学習は、「どうすればよい特徴量が得られるか」を学習ベースで獲得するた…
はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習) 最小二乗法は、データが正規分布に生成されたことを想定したときの尤度最大化に相当する 決定的識別モデルは基本、二値分類だが、one-of-t…
はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習)ロジスティック回帰 シグモイド関数により、全実数を[0, 1]に押し込む モデリング: px = σ(wx) -> 損失どうするか。pxは[0, 1]の確率だが、…
はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習)精度と再現率のコントロール 指標が二つあるとどうすればよい? 精度も再現率もほどほどに = 正解率が高い ROC曲線の下の面積 = AUC(area u…
はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習)正則化 ノルム = 原点からの距離 普通想像するのはL2ノルム(単位円) 2乗の総和の平方根 ラッソ: 1, リッジ: 2 最適解が、どこに引き寄せ…
はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習)汎化誤差 p(x): wineデータのアルコール濃度だと、12%に偏った正規分布だったり(xごとの、取りうる確率) p(t|x): xが決まったときのt(qua…
はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習)二乗誤差の最小化 最適化の手法として二種類ある 近似解を求める 計算が軽い こちらの方が今は多い 最急降下法など ステップパラメータ 解…
はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習)最急降下法 局所解は求まるが、最適解は求まらないのでは 初期化で何回もチャレンジするとか 凸関数なら求まる (前回の復習)演習問題 バ…
はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ 機械学習とは何? 人間がもつ学習能力を計算機に データから知識・予測を得る技術 人口知能 統計学 最適化, etc 近年の発展は、大量データが取得になった…
はじめに AWS INNOVATE オンラインカンファレンスの機械学習モデルの開発プロセスを加速する:Amazon SageMakerの実践活用方法を視聴したときのメモです。 SageMakerは、なんとなく触ってブログも書いたことがあるので、知ってることもありましたが勉強にな…