nokoのブログ

こちらは暫定のメモ置き場ですので悪しからず

オンライン講座

TSUKUBA-OCW_機械学習_10_ニューラルネットワーク2RNNとGANを視聴したときのメモ

はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習)CNN 畳み込みNN 入力の次元が大きいのが特徴(20 * 20 でも400) 画像理解に役立つネットワークの構造を考える 実際の画像認識には局所的な…

TSUKUBA-OCW_機械学習_9_ニューラルネットワーク1基礎とCNNを視聴したときのメモ

はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ 機械学習から深層学習へ これまで機械学習は線形モデルwxをベースにしていた 深層学習は、「どうすればよい特徴量が得られるか」を学習ベースで獲得するた…

TSUKUBA-OCW_機械学習_8_k-meansと主成分分析を視聴したときのメモ

はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習) 最小二乗法は、データが正規分布に生成されたことを想定したときの尤度最大化に相当する 決定的識別モデルは基本、二値分類だが、one-of-t…

TSUKUBA-OCW_機械学習_7_確率的識別モデル、経験損失最小化を視聴したときのメモ

はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習)ロジスティック回帰 シグモイド関数により、全実数を[0, 1]に押し込む モデリング: px = σ(wx) -> 損失どうするか。pxは[0, 1]の確率だが、…

TSUKUBA-OCW_機械学習_6_カーネル、確率的識別モデル1を視聴したときのメモ

はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習)精度と再現率のコントロール 指標が二つあるとどうすればよい? 精度も再現率もほどほどに = 正解率が高い ROC曲線の下の面積 = AUC(area u…

TSUKUBA-OCW_機械学習_5_決定的識別モデルを視聴したときのメモ

はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習)正則化 ノルム = 原点からの距離 普通想像するのはL2ノルム(単位円) 2乗の総和の平方根 ラッソ: 1, リッジ: 2 最適解が、どこに引き寄せ…

TSUKUBA-OCW_機械学習_4_特徴選択とL1正則化を視聴したときのメモ

はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習)汎化誤差 p(x): wineデータのアルコール濃度だと、12%に偏った正規分布だったり(xごとの、取りうる確率) p(t|x): xが決まったときのt(qua…

TSUKUBA-OCW_機械学習_3_モデルの複雑さと汎化を視聴したときのメモ

はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習)二乗誤差の最小化 最適化の手法として二種類ある 近似解を求める 計算が軽い こちらの方が今は多い 最急降下法など ステップパラメータ 解…

TSUKUBA-OCW_機械学習_2_重回帰を視聴したときのメモ

はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ (前回の復習)最急降下法 局所解は求まるが、最適解は求まらないのでは 初期化で何回もチャレンジするとか 凸関数なら求まる (前回の復習)演習問題 バ…

TSUKUBA-OCW_機械学習_1_機械学習概論と単回帰を視聴したときのメモ

はじめに 筑波大学オープンコースウェアの機械学習を視聴させていただいたときのメモです。 視聴メモ 機械学習とは何? 人間がもつ学習能力を計算機に データから知識・予測を得る技術 人口知能 統計学 最適化, etc 近年の発展は、大量データが取得になった…

aws-innovate_【AI/ML】機械学習モデルの開発プロセスを加速する:Amazon SageMakerの実践活用方法 を視聴したときのメモ

はじめに AWS INNOVATE オンラインカンファレンスの機械学習モデルの開発プロセスを加速する:Amazon SageMakerの実践活用方法を視聴したときのメモです。 SageMakerは、なんとなく触ってブログも書いたことがあるので、知ってることもありましたが勉強にな…