mizukihiraishi / Study-AI

0 stars 0 forks source link

機械学習 #2

Open mizukihiraishi opened 2 years ago

mizukihiraishi commented 2 years ago

機械学習前半

講義で扱う内容 教師あり学習・・・インプットとアウトプットのペアがある 教師なし学習・・・インプットのみたくさんある状態 半教師学習・・・インプットとアウトプットのペアとインプットのみのデータが混在している 教師あり→予測・分類、教師なし→クラスタリング・次元削減 教師なし学習にも指標が存在する

回帰問題 ある入力(離散あるいは連続値)から出力(連続値)を予測する問題 e.g. 来場者から売り上げを予測する、データから順位予想(Vapnikの原理→ある問題を解くとき,その問題よりも難しい問題を途中の段階で解いてはならない e.g. 密度比推定) 回帰で扱うデータ 入力(各要素を説明変数または特徴量と呼ぶ)・・・m次元のベクトル(m=1のときはスカラー) 出力(目的変数)・・・スカラー値(ベクトルを返すことも可能) 説明変数 x = (x1, x2, ... , xm).T ∈ Rm (Rは実際は白抜きのR、m次元空間の実数全体、複素数をとってはならない) 目的変数 y ∈ R1

E資格の参考文献:機械学習のエッセンス(数学について書かれている、最新版を買う)

mizukihiraishi commented 2 years ago
mizukihiraishi commented 2 years ago

単回帰/重回帰→非線形な回帰を考える(動画参照) xの代わりに非線形なxに関する関数Φ(x)が入っている(x二乗、三角関数、log) xからΦ(x)に代えても、パラメータwについては線形のまま 非線形回帰モデル・・・線形モデルについて非線形回帰を行っている(wは線形のままでxが非線形)

参考文献:機械学習アルゴリズム辞典・・・ざっと学習するのにはよい