Open mizukihiraishi opened 3 years ago
第1章:線形代数(固有値) 事前知識はあるので特に不明点はなかった。
固有値_01
固有値と固有ベクトルの関係 ある行列Aに対して以下のような式が成り立つようなベクトルxと係数λがある 特殊なベクトルxを行列Aの固有ベクトル、係数λを固有値という
固有値_02
具体例 固有ベクトルは一つに決まらない、同じ比の数字の組み合わせ
固有値_03
固有値・固有ベクトルの求め方 を と考える より、 ↑の関係になる固有値λを求めて、 ↑の関係になるベクトルxを求める(答えとしてはベクトルxの定数倍) 行列式が0になるということは逆行列を持たない 例題の場合 (A = ([1, 2],[3, 4])λ=5 or -1 Aの2行目についても が成り立つ 同様にλ=-1の時も求める
固有値_04
実践問題
固有値_05
固有値分解 行列Aの固有値を対角線上に並べた行列(それ以外の成分は0)Λとそれに対応する固有ベクトルを並べた行列Vを用意したとき、以下の関係になる AV = VΛ A = VΛV^-1 固有値分解可能なことによって、行列の積の累乗が簡単に計算できる
固有値_06
固有値分解 具体例 固有値分解は一つに決まらない 固有値の行列は大きいものから左に並べていく
固有値_07
固有値分解 問題
固有値_08
特異値分解 正方行列以外に対して分解する Mv = σu MTu = σv M = USVT ※ただしU、Vは直行行列
固有値_09
特異値の求め方 長方形の行列MにMを転置させた行列MTをかけると正方形の行列になる
固有値_10
特異値の求め方 具体例 転置したものと元の行列をかけると、斜めに対称な行列になる
固有値_11
特異値分解の利用例 特異値を減らしていき、成分の小さい部分を取り除いていくと画像がぼやけていくが、少ない成分でも画像の大枠はわかる(データを圧縮できる)
第2章:確率・統計(集合、確率)
統計学_1-1
プロローグ 統計学は独自の専門用語に加え、数学の言葉で記述されているので、それを読めるようになることが第一の目標 合わせて、情報科学の考え方を学ぶ
統計学_1-2
集合 ものの集まり 数学的な書き方 S = {a, b, c, d, e, f, g} a ∈ S (aはSに属する、aはSの要素) ※∈はしゅうごうで変換できる 内部にM = {c, d, g}があったとすると M ⊂ S (MはSの一部) h ∉ S (hはSの要素ではない、hはSに含まれない) 確率・統計に登場する事象は集合として取り扱うことができる
統計学_1-3
集合同士の計算 ある集合と別の集合に共通な部分があるとき 和集合と共通部分 A ∪ B (和集合 AもしくはB AカップB) A ∩ B (共通部分 AかつB AキャップB) 絶対補と相対補 Uは集合全体(A、B、AB以外すべて) U \ A = Aバー(Aの上に━) (絶対補 A以外 Aの否定) B \ A (相対補 Bの中でA以外)
統計学_1-4
集合 問題 ①A ∪ B全体のバーはAB以外すべて ②A ∩ B全体のバーは共通部分以外すべて(A、Bが属さない部分も) ③(B \ A) ∪ (A \ B)は存在しない ④が正解
統計学_1-5
確率
- 頻度確率
発生する頻度 → きちんと測定すれば必ず値が決まる 例:10本のうち1本だけ当たるくじの当選する確率を実際にくじを引いて調べたところ10%だったという事実
- ベイズ確率(主観確率)
信念の度合い → 全数調査ができない、中身がわからない・・・いろいろな条件を合わせて、観測者が主観的に数字を決める 例:あなたは40%の確率でインプルエンザですという診断 自分自身がどちらの視点で確率を見ているかに気を付ける
統計学_1-6
確率の定義 確率P(A) = 事象Aが起こる数n(A) / すべての事象の数n(U) n()・・・場合の数ともいう 1 ≧ P(A) ≧ 0 P(A-) = 1 - P(A)
統計学_1-7
複雑な場合の確率を集合を用いて考える P(A∩B) = P(A)P(B|A) P(A) ・・・すべての条件の中でAであることいいかえれば P(A|U) P(B|A)・・・Aである条件の下、Bであること P(A∩B) = P(B∩A)より、 P(A)P(B|A) = P(B)P(A|B)
統計学_1-8
条件付き確率 ある事象Bが与えられた下で、Aとなる確率 P(A|B) 例:雨が降っている条件下で交通事故に遭う確率 P(A|B) = P(A∩B) / P(B) = n(A∩B) / n(B) P(A∩B)・・・全体の中でAとBが同時に起きる確率 一般的に条件付き確率は通常より大きくなる・・・記号で書くと、P(A∩B) / P(B) ≧ P(A∩B) / P(U)
統計学_1-9
独立な事象の同時確率
- お互いの発生には因果関係のない事象Aと事象
例:道端の猫を見たら風邪をひく 独立な事象の場合、以下の式が成り立つ P(A∩B) = P(A)P(B|A) = P(A)P(B)
統計学_1-10
P(A∪B)の場合の確率 P(A∪B) = P(A) + P(B) -P(A∩B) なぜP(A∩B)を引いているのか・・・A∩Bの部分を二重に数えているので
統計学_1-11
ベイズ則・・・P(A)P(B|A) = P(B)P(A|B)
第2章:確率・統計(集合、確率)
統計学_2-1
統計 プロローグ 記述統計と推測統計 データがたくさんあると整理しなければならない 記述統計:母集団の性質を要約し記述する(平均をとるなど) 推測統計:集団から一部を取り出し(標本)、元の集団(母集団)の性質を推測する
統計学_2-2
確率変数と確率分布 確率変数:事象と結びつけられた数値、事象そのものを指すと解釈する場合も多い、例:当たりが出た場合の賞金、100万円の当たりが出た回数 確率分布:事象の発生する確率の分布、例:賞金が当たる確率の分布
統計学_2-3
期待値 その分布における確率変数の、平均の値 or ありえそうな値(実際の値) すべての確率P×確率変数fを足し合わせることで期待値が算出される 連続する値の場合、P×fの積分を計算することで期待値が算出される
統計学_2-4
分散と共分散 分散:データの散らばり具合、データ各々の値が期待値からどれだけずれているか平均したもの、各々の値と期待値の絶対値をとる代わりに2乗をとる、例:ある会社の売り上げは支店の平均が100万だった場合の支店の分散値を出すことで、平均値からの乖離が見える 共分散:2つのデータ系列の傾向の違い・・・正の値:似た傾向、負の値:逆の傾向、ゼロに近ければ近いほど関係性に乏しい
統計学_2-5
分散と標準偏差 分散は2乗しているため、元のデータと単位が違う(m→㎡) 2乗することの逆演算→分散の平方根を求めれば元の単位に戻る
統計学_2-6
様々な確率分布 ベルヌーイ分布:コイントスのイメージ、裏と表を数式で扱う、イカサマコインなどの裏と表で出る割合が等しくないものでも扱える マルチヌーイ分布(カテゴリ分布、カテゴリかる分布):サイコロを転がすイメージ、ベルヌーイ分布のμが増えた形
統計学_2-7
様々な確率分布 二項分布:nCrを階乗で書き直したものが係数となる(二項係数)、ベルヌーイ分布の多試行版、λのx乗はコイントスの場合表が出ただけ表の確率をかけていることを表している ガウス分布:釣鐘型の連続分布、真の分布がわからなくてもサンプルが多ければ正規分布に近づく exp(x-μ)でμから右肩下がりになるグラフになる
統計学_2-8
推測:母集団を特徴づける母数(パラメーター:平均、散らばりなど)を統計学的に推測すること 母数:母集団が持っている数、母集団を特徴づける数(母集団そのものではない) 点推定:平均値などを1つの値に推定すること 区間推定:平均値などが存在する範囲(区間)を推定すること
統計学_2-9
推定量と推定値 推定量(E):パラメータを推定するために利用する数値の計算方法や計算式のこと。推定関数とも。 推定値:実際に施行を行った結果から計算した値 例えると推定量が導関数、推定値が傾き 真の値をΘとすると・・・Θ^のように表す(Θ^(x)であれば推定量、実際の値が入っていれば推定値)
統計学_2-10
標本平均(点推定) 母集団から取り出した標本の平均値 サンプル数が大きくなれば、母集団の値に近づく → 一致性 サンプル数がいくらであっても、その期待値は母集団の値と同様 → 不偏性(偏りがない) 不偏性・・・サンプルを適当にとって平均値を求めると、母集団になるはず
統計学_2-11
標本分散・・・一致性は満たすが、不偏性は満たさない xからxの平均を引いたもので求める たくさんデータがある場合、少ないデータがある場合だと少ないデータの方がばらつきが小さくなる 不偏分散・・・標本分散を修正する 1/nがn/n-1を掛けることで1/n-1に変わっている n個サンプルがあるように見えてn-1個しかないと考えている 平均が2になっているという情報がある場合、1,2というデータがあると自動的に3に決まってしまう→平均に拘束されるので、n個自由度があるわけではなく、n-1個の自由度だったと考えている データが小さい場合、n-1の影響が大きくなる
統計学_2-12
情報科学・・・情報をどのように数量化するか 点が多い図より点が少ない図が変化がわかりやすい Δw(点の変化量)=1 上の図:Δw/w = 1/10 下の図:Δw/w = 1/1 → 増加の比率が違う 我々は情報の増え方(わかりやすさ)を比率で捉えていると考えられる
統計学_2-13
自己情報量 I(x) = -log(P(x)) = log(W(x)) ・・・Pは確率、Wは2-12における情報の増え方 W=1/P logが省略されている場合、底がeでなくてもよい場合がある 対数の底が2のとき、単位はbit 対数の底がeのとき、単位はnat
統計学_2-14
シャノンエントロピー 自己情報量の期待値 資料の図は裏表のコイン等のシャノンエントロピー 真ん中は裏表どちらとも確率が0.5の時・・・偏りがないとき → 情報の偏りがない時が一番情報量が大きい
統計学_2-15
カルバック・ライブラー ダイバージェンス(KLダイバージェンス) 同じ事象・確率変数における異なる確率分布P、Qの違いを表す(Ex. コインの表裏がどちらも同じ確率で出ると思ったらイカサマコインで表の方が出やすいとき) ダイバージェンス・・・距離に近い概念(P、Qの近さを距離のようにとらえている) I(Q(x)) - I(P(x))・・・Qは先に得た情報の珍しさ、Pは後で得た情報の珍しさ カルバック・ライブラー ダイバージェンス → 0を下回らない
統計学_2-16
交差エントロピー KLダイバージェンスの一部分を取り出したもの Qについての自己情報量をPの分布で平均している
演習問題、テスト
第1章:線形代数(行列)
プロローグ
行列_01
行列_02
行列_03
行列_04
行列_05
行列_06
行列_07
行列_08
行列_09
行列_10
行列_11
行列_12
行列_13
行列_14
行列_15