パターン認識のお勉強(はじパタ第2章メモ~識別,学習法概要~)
にゃんぱす\(๑^Δ^๑)
前回に引き続き、
「はじめてのパターン認識、 平井 有川 著」
の続きをところどころ
- イメージ化
- 自分の身近なものへの置き換え、意訳
- 箇条書き化
して、自分用メモとして記録。
間違いがあったらすみません、では、はじパタ第2章~識別規則と学習法の概要~へ!
メモ
○汎化能力・・・識別規則が学習データにないデータを正しく識別できる能力。
代表的な識別規則の構成4つのイメージを↓に示す。
○識別・・・入力⇒クラスに変換する写像ともいえる。
○学習・・・場合によっては重みwの調整ともいえる。(fx=w1x1+w2x2+・・)
○アフィン関数・・・例:f=b+w1x
○教師データ・・・クラスを持った学習データ
クラス表示例)
2クラス分類の場合・・・ {1,-1}
3クラス以上の分類時・・・t = (0,1,0,0,0,0,0)---K対1符号化(1 hot表現)
○回帰・・・教師のクラスが2値ではない場合、入力xに対し関数を出力するよう学習。
--被説明化変数・・・回帰の出力
--説明変数・・・・・回帰の入力
○教師なし学習・・・クラスが分かっているデータがない学習。入力データ間の距離、類似度など統計的情報でグループ分けするのが主目的。
○汎化能力評価・・・入力-クラス対データを学習データセットDLとテストデータセットDTに分ける。学習データで学習した識別規則をテストデータに適用することで測る。
汎化能力評価のための学習-テストデータの代表的な分け方を4つ↓にイメージで示す。
本文中ブートストラップ法の所にマクローリン(テイラー)展開が使われている。
マクローリン(テイラー)展開・・・f(x)=Z+ax+bx^2+cx^3+…の形に変換する方法。一定回数微分してxにゼロを入れれば各係数a,b,c,…が一つづつ求まることを利用して変換する手法。ブートストラップ説明部でこれを(1+x)^nに適用したものを使用している。
○モデル選択・・・テストデータに対する精度が最高になるようにパラメータ数を選択すること。
↓にモデル選択関連のイメージを示す。