二人の外部記録
× [PR]上記の広告は3ヶ月以上新規記事投稿のないブログに表示されています。新しい記事を書く事で広告が消えます。
現在研究している確率モデルのソフトクラスタリングへの応用を考えるために、
少しクラスタリングを復習。 どうしても次元縮約が好きな話題なので、NMFから入る。 Non negative Matrix Factorization。 特異値分解ベースで、普通のLSIを次元縮約だけでなく クラスタリングにも適用しようというもの。 それにしてもRで学ぶクラスタ解析、記述がいいかげんな気がする。 対象行列はないと思う。校正の問題だけど。 PR
明日は受験。プレゼンが18分。。。10~15分が目安と言われたが、しかたないか。
実際、新規参入する分野だから底が浅いのは仕方ないけど、 知ってること、理解してること、知らないことを切り分けて話すようにしよう。
一番古典的なものの概念は分かった。
データの座標ベクトルを並べた行列Xの積として、 内積行列B=XX^Tが得られる。 しかし、データの座標が未知でも、データ間距離が既知なら(内積を適当に決めて) 内積行列は求まる。 そこで、データ間距離から計算した内積行列を 特異値分解するなどして、行列の積の形にもっていき、 その行列を、データの座標ベクトルが並んだ行列とみなす。
Local featureの貢献度による重み付けとか、
coarse-to-fine matching procedureにおける逐次的な分類器って、 例の学習アルゴリズムと親和性が高いか? 個人による分類でなく、「視点」による分類をするというところは、 照合エンジンは買いものでも導入できるかも知れない。 Holevo の本、読み始める。 §0.2 General Postulates of Statistical Description |
カレンダー
フリーエリア
最新トラックバック
プロフィール
HN:
suna
性別:
非公開
職業:
研究
趣味:
数理的なこと。映画。読書
ブログ内検索
カウンター
|