忍者ブログ
[1] [2] [3] [4] [5] [6]
×

[PR]上記の広告は3ヶ月以上新規記事投稿のないブログに表示されています。新しい記事を書く事で広告が消えます。

NMF
現在研究している確率モデルのソフトクラスタリングへの応用を考えるために、
少しクラスタリングを復習。
どうしても次元縮約が好きな話題なので、NMFから入る。
Non negative Matrix Factorization。
特異値分解ベースで、普通のLSIを次元縮約だけでなく
クラスタリングにも適用しようというもの。

それにしてもRで学ぶクラスタ解析、記述がいいかげんな気がする。
対象行列はないと思う。校正の問題だけど。
PR
明日は受験。プレゼンが18分。。。10~15分が目安と言われたが、しかたないか。
実際、新規参入する分野だから底が浅いのは仕方ないけど、
知ってること、理解してること、知らないことを切り分けて話すようにしよう。
MDS
一番古典的なものの概念は分かった。
データの座標ベクトルを並べた行列Xの積として、
内積行列B=XX^Tが得られる。
しかし、データの座標が未知でも、データ間距離が既知なら(内積を適当に決めて)
内積行列は求まる。
そこで、データ間距離から計算した内積行列を
特異値分解するなどして、行列の積の形にもっていき、
その行列を、データの座標ベクトルが並んだ行列とみなす。
Local featureの貢献度による重み付けとか、
coarse-to-fine matching procedureにおける逐次的な分類器って、
例の学習アルゴリズムと親和性が高いか?

個人による分類でなく、「視点」による分類をするというところは、
照合エンジンは買いものでも導入できるかも知れない。

Holevo の本、読み始める。
残念ながら一番読みたかった、1982のProbabilistic and Statistical Aspects of Quantum Theory ではなく、比較的最近のもの(Statistical Structure of Quantum Theory)。
これにもきちんと量子Gaussianのことが詳細に記されているのかな?

§0.2 General Postulates of Statistical Description
統計的モデル(情報幾何的な意味ではない)を定める
公理を4つあげて、古典論と量子論を並列で眺める。
ざっと読んだので、各定義の意味から意義までをまとめること。



忍者ブログ [PR]
カレンダー
08 2024/09 10
S M T W T F S
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30
フリーエリア
最新コメント
[05/11 管理人2]
[01/10 suna]
[01/10 suna]
[11/07 NONAME]
[09/28 suna]
最新記事
NMF
(05/14)
(05/14)
(09/11)
(08/31)
(08/25)
最新トラックバック
プロフィール
HN:
suna
性別:
非公開
職業:
研究
趣味:
数理的なこと。映画。読書
バーコード
ブログ内検索
最古記事
(09/07)
(09/07)
(09/07)
(09/07)
(09/10)
カウンター