PCA與矩陣分解

這邊寫下之前讀到的筆記,基本上資料來源是李弘毅老師的投影片 Unsupervised Learning: Linear Dimension Reduction (http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML16.html)

PCA

x 是向量,代表原始數據。W是轉換矩陣。z是轉換後的結果。z的長度代表要把x降到幾維。
對於轉換後z的每個元素我們都希望variance越大越好,其意義代表分布越開越可區分資料,W會有條件…
Figure-Blog
Figure-Blog
分享製作的gk模型
More information
Followers
4