一、樣本均值與樣本方差
概述
假設(shè)有以下數(shù)據(jù):
樣本均值與樣本方差
以下定義了數(shù)據(jù)的樣本均值與樣本方差:
接下來(lái)需要對(duì)樣本均值與樣本方差進(jìn)行一些變換來(lái)獲得其另一種表示形式:
中心矩陣
因此最終可以得到
一個(gè)中心:PCA是對(duì)原始特征空間的重構(gòu),將原來(lái)的線性相關(guān)的向量轉(zhuǎn)換成線性無(wú)關(guān)的向量;
兩個(gè)基本點(diǎn):最大投影方差和最小重構(gòu)距離,這是本質(zhì)相同的兩種方法,在接下來(lái)的部分將具體介紹。
PCA首先要將數(shù)據(jù)中心化(即減去均值)然后投影到一個(gè)新的方向上,這個(gè)新的方向即為重構(gòu)的特征空間的坐標(biāo)軸,同時(shí)也要保證投影以后得到的數(shù)據(jù)的方差最大,即最大投影方差,這樣也保證了數(shù)據(jù)的重構(gòu)距離最小。
假設(shè)投影方向?yàn)?div id="moiyehiw" class='imgcenter'>
因此該問(wèn)題就轉(zhuǎn)換為以下最優(yōu)化問(wèn)題:
然后使用拉格朗日乘子法進(jìn)行求解:
最后解得符合條件的向量是協(xié)方差矩陣
特征向量表示投影變換的方向,特征值表示投影變換的強(qiáng)度。通過(guò)降維,我們希望減少冗余信息,提高識(shí)別的精度,或者希望通過(guò)降維算法來(lái)尋找數(shù)據(jù)內(nèi)部的本質(zhì)結(jié)構(gòu)特征。找最大的特征值是因?yàn)?,在降維之后要最大化保留數(shù)據(jù)的內(nèi)在信息,并期望在所投影的維度上的離散最大。
最小重構(gòu)距離是另一種求解的方法,其本質(zhì)上和最大投影方差是相同的。
我們知道有
因此重構(gòu)距離也就是指
然后就可以轉(zhuǎn)化為以下最優(yōu)化問(wèn)題:
顯然這里的每個(gè)
協(xié)方差矩陣
.
將
接下里可以做以下變換:
接下來(lái)我們構(gòu)造矩陣
對(duì)比
關(guān)于為什么將
這兩種?法都可以得到主成分,但是由于?差矩陣是
概述
假設(shè)有以下數(shù)據(jù):
其中
這是一個(gè)線性高斯模型,其中
上圖中數(shù)據(jù)空間為?維,潛在空間為?維。?個(gè)觀測(cè)數(shù)據(jù)點(diǎn)
推斷(inference)
求解
求
求
求
該問(wèn)題和《高斯分布|機(jī)器學(xué)習(xí)推導(dǎo)系列(二)》中第六部分的問(wèn)題是類(lèi)似的。
利用《高斯分布|機(jī)器學(xué)習(xí)推導(dǎo)系列(二)》中第五部分的公式可以求解
學(xué)習(xí)(learning)
使用EM算法求解,這里不做展示。
ref:降維時(shí)為什么找最大的特征值對(duì)應(yīng)的特征向量
ref:《模式識(shí)別與機(jī)器學(xué)習(xí)》
聯(lián)系客服