统计学习精要 (Elements of Statistical Learning ) 习题 3.21

来源:互联网 发布:知乎扫地机器人 编辑:程序博客网 时间:2024/05/04 06:32

统计学习精要 (Elements of Statistical Learning ) 习题 3.21

3.21 Show that the solution to the reduced-rank regression problem (3.68), with Σ estimated by YTY/N, is given by (3.69).
Hint: Transform Y to Y=YΣ1, and solved in terms of the canonical vectors u. Show that Um=Σ12Um ,and a generalized inverse is Um=UTMΣ12.

思路:

(3.68) 是

B̂ rr(m)=argrank(B)=mmini=1N(yiBTxi)TΣ1(yiBTxi).

其中Σ是拟合误差的协方差矩阵。这个问题表示线性拟合用的矩阵B的秩是m的限制下,最小化标准化的拟合误差。此处如果用YTY/N替换Σ,那么其解就是
B̂ rr(m)=B̂ UmUm

在下文,我用秩r替换秩m,N看作是新的矩阵,仅仅用的符号改变而已。证明这个需要准备一个小的定理。

定理一:S是一个m×n的矩阵且秩为m。若求同样m×n的矩阵P但秩为r(m),使得tr[(SP)T(SP)]最小化,那么P=SNNT,其中N大小是n×r且其列向量是STS的前r个标准化的特征向量。

证明:
假定 P=MNTMRm×rNRn×rNTN=I。则

argPmintr[(SP)T(SP)]=argMmintr[(SMNT)T(SMNT)]

因此 M=SN, 且P=SNNT。代入则得
argNTN=Imintr[(SSNNT)T(SSNNT)]=tr(STSNTSTSN)

因此问题转化为
argNTN=Imaxtr(NTSTSN)

因此NSTS的前r个特征向量。

回归原题,

i=1N(yiBTxi)TΣ1(yiBTxi)=trace(YXB)Σ1(YXB)T=trace(YXB)Σ12Σ12T(YXB)T=trace(YXB)T(YXB)

其中Y=YΣ12B=BΣ12

展开则可以得到

trace(YXB)T(YXB)=trace(YTY2YTXB+BTXTXB)=trace(YTYYTX(XTX)12(XTX)12XTY)+trace(YTX(XTX)12(XTX)12XTY2YTX(XTX)12(XTX)12B+BT(XTX)12(XTX)12B)=trace(YTYYTX(XTX)12(XTX)12XTY)+trace((XTX)12XTY(XTX)12B)T((XTX)12XTY(XTX)12B)

S=(XTX)12XTYP=(XTX)12B,那么根据定理一 P=SNNT,其中NSTS的前r个特征向量。又因为ST=YTX(XTX)12=(YTY)12(YTX)(XTX)12,因此N是canonical vectoer.

最后,(XTX)12B=(XTX)12XTYNNT,因此 B=(XTX)1XTYΣ12NNTΣ12。这和题目的B̂ rr(m)=B̂ UmUm含义一致。

0 0
原创粉丝点击