人脸识别算法(一)---eigenfaces

2019-07-13 01:48发布

1 向量的表示及协方差矩阵:http://blog.csdn.net/songzitea/article/details/18219237


矩阵相乘、向量内积的意义:

AB=|A|cos(a)

也就是说,设向量B的模为1,则A与B的内积值等于A向B所在直线投影的矢量长度
向量(x,y)实际上表示线性组合: x(1,0)T+y(0,1)T 要准确描述向量,首先要确定一组基,然后给出在基所在的各个直线上的投影值

基变换的矩阵表示:

将(3,2)变换为新基上的坐标,就是用(3,2)与第一个基做内积运算,作为第一个新的坐标分量,然后用(3,2)与第二个基做内积运算,作为第二个新坐标的分量。实际上,我们可以用矩阵相乘的形式简洁的表示这个变换: (1/21/21/21/2)(32)=(5/21/2) 例如(1,1),(2,2),(3,3),想变换到刚才那组基上,则可以这样表示: (1/21/21/21/2)(112233)=(2/204/206/20) 于是一组向量的基变换被干净的表示为矩阵的相乘。
两个矩阵相乘的意义是将右边矩阵中的每一列列向量变换到左边矩阵中每一行行向量为基所表示的空间中去。更抽象的说,一个矩阵可以表示一种线性变换。
方差:
       Var(a)=1mi=1m(aiμ)2

协方差矩阵对角化

根据上述推导,我们发现要达到优化目前,等价于将协方差矩阵对角化:即除对角线外的其它元素化为0,并且在对角线上将元素按大小从上到下排列,这样我们就达到了优化目的。这样说可能还不是很明晰,我们进一步看下原矩阵与基变换后矩阵协方差矩阵的关系:设原始数据矩阵X对应的协方差矩阵为C,而P是一组基按行组成的矩阵,设Y=PX,则Y为X对P做基变换后的数据。设Y的协方差矩阵为D,我们推导一下D与C的关系:
D=====1mYYT