没有合适的资源?快使用搜索试试~ 我知道了~
PCA 与人脸识别及其理论基础
5星 · 超过95%的资源 需积分: 16 129 下载量 69 浏览量
2008-11-22
09:48:09
上传
评论 1
收藏 436KB PDF 举报
温馨提示
试读
12页
PCA 方法是由Turk 和Pentlad 提出来的,它的基础就是Karhunen-Loeve 变换(简称K-L变换),是一种常用的正交变换。本文讨论了利用PCA 进行人脸识别的方法,并附上源码。
资源推荐
资源详情
资源评论
1 PCA 与人脸识别及其理论基础
龚 勋(2007-4-29)
1.1 问题描述
[1]
对于一幅图像可以看作一个由像素值组成的矩阵,也可以扩展开,看成一个矢量,如一
幅 N*N 象素的图像可以视为长度为 N
2
的矢量,这样就认为这幅图像是位于 N
2
维空间中的
一个点,这种图像的矢量表示就是原始的图像空间,但是这个空间仅是可以表示或者检测图
像的许多个空间中的一个。不管子空间的具体形式如何,这种方法用于图像识别的基本思想
都是一样的,首先选择一个合适的子空间,图像将被投影到这个子空间上,然后利用对图像
的这种投影间的某种度量来确定图像间的相似度,最常见的就是各种距离度量。
1.1.1 K-L 变换
[1]
PCA 方法是由 Turk 和 Pentlad 提出来的,它的基础就是 Karhunen-Loeve 变换(简称 KL
变换),是一种常用的正交变换。下面我们首先对 K-L 变换作一个简单介绍:
假设 X 为 n 维的随机变量,X 可以用 n 个基向量的加权和来表示:
1
n
ii
i
X
α
φ
=
=
∑
式中:
i
α
是加权系数,
i
φ
是基向量,此式还可以用矩阵的形式表示:
12 1 2
(, , , )( , , , )
T
nn
X
φφ φ αα α
==Φα
取基向量为正交向量,即
T
j
ΦΦ =
1
0
ij
ij
=
⎧
⎨
≠
⎩
T
j
I
⇒Φ Φ =
则系数向量为:
T
X
=Φα
综上所述,K-L 展开式的系数可用下列步骤求出:
步骤一
求随即向量
X
的自相关矩阵
T
REXX
⎡
⎤
=
⎣
⎦
,由于没有类别信息的样本集的
µ
均值向
量,常常没有意义,所以也可以把数据的协方差矩阵
()()
T
Ex x
µµ
⎡
⎤
=−−
⎣
⎦
∑
作为
K_L
坐标系的产生矩阵,这里
µ
是总体均值向量。
步骤二
求出自相关矩阵或协方差矩阵
R
的本征值
i
λ
和本征向量
i
φ
,
1
(,, , )
in
φφ φ
Φ
=
步骤三
展开式系数即为
T
X
=Φα
K_L变换的实质是建立了一个新的坐标系,将一个物体主轴沿特征矢量对齐的旋转
变换,这个变换解除了原有数据向量的各个分量之间相关性,从而有可能去掉那些带
有较少信息的坐标系以达到降低特征空间维数的目的。
1.1.2 利用 PCA 进行人脸识别
完整的 PCA 人脸识别的应用包括几个步骤:人脸图像预处理;读入人脸库,训练形成
特征子空间;把训练图像和测试图像投影到上一步骤中得到的子空间上;选择一定
的距离函数进行识别。下面详细描述整个过程(源码见’faceRec.m’)。
1. 读入人脸库
归一化人脸库后,将库中的每人选择一定数量的图像构成训练集,其余构成测试集。设
归一化后的图像是 n*m,按列相连就构成 N=n*m 维矢量,可视为 N 维空间中的一个点,可
以通过 K-L 变换用一个低维子空间描述这个图像。
2. 计算 K- L 变换的生成矩阵
所有训练样本的协方差矩阵为(以下三个等价):
1
1
1. ( )/
2. ( )/
3. ()()
M
TT
Akk xx
k
T
A
M
T
Aixix
i
CxxMmm
CAAM
CxmxmM
=
=
⎧
=−
⎪
⎪
⎪
=
⎨
⎪
⎡⎤
⎪
=−−
⎢⎥
⎪
⎣⎦
⎩
∑
∑
ii
i
(1)
12
{ , ,..., }
M
A
φ
φφ
= ,
ii x
x
m
φ
=− ,
x
m 是平均人脸,
M
训练人脸数,协方差矩阵
A
C 是
一个N*N的矩阵, N 是
i
x
的维数。
为了方便计算特征值和特征向量,一般选用第2个公式。根据K - L 变换原理,我们所求
的新坐标系即由矩阵
T
A
Ai 的非零特征值所对应的特征向量组成。直接求N*N大小矩阵
A
C 的
特征值和正交归一特征向量是很困难的, 根据奇异值分解原理(见段落1.2.5和1.2.6),可以
通过求解
T
A
Ai 的特征值和特征向量来获得
T
A
Ai 的特征值和特征向量,。
在计算得到
A
C 的所有非零特征值
[
]
01 1
,,,
r
λλ λ
−
(从大到小排序,1 rM
≤
< )及其对应的
单位正交特征向量
[
]
01 1
,, ,
r
uu u
−
后,可以得到特征空间
[
]
01 1
,,,
r
Uuu u
−
=
*Nr
∈ℜ ,从而可以
计算一张图片X在特征空间上的投影系数(也可以理解为X在空间U中的坐标):
*
T
YU X=
*1r
∈
ℜ (2)
3. 识别
利用公式(2),首先把所有训练图片进行投影,然后对于测试图片也进行同样的投影,
采用判别函数对投影系数进行识别。
1.2 PCA 的理论基础
1.2.1 投影
[2]
设 d 维样本
1
x ,
2
x , ,
n
x ,以及一个 d 维基
w
,那么标量:
T
ii
y = wx
是相当于
i
x 在基上的坐标值。如果
1
=
w
,
i
y 就是把
i
x 向方向为 w 的直线进行投影的结果,
可以从图 1看到。推广之,如果有一组基(m 个)组成的空间
[
]
12
,,,
m
=Www w
,那么可
以得到
i
x 在空间 W 上的坐标为:
T
Y=W x
*1m
∈
ℜ 。
证明:
cos
T
i
θ
=⋅⋅wx w x
又
∵
cos y
θ
⋅
=x
,
w
=1
T
i
y⇒=wx
图 1 投影图
进一步,表达式
a=+wm e
表示 w 是一条通过点 m ,方向为 e 的直线。
1.2.2 PCA 的作用及其统计特性
[3]
采用 PCA 对原始数据的处理,通常有三个方面的作用—降维、相关性去除、概率估计。下
面分别进行介绍:
去除原始数据相关性
从统计学上讲,
[
]
[
]
{}
() ()EXEX YEY−−称为随机变量 X 与 Y 协方差,记为
(,)Cov X Y 。令
(,)
() ()
XY
Cov X Y
DX DY
ρ
= ,称为随机变量 X 与 Y 的相关系数。 1
XY
ρ
= 则 X 与
Y 是相关的,
0
XY
ρ
= ,则 X 与 Y 是不相关的。
命题 1对于矩阵 A 来说,如果
T
A
A
是一个对角阵,那么 A 中的向量是非相关的。
由 PCA 处理的人脸库数据的非相关性可以从两点进行说明。
(1) 基底的非相关性
特征空间基
[
]
01 1
,,,
r
Uuu u
−
= 是非相关的,即
T
UU I
=
。
(2) 投影系数的非相关性
由 SVD 可知
12
{ , ,..., }
M
A
φ
φφ
= =
T
UVΛ , 其中
ii x
x
m
φ
=
− ,
x
m 是平均人脸。根
据公式(2)可以把 A 映射到特征空间上,得到: *
T
BU A= ,其中
B
是非相
关的,可由下面得到证明:
Y 的协方差矩阵为:
2
11 1
TTT
B
CBBUAAU
M
MM
=
==Λ (3)
由命题 1可知,B 是非相关的。
统计参数(均值及方差)
x
w
θ
y
剩余11页未读,继续阅读
资源评论
- sjmp5252012-06-12非常好的资料。代码解释比较详细
- NEVERMINE_2013-01-06是一个PDF,内容比较详细 适合初学者
- kinglisa20092011-11-14原理及代码较详细,都有必要解释。
- irvingzhang2012-04-02内容讲的比较清楚,也附了Matlab的代码,不知道是否能运行
- 自溟2012-10-21很不错,写的很详细!
taoyingxue
- 粉丝: 3
- 资源: 8
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功