在《...(⼀)》中,⼩⼣从映射的⻆度讲解了矩阵及矩阵运算,这也是机器学习中看待矩阵的⾮常重要的视⻆。
另⼀⽅⾯说,矩阵当然也是⽤于存储数据的数据结构,这也是最好理解的形式。另外还可以看做是⼀个线性⽅程
组(课本上讲烂了的开头),甚⾄可以将其仅仅看做⼀般化的张量(tensor)中的⼀个普通切⽚(slice),或者说其
中⼀层。所以矩阵代表什么含义,要在不同的场景中灵活对待,不要局限在⼀种视⻆哦。
继续从映射的视⻆来看。
⼩⼣说,不同的矩阵就代表着不同的映射,就像上⼀篇⽂章讲的, 就可以表⽰“将输⼊的空间的第
⼀个维度的坐标轴缩短为原来的⼀半,将第⼆个维度的坐标轴拉伸为原来的两倍”。这就是这个矩阵的含义。
例如,输⼊⼀个⼆维空间⾥的多个样本点:
⽐如
此时的矩阵就是存储数据的视⻆啦。这⾥的矩阵就是每⼀⾏就是空间中的⼀个样本点,所以这个矩阵就代表⼆
维空间⾥的3个样本点。
所以将A中这个空间的三个样本丢给W这个映射,就得到了三个样本在新的空间的镜像点(跟⾼⼀时学的集合的
映射是⼀个概念):
看,是不是新得到的三个样本的第⼀维都被压缩成了原来的⼀半,⽽第⼆维被拉伸成了原来的两倍呢~
⽽神经⽹络中,每⼀层的输出经过权重矩阵,映射到下⼀层的输⼊的过程,就是上述这个过程哦(没有理解的再
看看这篇⽂章《神经⽹络激活函数》)
好啦。从映射的视⻆接着⾛。那么既然矩阵是描述映射的,那么肯定会有更严谨,更直观的形式去描述⼀个矩阵
背后所暗⽰的映射规则。这个更直观的形式是什么呢?
好,然后我们将映射 更加夸张⼀下,我们来看映射 。显然,按照⼩⼣之前的讲
解,这个映射就代表将第⼀维度压缩为原来的0.99倍(⼏乎没有变化!),将第⼆维度拉伸为原来的100倍(显然
变化⼗分极其⾮常的⼤)。这个映射的作⽤对象很明显: