神经网络 -- 基本模型
BP 神经网络中的 BP 为 Back Propagation 的简写,最早它是由
Rumelhart、McCelland 等科学家于 1986 年提出来的,Rumelhart 并在 Nature 上发表了
一篇非常著名的文章 《Learning representations by back-propagating errors》 。随着
时代的迁移,BP 神经网络理论不断的得到改进、更新,现在无疑已成为了应用最为广泛的神经
网络模型之一。让我们一起来探索下 BP 神经网络最初的 基本模型和概念!
从神经网络的生物模型说起
我们知道人大脑信息的传递、对外界刺激产生反应都由神经元控制的,人脑就是由上百
亿个的这样神经元构成。这些神经元之间并不孤立而且联系很密切,每个神经元平均与几千个
神经元相连接,因此构成了人脑的神经网络。刺激在神经网络中的传播是遵循一定的规则的,
一个神经元并非每次接到其他神经传递过来的刺激都产生反应。它首先会将与其相邻的神经元
传来的刺激进行积累,到一定的时候产生自己的刺激将其传递给一些与它相邻的神经元。这样
工作的百亿个的神经元构成了人脑对外界进行的反应。而人脑对外界刺激的学习的机制就是通
过调节这些神经元之间联系以及其强度。当然,实际上以上说的是对人脑真正神经工作的一种
简化的生物模型,利用这种简化的生物模型可以将它推广至机器学习中来,并把它描述成人工
神经网络。BP 神经网络就是其中的一种,来看看具体对神经元的分析。
图 1 神经网络中神经元示意图
神经元的积累的刺激是由其他神经元传递过来的刺激量和对应的权重之和,用 X
j
表示这
种积累,Y
i
表示某个神经元传递过来的刺激量,W
i
表示链接某个神经元刺激的权重,得到公
式:
X
j
= (y
1
* W
1
)+(y
2
* W
2
)+...+(y
i
* W
i
)+...+ (y
n
* W
n
)
而当 X
j
完成积累后,完成积累的神经元本身对周围的一些神经元传播刺激,将其表示
为 y
j
得到如下所示:
y
j
= f(X
j
)
评论0
最新资源