神经网络与tensorflow基础(二)
神经网络与TensorFlow基础(二) 神经网络是人工智能领域中的一种重要算法,TensorFlow是Google开发的一款开源机器学习框架。本文将对神经网络的基础知识和TensorFlow的应用进行详细的介绍。 神经网络的卷积计算公式:FH与FW与卷积核大小相关。P表示添加多少圈的0。卷积参数共享是指对于图像中的某一个区域都采用相同大小的卷积核。卷积层相比于全连接层所需要的参数更少。公式为s=w*x+b。 池化层是指用于有选择性的压缩,进一步提取图像特征。常见的池化方法有最大池化(MAX POOLING)和平均池化。最大池化是指在“候选框”中选择最大数,用于压缩该“候选框”。平均池化是指对候选框中的数值进行平均值的计算。最大池化的效果比平均池化的效果更佳,因最大值池化比平均值池化所包含的干扰信息更少一些。 卷积神经网络在实际项目中的运用是指将卷积层和池化层相结合以进行特征提取。卷积层可以提取图像的特征,而池化层可以对特征进行压缩。卷积神经网络的架构可以分为CONV+RELU、POOL、CONV+RELU+POOL、FC四个部分。CONV+RELU是指卷积层和激活函数相连接。POOL是指池化层对特征图进行池化操作。CONV+RELU+POOL是指进行特征提取。FC是指最终进行全连接。 特征图的变化过程是指将三维的矩阵参数转换为一个行向量,方便与全连接层的计算。经典的网络架构有Alexnet、VGG、Resnet等。VGG网络的特点是所有的卷积核都是3*3,层数有大概16-19层。Resnet网络是针对VGG网络的问题提出来的,作者在此文中提出了一种同等映射的想法。 数据预处理是指对图像数据进行处理,以提高神经网络的训练速度和准确性。主要操作有去中心化和归一化。参数初始化是指对神经网络的参数进行初始化,以防止网络训练出来的特征图出现较大的抖动,影响后续的网络训练。 神经网络的大问题是过拟合风险较大。解决过拟合问题的操作有加入正则化惩罚项和利用DROP-OUT。DROP-OUT是指在训练阶段,需要杀死一部分神经元,以防止过拟合。在测试阶段,则不需要杀死一部分神经元。
剩余8页未读,继续阅读
- 粉丝: 102
- 资源: 8
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助