# 神经网络作业一实验报告
使用了 tensorflow 框架,参考了官方手册和教程进行实现,搭建了一个多层感知机对 MNIST 数据集进行分类。main.py 是入口函数,负责读取 MNIST 数据、调用各项学习方法、并绘制最后的性能图。MLP 相关代码位于 baseline.py,实现了一个单隐层的多层感知机,采用 sigmoid 激活函数,训练轮数为 50 轮。
其余文件均为 baseline 的变体,修改了对应的需要对比的点。
## 一、如何运行
运行 main.py 即可。
| 方法 | 50 轮后的测试集准确率 | 训练集准确率 |
| ----------------- | --------------------- | ------------ |
| baseline | 0.8944 | 0.8935 |
| 全 0 初始化 | 0.1138 | 0.1162 |
| 均方误差 | 0.8320 | 0.8413 |
| adam 自适应学习率 | 0.9564 | 0.9502 |
| L2 正则化方法 | 0.8861 | 0.8937 |
各项方法对比 不同的参数初始化方法
这里选择了全 0 初始化来与 baseline 方法的随机初始化对比。
不同的损失函数
这里选择了均方误差来与 baseline 方法的交叉熵损失对比。
不同的学习率调整方法
这里选择了 adam 自适应学习率方法来与 baseline 方法的固定学习率对比。
不同的正则化方法
这里选择了 L2 正则化方法(正则化项权重设为 0.001)来与 baseline 方法的无正则化对比。
**对比结果**
![](https://www.writebug.com/myres/static/uploads/2022/4/25/05d0ef6eb86e7b7f1f91cb379a1036ec.writebug)
全 0 初始化让 MLP 无法训练,故准确率一直保持在 11% 左右;均方误差性能不如交叉熵,因为是多分类而不是回归问题,使用交叉熵损失函数会更合适一些;采用自适应学习率比固定学习率更灵活高效,故收敛也更快,且性能更好,可以找到全局最优;使用 L2 正则化后训练集准确率提升更快,但最后达到收敛时训练集准确率比不正则化要略低一些,可能是因为防止了过拟合,并且使用 L2 正则化后测试集准确率略有提高。
## 二、最后选用的方法
随机初始化,交叉熵损失函数,adam 自适应学习率方法和无正则化。
因为 adam 自适应学习率方法和 L2 正则化都能提升性能,但我测试了一下同时采用这两种方法,性能反而下降了。所以还是只改进成 adam 自适应学习率方法性能最好。50 轮内训练集准确率最高为 0.9604,最终测试集准确率为 0.9502。
神仙别闹
- 粉丝: 4145
- 资源: 7485
最新资源
- 多线框物体架子检测28-YOLO(v5至v11)、COCO、CreateML、Paligemma、VOC数据集合集.rar
- Python快速排序算法详解及优化策略
- 政务大数据资源平台设计方案
- 完结17章SpringBoot3+Vue3 开发高并发秒杀抢购系统
- 基于MATLAB的信号处理与频谱分析系统
- 人大金仓(KingBase)备份还原文档
- SecureCRT.9.5.1.3272.v2.CN.zip
- CHM助手:制作CHM联机帮助的插件使用手册
- 大数据硬核技能进阶 Spark3实战智能物业运营系统完结26章
- Python个人财务管理系统(Personal Finance Management System)
- 多边形框架物体检测18-YOLO(v5至v11)、COCO、CreateML、TFRecord、VOC数据集合集.rar
- 虚拟串口VSPXD软件(支持64Bit)
- 机器学习金融反欺诈项目数据
- GAMMA软件新用户手册中文版
- CIFAR-10 64*64训练测试数据集
- cd35f259ee4bbfe81357c1aa7f4434e6.mp3
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈