没有合适的资源?快使用搜索试试~ 我知道了~
AI大作业报告1
资源详情
资源评论
资源推荐
智能导论:深度学习作业
63 鲍轩 2016011423
64 王卓远 2016013283
摘要
该份报告为《智能导论》课程深度学习作业的项报告。本项针对可控环境的植物叶脉提取问
题,采含膨胀卷积的多层全卷积神经络,在判定是否是叶脉的分类问题上达到0.98585的AUC分
数和0.71338的F1分数,取得较好的效果。
本份报告第部分介绍题要求,即我们项完成的功能。第部分介绍我们使的数据集。第三部
分介绍我们的算法。第四部分介绍我们进的实验和实验结果。第五部分展示最终模型的结果。
第六部分简述我们代码的组成和运、测试式。第七部分介绍本组两位同学的分。最后部分为总
结。
、题简述
本次我组选择第个题,即植物叶脉提取。任务标是对于净(没有嘈杂背景、光线适中、叶占
据图主要部分)的叶图,勾出叶的轮廓和叶上的叶脉。
考虑到叶脉本身往往颜与周围叶同,颜的差异表示叶脉,该问题可以被视为个边缘检测
问题;但是,叶脉是具有定的空间结构,有含义的物体,因此,该问题也可以被看作个图像分割问
题。
、数据集
本项采的数据集是由《智能导论》课程的同学们收集并标注的。包含冬、紫丁、五叶爬
三类植物,共418张叶图及对应标注的叶脉图。数据集的特点有:
叶图拍摄于可控环境,然环境:叶图多有浅、净背景,光线适中,叶居
中且占据主要部分。但是,也有部分图背景嘈杂,或叶质较差。图、,拍
照质也因异。
标注由完成:同学们使Photoshop软件画出叶的轮廓和叶脉。多数标注仅画出主叶脉
和级叶脉,也有部分标注画出级及以上的叶脉。部分标注的叶脉图与叶图对。
模型结构示意
排除掉明显没有对的数据(叶图与叶脉图同),数据集有368张有效图。
三、我们的案
3.1 数据预处
由于数据集是同学们收集的,没有经过处,法直接为模型所,我们对数据进必要的预处
。排除掉明显没有对的数据后,我们将剩下的数据进edge-padding到宽为3:4(过则左右对
称padding,过宽则上下对称padding),然后将所有的叶和叶脉图resize到 。
这没有选择对图进剪切,是为避免图的背景部分被切去。直接resize的原因主要是避免
叶图被拉伸,导致其然空间结构在尺度上被破坏。进edge padding能够使得图的padding的部
分较平滑,会由于padding产明显的边界,有于训练的进。选择宽为3:4,是因为数据
集中多数图原先的宽就是3:4,且该也是部分机拍照的默认。
对于标注的叶脉图,除与叶图进同样的padding、resize操作,还对其进值化。叶脉
所在的像素为1,即;叶脉的像素为0,即。
在进测试时,图预处的部分参数需要逐图进保存,在后处时需要这些数据将叶脉图还原
原图。
3.2 全卷积神经络
对于该问题,我们采种仅有卷积层构成的桶形络,图从输到输出的尺直变(但是通
道数有变化)。由于resize到 的 图 中 叶 脉 的 宽 度 般 仅 有 个 像 素 , 我 们 需 要 避 免 对 图 再
在空间上降维。因此,我们使任何池化层,卷积层的步也被设置为1。
作为低级特征,叶脉本身很容通过卷积层识别出来。但是,直接采浅层卷积神经络,络仅能依
靠极其局部的信息对每像素是否属于叶脉进预测,没有使全局信息,会出现拟合问题。因此
络的预测结果佳。实际实验中,也发现在叶脉之外有的区域被预测成叶脉,预测结果出现
「斑点」。
Layer Number of Kernel Kernel Size Activation Dilation Rate
conv 1 ReLU /
conv 2 ReLU /
conv 3 ReLU
conv 4 ReLU
conv 5 ReLU
conv 6 ReLU
conv 7 ReLU /
conv 8 Sigmoid /
为叶的全局信息,我们需要让神经络在空间上进范围的「交流」。池化层和全连接层
可以达到这的。但是,池化层会降低空间精度,全连接络必然会极的增加参数个数,使得训
练速度减慢,并难以避免地出现过拟合问题。因此,我们选择采膨胀卷积,效地扩张感受野。严
格来说,此时最后层特征图中的每个像素点的预测过程仍然仅依靠较的「局部」信息,并未真
正扩展到整张图。但是,由于叶脉本身具有树状结构:从叶脉上的某点开始,向茎的反向看去,这
「枝」的空间结构与整个叶脉是相似的。因此,仅依靠局部卷积的络,只要感受野增到定范
围,则已经可以对叶脉有较好的提取效果。
对于此全卷积神经络,实验中采多种结构,包括同的膨胀率、膨胀率组合、络宽度与深度
等。部分结果可以参考第四节的实验部分。最终我们选择如下模型作为最终提交的模型。
3.3 损失函数
3.3.1 Cross-Entropy和Hinge损失函数
分类问题常常最后层采Sigmoid函数,即:
为解决Sigmoid函数在 值 较 时 出 现 的 梯 度 过 导 致 训 练 速 度 慢 的 问 题 , 使 Sigmoid函数作为输出层
激活函数时,往往采交叉熵损失函数,即:
其中 为真值, 为预测值。
同时,受到SVM的软分类和最间隔分类的启发,我们也尝试在络最后层使任何激活函数,
采Hinge损失函数,即:
般的写法会将正负两类样本记为 ,此处为致起,采上述的表示。
3.3.2 损失函数微调
剩余12页未读,继续阅读
呆呆美要暴富
- 粉丝: 34
- 资源: 339
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论0