作者:AI小怪兽

YOLOv5独家原创改进:SPPF原创自研 | SPPF_attention,重新设计加入注意力机制,能够在不同尺度上更好的、更多的关注注意力特征信息

💡💡💡本文原创自研创新改进:

优点:为了利用不同的池化核尺寸提取特征的方式可以获得更多的特征信息,提高网络的识别精度。

如何优化:在此基础上加入注意力机制,能够在不同尺度上更好的、更多的获取特征信息,从而获取全局视角信息并减轻不同尺度大小所带来的影响

强烈推荐,适合直接使用,paper创新级别

💡💡💡 在多个数据集验证涨点,尤其对存在多个尺度的数据集、小目标数据集涨点明显

SPPF_attention改进结构图如下:

 

 

收录

YOLOv5原创自研

https://blog.csd

lock