• Focal Modulation Networks-翻译

    本文介绍了使用Focal Modulation替代自注意力(self-attention)的FocalNet(Focal Modulation Network)网络,新模块具有更好的token交互效果。 近些年,Transformers在自然语言处理、图像分类、目标检测和图像分割上均取得了较大的成功,归根结底是自注意力(SA :self-attention)起到了关键性的作用,因此能够支持输入信息的全局交互。但是由于视觉tokens的大量存在,自注意力的计算复杂度高,尤其是在高分辨的输入时,因此针对该缺陷,本文提出了FocalNet网络。

    0
    100
    6.89MB
    2024-01-14
    0
  • 创作能手

    授予每个自然周发布4篇到6篇原创IT博文的用户
  • 勤写标兵

    授予累计1周发布3篇原创IT博文的用户
  • 知无不言

    回答1个问题,每日最多计数5次
  • 求知

    发布1个问题
  • 新秀勋章

    用户首次发布原创文章,审核通过后即可获得
  • 阅读者勋章

    授予在CSDN APP累计阅读博文达到3天的你,是你的坚持与努力,使你超越了昨天的自己。
关注 私信
上传资源赚积分or赚钱