ICCV 2021放榜!发现一篇宝藏论文 (iccv2024截稿日期)

文章编号:45765 资讯动态 2024-12-09 2021 ICCV
ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

经过漫长的等待,ICCV 2021终于迎来放榜时刻!

最终1617篇论文被接收,接收率为25.9% ,相比于2017年(约29%),保持了和2019年相当的较低水平。

而投稿量则依旧逐年大幅增长,从2017年的2143篇,到2109年的4328篇,再到如今的6236篇,相比上一届多了50%左右。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

你看邮件的时候是这表情吗?

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

官方皮起来也是接地气、真扎心、没谁了哈哈~

也就在今天,AI科技评论发现了一项非常厉害的研究,号称

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

近来,Vision Transformer (ViT) 模型在诸多视觉任务中展现出了强大的表达能力和潜力。

纽约州立大学石溪分校与微软亚洲研究院的研究人员提出了一种新的 网络结构搜索方法AuToFormer ,用来自动探索最优的ViT模型结构。

AutoFormer能一次性训练大量的不同结构的ViT模型,并使得它们的性能达到收敛。

其搜索出来的结构对比手工设计的ViT模型有较明显的性能提升。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?


最近的研究发现,ViT能够从图像中学习强大的视觉表示,并已经在多个视觉任务(分类,检测,分割等)上展现出了不俗的能力。

Vision Transformer 模型的结构设计仍然比较困难。 例如,如何选择最佳的网络深度、宽度和多头注意力中的头部数量?

作者的实验发现这些因素都和模型的最终性能息息相关。然而,由于搜索空间非常庞大,我们很难人为地找到它们的最佳组合。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

图1: 不同搜索维度的变化会极大地影响模型的表现能力

本文的作者提出了一种专门针对Vision Transformer 结构的新的Neural Architecture Search (NAS) 方法 AutoFormer。AutoFormer大幅节省了人为设计结构的成本,并能够自动地快速搜索不同计算限制条件下ViT模型各个维度的最佳组合,这使得不同部署场景下的模型设计变得更加简单。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

图2: AutoFormer的结构示意图,在每一个训练迭代中,超网会动态变化并更新相应的部分权重


常见的One-shot NAS 方法[1, 2, 3]通常采取权重共享的方式来节省计算开销,搜索空间被编码进一个权重共享的 超网 (supernet) 中,并运用超网权重作为搜索空间中结构权重的一个估计。其具体搜索过程可分为两个步骤, 第一步是更新超网的权重

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

第二步是利用训练好的超网权重来对搜索空间中结构进行搜索。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

在实验的过程中,作者发现经典One-shot NAS方法的权重共享方式很难被有效地运用到Vision Transformer的结构搜索中。这是因为 之前的方法通常仅仅共享结构之间的权重,而解耦同一层中不同算子的权重。

如图3所示,在Vision Transformer的搜索空间中,这种经典的策略会遇到收敛缓慢和性能较低的困难。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

图3 权重纠缠和经典权重共享的训练以及测试对比

受到OFA [4], BigNAS [5] 以及Slimmable networks [6, 7] 等工作的启发,作者提出了一种新的权重共享方式—— 权重纠缠 (Weight Entanglement)。

权重纠缠进一步共享不同结构之间的权重,使得同一层中不同算子之间能够互相影响和更新 ,实验证明权重纠缠对比经典的权重共享方式,拥有占用显存少,超网收敛快和超网性能高的优势。

同时,由于权重纠缠,不同算子能够得到更加充分的训练,这使得AutoFormer能够一次性训练大量的ViT模型,且使其接近收敛。(详情见实验部分)

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

图4 权重纠缠和权重共享的对比示意图


作者设计了一个拥有超过备选结构的巨大搜索空间,其搜索维度包括ViT模型中的 五个主要的可变因素 :宽度 (embedding dim)、Q-K-V 维度 (Q-K-V dimension)、头部数量 (head number)、MLP 比率 (MLP ratio) 和网络深度 (network depth),详见表1。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

为了验证方法的有效性,作者将AutoFormer搜索得到的结构和近期提出的ViT模型以及经典的CNN模型在ImageNet上进行了比较。

对于训练过程,作者采取了DeiT [8]类似的数据增强方法,如 Mixup, Cutmix, RandAugment等, 超网的具体训练参数如表2所示。 所有模型都是在 16块Tesla V100 GPU上进行训练和测试的。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

搜索得到的结构在ImageNet数据集上明显优于已有的ViT模型。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

表3:各个模型在ImageNet 测试集上的结果

在下游任务中,AutoFormer依然表现出色,利 用仅仅25%的计算量就超越了已有的ViT和DeiT模型 ,展现了其强大的泛化性能力。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

表4:下游分类任务迁移学习的结果

够同时使得成千上万个Vision Transformers模型得到很好的训练 (蓝色的点代表从搜索空间中选出的1000个较好的结构)。

不仅仅使得其在搜索后不再需要重新训练(retraining)结构,节约了搜索时间,也使得其能在各种不同的计算资源限制下快速搜索最优结构。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

图5:左:AutoFormer能够同时训练大量结构,并使得其接近收敛。蓝色的点代表从搜索空间中选出的1000个较好的结构。右:ImageNet上各模型对比


本文提出了一种新的专用于Vision Transformer结构搜索的One-shot NAS方法—— AutoFormer。AutoFormer 配备了新的权重共享机制,即权重纠缠 (Weight Engtanglement)。在这种机制下,搜索空间的网络结构几乎都能被充分训练,省去了结构搜索后重新训练(Retraining)的时间。大量实验表明所提出的算法可以提高超网的排序能力并找到高性能的结构。在文章的最后,作者希望通过本文给手工ViT结构设计和NAS+Vision Transformer提供一些灵感。在未来工作,作者将尝试进一步丰富搜索空间,以及给出权重纠缠的理论分析。

[8] Touvron, Hugo, et al. "Training>

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

若二维码过期或群内满200人时,添加小助手微信(AIyanxishe3),备注ICCV2021拉你进群。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

特约稿件,未经授权禁止转载。详情见 转载须知 。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?


本文地址: https://www.gpxz.com/article/f758b339b36106a112e5.html
全局中部横幅
全局中部横幅
十大网盘资源搜索引擎

凌风云搜索是互联网专业的阿里云盘,百度网盘等十大网盘搜索引擎,是网盘资源搜索中心.

河间市党建云

河间党建云,河间市党建云,河间党建,河间市党建

二手机械设备市场

二手大全网是一家专业的二手设备、二手机械交易网站,我们提供最全的二手机械和二手设备交易信息,购买二手设备,出售二手设备就到二手大全:www.ershoudaquan.com

中国零食网

中国零食网主做低热量零食,办公室零食,休闲零食,80后零食,休闲零食店,狗零食,什么零食好吃,宠物零食,猫零食,零食多,老婆大人零食店加盟,海南特产零食,零食的危害,中国零食网,吃不胖的零食,零食连锁,小智零食店,进口零食加盟,老婆大人零食店,甜的零食,台湾零食,零食网店,食品加工在线,三全食品,双塔食品,安井食品,海欣食品,正大食品

烈火前端

一个前端妹纸的博客,专注国内外前端设计资讯,前端资源下载,前端开发教程,国内前端行业最好博客站点

麦穗日记

麦穗日记为帮助大家发现优质商品,新出淘宝百亿补贴优惠券,先领券再购物,以实惠的价格,享受全新的购物体验。

宁波商业街

宁波商业街网站是宁波一家综合性生意网站,集宁波购物、宁波吃喝玩乐、商品导购、生意买卖等功能为一体,足不出户帮您吸引客源,让宁波商家多一条路多一份商机多一点赢利。

良工阀门

上海良工阀门厂销售处提供良工闸阀,良工蝶阀,良工球阀,良工截止阀,良工止回阀等,上海良工阀门厂销售电话:13295105805

彩虹网址导航

彩虹网址导航,彩虹网址,网站导航,网址分类,彩虹导航,网址收藏,实用网址,在线工具,网站推荐,互联网资源

全局底部横幅