ICCV 2021放榜!发现一篇宝藏论文 (iccv2024截稿日期)

文章编号:45765 资讯动态 2024-12-09 2021ICCV
ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

经过漫长的等待,ICCV 2021终于迎来放榜时刻!

最终1617篇论文被接收,接收率为25.9% 相比于2017年(约29%),保持了和2019年相当的较低水平。

而投稿量则依旧逐年大幅增长,从2017年的2143篇,到2109年的4328篇,再到如今的6236篇,相比上一届多了50%左右。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

你看邮件的时候是这表情吗?

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

官方皮起来也是接地气、真扎心、没谁了哈哈~

也就在今天,AI科技评论发现了一项非常厉害的研究,号称

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

近来,Vision Transformer (ViT) 模型在诸多视觉任务中展现出了强大的表达能力和潜力。

纽约州立大学石溪分校与微软亚洲研究院的研究人员提出了一种新的 网络结构搜索方法AutoFormer ,用来自动探索最优的ViT模型结构。

AutoFormer能一次性训练大量的不同结构的ViT模型,并使得它们的性能达到收敛。

其搜索出来的结构对比手工设计的ViT模型有较明显的性能提升。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?


最近的研究发现,ViT能够从图像中学习强大的视觉表示,并已经在多个视觉任务(分类,检测,分割等)上展现出了不俗的能力。

Vision Transformer 模型的结构设计仍然比较困难。 例如,如何选择最佳的网络深度、宽度和多头注意力中的头部数量?

作者的实验发现这些因素都和模型的最终性能息息相关。然而,由于搜索空间非常庞大,我们很难人为地找到它们的最佳组合。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

图1: 不同搜索维度的变化会极大地影响模型的表现能力

本文的作者提出了一种专门针对Vision Transformer 结构的新的Neural Architecture Search (NAS) 方法 AutoFormer。AutoFormer大幅节省了人为设计结构的成本,并能够自动地快速搜索不同计算限制条件下ViT模型各个维度的最佳组合,这使得不同部署场景下的模型设计变得更加简单。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

图2: AutoFormer的结构示意图,在每一个训练迭代中,超网会动态变化并更新相应的部分权重


常见的One-shot NAS 方法[1, 2, 3]通常采取权重共享的方式来节省计算开销,搜索空间被编码进一个权重共享的 超网 (supernet) 中,并运用超网权重作为搜索空间中结构权重的一个估计。其具体搜索过程可分为两个步骤, 第一步是更新超网的权重

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

第二步是利用训练好的超网权重来对搜索空间中结构进行搜索。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

在实验的过程中,作者发现经典One-shot NAS方法的权重共享方式很难被有效地运用到Vision Transformer的结构搜索中。这是因为 之前的方法通常仅仅共享结构之间的权重,而解耦同一层中不同算子的权重。

如图3所示,在Vision Transformer的搜索空间中,这种经典的策略会遇到收敛缓慢和性能较低的困难。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

图3 权重纠缠和经典权重共享的训练以及测试对比

受到OFA [4], BigNAS [5] 以及Slimmable networks [6, 7] 等工作的启发,作者提出了一种新的权重共享方式—— 权重纠缠 (Weight Entanglement)。

权重纠缠进一步共享不同结构之间的权重,使得同一层中不同算子之间能够互相影响和更新 ,实验证明权重纠缠对比经典的权重共享方式,拥有占用显存少,超网收敛快和超网性能高的优势。

同时,由于权重纠缠,不同算子能够得到更加充分的训练,这使得AutoFormer能够一次性训练大量的ViT模型,且使其接近收敛。(详情见实验部分)

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

图4 权重纠缠和权重共享的对比示意图


作者设计了一个拥有超过备选结构的巨大搜索空间,其搜索维度包括ViT模型中的 五个主要的可变因素 :宽度 (embedding dim)、Q-K-V 维度 (Q-K-V dimension)、头部数量 (head number)、MLP 比率 (MLP ratio) 和网络深度 (network depth),详见表1。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

为了验证方法的有效性,作者将AutoFormer搜索得到的结构和近期提出的ViT模型以及经典的CNN模型在ImageNet上进行了比较。

对于训练过程,作者采取了DeiT [8]类似的数据增强方法,如 Mixup, Cutmix, RanDAUgment等, 超网的具体训练参数如表2所示。 所有模型都是在 16块Tesla V100 GPU上进行训练和测试的。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

搜索得到的结构在ImageNet数据集上明显优于已有的ViT模型。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

表3:各个模型在ImageNet 测试集上的结果

在下游任务中,AutoFormer依然表现出色,利 用仅仅25%的计算量就超越了已有的ViT和DeiT模型 ,展现了其强大的泛化性能力。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

表4:下游分类任务迁移学习的结果

够同时使得成千上万个Vision Transformers模型得到很好的训练 (蓝色的点代表从搜索空间中选出的1000个较好的结构)。

不仅仅使得其在搜索后不再需要重新训练(retraining)结构,节约了搜索时间,也使得其能在各种不同的计算资源限制下快速搜索最优结构。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

图5:左:AutoFormer能够同时训练大量结构,并使得其接近收敛。蓝色的点代表从搜索空间中选出的1000个较好的结构。右:ImageNet上各模型对比


本文提出了一种新的专用于Vision Transformer结构搜索的One-shot NAS方法—— AutoFormer。AutoFormer 配备了新的权重共享机制,即权重纠缠 (Weight Engtanglement)。在这种机制下,搜索空间的网络结构几乎都能被充分训练,省去了结构搜索后重新训练(Retraining)的时间。大量实验表明所提出的算法可以提高超网的排序能力并找到高性能的结构。在文章的最后,作者希望通过本文给手工ViT结构设计和NAS+Vision Transformer提供一些灵感。在未来工作,作者将尝试进一步丰富搜索空间,以及给出权重纠缠的理论分析。

[8] Touvron, Hugo, et al. "Training>

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

若二维码过期或群内满200人时,添加小助手微信(AIyanxishe3),备注ICCV2021拉你进群。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

特约稿件,未经授权禁止转载。详情见 转载须知 。

ICCV 2021放榜!发现一篇宝藏——如何一次性训练100,000+个Vision Transformers?

全局中部横幅
DOTA2

DOTA2刀塔官方网站,DOTA2资讯,DOTA2英雄资料,DOTA2活动发布官方阵地。DOTA2国服代理商完美世界,为你带来全球经典电竞大作DOTA2,进入刀塔畅享公平竞技体验。

无锡品纬小程序平台

小程序开发制作,广告投放

POS机办理申请

如果你每月要刷信用卡,肯定希望找一台稳定、秒到、资金安全的POS机!本站为大家提供多种品牌正规的POS机,费率稳定、到账安全让你可以放心使用,亿鑫合伙人正规聚合平台为你解忧!

防水线

惠州市康瑞精密组件有限公司拥有丰富的电子线束生产经验,产品有:新能源线束,防水线束,USB线束,线束加工定制,并和小米公司等建立了密切的合作关系。产品质量交期有保障!咨询热线:18688346088

吹膜机

瑞安市国华机械有限公司专业生产吹膜机、制袋机、印刷机等塑料软包装成套设备,主要产品有:塑料吹膜机、降解吹膜机、降解制袋机、快递袋吹膜机、快递袋制袋机、pe吹膜机、pp吹膜机等

电子级硫酸

岷山环能高科股份公司是一家集城市矿产、资源再生、综合利用、新型材料、智慧能源为一体的循环经济清洁生产企业。目前公司综合回收黄金500公斤、银300吨(取得商务部白银配额)、铜3000吨、锌2万吨、锑白500吨、铋300吨、碲10吨、铟10吨、电子级硫酸3万吨、精制酸3万吨等。

西安迈顿品牌设计

陕西迈顿互动传媒有限公司—(位于西安服务全国)专注品牌设计服务,餐饮品牌设计,餐饮空间设计,是把餐饮品牌文化、创始人故事、餐饮运营管理与艺术设计情怀相结合,通过三维的手法表现在餐厅的空间里,提供“体验”的空间环境。关注Mtons迈顿,为餐饮助力!分享品牌设计,餐饮品牌设计,餐饮品牌策划,餐饮VI设计,logo设计,画册设计,品牌命名,餐饮空间设计,餐厅装修设计,网站设计、网站制作、餐饮品牌设计公

首页

柏士达电源公司创建于2016年,是一批拥有20多年专业UPS经验的专业人事组建而成。主导产品BODAYN柏达昱能UPS,逆变器,稳压电源、电力工业级UPS、变压器和定制特殊机型等。功率容量分别覆盖1--720KVA,拥有百余种型号和规格。

邮编查

邮编查,邮编查询,在线查询邮编,邮编大全

广州物流专线

广州物流专线-广州货运专线-广州物流公司-快时达物流

全局底部横幅