ICML 2019 (icml2024)

文章编号:45997 资讯动态 2024-12-09 ICML 2019

雷锋网 AI 科技评论按,本文作者 张拳石 ,上海交通大学副教授,研究方向为机器学习、计算机视觉,本文首发于 知乎 ,雷锋网 AI 科技评论获其授权转载。以下为正文内容。

本来想把题目取为「从炼丹到化学」,但是这样的题目太言过其实,远不是近期可以做到的,学术研究需要严谨。但是,寻找适当的数学工具去建模深度神经网络表达能力和训练能力,将基于经验主义的调参式深度学习,逐渐过渡为基于一些评测指标定量指导的深度学习,是新一代人工智能需要面对的课题,也是在当前深度学习浑浑噩噩的大背景中的一些新的希望。

这篇短文旨在介绍团队近期的 ICML 工作——「Towards a Deep and Unified Understanding of Deep Neural Models in NLP」(这篇先介绍 NLP 领域,以后有时间再介绍类似思想解释 CV 网络的论文)。这是我与微软亚洲研究院合作的一篇论文。其中,微软研究院的王希廷研究员在 NLP 方向有丰富经验,王老师和关超宇同学在这个课题上做出了非常巨大的贡献,这里再三感谢。

大家说神经网络是「黑箱」,其含义至少有以下两个方面:一、神经网络特征或决策逻辑在语义层面难以理解;二、缺少数学工具去诊断与评测网络的特征表达能力(比如,去解释深度模型所建模的知识量、其泛化能力和收敛速度),进而解释目前不同神经网络模型的信息处理特点。

过去我的研究一直关注第一个方面,而这篇 ICML 论文同时关注以上两个方面——针对不同自然语言应用的神经网络,寻找恰当的数学工具去建模其中层特征所建模的信息量,并可视化其中层特征的信息分布,进而解释不同模型的性能差异。

其实,我一直希望去建模神经网络的特征表达能力,但是又一直迟迟不愿意下手去做。究其原因,无非是找不到一套优美的数学建模方法。深度学习研究及其应用很多已经被人诟病为「经验主义」与「拍脑袋」,我不能让其解释性算法也沦为经验主义式的拍脑袋——不然解释性工作还有什么意义。

研究的难点在于对神经网络表达能力的评测指标需要具备「普适性」和「一贯性」。首先,这里「普适性」是指解释性指标需要定义在某种通用的数学概念之上,保证与既有数学体系有尽可能多的连接,而与此同时,解释性指标需要建立在尽可能少的条件假设之上,指标的计算算法尽可能独立于神经网络结构和目标任务的选择。

其次,这里的「一贯性」指评测指标需要客观的反应特征表达能力,并实现广泛的比较,比如

1. 诊断与比较同一神经网络中不同层之间语义信息的继承与遗忘;

2. 诊断与比较针对同一任务的不同神经网络的任意层之间的语义信息分布;

3. 比较针对不同任务的不同神经网络的信息处理特点。

具体来说,在某个 NLP 应用中,当输入某句话 x=[x1,x2,…,xn] 到目标神经网络时,我们可以把神经网络的信息处理过程,看成对输入单词信息的逐层遗忘的过程。即,网络特征每经过一层传递,就会损失一些信息,而神经网络的作用就是尽可能多的遗忘与目标任务无关的信息,而保留与目标任务相关的信息。于是,相对于目标任务的信噪比会逐层上升,保证了目标任务的分类性能。

我们提出一套算法,测量每一中层特征 f 中所包含的输入句子的信息量,即 H(X|F=f)。当假设各单词信息相互独立时,我们可以把句子层面的信息量分解为各个单词的信息量 H(X|F=f) = H(X1=x1|F=f) + H(X2=x2|F=f) + … + H(Xn=xn|F=f). 这评测指标在形式上是不是与信息瓶颈理论相关?但其实两者还是有明显的区别的。信息瓶颈理论关注全部样本上的输入特征与中层特征的互信息,而我们仅针对某一特定输入,细粒度地研究每个单词的信息遗忘程度。

其实,我们可以从两个不同的角度,计算出两组不同的熵 H(X|F=f)。

(1)如果我们只关注真实自然语言的低维流形,那么 p(X=x|F=f) 的计算比较容易,可以将 p 建模为一个 decoder,即用中层特征 f 去重建输入句子 x。(2)在这篇文章中,我们其实选取了第二个角度:我们不关注真实语言的分布,而考虑整个特征空间的分布,即 x 可以取值为噪声。在计算 p(X=x,F=f) = p(X=x) p(F=f|X=x) 时,我们需要考虑「哪些噪声输入也可以生成同样的特征 f」。举个 toy example,当输入句子是「How are you?」时,明显「are」是废话,可以从「How XXX you?」中猜得。这时,如果仅从真实句子分布出发,考虑句子重建,那些话佐料(「are」「is」「an」)将被很好的重建。而真实研究选取了第二个角度,即我们关注的是哪些单词被神经网络遗忘了,发现原来「How XYZ you?」也可以生成与「How are you?」一样的特征。

这时,H(X|F=f) 所体现的是,在中层特征 f 的计算过程中,哪些单词的信息在层间传递的过程中逐渐被神经网络所忽略——将这些单词的信息替换为噪声,也不会影响其中层特征。这种情况下,信息量 H(X|F=f) 不是直接就可以求出来的,如何计算信息量也是这个课题的难点。具体求解的公式推导可以看论文,知乎上只放文字,不谈公式。

首先,从「普适性」的角度来看,中层特征中输入句子的信息量(输入句子的信息的遗忘程度)是信息论中基本定义,它只关注中层特征背后的「知识量」,而不受网络模型参数大小、中层特征值的大小、中层卷积核顺序影响。其次,从「一贯性」的角度来看,「信息量」可以客观反映层间信息快递能力,实现稳定的跨层比较。如下图所示,基于梯度的评测标准,无法为不同中间层给出一贯的稳定的评测。

ICML 2019 | 神经的可解释性,从经验主义到数学建模

下图比较了不同可视化方法在分析「reverse sequence」神经网络中层特征关注点的区别。我们基于输入单词信息量的方法,可以更加平滑自然的显示神经网络内部信息处理逻辑。

ICML 2019 | 神经的可解释性,从经验主义到数学建模

下图分析比较了不同可视化方法在诊断「情感语义分类」应用的神经网络中层特征关注点的区别。我们基于输入单词信息量的方法,可以更加平滑自然的显示神经网络内部信息处理逻辑。

ICML 2019 | 神经的可解释性,从经验主义到数学建模

基于神经网络中层信息量指标,分析不同神经网络模型的处理能力。我们分析比较了四种在 NLP 中常用的深度学习模型,即 BERT, Transformer, LSTM, 和 CNN。在各 NLP 任务中,BERT 模型往往表现最好,Transformer 模型次之。

如下图所示,我们发现相比于 LSTM 和 CNN,基于预训练参数的 BERT 模型和 Transformer 模型往往可以更加精确地找到与任务相关的目标单词,而 CNN 和 LSTM 往往使用大范围的邻接单词去做预测。

ICML 2019 | 神经的可解释性,从经验主义到数学建模

进一步,如下图所示,BERT 模型在预测过程中往往使用具有实际意义的单词作为分类依据,而其他模型把更多的注意力放在了 and the is 等缺少实际意义的单词上。

ICML 2019 | 神经的可解释性,从经验主义到数学建模

如下图所示,BERT 模型在 L3-L4 层就已经遗忘了 EOS 单词,往往在第 5 到 12 层逐渐遗忘其他与情感语义分析无关的单词。相比于其他模型,BERT 模型在单词选择上更有针对性。

ICML 2019 | 神经的可解释性,从经验主义到数学建模

我们的方法可以进一步细粒度地分析,各个单词的信息遗忘。BERT 模型对各种细粒度信息保留的效果最好。

ICML 2019 | 神经的可解释性,从经验主义到数学建模

回国以后,身份从博后变成了老师,带的学生增加了不少,工作量也翻倍了,所以一直没有时间写文章与大家分享一些新的工作,如果有时间还会与大家分享更多的研究,包括这篇文章后续的众多算法。信息量在 CV 方向应用的论文,以及基于这些技术衍生出的课题,我稍后有空再写。

顺便做个广告,欢迎有能力的学生来实验室实习,同时也招博后。目前我的团队有 30 余人,其中不少同学是外校全职访问实习生。我一般会安排每三四人为一个团队做一个课题,由于访问实习生往往不用为上课而分心,可以全天候做实验室工作,在经过一定训练之后往往会担任团队领导。

版权文章,未经授权禁止转载。详情见 转载须知 。

ICML 2019 | 神经的可解释性,从经验主义到数学建模


本文地址: https://www.gpxz.com/article/88faa985aaa6251c3307.html
全局中部横幅
全局中部横幅
字典/成语/古诗词/英语单词/造句/近反义词汉语知识/范文大全

9528008学习网为您提供各类国学知识,包括但不限于汉语字典、汉语词典、成语大全、古诗词、诗词名句、造句、近反义词、英文缩写词、二十四节气、百家姓起名大全、范文工作报告总结等精品精选国学知识文章大全,希望成为你学习之路上最可靠的港湾。

激光切割显微镜

北京瑞科中仪科技有限公司(www.cnrico.cn)主营产品有激光切割显微镜,精准医学显微切割,全自动数字切片扫描,全自动切片扫描,是一家从事数码光学显微镜及相关实验室设备研发与销售的新型高科技公司,我司竭诚为广大客户提供技术咨询,产品配套,安装调试,应用指导,维护保养在内的整套细致入微的服务.

上海志恒环保科技有限公司

上海志恒环保科技有限公司是一家专业化物业环境清洁公司。

广州市净水有限公司

广州市净水有限公司于2014年1月1日正式挂牌,其前身是成立于2003年11月的广州市污水治理有限责任公司。广州市净水有限公司隶属于广州市水务投资集团有限公司,负责广州市所有污水处理工程建设、运营及资产经营的统一管理。目前,公司在职职工约2500人,管辖中心城区及从化区污水处理厂共20座,水质中心1个,污泥干化项目9个,一体化污水处理设施10项。

景德镇直聘

【景德镇直聘】请登录kpzgz.cn和jdz.8390909.cn谨防假冒!本站是景德镇本地通旗下招聘网站知名品牌,景德镇人才求职、景德镇招聘网站靠谱选择!人气火爆的景德镇人才市场!服务热线:19067902048,景德镇人才网求职、景德镇招聘网站,景德镇人才市场,景德镇快聘,本地访问量高的景德镇人才招聘网,找工作,招人才,就上景德镇直聘!

永安陵公墓

天津永安陵公墓提供安全可靠的静海、青县、武清地点。国营永安陵公墓价格合法,服务周到,致力于为客户提供优质的殡葬服务。

域名转入

公司网Gsw.com专注于域名抢注,商标买卖,网站交易,微信/抖音/快手等新媒体交易,致力于挖掘 ,域名,商标,网站,网店等虚拟资产价值。

煎子生

煎子生的每一项食材都力求最优,尊崇传统、手工精致、现包现烘。煎子生大虾生煎——三只大虾仁,一口真弹牙,我们的每只大虾生煎里都有三只整大虾,虾肉脂肪含量低,但营养价值丰富,相较于鲜肉生煎的油腻、高脂肪,大虾生煎更受到追求科学健康饮食的人群喜爱

广州企邦软件有限公司计件工资

广州企邦软件有限公司是专注于企业的信息化及智能化,为企业计件工资核算提供解决方案,给员工工作减负,为企业提速,做企业的好帮手.企邦提供新一代智能化的生产管理、计件工资软件及ERP管理软件的高科技公司,未来将专注于工业4.0的智能化的软件及硬件的研发.服务电话:13632397828

优范网

欢迎来到我们的综合知识平台,这里提供古诗词翻译和鉴赏、万年历日历查询、老黄历宜忌、在线字典和词典查询、成语在线查询、作文范文及泛知识学习等服务。无论您是寻找文化资讯、学习工具还是灵感启发,这里都能满足您的需求。

Aa字库

Aa字库成立于2015年,致力于创造原创设计风格独树一帜的商用字体。目前版权字体超3000套,包括专业字体、创意字体、书法字体、手写字体、装饰字体等。


全局底部横幅