神经IPS(
在新的十年里,我们 DS 工程师是否也能掌握生物学、语言学和心理学? 我们会在评论中告诉您。
今年的会议在加拿大温哥华汇聚了来自 13500 个国家的 80 多人。 这并不是 Sberbank 第一次代表俄罗斯参加会议 - DS 团队谈到了机器学习在银行流程中的实施、ML 竞争以及 Sberbank DS 平台的功能。 2019 年 ML 社区的主要趋势是什么? 会议参与者表示:
今年,NeurIPS 接受了 1400 多篇论文,包括算法、新模型以及新数据的新应用。
内容:
- 趋势
-
- 模型可解释性
- 多学科性
- 推理
- RL
- 甘
- 基础邀请报告
-
- “社会智能”,Blaise Aguera y Arcas(谷歌)
- “验证数据科学”,Bin Yu(伯克利)
- “利用机器学习进行人类行为建模:机遇与挑战”,Nuria M Oliver、Albert Ali Salah
- “从系统 1 到系统 2 深度学习”,Yoshua Bengio
2019年趋势
1. 模型可解释性和新的机器学习方法
会议的主题是解释和证明为什么我们会得到某些结果。 “黑匣子”解释的哲学重要性可以谈论很长时间,但这一领域还有更多真实的方法和技术发展。
复制模型并从中提取知识的方法是一个新的科学工具包。 模型可以作为获取新知识和测试新知识的工具,模型的预处理、训练和应用的每个阶段都必须是可重复的。
很大一部分出版物不是致力于模型和工具的构建,而是致力于确保结果的安全性、透明度和可验证性问题。 特别是,出现了关于模型攻击(对抗性攻击)的单独流,并且考虑了训练攻击和应用程序攻击的选项。
文章:
验证数据科学 ——一篇关于模型验证方法的程序性文章。 包括用于解释模型的现代工具的概述,特别是通过使用线性模型“提炼”神经网络来使用注意力和获取特征重要性。看起来像这样:用于可解释图像识别的深度学习 陈超凡、李奥斯卡、陶丹尼尔、Alina Barnett、Cynthia Rudin、Jonathan K. Su深度神经网络可解释性方法的基准 萨拉·胡克、杜米特鲁·埃尔汗、彼得·简·金德曼斯、贝恩·金使用注意力增强代理实现可解释的强化学习 亚历山大·莫特、丹尼尔·佐兰、迈克·切尔扎诺夫斯基、达安·维尔斯特拉、达尼洛·希门尼斯·雷森德随机森林的去偏 MDI 特征重要性度量 小李、王宇、Sumanta Basu、Karl Kumbier、于斌无可观察数据的知识提取 Jaemin Yoo、Minyong Cho、Taebum Kim、U Kang迈向量化独立可重复机器学习研究的一步 爱德华·拉夫
ExBert.net 显示文本处理任务的模型解释
2. 多学科性
为了确保可靠的验证并开发验证和扩展知识的机制,我们需要相关领域的专家,他们同时具备机器学习和学科领域(医学、语言学、神经生物学、教育等)的能力。 尤其值得注意的是,神经科学和认知科学领域的著作和演讲更加重要——专家之间的关系和思想的借鉴。
除了这种和解之外,多学科性还出现在对各种来源的信息的联合处理中:文本和照片、文本和游戏、图形数据库+文本和照片。
文章:
- 神经科学 + 机器学习 —
用自然语言处理(在大脑中)解释和改进自然语言处理(在机器中) - 视觉质量保证 -
抽象学习:神经状态机 - 强化学习 + 自然语言处理 -
通过生成和遵循自然语言指令进行分层决策
两种模型——策略师和执行官——基于RL和NLP玩在线策略
3. 推理
强化人工智能是走向自学系统、“有意识”、推理和推理的运动。 特别是,因果推理和常识推理正在发展。 其中一些报告专门讨论元学习(关于如何学会学习)以及深度学习技术与一阶和二阶逻辑的结合——通用人工智能 (AGI) 一词正在成为演讲者演讲中的常用术语。
文章:
用于视觉常识推理的异构图学习 余伟江、周静文、余伟豪、梁晓丹、肖农通过归纳学习连接机器学习和逻辑推理 戴旺周、徐秋玲、于阳、周志华隐式学习一阶逻辑推理 维沙克·贝勒、布伦丹·朱巴PHYRE:物理推理的新基准 安东·巴赫金、劳伦斯·范德马滕、贾斯汀·约翰逊、劳拉·古斯塔夫森、罗斯·吉尔希克用于推理的知识的量子嵌入 Dinesh Garg、Shajith Ikbal、Santosh K. Srivastava、Harit Vishwakarma、Hima Karanam、L Venkata Subramaniam
4.强化学习
大部分工作继续开发 RL 的传统领域 - DOTA2、星际争霸,将架构与计算机视觉、NLP、图数据库相结合。
会议的另一天专门举办了 RL 研讨会,会上介绍了 Optimistic Actor Critic 模型架构,该架构优于之前的所有架构,特别是 Soft Actor Critic。
文章:
乐观演员评论家更好的探索 ; 卡米尔·乔塞克、Quan Vuong、罗伯特·洛夫廷、卡佳·霍夫曼ChainerRL:深度强化学习库 ; Yasuhiro Fujita(Preferred Networks, Inc.)*; Toshiki Kataoka(Preferred Networks, Inc.); Prabhat Nagarajan(首选网络); Takahiro Ishikawa(东京大学)[外部 pdf 链接]。控制梦想:通过潜在想象力学习行为 ; 丹尼尔·哈夫纳(谷歌)*; 蒂莫西·利利克拉普(DeepMind); 吉米·巴(多伦多大学); 穆罕默德·诺鲁齐(谷歌大脑)车间材料
星际争霸玩家与 Alphastar 模型对战(DeepMind)
5. 甘
生成网络仍然受到关注:许多作品使用普通的 GAN 进行数学证明,并以新的、不寻常的方式应用它们(图生成模型、使用序列、应用于数据中的因果关系等)。
文章:
为条件 GAN 挖掘 GOLD 样本 Sangwoo Mo、Chiheon Kim、Sungwoong Kim、Minsu Cho、Jinwoo ShinGAN 的渐进增强 张丹,安娜·霍列娃使用条件 GAN 对表格数据建模 徐雷、Maria Skoularidou、Alfredo Cuesta-Infante、Kalyan Veeramachanenipaper.nips.cc/paper/9377-a-domain-agnostic-measure-for-monitoring-and-evaluating-gans
由于接受了更多的工作
特邀报告
“社会智能”,Blaise Aguera y Arcas(谷歌)
演讲重点讨论机器学习的一般方法论以及当前改变行业的前景——我们面临着什么十字路口? 大脑和进化是如何运作的?为什么我们很少利用我们已经了解的自然系统发展知识?
ML的产业发展很大程度上与谷歌的发展里程碑相吻合,谷歌年复一年地发布了NeurIPS的研究成果:
- 1997 – 推出搜索设施、第一台服务器、小型计算能力
- 2010年——Jeff Dean启动Google Brain项目,神经网络繁荣拉开序幕
- 2015 年 – 神经网络的工业实施、直接在本地设备上快速进行人脸识别、为张量计算量身定制的低级处理器 - TPU。 谷歌推出 Coral ai——树莓派的类似物,一种用于将神经网络引入实验装置的微型计算机
- 2017 年 – Google 开始开发去中心化训练,并将不同设备的神经网络训练结果合并到一个模型中 – 在 Android 上
如今,整个行业都致力于本地设备上的数据安全、聚合和学习成果复制。
谷歌表示,基于联邦学习的生成模型是一个有前途的未来方向,“处于指数增长的早期阶段”。 据讲师介绍,GAN 能够学习重现生物体群体的集体行为和思维算法。
以两个简单的 GAN 架构为例,结果表明,在它们中,优化路径的搜索在一个圆圈中徘徊,这意味着优化本身不会发生。 与此同时,这些模型非常成功地模拟了生物学家对细菌种群进行的实验,迫使它们学习新的寻找食物的行为策略。 我们可以得出结论,生命的运作方式与优化函数不同。
行走 GAN 优化
我们现在在机器学习框架中所做的一切都是狭隘且极其形式化的任务,而这些形式主义并不能很好地概括,并且与我们在神经生理学和生物学等领域的学科知识不相符。
在不久的将来,真正值得从神经生理学领域借鉴的是新的神经元架构和对误差反向传播机制的轻微修改。
人脑本身并不像神经网络那样学习:
- 他没有随机的主要输入,包括通过感官和童年时期所设定的输入
- 他有固有的本能发展方向(从婴儿那里学习语言、直立行走的愿望)
训练个体大脑是一项低级任务;也许我们应该考虑快速变化的个体的“群体”,相互传递知识以重现群体进化的机制。
我们现在可以采用的 ML 算法有:
- 应用细胞谱系模型,确保群体的学习,但个体的寿命短暂(“个体大脑”)
- 使用少量示例进行少样本学习
- 神经元结构更复杂,激活函数略有不同
- 将“基因组”传递给下一代——反向传播算法
- 一旦我们将神经生理学和神经网络联系起来,我们将学会用许多组件构建一个多功能大脑。
从这个角度来看,SOTA 解决方案的实践是有害的,应该为了开发通用任务(基准)而进行修改。
“验证数据科学”,Bin Yu(伯克利)
该报告致力于解释机器学习模型及其直接测试和验证的方法的问题。 任何经过训练的机器学习模型都可以被视为需要从中提取的知识源。
在许多领域,特别是在医学领域,如果不提取这些隐藏的知识并解释模型的结果,就不可能使用模型——否则我们将无法确定结果是稳定的、非随机的、可靠的,并且不会杀死模型。病人。 工作方法论的整个方向正在深度学习范式中发展,并超越了它的界限——真实的数据科学。 这是什么?
我们希望获得这样的科学出版物质量和模型的可重复性:
- 可预测
- 可计算的
- 稳定的
这三个原则构成了新方法的基础。 如何根据这些标准检查机器学习模型? 最简单的方法是构建可立即解释的模型(回归、决策树)。 然而,我们也希望获得深度学习的直接好处。
解决该问题的几种现有方法:
- 解释模型;
- 使用基于注意力的方法;
- 在训练时使用算法集合,并确保线性可解释模型学会预测与神经网络相同的答案,解释线性模型的特征;
- 更改和增强训练数据。 这包括添加噪声、干扰和数据增强;
- 任何有助于确保模型结果不是随机的并且不依赖于轻微不必要的干扰(对抗性攻击)的方法;
- 训练后,事后解释模型;
- 以各种方式研究特征权重;
- 研究所有假设的概率、类别分布。
对抗性攻击
建模错误对每个人来说都是代价高昂的:莱因哈特和罗戈夫的工作就是一个典型的例子。”
任何机器学习技术都有自己的从实施到实施的生命周期。 新方法的目标是检查模型生命周期每个阶段的三个基本原则。
结果:
- 多个项目正在开发中,以帮助机器学习模型变得更加可靠。 例如,这是 Deeptune(链接到:
github.com/ChrisCummins/paper-end2end-dl ); - 为了进一步发展该方法,需要显着提高机器学习领域的出版物质量;
- 机器学习需要在技术和人文领域接受过多学科培训和专业知识的领导者。
“利用机器学习进行人类行为建模:机遇与挑战”Nuria M Oliver、Albert Ali Salah
讲座致力于人类行为建模、其技术基础和应用前景。
人类行为建模可以分为:
- 个人行为
- 一小群人的行为
- 大众行为
这些类型中的每一种都可以使用机器学习进行建模,但具有完全不同的输入信息和特征。 每种类型还有每个项目都会经历的道德问题:
- 个人行为——身份盗窃、深度造假;
- 人群的行为 - 去匿名化、获取有关活动、电话等的信息;
个人行为
主要与计算机视觉主题相关 - 识别人类情绪和反应。 也许只是在上下文、时间或他自己情绪变化的相对范围内。 这张幻灯片显示了利用地中海女性情绪谱系的背景对蒙娜丽莎情绪的识别。 结果:喜悦的微笑,但又带着轻蔑和厌恶。 原因很可能在于定义“中性”情绪的技术方式。
一小群人的行为
到目前为止,最糟糕的模型是由于信息不足造成的。 以2018年至2019年的作品为例。 几十个人 X 几十个视频(参见 100k++ 图像数据集)。 为了最好地模拟这项任务,需要多模态信息,最好来自人体高度计、温度计、麦克风录音等传感器。
群众行为
最发达的地区,因为客户是联合国和许多国家。 室外监控摄像头、电话塔的数据(计费、短信、通话、国界之间的流动数据)所有这些都提供了有关人员流动和社会不稳定的非常可靠的画面。 该技术的潜在应用:在紧急情况下优化救援行动、援助和及时疏散人群。 使用的模型主要仍然没有得到很好的解释——这些模型是各种 LSTM 和卷积网络。 有一个简短的评论称,联合国正在游说一项新法律,该法律将迫使欧洲企业共享任何研究所需的匿名数据。
“从系统 1 到系统 2 深度学习”,Yoshua Bengio
在 Joshua Bengio 的演讲中,深度学习在目标设定层面与神经科学相遇。
Bengio 根据诺贝尔奖获得者 Daniel Kahneman 的方法论(书籍《
类型 1 - 系统 1,我们“自动”执行的无意识行为(古代大脑):在熟悉的地方开车、行走、识别面孔。
类型 2 - 系统 2,有意识的行动(大脑皮层),目标设定,分析,思考,复合任务。
迄今为止,人工智能仅在第一类任务中达到了足够的高度,而我们的任务是将其带到第二类任务,教它执行多学科操作并以逻辑和高级认知技能进行操作。
为实现这一目标,建议:
- 在 NLP 任务中,使用注意力作为建模思维的关键机制
- 使用元学习和表征学习来更好地对影响意识及其定位的特征进行建模,并在此基础上继续操作更高层次的概念。
这里不是一个结论,而是一个受邀演讲:Bengio 是众多试图将 ML 领域扩展到优化问题、SOTA 和新架构之外的科学家之一。
这个问题仍然悬而未决,意识问题、语言对思维的影响、神经生物学和算法的结合在多大程度上在未来等待着我们,并使我们能够转向像人一样“思考”的机器。
谢谢大家!
来源: habr.com