NeurIPS 2019: ML тренди, які будуть з нами наступне десятиліття

NeurIPS (Нейронні системи обробки інформації) – найбільша конференція у світі з машинного навчання та штучного інтелекту та головна подія у світі deep learning.

Чи будемо ми, DS-інженери, у новому десятилітті освоювати ще й біологію, лінгвістику, психологію? Розкажемо у нашому огляді.

NeurIPS 2019: ML тренди, які будуть з нами наступне десятиліття

Цього року конференція зібрала понад 13500 80 осіб із 2019 країн у Ванкувері (Канада). Ощадбанк не перший рік представляє Росію на конференції - команда DS розповіла про впровадження ML у банківські процеси, про ML-змагання та можливості платформи Sberbank DS. Якими були основні тренди XNUMX року в ML-ком'юніті? Розповідають учасники конференції: Андрій Чорток и Тетяна Шавріна.

У цьому році на NeurIPS було прийнято понад 1400 статей - алгоритми, нові моделі та нові застосування до нових даних. Посилання на всі матеріали

Зміст:

  • Тренди
    • Інтерпретованість моделей
    • Мультидисциплінарність
    • Обґрунтування
    • RL
    • GAN
  • Основні Invited Talks
    • “Social Intelligence”, Blaise Aguera y Arcas (Google)
    • "Veridical Data Science", Bin Yu (Berkeley)
    • "Human Behavior Modeling with Machine Learning: Opportunities and Challenges", Nuria M Oliver, Albert Ali Salah
    • "Від System 1 до System 2 Deep Learning", Yoshua Bengio

Тренди 2019 року

1. Інтерпретованість моделей та нова методологія ML

Головна тема конференції — інтерпретація та докази, чому ми отримуємо ті чи інші результати. Можна довго міркувати про філософську важливість інтерпретації “чорної скриньки”, але більше було реальних методик та технічних напрацювань у цій сфері.

Методологія відтворюваності моделей та отримання знань із них — новий інструментарій науки. Моделі можуть бути інструментом отримання нового знання та його перевірки, і відтворюваним має бути кожен етап препроцессингу, навчання та застосування моделі.
Істотна частка публікацій присвячена не побудові моделей та інструментів, а проблемам забезпечення безпеки, прозорості та перевірки результатів. Зокрема, з'явився окремий стрим про атаки на модель (adversarial attacks), причому розглядаються варіанти як атаки на навчання, так і атаки на застосування.

Статті:

NeurIPS 2019: ML тренди, які будуть з нами наступне десятиліття
ExBert.net показує інтерпретацію моделей для задач обробки тексту

2. Мультидисциплінарність

Щоб забезпечити надійну перевірку та розробити механізми перевірки та поповнення знань, потрібні фахівці суміжних областей, які одночасно володіють компетенціями в ML та в предметній галузі (медичні, лінгвістиці, нейробіології, освіті тощо). Особливо варто відзначити більш значну присутність робіт і виступів з нейронаук і когнітивних наук – відбувається зближення фахівців та запозичення ідей.

Крім цього зближення, намічається мультидисциплінарність у спільній обробці інформації з різних джерел: текст і фото, текст та ігри, графові бд + текст та фото.

Статті:

NeurIPS 2019: ML тренди, які будуть з нами наступне десятиліття
Дві моделі – стратег та виконавець – на основі RL та NLP грають в онлайн-стратегію

3. Міркування

Посилення штучного інтелекту – рух у бік самонавчається систем, “усвідомлених”, міркуючих і аргументирующих (reasoning). Зокрема, розвивається causal inference і commonsense reasoning. Частина доповідей присвячена мета-навчанню (про те, як вчитися вчитися) та поєднанню DL-технологій з логікою 1 та 2 порядку – термін Artificial General Intelligence (AGI) стає звичайним терміном у виступах спікерів.

Статті:

4.Reinforcement Learning

Більшість робіт продовжує розвивати традиційні напрямки RL - DOTA2, Starcraft, з'єднання архітектур з комп'ютерним зором, NLP, графовими БД.

Окремий день конференції був присвячений RL-воркшопу, на якому було представлено архітектуру Optimistic Actor Critic Model, що перевершує всі попередні, зокрема Soft Actor Critic.

Статті:

NeurIPS 2019: ML тренди, які будуть з нами наступне десятиліття
Гравці StarCraft борються з моделлю Alphastar (DeepMind)

5. GAN

Генеративні мережі все ще у фокусі уваги: ​​багато робіт використовують vanilla GAN для математичних доказів, а також застосовують їх у нових, незвичайних варіантах (графові генеративні моделі, робота з рядами, застосування до причинно-наслідкових зв'язків у даних і т.д.).

Статті:

Оскільки робіт було прийнято більше 1400 нижче ми розповімо про найважливіші виступи.

Invited Talks

“Social Intelligence”, Blaise Aguera y Arcas (Google)

Посилання
Слайди та відео
Доповідь присвячена загальній методології машинного навчання та перспективам, що змінюють індустрію прямо зараз – перед яким розпуттям ми стоїмо? Як працює мозок та еволюція, і чому ми так мало використовуємо те, що вже добре знаємо про розвиток природних систем?

Індустріальний розвиток ML багато в чому збігається з віхами розвитку компанії Google, яка з року в рік публікує свої дослідження на NeurIPS:

  • 1997 – запуск пошукових потужностей, перші сервери, невелика обчислювальна потужність
  • 2010 – Джефф Дін запускає проект Google Brain, бум нейромереж на самому початку
  • 2015 – індустріальне використання нейромереж, швидке розпізнавання осіб прямо на локальному пристрої, низькорівневі процесори, заточені під тензорні обчислення – TPU. Google запускає Coral ai - аналог raspberry pi, міні-комп'ютер для впровадження нейромереж в експериментальні установки
  • 2017 – Google починає розробку децентралізованого навчання та поєднання результатів навчання нейромереж з різних пристроїв в одну модель – на android

Сьогодні ціла індустрія займається питаннями безпеки даних, об'єднання та відтворення результатів навчання на локальних пристроях.

Федеративне навчання – напрям ML, у якому окремі моделі вчаться незалежно друг від друга, та був об'єднуються у єдину модель (без централізації вихідних даних), з поправками на рідкісні події, аномалії, персоналізацію тощо. Всі пристрої з Android по суті єдиний обчислювальний суперкомп'ютер для Google.

Генеративні моделі на підставі federated learning – майбутній перспективний напрямок на думку Google, який знаходиться у ранніх стадіях експоненційного зростання. GANи, на думку лектора, здатні навчитися відтворювати масову поведінку популяцій живих організмів, алгоритми мислення.

На прикладі двох простих архітектур GAN показується, що в них пошук шляху оптимізації блукає по колу, а отже, така оптимізація не відбувається. Ці моделі дуже успішно моделюють експерименти, які біологи ставлять над популяціями бактерій, змушуючи їх вчитися новим стратегіям поведінки в пошуках їжі. Можна дійти невтішного висновку у тому, що життя працює інакше, ніж функція оптимізації.

NeurIPS 2019: ML тренди, які будуть з нами наступне десятиліття
Блукаюча оптимізація GAN

Все те, що ми робимо в рамках машинного навчання зараз – це вузькі та вкрай формалізовані завдання, тоді як ці формалізми погано узагальнюються та не відповідають нашому предметному знанню у таких галузях, як нейрофізіологія та біологія.

Що дійсно варто запозичити з галузі нейрофізіології у найближчій перспективі – це нові архітектури нейронів і трохи переглянути механізми зворотного розповсюдження помилки.

Сам людський мозок вчиться не як нейромережа:

  • У нього не випадкові первинні вступні, у тому числі закладені через органи почуттів та в дитинстві
  • Він має закладені напрями інстинктивного розвитку (прагнення вивчити мову в немовляти, прямоходіння)

Навчання індивідуального мозку - низькорівневе завдання, можливо, нам варто розглядати "колонії" індивідуумів, що швидко змінюються, передають один одному знання, щоб відтворити механізми групової еволюції.

Що ми можемо запозичити в алгоритми ML вже зараз:

  • Застосувати cell lineage моделі, що забезпечують навчання популяції, але коротке життя індивідууму (“індивідуального мозку”)
  • Few-shot learning на невеликій кількості прикладів
  • Більш складні структури нейронів, трохи інші функції активації
  • Передача “генома” наступним поколінням – алгоритм зворотного розповсюдження помилки
  • Як тільки ми поєднаємо нейрофізіологію та нейронні мережі, ми навчимося будувати багатофункціональний мозок із безлічі складових.

З цієї точки зору практика SOTA рішень - згубна і повинна бути переглянута для розвитку спільних завдань (benchmarks).

"Veridical Data Science", Bin Yu (Berkeley)

Відео та слайди
Доповідь присвячена проблемі інтерпретації моделей машинного навчання та методології їхньої безпосередньої перевірки та верифікації. Будь-яка навчена ML-модель може бути сприйнята як джерело знань, які необхідно витягти з неї.

У багатьох областях, особливо в медицині, застосування моделі неможливе без отримання цих прихованих знань та інтерпретації результатів моделі – інакше ми не будемо впевнені, що результати будуть стабільні, невипадкові, надійні, не вб'ють пацієнта. Цілий напрямок методології роботи розвивається всередині парадигми deep learning і виходить за її межі – veridical data science. Що це таке?

Ми хочемо досягти такої якості наукових публікацій та відтворюваності моделей, щоб вони були:

  1. передбачуваними
  2. обчислюваними
  3. стабільними

Ці три принципи утворюють основу нової методології. Як можна перевіряти моделі ML на відповідність цим критеріям? Найпростіший спосіб - будувати відразу інтерпретовані моделі (регресії, дерева рішень). Але, ми захочемо отримати та безпосередні плюси deep learning.

Декілька існуючих способів працювати з проблемою:

  1. інтерпретувати модель;
  2. використовувати методи, засновані на attention;
  3. використовувати при навчанні ансамблі алгоритмів, і домагатися того, щоб лінійні моделі, що інтерпретуються, вчилися передбачати ті ж відповіді, що і нейромережа, інтерпретуючи ознаки з лінійної моделі;
  4. змінювати та аугментувати дані для навчання. Сюди входять і додавання шумів, перешкод та data augmentation;
  5. будь-які методи, які дозволяють переконатися, що результати моделі не випадкові і не залежать від небажаних дрібних перешкод (adversarial attacks);
  6. інтерпретувати модель постфактум, після навчання;
  7. вивчати ваг ознак різними способами;
  8. вивчати ймовірність усіх гіпотез, розподіл класів.

NeurIPS 2019: ML тренди, які будуть з нами наступне десятиліття
Adversarial attack на свиню

Помилки моделювання дорого коштують усім: яскравий приклад - робота Рейнхарта та Рогова.Growth in a time of debt" вплинула на економічну політику багатьох європейських країн і змусила їх вести політику економії, але уважна перевіряння даних та їх обробки через роки показала протилежний результат!

Будь-яка ML-технологія має свій життєвий цикл від впровадження до впровадження. Завдання нової методології – зробити перевірку трьох основних принципах кожному етапі життя моделі.

Підсумки:

  • Розвивається кілька проектів, які допоможуть ML-моделі бути більш надійними. Це, наприклад, deeptune (link to: github.com/ChrisCummins/paper-end2end-dl);
  • Для подальшого розвитку методології необхідно суттєво підняти якість публікацій у сфері ML;
  • Машинному навчанню потрібні лідери з мультидисциплінарною підготовкою та експертизою як у технічних, так і гуманітарних галузях.

“Human Behavior Modeling with Machine Learning: Opportunities and Challenges” Nuria M Oliver, Albert Ali Salah

Лекція, присвячена моделюванню поведінки людини, її технологічним основам та перспективам застосувань.

Моделювання поведінки людини можна поділити на:

  • індивідуальна поведінка
  • поведінка невеликої групи осіб
  • масова поведінка

Кожен із цих типів піддається моделюванню за допомогою ML, але з абсолютно різною вхідною інформацією та ознаками. Кожен тип також має свої етичні проблеми, які проходить кожен проект:

  • індивідуальна поведінка - викрадення ідентичності, deepfake;
  • поведінка груп людей – деанонімізація, отримання інформації про пересування, телефонні дзвінки тощо;

Індивідуальна поведінка

Більшою мірою стосується теми Computer Vision – розпізнавання емоцій людини, її реакцій. Можливо тільки в контексті, у часі або з відносною шкалою його варіативності емоцій. На слайді розпізнавання емоцій Мони Лізи за допомогою контексту з емоційного спектру середземноморських жінок. Результат: посмішка радості, але з зневагою та огидою. Причина швидше за все у технічному способі визначення “нейтральної” емоції.

Поведінка невеликої групи осіб

Поки що найгірше моделюється через недостатність інформації. Як приклад показувалися роботи 2018 – 2019 рр. на десятках людей X десятках роликів (пор. датсети зображень 100к++). Для найкращого моделювання в рамках цього завдання необхідна мультимодальна інформація, бажано з датчиків на телеальтиметр, термометр, запис з мікрофона і т.д.

Масова поведінка

Найрозвиненіший напрямок, оскільки замовником виступають ООН та багато держав. Камери зовнішнього спостереження, дані телефонних вишок - білінг, смс, дзвінки, дані про переміщення між кордонами країн - все це дає дуже надійне уявлення про переміщення потоків людей, про соціальні нестабільності. Потенційні застосування технології: оптимізація рятувальних операцій, надання допомоги та своєчасна евакуація населення при НС. Використовувані моделі в основному поки що погано інтерпретуються – це різні LSTM та згорткові мережі. Була коротка ремарка, що ООН лобіює новий закон, який зобов'яже європейський бізнес ділитися знеособленими даними, необхідні будь-яких досліджень.

"Від System 1 до System 2 Deep Learning", Yoshua Bengio

Слайды
У лекції Іошуа Бенжіо deep learning зустрічається з нейронаукою на рівні цілепокладання.
Бенджіо виділяє два основні типи завдань з методології нобелівського лауреата Деніела Канемана (книга «Думай повільно, вирішуй швидко» )
тип 1 - Система 1, неусвідомлені дії, які ми робимо "на автоматі" (стародавній мозок): водіння машини по знайомих місцях, ходіння, розпізнавання осіб.
тип 2 - Система 2, усвідомлені дії (кора головного мозку), цілепокладання, аналіз, мислення, складові завдання.

ІІ поки що досягає достатніх висот лише у завданнях першого типу — тоді як наше завдання привести його до другого, навчивши виконувати мультидисциплінарні операції та оперувати логікою, високорівневими когнітивними навичками.

Для досягнення цієї мети пропонується:

  1. у завданнях NLP використовувати важливість як ключовий механізм моделювання мислення
  2. використовувати meta-learning та representation learning для кращого моделювання ознак, що впливають на свідомість, та їх локалізацію – і на їх основі перейти до оперування більш високорівневими концептами.

Замість висновку залишаємо запис invited talk: Бенжіо — один із багатьох вчених, які намагаються розширити область ML за межі оптимізації, SOTA та нових архітектур.
Відкритим залишається питання, наскільки поєднання проблем свідомості, впливу мови на мислення, нейробіології та алгоритмів — це те, що на нас чекає в майбутньому і дозволить перейти до машин, які «думають» як люди.

Спасибо!



Джерело: habr.com

Додати коментар або відгук