Запрошуємо на мітап про штучний інтелект, його застосування на мобільних пристроях та найважливіші технологічні та бізнес тренди нового десятиліття. У програмі цікаві доповіді, обговорення, піца та гарний настрій.
Один із доповідачів - піонер впровадження новітніх технологій у Голлівуді, Білому Домі; його книгу "Augmented: Life in the Smart Lane" згадав як одну з улюблених настільних книг президент Китаю у своєму новорічному зверненні.
19:05 Reinforcement learning на NeurIPS 2019: як це було – Сергій Колесников, TinkoffЗ кожним роком тема навчання з підкріпленням (reinforcement learning, RL) стає все гарячішою та хайповішою. І щороку компанії DeepMind та OpenAI підливають олії у вогонь, випускаючи нового superhuman performance bot. Чи є за цим щось справжнє? І які останні тренди у всьому RL-різноманітності? Давайте з'ясуємо!
19:25 Огляд робіт NLP на NeurIPS 2019 - Михайло Бурцев, МФТІСьогодні найбільш проривні напрями у галузі обробки природної мови пов'язані з побудовою архітектур на основі мовних моделей та графів знань. У доповіді буде наведено огляд робіт, у яких ці методи використовуються при побудові діалогових систем для реалізації різних функцій. Наприклад, для спілкування на загальні теми, підвищення емпатії та ведення цілеорієнтованого діалогу.
19:45 Шляхи до розуміння виду поверхні функції втрат - Дмитро Вєтров, ФКН НДУ ВШЕЯ обговорю кілька робіт, у яких досліджуються незвичайні ефекти у глибинному навчанні. Ці ефекти проливають світло на вигляд поверхні функції втрат у просторі терезів і дозволяють висунути ряд гіпотез. Якщо їх підтвердити, можна буде ефективно регулювати величину кроку в методах оптимізації. Також це дозволить прогнозувати значення функції втрат на тестовій вибірці задовго до закінчення навчання.
20:05 Огляд робіт з комп'ютерного зору на NeurIPS 2019 — Сергій Овчаренко, Костянтин Лахман, ЯндексМи розглянемо основні напрямки досліджень та роботи у комп'ютерному зорі. Спробуємо зрозуміти, чи всі завдання вже вирішені з точки зору академії, чи триває переможна хода GAN у всіх галузях, хто чинить йому опір і коли вже відбудеться неперевершена революція.
20:25 Кава-брейк
20:40 Моделювання послідовностей з необмеженим порядком породження Дмитро Ємельяненко, ЯндексМи пропонуємо модель, здатну вставляти слова в довільне місце пропозиції, що генерується. Модель неявно вчить зручний порядок декодування, ґрунтуючись на даних. Найкраща якість досягається на кількох датасетах: для машинного перекладу, використання в LaTeX та опису зображень. Доповідь присвячена статті, в якій ми показуємо, що порядок декодування, що вивчається, дійсно має сенс і специфічний для розв'язуваного завдання.
20:55 Reverse KL-Divergence Training of Prior Networks: Захищена безcertainty and adversarial robustness — Андрій Малінін, ЯндексПідприємства пристосування для невизначеного прихильності мають останній час застосовано до дій з misclassification detection, з-за-розповсюдження введенням до detection and adversarial attack detection. Prior Networks має бути розроблений як інструмент для ефективного emulate assembly models for classification by parameterising a Dirichlet prior distribution over output distributions. Ці моделі мають бути показані довиконуваних альтернативних прикладів, такі як Monte-Carlo Dropout, на вирішенні out-of-distribution input detection. Незважаючи на те, що штрихові пріоритетні мережі до комплексних повідомлень з багатьма категоріями, неодноразово використовує послідовність критеріїв, орієнтовно пропонованих. Цей paper makes дві contributions. Перший, як показує те, що відповідний тренажерний критерій для пріоритетних мереж є основою KL-divergence між диригентів. Ці адреси є в природі транзитних тарифних розподілів, підтримуючи пріоритетні мережі, щоб бути успішно проведені на класифікації дій з arbitrarily багатьох категорій, як добре, як інтеграція з-за-розповсюдження розпізнавання. Second, беручи до уваги цю нову training criterion, цей paper investigates, використовуючи Prior Networks, щоб помітити adversarial attacks і підтримує загальну форму adversarial training. Це свідчить про те, що створення успішного adaptive whitebox атаки, які позначаються на знижуванні і зниженні detection, приорієнтовуються на пріоритетних мережах, встановлених на CIFAR-10 і CIFAR-100, використовуючи відповідні приклади, що потребують, як широкий рівень, що регулюється training або MC-dropout.
21:10 Панельна дискусія: «NeurlPS, який надто виріс: хто винен і що робити?» - Олександр Крайнов, Яндекс
19:00-19:30 "Рішення експлуатаційних завдань за допомогою R для чайників" - Костянтин Фірсов (АТ "Нетріс", Головний інженер з впровадження).
19:30-20:00 «Оптимізація товарних запасів у retail» - Генріх Ананьєв (ПАТ Белуга Груп, Керівник напряму автоматизації звітності).
20:00-20:30 «BMS у X5: як зробити business-process mining на неструктурованих POS логах засобами R» - Ролдугін Євген (X5 Retail Group, Керівник управління інструментів контролю якості сервісів), Ілля Шутов (Медіа-тел, керівник напряму data science).
«Коли варто переписати програму з нуля, і як переконати в цьому бізнес» — Олексій Пижьянов, розробник, СибурРеальна історія про те, як ми розібралися з техборгом найрадикальнішим способом. Розкажу про те:
Чому гарний додаток перетворився на жахливу легасу.
Як ми ухвалили непросте рішення все переписати.
Як ми продали цю ідею власник продукту.
Що вийшло в результаті з цієї витівки, і чому ми не шкодуємо про ухвалене рішення.