Запрашаем на мітап пра штучны інтэлект, яго прымяненне на мабільных прыладах і найважнейшыя тэхналагічныя і бізнес трэнды новага дзесяцігоддзя. У праграме цікавыя даклады, абмеркаванні, піца і добры настрой.
Адзін з дакладчыкаў - піянер укаранення найноўшых тэхналогій у Галівудзе, Белым Доме; яго кнігу "Augmented: Life in the Smart Lane" згадаў як адну з любімых настольных кніг прэзідэнт Кітая ў сваім навагоднім звароце.
19:05 Reinforcement learning на NeurIPS 2019: як гэта было - Сяргей Калеснікаў, TinkoffЗ кожным годам тэма навучання з падмацаваннем (reinforcement learning, RL) становіцца ўсё гарачэй і хайпавей. І кожны год кампаніі DeepMind і OpenAI падліваюць маслы ў агонь, выпускаючы новага superhuman performance bot. Ці ёсць за гэтым нешта сапраўды вартае? І якія апошнія трэнды ва ўсім RL-разнастайнасці? Давайце высветлім!
19:25 Агляд работ NLP на NeurIPS 2019 - Міхаіл Бурцаў, МФТІСёння найбольш прарыўныя накірункі ў галіне апрацоўкі натуральнай мовы звязаны з пабудовай архітэктур на аснове моўных мадэлей і графаў ведаў. У дакладзе будзе прадстаўлены агляд прац, у якіх гэтыя метады выкарыстоўваюцца пры пабудове дыялогавых сістэм для рэалізацыі розных функцый. Напрыклад - для зносін на агульныя тэмы, павышэння эмпатыі і вядзення мэтанакіраванага дыялогу.
19:45 Шляхі да разумення выгляду паверхні функцыі страт - Дзмітрый Ветраў, ФКН НИУ ВШЭ.Я абмяркоўваю некалькі прац, у якіх даследуюцца незвычайныя эфекты ў глыбінным навучанні. Гэтыя эфекты праліваюць святло з выгляду паверхні функцыі страт у прасторы вагаў і дазваляюць высунуць шэраг гіпотэз. Калі іх пацьвердзіць, можна будзе больш эфэктыўна рэгуляваць велічыню кроку ў мэтадах аптымізацыі. Таксама гэта дазволіць прагназаваць дасягальнае значэнне функцыі страт на тэставай выбарцы задоўга да заканчэння навучання.
20:05 Агляд работ па камп'ютарным зроку на NeurIPS 2019 — Сяргей Аўчарэнка, Канстанцін Лахман, ЯндэксМы разгледзім асноўныя напрамкі даследаванняў і працы ў кампутарным зроку. Паспрабуем зразумець, ці ўсе задачы ўжо вырашаны з пункту гледжання акадэміі, ці працягваецца пераможнае шэсце GAN ва ўсіх абласцях, хто аказвае яму супраціўленне і калі ўжо адбудзецца unsupervised-рэвалюцыя.
20:25 Кава-брэйк
20 Мадэляванне паслядоўнасцяў з неабмежаваным парадкам спараджэння — Дзмітрый Емяльяненка, ЯндэксМы прапануем мадэль, здольную ўстаўляць словы ў адвольнае месца генераванай прапановы. Мадэль няяўна вучыць зручны парадак дэкадавання, засноўваючыся на дадзеных. Лепшая якасць дасягаецца на некалькіх датасетах: для машыннага перакладу, выкарыстанні ў LaTeX і апісанні малюнкаў. Даклад прысвечаны артыкулу, у якім мы паказваем, што вывучаны парадак дэкадавання сапраўды валодае сэнсам і спецыфічны для развязальнай задачы.
20:55 Reverse KL-Divergence Прайдэры па прыорных сетках: Improved Uncertainty and Adversarial Robustness — Андрэй Малінін, ЯндэксАднастайныя прылады для няпэўнага амбіцыі павінны былі папярэдне прынятыя ў думкі аб класіфікацыі сыходу, ад-распаўсюджвання ўводу пазбаўлення волі і патэнцыйнага сыходу сыходу. Priorové sítě mají byť proposed jako approach k efficiently emulate assemble models for classification by parameterising Dirichlet prior distribution over output distributions. Гэтыя мадэлі павінны быць выяўленыя ў адрозненне ад alternative ensemble approaches, так як Monte-Carlo Dropout, на ходу ад distribution input detection. However, scaling Prior Networks для комплексных dates з многімі кропкамі з'яўляецца непасрэдным шляхам трэнінгу criteria originally proposed. Гэтыя paper makes 10 contributions. Упершыню, мы мяркуем, што падыходны трэніровак criterion для прыродных сетак з'яўляецца рэверсам KL-divergence паміж Dirichlet distributions. Гэтыя адрасы існуюць у натуры пабудаванай тэгайнай distribuцыі, abnormal priorové siete, каб паспяхова трэніроўкі на дыяпазоне фестывальаў з шчырымі шматлікімі, як добра, як і недапушчальна з-за адкрыццё сыходу. Second, беручы ўвагі гэтага новага трэнінгу criterion, гэтая цана сцэнарыяў пры дапамозе прыродных сетак, каб вызначыць adversarial attacks і забяспечвае generalized form of adversarial training. Гэта мяркуе, што будова паспяховай adaptive whitebox нападу, якая ўздзейнічае на забойства і знішчэнне адмены, у адпаведнасці з прыроднымі сеткамі пабудавана на CIFAR-100 і CIFAR-XNUMX шляхам узгодненых прыналежных патрабаванняў, як вялікае памяшканне, пашкоджаных training or MC-dropout.
21:10 Панэльная дыскусія: «NeurlPS, які занадта вырас: хто вінаваты і што рабіць?» - Аляксандр Крайноў, Яндэкс
19:00-19:30 "Рашэнне эксплуатацыйных задач з дапамогай R для чайнікаў" - Канстанцін Фірсаў (АТ "Нетрыс", Галоўны інжынер па ўкараненні).
19:30-20:00 «Аптымізацыя таварных запасаў у retail» - Генрых Ананьеў (ПАТ Бялуга Груп, Кіраўнік кірунку аўтаматызацыі справаздачнасці).
20:00-20:30 «BMS у X5: як зрабіць business-process mining на неструктураваных POS логах сродкамі R» - Ралдугін Яўген (X5 Retail Group, Кіраўнік упраўлення інструментаў кантролю якасці сэрвісаў), Ілля Шутаў (Медыя-тэл, кіраўнік кірунку data science).
«Калі варта перапісаць дадатак з нуля, і як пераканаць у гэтым бізнэс» – Аляксей Пыж'янаў, распрацоўшчык, СібурРэальная гісторыя пра тое, як мы разабраліся з тэхдоўгам самым радыкальным спосабам. Раскажу аб тым:
Чаму добрае прыкладанне ператварылася ў жудаснае легасі.
Як мы прынялі няпростае рашэнне ўсё перапісаць.
Як мы прадалі гэтую ідэю ўладальніку прадукта.
Што атрымалася ў выніку з гэтай задумы, і чаму мы не шкадуем аб прынятым рашэнні.
"Vuejs API mocks" - Уладзіслаў Прусаў, Frontend developer, AGIMA