Куды схадзіць: бліжэйшыя бясплатныя мерапрыемствы для айцішнікаў у Маскве (14–18 студзеня)

Куды схадзіць: бліжэйшыя бясплатныя мерапрыемствы для айцішнікаў у Маскве (14–18 студзеня)

Мерапрыемствы з адкрытай рэгістрацыяй:


AI & Mobile

14 студзеня, 19:00-22:00, Аўторак

Запрашаем на мітап пра штучны інтэлект, яго прымяненне на мабільных прыладах і найважнейшыя тэхналагічныя і бізнес трэнды новага дзесяцігоддзя. У праграме цікавыя даклады, абмеркаванні, піца і добры настрой.

Адзін з дакладчыкаў - піянер укаранення найноўшых тэхналогій у Галівудзе, Белым Доме; яго кнігу "Augmented: Life in the Smart Lane" згадаў як адну з любімых настольных кніг прэзідэнт Кітая ў сваім навагоднім звароце.

NeurIPS New Year Afterparty

15 студзеня, пачатак у 18:00, Серада

  • 18:00 Рэгістрацыя Рэгістрацыя
  • 19:00 Адкрыццё - Міхаіл Біленка, Яндэкс
  • 19:05 Reinforcement learning на NeurIPS 2019: як гэта было - Сяргей Калеснікаў, TinkoffЗ кожным годам тэма навучання з падмацаваннем (reinforcement learning, RL) становіцца ўсё гарачэй і хайпавей. І кожны год кампаніі DeepMind і OpenAI падліваюць маслы ў агонь, выпускаючы новага superhuman performance bot. Ці ёсць за гэтым нешта сапраўды вартае? І якія апошнія трэнды ва ўсім RL-разнастайнасці? Давайце высветлім!
  • 19:25 Агляд работ NLP на NeurIPS 2019 - Міхаіл Бурцаў, МФТІСёння найбольш прарыўныя накірункі ў галіне апрацоўкі натуральнай мовы звязаны з пабудовай архітэктур на аснове моўных мадэлей і графаў ведаў. У дакладзе будзе прадстаўлены агляд прац, у якіх гэтыя метады выкарыстоўваюцца пры пабудове дыялогавых сістэм для рэалізацыі розных функцый. Напрыклад - для зносін на агульныя тэмы, павышэння эмпатыі і вядзення мэтанакіраванага дыялогу.
  • 19:45 Шляхі да разумення выгляду паверхні функцыі страт - Дзмітрый Ветраў, ФКН НИУ ВШЭ.Я абмяркоўваю некалькі прац, у якіх даследуюцца незвычайныя эфекты ў глыбінным навучанні. Гэтыя эфекты праліваюць святло з выгляду паверхні функцыі страт у прасторы вагаў і дазваляюць высунуць шэраг гіпотэз. Калі іх пацьвердзіць, можна будзе больш эфэктыўна рэгуляваць велічыню кроку ў мэтадах аптымізацыі. Таксама гэта дазволіць прагназаваць дасягальнае значэнне функцыі страт на тэставай выбарцы задоўга да заканчэння навучання.
  • 20:05 Агляд работ па камп'ютарным зроку на NeurIPS 2019 — Сяргей Аўчарэнка, Канстанцін Лахман, ЯндэксМы разгледзім асноўныя напрамкі даследаванняў і працы ў кампутарным зроку. Паспрабуем зразумець, ці ўсе задачы ўжо вырашаны з пункту гледжання акадэміі, ці працягваецца пераможнае шэсце GAN ва ўсіх абласцях, хто аказвае яму супраціўленне і калі ўжо адбудзецца unsupervised-рэвалюцыя.
  • 20:25 Кава-брэйк
  • 20 Мадэляванне паслядоўнасцяў з неабмежаваным парадкам спараджэння — Дзмітрый Емяльяненка, ЯндэксМы прапануем мадэль, здольную ўстаўляць словы ў адвольнае месца генераванай прапановы. Мадэль няяўна вучыць зручны парадак дэкадавання, засноўваючыся на дадзеных. Лепшая якасць дасягаецца на некалькіх датасетах: для машыннага перакладу, выкарыстанні ў LaTeX і апісанні малюнкаў. Даклад прысвечаны артыкулу, у якім мы паказваем, што вывучаны парадак дэкадавання сапраўды валодае сэнсам і спецыфічны для развязальнай задачы.
  • 20:55 Reverse KL-Divergence Прайдэры па прыорных сетках: Improved Uncertainty and Adversarial Robustness — Андрэй Малінін, ЯндэксАднастайныя прылады для няпэўнага амбіцыі павінны былі папярэдне прынятыя ў думкі аб класіфікацыі сыходу, ад-распаўсюджвання ўводу пазбаўлення волі і патэнцыйнага сыходу сыходу. Priorové sítě mají byť proposed jako approach k efficiently emulate assemble models for classification by parameterising Dirichlet prior distribution over output distributions. Гэтыя мадэлі павінны быць выяўленыя ў адрозненне ад alternative ensemble approaches, так як Monte-Carlo Dropout, на ходу ад distribution input detection. However, scaling Prior Networks для комплексных dates з многімі кропкамі з'яўляецца непасрэдным шляхам трэнінгу criteria originally proposed. Гэтыя paper makes 10 contributions. Упершыню, мы мяркуем, што падыходны трэніровак criterion для прыродных сетак з'яўляецца рэверсам KL-divergence паміж Dirichlet distributions. Гэтыя адрасы існуюць у натуры пабудаванай тэгайнай distribuцыі, abnormal priorové siete, каб паспяхова трэніроўкі на дыяпазоне фестывальаў з шчырымі шматлікімі, як добра, як і недапушчальна з-за адкрыццё сыходу. Second, беручы ўвагі гэтага новага трэнінгу criterion, гэтая цана сцэнарыяў пры дапамозе прыродных сетак, каб вызначыць adversarial attacks і забяспечвае generalized form of adversarial training. Гэта мяркуе, што будова паспяховай adaptive whitebox нападу, якая ўздзейнічае на забойства і знішчэнне адмены, у адпаведнасці з прыроднымі сеткамі пабудавана на CIFAR-100 і CIFAR-XNUMX шляхам узгодненых прыналежных патрабаванняў, як вялікае памяшканне, пашкоджаных training or MC-dropout.
  • 21:10 Панэльная дыскусія: «NeurlPS, які занадта вырас: хто вінаваты і што рабіць?» - Аляксандр Крайноў, Яндэкс
  • 21 Afterparty

R Moscow Meetup #5

16 студзеня, 18:30-21:30, Чацвер

  • 19:00-19:30 "Рашэнне эксплуатацыйных задач з дапамогай R для чайнікаў" - Канстанцін Фірсаў (АТ "Нетрыс", Галоўны інжынер па ўкараненні).
  • 19:30-20:00 «Аптымізацыя таварных запасаў у retail» - Генрых Ананьеў (ПАТ Бялуга Груп, Кіраўнік кірунку аўтаматызацыі справаздачнасці).
  • 20:00-20:30 «BMS у X5: як зрабіць business-process mining на неструктураваных POS логах сродкамі R» - Ралдугін Яўген (X5 Retail Group, Кіраўнік упраўлення інструментаў кантролю якасці сэрвісаў), Ілля Шутаў (Медыя-тэл, кіраўнік кірунку data science).

Frontend Meetup у Маскве (Гастрамаркет Балчуг)

18 студзеня, 12:00-18:00, Субота

  • «Калі варта перапісаць дадатак з нуля, і як пераканаць у гэтым бізнэс» – Аляксей Пыж'янаў, распрацоўшчык, СібурРэальная гісторыя пра тое, як мы разабраліся з тэхдоўгам самым радыкальным спосабам. Раскажу аб тым:
    1. Чаму добрае прыкладанне ператварылася ў жудаснае легасі.
    2. Як мы прынялі няпростае рашэнне ўсё перапісаць.
    3. Як мы прадалі гэтую ідэю ўладальніку прадукта.
    4. Што атрымалася ў выніку з гэтай задумы, і чаму мы не шкадуем аб прынятым рашэнні.

  • "Vuejs API mocks" - Уладзіслаў Прусаў, Frontend developer, AGIMA

Трэніроўкі па машынным навучанні ў Авіта 2.0

18 студзеня, 12:00-15:00, Субота

  • 12 «Зіндзі Сэнды Лагістыка Challenge (rus)» - Раман П'янкоў
  • 12:30 «Data Souls Wildfire AI (rus)» - Ілля Плотнікаў
  • 13:00 Кафебрэйк
  • 13:20 «Топкодэр SpaceNet 5 Challenge & Signate The 3rd Tellus Satellite Challenge (eng)» - Ilya Kibardin
  • 14:00 Кафебрэйк
  • 14 “Codalab Automated Time Series Regression (eng)” — Denis Vorotyntsev

Крыніца: habr.com

Дадаць каментар