Kien iri: venontaj senpagaj eventoj por IT-profesiuloj en Moskvo (14–18 januaro)

Kien iri: venontaj senpagaj eventoj por IT-profesiuloj en Moskvo (14–18 januaro)

Eventoj kun malferma registriĝo:


AI & Poŝtelefono

La 14-an de januaro, 19:00-22:00, mardo

Ni invitas vin al renkontiĝo pri artefarita inteligenteco, ĝia aplikado en porteblaj aparatoj kaj la plej gravaj teknologiaj kaj komercaj tendencoj de la nova jardeko. La programo inkluzivas interesajn raportojn, diskutojn, picon kaj bonan humoron.

Unu el la parolantoj estas pioniro en enkonduko de la plej novaj teknologioj en Holivudo, la Blanka Domo; lia libro "Augmented: Life in the Smart Lane" estis menciita kiel unu el liaj plej ŝatataj konsultlibroj de la Prezidanto de Ĉinio en sia novjara parolado.

NeurIPS Novjara Postfesto

La 15-an de januaro, ekde 18:00, merkredo

  • 18:00 Aliĝo
  • 19:00 Malfermo - Miĥail Bilenko, Yandex
  • 19:05 Plifortiga lernado ĉe NeurIPS 2019: kiel ĝi estis - Sergey Kolesnikov, TinkoffĈiujare la temo de plifortiga lernado (RL) fariĝas pli varma kaj pli furora. Kaj ĉiujare, DeepMind kaj OpenAI aldonas brulaĵon al la fajro liberigante novan superhoman agadon bot. Ĉu estas io vere inda malantaŭ ĉi tio? Kaj kiuj estas la plej novaj tendencoj en la tuta RL-diverseco? Ni eksciu!
  • 19:25 Recenzo pri NLP-laboro ĉe NeurIPS 2019 - Miĥail Burtsev, MIPTHodiaŭ, la plej progresaj tendencoj en la kampo de naturlingva prilaborado estas asociitaj kun la konstruado de arkitekturoj bazitaj sur lingvomodeloj kaj sciaj grafikaĵoj. La raporto provizos superrigardon de verkoj en kiuj ĉi tiuj metodoj estas uzataj por konstrui dialogsistemojn por efektivigi diversajn funkciojn. Ekzemple, por komuniki pri ĝeneralaj temoj, pliigi empation kaj fari cel-orientitan dialogon.
  • 19:45 Manieroj kompreni la specon de surfaco de la perda funkcio - Dmitry Vetrov, Fakultato de Komputado, Nacia Esplora Universitato Supera Lernejo de EkonomikoMi diskutos plurajn artikolojn, kiuj esploras nekutimajn efikojn en profunda lernado. Ĉi tiuj efikoj lumigas la aspekton de la surfaco de la perdo-funkcio en peza spaco kaj permesas al ni prezenti kelkajn hipotezojn. Se konfirmite, eblos pli efike reguligi la paŝograndecon en optimumigaj metodoj. Ĉi tio ankaŭ ebligos antaŭdiri la atingeblan valoron de la perdfunkcio sur la prova specimeno longe antaŭ la fino de trejnado.
  • 20:05 Revizio de verkoj pri komputila vizio ĉe NeurIPS 2019 - Sergey Ovcharenko, Konstantin Lakhman, YandexNi rigardos la ĉefajn areojn de esplorado kaj laboro en komputila vizio. Ni provu kompreni, ĉu ĉiuj problemoj jam estas solvitaj el la vidpunkto de la akademio, ĉu la venka marŝo de GAN daŭras en ĉiuj kampoj, kiu kontraŭstaras ĝin, kaj kiam okazos la nekontrolita revolucio.
  • 20:25 Kafo-paŭzo
  • 20:40 Modelaj sekvencoj kun senlima ordo de generacio - Dmitry Emelianenko, YandexNi proponas modelon, kiu povas enmeti vortojn en arbitrajn lokojn en la generita frazo. La modelo implicite lernas oportunan malkodan ordon bazitan sur la datenoj. La plej bona kvalito estas atingita sur pluraj datumaroj: por maŝintradukado, uzu en LaTeX kaj bilda priskribo. La raporto estas dediĉita al artikolo en kiu ni montras, ke la lernita malkoda ordo efektive havas sencon kaj estas specifa por la problemo solvita.
  • 20:55 Inversa KL-Diverĝa Trejnado de Antaŭaj Retoj: Plibonigita Necerteco kaj Kontraŭa Fortikeco - Andrey Malinin, YandexEnsemblo-aliroj por necerteco-takso ĵus estis aplikitaj al la taskoj de misklasifika detekto, ekster-de-distribua enigdetekto kaj kontraŭatako-detekto. Antaŭaj Retoj estis proponitaj kiel aliro por efike kopii ensemblon de modeloj por klasifiko parametrigante Dirichlet-antaŭan distribuon super produktaĵdistribuoj. Tiuj modeloj pruviĝis superi alternativajn ensemblo-alirojn, kiel ekzemple Monte-Carlo Dropout, en la tasko de ekster-de-distribua enigdetekto. Tamen, grimpi Antaŭajn Retojn al kompleksaj datumaroj kun multaj klasoj estas malfacila uzante la trejnajn kriteriojn origine proponitajn. Ĉi tiu artikolo faras du kontribuojn. Unue, ni montras, ke la taŭga trejna kriterio por Antaŭaj Retoj estas la inversa KL-diverĝo inter Dirichlet-distribuoj. Ĉi tiuj aferoj traktas en la naturo de la trejnaj datenoj celdistribuoj, ebligante antaŭajn retojn esti sukcese trejnitaj pri klasifiktaskoj kun arbitre multaj klasoj, same kiel plibonigante ekster-de-distribua detekto efikeco. Due, utiligante ĉi tiun novan trejnan kriterion, ĉi tiu artikolo esploras uzi Antaŭajn Retojn por detekti kontraŭajn atakojn kaj proponas ĝeneraligitan formon de kontraŭa trejnado. Estas montrite ke la konstruado de sukcesaj adaptaj blankkesto-atakoj, kiuj influas la antaŭdiron kaj evitas detekton, kontraŭ Antaŭaj Retoj trejnitaj sur CIFAR-10 kaj CIFAR-100 uzante la proponitan aliron postulas pli grandan kvanton de komputila fortostreĉo ol kontraŭ retoj defenditaj uzante norman kontraŭulon. trejnado aŭ MC-forlaso.
  • 21:10 Panela diskuto: "NeurlPS, kiu tro kreskis: kiu kulpas kaj kion fari?" — Aleksandr Krainov, Yandex
  • 21:40 Postfesto

R Moskva Renkontiĝo #5

La 16-an de januaro, 18:30-21:30, ĵaŭdo

  • 19:00-19:30 "Solvanta operaciajn problemojn uzante R por maniloj" - Konstantin Firsov (Netris JSC, Ĉefa Inĝeniero pri Efektivigo).
  • 19:30-20:00 "Optimumigo de inventaro en podetala komerco" - Genrikh Ananyev (PJSC Beluga Group, Estro de raporta aŭtomatigo).
  • 20:00-20:30 "BMS en X5: kiel fari komercprocezan minadon sur nestrukturitaj POS-programoj uzante R" - Evgeniy Roldugin (X5 Retail Group, Estro de Serva Kvalita Kontrola Iloj Departemento), Ilya Shutov (Media Tel, Estro de Departemento datumsciencisto).

Frontend Meetup en Moskvo (Gastromarket Balchug)

La 18-an de januaro, 12:00-18:00, sabato

  • "Kiam indas reverki aplikaĵon de nulo, kaj kiel konvinki komercon pri ĉi tio" - Alexey Pyzhyanov, programisto, SiburLa vera rakonto pri kiel ni traktis teknikan ŝuldon en la plej radikala maniero. Mi rakontos al vi pri tio:
    1. Kial bona aplikaĵo fariĝis terura heredaĵo.
    2. Kiel ni faris la malfacilan decidon reverki ĉion.
    3. Kiel ni vendis ĉi tiun ideon al la produktposedanto.
    4. Kio fine eliris el ĉi tiu ideo, kaj kial ni ne bedaŭras la decidon, kiun ni faris.

  • "Vuejs API mokas" - Vladislav Prusov, Frontend-programisto, AGIMA

Trejnado pri maŝinlernado en Avito 2.0

La 18-an de januaro, 12:00-15:00, sabato

  • 12:00 "Zindi Sendy Logistics Challenge (rus)" - Roman Pyankov
  • 12:30 "Data Souls Wildfire AI (rus)" - Ilya Plotnikov
  • 13:00 Kafopaŭzo
  • 13:20 "Topcoder SpaceNet 5 Defio & Subskribu La 3-an Tellus Satellite Challenge (epo)" - Ilya Kibardin
  • 14:00 Kafopaŭzo
  • 14:10 "Codalab Aŭtomatigita Tempo-Serio-Regreso (epo)" - Denis Vorotyntsev

fonto: www.habr.com

Aldoni komenton