On anar: propers esdeveniments gratuïts per a professionals de les TI a Moscou (del 14 al 18 de gener)

On anar: propers esdeveniments gratuïts per a professionals de les TI a Moscou (del 14 al 18 de gener)

Esdeveniments amb inscripcions obertes:


IA i mòbil

14 de gener, 19:00-22:00, dimarts

Et convidem a una trobada sobre la intel·ligència artificial, la seva aplicació en dispositius mòbils i les tendències tecnològiques i empresarials més importants de la nova dècada. El programa inclou reportatges interessants, debats, pizza i bon humor.

Un dels ponents és pioner a introduir les últimes tecnologies a Hollywood, la Casa Blanca; el seu llibre "Augmented: Life in the Smart Lane" va ser esmentat com un dels seus llibres de referència preferits pel president de la Xina en el seu discurs d'Any Nou.

NeurIPS Afterparty d'Any Nou

15 de gener, a partir de les 18:00, dimecres

  • 18:00 Inscripcions
  • 19:00 Inauguració - Mikhail Bilenko, Yandex
  • 19:05 Aprenentatge de reforç a NeurIPS 2019: com va ser - Sergey Kolesnikov, TinkoffCada any, el tema de l'aprenentatge per reforç (RL) s'està convertint en més candent i promocionat. I cada any, DeepMind i OpenAI afegeixen combustible al foc llançant un nou bot de rendiment sobrehumà. Hi ha alguna cosa que realment val la pena darrere d'això? I quines són les últimes tendències en tota la diversitat de RL? Anem a esbrinar!
  • 19:25 Revisió del treball de PNL a NeurIPS 2019 - Mikhail Burtsev, MIPTAvui dia, les tendències més innovadores en l'àmbit del processament del llenguatge natural estan associades a la construcció d'arquitectures basades en models de llenguatge i gràfics de coneixement. L'informe proporcionarà una visió general dels treballs en què aquests mètodes s'utilitzen per construir sistemes de diàleg per implementar diverses funcions. Per exemple, per comunicar-se sobre temes generals, augmentar l'empatia i dur a terme un diàleg orientat a objectius.
  • 19:45 Maneres d'entendre el tipus de superfície de la funció de pèrdua - Dmitry Vetrov, Facultat d'Informàtica, National Research University Higher School of EconomicsDiscutiré diversos articles que exploren efectes inusuals en l'aprenentatge profund. Aquests efectes aclareixen l'aspecte de la superfície de la funció de pèrdua en l'espai de pes i ens permeten plantejar una sèrie d'hipòtesis. Si es confirma, serà possible regular de manera més eficaç la mida del pas en els mètodes d'optimització. Això també permetrà predir el valor assolible de la funció de pèrdua a la mostra de prova molt abans del final de l'entrenament.
  • 20:05 Revisió dels treballs sobre visió per ordinador a NeurIPS 2019 - Sergey Ovcharenko, Konstantin Lakhman, YandexVeurem les principals àrees de recerca i treball en visió per computador. Intentem entendre si tots els problemes ja s'han resolt des del punt de vista de l'acadèmia, si la marxa victoriosa del GAN ​​continua en tots els àmbits, qui s'hi resisteix, i quan es farà la revolució sense vigilància.
  • 20:25 Pausa cafè
  • 20:40 Seqüències de modelatge amb ordre de generació il·limitat - Dmitry Emelianenko, YandexProposem un model que permet inserir paraules en llocs arbitraris de la frase generada. El model aprèn implícitament un ordre de descodificació convenient basat en les dades. La millor qualitat s'aconsegueix en diversos conjunts de dades: per a la traducció automàtica, ús en LaTeX i la descripció de la imatge. L'informe està dedicat a un article en què mostrem que l'ordre de descodificació après té sentit i és específic del problema que es resol.
  • 20:55 Entrenament de divergència KL inversa de xarxes anteriors: incertesa millorada i robustesa adversària - Andrey Malinin, YandexRecentment s'han aplicat enfocaments conjunts per a l'estimació de la incertesa a les tasques de detecció de classificació errònia, detecció d'entrada fora de distribució i detecció d'atacs adversaris. Les xarxes anteriors s'han proposat com un enfocament per emular de manera eficient un conjunt de models per a la classificació parametritzant una distribució prèvia de Dirichlet sobre distribucions de sortida. S'ha demostrat que aquests models superen els enfocaments de conjunts alternatius, com ara Monte-Carlo Dropout, en la tasca de detecció d'entrada fora de distribució. Tanmateix, escalar les xarxes anteriors a conjunts de dades complexos amb moltes classes és difícil utilitzant els criteris d'entrenament proposats originalment. Aquest article fa dues aportacions. En primer lloc, mostrem que el criteri d'entrenament adequat per a xarxes prèvies és la divergència KL inversa entre distribucions de Dirichlet. Aquest problema aborda la naturalesa de les distribucions d'objectius de dades d'entrenament, permetent que les xarxes anteriors es puguin entrenar amb èxit en tasques de classificació amb moltes classes arbitràriament, així com millorar el rendiment de detecció fora de distribució. En segon lloc, aprofitant aquest nou criteri d'entrenament, aquest treball investiga l'ús de xarxes prèvies per detectar atacs adversaris i proposa una forma generalitzada d'entrenament adversari. Es demostra que la construcció d'atacs de caixa blanca adaptativa amb èxit, que afecten la predicció i eludir la detecció, contra xarxes anteriors entrenades en CIFAR-10 i CIFAR-100 utilitzant l'enfocament proposat requereix un esforç computacional més gran que contra xarxes defensades amb adversaris estàndard. formació o abandonament de MC.
  • 21:10 Taula de discussió: "NeurlPS, que ha crescut massa: qui té la culpa i què fer?" — Alexander Krainov, Yandex
  • 21:40 Afterparty

R Trobada de Moscou #5

16 de gener, 18:30-21:30, dijous

  • 19:00-19:30 "Resolució de problemes operatius amb R per a maniquís" - Konstantin Firsov (Netris JSC, enginyer en cap d'implementació).
  • 19:30-20:00 "Optimització de l'inventari al detall" - Genrikh Ananyev (PJSC Beluga Group, Cap d'automatització de informes).
  • 20:00-20:30 "BMS a X5: com fer mineria de processos empresarials en registres de TPV no estructurats mitjançant R" - Evgeniy Roldugin (X5 Retail Group, Cap del Departament d'Eines de Control de Qualitat del Servei), Ilya Shutov (Media Tel, Cap de Científic de dades del Departament).

Trobada Frontend a Moscou (Gastromarket Balchug)

18 de gener, 12:00-18:00, dissabte

  • "Quan val la pena reescriure una aplicació des de zero i com convèncer les empreses d'això" - Alexey Pyzhyanov, desenvolupador, SiburLa història real de com vam tractar el deute tècnic de la manera més radical. T'ho diré:
    1. Per què una bona aplicació es va convertir en un llegat terrible.
    2. Com vam prendre la difícil decisió de reescriure-ho tot.
    3. Com vam vendre aquesta idea al propietari del producte.
    4. Què va sortir d'aquesta idea al final i per què no ens penedim de la decisió que vam prendre.

  • "Vuejs API mocks" - Vladislav Prusov, desenvolupador Frontend, AGIMA

Formació d'aprenentatge automàtic en Avito 2.0

18 de gener, 12:00-15:00, dissabte

  • 12:00 "Zindi Sendy Logistics Challenge (rus)" - Roman Pyankov
  • 12:30 "Data Souls Wildfire AI (rus)" - Ilya Plotnikov
  • 13:00 Pausa cafè
  • 13:20 "Topcoder SpaceNet 5 Challenge i signar el 3r Tellus Satellite Challenge (cat)" - Ilya Kibardin
  • 14:00 Pausa cafè
  • 14:10 "Regressió automàtica de sèries temporals de Codalab (cat)" - Denis Vorotyntsev

Font: www.habr.com

Afegeix comentari