Hvor skal du hen: kommende gratis arrangementer for it-professionelle i Moskva (14.-18. januar)

Hvor skal du hen: kommende gratis arrangementer for it-professionelle i Moskva (14.-18. januar)

Arrangementer med åben tilmelding:


AI og mobil

14. januar, 19-00, tirsdag

Vi inviterer dig til et møde om kunstig intelligens, dens anvendelse på mobile enheder og de vigtigste teknologiske og forretningsmæssige tendenser i det nye årti. På programmet står spændende reportager, diskussioner, pizza og godt humør.

En af talerne er en pioner inden for at introducere de nyeste teknologier i Hollywood, Det Hvide Hus; hans bog "Augmented: Life in the Smart Lane" blev nævnt som en af ​​hans foretrukne opslagsbøger af Kinas præsident i hans nytårstale.

NeuIPS nytårsefterfest

15. januar med start klokken 18, onsdag

  • 18 Tilmelding
  • 19:00 Åbning - Mikhail Bilenko, Yandex
  • 19:05 Reinforcement learning på NeurIPS 2019: hvordan var det - Sergey Kolesnikov, TinkoffHvert år bliver emnet forstærkende læring (RL) varmere og mere hypet. Og hvert år tilføjer DeepMind og OpenAI brændstof til ilden ved at udgive en ny supermenneskelig præstationsbot. Er der virkelig noget værd bag dette? Og hvad er de seneste trends inden for al RL-diversitet? Lad os finde ud af det!
  • 19:25 Gennemgang af NLP-arbejde ved NeurIPS 2019 - Mikhail Burtsev, MIPTI dag er de mest banebrydende tendenser inden for naturlig sprogbehandling forbundet med konstruktionen af ​​arkitekturer baseret på sprogmodeller og vidensgrafer. Rapporten vil give et overblik over værker, hvor disse metoder bruges til at bygge dialogsystemer til at implementere forskellige funktioner. Eksempelvis til at kommunikere om generelle emner, øge empatien og føre målrettet dialog.
  • 19:45 Måder at forstå typen af ​​overflade af tabsfunktionen - Dmitry Vetrov, Fakultet for Datalogi, National Research University Higher School of EconomicsJeg vil diskutere flere artikler, der udforsker usædvanlige effekter i dyb læring. Disse effekter kaster lys over udseendet af overfladen af ​​tabsfunktionen i vægtrum og giver os mulighed for at fremsætte en række hypoteser. Hvis det bekræftes, vil det være muligt mere effektivt at regulere trinstørrelsen i optimeringsmetoder. Dette vil også gøre det muligt at forudsige den opnåelige værdi af tabsfunktionen på testprøven længe før endt træning.
  • 20:05 Gennemgang af værker om computersyn ved NeurIPS 2019 - Sergey Ovcharenko, Konstantin Lakhman, YandexVi vil se på hovedområderne for forskning og arbejde inden for computersyn. Lad os prøve at forstå, om alle problemerne allerede er løst fra akademiets synspunkt, om GAN's sejrsmarch fortsætter på alle områder, hvem der gør modstand, og hvornår den uovervågede revolution vil finde sted.
  • 20:25 Kaffepause
  • 20:40 Modelleringssekvenser med ubegrænset generationsrækkefølge - Dmitry Emelianenko, YandexVi foreslår en model, der kan indsætte ord på vilkårlige steder i den genererede sætning. Modellen lærer implicit en bekvem afkodningsrækkefølge baseret på dataene. Den bedste kvalitet opnås på flere datasæt: til maskinoversættelse, brug i LaTeX og billedbeskrivelse. Rapporten er dedikeret til en artikel, hvori vi viser, at den indlærte afkodningsrækkefølge faktisk giver mening og er specifik for det problem, der skal løses.
  • 20:55 Omvendt KL-divergenstræning af tidligere netværk: Forbedret usikkerhed og modstandsdygtighed - Andrey Malinin, YandexEnsembletilgange til estimering af usikkerhed er for nylig blevet anvendt til opgaverne med fejlklassificeringsdetektion, out-of-distribution inputdetektion og modstridende angrebsdetektion. Tidligere netværk er blevet foreslået som en tilgang til effektivt at efterligne et ensemble af modeller til klassificering ved at parameterisere en Dirichlet-forudgående distribution over outputdistributioner. Disse modeller har vist sig at overgå alternative ensemble-tilgange, såsom Monte-Carlo Dropout, på opgaven med out-of-distribution input-detektion. Det er imidlertid vanskeligt at skalere Prior Networks til komplekse datasæt med mange klasser ved at bruge de oprindeligt foreslåede træningskriterier. Dette papir giver to bidrag. Først viser vi, at det passende træningskriterium for Prior Networks er den omvendte KL-divergens mellem Dirichlet-distributioner. Dette problem adresserer karakteren af ​​træningsdatamålfordelingerne, hvilket gør det muligt for tidligere netværk at blive trænet med succes i klassifikationsopgaver med vilkårligt mange klasser, samt forbedre ude-af-distributionsdetektionsydelse. For det andet, ved at udnytte dette nye træningskriterium, undersøger dette papir brugen af ​​tidligere netværk til at opdage modstridende angreb og foreslår en generaliseret form for modstridende træning. Det er vist, at konstruktionen af ​​vellykkede adaptive whitebox-angreb, som påvirker forudsigelsen og unddragelsesdetekteringen, mod tidligere netværk, der er trænet på CIFAR-10 og CIFAR-100 ved hjælp af den foreslåede tilgang, kræver en større mængde beregningsmæssig indsats end mod netværk, der forsvares ved hjælp af standard adversarial. træning eller MC-frafald.
  • 21:10 Paneldebat: "NeurlPS, der er vokset for meget: hvem har skylden, og hvad skal man gøre?" - Alexander Krainov, Yandex
  • 21:40 Afterparty

R Moscow Meetup #5

16. januar, 18-30, torsdag

  • 19:00-19:30 "Løser driftsproblemer ved hjælp af R for dummies" - Konstantin Firsov (Netris JSC, Chief Implementation Engineer).
  • 19:30-20:00 “Optimering af lagerbeholdning i detailhandlen” - Genrikh Ananyev (PJSC Beluga Group, Head of Reporting Automation).
  • 20:00-20:30 "BMS i X5: hvordan man laver forretningsprocesser mining på ustrukturerede POS-logfiler ved hjælp af R" - Evgeniy Roldugin (X5 Retail Group, Head of Service Quality Control Tools Department), Ilya Shutov (Media Tel, Head fra afdelingens dataforsker).

Frontend Meetup i Moskva (Gastromarket Balchug)

18. januar, 12-00, lørdag

  • "Hvornår er det værd at omskrive en applikation fra bunden, og hvordan man overbeviser virksomheder om dette" - Alexey Pyzhyanov, udvikler, SiburDen virkelige historie om, hvordan vi håndterede teknisk gæld på den mest radikale måde. Jeg vil fortælle dig om det:
    1. Hvorfor en god applikation blev til en frygtelig arv.
    2. Hvordan vi tog den svære beslutning at omskrive alt.
    3. Hvordan vi solgte denne idé til produktejeren.
    4. Hvad kom der ud af denne idé i sidste ende, og hvorfor vi ikke fortryder den beslutning, vi tog.

  • "Vuejs API håner" — Vladislav Prusov, frontend-udvikler, AGIMA

Maskinlæringstræning i Avito 2.0

18. januar, 12-00, lørdag

  • 12:00 “Zindi Sendy Logistics Challenge (rus)” - Roman Pyankov
  • 12:30 "Data Souls Wildfire AI (rus)" - Ilya Plotnikov
  • 13:00 Kaffepause
  • 13:20 "Topcoder SpaceNet 5 Challenge & Signate The 3rd Tellus Satellite Challenge (eng)" - Ilya Kibardin
  • 14:00 Kaffepause
  • 14:10 "Codalab Automated Time Series Regression (eng)" - Denis Vorotyntsev

Kilde: www.habr.com

Tilføj en kommentar