Hvor skal du dra: kommende gratisarrangementer for IT-fagfolk i Moskva (14.–18. januar)

Hvor skal du dra: kommende gratisarrangementer for IT-fagfolk i Moskva (14.–18. januar)

Arrangementer med åpen påmelding:


AI og mobil

14. januar, 19-00, tirsdag

Vi inviterer deg til et møte om kunstig intelligens, dens anvendelse på mobile enheter og de viktigste teknologiske og forretningsmessige trendene i det nye tiåret. På programmet står interessante reportasjer, diskusjoner, pizza og godt humør.

En av foredragsholderne er en pioner i å introdusere den nyeste teknologien i Hollywood, Det hvite hus; hans bok «Augmented: Life in the Smart Lane» ble nevnt som en av hans favorittoppslagsbøker av Kinas president i nyttårstalen hans.

NeuIPS nyttårs etterfest

15. januar med oppstart kl 18:00, onsdag

  • 18:00 Registrering
  • 19:00 Åpning - Mikhail Bilenko, Yandex
  • 19:05 Forsterkende læring på NeurIPS 2019: hvordan det var - Sergey Kolesnikov, TinkoffHvert år blir temaet forsterkende læring (RL) hetere og mer hypet. Og hvert år legger DeepMind og OpenAI bensin på bålet ved å gi ut en ny overmenneskelig ytelsesrobot. Er det noe virkelig verdt bak dette? Og hva er de siste trendene innen alt RL-mangfold? La oss finne det ut!
  • 19:25 Gjennomgang av NLP-arbeid på NeurIPS 2019 - Mikhail Burtsev, MIPTI dag er de mest banebrytende trendene innen naturlig språkbehandling knyttet til konstruksjon av arkitekturer basert på språkmodeller og kunnskapsgrafer. Rapporten vil gi en oversikt over arbeider der disse metodene brukes til å bygge dialogsystemer for å implementere ulike funksjoner. For eksempel for å kommunisere om generelle temaer, øke empati og føre målrettet dialog.
  • 19:45 Måter å forstå typen overflate av tapsfunksjonen - Dmitry Vetrov, Fakultet for informatikk, National Research University Higher School of EconomicsJeg vil diskutere flere artikler som utforsker uvanlige effekter i dyp læring. Disse effektene kaster lys over utseendet til overflaten av tapsfunksjonen i vektrom og lar oss fremsette en rekke hypoteser. Hvis det bekreftes, vil det være mulig å regulere trinnstørrelsen mer effektivt i optimaliseringsmetoder. Dette vil også gjøre det mulig å forutsi oppnåelig verdi av tapsfunksjonen på testprøven lenge før treningsslutt.
  • 20:05 Gjennomgang av arbeid med datasyn på NeurIPS 2019 - Sergey Ovcharenko, Konstantin Lakhman, YandexVi skal se på hovedområdene for forskning og arbeid innen datasyn. La oss prøve å forstå om alle problemene allerede er løst fra akademiets synspunkt, om den seirende marsjen til GAN ​​fortsetter på alle områder, hvem som motsetter seg den, og når den uovervåkede revolusjonen vil finne sted.
  • 20:25 Kaffepause
  • 20:40 Modelleringssekvenser med ubegrenset generasjonsrekkefølge - Dmitry Emelianenko, YandexVi foreslår en modell som kan sette inn ord på vilkårlige steder i den genererte setningen. Modellen lærer implisitt en praktisk dekodingsrekkefølge basert på dataene. Den beste kvaliteten oppnås på flere datasett: for maskinoversettelse, bruk i LaTeX og bildebeskrivelse. Rapporten er dedikert til en artikkel der vi viser at den lærte dekodingsrekkefølgen faktisk gir mening og er spesifikk for problemet som skal løses.
  • 20:55 Omvendt KL-divergensopplæring av tidligere nettverk: Forbedret usikkerhet og motstandsdyktighet - Andrey Malinin, YandexEnsembletilnærminger for estimering av usikkerhet har nylig blitt brukt på oppgavene som feilklassifiseringsdeteksjon, ut-av-distribusjonsinndatadeteksjon og motstridende angrepsdeteksjon. Tidligere nettverk har blitt foreslått som en tilnærming for effektivt å emulere et ensemble av modeller for klassifisering ved å parameterisere en Dirichlet tidligere distribusjon over utgangsdistribusjoner. Disse modellene har vist seg å utkonkurrere alternative ensembletilnærminger, som Monte-Carlo Dropout, når det gjelder oppgaven med ut-av-distribusjon inngangsdeteksjon. Imidlertid er det vanskelig å skalere tidligere nettverk til komplekse datasett med mange klasser ved å bruke opplæringskriteriene som opprinnelig ble foreslått. Denne artikkelen gir to bidrag. Først viser vi at det passende opplæringskriteriet for tidligere nettverk er den omvendte KL-divergensen mellom Dirichlet-distribusjoner. Dette problemet tar for seg karakteren til måldistribusjonene for treningsdata, noe som gjør det mulig for tidligere nettverk å bli vellykket trent på klassifiseringsoppgaver med vilkårlig mange klasser, samt forbedre ytelsen for deteksjon utenfor distribusjon. For det andre, ved å dra nytte av dette nye opplæringskriteriet, undersøker denne artikkelen bruken av tidligere nettverk for å oppdage kontradiktoriske angrep og foreslår en generalisert form for motstridende trening. Det er vist at konstruksjonen av vellykkede adaptive whitebox-angrep, som påvirker prediksjonen og unnvike deteksjonen, mot tidligere nettverk som er trent på CIFAR-10 og CIFAR-100 ved bruk av den foreslåtte tilnærmingen krever en større mengde beregningsinnsats enn mot nettverk som forsvares ved bruk av standard adversarial. trening eller MC-frafall.
  • 21:10 Paneldebatt: "NeurlPS, som har vokst for mye: hvem har skylden og hva skal man gjøre?" - Alexander Krainov, Yandex
  • 21:40 Afterparty

R Moscow Meetup #5

16. januar, 18-30, torsdag

  • 19:00-19:30 "Løser driftsproblemer ved å bruke R for dummies" - Konstantin Firsov (Netris JSC, Chief Implementation Engineer).
  • 19:30-20:00 "Optimalisering av varelager i detaljhandelen" - Genrikh Ananyev (PJSC Beluga Group, leder for rapporteringsautomatisering).
  • 20:00-20:30 "BMS i X5: hvordan gjøre forretningsprosesser mining på ustrukturerte POS-logger ved bruk av R" - Evgeniy Roldugin (X5 Retail Group, leder for avdeling for servicekvalitetskontrollverktøy), Ilya Shutov (Media Tel, Head fra avdelingens dataforsker).

Frontend Meetup i Moskva (Gastromarket Balchug)

18. januar, 12-00, lørdag

  • "Når er det verdt å omskrive en applikasjon fra bunnen av, og hvordan overbevise virksomheten om dette" - Alexey Pyzhyanov, utvikler, SiburDen virkelige historien om hvordan vi håndterte teknisk gjeld på den mest radikale måten. Jeg skal fortelle deg om det:
    1. Hvorfor en god applikasjon ble til en forferdelig arv.
    2. Hvordan vi tok den vanskelige beslutningen om å skrive om alt.
    3. Hvordan vi solgte denne ideen til produkteieren.
    4. Hva kom ut av denne ideen til slutt, og hvorfor vi ikke angrer på avgjørelsen vi tok.

  • "Vuejs API mocks" - Vladislav Prusov, Frontend-utvikler, AGIMA

Maskinlæringstrening i Avito 2.0

18. januar, 12-00, lørdag

  • 12:00 “Zindi Sendy Logistics Challenge (rus)” - Roman Pyankov
  • 12:30 "Data Souls Wildfire AI (rus)" - Ilya Plotnikov
  • 13:00 Kaffepause
  • 13:20 “Topcoder SpaceNet 5 Challenge & Signate The 3rd Tellus Satellite Challenge (eng)” - Ilya Kibardin
  • 14:00 Kaffepause
  • 14:10 "Codalab Automated Time Series Regression (eng)" - Denis Vorotyntsev

Kilde: www.habr.com

Legg til en kommentar