Vart ska man gå: kommande gratisevenemang för IT-proffs i Moskva (14–18 januari)

Vart ska man gå: kommande gratisevenemang för IT-proffs i Moskva (14–18 januari)

Evenemang med öppen anmälan:


AI och mobil

14 januari, 19:00-22:00, tisdag

Vi bjuder in dig till ett möte om artificiell intelligens, dess tillämpning på mobila enheter och de viktigaste tekniska och affärsmässiga trenderna under det nya decenniet. På programmet står intressanta reportage, diskussioner, pizza och gott humör.

En av talarna är en pionjär när det gäller att introducera den senaste tekniken i Hollywood, Vita huset; hans bok "Augmented: Life in the Smart Lane" nämndes som en av hans favorituppslagsböcker av Kinas president i hans nyårstal.

NeuIPS nyårsafterfest

15 januari med start kl 18:00, onsdag

  • 18:00 Registrering
  • 19:00 Invigning - Mikhail Bilenko, Yandex
  • 19:05 Reinforcement learning på NeurIPS 2019: hur det var - Sergey Kolesnikov, TinkoffVarje år blir ämnet förstärkningsinlärning (RL) hetare och mer hajpat. Och varje år lägger DeepMind och OpenAI bränsle på elden genom att släppa en ny övermänsklig prestationsbot. Finns det något riktigt värdefullt bakom detta? Och vilka är de senaste trenderna inom all RL-mångfald? Låt oss ta reda på!
  • 19:25 Granskning av NLP-arbete på NeurIPS 2019 - Mikhail Burtsev, MIPTIdag är de mest genombrottstrender inom området naturlig språkbehandling förknippade med konstruktionen av arkitekturer baserade på språkmodeller och kunskapsgrafer. Rapporten kommer att ge en översikt över arbeten där dessa metoder används för att bygga dialogsystem för att implementera olika funktioner. Till exempel för att kommunicera kring allmänna ämnen, öka empatin och föra målinriktad dialog.
  • 19:45 Sätt att förstå typen av yta av förlustfunktionen - Dmitry Vetrov, fakulteten för datavetenskap, National Research University Higher School of EconomicsJag kommer att diskutera flera artiklar som utforskar ovanliga effekter vid djupinlärning. Dessa effekter kastar ljus över utseendet på ytan av förlustfunktionen i viktutrymme och tillåter oss att lägga fram ett antal hypoteser. Om det bekräftas kommer det att vara möjligt att mer effektivt reglera stegstorleken i optimeringsmetoder. Detta kommer också att göra det möjligt att förutsäga det uppnåbara värdet av förlustfunktionen på testprovet långt innan träningens slut.
  • 20:05 Granskning av arbeten om datorseende på NeurIPS 2019 - Sergey Ovcharenko, Konstantin Lakhman, YandexVi kommer att titta på huvudområdena för forskning och arbete inom datorseende. Låt oss försöka förstå om alla problem redan har lösts ur akademins synvinkel, om GAN:s segermarsch fortsätter på alla områden, vem gör motstånd mot den och när den oövervakade revolutionen kommer att äga rum.
  • 20:25 Fika
  • 20:40 Modelleringssekvenser med obegränsad generationsordning - Dmitry Emelianenko, YandexVi föreslår en modell som kan infoga ord på godtyckliga platser i den genererade meningen. Modellen lär sig implicit en bekväm avkodningsordning baserat på data. Den bästa kvaliteten uppnås på flera datamängder: för maskinöversättning, användning i LaTeX och bildbeskrivning. Rapporten är tillägnad en artikel där vi visar att den inlärda avkodningsordningen faktiskt är vettig och är specifik för det problem som ska lösas.
  • 20:55 Omvänd KL-divergensträning av tidigare nätverk: förbättrad osäkerhet och motståndskraftig robusthet - Andrey Malinin, YandexEnsemblemetoder för osäkerhetsuppskattning har nyligen använts för uppgifterna med felklassificeringsdetektering, detektering av indata utanför distribution och detektering av motstridiga attacker. Tidigare nätverk har föreslagits som ett tillvägagångssätt för att effektivt emulera en ensemble av modeller för klassificering genom att parametrisera en Dirichlet-förfördelning över utmatningsdistributioner. Dessa modeller har visat sig överträffa alternativa ensemblemetoder, såsom Monte-Carlo Dropout, när det gäller uppgiften att detektera indata utanför distributionen. Det är dock svårt att skala tidigare nätverk till komplexa datauppsättningar med många klasser med de utbildningskriterier som ursprungligen föreslagits. Denna uppsats ger två bidrag. Först visar vi att det lämpliga träningskriteriet för tidigare nätverk är den omvända KL-divergensen mellan Dirichlet-distributioner. Dessa problem tar upp i karaktären av målfördelningar för träningsdata, vilket gör det möjligt för tidigare nätverk att framgångsrikt tränas i klassificeringsuppgifter med godtyckligt många klasser, såväl som att förbättra prestanda för detektering utanför distribution. För det andra, genom att dra nytta av detta nya utbildningskriterium, undersöker denna uppsats användningen av tidigare nätverk för att upptäcka kontradiktoriska attacker och föreslår en generaliserad form av motstridig träning. Det har visat sig att konstruktionen av framgångsrika adaptiva whitebox-attacker, som påverkar förutsägelsen och undvikandet av upptäckt, mot tidigare nätverk som tränats på CIFAR-10 och CIFAR-100 med det föreslagna tillvägagångssättet kräver en större mängd beräkningsansträngning än mot nätverk som försvaras med standardadversarial. träning eller MC-avhopp.
  • 21:10 Paneldiskussion: "NeurlPS, som har växt för mycket: vem är skyldig och vad ska man göra?" — Alexander Krainov, Yandex
  • 21:40 Efterfest

R Moscow Meetup #5

16 januari, 18:30-21:30, torsdag

  • 19:00-19:30 "Lösa operativa problem med R för dummies" - Konstantin Firsov (Netris JSC, Chief Implementation Engineer).
  • 19:30-20:00 "Optimering av lager i detaljhandeln" - Genrikh Ananyev (PJSC Beluga Group, chef för rapporteringsautomatisering).
  • 20:00-20:30 "BMS i X5: hur man gör affärsprocessbrytning på ostrukturerade POS-loggar med R" - Evgeniy Roldugin (X5 Retail Group, chef för avdelningen för servicekvalitetskontrollverktyg), Ilya Shutov (Media Tel, Head av institutionens datavetare).

Frontend Meetup i Moskva (Gastromarket Balchug)

18 januari, 12:00-18:00, lördag

  • "När är det värt att skriva om en applikation från början och hur man övertygar företag om detta" - Alexey Pyzhyanov, utvecklare, SiburDen verkliga historien om hur vi hanterade tekniska skulder på det mest radikala sättet. Jag ska berätta om det:
    1. Varför en bra applikation förvandlades till ett fruktansvärt arv.
    2. Hur vi tog det svåra beslutet att skriva om allt.
    3. Hur vi sålde denna idé till produktägaren.
    4. Vad kom ut ur denna idé till slut, och varför vi inte ångrar beslutet vi tog.

  • "Vuejs API mocks" — Vladislav Prusov, frontend-utvecklare, AGIMA

Maskininlärningsträning i Avito 2.0

18 januari, 12:00-15:00, lördag

  • 12:00 "Zindi Sendy Logistics Challenge (rus)" - Roman Pyankov
  • 12:30 "Data Souls Wildfire AI (rus)" - Ilya Plotnikov
  • 13:00 Fika
  • 13:20 “Topcoder SpaceNet 5 Challenge & Signate The 3rd Tellus Satellite Challenge (eng)” - Ilya Kibardin
  • 14:00 Fika
  • 14:10 "Codalab Automated Time Series Regression (eng)" — Denis Vorotyntsev

Källa: will.com

Lägg en kommentar