Où aller : prochains événements gratuits pour les professionnels de l'informatique à Moscou (du 14 au 18 janvier)

Où aller : prochains événements gratuits pour les professionnels de l'informatique à Moscou (du 14 au 18 janvier)

Événements avec inscription ouverte :


IA et mobile

14 janvier, 19h00-22h00, mardi

Nous vous invitons à une rencontre sur l'intelligence artificielle, son application sur les appareils mobiles et les tendances technologiques et commerciales les plus importantes de la nouvelle décennie. Au programme : reportages intéressants, discussions, pizza et bonne humeur.

L'un des intervenants est un pionnier dans l'introduction des dernières technologies à Hollywood, la Maison Blanche ; son livre « Augmented : Life in the Smart Lane » a été mentionné comme l’un de ses ouvrages de référence préférés par le président chinois dans son discours du Nouvel An.

Afterparty du Nouvel An NeurIPS

15 janvier, à partir de 18h00, mercredi

  • 18h00 Inscription
  • 19h00 Ouverture - Mikhaïl Bilenko, Yandex
  • 19h05 Apprentissage par renforcement à NeurIPS 2019 : comment c'était - Sergey Kolesnikov, TinkoffChaque année, le sujet de l’apprentissage par renforcement (RL) devient de plus en plus brûlant. Et chaque année, DeepMind et OpenAI ajoutent de l’huile sur le feu en lançant un nouveau robot aux performances surhumaines. Y a-t-il quelque chose de vraiment valable derrière tout cela ? Et quelles sont les dernières tendances dans toute la diversité RL ? Découvrons-le!
  • 19h25 Bilan des travaux en PNL à NeurIPS 2019 - Mikhail Burtsev, MIPTAujourd'hui, les tendances les plus révolutionnaires dans le domaine du traitement du langage naturel sont associées à la construction d'architectures basées sur des modèles de langage et des graphes de connaissances. Le rapport fournira un aperçu des travaux dans lesquels ces méthodes sont utilisées pour construire des systèmes de dialogue pour mettre en œuvre diverses fonctions. Par exemple, pour communiquer sur des sujets généraux, accroître l'empathie et mener un dialogue axé sur les objectifs.
  • 19h45 Façons de comprendre le type de surface de la fonction de perte - Dmitry Vetrov, Faculté d'informatique, École supérieure d'économie de l'Université nationale de rechercheJe discuterai de plusieurs articles qui explorent les effets inhabituels de l'apprentissage profond. Ces effets éclairent l’apparence de la surface de la fonction de perte dans l’espace des poids et permettent d’avancer un certain nombre d’hypothèses. Si cela est confirmé, il sera possible de réguler plus efficacement la taille des pas dans les méthodes d’optimisation. Cela permettra également de prédire la valeur réalisable de la fonction de perte sur l'échantillon test bien avant la fin de la formation.
  • 20h05 Revue des travaux sur la vision par ordinateur à NeurIPS 2019 - Sergey Ovcharenko, Konstantin Lakhman, YandexNous examinerons les principaux domaines de recherche et de travail en vision par ordinateur. Essayons de comprendre si tous les problèmes ont déjà été résolus du point de vue de l'académie, si la marche victorieuse du GAN se poursuit dans tous les domaines, qui y résiste et quand aura lieu la révolution non supervisée.
  • 20h25 Pause café
  • 20h40 Séquences de modélisation avec ordre de génération illimité - Dmitry Emelianenko, YandexNous proposons un modèle capable d'insérer des mots à des endroits arbitraires dans la phrase générée. Le modèle apprend implicitement un ordre de décodage pratique basé sur les données. La meilleure qualité est obtenue sur plusieurs ensembles de données : pour la traduction automatique, l'utilisation dans LaTeX et la description d'images. Le rapport est dédié à un article dans lequel nous montrons que l’ordre de décodage appris a réellement du sens et est spécifique au problème à résoudre.
  • 20h55 Formation inversée sur la divergence KL des réseaux antérieurs : incertitude améliorée et robustesse contradictoire - Andrey Malinin, YandexLes approches d'ensemble pour l'estimation de l'incertitude ont récemment été appliquées aux tâches de détection des erreurs de classification, de détection des entrées hors distribution et de détection des attaques contradictoires. Les réseaux antérieurs ont été proposés comme une approche pour émuler efficacement un ensemble de modèles de classification en paramétrant une distribution a priori de Dirichlet sur les distributions de sortie. Il a été démontré que ces modèles surpassent les approches d'ensemble alternatives, telles que Monte-Carlo Dropout, pour la tâche de détection d'entrées hors distribution. Cependant, il est difficile de faire évoluer les réseaux antérieurs vers des ensembles de données complexes comportant de nombreuses classes en utilisant les critères de formation initialement proposés. Cet article apporte deux contributions. Premièrement, nous montrons que le critère de formation approprié pour les réseaux antérieurs est la divergence KL inverse entre les distributions de Dirichlet. Ce problème concerne la nature des distributions cibles des données de formation, permettant aux réseaux antérieurs d'être formés avec succès sur des tâches de classification avec un nombre arbitraire de classes, ainsi que d'améliorer les performances de détection hors distribution. Deuxièmement, profitant de ce nouveau critère de formation, cet article étudie l'utilisation des réseaux antérieurs pour détecter les attaques contradictoires et propose une forme généralisée de formation contradictoire. Il est montré que la construction d'attaques adaptatives en boîte blanche réussies, qui affectent la prédiction et échappent à la détection, contre des réseaux antérieurs formés sur CIFAR-10 et CIFAR-100 en utilisant l'approche proposée nécessite un effort de calcul plus important que contre des réseaux défendus à l'aide d'attaques accusatoires standard. formation ou abandon de MC.
  • 21h10 Table ronde : « NeurolPS, qui a trop grandi : à qui la faute et que faire ? — Alexandre Krainov, Yandex
  • 21h40 Après la fête

Meetup R Moscou #5

16 janvier, 18h30-21h30, jeudi

  • 19h00-19h30 «Résoudre les problèmes opérationnels en utilisant R pour les nuls» - Konstantin Firsov (Netris JSC, ingénieur en chef de la mise en œuvre).
  • 19h30-20h00 « Optimisation des stocks dans le commerce de détail » - Genrikh Ananyev (PJSC Beluga Group, responsable de l'automatisation du reporting).
  • 20h00-20h30 « BMS dans X5 : comment effectuer une exploration de processus métier sur des journaux de point de vente non structurés à l'aide de R » - Evgeniy Roldugin (X5 Retail Group, chef du département des outils de contrôle de la qualité des services), Ilya Shutov (Media Tel, chef du département data scientist).

Meetup frontend à Moscou (Gastromarket Balchug)

18 janvier, 12h00-18h00, samedi

  • "Quand vaut-il la peine de réécrire une application à partir de zéro et comment en convaincre les entreprises" - Alexey Pyzhyanov, développeur, SiburLa véritable histoire de la façon dont nous avons traité la dette technique de la manière la plus radicale. Je vais vous en parler :
    1. Pourquoi une bonne application s'est transformée en un terrible héritage.
    2. Comment nous avons pris la décision difficile de tout réécrire.
    3. Comment nous avons vendu cette idée au propriétaire du produit.
    4. Qu’est-ce qui est ressorti de cette idée au final et pourquoi nous ne regrettons pas la décision que nous avons prise.

  • « L'API Vuejs se moque » — Vladislav Prusov, développeur frontend, AGIMA

Formation en apprentissage automatique dans Avito 2.0

18 janvier, 12h00-15h00, samedi

  • 12h00 « Défi logistique Zindi Sendy (russe) » - Roman Pyankov
  • 12h30 « Data Souls Wildfire AI (russ) » - Ilya Plotnikov
  • 13h00 Pause café
  • 13h20 « Topcoder SpaceNet 5 Challenge & Signate The 3rd Tellus Satellite Challenge (eng) » - Ilya Kibardin
  • 14h00 Pause café
  • 14h10 « Régression automatisée des séries chronologiques Codalab (eng) » — Denis Vorotyntsev

Source: habr.com

Ajouter un commentaire