Wo hin: bevorstehende kostenlose Veranstaltungen für IT-Experten in Moskau (14.–18. Januar)

Wo hin: bevorstehende kostenlose Veranstaltungen für IT-Experten in Moskau (14.–18. Januar)

Veranstaltungen mit offener Anmeldung:


KI und Mobil

14. Januar, 19:00–22:00 Uhr, Dienstag

Wir laden Sie zu einem Treffen über künstliche Intelligenz, ihre Anwendung auf mobilen Geräten und die wichtigsten Technologie- und Geschäftstrends des neuen Jahrzehnts ein. Auf dem Programm stehen interessante Berichte, Diskussionen, Pizza und gute Laune.

Einer der Redner ist ein Pionier bei der Einführung der neuesten Technologien in Hollywood, dem Weißen Haus; Sein Buch „Augmented: Life in the Smart Lane“ wurde vom chinesischen Präsidenten in seiner Neujahrsansprache als eines seiner Lieblingsnachschlagewerke erwähnt.

NeurIPS Neujahrs-Afterparty

15. Januar, Beginn Mittwoch, 18:00 Uhr

  • 18:00 Uhr
  • 19:00 Eröffnung – Mikhail Bilenko, Yandex
  • 19:05 Reinforcement Learning bei NeurIPS 2019: wie es war – Sergey Kolesnikov, TinkoffJedes Jahr wird das Thema Reinforcement Learning (RL) heißer und gehypter. Und jedes Jahr gießen DeepMind und OpenAI Öl ins Feuer, indem sie einen neuen Bot mit übermenschlicher Leistung veröffentlichen. Steckt dahinter wirklich etwas Sinnvolles? Und was sind die neuesten Trends in der gesamten RL-Vielfalt? Lass es uns herausfinden!
  • 19:25 Rückblick auf die NLP-Arbeit bei NeurIPS 2019 – Mikhail Burtsev, MIPTHeutzutage sind die bahnbrechendsten Trends im Bereich der Verarbeitung natürlicher Sprache mit der Konstruktion von Architekturen verbunden, die auf Sprachmodellen und Wissensgraphen basieren. Der Bericht gibt einen Überblick über Arbeiten, in denen diese Methoden zum Aufbau von Dialogsystemen zur Implementierung verschiedener Funktionen verwendet werden. Zum Beispiel zur Kommunikation über allgemeine Themen, zur Steigerung der Empathie und zur zielgerichteten Dialogführung.
  • 19:45 Möglichkeiten, die Art der Oberfläche der Verlustfunktion zu verstehen – Dmitry Vetrov, Fakultät für Informatik, National Research University Higher School of EconomicsIch werde mehrere Artikel diskutieren, die ungewöhnliche Effekte beim Deep Learning untersuchen. Diese Effekte geben Aufschluss über das Erscheinungsbild der Oberfläche der Verlustfunktion im Gewichtsraum und ermöglichen es uns, eine Reihe von Hypothesen aufzustellen. Wenn dies bestätigt wird, wird es möglich sein, die Schrittweite in Optimierungsverfahren effektiver zu regulieren. Dadurch wird es auch möglich, den erreichbaren Wert der Verlustfunktion an der Testprobe lange vor dem Ende des Trainings vorherzusagen.
  • 20:05 Rezension der Arbeiten zum Thema Computer Vision bei NeurIPS 2019 – Sergey Ovcharenko, Konstantin Lakhman, YandexWir werden uns mit den Forschungs- und Arbeitsschwerpunkten im Bereich Computer Vision befassen. Versuchen wir zu verstehen, ob aus Sicht der Akademie bereits alle Probleme gelöst sind, ob der Siegeszug der GAN in allen Bereichen weitergeht, wer sich ihr widersetzt und wann die unbeaufsichtigte Revolution stattfinden wird.
  • 20:25 Kaffeepause
  • 20:40 Modellierungssequenzen mit unbegrenzter Generierungsreihenfolge – Dmitry Emelianenko, YandexWir schlagen ein Modell vor, das Wörter an beliebigen Stellen im generierten Satz einfügen kann. Das Modell lernt implizit eine geeignete Decodierungsreihenfolge basierend auf den Daten. Die beste Qualität wird bei mehreren Datensätzen erreicht: für maschinelle Übersetzung, Verwendung in LaTeX und Bildbeschreibung. Dem Bericht ist ein Artikel gewidmet, in dem wir zeigen, dass die erlernte Dekodierungsreihenfolge tatsächlich Sinn macht und spezifisch für das zu lösende Problem ist.
  • 20:55 Reverse KL-Divergenztraining früherer Netzwerke: Verbesserte Unsicherheit und gegnerische Robustheit – Andrey Malinin, YandexEnsemble-Ansätze zur Unsicherheitsschätzung wurden kürzlich auf die Aufgaben der Erkennung von Fehlklassifizierungen, der Erkennung von Eingaben außerhalb der Verteilung und der Erkennung gegnerischer Angriffe angewendet. Prior Networks wurden als Ansatz zur effizienten Emulation eines Ensembles von Modellen zur Klassifizierung durch Parametrisierung einer Dirichlet-Prior-Verteilung über Ausgabeverteilungen vorgeschlagen. Es hat sich gezeigt, dass diese Modelle alternative Ensemble-Ansätze wie Monte-Carlo Dropout bei der Aufgabe der Erkennung von Eingaben außerhalb der Verteilung übertreffen. Allerdings ist die Skalierung von Prior Networks auf komplexe Datensätze mit vielen Klassen unter Verwendung der ursprünglich vorgeschlagenen Trainingskriterien schwierig. Dieses Papier liefert zwei Beiträge. Zunächst zeigen wir, dass das geeignete Trainingskriterium für Prior Networks die umgekehrte KL-Divergenz zwischen Dirichlet-Verteilungen ist. Dieses Problem liegt in der Art der Trainingsdaten-Zielverteilungen, die es ermöglichen, frühere Netzwerke erfolgreich auf Klassifizierungsaufgaben mit beliebig vielen Klassen zu trainieren und die Erkennungsleistung außerhalb der Verteilung zu verbessern. Zweitens untersucht dieses Papier unter Ausnutzung dieses neuen Trainingskriteriums die Verwendung von Prior Networks zur Erkennung gegnerischer Angriffe und schlägt eine allgemeine Form des gegnerischen Trainings vor. Es wird gezeigt, dass die Konstruktion erfolgreicher adaptiver Whitebox-Angriffe, die sich auf die Vorhersage auswirken und der Erkennung entgehen, gegen auf CIFAR-10 und CIFAR-100 trainierte Prior Networks mit dem vorgeschlagenen Ansatz einen größeren Rechenaufwand erfordert als gegen Netzwerke, die mit Standard-Adversarial-Angriffen verteidigt werden Ausbildung oder MC-Abbrecher.
  • 21:10 Podiumsdiskussion: „NeurlPS, das zu stark gewachsen ist: Wer ist schuld und was ist zu tun?“ — Alexander Krainov, Yandex
  • 21:40 Afterparty

R Moskau Meetup #5

16. Januar, 18:30-21:30 Uhr, Donnerstag

  • 19:00–19:30 Uhr „Lösen betrieblicher Probleme mit R für Dummies“ – Konstantin Firsov (Netris JSC, Chief Implementation Engineer).
  • 19:30-20:00 „Optimierung des Lagerbestands im Einzelhandel“ – Genrikh Ananyev (PJSC Beluga Group, Leiter der Berichtsautomatisierung).
  • 20:00–20:30 Uhr „BMS in des Fachbereichs Datenwissenschaftler).

Frontend-Meetup in Moskau (Gastromarket Balchug)

18. Januar, 12:00-18:00, Samstag

  • „Wann lohnt es sich, eine Anwendung von Grund auf neu zu schreiben und wie kann man Unternehmen davon überzeugen?“ – Alexey Pyzhyanov, Entwickler, SiburDie wahre Geschichte, wie wir auf radikalste Weise mit technischen Schulden umgegangen sind. Ich werde es dir erzählen:
    1. Warum aus einer guten Bewerbung ein schreckliches Erbe wurde.
    2. Wie wir die schwierige Entscheidung getroffen haben, alles neu zu schreiben.
    3. Wie wir diese Idee dem Produktbesitzer verkauft haben.
    4. Was am Ende aus dieser Idee herausgekommen ist und warum wir unsere Entscheidung nicht bereuen.

  • „Vuejs API-Mocks“ – Vladislav Prusov, Frontend-Entwickler, AGIMA

Schulung zum maschinellen Lernen in Avito 2.0

18. Januar, 12:00-15:00, Samstag

  • 12:00 „Zindi Sendy Logistics Challenge (rus)“ – Roman Pyankov
  • 12:30 „Data Souls Wildfire AI (rus)“ – Ilya Plotnikov
  • 13:00 Kaffeepause
  • 13:20 „Topcoder SpaceNet 5 Challenge & Signate The 3rd Tellus Satellite Challenge (eng)“ – Ilya Kibardin
  • 14:00 Kaffeepause
  • 14:10 „Codalab Automated Time Series Regression (eng)“ – Denis Vorotyntsev

Source: habr.com

Kommentar hinzufügen