Dónde ir: próximos eventos gratuitos para profesionales de TI en Moscú (del 14 al 18 de enero)

Dónde ir: próximos eventos gratuitos para profesionales de TI en Moscú (del 14 al 18 de enero)

Eventos con inscripción abierta:


IA y móvil

14 de enero, 19:00-22:00, martes

Te invitamos a un encuentro sobre inteligencia artificial, su aplicación en dispositivos móviles y las tendencias tecnológicas y de negocios más importantes de la nueva década. El programa incluye interesantes reportajes, debates, pizza y buen humor.

Uno de los ponentes es pionero en introducir las últimas tecnologías en Hollywood, la Casa Blanca; Su libro “Augmented: Life in the Smart Lane” fue mencionado como uno de sus libros de referencia favoritos por el Presidente de China en su discurso de Año Nuevo.

Fiesta posterior de Año Nuevo de NeurIPS

15 de enero, a partir de las 18:00 horas, miércoles

  • 18:00 Registro
  • 19:00 Apertura - Mikhail Bilenko, Yandex
  • 19:05 Aprendizaje por refuerzo en NeurIPS 2019: cómo fue - Sergey Kolesnikov, TinkoffCada año, el tema del aprendizaje por refuerzo (RL) se vuelve más candente y publicitado. Y cada año, DeepMind y OpenAI echan más leña al fuego con el lanzamiento de un nuevo robot de rendimiento sobrehumano. ¿Hay algo realmente valioso detrás de esto? ¿Y cuáles son las últimas tendencias en toda la diversidad de RL? ¡Vamos a averiguar!
  • 19:25 Revisión del trabajo de PNL en NeurIPS 2019 - Mikhail Burtsev, MIPTHoy en día, las tendencias más innovadoras en el campo del procesamiento del lenguaje natural están asociadas con la construcción de arquitecturas basadas en modelos de lenguaje y gráficos de conocimiento. El informe proporcionará una descripción general de los trabajos en los que se utilizan estos métodos para construir sistemas de diálogo para implementar diversas funciones. Por ejemplo, para comunicar sobre temas generales, aumentar la empatía y mantener un diálogo orientado a objetivos.
  • 19:45 Formas de comprender el tipo de superficie de la función de pérdida - Dmitry Vetrov, Facultad de Informática, Escuela Superior de Economía de la Universidad Nacional de InvestigaciónDiscutiré varios artículos que exploran efectos inusuales en el aprendizaje profundo. Estos efectos arrojan luz sobre la apariencia de la superficie de la función de pérdida en el espacio de peso y nos permiten plantear una serie de hipótesis. Si se confirma, será posible regular más eficazmente el tamaño del paso en los métodos de optimización. Esto también permitirá predecir el valor alcanzable de la función de pérdida en la muestra de prueba mucho antes de que finalice el entrenamiento.
  • 20:05 Revisión de trabajos sobre visión por computadora en NeurIPS 2019 - Sergey Ovcharenko, Konstantin Lakhman, YandexAnalizaremos las principales áreas de investigación y trabajo en visión por computadora. Intentemos comprender si desde el punto de vista de la academia ya se han resuelto todos los problemas, si la marcha victoriosa del GAN ​​continúa en todos los ámbitos, quién se resiste y cuándo se producirá la revolución no supervisada.
  • 20:25 Pausa para el café
  • 20:40 Modelado de secuencias con orden de generación ilimitado - Dmitry Emelianenko, YandexProponemos un modelo que puede insertar palabras en lugares arbitrarios de la oración generada. El modelo aprende implícitamente un orden de decodificación conveniente basado en los datos. La mejor calidad se logra en varios conjuntos de datos: para traducción automática, uso en LaTeX y descripción de imágenes. El informe está dedicado a un artículo en el que mostramos que el orden de decodificación aprendido realmente tiene sentido y es específico para el problema que se está resolviendo.
  • 20:55 Entrenamiento de divergencia KL inversa de redes anteriores: incertidumbre mejorada y robustez adversaria - Andrey Malinin, YandexRecientemente se han aplicado enfoques de conjunto para la estimación de la incertidumbre a las tareas de detección de clasificación errónea, detección de entradas fuera de distribución y detección de ataques adversarios. Las redes anteriores se han propuesto como un enfoque para emular eficientemente un conjunto de modelos para la clasificación mediante la parametrización de una distribución previa de Dirichlet sobre distribuciones de salida. Se ha demostrado que estos modelos superan a los enfoques de conjunto alternativos, como Monte-Carlo Dropout, en la tarea de detección de entradas fuera de distribución. Sin embargo, escalar Prior Networks a conjuntos de datos complejos con muchas clases es difícil utilizando los criterios de entrenamiento propuestos originalmente. Este artículo hace dos contribuciones. Primero, mostramos que el criterio de entrenamiento apropiado para redes anteriores es la divergencia KL inversa entre distribuciones de Dirichlet. Este problema se aborda en la naturaleza de las distribuciones de objetivos de los datos de entrenamiento, lo que permite que las redes anteriores se entrenen con éxito en tareas de clasificación con muchas clases arbitrarias, además de mejorar el rendimiento de la detección fuera de la distribución. En segundo lugar, aprovechando este nuevo criterio de entrenamiento, este artículo investiga el uso de Prior Networks para detectar ataques adversarios y propone una forma generalizada de entrenamiento adversario. Se muestra que la construcción de ataques de caja blanca adaptativos exitosos, que afectan la predicción y evaden la detección, contra redes anteriores entrenadas en CIFAR-10 y CIFAR-100 usando el enfoque propuesto requiere una mayor cantidad de esfuerzo computacional que contra redes defendidas usando adversarios estándar. entrenamiento o abandono de MC.
  • 21:10 Mesa redonda: “NeurlPS, que ha crecido demasiado: ¿quién tiene la culpa y qué hacer?” —Alexander Krainov, Yandex
  • 21:40 Fiesta posterior

Reunión R Moscú #5

16 de enero, 18:30-21:30, jueves

  • 19:00-19:30 “Resolución de problemas operativos utilizando R para principiantes” - Konstantin Firsov (Netris JSC, ingeniero jefe de implementación).
  • 19:30-20:00 “Optimización del inventario en el comercio minorista” - Genrikh Ananyev (PJSC Beluga Group, jefe de automatización de informes).
  • 20:00-20:30 “BMS en X5: cómo realizar minería de procesos de negocio en registros de POS no estructurados usando R” - Evgeniy Roldugin (X5 Retail Group, Jefe del Departamento de Herramientas de Control de Calidad del Servicio), Ilya Shutov (Media Tel, Jefe del Departamento de científico de datos).

Encuentro de frontend en Moscú (Gastromarket Balchug)

18 de enero, 12:00-18:00, sábado

  • "¿Cuándo vale la pena reescribir una aplicación desde cero y cómo convencer a las empresas de ello?" - Alexey Pyzhyanov, desarrollador, SiburLa verdadera historia de cómo abordamos la deuda técnica de la manera más radical. Te lo contaré:
    1. Por qué una buena aplicación se convirtió en un terrible legado.
    2. Cómo tomamos la difícil decisión de reescribir todo.
    3. Cómo vendimos esta idea al propietario del producto.
    4. Qué surgió al final de esta idea y por qué no nos arrepentimos de la decisión que tomamos.

  • “Simulacros de la API de Vuejs”: Vladislav Prusov, desarrollador frontend, AGIMA

Entrenamiento de aprendizaje automático en Avito 2.0

18 de enero, 12:00-15:00, sábado

  • 12:00 “Desafío logístico Zindi Sendy (rus)” - Roman Pyankov
  • 12:30 “Data Souls Wildfire AI (rus)” - Ilya Plotnikov
  • 13:00 Pausa para el café
  • 13:20 “Desafío Topcoder SpaceNet 5 y firma del tercer desafío del satélite Tellus (ing)” - Ilya Kibardin
  • 14:00 Pausa para el café
  • 14:10 “Regresión automatizada de series temporales de Codalab (ing)” — Denis Vorotyntsev

Fuente: habr.com

Añadir un comentario