Usando el aprendizaje automático para detectar emociones y controlar tus expresiones faciales

Andrey Savchenko, de la Escuela Superior de Economía de Nizhny Novgorod, publicó el resultado de su investigación en el campo del aprendizaje automático relacionado con el reconocimiento de emociones en los rostros de personas presentes en fotografías y vídeos. El código está escrito en Python usando PyTorch y distribuido bajo la licencia Apache 2.0. Hay varios modelos disponibles, incluidos aquellos adecuados para su uso en dispositivos móviles.

Basado en la biblioteca, otro desarrollador creó el programa sevimon, que le permite rastrear los cambios en las emociones usando una cámara de video y ayudar a controlar la tensión de los músculos faciales, por ejemplo, para eliminar el esfuerzo excesivo, un efecto indirecto sobre el estado de ánimo y, con un uso prolongado, para prevenir la aparición de líneas de expresión. La biblioteca CenterFace se utiliza para determinar la posición de una cara en un vídeo. El código de sevimon está escrito en Python y distribuido bajo la licencia AGPLv3. Cuando se inicia por primera vez, se cargan los modelos, después de lo cual el programa no requiere conexión a Internet y funciona completamente sin conexión. Se han preparado instrucciones para ejecutar en Linux/UNIX y Windows, así como una imagen de Docker para Linux.

Sevimon funciona de la siguiente manera: primero, se determina una cara en la imagen de la cámara, luego se compara la cara con cada una de las ocho emociones (ira, desprecio, disgusto, miedo, alegría, falta de emociones, tristeza, sorpresa), después de lo cual se Se otorga una puntuación de similitud para cada emoción. Los valores obtenidos se almacenan en el registro en formato de texto para su posterior análisis por parte del programa sevistat. Para cada emoción en el archivo de configuración, puede establecer los límites superior e inferior de valores, al cruzarlos se emite inmediatamente un recordatorio.

Fuente: opennet.ru

Añadir un comentario