Usando a aprendizaxe automática para detectar emocións e controlar as túas expresións faciais

Andrey Savchenko, da rama de Nizhny Novgorod da Escola Superior de Economía, publicou o resultado da súa investigación no campo da aprendizaxe automática relacionada co recoñecemento de emocións nos rostros das persoas presentes en fotografías e vídeos. O código está escrito en Python usando PyTorch e está licenciado baixo a licenza Apache 2.0. Están dispoñibles varios modelos preparados, incluídos os axeitados para o seu uso en dispositivos móbiles.

Baseándose na biblioteca, outro desenvolvedor creou o programa sevimon, que permite rastrexar os cambios nas emocións mediante unha cámara de vídeo e axudar a controlar a tensión muscular facial, por exemplo, para eliminar a sobrecarga, afectar indirectamente o estado de ánimo e, co uso a longo prazo, evitar a aparición de engurras faciais. A biblioteca CenterFace úsase para determinar a posición dunha cara nun vídeo. O código sevimon está escrito en Python e ten licenza AGPLv3. Cando o inicias por primeira vez, cárganse os modelos, despois de que o programa non require conexión a Internet e funciona de forma completamente autónoma. Preparáronse instrucións para o lanzamento en Linux/UNIX e Windows, así como unha imaxe docker para Linux.

Sevimon funciona do seguinte xeito: primeiro, identifícase un rostro nunha imaxe da cámara, despois compárase o rostro con cada unha das oito emocións (rabia, desprezo, noxo, medo, alegría, falta de emoción, tristeza, sorpresa), despois de que un certo dáse puntuación de semellanza para cada emoción. Os valores obtidos gárdanse nun formato de texto de rexistro para a súa posterior análise polo programa sevistat. Para cada emoción do ficheiro de configuración, pode establecer límites superiores e inferiores de valores, cando se cruzan, inmediatamente emítese un recordatorio.

Fonte: opennet.ru

Engadir un comentario