Utilitzant l'aprenentatge automàtic per detectar emocions i controlar les teves expressions facials

Andrey Savchenko, de la branca de Nizhny Novgorod de l'Escola Superior d'Economia, va publicar el resultat de la seva investigació en el camp de l'aprenentatge automàtic relacionat amb el reconeixement de les emocions a la cara de les persones presents en fotografies i vídeos. El codi està escrit en Python amb PyTorch i té la llicència d'Apache 2.0. Hi ha disponibles diversos models ja fets, inclosos els adequats per utilitzar-los en dispositius mòbils.

A partir de la biblioteca, un altre desenvolupador va crear el programa sevimon, que us permet fer un seguiment dels canvis en les emocions mitjançant una càmera de vídeo i ajudar a controlar la tensió muscular facial, per exemple, per eliminar el sobreesforç, afectar indirectament l'estat d'ànim i, amb un ús a llarg termini, prevenir l'aparició d'arrugues facials. La biblioteca CenterFace s'utilitza per determinar la posició d'una cara en un vídeo. El codi sevimon està escrit en Python i té llicència sota AGPLv3. Quan l'inicieu per primera vegada, es carreguen els models, després el programa no requereix connexió a Internet i funciona de manera totalment autònoma. S'han preparat instruccions per al llançament a Linux/UNIX i Windows, així com una imatge docker per a Linux.

Sevimon funciona de la següent manera: primer, s'identifica un rostre en una imatge de càmera, després es compara el rostre amb cadascuna de les vuit emocions (ira, menyspreu, fàstic, por, alegria, manca d'emoció, tristesa, sorpresa), després de la qual cosa un cert Es dóna una puntuació de semblança per a cada emoció. Els valors obtinguts s'emmagatzemen en un format de text de registre per al seu posterior anàlisi pel programa sevistat. Per a cada emoció del fitxer de configuració, podeu establir límits superiors i inferiors de valors, quan es creua, immediatament s'emet un recordatori.

Font: opennet.ru

Afegeix comentari