Utiliser l'apprentissage automatique pour détecter les émotions et contrôler vos expressions faciales

Andreï Savchenko de la branche de Nijni Novgorod de l'École supérieure d'économie a publié le résultat de ses recherches dans le domaine de l'apprentissage automatique lié à la reconnaissance des émotions sur les visages des personnes présentes sur les photographies et les vidéos. Le code est écrit en Python à l'aide de PyTorch et est sous licence Apache 2.0. Plusieurs modèles prêts à l'emploi sont disponibles, y compris ceux adaptés à une utilisation sur appareils mobiles.

Sur la base de la bibliothèque, un autre développeur a créé le programme sevimon, qui vous permet de suivre les changements d'émotions à l'aide d'une caméra vidéo et d'aider à contrôler la tension des muscles du visage, par exemple, pour éliminer le surmenage, affecter indirectement l'humeur et, avec une utilisation à long terme, prévenir l'apparition des rides du visage. La bibliothèque CenterFace est utilisée pour déterminer la position d'un visage dans une vidéo. Le code sevimon est écrit en Python et est sous licence AGPLv3. Lorsque vous le lancez pour la première fois, les modèles sont chargés, après quoi le programme ne nécessite pas de connexion Internet et fonctionne de manière totalement autonome. Des instructions de lancement sous Linux/UNIX et Windows ont été préparées, ainsi qu'une image docker pour Linux.

Sevimon fonctionne de la manière suivante : tout d'abord, un visage est identifié dans une image de caméra, puis le visage est comparé à chacune des huit émotions (colère, mépris, dégoût, peur, joie, aucune émotion, tristesse, surprise), après quoi un score de similarité est établi. est donné pour chaque émotion. Les valeurs obtenues sont stockées dans un journal au format texte pour une analyse ultérieure par le programme sevistat. Pour chaque émotion dans le fichier de paramètres, vous pouvez définir des limites supérieure et inférieure de valeurs, en cas de franchissement, un rappel est immédiatement émis.

Source: opennet.ru

Ajouter un commentaire