Nutzen Sie maschinelles Lernen, um Emotionen zu erkennen und Ihre Mimik zu kontrollieren

Andrey Savchenko von der Nischni Nowgorod-Zweigstelle der Higher School of Economics veröffentlichte das Ergebnis seiner Forschung im Bereich des maschinellen Lernens im Zusammenhang mit der Erkennung von Emotionen in den Gesichtern anwesender Personen auf Fotos und Videos. Der Code ist in Python mit PyTorch geschrieben und steht unter der Apache 2.0-Lizenz. Es stehen mehrere vorgefertigte Modelle zur Verfügung, auch solche, die für den Einsatz auf mobilen Geräten geeignet sind.

Basierend auf der Bibliothek hat ein anderer Entwickler das Programm Sevimon erstellt, mit dem Sie Veränderungen in Emotionen mithilfe einer Videokamera verfolgen und dabei helfen können, die Spannung der Gesichtsmuskeln zu kontrollieren, um beispielsweise Überanstrengung zu beseitigen, indirekt die Stimmung zu beeinflussen und bei langfristiger Verwendung verhindern das Auftreten von Gesichtsfalten. Die CenterFace-Bibliothek wird verwendet, um die Position eines Gesichts in einem Video zu bestimmen. Der Sevimon-Code ist in Python geschrieben und unter AGPLv3 lizenziert. Beim ersten Start werden die Modelle geladen, danach benötigt das Programm keine Internetverbindung und arbeitet völlig autonom. Anweisungen zum Starten unter Linux/UNIX und Windows sowie ein Docker-Image für Linux wurden vorbereitet.

Sevimon funktioniert wie folgt: Zuerst wird ein Gesicht in einem Kamerabild identifiziert, dann wird das Gesicht mit jeder von acht Emotionen (Wut, Verachtung, Ekel, Angst, Freude, Gefühlslosigkeit, Traurigkeit, Überraschung) verglichen, danach wird eine bestimmte Für jede Emotion wird ein Ähnlichkeitswert angegeben. Die erhaltenen Werte werden in einem Protokoll im Textformat zur späteren Analyse durch das Sevistat-Programm gespeichert. Für jede Emotion können Sie in der Einstellungsdatei obere und untere Wertegrenzen festlegen. Bei Überschreitung wird sofort eine Erinnerung ausgegeben.

Source: opennet.ru

Kommentar hinzufügen