Machine learning gebruiken om emoties te detecteren en uw gezichtsuitdrukkingen te controleren

Andrey Savchenko van de Nizjni Novgorod-afdeling van de Higher School of Economics publiceerde het resultaat van zijn onderzoek op het gebied van machinaal leren met betrekking tot het herkennen van emoties op de gezichten van mensen die aanwezig zijn in foto's en video's. De code is geschreven in Python met behulp van PyTorch en is gelicentieerd onder de Apache 2.0-licentie. Er zijn verschillende kant-en-klare modellen beschikbaar, waaronder modellen die geschikt zijn voor gebruik op mobiele apparaten.

Op basis van de bibliotheek heeft een andere ontwikkelaar het sevimon-programma gemaakt, waarmee je veranderingen in emoties kunt volgen met behulp van een videocamera en kunt helpen bij het beheersen van de spanning van de gezichtsspieren, bijvoorbeeld om overbelasting te elimineren, indirect de stemming te beïnvloeden en, bij langdurig gebruik, voorkomen het verschijnen van rimpels in het gezicht. De CenterFace-bibliotheek wordt gebruikt om de positie van een gezicht in een video te bepalen. De sevimon-code is geschreven in Python en heeft een licentie onder AGPLv3. Wanneer je het voor de eerste keer opstart, worden de modellen geladen, waarna het programma geen internetverbinding nodig heeft en volledig autonoom werkt. Er zijn instructies opgesteld voor het starten op Linux/UNIX en Windows, evenals een docker-image voor Linux.

Sevimon werkt als volgt: eerst wordt in een camerabeeld een gezicht geïdentificeerd, vervolgens wordt het gezicht vergeleken met elk van de acht emoties (boosheid, minachting, walging, angst, vreugde, gebrek aan emotie, verdriet, verrassing), waarna een bepaalde Voor elke emotie wordt een gelijkenisscore gegeven. De verkregen waarden worden opgeslagen in een log-in-tekstformaat voor latere analyse door het sevistat-programma. Voor elke emotie in het instellingenbestand kunt u boven- en ondergrenzen van waarden instellen. Bij overschrijding wordt er onmiddellijk een herinnering afgegeven.

Bron: opennet.ru

Voeg een reactie