Gebruik masjienleer om emosies op te spoor en jou gesigsuitdrukkings te beheer

Andrey Savchenko van die Nizhny Novgorod-tak van die Hoër Skool vir Ekonomie het die resultaat gepubliseer van sy navorsing op die gebied van masjienleer wat verband hou met die herkenning van emosies op die gesigte van mense wat in foto's en video's teenwoordig is. Die kode is in Python geskryf met PyTorch en is onder die Apache 2.0-lisensie gelisensieer. Verskeie gereedgemaakte modelle is beskikbaar, insluitend dié wat geskik is vir gebruik op mobiele toestelle.

Op grond van die biblioteek het 'n ander ontwikkelaar die sevimon-program geskep, wat jou toelaat om veranderinge in emosies met 'n videokamera op te spoor en te help om gesigspierspanning te beheer, byvoorbeeld om oorspanning uit te skakel, indirek bui te beïnvloed en, met langtermyn gebruik, voorkom die voorkoms van gesigplooie. Die CenterFace-biblioteek word gebruik om die posisie van 'n gesig in 'n video te bepaal. Die sevimon-kode is in Python geskryf en is onder AGPLv3 gelisensieer. Wanneer jy dit vir die eerste keer begin, word die modelle gelaai, waarna die program nie 'n internetverbinding benodig nie en heeltemal outonoom werk. Instruksies vir die bekendstelling op Linux/UNIX en Windows is voorberei, sowel as 'n docker-beeld vir Linux.

Sevimon werk soos volg: eers word 'n gesig in 'n kamerabeeld geïdentifiseer, dan word die gesig vergelyk met elk van agt emosies (woede, minagting, walging, vrees, vreugde, gebrek aan emosie, hartseer, verbasing), waarna 'n sekere ooreenkomstelling word vir elke emosie gegee. Die verkryde waardes word in 'n login-teksformaat gestoor vir daaropvolgende ontleding deur die sevistat-program. Vir elke emosie in die instellingslêer, kan jy boonste en onderste grense van waardes stel, wanneer dit gekruis word, word 'n herinnering onmiddellik uitgereik.

Bron: opennet.ru

Voeg 'n opmerking