Uzante maŝinlernadon por detekti emociojn kaj kontroli viajn vizaĝajn esprimojn

Andrey Savchenko el la filio de Niĵnij Novgorod de la Supera Lernejo de Ekonomiko publikigis la rezulton de sia esplorado en la kampo de maŝina lernado rilata al rekonado de emocioj sur la vizaĝoj de homoj ĉeestantaj en fotoj kaj videoj. La kodo estas skribita en Python uzante PyTorch kaj estas licencita laŭ la permesilo Apache 2.0. Pluraj pretaj modeloj estas haveblaj, inkluzive de tiuj taŭgaj por uzo en porteblaj aparatoj.

Surbaze de la biblioteko, alia programisto kreis la sevimon-programon, kiu ebligas al vi spuri ŝanĝojn en emocioj per videokamerao kaj helpi kontroli vizaĝmuskolajn streĉojn, ekzemple, forigi trostreĉiĝon, nerekte influi humoron kaj, kun longdaŭra uzo, malhelpi la aspekton de vizaĝaj sulkoj. La biblioteko CenterFace estas uzata por determini la pozicion de vizaĝo en video. La sevimon-kodo estas skribita en Python kaj estas licencita sub AGPLv3. Kiam vi lanĉas ĝin por la unua fojo, la modeloj estas ŝarĝitaj, post kio la programo ne postulas interretan konekton kaj funkcias tute aŭtonome. Instrukcioj por lanĉo en Linukso/UNIKSO kaj Vindozo estis preparitaj, same kiel docker-bildo por Linukso.

Sevimon funkcias jene: unue, vizaĝo estas identigita en fotila bildo, tiam la vizaĝo estas komparata kun ĉiu el ok emocioj (kolero, malestimo, abomeno, timo, ĝojo, manko de emocio, malĝojo, surprizo), post kio certa similecpoentaro estas donita por ĉiu emocio. La akiritaj valoroj estas konservitaj en protokolo en tekstformato por posta analizo de la programo sevistat. Por ĉiu emocio en la agorda dosiero, vi povas agordi superajn kaj malsuperajn limojn de valoroj, kiam transpasite, memorigilo tuj eldonas.

fonto: opennet.ru

Aldoni komenton