Utilizzo dell'apprendimento automatico per rilevare le emozioni e controllare le espressioni facciali

Andrey Savchenko della filiale di Nizhny Novgorod della Scuola Superiore di Economia ha pubblicato il risultato della sua ricerca nel campo dell'apprendimento automatico relativo al riconoscimento delle emozioni sui volti delle persone presenti in fotografie e video. Il codice Γ¨ scritto in Python utilizzando PyTorch e distribuito sotto la licenza Apache 2.0. Sono disponibili diversi modelli giΓ  pronti, compresi quelli adatti all'uso su dispositivi mobili.

Sulla base della libreria, un altro sviluppatore ha creato il programma sevimon, che consente di monitorare i cambiamenti nelle emozioni utilizzando una videocamera e aiuta a controllare la tensione dei muscoli facciali, ad esempio, per eliminare lo sforzo eccessivo, un effetto indiretto sull'umore e, con un uso prolungato, per prevenire la comparsa delle rughe d'espressione. La libreria CenterFace viene utilizzata per determinare la posizione di un volto in un video. Il codice sevimon Γ¨ scritto in Python e distribuito sotto la licenza AGPLv3. Al primo avvio vengono caricati i modelli, dopodichΓ© il programma non richiede una connessione Internet e funziona completamente offline. Sono state preparate le istruzioni per l'esecuzione su Linux/UNIX e Windows, nonchΓ© un'immagine docker per Linux.

Sevimon funziona nel modo seguente: prima viene determinato un volto sull'immagine della telecamera, poi il volto viene confrontato con ciascuna delle otto emozioni (rabbia, disprezzo, disgusto, paura, gioia, mancanza di emozioni, tristezza, sorpresa), dopodichΓ© un per ogni emozione viene assegnato un punteggio di somiglianza. I valori ottenuti vengono memorizzati nel registro in formato testo per un'ulteriore analisi da parte del programma sevistat. Per ogni emozione nel file delle impostazioni Γ¨ possibile impostare i limiti superiore e inferiore dei valori, al superamento dei quali viene immediatamente emesso un promemoria.

Fonte: opennet.ru

Aggiungi un commento