機械学習を使用して感情を検出し、表情を制御する

高等経済学部ニジニ・ノヴゴロド支部のアンドレイ・サブチェンコ氏は、写真やビデオに映る人々の顔の感情の認識に関連した機械学習の分野での研究結果を発表した。 コードは PyTorch を使用して Python で記述されており、Apache 2.0 ライセンスに基づいてライセンスされています。 モバイルデバイスでの使用に適したものなど、いくつかの既製モデルが利用可能です。

このライブラリに基づいて、別の開発者が sevimon プログラムを作成しました。このプログラムを使用すると、ビデオ カメラを使用して感情の変化を追跡し、顔の筋肉の緊張の制御に役立ちます。たとえば、過剰な緊張を排除し、間接的に気分に影響を与え、長期使用すると、顔のしわの出現を防ぎます。 CenterFace ライブラリは、ビデオ内の顔の位置を決定するために使用されます。 sevimon コードは Python で書かれており、AGPLv3 に基づいてライセンスされています。 初めて起動するとモデルがロードされ、その後プログラムはインターネット接続を必要とせず、完全に自律的に動作します。 Linux/UNIX および Windows で起動する手順と、Linux 用の Docker イメージが用意されています。

セビモンは次のように機能します。まず、カメラ画像内で顔を識別し、次にその顔を XNUMX つの感情 (怒り、軽蔑、嫌悪、恐怖、喜び、感情の欠如、悲しみ、驚き) のそれぞれと比較し、その後、特定の感情を比較します。類似性スコアは感情ごとに与えられます。 取得された値は、sevistat プログラムによるその後の分析のためにテキスト形式でログに保存されます。 設定ファイル内の感情ごとに、値の上限と下限を設定でき、値を超えるとすぐにリマインダーが発行されます。

出所: オープンネット.ru

コメントを追加します