Collabora va introduir un sistema d'aprenentatge automàtic per a la compressió de vídeo

Collabora ha publicat una implementació d'un sistema d'aprenentatge automàtic per millorar l'eficiència de compressió de la videoconferència, que permet, en el cas de transmetre vídeo amb la cara d'un participant, reduir 10 vegades l'ample de banda requerit mantenint la qualitat al nivell H.264. . La implementació està escrita en Python utilitzant el marc PyTorch i està oberta sota la llicència GPLv3.

El mètode permet reconstruir els detalls facials que es van perdre durant la transmissió amb un alt nivell de compressió. El model d'aprenentatge automàtic genera una animació del cap parlant basada en una imatge facial d'alta qualitat transmesa per separat i el vídeo resultant, fent un seguiment dels canvis en l'expressió facial i la posició del cap al vídeo. Per part de l'emissor, el vídeo es transmet a una velocitat de bits molt baixa, i per part del receptor és processat per un sistema d'aprenentatge automàtic. Per millorar encara més la qualitat, el vídeo generat es pot processar mitjançant el model de superresolució.



Font: opennet.ru

Afegeix comentari