FairMOT, un sistem pentru urmărirea rapidă a mai multor obiecte pe video

Cercetători de la Microsoft și Central China University dezvoltat o nouă metodă de înaltă performanță pentru urmărirea mai multor obiecte în video folosind tehnologii de învățare automată - FairMOT (Fair Multi-Object Tracking). Cod cu implementarea metodei bazate pe Pytorch și modele antrenate publicat pe GitHub.

Majoritatea metodelor existente de urmărire a obiectelor folosesc două etape, fiecare implementată de o rețea neuronală separată. Prima etapă rulează un model pentru determinarea locației obiectelor de interes, iar a doua etapă utilizează un model de căutare de asociere utilizat pentru a reidentifica obiectele și pentru a le atașa ancore.

FairMOT utilizează o implementare într-o etapă bazată pe o rețea neuronală convoluțională deformabilă (DCNv2, Rețea convoluțională deformabilă), care vă permite să obțineți o creștere vizibilă a vitezei de urmărire a obiectelor. FairMOT funcționează fără ancore, folosind un mecanism de reidentificare pentru a determina decalajele centrelor obiectelor pe o hartă a obiectelor de înaltă precizie. În paralel, este executat un procesor care evaluează caracteristicile individuale ale obiectelor care pot fi folosite pentru a prezice identitatea acestora, iar modulul principal realizează o convergență a acestor caracteristici pentru a manipula obiecte de diferite scări.

FairMOT, un sistem pentru urmărirea rapidă a mai multor obiecte pe video

Pentru a antrena modelul în FairMOT, a fost utilizată o combinație de șase seturi de date publice pentru detectarea și căutarea persoanelor (ETH, CityPerson, CalTech, MOT17, CUHK-SYSU). Modelul a fost testat folosind seturi de testare de videoclipuri 2DMOT15, MOT16, MOT17 и MOT20oferit de proiect Provocarea ITP și acoperind diferite situații, mișcarea sau rotirea camerei, diferite unghiuri de vizualizare. Testarea a arătat că
FairMOT depășește cele mai rapide modele concurente TrackRCNN и J.D.E. când este testat pe fluxuri video de 30 de cadre pe secundă, demonstrând performanță suficientă pentru a analiza fluxurile video obișnuite din mers.

Sursa: opennet.ru

Adauga un comentariu