FairMOT, in systeem foar it fluch folgjen fan meardere objekten op fideo

Undersikers fan Microsoft en Central China University ûntwikkele hawwe in nije metoade mei hege prestaasjes foar it folgjen fan meardere objekten yn fideo mei masjineleartechnologyen - FairMOT (Fair Multi-Object Tracking). Koade mei metoade ymplemintaasje basearre op Pytorch en oplaat modellen publisearre op GitHub.

De measte besteande metoaden foar it folgjen fan objekten brûke twa stadia, elk útfierd troch in apart neural netwurk. De earste etappe rint in model foar it fêststellen fan de lokaasje fan objekten fan belang, en de twadde etappe brûkt in assosjaasje sykje model brûkt om opnij identifisearje objekten en heakje ankers oan harren.

FairMOT brûkt in ymplemintaasje yn ien etappe basearre op in ferfoarmber konvolúsjoneel neural netwurk (DCNv2, Deformable Convolutional Network), wêrtroch jo in merkbere ferheging kinne berikke fan 'e snelheid fan it folgjen fan objekten. FairMOT wurket sûnder ankers, mei in re-identifikaasjemeganisme om de offsets fan objektsintra te bepalen op in objektkaart mei hege presyzje. Parallel wurdt in prosessor útfierd dy't de yndividuele skaaimerken fan objekten evaluearret dy't brûkt wurde kinne om har identiteit te foarsizzen, en de haadmodule fiert in konverginsje fan dizze funksjes om objekten fan ferskate skalen te manipulearjen.

FairMOT, in systeem foar it fluch folgjen fan meardere objekten op fideo

Om it model yn FairMOT te trenen, waard in kombinaasje fan seis iepenbiere datasetten foar minskendeteksje en sykjen brûkt (ETH, CityPerson, CalTech, MOT17, CUHK-SYSU). It model waard hifke mei testsets fan fideo's 2DMOT15, MOT16, MOT17 и MOT20levere troch it projekt MOT Challenge en covering ferskillende sitewaasjes, kamera beweging of rotaasje, ferskillende viewing hoeken. De testen die bliken dat
FairMOT outstrips fluchste konkurrearjende modellen TrackRCNN и J.D.E. doe't testen op 30 frames per sekonde video streams, demonstrearje prestaasjes genôch te analysearjen reguliere video streams op 'e fly.

Boarne: opennet.ru

Add a comment