FairMOT, videoda birdən çox obyekti tez izləmək üçün sistem

Microsoft və Mərkəzi Çin Universitetinin tədqiqatçıları inkişaf etdirdik maşın öyrənmə texnologiyalarından istifadə edərək videoda birdən çox obyekti izləmək üçün yeni yüksək məhsuldarlıq metodu - FairMOT (Fair Multi-Object Tracking). Pytorch və təlim keçmiş modellərə əsaslanan metod tətbiqi ilə kod nəşr olundu GitHub-da.

Əksər mövcud obyekt izləmə üsullarının hər biri ayrıca neyron şəbəkəsi tərəfindən həyata keçirilən iki mərhələdən istifadə edir. Birinci mərhələdə maraq obyektlərinin yerini müəyyənləşdirmək üçün bir model işləyir, ikinci mərhələdə isə obyektləri yenidən müəyyən etmək və onlara lövbərlər əlavə etmək üçün istifadə edilən assosiasiya axtarış modelindən istifadə olunur.

FairMOT deformasiya olunan konvolyusiya neyron şəbəkəsinə əsaslanan bir mərhələli tətbiqdən istifadə edir (DCNv2, Deformasiya olunan Konvolutional Şəbəkə), bu, obyekt izləmə sürətində nəzərəçarpacaq artım əldə etməyə imkan verir. FairMOT yüksək dəqiqlikli obyekt xəritəsində obyekt mərkəzlərinin ofsetlərini müəyyən etmək üçün yenidən identifikasiya mexanizmindən istifadə edərək lövbərsiz işləyir. Paralel olaraq, onların şəxsiyyətini proqnozlaşdırmaq üçün istifadə edilə bilən obyektlərin fərdi xüsusiyyətlərini qiymətləndirən prosessor icra edilir və əsas modul müxtəlif miqyaslı obyektləri manipulyasiya etmək üçün bu xüsusiyyətlərin konvergensiyasını həyata keçirir.

FairMOT, videoda birdən çox obyekti tez izləmək üçün sistem

Modeli FairMOT-da öyrətmək üçün insanların aşkarlanması və axtarışı üçün altı ictimai məlumat dəstinin birləşməsindən istifadə edilmişdir (ETH, CityPerson, CalTech, MOT17, CUHK-SYSU). Model test videolarından istifadə edərək sınaqdan keçirilmişdir 2DMOT15, MOT16, MOT17 и MOT20layihə tərəfindən təmin edilir MOT Çağırışı və müxtəlif vəziyyətləri, kameranın hərəkətini və ya fırlanmasını, fərqli baxış bucaqlarını əhatə edir. Test bunu göstərdi
FairMOT qabaqdadır ən sürətli rəqabət modelləri TrackRCNN и JDE saniyədə 30 kadr sürəti olan video axınlarında sınaqdan keçirildikdə, müntəzəm video axınlarını anında təhlil etmək üçün kifayət qədər performans nümayiş etdirir.

Mənbə: opennet.ru

Добавить комментарий