FairMOT, isang sistema para sa mabilis na pagsubaybay sa maraming bagay sa video

Mga mananaliksik mula sa Microsoft at Central China University umunlad isang bagong paraan na may mataas na pagganap para sa pagsubaybay sa maraming bagay sa video gamit ang mga teknolohiya ng machine learning - FairMOT (Fair Multi-Object Tracking). Code na may pagpapatupad ng pamamaraan batay sa Pytorch at mga sinanay na modelo nalathala sa GitHub.

Karamihan sa mga umiiral na paraan ng pagsubaybay sa bagay ay gumagamit ng dalawang yugto, bawat isa ay ipinatupad ng isang hiwalay na neural network. Ang unang yugto ay nagpapatakbo ng isang modelo para sa pagtukoy sa lokasyon ng mga bagay na kinaiinteresan, at ang pangalawang yugto ay gumagamit ng isang modelo ng paghahanap ng asosasyon na ginamit upang muling tukuyin ang mga bagay at mag-attach ng mga anchor sa kanila.

Gumagamit ang FairMOT ng one-stage na pagpapatupad batay sa isang deformable convolutional neural network (DCNv2, Deformable Convolutional Network), na nagpapahintulot sa iyo na makamit ang isang kapansin-pansing pagtaas sa bilis ng pagsubaybay sa bagay. Gumagana ang FairMOT nang walang mga anchor, gamit ang mekanismo ng muling pagkakakilanlan upang matukoy ang mga offset ng mga object center sa isang mapa ng bagay na may mataas na katumpakan. Kaayon, ang isang processor ay pinaandar na sinusuri ang mga indibidwal na tampok ng mga bagay na maaaring magamit upang mahulaan ang kanilang pagkakakilanlan, at ang pangunahing module ay nagsasagawa ng isang convergence ng mga tampok na ito upang manipulahin ang mga bagay ng iba't ibang mga kaliskis.

FairMOT, isang sistema para sa mabilis na pagsubaybay sa maraming bagay sa video

Upang sanayin ang modelo sa FairMOT, ginamit ang isang kumbinasyon ng anim na pampublikong dataset para sa pagtuklas at paghahanap ng mga tao (ETH, CityPerson, CalTech, MOT17, CUHK-SYSU). Sinuri ang modelo gamit ang mga test set ng mga video 2DMOT15, MOT16, MOT17 ΠΈ MOT20ibinigay ng proyekto MOT Challenge at sumasaklaw sa iba't ibang sitwasyon, paggalaw o pag-ikot ng camera, iba't ibang anggulo sa pagtingin. Ang pagsubok ay nagpakita na
FairMOT outstrips pinakamabilis na nakikipagkumpitensya na mga modelo TrackRCNN ΠΈ J.D.E. kapag sinubukan sa 30 mga frame sa bawat segundo na video stream, na nagpapakita ng pagganap na sapat upang suriin ang mga regular na video stream sa mabilisang.

Pinagmulan: opennet.ru

Magdagdag ng komento