FairMOT՝ մի քանի օբյեկտների տեսանյութում արագ հետևելու համակարգ

Microsoft-ի և Կենտրոնական Չինաստանի համալսարանի հետազոտողները զարգացել են մեքենայական ուսուցման տեխնոլոգիաների միջոցով տեսանյութում բազմաթիվ օբյեկտների հետևելու նոր բարձր արդյունավետ մեթոդ՝ FairMOT (Fair Multi-Object Tracking): Կոդ՝ Pytorch-ի և վերապատրաստված մոդելների վրա հիմնված մեթոդի ներդրմամբ հրատարակված GitHub-ում:

Օբյեկտների հետագծման գոյություն ունեցող մեթոդների մեծ մասը օգտագործում է երկու փուլ, որոնցից յուրաքանչյուրն իրականացվում է առանձին նեյրոնային ցանցի միջոցով: Առաջին փուլը գործարկում է հետաքրքրություն ներկայացնող օբյեկտների գտնվելու վայրը որոշելու մոդել, իսկ երկրորդ փուլն օգտագործում է ասոցիացիայի որոնման մոդել՝ օբյեկտները նորից նույնականացնելու և դրանց վրա խարիսխներ ամրացնելու համար:

FairMOT-ն օգտագործում է մեկ փուլային իրականացում, որը հիմնված է դեֆորմացվող կոնվոլյուցիոն նեյրոնային ցանցի վրա (DCNv2, Deformable Convolutional Network), որը թույլ է տալիս հասնել օբյեկտների հետագծման արագության նկատելի աճի։ FairMOT-ն աշխատում է առանց խարիսխների՝ օգտագործելով վերանույնականացման մեխանիզմ՝ բարձր ճշգրտությամբ օբյեկտների քարտեզի վրա օբյեկտների կենտրոնների շեղումները որոշելու համար: Զուգահեռաբար գործարկվում է պրոցեսոր, որը գնահատում է օբյեկտների անհատական ​​հատկանիշները, որոնք կարող են օգտագործվել դրանց ինքնությունը կանխատեսելու համար, և հիմնական մոդուլը կատարում է այս հատկանիշների կոնվերգենցիան՝ տարբեր մասշտաբների օբյեկտները շահարկելու համար:

FairMOT՝ մի քանի օբյեկտների տեսանյութում արագ հետևելու համակարգ

FairMOT-ում մոդելը վարժեցնելու համար օգտագործվել է մարդկանց հայտնաբերման և որոնման վեց հանրային տվյալների հավաքածուների համակցություն (ETH, CityPerson, CalTech, MOT17, CUHK-SYSU): Մոդելը փորձարկվել է տեսահոլովակների թեստային հավաքածուների միջոցով 2DMOT15, MOT16, MOT17 и MOT20նախագծով նախատեսված MOT մարտահրավեր և լուսաբանելով տարբեր իրավիճակներ, տեսախցիկի շարժում կամ ռոտացիա, դիտման տարբեր անկյուններ: Փորձարկումը դա ցույց տվեց
FairMOT առջևում է ամենաարագ մրցակից մոդելները TrackRCNN и J.D.E. երբ փորձարկվում է վայրկյանում 30 կադր տեսահոսքերի վրա՝ ցույց տալով բավարար արդյունավետություն՝ սովորական վիդեո հոսքերը վերլուծելու համար:

Source: opennet.ru

Добавить комментарий