FairMOT, pergalek ji bo şopandina bilez a pir tiştan li ser vîdyoyê

Lêkolînerên ji Microsoft û Zanîngeha Navendî ya Çînê pêşxistin rêbazek nû ya performansa bilind ji bo şopandina pir tiştan di vîdyoyê de bi karanîna teknolojiyên fêrbûna makîneyê - FairMOT (Şopandina Pir-Object Fair). Koda bi pêkanîna rêbazê li ser bingeha Pytorch û modelên perwerdekirî weşandin li ser GitHub.

Piraniya rêbazên şopandina tiştên heyî du qonax bikar tînin, ku her yek ji hêla torgilokek neuralî ve têne bicîh kirin. Qonaxa yekem modelek ji bo destnîşankirina cîhê tiştên balkêş dimeşîne, û qonaxa duyemîn modelek lêgerîna komeleyê bikar tîne ku ji nû ve nasandina tiştan û girêdana lengeran bi wan re tê bikar anîn.

FairMOT pêkanînek yek-qonaxê li ser bingeha torgilokek neuralî ya deformable bikar tîne (DCNv2, Tora Convolutional Deformable), ku dihêle hûn di leza şopandina tiştan de zêdebûnek berbiçav bi dest bixin. FairMOT bêyî lenger kar dike, mekanîzmayek ji nû ve-nasnameyê bikar tîne da ku li ser nexşeyek tişta rast-bilind lihevhatina navendên nesneyan diyar bike. Di paralelê de, pêvajoyek tête darve kirin ku taybetmendiyên kesane yên tiştên ku dikarin ji bo pêşbînkirina nasnameya wan werin bikar anîn dinirxîne, û modula sereke lihevhatina van taybetmendiyan pêk tîne da ku tiştên bi pîvanên cihêreng manîpule bike.

FairMOT, pergalek ji bo şopandina bilez a pir tiştan li ser vîdyoyê

Ji bo perwerdekirina modelê di FairMOT de, ji bo tespîtkirin û lêgerîna mirovan tevhevek şeş daneyên giştî hate bikar anîn (ETH, CityPerson, CalTech, MOT17, CUHK-SYSU). Model bi karanîna komên testê yên vîdyoyan hate ceribandin 2DMOT15, MOT16, MOT17 и MOT20ji hêla projeyê ve hatî pêşkêş kirin MOT Challenge û vegirtina rewşên cihêreng, tevgera kamerayê an zivirîna, goşeyên cûda yên dîtinê. Testê ev nîşan da
FairMOT derketin zûtirîn modelên pêşbaziyê TrackRCNN и J.D.E. dema ku li ser herikên vîdyoyê yên 30 çarçeweyên di çirkeyê de têne ceribandin, performansa têra xwe ji bo analîzkirina weşanên vîdyoyê yên birêkûpêk di firînê de nîşan dide.

Source: opennet.ru

Add a comment