Microsoft နှင့် Central China University တို့မှ သုတေသီများ ဖွံ့ဖြိုးသည်။ စက်သင်ယူမှုနည်းပညာများကို အသုံးပြု၍ ဗီဒီယိုရှိ အရာများစွာကို ခြေရာခံခြင်းအတွက် စွမ်းဆောင်ရည်မြင့်နည်းလမ်းအသစ် - FairMOT (Fair Multi-Object Tracking)။ Pytorg နှင့် လေ့ကျင့်ထားသော မော်ဒယ်များကို အခြေခံ၍ နည်းလမ်းဖြင့် ကုဒ် ထုတ်ဝေခဲ့သည် GitHub တွင်
ရှိပြီးသား အရာဝတ္ထုကို ခြေရာခံခြင်းနည်းလမ်းအများစုသည် သီးခြား neural network တစ်ခုမှ လုပ်ဆောင်သည့် အဆင့်နှစ်ခုကို အသုံးပြုသည်။ ပထမအဆင့်သည် စိတ်ပါဝင်စားသောအရာများ၏တည်နေရာကို ဆုံးဖြတ်ရန်အတွက် စံနမူနာတစ်ခုအား လုပ်ဆောင်ပြီး ဒုတိယအဆင့်တွင် အရာဝတ္ထုများကို ပြန်လည်ခွဲခြားသတ်မှတ်ရန်နှင့် ၎င်းတို့တွင် ကျောက်ဆူးများချိတ်ရန် အသုံးပြုသည့် အသင်းအဖွဲ့ရှာဖွေမှုပုံစံကို အသုံးပြုသည်။
FairMOT သည် ပုံပျက်နိုင်သော convolutional neural network ကို အခြေခံ၍ အဆင့်တစ်ဆင့် အကောင်အထည်ဖော်မှုကို အသုံးပြုသည် (DCNv2၊ Deformable Convolutional Network )၊ အရာဝတ္ထုကို ခြေရာခံခြင်း၏ အမြန်နှုန်းကို သိသာထင်ရှားစွာ တိုးမြင့်အောင်မြင်ရန် ခွင့်ပြုသည်။ FairMOT သည် တိကျမှုမြင့်မားသော အရာဝတ္ထုမြေပုံပေါ်ရှိ အရာဝတ္ထုစင်တာများ၏ အော့ဖ်ဆက်များကို ဆုံးဖြတ်ရန် ကျောက်ဆူးများမပါဘဲ လုပ်ဆောင်သည်။ တဆက်တည်းတွင်၊ အရာဝတ္တုများ၏ တစ်ဦးချင်းအင်္ဂါရပ်များကို အကဲဖြတ်ရန် ပရိုဆက်ဆာကို လုပ်ဆောင်ပြီး ၎င်းတို့၏ လက္ခဏာရပ်များကို ခန့်မှန်းရန် အသုံးပြုနိုင်သည့် ပင်မ module သည် မတူညီသောစကေးရှိ အရာဝတ္ထုများကို စီမံခန့်ခွဲရန်အတွက် ဤအင်္ဂါရပ်များ၏ ပေါင်းစည်းမှုကို လုပ်ဆောင်သည်။
FairMOT တွင် မော်ဒယ်ကို လေ့ကျင့်ရန်၊ လူများသိရှိနိုင်မှုနှင့် ရှာဖွေမှုအတွက် အများသူငှာ ဒေတာအတွဲခြောက်ခု (ETH၊ CityPerson၊ CalTech၊ MOT17၊ CUHK-SYSU) ကို အသုံးပြုခဲ့သည်။ မော်ဒယ်ကို စမ်းသပ်ထားသော ဗီဒီယိုအစုံကို အသုံးပြု၍ စမ်းသပ်ခဲ့သည်။ 2DMOT15, MOT16, MOT17 и MOT20ပရောဂျက်မှ ထောက်ပံ့ပေးသည်။ MOT စိန်ခေါ်မှု မတူညီသောအခြေအနေများ၊ ကင်မရာလှုပ်ရှားမှု သို့မဟုတ် လည်ပတ်မှု၊ မတူညီသောကြည့်ရှုထောင့်များကို ဖုံးအုပ်ထားသည်။ အဲဒါကို စမ်းသပ်ပြတယ်။
FairMOT ကျော်သွားပြီ အပြိုင်အမြန်ဆုံးမော်ဒယ်များ TrackRCNN и J.D.E. တစ်စက္ကန့်လျှင် ဖရိမ် 30 နှုန်းဖြင့် ဗီဒီယိုစီးကြောင်းများကို စမ်းသပ်သောအခါ၊ ပုံမှန်ဗီဒီယိုစီးကြောင်းများကို အလျင်အမြန် ခွဲခြမ်းစိတ်ဖြာရန် လုံလောက်သော စွမ်းဆောင်ရည်ကို ပြသသည်။
source: opennet.ru