Mga mananaliksik mula sa laboratoryo
Ang pagpoproseso ng mga larawan gamit ang iminungkahing utility bago i-publish sa mga social network at iba pang pampublikong platform ay nagbibigay-daan sa iyong protektahan ang user mula sa paggamit ng data ng larawan bilang isang mapagkukunan para sa pagsasanay ng mga sistema ng pagkilala sa mukha. Ang iminungkahing algorithm ay nagbibigay ng proteksyon laban sa 95% ng mga pagtatangka sa pagkilala ng mukha (para sa Microsoft Azure recognition API, Amazon Recognition at Face++, ang kahusayan sa proteksyon ay 100%). Bukod dito, kahit na sa hinaharap ang mga orihinal na litrato, na hindi naproseso ng utility, ay ginagamit sa isang modelo na sinanay na gamit ang mga distorted na bersyon ng mga litrato, ang antas ng mga pagkabigo sa pagkilala ay nananatiling pareho at hindi bababa sa 80%.
Ang pamamaraan ay batay sa kababalaghan ng "mga halimbawa ng adversarial", ang kakanyahan nito ay ang mga maliliit na pagbabago sa data ng input ay maaaring humantong sa mga dramatikong pagbabago sa lohika ng pag-uuri. Sa kasalukuyan, ang phenomenon ng βadversarial examplesβ ay isa sa mga pangunahing hindi nalutas na problema sa machine learning system. Sa hinaharap, inaasahang lalabas ang isang bagong henerasyon ng mga sistema ng pag-aaral ng makina na walang problemang ito, ngunit mangangailangan ang mga system na ito ng mga makabuluhang pagbabago sa arkitektura at diskarte sa pagbuo ng mga modelo.
Ang pagpoproseso ng mga larawan ay nagmumula sa pagdaragdag ng kumbinasyon ng mga pixel (mga kumpol) sa larawan, na nakikita ng malalim na mga algorithm sa pag-aaral ng machine bilang mga pattern na katangian ng nakalarawang bagay at humahantong sa pagbaluktot ng mga tampok na ginagamit para sa pag-uuri. Ang ganitong mga pagbabago ay hindi namumukod-tangi mula sa pangkalahatang hanay at napakahirap matukoy at alisin. Kahit na sa orihinal at binagong mga imahe, mahirap matukoy kung alin ang orihinal at kung alin ang binagong bersyon.
Ang mga ipinakilalang distortion ay nagpapakita ng mataas na pagtutol sa paggawa ng mga countermeasure na naglalayong tukuyin ang mga larawang lumalabag sa tamang pagbuo ng mga modelo ng machine learning. Ang pagsasama ng mga paraan batay sa pag-blur, pagdaragdag ng ingay, o paglalapat ng mga filter sa larawan upang sugpuin ang mga kumbinasyon ng pixel ay hindi epektibo. Ang problema ay kapag ang mga filter ay inilapat, ang katumpakan ng pag-uuri ay bumaba nang mas mabilis kaysa sa detectability ng mga pattern ng pixel, at sa antas kapag ang mga distortion ay pinigilan, ang antas ng pagkilala ay hindi na maituturing na katanggap-tanggap.
Napansin na, tulad ng karamihan sa iba pang mga teknolohiya para sa pagprotekta sa privacy, ang iminungkahing pamamaraan ay maaaring gamitin hindi lamang upang labanan ang hindi awtorisadong paggamit ng mga pampublikong larawan sa mga sistema ng pagkilala, ngunit bilang isang tool para sa pagtatago ng mga umaatake. Naniniwala ang mga mananaliksik na ang mga problema sa pagkilala ay maaaring pangunahing makaapekto sa mga serbisyo ng third-party na nangongolekta ng impormasyon nang hindi makontrol at walang pahintulot na sanayin ang kanilang mga modelo (halimbawa, ang serbisyo ng Clearview.ai ay nag-aalok ng database ng pagkilala sa mukha,
Sa mga praktikal na pag-unlad na malapit sa layunin, mapapansin natin ang proyekto
Pinagmulan: opennet.ru