Pamamaraan para sa banayad na pagbaluktot ng mga larawan upang makagambala sa mga sistema ng pagkilala sa mukha

Mga mananaliksik mula sa laboratoryo SAND ang Unibersidad ng Chicago ay bumuo ng isang toolkit Mga Fawkes may pagpapatupad pamamaraan pagbaluktot ng mga litrato, na pumipigil sa kanilang paggamit para sa pagsasanay sa pagkilala sa mukha at mga sistema ng pagkakakilanlan ng gumagamit. Ginagawa ang mga pagbabago sa pixel sa larawan, na hindi nakikita kapag tiningnan ng mga tao, ngunit humahantong sa pagbuo ng mga maling modelo kapag ginamit upang sanayin ang mga machine learning system. Ang toolkit code ay nakasulat sa Python at nalathala sa ilalim ng lisensya ng BSD. Mga pagtitipon nakahanda para sa Linux, macOS at Windows.

Pamamaraan para sa banayad na pagbaluktot ng mga larawan upang makagambala sa mga sistema ng pagkilala sa mukha

Ang pagpoproseso ng mga larawan gamit ang iminungkahing utility bago i-publish sa mga social network at iba pang pampublikong platform ay nagbibigay-daan sa iyong protektahan ang user mula sa paggamit ng data ng larawan bilang isang mapagkukunan para sa pagsasanay ng mga sistema ng pagkilala sa mukha. Ang iminungkahing algorithm ay nagbibigay ng proteksyon laban sa 95% ng mga pagtatangka sa pagkilala ng mukha (para sa Microsoft Azure recognition API, Amazon Recognition at Face++, ang kahusayan sa proteksyon ay 100%). Bukod dito, kahit na sa hinaharap ang mga orihinal na litrato, na hindi naproseso ng utility, ay ginagamit sa isang modelo na sinanay na gamit ang mga distorted na bersyon ng mga litrato, ang antas ng mga pagkabigo sa pagkilala ay nananatiling pareho at hindi bababa sa 80%.

Ang pamamaraan ay batay sa kababalaghan ng "mga halimbawa ng adversarial", ang kakanyahan nito ay ang mga maliliit na pagbabago sa data ng input ay maaaring humantong sa mga dramatikong pagbabago sa lohika ng pag-uuri. Sa kasalukuyan, ang phenomenon ng β€œadversarial examples” ay isa sa mga pangunahing hindi nalutas na problema sa machine learning system. Sa hinaharap, inaasahang lalabas ang isang bagong henerasyon ng mga sistema ng pag-aaral ng makina na walang problemang ito, ngunit mangangailangan ang mga system na ito ng mga makabuluhang pagbabago sa arkitektura at diskarte sa pagbuo ng mga modelo.

Ang pagpoproseso ng mga larawan ay nagmumula sa pagdaragdag ng kumbinasyon ng mga pixel (mga kumpol) sa larawan, na nakikita ng malalim na mga algorithm sa pag-aaral ng machine bilang mga pattern na katangian ng nakalarawang bagay at humahantong sa pagbaluktot ng mga tampok na ginagamit para sa pag-uuri. Ang ganitong mga pagbabago ay hindi namumukod-tangi mula sa pangkalahatang hanay at napakahirap matukoy at alisin. Kahit na sa orihinal at binagong mga imahe, mahirap matukoy kung alin ang orihinal at kung alin ang binagong bersyon.

Pamamaraan para sa banayad na pagbaluktot ng mga larawan upang makagambala sa mga sistema ng pagkilala sa mukha

Ang mga ipinakilalang distortion ay nagpapakita ng mataas na pagtutol sa paggawa ng mga countermeasure na naglalayong tukuyin ang mga larawang lumalabag sa tamang pagbuo ng mga modelo ng machine learning. Ang pagsasama ng mga paraan batay sa pag-blur, pagdaragdag ng ingay, o paglalapat ng mga filter sa larawan upang sugpuin ang mga kumbinasyon ng pixel ay hindi epektibo. Ang problema ay kapag ang mga filter ay inilapat, ang katumpakan ng pag-uuri ay bumaba nang mas mabilis kaysa sa detectability ng mga pattern ng pixel, at sa antas kapag ang mga distortion ay pinigilan, ang antas ng pagkilala ay hindi na maituturing na katanggap-tanggap.

Napansin na, tulad ng karamihan sa iba pang mga teknolohiya para sa pagprotekta sa privacy, ang iminungkahing pamamaraan ay maaaring gamitin hindi lamang upang labanan ang hindi awtorisadong paggamit ng mga pampublikong larawan sa mga sistema ng pagkilala, ngunit bilang isang tool para sa pagtatago ng mga umaatake. Naniniwala ang mga mananaliksik na ang mga problema sa pagkilala ay maaaring pangunahing makaapekto sa mga serbisyo ng third-party na nangongolekta ng impormasyon nang hindi makontrol at walang pahintulot na sanayin ang kanilang mga modelo (halimbawa, ang serbisyo ng Clearview.ai ay nag-aalok ng database ng pagkilala sa mukha, binuo humigit-kumulang 3 bilyong larawan mula sa mga social network ang na-index). Kung ngayon ang mga koleksyon ng mga naturang serbisyo ay naglalaman ng halos maaasahang mga imahe, kung gayon sa aktibong paggamit ng Fawkes, sa paglipas ng panahon, ang hanay ng mga distorted na larawan ay magiging mas malaki at ang modelo ay ituturing na mas mataas na priyoridad para sa pag-uuri. Ang mga sistema ng pagkilala ng mga ahensya ng paniktik, na ang mga modelo ay binuo batay sa maaasahang mga mapagkukunan, ay hindi gaanong maaapektuhan ng mga nai-publish na tool.

Sa mga praktikal na pag-unlad na malapit sa layunin, mapapansin natin ang proyekto Camera Adversaria, umuunlad mobile app upang idagdag sa mga larawan Perlin ingay, na pumipigil sa tamang pag-uuri sa pamamagitan ng mga machine learning system. Camera Adversaria code magagamit sa GitHub sa ilalim ng lisensya ng EPL. Isa pang proyekto Hindi nakikitang damit naglalayong hadlangan ang pagkilala sa pamamagitan ng mga surveillance camera sa pamamagitan ng paglikha ng mga espesyal na patterned na kapote, T-shirt, sweater, kapa, poster o sumbrero.

Pinagmulan: opennet.ru

Magdagdag ng komento