Undersikers fan it laboratoarium
It ferwurkjen fan foto's mei it foarstelde hulpprogramma foardat jo publisearje op sosjale netwurken en oare iepenbiere platfoarms kinne jo de brûker beskermje fan it brûken fan fotogegevens as boarne foar training fan systemen foar gesichtsherkenning. It foarstelde algoritme biedt beskerming tsjin 95% fan besykjen foar gesichtsherkenning (foar de Microsoft Azure-erkenning API, Amazon Rekognition en Face++ is de beskermingseffisjinsje 100%). Boppedat, sels as yn 'e takomst de orizjinele foto's, net ferwurke troch it nut, wurde brûkt yn in model dat al is oplaat mei ferfoarme ferzjes fan foto's, bliuwt it nivo fan mislearrings yn erkenning itselde en is op syn minst 80%.
De metoade is basearre op it ferskynsel fan "adversarial foarbylden", de essinsje dêrfan is dat lytse feroarings yn ynfier gegevens kinne liede ta dramatyske feroarings yn de klassifikaasje logika. Op it stuit is it ferskynsel fan "adversariële foarbylden" ien fan 'e wichtichste ûnoploste problemen yn masine-learsystemen. Yn 'e takomst wurdt ferwachte dat in nije generaasje fan masine-learsystemen sil ûntstean dy't frij binne fan dit neidiel, mar dizze systemen sille wichtige feroaringen fereaskje yn' e arsjitektuer en oanpak fan it bouwen fan modellen.
It ferwurkjen fan foto's komt del op it tafoegjen fan in kombinaasje fan piksels (klusters) oan 'e ôfbylding, dy't troch djippe masine-learalgoritmen wurde waarnommen as patroanen dy't karakteristyk binne foar it ôfbylde objekt en liede ta ferfoarming fan 'e funksjes dy't brûkt wurde foar klassifikaasje. Sokke feroarings steane net út fan 'e algemiene set en binne ekstreem lestich te ûntdekken en te ferwiderjen. Sels mei de orizjinele en wizige ôfbyldings is it lestich om te bepalen hokker it orizjineel is en wat de feroare ferzje is.
De yntrodusearre fersteuringen litte in hege wjerstân sjen tsjin it meitsjen fan tsjinmaatregels dy't rjochte binne op it identifisearjen fan foto's dy't de juste konstruksje fan masine-learmodellen skeine. Ynklusyf metoaden basearre op waziging, tafoegjen fan lûd, of it tapassen fan filters op 'e ôfbylding om pikselkombinaasjes te ûnderdrukken binne net effektyf. It probleem is dat doe't filters wurde tapast, de klassifikaasje krektens sakket folle flugger as de detectability fan piksel patroanen, en op it nivo doe't de ferfoarmings wurde ûnderdrukt, it nivo fan erkenning kin net langer wurde beskôge akseptabel.
It wurdt opmurken dat, lykas de measte oare technologyen foar it beskermjen fan privacy, de foarstelde technyk kin net allinich brûkt wurde om it net autorisearre gebrûk fan iepenbiere ôfbyldings yn erkenningssystemen te bestriden, mar ek as in ark foar it ferbergjen fan oanfallers. Ûndersikers leauwe dat problemen mei erkenning benammen kinne beynfloedzje tredden tsjinsten dy't sammelje ynformaasje uncontrollably en sûnder tastimming te trainen harren modellen (bygelyks, de Clearview.ai tsjinst biedt in gesicht erkenning databank,
Under praktyske ûntjouwings tichtby doel, kinne wy it projekt notearje
Boarne: opennet.ru