Technyk foar subtyl ferfoarming fan foto's om systemen foar gesichtsherkenning te fersteuren

Undersikers fan it laboratoarium SÂN de Universiteit fan Chicago ûntwikkele in toolkit fawkes mei útfiering metoade ferfoarming fan foto's, it foarkommen fan gebrûk foar it oplieden fan gesichtsherkenning en brûkersidentifikaasjesystemen. Pikselwizigingen wurde makke oan 'e ôfbylding, dy't ûnsichtber binne as se troch minsken besjoen wurde, mar liede ta de foarming fan ferkearde modellen as se brûkt wurde om masine-learsystemen te trenen. De toolkit koade is skreaun yn Python en publisearre ûnder BSD lisinsje. Gearkomsten taret foar Linux, macOS en Windows.

Technyk foar subtyl ferfoarming fan foto's om systemen foar gesichtsherkenning te fersteuren

It ferwurkjen fan foto's mei it foarstelde hulpprogramma foardat jo publisearje op sosjale netwurken en oare iepenbiere platfoarms kinne jo de brûker beskermje fan it brûken fan fotogegevens as boarne foar training fan systemen foar gesichtsherkenning. It foarstelde algoritme biedt beskerming tsjin 95% fan besykjen foar gesichtsherkenning (foar de Microsoft Azure-erkenning API, Amazon Rekognition en Face++ is de beskermingseffisjinsje 100%). Boppedat, sels as yn 'e takomst de orizjinele foto's, net ferwurke troch it nut, wurde brûkt yn in model dat al is oplaat mei ferfoarme ferzjes fan foto's, bliuwt it nivo fan mislearrings yn erkenning itselde en is op syn minst 80%.

De metoade is basearre op it ferskynsel fan "adversarial foarbylden", de essinsje dêrfan is dat lytse feroarings yn ynfier gegevens kinne liede ta dramatyske feroarings yn de klassifikaasje logika. Op it stuit is it ferskynsel fan "adversariële foarbylden" ien fan 'e wichtichste ûnoploste problemen yn masine-learsystemen. Yn 'e takomst wurdt ferwachte dat in nije generaasje fan masine-learsystemen sil ûntstean dy't frij binne fan dit neidiel, mar dizze systemen sille wichtige feroaringen fereaskje yn' e arsjitektuer en oanpak fan it bouwen fan modellen.

It ferwurkjen fan foto's komt del op it tafoegjen fan in kombinaasje fan piksels (klusters) oan 'e ôfbylding, dy't troch djippe masine-learalgoritmen wurde waarnommen as patroanen dy't karakteristyk binne foar it ôfbylde objekt en liede ta ferfoarming fan 'e funksjes dy't brûkt wurde foar klassifikaasje. Sokke feroarings steane net út fan 'e algemiene set en binne ekstreem lestich te ûntdekken en te ferwiderjen. Sels mei de orizjinele en wizige ôfbyldings is it lestich om te bepalen hokker it orizjineel is en wat de feroare ferzje is.

Technyk foar subtyl ferfoarming fan foto's om systemen foar gesichtsherkenning te fersteuren

De yntrodusearre fersteuringen litte in hege wjerstân sjen tsjin it meitsjen fan tsjinmaatregels dy't rjochte binne op it identifisearjen fan foto's dy't de juste konstruksje fan masine-learmodellen skeine. Ynklusyf metoaden basearre op waziging, tafoegjen fan lûd, of it tapassen fan filters op 'e ôfbylding om pikselkombinaasjes te ûnderdrukken binne net effektyf. It probleem is dat doe't filters wurde tapast, de klassifikaasje krektens sakket folle flugger as de detectability fan piksel patroanen, en op it nivo doe't de ferfoarmings wurde ûnderdrukt, it nivo fan erkenning kin net langer wurde beskôge akseptabel.

It wurdt opmurken dat, lykas de measte oare technologyen foar it beskermjen fan privacy, de foarstelde technyk kin net allinich brûkt wurde om it net autorisearre gebrûk fan iepenbiere ôfbyldings yn erkenningssystemen te bestriden, mar ek as in ark foar it ferbergjen fan oanfallers. Ûndersikers leauwe dat problemen mei erkenning benammen kinne beynfloedzje tredden tsjinsten dy't sammelje ynformaasje uncontrollably en sûnder tastimming te trainen harren modellen (bygelyks, de Clearview.ai tsjinst biedt in gesicht erkenning databank, boud sawat 3 miljard foto's fan sosjale netwurken wurde yndeksearre). As no de kolleksjes fan sokke tsjinsten befetsje meast betroubere bylden, dan mei it aktive gebrûk fan Fawkes, oer de tiid, sil de set fan ferfoarme foto's grutter wêze en it model sil har beskôgje as in hegere prioriteit foar klassifikaasje. De erkenningssystemen fan yntelliginsje-ynstânsjes, wêrfan de modellen binne boud op basis fan betroubere boarnen, sille minder wurde beynfloede troch de publisearre ark.

Under praktyske ûntjouwings tichtby doel, kinne wy ​​it projekt notearje Kamera Adversaria, ûntwikkeljen mobile app ta te foegjen oan ôfbyldings Perlin lûd, it foarkommen fan korrekte klassifikaasje troch masine-learsystemen. Kamera Adversaria koade beskikber op GitHub ûnder EPL-lisinsje. In oar projekt Visnsichtberens mantel hat as doel om erkenning troch tafersjochkamera's te blokkearjen troch it meitsjen fan spesjale patroon reinjassen, T-shirts, sweaters, capes, posters of hoeden.

Boarne: opennet.ru

Add a comment