Argazkiak sotilki distortsionatzeko teknika, aurpegia ezagutzeko sistemak hausteko

Laborategiko ikertzaileak SAND Chicagoko Unibertsitateak tresna-kit bat garatu zuen fawkes ezarpenarekin metodoa argazkien distortsioa, aurpegia ezagutzeko eta erabiltzaileak identifikatzeko sistemak trebatzeko erabiltzea eragotziz. Pixel-aldaketak egiten dira irudian, gizakiek ikusten dituztenean ikusezinak direnak, baina eredu okerrak sortzen dituzte ikaskuntza automatikoko sistemak trebatzeko erabiltzen direnean. Tresna-kitaren kodea Python-en idatzita dago eta argitaratuko BSD lizentziapean. Batzarrak prestatuta Linux, macOS eta Windows-erako.

Argazkiak sotilki distortsionatzeko teknika, aurpegia ezagutzeko sistemak hausteko

Proposaturiko erabilgarritasunarekin argazkiak prozesatzea sare sozialetan eta beste plataforma publikoetan argitaratu aurretik, erabiltzailea babesteko aukera ematen du argazki-datuak aurpegiak ezagutzeko sistemak trebatzeko iturri gisa erabiltzeko. Proposatutako algoritmoak aurpegia ezagutzeko saiakeren % 95en aurkako babesa eskaintzen du (Microsoft Azure aitorpen APIrako, Amazon Rekognition eta Face++rako, babes-eraginkortasuna %100ekoa da). Gainera, nahiz eta etorkizunean jatorrizko argazkiak, erabilgarritasunak prozesatu gabekoak, argazkien bertsio desitxuratuak erabiliz trebatu den eredu batean erabiltzen badira ere, errekonozimenduaren hutsegite maila berdina izaten jarraitzen du eta gutxienez %80koa da.

Metodoa "adibide aurkakoen" fenomenoan oinarritzen da, eta horren funtsa da sarrerako datuen aldaketa txikiek sailkapen-logikan aldaketa ikaragarriak ekar ditzaketela. Gaur egun, "adibide kontrarioen" fenomenoa ikaskuntza automatikoko sistemetan konpondu gabeko arazo nagusietako bat da. Etorkizunean, eragozpen hori ez duten makinen ikaskuntza-sistemen belaunaldi berri bat sortuko dela espero da, baina sistema hauek eraikuntza ereduen arkitekturan eta ikuspegian aldaketa garrantzitsuak beharko dituzte.

Argazkiak prozesatzea irudiari pixelen (kluster) konbinazio bat gehitzea da, ikasketa automatikoko algoritmo sakonek irudikaturiko objektuaren eredu gisa hautematen dituztenak eta sailkapenerako erabiltzen diren ezaugarriak desitxuratzen dituztenak. Aldaketa horiek ez dira multzo orokorretik nabarmentzen eta oso zailak dira hautematea eta kentzea. Jatorrizko eta aldatutako irudiekin ere, zaila da zehaztea zein den jatorrizkoa eta zein den aldatutako bertsioa.

Argazkiak sotilki distortsionatzeko teknika, aurpegia ezagutzeko sistemak hausteko

Sartutako distortsioek erresistentzia handia erakusten dute ikaskuntza automatikoko ereduen eraikuntza zuzena urratzen duten argazkiak identifikatzeko kontraneurriak sortzearen aurrean. Lausotzean, zarata gehitzean edo pixelen konbinazioak kentzeko iragazkiak aplikatzea ez da eraginkorra. Arazoa da iragazkiak aplikatzen direnean, sailkapenaren zehaztasuna pixel-ereduen detektagarritasuna baino askoz azkarrago jaisten dela, eta distortsioak ezabatzen diren mailan, aitorpen-maila jada ezin dela onargarritzat jo.

Kontuan izan da, pribatutasuna babesteko beste teknologia gehienek bezala, proposatutako teknika antzemate-sistemetan irudi publikoen baimenik gabeko erabilerari aurre egiteko ez ezik, erasotzaileak ezkutatzeko tresna gisa ere erabil daitekeela. Ikertzaileek uste dute errekonozimenduaren arazoek, batez ere, informazioa kontrolatu gabe eta beren ereduak entrenatzeko baimenik gabe biltzen duten hirugarrenen zerbitzuetan eragina izan dezaketela (adibidez, Clearview.ai zerbitzuak aurpegiak ezagutzeko datu-base bat eskaintzen du, eraikia sare sozialetako 3 milioi argazki inguru indexatzen dira). Gaur egun, zerbitzu horien bildumak irudi fidagarriak badituzte gehienbat, orduan Fawkes-en erabilera aktiboarekin, denborarekin, argazki desitxuratuen multzoa handiagoa izango da eta ereduak sailkapenerako lehentasun handiagoa izango du. Argitaratutako tresnek eragin txikiagoa izango dute informazio agentzien aitorpen-sistemei, zeinen ereduak iturri fidagarrietan oinarrituta eraikitzen diren.

Helburu hurbileko garapen praktikoen artean, proiektua nabarmendu dezakegu Kamera Adversaria, garatzen mugikorreko aplikazioa irudiei gehitzeko Perlin zarata, ikasketa automatikoko sistemen sailkapen zuzena eragotziz. Kamera Adversaria kodea eskuragarri GitHub-en EPL lizentziapean. Beste proiektu bat Ikusezintasun kapa zaintza kameren aitorpena blokeatzea du helburu, eredu bereziko gabardina, kamiseta, jertse, kapa, kartel edo txapelak sortuz.

Iturria: opennet.ru

Gehitu iruzkin berria