Tegniek om foto's subtiel te verdraai om gesigsherkenningstelsels te ontwrig

Navorsers van die laboratorium SAND die Universiteit van Chicago het 'n gereedskapstel ontwikkel fawkes met implementering metode vervorming van foto's, wat die gebruik daarvan vir opleiding van gesigherkenning en gebruikersidentifikasiestelsels voorkom. Pixelveranderings word aan die beeld gemaak, wat onsigbaar is wanneer dit deur mense gesien word, maar lei tot die vorming van verkeerde modelle wanneer dit gebruik word om masjienleerstelsels op te lei. Die toolkit-kode is geskryf in Python en gepubliseer onder BSD-lisensie. Samestellings voorberei vir Linux, macOS en Windows.

Tegniek om foto's subtiel te verdraai om gesigsherkenningstelsels te ontwrig

Deur foto's te verwerk met die voorgestelde nut voordat dit op sosiale netwerke en ander publieke platforms gepubliseer word, kan u die gebruiker beskerm teen die gebruik van fotodata as 'n bron vir die opleiding van gesigherkenningstelsels. Die voorgestelde algoritme bied beskerming teen 95% van gesigherkenningspogings (vir die Microsoft Azure-herkennings-API, Amazon Rekognition en Face++ is die beskermingsdoeltreffendheid 100%). Verder, selfs al word die oorspronklike foto's, onverwerk deur die nutsprogram, in die toekoms gebruik in 'n model wat reeds opgelei is met behulp van verwronge weergawes van foto's, bly die vlak van mislukkings in herkenning dieselfde en is minstens 80%.

Die metode is gebaseer op die verskynsel van "teenstandige voorbeelde", waarvan die essensie is dat geringe veranderinge in insetdata kan lei tot dramatiese veranderinge in die klassifikasielogika. Tans is die verskynsel van "teenstandige voorbeelde" een van die belangrikste onopgeloste probleme in masjienleerstelsels. In die toekoms word verwag dat 'n nuwe generasie masjienleerstelsels na vore sal kom wat vry is van hierdie nadeel, maar hierdie stelsels sal aansienlike veranderinge in die argitektuur en benadering tot die bou van modelle vereis.

Die verwerking van foto's kom daarop neer om 'n kombinasie van pixels (klusters) by die beeld te voeg, wat deur diep masjienleeralgoritmes as patrone wat kenmerkend is van die afgebeelde voorwerp beskou word en lei tot vervorming van die kenmerke wat vir klassifikasie gebruik word. Sulke veranderinge staan ​​nie uit die algemene stel nie en is uiters moeilik om op te spoor en te verwyder. Selfs met die oorspronklike en gewysigde beelde is dit moeilik om te bepaal wat die oorspronklike en watter die gewysigde weergawe is.

Tegniek om foto's subtiel te verdraai om gesigsherkenningstelsels te ontwrig

Die ingevoerde vervormings demonstreer hoë weerstand teen die skep van teenmaatreëls wat daarop gemik is om foto's te identifiseer wat die korrekte konstruksie van masjienleermodelle oortree. Om metodes in te sluit wat gebaseer is op vervaag, byvoeging van geraas of die toepassing van filters op die prent om pixelkombinasies te onderdruk, is nie effektief nie. Die probleem is dat wanneer filters toegepas word, die klassifikasie akkuraatheid baie vinniger daal as die waarneembaarheid van pixelpatrone, en op die vlak wanneer die vervormings onderdruk word, kan die vlak van herkenning nie meer as aanvaarbaar beskou word nie.

Daar word opgemerk dat, soos die meeste ander tegnologieë vir die beskerming van privaatheid, die voorgestelde tegniek nie net gebruik kan word om die ongemagtigde gebruik van openbare beelde in herkenningstelsels te bekamp nie, maar ook as 'n hulpmiddel om aanvallers weg te steek. Navorsers glo dat probleme met herkenning hoofsaaklik derdepartydienste kan raak wat inligting onbeheerbaar en sonder toestemming insamel om hul modelle op te lei (byvoorbeeld, die Clearview.ai-diens bied 'n gesigherkenningsdatabasis, gebou ongeveer 3 miljard foto's van sosiale netwerke is geïndekseer). As die versamelings van sulke dienste nou meestal betroubare beelde bevat, dan met die aktiewe gebruik van Fawkes, sal die stel verwronge foto's mettertyd groter wees en die model sal dit as 'n hoër prioriteit vir klassifikasie beskou. Die herkenningstelsels van intelligensie-agentskappe, waarvan die modelle op grond van betroubare bronne gebou is, sal minder deur die gepubliseerde instrumente geraak word.

Onder praktiese ontwikkelings wat naby doel is, kan ons die projek opmerk Kamera Adversaria, ontwikkel mobiele app om by beelde te voeg Perlin geraas, die voorkoming van korrekte klassifikasie deur masjienleerstelsels. Kamera Adversaria-kode beskikbaar op GitHub onder EPL-lisensie. Nog 'n projek Onsigbaarheidsmantel beoog om herkenning deur toesigkameras te blokkeer deur die skepping van spesiale patroon reënjasse, T-hemde, truie, kappe, plakkate of hoede.

Bron: opennet.ru

Voeg 'n opmerking