Navorsers van die laboratorium
Deur foto's te verwerk met die voorgestelde nut voordat dit op sosiale netwerke en ander publieke platforms gepubliseer word, kan u die gebruiker beskerm teen die gebruik van fotodata as 'n bron vir die opleiding van gesigherkenningstelsels. Die voorgestelde algoritme bied beskerming teen 95% van gesigherkenningspogings (vir die Microsoft Azure-herkennings-API, Amazon Rekognition en Face++ is die beskermingsdoeltreffendheid 100%). Verder, selfs al word die oorspronklike foto's, onverwerk deur die nutsprogram, in die toekoms gebruik in 'n model wat reeds opgelei is met behulp van verwronge weergawes van foto's, bly die vlak van mislukkings in herkenning dieselfde en is minstens 80%.
Die metode is gebaseer op die verskynsel van "teenstandige voorbeelde", waarvan die essensie is dat geringe veranderinge in insetdata kan lei tot dramatiese veranderinge in die klassifikasielogika. Tans is die verskynsel van "teenstandige voorbeelde" een van die belangrikste onopgeloste probleme in masjienleerstelsels. In die toekoms word verwag dat 'n nuwe generasie masjienleerstelsels na vore sal kom wat vry is van hierdie nadeel, maar hierdie stelsels sal aansienlike veranderinge in die argitektuur en benadering tot die bou van modelle vereis.
Die verwerking van foto's kom daarop neer om 'n kombinasie van pixels (klusters) by die beeld te voeg, wat deur diep masjienleeralgoritmes as patrone wat kenmerkend is van die afgebeelde voorwerp beskou word en lei tot vervorming van die kenmerke wat vir klassifikasie gebruik word. Sulke veranderinge staan nie uit die algemene stel nie en is uiters moeilik om op te spoor en te verwyder. Selfs met die oorspronklike en gewysigde beelde is dit moeilik om te bepaal wat die oorspronklike en watter die gewysigde weergawe is.
Die ingevoerde vervormings demonstreer hoë weerstand teen die skep van teenmaatreëls wat daarop gemik is om foto's te identifiseer wat die korrekte konstruksie van masjienleermodelle oortree. Om metodes in te sluit wat gebaseer is op vervaag, byvoeging van geraas of die toepassing van filters op die prent om pixelkombinasies te onderdruk, is nie effektief nie. Die probleem is dat wanneer filters toegepas word, die klassifikasie akkuraatheid baie vinniger daal as die waarneembaarheid van pixelpatrone, en op die vlak wanneer die vervormings onderdruk word, kan die vlak van herkenning nie meer as aanvaarbaar beskou word nie.
Daar word opgemerk dat, soos die meeste ander tegnologieë vir die beskerming van privaatheid, die voorgestelde tegniek nie net gebruik kan word om die ongemagtigde gebruik van openbare beelde in herkenningstelsels te bekamp nie, maar ook as 'n hulpmiddel om aanvallers weg te steek. Navorsers glo dat probleme met herkenning hoofsaaklik derdepartydienste kan raak wat inligting onbeheerbaar en sonder toestemming insamel om hul modelle op te lei (byvoorbeeld, die Clearview.ai-diens bied 'n gesigherkenningsdatabasis,
Onder praktiese ontwikkelings wat naby doel is, kan ons die projek opmerk
Bron: opennet.ru