Technik fir subtil Fotoen ze verzerren fir Gesiichtserkennungssystemer ze stéieren

Fuerscher aus dem Labo SAND d'Universitéit vu Chicago huet e Toolkit entwéckelt fawkes mat Ëmsetzung Method Verzerrung vu Fotoen, verhënnert hir Notzung fir Gesiichtserkennung a Benotzer Identifikatiounssystemer ze trainéieren. Pixel Ännerungen ginn op d'Bild gemaach, déi onsichtbar sinn wann se vu Mënschen gekuckt ginn, awer féieren zur Bildung vu falsche Modeller wann se benotzt gi fir Maschinnléiersystemer ze trainéieren. Den Toolkit Code ass a Python geschriwwen a publizéiert ënner BSD Lizenz. Assembléeën virbereet fir Linux, macOS a Windows.

Technik fir subtil Fotoen ze verzerren fir Gesiichtserkennungssystemer ze stéieren

D'Veraarbechtung vu Fotoen mam proposéierten Utility virun der Verëffentlechung op sozialen Netzwierker an aner ëffentlech Plattformen erlaabt Iech de Benotzer ze schützen géint Fotodaten als Quell fir d'Ausbildung vun Gesiichtserkennungssystemer. De proposéierte Algorithmus bitt Schutz géint 95% vu Gesiichtserkennungsversuche (fir d'Microsoft Azure Unerkennung API, Amazon Rekognition a Face++ ass d'Schutzeffizienz 100%). Ausserdeem, och wann an Zukunft déi ursprénglech Fotoen, onbehandelt vum Utility, an engem Modell benotzt ginn, dee scho mat verzerrte Versioune vu Fotoen trainéiert gouf, bleift den Niveau vun de Feeler an der Unerkennung déiselwecht an ass op d'mannst 80%.

D'Method baséiert op de Phänomen vun "adversarial Beispiller", d'Essenz vun deem ass, datt kleng Ännerungen an Input Daten zu dramatesch Ännerungen an der Klassifikatioun Logik Féierung kann. De Moment ass de Phänomen vu "adversarielle Beispiller" ee vun den Haapt ongeléiste Probleemer an Maschinnléieresystemer. An Zukunft gëtt erwaart datt eng nei Generatioun vu Maschinnléieresystemer entstinn, déi fräi vun dësem Nodeel sinn, awer dës Systemer erfuerderen bedeitend Ännerungen an der Architektur an der Approche fir Modeller ze bauen.

D'Veraarbechtung vu Fotoen geet erof op eng Kombinatioun vu Pixelen (Cluster) zum Bild ze addéieren, déi duerch déif Maschinnléiere Algorithmen als Mustere charakteristesch vum gebildene Objet gesi ginn a féieren zu Verzerrung vun de Funktiounen, déi fir Klassifikatioun benotzt ginn. Esou Ännerungen stinn net aus dem allgemenge Set eraus a sinn extrem schwéier z'entdecken an ze läschen. Och mat den originelle a modifizéierten Biller ass et schwéier ze bestëmmen wat d'Original ass a wéi eng modifizéiert Versioun ass.

Technik fir subtil Fotoen ze verzerren fir Gesiichtserkennungssystemer ze stéieren

Déi agefouert Verzerrunge weisen héich Resistenz géint d'Schafung vu Géigemoossnamen fir Fotoen z'identifizéieren déi d'korrekt Konstruktioun vu Maschinnléieremodeller verletzen. Methoden abegraff op Basis vu Verschlechterung, Kaméidi addéieren oder Filteren op d'Bild applizéieren fir Pixelkombinatiounen z'ënnerdrécken sinn net effektiv. De Problem ass datt wann d'Filtere applizéiert ginn, d'Klassifikatiounsgenauegkeet vill méi séier fällt wéi d'Erkennbarkeet vu Pixelmuster, an um Niveau wann d'Verzerrungen ënnerdréckt ginn, kann den Niveau vun der Unerkennung net méi akzeptabel ugesi ginn.

Et gëtt bemierkt datt, wéi déi meescht aner Technologien fir d'Privatsphär ze schützen, déi proposéiert Technik ka benotzt ginn net nëmmen fir d'onautoriséiert Notzung vun ëffentleche Biller an Unerkennungssystemer ze bekämpfen, awer och als Tool fir Ugräifer ze verstoppen. D'Fuerscher gleewen datt Probleemer mat der Unerkennung haaptsächlech Drëtt-Partei-Servicer beaflosse kënnen, déi Informatioun onkontrolléiert sammelen an ouni Erlaabnis fir hir Modeller ze trainéieren (zum Beispill, de Clearview.ai Service bitt eng Gesiichtserkennungsdatebank, gebaut ongeféier 3 Milliarde Fotoen aus sozialen Netzwierker sinn indexéiert). Wann elo d'Kollektiounen vun esou Servicer meeschtens zouverlässeg Biller enthalen, dann mat der aktiver Notzung vu Fawkes, mat der Zäit, gëtt de Set vu verzerrte Fotoen méi grouss an de Modell betruecht se eng méi héich Prioritéit fir d'Klassifikatioun. D'Unerkennungssystemer vun den Intelligenz Agenturen, d'Modeller vun deenen op Basis vun zouverléissege Quellen gebaut ginn, wäerte manner vun de publizéierten Tools beaflosst ginn.

Ënnert praktesch Entwécklungen no am Zweck, kënne mir de Projet notéieren Kamera Adversaria, entwéckelen mobil App fir Biller ze addéieren Perlin Kaméidi, verhënnert korrekt Klassifikatioun duerch Maschinn Léiersystemer. Kamera Adversaria Code verfügbar op GitHub ënner EPL Lizenz. En anere Projet Onsichtbarkeet Mantel zielt fir d'Unerkennung duerch Iwwerwaachungskameraen ze blockéieren duerch d'Schafe vu spezielle Mustere Reemantelen, T-Shirten, Pullover, Kappen, Plakater oder Hüts.

Source: opennet.ru

Setzt e Commentaire