Fuerscher aus dem Labo
D'Veraarbechtung vu Fotoen mam proposéierten Utility virun der Verëffentlechung op sozialen Netzwierker an aner ëffentlech Plattformen erlaabt Iech de Benotzer ze schützen géint Fotodaten als Quell fir d'Ausbildung vun Gesiichtserkennungssystemer. De proposéierte Algorithmus bitt Schutz géint 95% vu Gesiichtserkennungsversuche (fir d'Microsoft Azure Unerkennung API, Amazon Rekognition a Face++ ass d'Schutzeffizienz 100%). Ausserdeem, och wann an Zukunft déi ursprénglech Fotoen, onbehandelt vum Utility, an engem Modell benotzt ginn, dee scho mat verzerrte Versioune vu Fotoen trainéiert gouf, bleift den Niveau vun de Feeler an der Unerkennung déiselwecht an ass op d'mannst 80%.
D'Method baséiert op de Phänomen vun "adversarial Beispiller", d'Essenz vun deem ass, datt kleng Ännerungen an Input Daten zu dramatesch Ännerungen an der Klassifikatioun Logik Féierung kann. De Moment ass de Phänomen vu "adversarielle Beispiller" ee vun den Haapt ongeléiste Probleemer an Maschinnléieresystemer. An Zukunft gëtt erwaart datt eng nei Generatioun vu Maschinnléieresystemer entstinn, déi fräi vun dësem Nodeel sinn, awer dës Systemer erfuerderen bedeitend Ännerungen an der Architektur an der Approche fir Modeller ze bauen.
D'Veraarbechtung vu Fotoen geet erof op eng Kombinatioun vu Pixelen (Cluster) zum Bild ze addéieren, déi duerch déif Maschinnléiere Algorithmen als Mustere charakteristesch vum gebildene Objet gesi ginn a féieren zu Verzerrung vun de Funktiounen, déi fir Klassifikatioun benotzt ginn. Esou Ännerungen stinn net aus dem allgemenge Set eraus a sinn extrem schwéier z'entdecken an ze läschen. Och mat den originelle a modifizéierten Biller ass et schwéier ze bestëmmen wat d'Original ass a wéi eng modifizéiert Versioun ass.
Déi agefouert Verzerrunge weisen héich Resistenz géint d'Schafung vu Géigemoossnamen fir Fotoen z'identifizéieren déi d'korrekt Konstruktioun vu Maschinnléieremodeller verletzen. Methoden abegraff op Basis vu Verschlechterung, Kaméidi addéieren oder Filteren op d'Bild applizéieren fir Pixelkombinatiounen z'ënnerdrécken sinn net effektiv. De Problem ass datt wann d'Filtere applizéiert ginn, d'Klassifikatiounsgenauegkeet vill méi séier fällt wéi d'Erkennbarkeet vu Pixelmuster, an um Niveau wann d'Verzerrungen ënnerdréckt ginn, kann den Niveau vun der Unerkennung net méi akzeptabel ugesi ginn.
Et gëtt bemierkt datt, wéi déi meescht aner Technologien fir d'Privatsphär ze schützen, déi proposéiert Technik ka benotzt ginn net nëmmen fir d'onautoriséiert Notzung vun ëffentleche Biller an Unerkennungssystemer ze bekämpfen, awer och als Tool fir Ugräifer ze verstoppen. D'Fuerscher gleewen datt Probleemer mat der Unerkennung haaptsächlech Drëtt-Partei-Servicer beaflosse kënnen, déi Informatioun onkontrolléiert sammelen an ouni Erlaabnis fir hir Modeller ze trainéieren (zum Beispill, de Clearview.ai Service bitt eng Gesiichtserkennungsdatebank,
Ënnert praktesch Entwécklungen no am Zweck, kënne mir de Projet notéieren
Source: opennet.ru