Technika a fényképek finom eltorzítására az arcfelismerő rendszer megzavarása érdekében

Kutatók a laboratóriumból SAND a Chicagói Egyetem eszköztárat fejlesztett ki fawkes megvalósítással módszer a fényképek torzítása, megakadályozva azok felhasználását arcfelismerő és felhasználóazonosító rendszerek képzésére. A képen pixel-módosításokat hajtanak végre, amelyek láthatatlanok az emberek által, de hibás modellek kialakulásához vezetnek, ha gépi tanulási rendszerek betanítására használják. Az eszközkészlet kódja Pythonban és a közzétett BSD licenc alatt. Szerelvények előkészített Linux, macOS és Windows számára.

Technika a fényképek finom eltorzítására az arcfelismerő rendszer megzavarása érdekében

A fotók feldolgozása a javasolt segédprogrammal a közösségi hálózatokon és más nyilvános platformokon való közzététel előtt lehetővé teszi, hogy megvédje a felhasználót attól, hogy a fényképadatokat forrásként használja fel az arcfelismerő rendszerek képzéséhez. A javasolt algoritmus az arcfelismerési kísérletek 95%-a ellen nyújt védelmet (a Microsoft Azure felismerési API, az Amazon Rekognition és a Face++ esetében a védelmi hatékonyság 100%). Sőt, még ha a jövőben az eredeti, a segédprogram által feldolgozatlan fényképeket egy olyan modellben használják is fel, amelyet a fényképek torzított változataival már betanítottak, a felismerési hibák szintje változatlan marad, és legalább 80%.

A módszer az „ellenálló példák” jelenségén alapszik, melynek lényege, hogy a bemeneti adatok kisebb változtatásai drámai változásokhoz vezethetnek az osztályozási logikában. Jelenleg az „ellenálló példák” jelensége az egyik fő megoldatlan probléma a gépi tanulási rendszerekben. A jövőben várhatóan a gépi tanulási rendszerek új generációja fog megjelenni, amelyek mentesek ettől a hátránytól, de ezek a rendszerek jelentős változtatásokat igényelnek az architektúrában és a modellépítési megközelítésben.

A fényképek feldolgozása a képhez pixelek (klaszterek) kombinációjának hozzáadásával jár, amelyeket a mély gépi tanulási algoritmusok a leképezett objektumra jellemző mintákként érzékelnek, és az osztályozáshoz használt jellemzők torzulásához vezetnek. Az ilyen változások nem tűnnek ki az általános halmazból, és rendkívül nehéz észlelni és eltávolítani. Még az eredeti és a módosított képek alapján is nehéz megállapítani, hogy melyik az eredeti és melyik a módosított változat.

Technika a fényképek finom eltorzítására az arcfelismerő rendszer megzavarása érdekében

A bevezetett torzítások nagy ellenállást mutatnak az ellenintézkedések létrehozásával szemben, amelyek célja a gépi tanulási modellek helyes felépítését sértő fényképek azonosítása. Nem hatékonyak az elmosódáson alapuló módszerek, a zaj hozzáadása vagy a képre szűrők alkalmazása a pixelkombinációk elnyomására. A probléma az, hogy szűrők alkalmazásakor az osztályozási pontosság sokkal gyorsabban csökken, mint a pixelmintázatok detektálhatósága, és azon a szinten, amikor a torzításokat elnyomjuk, a felismerés szintje már nem tekinthető elfogadhatónak.

Meg kell jegyezni, hogy a legtöbb más magánélet védelmét szolgáló technológiához hasonlóan a javasolt technika nemcsak a nyilvános képek jogosulatlan felhasználása elleni küzdelemre használható fel a felismerő rendszerekben, hanem a támadók elrejtésének eszközeként is. A kutatók úgy vélik, hogy a felismeréssel kapcsolatos problémák elsősorban a harmadik féltől származó szolgáltatásokat érinthetik, amelyek ellenőrizhetetlenül és engedély nélkül gyűjtenek információkat modelljeik betanítására (például a Clearview.ai szolgáltatás arcfelismerő adatbázist kínál, épült körülbelül 3 milliárd fényképet indexelnek a közösségi hálózatokról). Ha most az ilyen szolgáltatások gyűjteményei többnyire megbízható képeket tartalmaznak, akkor Fawkes aktív használatával idővel egyre nagyobb lesz a torzított fotók halmaza, és a modell magasabb prioritásúnak tekinti őket az osztályozásnál. A közzétett eszközök kevésbé érintik a titkosszolgálatok felismerési rendszereit, amelyek modelljei megbízható forrásokra épülnek.

A célhoz közel álló gyakorlati fejlesztések közül kiemelhetjük a projektet Camera Adversaria, fejlesztés mobilalkalmazás képekhez adni Perlin zaj, megakadályozva a gépi tanulási rendszerek általi helyes osztályozást. Kamera Adversaria kód elérhető a GitHubon EPL licenc alatt. Egy másik projekt Láthatatlansági köpeny célja, hogy megakadályozza a térfigyelő kamerák felismerését speciális mintás esőkabátok, pólók, pulóverek, köpenyek, poszterek vagy sapkák létrehozásával.

Forrás: opennet.ru

Hozzászólás