Teadlased laborist
Fotode töötlemine pakutud utiliidiga enne sotsiaalvõrgustikes ja muudel avalikel platvormidel avaldamist võimaldab teil kaitsta kasutajat fotoandmete kasutamise eest näotuvastussüsteemide koolitamise allikana. Pakutud algoritm pakub kaitset 95% näotuvastuskatsete eest (Microsoft Azure'i tuvastamise API, Amazon Rekognitioni ja Face++ puhul on kaitsetõhusus 100%). Veelgi enam, isegi kui tulevikus kasutatakse utiliidi poolt töötlemata originaalfotosid mudelis, mis on juba koolitatud fotode moonutatud versioonidega, jääb äratundmise ebaõnnestumiste tase samaks ja on vähemalt 80%.
Meetod põhineb “vastaste näidete” fenomenil, mille olemus seisneb selles, et väikesed muudatused sisendandmetes võivad viia dramaatilistele muutustele klassifitseerimisloogikas. Praegu on „vastaste näidete” fenomen masinõppesüsteemides üks peamisi lahendamata probleeme. Tulevikus on oodata uue põlvkonna masinõppesüsteemide tekkimist, millel pole seda puudust, kuid need süsteemid nõuavad olulisi muudatusi arhitektuuris ja mudelite ehitamise lähenemisviisis.
Fotode töötlemine taandub pildile pikslite (klastrite) kombinatsiooni lisamisega, mida sügavad masinõppe algoritmid tajuvad pildistatavale objektile iseloomulike mustritena ja põhjustavad klassifitseerimiseks kasutatavate tunnuste moonutamist. Sellised muutused ei paista üldkogumi hulgast silma ning neid on äärmiselt raske tuvastada ja eemaldada. Isegi originaal- ja muudetud piltide puhul on raske kindlaks teha, milline on originaal ja milline muudetud versioon.
Kasutusele võetud moonutused näitavad suurt vastupanuvõimet vastumeetmete loomisele, mille eesmärk on tuvastada fotod, mis rikuvad masinõppemudelite õiget konstruktsiooni. Hägusel, müra lisamisel või pildile filtrite rakendamisel põhinevate meetodite kaasamine pikslikombinatsioonide mahasurumiseks ei ole tõhusad. Probleem on selles, et filtrite rakendamisel langeb klassifikatsiooni täpsus palju kiiremini kui pikslimustrite tuvastatavus ja moonutuste summutamise tasemel ei saa tuvastusastet enam vastuvõetavaks pidada.
Märgitakse, et nagu enamikku muid privaatsuse kaitsmise tehnoloogiaid, saab pakutud tehnikat kasutada mitte ainult avalike piltide loata kasutamise vastu tuvastussüsteemides, vaid ka ründajate peitmise vahendina. Teadlased usuvad, et tuvastamisega seotud probleemid võivad peamiselt mõjutada kolmandate osapoolte teenuseid, mis koguvad teavet kontrollimatult ja ilma loata oma mudeleid koolitada (näiteks Clearview.ai teenus pakub näotuvastuse andmebaasi,
Praktiliste arenduste hulgas, mis on eesmärgi poolest lähedased, võib märkida projekti
Allikas: opennet.ru