Yuzni aniqlash tizimlarini buzish uchun fotosuratlarni nozik buzib ko'rsatish texnikasi

Laboratoriya tadqiqotchilari SAND Chikago universiteti asboblar to'plamini ishlab chiqdi Foks amalga oshirish bilan usuli fotosuratlarni buzish, ulardan yuzni aniqlash va foydalanuvchini identifikatsiya qilish tizimlarini o'qitish uchun foydalanishga to'sqinlik qilish. Tasvirga piksel o'zgarishlari kiritiladi, ular odamlar tomonidan ko'rilganda ko'rinmaydi, lekin mashinani o'rganish tizimlarini o'rgatishda noto'g'ri modellarning shakllanishiga olib keladi. Asboblar to'plami kodi Pythonda yozilgan va e'lon qilindi BSD litsenziyasi ostida. Assambleyalar tayyorlangan Linux, macOS va Windows uchun.

Yuzni aniqlash tizimlarini buzish uchun fotosuratlarni nozik buzib ko'rsatish texnikasi

Ijtimoiy tarmoqlarda va boshqa ommaviy platformalarda nashr qilishdan oldin tavsiya etilgan yordamchi dastur yordamida fotosuratlarni qayta ishlash foydalanuvchini yuzni aniqlash tizimlarini o'qitish uchun manba sifatida foto ma'lumotlardan foydalanishdan himoya qilish imkonini beradi. Taklif etilayotgan algoritm yuzni aniqlash urinishlarining 95 foizidan himoyani taʼminlaydi (Microsoft Azure recognition API, Amazon Rekognition va Face++ uchun himoya samaradorligi 100 foizni tashkil qiladi). Bundan tashqari, agar kelajakda yordamchi dastur tomonidan qayta ishlanmagan asl fotosuratlar fotosuratlarning buzilgan versiyalari yordamida allaqachon o'qitilgan modelda ishlatilsa ham, tanib olishdagi nosozliklar darajasi bir xil bo'lib qoladi va kamida 80% ni tashkil qiladi.

Usul "rahamatli misollar" fenomeniga asoslanadi, uning mohiyati shundan iboratki, kirish ma'lumotlaridagi kichik o'zgarishlar tasniflash mantig'ida keskin o'zgarishlarga olib kelishi mumkin. Hozirgi vaqtda "rahamatli misollar" hodisasi mashinani o'rganish tizimlarida hal qilinmagan asosiy muammolardan biridir. Kelajakda ushbu kamchilikdan xoli bo'lgan mashinani o'rganish tizimlarining yangi avlodi paydo bo'lishi kutilmoqda, ammo bu tizimlar arxitekturada va modellarni yaratishga yondashuvda sezilarli o'zgarishlarni talab qiladi.

Fotosuratlarni qayta ishlash tasvirga piksellar (klasterlar) kombinatsiyasini qo'shishdan iborat bo'lib, ular chuqur mashina o'rganish algoritmlari tomonidan tasvirlangan ob'ektga xos bo'lgan naqshlar sifatida qabul qilinadi va tasniflash uchun ishlatiladigan xususiyatlarning buzilishiga olib keladi. Bunday o'zgarishlar umumiy to'plamdan ajralib turmaydi va ularni aniqlash va olib tashlash juda qiyin. Asl va o'zgartirilgan tasvirlar bilan ham, qaysi asl va qaysi o'zgartirilgan versiya ekanligini aniqlash qiyin.

Yuzni aniqlash tizimlarini buzish uchun fotosuratlarni nozik buzib ko'rsatish texnikasi

Kiritilgan buzilishlar mashinani o'rganish modellarining to'g'ri tuzilishini buzadigan fotosuratlarni aniqlashga qaratilgan qarshi choralarni yaratishga yuqori qarshilik ko'rsatadi. Piksel birikmalarini bostirish uchun tasvirga xiralashtirish, shovqin qo'shish yoki filtrlarni qo'llashga asoslangan usullarni kiritish samarali emas. Muammo shundaki, filtrlar qo'llanilganda tasniflash aniqligi piksel naqshlarining aniqlanishiga qaraganda tezroq pasayadi va buzilishlar bostirilgan darajada, tanib olish darajasini endi maqbul deb hisoblash mumkin emas.

Qayd etilishicha, maxfiylikni himoya qilish bo‘yicha boshqa ko‘plab texnologiyalar singari, taklif etilayotgan texnikadan nafaqat tanib olish tizimlarida ommaviy tasvirlardan ruxsatsiz foydalanishga qarshi kurashish, balki hujumchilarni yashirish vositasi sifatida ham foydalanish mumkin. Tadqiqotchilarning fikriga ko'ra, tanib olish bilan bog'liq muammolar, asosan, nazoratsiz va o'z modellarini o'qitish uchun ruxsatisiz ma'lumotlarni to'playdigan uchinchi tomon xizmatlariga ta'sir qilishi mumkin (masalan, Clearview.ai xizmati yuzni tanish ma'lumotlar bazasini taklif qiladi, qurilgan ijtimoiy tarmoqlardagi 3 milliardga yaqin fotosuratlar indekslangan). Agar hozirda bunday xizmatlarning to'plamlarida asosan ishonchli tasvirlar mavjud bo'lsa, u holda Fawkes-dan faol foydalanish bilan vaqt o'tishi bilan buzilgan fotosuratlar to'plami kattaroq bo'ladi va model ularni tasniflash uchun yuqori ustuvorlik deb hisoblaydi. Modellari ishonchli manbalar asosida qurilgan razvedka idoralarining tanib olish tizimlari e'lon qilingan vositalardan kamroq ta'sir qiladi.

Maqsadga yaqin amaliy ishlanmalar orasida biz loyihani qayd etishimiz mumkin Kamera raqibi, rivojlanmoqda mobil ilovasi tasvirlarga qo'shish uchun Perlin shovqini, mashinani o'rganish tizimlari tomonidan to'g'ri tasniflashni oldini olish. Kamera Adversaria kodi mavjud GitHub-da EPL litsenziyasi ostida. Yana bir loyiha Ko'rinmas plash maxsus naqshli yomg'irlar, futbolkalar, sviterlar, shlyapalar, plakatlar yoki bosh kiyimlar yaratish orqali kuzatuv kameralari tomonidan tanib olishni blokirovka qilishni maqsad qilgan.

Manba: opennet.ru

a Izoh qo'shish