Yüz tanıma sistemlerini bozacak şekilde fotoğrafları ustaca bozma tekniği

Laboratuvardaki araştırmacılar SAND Chicago Üniversitesi bir araç seti geliştirdi Fawkes uygulama ile yöntem fotoğrafların bozulması, yüz tanıma ve kullanıcı tanımlama sistemlerinin eğitiminde kullanılmasının engellenmesi. Görüntüde insanlar tarafından bakıldığında görülemeyen piksel değişiklikleri yapılmakta ancak makine öğrenimi sistemlerini eğitmek için kullanıldığında hatalı modellerin oluşmasına yol açmaktadır. Araç seti kodu Python'da yazılmıştır ve yayınlanan BSD lisansı altındadır. Meclisler hazır Linux, macOS ve Windows için.

Yüz tanıma sistemlerini bozacak şekilde fotoğrafları ustaca bozma tekniği

Fotoğrafların sosyal ağlarda ve diğer halka açık platformlarda yayınlanmadan önce önerilen yardımcı programla işlenmesi, kullanıcıyı, fotoğraf verilerini yüz tanıma sistemlerini eğitmek için bir kaynak olarak kullanmaktan korumanıza olanak tanır. Önerilen algoritma, yüz tanıma girişimlerinin %95'ine karşı koruma sağlar (Microsoft Azure tanıma API'si, Amazon Rekognition ve Face++ için koruma verimliliği %100'dür). Ayrıca, gelecekte, yardımcı program tarafından işlenmemiş orijinal fotoğraflar, fotoğrafların çarpıtılmış versiyonları kullanılarak eğitilmiş bir modelde kullanılsa bile, tanımadaki başarısızlık düzeyi aynı kalır ve en az %80'dir.

Yöntem, "karşıt örnekler" olgusuna dayanmaktadır; bunun özü, girdi verilerindeki küçük değişikliklerin sınıflandırma mantığında dramatik değişikliklere yol açabilmesidir. Şu anda “karşıt örnekler” olgusu, makine öğrenimi sistemlerinde çözülmemiş temel sorunlardan biridir. Gelecekte bu dezavantajdan arındırılmış yeni nesil makine öğrenimi sistemlerinin ortaya çıkması bekleniyor ancak bu sistemler mimaride ve bina modellerine yaklaşımda önemli değişiklikler gerektirecek.

Fotoğrafların işlenmesi, derin makine öğrenimi algoritmaları tarafından görüntülenen nesnenin karakteristik desenleri olarak algılanan ve sınıflandırma için kullanılan özelliklerin bozulmasına yol açan görüntüye bir piksel (kümeler) kombinasyonunun eklenmesi anlamına gelir. Bu tür değişiklikler genel olarak göze çarpmaz ve tespit edilmesi ve ortadan kaldırılması son derece zordur. Orijinal ve değiştirilmiş görsellerle bile hangisinin orijinal, hangisinin değiştirilmiş versiyon olduğunu belirlemek zordur.

Yüz tanıma sistemlerini bozacak şekilde fotoğrafları ustaca bozma tekniği

Ortaya çıkan çarpıklıklar, makine öğrenimi modellerinin doğru yapısını ihlal eden fotoğrafları tanımlamayı amaçlayan karşı önlemlerin oluşturulmasına karşı yüksek direnç göstermektedir. Piksel birleşimlerini bastırmak için görüntüye bulanıklaştırma, gürültü ekleme veya filtreler uygulamaya dayalı yöntemlerin dahil edilmesi etkili değildir. Sorun, filtreler uygulandığında sınıflandırma doğruluğunun, piksel desenlerinin tespit edilebilirliğinden çok daha hızlı düşmesi ve bozulmaların bastırıldığı seviyede, tanıma seviyesinin artık kabul edilebilir olarak değerlendirilememesidir.

Mahremiyetin korunmasına yönelik diğer birçok teknoloji gibi, önerilen tekniğin de yalnızca kamuya açık görsellerin tanıma sistemlerinde izinsiz kullanımıyla mücadele etmek için değil, aynı zamanda saldırganları gizlemek için de bir araç olarak kullanılabileceği belirtiliyor. Araştırmacılar, tanımayla ilgili sorunların esas olarak kontrolsüz bir şekilde ve modellerini eğitme izni olmadan bilgi toplayan üçüncü taraf hizmetlerini etkileyebileceğine inanıyor (örneğin, Clearview.ai hizmeti bir yüz tanıma veritabanı sunuyor, inşa sosyal ağlardan yaklaşık 3 milyar fotoğraf indeksleniyor). Artık bu tür hizmetlerin koleksiyonları çoğunlukla güvenilir görüntüler içeriyorsa, Fawkes'in aktif kullanımıyla birlikte zamanla bozuk fotoğraf kümesi daha büyük olacak ve model bunları sınıflandırma için daha yüksek bir öncelik olarak değerlendirecektir. Modelleri güvenilir kaynaklara dayanılarak oluşturulan istihbarat teşkilatlarının tanıma sistemleri, yayınlanan araçlardan daha az etkilenecektir.

Amaca yakın pratik gelişmeler arasında projeyi not edebiliriz. kamera düşmanlığı, gelişmekte mobil uygulama resimlere eklemek için Perlin gürültüsümakine öğrenimi sistemleri tarafından doğru sınıflandırmanın önlenmesi. Kamera Adversaria kodu kullanılabilir GitHub'da EPL lisansı altında. Başka bir proje Görünmezlik pelerini özel desenli yağmurluk, tişört, kazak, pelerin, poster veya şapka üreterek güvenlik kameralarının tanımasını engellemeyi amaçlıyor.

Kaynak: opennet.ru

Yorum ekle