Laboratuvardaki araştırmacılar
Fotoğrafların sosyal ağlarda ve diğer halka açık platformlarda yayınlanmadan önce önerilen yardımcı programla işlenmesi, kullanıcıyı, fotoğraf verilerini yüz tanıma sistemlerini eğitmek için bir kaynak olarak kullanmaktan korumanıza olanak tanır. Önerilen algoritma, yüz tanıma girişimlerinin %95'ine karşı koruma sağlar (Microsoft Azure tanıma API'si, Amazon Rekognition ve Face++ için koruma verimliliği %100'dür). Ayrıca, gelecekte, yardımcı program tarafından işlenmemiş orijinal fotoğraflar, fotoğrafların çarpıtılmış versiyonları kullanılarak eğitilmiş bir modelde kullanılsa bile, tanımadaki başarısızlık düzeyi aynı kalır ve en az %80'dir.
Yöntem, "karşıt örnekler" olgusuna dayanmaktadır; bunun özü, girdi verilerindeki küçük değişikliklerin sınıflandırma mantığında dramatik değişikliklere yol açabilmesidir. Şu anda “karşıt örnekler” olgusu, makine öğrenimi sistemlerinde çözülmemiş temel sorunlardan biridir. Gelecekte bu dezavantajdan arındırılmış yeni nesil makine öğrenimi sistemlerinin ortaya çıkması bekleniyor ancak bu sistemler mimaride ve bina modellerine yaklaşımda önemli değişiklikler gerektirecek.
Fotoğrafların işlenmesi, derin makine öğrenimi algoritmaları tarafından görüntülenen nesnenin karakteristik desenleri olarak algılanan ve sınıflandırma için kullanılan özelliklerin bozulmasına yol açan görüntüye bir piksel (kümeler) kombinasyonunun eklenmesi anlamına gelir. Bu tür değişiklikler genel olarak göze çarpmaz ve tespit edilmesi ve ortadan kaldırılması son derece zordur. Orijinal ve değiştirilmiş görsellerle bile hangisinin orijinal, hangisinin değiştirilmiş versiyon olduğunu belirlemek zordur.
Ortaya çıkan çarpıklıklar, makine öğrenimi modellerinin doğru yapısını ihlal eden fotoğrafları tanımlamayı amaçlayan karşı önlemlerin oluşturulmasına karşı yüksek direnç göstermektedir. Piksel birleşimlerini bastırmak için görüntüye bulanıklaştırma, gürültü ekleme veya filtreler uygulamaya dayalı yöntemlerin dahil edilmesi etkili değildir. Sorun, filtreler uygulandığında sınıflandırma doğruluğunun, piksel desenlerinin tespit edilebilirliğinden çok daha hızlı düşmesi ve bozulmaların bastırıldığı seviyede, tanıma seviyesinin artık kabul edilebilir olarak değerlendirilememesidir.
Mahremiyetin korunmasına yönelik diğer birçok teknoloji gibi, önerilen tekniğin de yalnızca kamuya açık görsellerin tanıma sistemlerinde izinsiz kullanımıyla mücadele etmek için değil, aynı zamanda saldırganları gizlemek için de bir araç olarak kullanılabileceği belirtiliyor. Araştırmacılar, tanımayla ilgili sorunların esas olarak kontrolsüz bir şekilde ve modellerini eğitme izni olmadan bilgi toplayan üçüncü taraf hizmetlerini etkileyebileceğine inanıyor (örneğin, Clearview.ai hizmeti bir yüz tanıma veritabanı sunuyor,
Amaca yakın pratik gelişmeler arasında projeyi not edebiliriz.
Kaynak: opennet.ru