لیبارٹری کے محققین
سوشل نیٹ ورکس اور دیگر عوامی پلیٹ فارمز پر شائع کرنے سے پہلے مجوزہ یوٹیلیٹی کے ساتھ تصاویر پر کارروائی کرنا آپ کو صارف کو تصویر کے ڈیٹا کو چہرے کی شناخت کے نظام کی تربیت کے لیے بطور ذریعہ استعمال کرنے سے بچانے کی اجازت دیتا ہے۔ مجوزہ الگورتھم چہرے کی شناخت کی 95% کوششوں کے خلاف تحفظ فراہم کرتا ہے (Microsoft Azure Recognition API، Amazon Recognition اور Face++ کے لیے، تحفظ کی کارکردگی 100% ہے)۔ مزید برآں، یہاں تک کہ اگر مستقبل میں اصل تصویریں، جو کہ یوٹیلیٹی کے ذریعے بغیر پروسیس کی گئی ہیں، ایسے ماڈل میں استعمال کی جاتی ہیں جو پہلے ہی تصویروں کے مسخ شدہ ورژن استعمال کرنے کی تربیت حاصل کر چکا ہے، شناخت میں ناکامیوں کی سطح وہی رہتی ہے اور کم از کم 80% ہے۔
یہ طریقہ "مخالف مثالوں" کے رجحان پر مبنی ہے، جس کا خلاصہ یہ ہے کہ ان پٹ ڈیٹا میں معمولی تبدیلیاں درجہ بندی کی منطق میں ڈرامائی تبدیلیوں کا باعث بن سکتی ہیں۔ فی الحال، "مخالف مثالیں" کا رجحان مشین لرننگ سسٹم میں حل نہ ہونے والے اہم مسائل میں سے ایک ہے۔ مستقبل میں، مشین لرننگ سسٹمز کی ایک نئی نسل کے ابھرنے کی توقع ہے جو اس خرابی سے پاک ہوں گے، لیکن ان نظاموں کے لیے فن تعمیر اور ماڈلز بنانے کے نقطہ نظر میں اہم تبدیلیوں کی ضرورت ہوگی۔
تصویروں کی پروسیسنگ تصویر میں پکسلز (کلسٹرز) کے امتزاج کو شامل کرنے پر آتی ہے، جو گہری مشین لرننگ الگورتھم کے ذریعے تصویری آبجیکٹ کے پیٹرن کی خصوصیت کے طور پر سمجھے جاتے ہیں اور درجہ بندی کے لیے استعمال ہونے والی خصوصیات کو مسخ کرنے کا باعث بنتے ہیں۔ ایسی تبدیلیاں عام سیٹ سے الگ نہیں ہوتیں اور ان کا پتہ لگانا اور ہٹانا انتہائی مشکل ہوتا ہے۔ اصل اور تبدیل شدہ تصاویر کے ساتھ بھی یہ طے کرنا مشکل ہے کہ کون سی اصل ہے اور کون سی ترمیم شدہ ورژن۔
متعارف کرائی گئی تحریفیں جوابی اقدامات کی تخلیق کے خلاف اعلی مزاحمت کا مظاہرہ کرتی ہیں جس کا مقصد تصویروں کی نشاندہی کرنا ہے جو مشین لرننگ ماڈلز کی صحیح تعمیر کی خلاف ورزی کرتی ہیں۔ پکسل کے امتزاج کو دبانے کے لیے تصویر کو دھندلا کرنے، شور ڈالنے، یا فلٹرز لگانے پر مبنی طریقے کارآمد نہیں ہیں۔ مسئلہ یہ ہے کہ جب فلٹر لگائے جاتے ہیں، درجہ بندی کی درستگی پکسل پیٹرن کی شناخت کے مقابلے میں بہت تیزی سے گرتی ہے، اور جس سطح پر تحریفات کو دبایا جاتا ہے، شناخت کی سطح کو مزید قابل قبول نہیں سمجھا جاسکتا۔
واضح رہے کہ رازداری کے تحفظ کے لیے دیگر ٹیکنالوجیز کی طرح، مجوزہ تکنیک کو نہ صرف شناخت کے نظام میں عوامی تصاویر کے غیر مجاز استعمال سے نمٹنے کے لیے استعمال کیا جا سکتا ہے، بلکہ حملہ آوروں کو چھپانے کے لیے ایک آلے کے طور پر بھی استعمال کیا جا سکتا ہے۔ محققین کا خیال ہے کہ شناخت کے مسائل بنیادی طور پر فریق ثالث کی خدمات کو متاثر کر سکتے ہیں جو معلومات کو بے قابو اور بغیر اپنے ماڈلز کو تربیت دینے کے لیے جمع کرتی ہیں (مثال کے طور پر، Clearview.ai سروس چہرے کی شناخت کا ڈیٹا بیس پیش کرتی ہے،
مقصد کے قریب عملی پیش رفت کے درمیان، ہم اس منصوبے کو نوٹ کر سکتے ہیں۔
ماخذ: opennet.ru