چہرے کی شناخت کے نظام میں خلل ڈالنے کے لیے تصاویر کو باریک طریقے سے مسخ کرنے کی تکنیک

لیبارٹری کے محققین ریت شکاگو یونیورسٹی نے ایک ٹول کٹ تیار کی۔ فوکس نفاذ کے ساتھ طریقہ تصویروں کو مسخ کرنا، چہرے کی شناخت اور صارف کی شناخت کے نظام کی تربیت کے لیے ان کے استعمال کو روکنا۔ تصویر میں پکسل کی تبدیلیاں کی جاتی ہیں، جو انسانوں کے دیکھنے پر نظر نہیں آتیں، لیکن جب مشین لرننگ سسٹم کو تربیت دینے کے لیے استعمال کی جاتی ہیں تو غلط ماڈلز کی تشکیل کا باعث بنتی ہیں۔ ٹول کٹ کوڈ Python اور میں لکھا گیا ہے۔ شائع BSD لائسنس کے تحت۔ اسمبلیاں تیار لینکس، میکوس اور ونڈوز کے لیے۔

چہرے کی شناخت کے نظام میں خلل ڈالنے کے لیے تصاویر کو باریک طریقے سے مسخ کرنے کی تکنیک

سوشل نیٹ ورکس اور دیگر عوامی پلیٹ فارمز پر شائع کرنے سے پہلے مجوزہ یوٹیلیٹی کے ساتھ تصاویر پر کارروائی کرنا آپ کو صارف کو تصویر کے ڈیٹا کو چہرے کی شناخت کے نظام کی تربیت کے لیے بطور ذریعہ استعمال کرنے سے بچانے کی اجازت دیتا ہے۔ مجوزہ الگورتھم چہرے کی شناخت کی 95% کوششوں کے خلاف تحفظ فراہم کرتا ہے (Microsoft Azure Recognition API، Amazon Recognition اور Face++ کے لیے، تحفظ کی کارکردگی 100% ہے)۔ مزید برآں، یہاں تک کہ اگر مستقبل میں اصل تصویریں، جو کہ یوٹیلیٹی کے ذریعے بغیر پروسیس کی گئی ہیں، ایسے ماڈل میں استعمال کی جاتی ہیں جو پہلے ہی تصویروں کے مسخ شدہ ورژن استعمال کرنے کی تربیت حاصل کر چکا ہے، شناخت میں ناکامیوں کی سطح وہی رہتی ہے اور کم از کم 80% ہے۔

یہ طریقہ "مخالف مثالوں" کے رجحان پر مبنی ہے، جس کا خلاصہ یہ ہے کہ ان پٹ ڈیٹا میں معمولی تبدیلیاں درجہ بندی کی منطق میں ڈرامائی تبدیلیوں کا باعث بن سکتی ہیں۔ فی الحال، "مخالف مثالیں" کا رجحان مشین لرننگ سسٹم میں حل نہ ہونے والے اہم مسائل میں سے ایک ہے۔ مستقبل میں، مشین لرننگ سسٹمز کی ایک نئی نسل کے ابھرنے کی توقع ہے جو اس خرابی سے پاک ہوں گے، لیکن ان نظاموں کے لیے فن تعمیر اور ماڈلز بنانے کے نقطہ نظر میں اہم تبدیلیوں کی ضرورت ہوگی۔

تصویروں کی پروسیسنگ تصویر میں پکسلز (کلسٹرز) کے امتزاج کو شامل کرنے پر آتی ہے، جو گہری مشین لرننگ الگورتھم کے ذریعے تصویری آبجیکٹ کے پیٹرن کی خصوصیت کے طور پر سمجھے جاتے ہیں اور درجہ بندی کے لیے استعمال ہونے والی خصوصیات کو مسخ کرنے کا باعث بنتے ہیں۔ ایسی تبدیلیاں عام سیٹ سے الگ نہیں ہوتیں اور ان کا پتہ لگانا اور ہٹانا انتہائی مشکل ہوتا ہے۔ اصل اور تبدیل شدہ تصاویر کے ساتھ بھی یہ طے کرنا مشکل ہے کہ کون سی اصل ہے اور کون سی ترمیم شدہ ورژن۔

چہرے کی شناخت کے نظام میں خلل ڈالنے کے لیے تصاویر کو باریک طریقے سے مسخ کرنے کی تکنیک

متعارف کرائی گئی تحریفیں جوابی اقدامات کی تخلیق کے خلاف اعلی مزاحمت کا مظاہرہ کرتی ہیں جس کا مقصد تصویروں کی نشاندہی کرنا ہے جو مشین لرننگ ماڈلز کی صحیح تعمیر کی خلاف ورزی کرتی ہیں۔ پکسل کے امتزاج کو دبانے کے لیے تصویر کو دھندلا کرنے، شور ڈالنے، یا فلٹرز لگانے پر مبنی طریقے کارآمد نہیں ہیں۔ مسئلہ یہ ہے کہ جب فلٹر لگائے جاتے ہیں، درجہ بندی کی درستگی پکسل پیٹرن کی شناخت کے مقابلے میں بہت تیزی سے گرتی ہے، اور جس سطح پر تحریفات کو دبایا جاتا ہے، شناخت کی سطح کو مزید قابل قبول نہیں سمجھا جاسکتا۔

واضح رہے کہ رازداری کے تحفظ کے لیے دیگر ٹیکنالوجیز کی طرح، مجوزہ تکنیک کو نہ صرف شناخت کے نظام میں عوامی تصاویر کے غیر مجاز استعمال سے نمٹنے کے لیے استعمال کیا جا سکتا ہے، بلکہ حملہ آوروں کو چھپانے کے لیے ایک آلے کے طور پر بھی استعمال کیا جا سکتا ہے۔ محققین کا خیال ہے کہ شناخت کے مسائل بنیادی طور پر فریق ثالث کی خدمات کو متاثر کر سکتے ہیں جو معلومات کو بے قابو اور بغیر اپنے ماڈلز کو تربیت دینے کے لیے جمع کرتی ہیں (مثال کے طور پر، Clearview.ai سروس چہرے کی شناخت کا ڈیٹا بیس پیش کرتی ہے، تعمیر سوشل نیٹ ورکس سے تقریباً 3 بلین تصاویر انڈیکس کی گئی ہیں)۔ اگر اب اس طرح کی خدمات کے مجموعوں میں زیادہ تر قابل اعتماد تصاویر ہیں، تو فاکس کے فعال استعمال کے ساتھ، وقت کے ساتھ، مسخ شدہ تصاویر کا سیٹ بڑا ہوتا جائے گا اور ماڈل انہیں درجہ بندی کے لیے ایک اعلی ترجیح سمجھے گا۔ انٹیلی جنس ایجنسیوں کے شناختی نظام، جن کے ماڈل قابل اعتماد ذرائع کی بنیاد پر بنائے گئے ہیں، شائع شدہ ٹولز سے کم متاثر ہوں گے۔

مقصد کے قریب عملی پیش رفت کے درمیان، ہم اس منصوبے کو نوٹ کر سکتے ہیں۔ کیمرہ ایڈورسریا، ترقی پذیر موبائل اپلی کیشن تصاویر میں شامل کرنے کے لیے پرلن کا شورمشین لرننگ سسٹم کے ذریعہ درست درجہ بندی کو روکنا۔ کیمرہ ایڈورسریا کوڈ دستیاب EPL لائسنس کے تحت GitHub پر۔ ایک اور پروجیکٹ پوشیدہ لباس اس کا مقصد خصوصی پیٹرن والے رین کوٹ، ٹی شرٹس، سویٹر، کیپس، پوسٹرز یا ٹوپیوں کی تخلیق کے ذریعے نگرانی کے کیمروں کے ذریعے شناخت کو روکنا ہے۔

ماخذ: opennet.ru

نیا تبصرہ شامل کریں