مصنوعی ذہانت کے تعصب کے بارے میں

مصنوعی ذہانت کے تعصب کے بارے میں

tl؛ dr:

  • مشین لرننگ ڈیٹا میں پیٹرن تلاش کرتی ہے۔ لیکن مصنوعی ذہانت "متعصب" ہو سکتی ہے - یعنی ایسے نمونے تلاش کریں جو غلط ہیں۔ مثال کے طور پر، تصویر پر مبنی جلد کے کینسر کا پتہ لگانے کا نظام ڈاکٹر کے دفتر میں لی گئی تصاویر پر خصوصی توجہ دے سکتا ہے۔ مشین لرننگ نہیں کر سکتا سمجھنے کے لئے: اس کے الگورتھم صرف نمبروں میں پیٹرن کی شناخت کرتے ہیں، اور اگر ڈیٹا نمائندہ نہیں ہے، تو اس کی پروسیسنگ کا نتیجہ بھی ہوگا۔ اور مشین لرننگ کی میکینکس کی وجہ سے ایسے کیڑے پکڑنا مشکل ہو سکتا ہے۔
  • سب سے واضح اور پریشان کن مسئلہ انسانی تنوع ہے۔ بہت ساری وجوہات ہیں جن کی وجہ سے لوگوں کے بارے میں ڈیٹا جمع کرنے کے مرحلے پر بھی معروضیت کھو سکتا ہے۔ لیکن یہ نہ سوچیں کہ یہ مسئلہ صرف لوگوں کو متاثر کرتا ہے: بالکل وہی مشکلات جب گودام میں سیلاب یا ناکام گیس ٹربائن کا پتہ لگانے کی کوشش کی جاتی ہیں۔ کچھ سسٹمز جلد کے رنگ کی طرف متعصب ہو سکتے ہیں، دوسرے سیمنز سینسر کی طرف متعصب ہوں گے۔
  • اس طرح کے مسائل مشین لرننگ کے لیے نئے نہیں ہیں، اور وہ اس سے بہت دور ہیں۔ کسی بھی پیچیدہ ڈھانچے میں غلط قیاس آرائیاں کی جاتی ہیں، اور یہ سمجھنا کہ کوئی خاص فیصلہ کیوں کیا گیا ہمیشہ مشکل ہوتا ہے۔ ہمیں اس کا ایک جامع انداز میں مقابلہ کرنے کی ضرورت ہے: تصدیق کے لیے ٹولز اور طریقہ کار بنائیں - اور صارفین کو تعلیم دیں تاکہ وہ AI کی سفارشات پر آنکھیں بند کرکے عمل نہ کریں۔ مشین لرننگ کچھ چیزیں ہم سے بہت بہتر کرتی ہے - لیکن کتے، مثال کے طور پر، منشیات کا پتہ لگانے میں انسانوں کے مقابلے میں بہت زیادہ مؤثر ہیں، جو انہیں بطور گواہ استعمال کرنے اور ان کی گواہی کی بنیاد پر فیصلے کرنے کی وجہ نہیں ہے۔ اور کتے، ویسے، کسی بھی مشین لرننگ سسٹم سے زیادہ ہوشیار ہوتے ہیں۔

مشین لرننگ آج کل ٹیکنالوجی کے سب سے اہم رجحانات میں سے ایک ہے۔ یہ ان بڑے طریقوں میں سے ایک ہے جس میں ٹیکنالوجی اگلی دہائی میں ہمارے آس پاس کی دنیا کو بدل دے گی۔ ان تبدیلیوں کے کچھ پہلو تشویش کا باعث ہیں۔ مثال کے طور پر، لیبر مارکیٹ پر مشین لرننگ کے ممکنہ اثرات، یا غیر اخلاقی مقاصد کے لیے اس کا استعمال (مثال کے طور پر، آمرانہ حکومتوں کے ذریعے)۔ ایک اور مسئلہ ہے جس کا اس پوسٹ میں حل ہے: مصنوعی ذہانت کا تعصب.

یہ کوئی آسان کہانی نہیں ہے۔

مصنوعی ذہانت کے تعصب کے بارے میں
گوگل کی اے آئی بلیوں کو تلاش کر سکتی ہے۔ 2012 کی یہ خبر اس وقت کچھ خاص تھی۔

"AI تعصب" کیا ہے؟

"را ڈیٹا" ایک آکسیمورون اور برا خیال دونوں ہے۔ ڈیٹا کو اچھی طرح اور احتیاط سے تیار کیا جانا چاہئے۔ - جیفری بوکر

کہیں 2013 سے پہلے، ایسا نظام بنانے کے لیے جو کہ کہیے، تصویروں میں بلیوں کو پہچانتا ہے، آپ کو منطقی مراحل کی وضاحت کرنا پڑتی تھی۔ تصویر میں کونوں کو کیسے تلاش کریں، آنکھوں کو پہچانیں، کھال کی ساخت کا تجزیہ کریں، پنجوں کو گنیں، وغیرہ۔ پھر تمام اجزاء کو ایک ساتھ رکھیں اور دریافت کریں کہ یہ واقعی کام نہیں کرتا ہے۔ میکانی گھوڑے کی طرح - نظریاتی طور پر یہ بنایا جا سکتا ہے، لیکن عملی طور پر یہ بیان کرنے کے لئے بہت پیچیدہ ہے. حتمی نتیجہ سیکڑوں (یا اس سے بھی ہزاروں) ہاتھ سے لکھے ہوئے قواعد ہیں۔ اور ایک بھی کام کرنے والا ماڈل نہیں۔

مشین لرننگ کی آمد کے ساتھ، ہم نے کسی خاص چیز کو پہچاننے کے لیے "دستی" اصولوں کا استعمال بند کر دیا۔ اس کے بجائے، ہم "یہ"، X کے ایک ہزار نمونے لیتے ہیں، "دوسرے"، Y کے ایک ہزار نمونے لیتے ہیں، اور کمپیوٹر کو ان کے شماریاتی تجزیہ کی بنیاد پر ایک ماڈل بنانے کو کہا جاتا ہے۔ پھر ہم اس ماڈل کو کچھ نمونہ ڈیٹا دیتے ہیں اور یہ کچھ درستگی کے ساتھ طے کرتا ہے کہ آیا یہ سیٹوں میں سے کسی ایک پر فٹ بیٹھتا ہے۔ مشین لرننگ ڈیٹا سے ماڈل تیار کرتی ہے بجائے اس کے کہ انسان اسے لکھے۔ نتائج متاثر کن ہیں، خاص طور پر تصویر اور پیٹرن کی شناخت کے شعبے میں، اور یہی وجہ ہے کہ پوری ٹیک انڈسٹری اب مشین لرننگ (ML) کی طرف بڑھ رہی ہے۔

لیکن یہ اتنا آسان نہیں ہے۔ حقیقی دنیا میں، آپ کی X یا Y کی ہزاروں مثالوں میں A, B, J, L, O, R، اور یہاں تک کہ L بھی شامل ہیں۔ یہ یکساں طور پر تقسیم نہیں ہو سکتے ہیں، اور کچھ اتنی کثرت سے ہو سکتی ہیں کہ سسٹم زیادہ ادائیگی کرے گا۔ ان چیزوں پر توجہ دیں جو آپ کی دلچسپی رکھتے ہیں۔

عملی طور پر اس کا کیا مطلب ہے؟ میری پسندیدہ مثال ہے جب تصویر کی شناخت کے نظام ایک گھاس والی پہاڑی کو دیکھو اور کہو، "بھیڑ". یہ واضح ہے کہ کیوں: "بھیڑوں" کی زیادہ تر مثالی تصویریں گھاس کے میدانوں میں لی گئی ہیں جہاں وہ رہتی ہیں، اور ان تصاویر میں گھاس چھوٹی سفید فلفوں سے کہیں زیادہ جگہ لیتی ہے، اور یہ وہ گھاس ہے جسے نظام سب سے اہم سمجھتا ہے۔ .

اس سے بھی زیادہ سنگین مثالیں ہیں۔ ایک حالیہ منصوبے تصویروں میں جلد کے کینسر کا پتہ لگانے کے لیے۔ یہ پتہ چلا کہ ڈرمیٹولوجسٹ اکثر فارمیشنوں کے سائز کو ریکارڈ کرنے کے لئے جلد کے کینسر کی علامات کے ساتھ حکمران کی تصویر بناتے ہیں۔ صحت مند جلد کی مثال کی تصاویر میں کوئی حکمران نہیں ہیں۔ AI نظام کے لیے، ایسے حکمران (زیادہ واضح طور پر، پکسلز جنہیں ہم "حکمران" کے طور پر بیان کرتے ہیں) مثالوں کے مجموعوں کے درمیان فرق میں سے ایک بن گئے ہیں، اور بعض اوقات جلد پر چھوٹے دھبے سے بھی زیادہ اہم ہوتے ہیں۔ لہذا جلد کے کینسر کی شناخت کے لئے بنایا گیا نظام بعض اوقات حکمرانوں کو تسلیم کرتا ہے۔

یہاں کلیدی نکتہ یہ ہے کہ نظام کو اس کی کوئی معنوی سمجھ نہیں ہے کہ وہ کیا دیکھ رہا ہے۔ ہم پکسلز کے ایک سیٹ کو دیکھتے ہیں اور ان میں ایک بھیڑ، کھال یا حکمران دیکھتے ہیں، لیکن نظام صرف ایک عدد لائن ہے۔ وہ تین جہتی جگہ نہیں دیکھتی ہے، اشیاء، ساخت یا بھیڑ نہیں دیکھتی ہے۔ وہ صرف ڈیٹا میں پیٹرن دیکھتی ہے۔

اس طرح کے مسائل کی تشخیص میں مشکل یہ ہے کہ نیورل نیٹ ورک (آپ کے مشین لرننگ سسٹم کے ذریعہ تیار کردہ ماڈل) ہزاروں، سیکڑوں ہزاروں نوڈس پر مشتمل ہوتا ہے۔ کسی ماڈل کو دیکھنے اور یہ دیکھنے کا کوئی آسان طریقہ نہیں ہے کہ یہ کیسے فیصلہ کرتا ہے۔ اس طرح کے ہونے کا مطلب یہ ہوگا کہ یہ عمل اتنا آسان ہے کہ مشین لرننگ کا استعمال کیے بغیر تمام اصولوں کو دستی طور پر بیان کیا جا سکے۔ لوگ پریشان ہیں کہ مشین لرننگ ایک بلیک باکس بن گئی ہے۔ (میں تھوڑی دیر بعد وضاحت کروں گا کہ یہ موازنہ اب بھی بہت زیادہ کیوں ہے۔)

یہ، عام اصطلاحات میں، مصنوعی ذہانت یا مشین لرننگ میں تعصب کا مسئلہ ہے: ڈیٹا میں پیٹرن تلاش کرنے کا نظام غلط پیٹرن تلاش کرسکتا ہے، اور ہوسکتا ہے کہ آپ اسے محسوس نہ کریں۔ یہ ٹیکنالوجی کی ایک بنیادی خصوصیت ہے، اور یہ ہر ایک کے لیے واضح ہے جو اس کے ساتھ اکیڈمی اور بڑی ٹیک کمپنیوں میں کام کرتا ہے۔ لیکن اس کے نتائج پیچیدہ ہیں، اور اسی طرح ان نتائج کے لیے ہمارے ممکنہ حل بھی ہیں۔

آئیے پہلے اس کے نتائج کی بات کرتے ہیں۔

مصنوعی ذہانت کے تعصب کے بارے میں
AI، واضح طور پر ہمارے لیے، لوگوں کی کچھ اقسام کے حق میں انتخاب کر سکتا ہے، بڑی تعداد میں ناقابل تصور سگنلز کی بنیاد پر

AI تعصب کے منظرنامے۔

سب سے زیادہ واضح اور خوفناک طور پر، یہ مسئلہ خود کو ظاہر کر سکتا ہے جب یہ انسانی تنوع کے ساتھ آتا ہے. حال ہی میں ایک افواہ تھیکہ ایمیزون نے نوکری کے امیدواروں کی ابتدائی اسکریننگ کے لیے مشین لرننگ سسٹم بنانے کی کوشش کی۔ چونکہ ایمیزون کے کارکنوں میں زیادہ مرد ہیں، اس لیے "کامیاب بھرتی" کی مثالیں بھی زیادہ تر مرد ہیں، اور نظام کی طرف سے تجویز کردہ ریزیوموں کے انتخاب میں زیادہ مرد تھے۔ ایمیزون نے اسے دیکھا اور اس نے سسٹم کو پروڈکشن میں جاری نہیں کیا۔

اس مثال میں سب سے اہم بات یہ ہے کہ سسٹم میں مرد درخواست دہندگان کے حق میں افواہ پھیلائی گئی تھی، اس حقیقت کے باوجود کہ ریزیومے میں جنس کی وضاحت نہیں کی گئی تھی۔ نظام نے "اچھے کاموں" کی مثالوں میں دوسرے نمونے دیکھے: مثال کے طور پر، خواتین کامیابیوں کو بیان کرنے کے لیے خاص الفاظ استعمال کر سکتی ہیں، یا خاص مشاغل رکھتی ہیں۔ بلاشبہ، نظام نہیں جانتا تھا کہ "ہاکی" کیا ہے، یا "لوگ" کون ہیں، یا "کامیابی" کیا ہے - اس نے محض متن کا شماریاتی تجزیہ کیا۔ لیکن اس نے جو نمونے دیکھے وہ غالباً انسانوں کے دھیان میں نہیں رہے گا، اور ان میں سے کچھ (مثال کے طور پر، یہ حقیقت کہ مختلف جنس کے لوگ کامیابی کو مختلف طریقے سے بیان کرتے ہیں) شاید ہمارے لیے یہ دیکھنا مشکل ہو جائے گا کہ اگر ہم ان کو دیکھیں۔

مزید - بدتر. ایک مشین لرننگ سسٹم جو کہ پیلی جلد پر کینسر کو تلاش کرنے میں بہت اچھا ہے، ہو سکتا ہے کہ سیاہ جلد پر اچھی کارکردگی نہ دکھا سکے، یا اس کے برعکس۔ ضروری نہیں کہ تعصب کی وجہ سے ہو، بلکہ اس لیے کہ آپ کو مختلف خصوصیات کا انتخاب کرتے ہوئے، جلد کے مختلف رنگ کے لیے ایک الگ ماڈل بنانے کی ضرورت ہے۔ تصویر کی شناخت جیسے تنگ علاقے میں بھی مشین لرننگ سسٹمز قابل تبادلہ نہیں ہیں۔ آپ کو سسٹم کو موافقت کرنے کی ضرورت ہوتی ہے، بعض اوقات صرف آزمائش اور غلطی کے ذریعے، ڈیٹا میں ان خصوصیات کو اچھی طرح سے ہینڈل کرنے کے لیے جس میں آپ دلچسپی رکھتے ہیں جب تک کہ آپ اپنی مطلوبہ درستگی حاصل نہ کر لیں۔ لیکن جس چیز کو آپ محسوس نہیں کر سکتے ہیں وہ یہ ہے کہ سسٹم ایک گروپ کے ساتھ 98٪ وقت درست ہوتا ہے، اور دوسرے گروپ کے ساتھ صرف 91٪ (چاہے انسانی تجزیہ سے زیادہ درست ہو)۔

اب تک میں نے بنیادی طور پر لوگوں اور ان کی خصوصیات سے متعلق مثالیں استعمال کی ہیں۔ اس مسئلے کے گرد بحث بنیادی طور پر اس موضوع پر مرکوز ہے۔ لیکن یہ سمجھنا ضروری ہے کہ لوگوں کے ساتھ تعصب مسئلے کا صرف ایک حصہ ہے۔ ہم بہت سی چیزوں کے لیے مشین لرننگ کا استعمال کریں گے، اور نمونے لینے کی غلطی ان سب سے متعلق ہوگی۔ دوسری طرف، اگر آپ لوگوں کے ساتھ کام کرتے ہیں، تو ہو سکتا ہے کہ ڈیٹا میں تعصب ان سے متعلق نہ ہو۔

اس کو سمجھنے کے لیے، آئیے جلد کے کینسر کی مثال پر واپس آتے ہیں اور نظام کی ناکامی کے تین فرضی امکانات پر غور کرتے ہیں۔

  1. لوگوں کی متفاوت تقسیم: جلد کے مختلف رنگوں کی تصاویر کی ایک غیر متوازن تعداد، جو رنگت کی وجہ سے غلط مثبت یا غلط منفی کا باعث بنتی ہے۔
  2. وہ ڈیٹا جس پر سسٹم کو تربیت دی جاتی ہے اس میں ایک کثرت سے ہونے والی اور متضاد طور پر تقسیم کی جانے والی خصوصیت ہوتی ہے جو لوگوں سے وابستہ نہیں ہوتی ہے اور اس کی کوئی تشخیصی قدر نہیں ہوتی ہے: جلد کے کینسر کی تصویروں میں ایک حکمران یا بھیڑوں کی تصویروں میں گھاس۔ اس صورت میں، نتیجہ مختلف ہو گا اگر سسٹم کو کسی ایسی چیز کی تصویر میں پکسلز ملیں جسے انسانی آنکھ "حکمران" کے طور پر شناخت کرتی ہے۔
  3. ڈیٹا میں فریق ثالث کی خصوصیت ہوتی ہے جسے کوئی شخص ڈھونڈنے کے باوجود نہیں دیکھ سکتا۔

اس کا کیا مطلب ہے؟ ہم ایک ترجیح جانتے ہیں کہ ڈیٹا لوگوں کے مختلف گروہوں کی مختلف طریقے سے نمائندگی کر سکتا ہے، اور کم از کم ہم ایسے استثناء کو تلاش کرنے کا منصوبہ بنا سکتے ہیں۔ دوسرے لفظوں میں، یہ فرض کرنے کی بہت ساری سماجی وجوہات ہیں کہ لوگوں کے گروپوں کے ڈیٹا میں پہلے سے ہی کچھ تعصب موجود ہے۔ اگر ہم حکمران کے ساتھ تصویر دیکھیں تو ہمیں یہ حکمران نظر آئے گا - ہم نے اسے پہلے نظر انداز کر دیا، یہ جانتے ہوئے کہ اس سے کوئی فرق نہیں پڑتا، اور یہ بھول گئے کہ نظام کو کچھ پتہ نہیں ہے۔

لیکن کیا ہوگا اگر آپ کی غیر صحت مند جلد کی تمام تصاویر تاپدیپت روشنی کے نیچے کسی دفتر میں لی گئیں اور آپ کی صحت مند جلد فلوروسینٹ لائٹ کے تحت لی گئی؟ کیا ہوگا اگر، صحت مند جلد کی شوٹنگ مکمل کرنے کے بعد، غیر صحت مند جلد کی شوٹنگ سے پہلے، آپ نے اپنے فون پر آپریٹنگ سسٹم کو اپ ڈیٹ کیا، اور ایپل یا گوگل نے شور کو کم کرنے کے الگورتھم کو قدرے تبدیل کیا؟ کوئی شخص اس کو محسوس نہیں کرسکتا، چاہے وہ اس طرح کی خصوصیات کو کتنا ہی تلاش کرے۔ لیکن مشین کے استعمال کا نظام اسے فوری طور پر دیکھے گا اور استعمال کرے گا۔ وہ کچھ نہیں جانتی۔

ابھی تک ہم نے جعلی ارتباط کے بارے میں بات کی ہے، لیکن یہ بھی ہو سکتا ہے کہ ڈیٹا درست ہو اور نتائج درست ہوں، لیکن آپ انہیں اخلاقی، قانونی یا انتظامی وجوہات کی بنا پر استعمال نہیں کرنا چاہتے۔ کچھ دائرہ اختیار، مثال کے طور پر، خواتین کو ان کی انشورنس پر رعایت حاصل کرنے کی اجازت نہیں دیتے، حالانکہ خواتین زیادہ محفوظ ڈرائیور ہو سکتی ہیں۔ ہم آسانی سے ایک ایسے نظام کا تصور کر سکتے ہیں جو، تاریخی ڈیٹا کا تجزیہ کرتے وقت، خواتین کے ناموں کو کم خطرے کا عنصر تفویض کرے گا۔ ٹھیک ہے، آئیے انتخاب سے نام ہٹاتے ہیں۔ لیکن ایمیزون کی مثال کو یاد رکھیں: نظام دیگر عوامل کی بنیاد پر جنس کا تعین کر سکتا ہے (حالانکہ یہ نہیں جانتا کہ جنس کیا ہے، یا کار کیا ہے)، اور آپ کو اس وقت تک اس بات کا نوٹس نہیں آئے گا جب تک کہ ریگولیٹر آپ کے محصولات کا سابقہ ​​طور پر تجزیہ نہ کرے۔ پیشکش اور چارجز آپ پر جرمانہ عائد کیا جائے گا۔

آخر میں، یہ اکثر فرض کیا جاتا ہے کہ ہم ایسے نظاموں کو صرف ان منصوبوں کے لیے استعمال کریں گے جن میں لوگوں اور سماجی تعاملات شامل ہوں۔ یہ غلط ہے. اگر آپ گیس ٹربائن بناتے ہیں، تو آپ شاید اپنی مصنوعات پر دسیوں یا سینکڑوں سینسروں کے ذریعے منتقل ہونے والی ٹیلی میٹری پر مشین لرننگ لاگو کرنا چاہیں گے (آڈیو، ویڈیو، درجہ حرارت، اور کوئی بھی دوسرے سینسر ڈیٹا تیار کرتے ہیں جسے مشین بنانے کے لیے بہت آسانی سے ڈھال لیا جا سکتا ہے۔ سیکھنے کا ماڈل)۔ فرضی طور پر، آپ کہہ سکتے ہیں، "یہ ایک ہزار ٹربائنوں کا ڈیٹا ہے جو ناکام ہونے سے پہلے ناکام ہو گیا، اور یہاں ایک ہزار ٹربائنوں کا ڈیٹا ہے جو ناکام نہیں ہوئے۔ یہ بتانے کے لیے ایک ماڈل بنائیں کہ ان میں کیا فرق ہے۔ ٹھیک ہے، اب تصور کریں کہ سیمنز کے سینسر 75% خراب ٹربائنز پر نصب ہیں، اور صرف 12% اچھی ٹربائنز (ناکامیوں سے کوئی تعلق نہیں ہے)۔ یہ نظام سیمنز سینسر کے ساتھ ٹربائنز تلاش کرنے کے لیے ایک ماڈل بنائے گا۔ افوہ!

مصنوعی ذہانت کے تعصب کے بارے میں
تصویر - مورٹز ہارڈ، یو سی برکلے

AI تعصب کا انتظام

ہم اس کے بارے میں کیا کر سکتے ہیں؟ آپ اس مسئلے کو تین زاویوں سے دیکھ سکتے ہیں:

  1. نظام کی تربیت کے لیے ڈیٹا اکٹھا کرنے اور ان کے انتظام میں طریقہ کار کی سختی۔
  2. ماڈل رویے کا تجزیہ اور تشخیص کرنے کے لیے تکنیکی ٹولز۔
  3. پروڈکٹس میں مشین لرننگ کو لاگو کرتے وقت تربیت دیں، تعلیم دیں اور محتاط رہیں۔

Molière کی کتاب "The Bourgeois in the Nobility" میں ایک لطیفہ ہے: ایک آدمی کو بتایا گیا کہ ادب کو نثر اور شاعری میں تقسیم کیا گیا ہے، اور اسے یہ جان کر خوشی ہوئی کہ وہ ساری زندگی نثر میں بولتا رہا، یہ جانے بغیر۔ آج کل شماریات دان شاید ایسا ہی محسوس کرتے ہیں: اس کا ادراک کیے بغیر، انہوں نے اپنے کیریئر کو مصنوعی ذہانت اور نمونے لینے کی غلطی کے لیے وقف کر دیا ہے۔ نمونے لینے کی غلطی تلاش کرنا اور اس کے بارے میں فکر کرنا کوئی نیا مسئلہ نہیں ہے، ہمیں صرف اس کے حل تک منظم طریقے سے رجوع کرنے کی ضرورت ہے۔ جیسا کہ اوپر بتایا گیا ہے، کچھ معاملات میں لوگوں کے ڈیٹا سے متعلق مسائل کا مطالعہ کرکے ایسا کرنا درحقیقت آسان ہے۔ ہم ترجیحی طور پر فرض کرتے ہیں کہ لوگوں کے مختلف گروہوں کے بارے میں ہمارے پاس تعصبات ہوسکتے ہیں، لیکن ہمارے لیے سیمنز سینسر کے بارے میں تعصب کا تصور کرنا بھی مشکل ہے۔

اس سب کے بارے میں نئی ​​بات یہ ہے کہ لوگ اب براہ راست شماریاتی تجزیہ نہیں کرتے۔ یہ مشینوں کے ذریعہ انجام دیا جاتا ہے جو بڑے، پیچیدہ ماڈل بناتے ہیں جن کو سمجھنا مشکل ہے۔ شفافیت کا مسئلہ تعصب کے مسئلے کے اہم پہلوؤں میں سے ایک ہے۔ ہمیں خدشہ ہے کہ نظام صرف متعصب نہیں ہے، بلکہ یہ کہ اس کے تعصب کا پتہ لگانے کا کوئی طریقہ نہیں ہے، اور مشین لرننگ آٹومیشن کی دوسری شکلوں سے مختلف ہے، جس کے بارے میں سمجھا جاتا ہے کہ وہ واضح منطقی اقدامات پر مشتمل ہیں جن کی جانچ کی جا سکتی ہے۔

یہاں دو مسائل ہیں۔ ہم اب بھی مشین لرننگ سسٹم کا کسی قسم کا آڈٹ کرنے کے قابل ہو سکتے ہیں۔ اور کسی دوسرے نظام کا آڈٹ کرنا درحقیقت کوئی آسان کام نہیں ہے۔

سب سے پہلے، مشین لرننگ کے میدان میں جدید تحقیق کی سمتوں میں سے ایک مشین لرننگ سسٹم کی اہم فعالیت کی نشاندہی کرنے کے طریقوں کی تلاش ہے۔ اس نے کہا، مشین لرننگ (اپنی موجودہ حالت میں) سائنس کا ایک بالکل نیا شعبہ ہے جو تیزی سے تبدیل ہو رہا ہے، اس لیے یہ نہ سوچیں کہ جو چیزیں آج ناممکن ہیں وہ جلد ہی حقیقت میں تبدیل نہیں ہو سکتیں۔ پروجیکٹ اوپنائی - اس کی ایک دلچسپ مثال۔

دوسرا، یہ خیال کہ آپ موجودہ نظاموں یا تنظیموں کے فیصلہ سازی کے عمل کو جانچ اور سمجھ سکتے ہیں، نظریہ میں اچھا ہے، لیکن عملی طور پر ایسا ہی ہے۔ یہ سمجھنا کہ ایک بڑی تنظیم میں فیصلے کیسے کیے جاتے ہیں آسان نہیں ہے۔ یہاں تک کہ اگر کوئی باضابطہ فیصلہ سازی کا عمل ہوتا ہے، تو یہ اس بات کی عکاسی نہیں کرتا کہ لوگ اصل میں کس طرح بات چیت کرتے ہیں، اور وہ خود اکثر اپنے فیصلے کرنے کے لیے منطقی، منظم انداز نہیں رکھتے ہیں۔ جیسا کہ میرے ساتھی نے کہا وجے پانڈے, لوگ بھی بلیک باکس ہیں۔.

کئی اوور لیپنگ کمپنیوں اور اداروں میں ایک ہزار افراد کو لے لیں، اور مسئلہ اور بھی پیچیدہ ہو جاتا ہے۔ ہم اس حقیقت کے بعد جانتے ہیں کہ خلائی شٹل واپسی پر ٹوٹ جانا تھا، اور ناسا کے اندر موجود افراد کے پاس ایسی معلومات تھیں جو انہیں یہ سوچنے کی وجہ دیتی تھیں کہ کچھ برا ہو سکتا ہے، لیکن نظام عام طور پر میں یہ نہیں جانتا تھا۔ NASA نے بھی اپنی پچھلی شٹل کھونے کے بعد اسی طرح کا ایک آڈٹ پاس کیا تھا، اور پھر بھی اسی طرح کی وجہ سے اس نے ایک اور کھو دیا۔ یہ بحث کرنا آسان ہے کہ تنظیمیں اور لوگ واضح، منطقی اصولوں کی پیروی کرتے ہیں جنہیں جانچا، سمجھا اور تبدیل کیا جا سکتا ہے — لیکن تجربہ اس کے برعکس ثابت ہوتا ہے۔ یہ "گوسپلان کا وہم'.

میں اکثر مشین لرننگ کا موازنہ ڈیٹا بیس سے کرتا ہوں، خاص طور پر رشتہ داروں سے - ایک نئی بنیادی ٹیکنالوجی جس نے کمپیوٹر سائنس اور اس کے آس پاس کی دنیا کی صلاحیتوں کو تبدیل کر دیا ہے، جو ہر چیز کا حصہ بن گئی ہے، جس کا ہم احساس کیے بغیر مسلسل استعمال کرتے ہیں۔ ڈیٹا بیس میں بھی مسائل ہوتے ہیں، اور وہ بھی اسی نوعیت کے ہوتے ہیں: ہو سکتا ہے کہ سسٹم کو غلط مفروضوں یا خراب ڈیٹا پر بنایا گیا ہو، لیکن اس پر توجہ دینا مشکل ہو گا، اور سسٹم استعمال کرنے والے لوگ بغیر سوال پوچھے وہی کریں گے جو وہ بتائے گا۔ ٹیکس والے لوگوں کے بارے میں بہت سارے پرانے لطیفے ہیں جنہوں نے ایک بار آپ کے نام کو غلط لکھا تھا، اور انہیں غلطی کو درست کرنے پر راضی کرنا آپ کا نام تبدیل کرنے سے کہیں زیادہ مشکل ہے۔ اس کے بارے میں سوچنے کے بہت سے طریقے ہیں، لیکن یہ واضح نہیں ہے کہ کون سا بہتر ہے: ایس کیو ایل میں تکنیکی مسئلے کے طور پر، یا اوریکل ریلیز میں ایک بگ کے طور پر، یا بیوروکریٹک اداروں کی ناکامی کے طور پر؟ کسی ایسے عمل میں بگ تلاش کرنا کتنا مشکل ہے جس کی وجہ سے سسٹم میں ٹائپو کی اصلاح کی خصوصیت نہیں ہے؟ کیا لوگوں کی شکایت شروع کرنے سے پہلے اس کا اندازہ لگایا جا سکتا تھا؟

اس مسئلے کو کہانیوں کے ذریعے اور بھی آسان طریقے سے بیان کیا گیا ہے جب ڈرائیور نیویگیٹر میں پرانے ڈیٹا کی وجہ سے ندیوں میں گاڑی چلاتے ہیں۔ ٹھیک ہے، نقشوں کو مسلسل اپ ڈیٹ کرنے کی ضرورت ہے۔ لیکن آپ کی کار کو سمندر میں اڑا دینے کے لیے ٹام ٹام کا کتنا قصور ہے؟

میرے کہنے کی وجہ یہ ہے کہ ہاں، مشین لرننگ کا تعصب مسائل پیدا کرے گا۔ لیکن یہ مسائل ان سے ملتے جلتے ہوں گے جن کا ہم نے ماضی میں سامنا کیا ہے، اور ان کو دیکھا اور حل کیا جا سکتا ہے (یا نہیں) جیسا کہ ہم ماضی میں کر سکتے تھے۔ لہذا، ایک ایسا منظر جس میں AI تعصب نقصان کا باعث بنتا ہے، ایک بڑی تنظیم میں کام کرنے والے سینئر محققین کے ساتھ ہونے کا امکان نہیں ہے۔ زیادہ امکان ہے کہ، کچھ غیر معمولی ٹیکنالوجی کنٹریکٹر یا سافٹ ویئر فروش اپنے گھٹنوں کے بل کچھ لکھیں گے، اوپن سورس پرزوں، لائبریریوں اور ٹولز کا استعمال کرتے ہوئے جو وہ نہیں سمجھتے۔ اور بدقسمت کلائنٹ پروڈکٹ کی تفصیل میں "مصنوعی ذہانت" کا فقرہ خریدے گا اور بغیر کوئی سوال پوچھے اسے اپنے کم تنخواہ والے ملازمین میں تقسیم کر دے گا، انہیں حکم دے گا کہ وہ وہی کریں جو AI کہتا ہے۔ ڈیٹا بیس کے ساتھ بالکل ایسا ہی ہوا۔ یہ مصنوعی ذہانت کا مسئلہ نہیں ہے، یا سافٹ ویئر کا مسئلہ بھی نہیں ہے۔ یہ انسانی عنصر ہے۔

حاصل يہ ہوا

مشین لرننگ کچھ بھی کر سکتی ہے جو آپ کتے کو سکھا سکتے ہیں - لیکن آپ کبھی بھی اس بات کا یقین نہیں کر سکتے کہ آپ نے کتے کو کیا سکھایا ہے۔

مجھے اکثر ایسا لگتا ہے جیسے "مصنوعی ذہانت" کی اصطلاح صرف اس طرح کی گفتگو کے راستے میں آتی ہے۔ یہ اصطلاح غلط تاثر دیتی ہے کہ ہم نے اسے اصل میں بنایا ہے - یہ ذہانت۔ کہ ہم HAL9000 یا Skynet کے راستے پر ہیں - حقیقت میں کچھ سمجھتا ہے. لیکن نہیں. یہ صرف مشینیں ہیں، اور ان کا موازنہ واشنگ مشین سے کرنا زیادہ درست ہے۔ وہ لانڈری انسان سے بہت بہتر کرتی ہے، لیکن اگر آپ کپڑے دھونے کے بجائے اس میں برتن ڈالیں گے، تو وہ ان کو دھو دے گی۔ برتن بھی صاف ہو جائیں گے۔ لیکن ایسا نہیں ہوگا جس کی آپ کو توقع تھی، اور ایسا نہیں ہوگا کیونکہ نظام میں پکوان کے حوالے سے کوئی تعصب ہے۔ واشنگ مشین نہیں جانتی کہ پکوان کیا ہیں یا کپڑے کون سے ہیں - یہ صرف آٹومیشن کی ایک مثال ہے، تصوراتی طور پر اس سے مختلف نہیں کہ پہلے کیسے عمل خودکار ہوتے تھے۔

چاہے ہم کاروں، ہوائی جہازوں، یا ڈیٹا بیس کے بارے میں بات کر رہے ہوں، یہ نظام بہت طاقتور اور بہت محدود دونوں ہوں گے۔ وہ مکمل طور پر اس بات پر منحصر ہوں گے کہ لوگ ان نظاموں کو کس طرح استعمال کرتے ہیں، آیا ان کے ارادے اچھے ہیں یا برے، اور وہ کتنا سمجھتے ہیں کہ وہ کیسے کام کرتے ہیں۔

لہذا، یہ کہنا کہ "مصنوعی ذہانت ریاضی ہے، لہذا اس میں تعصب نہیں ہو سکتا" بالکل غلط ہے۔ لیکن یہ کہنا بھی اتنا ہی غلط ہے کہ مشین لرننگ "فطرت میں موضوعی" ہے۔ مشین لرننگ ڈیٹا میں پیٹرن تلاش کرتی ہے، اور اسے کون سے پیٹرن ملتے ہیں اس کا انحصار ڈیٹا پر ہے، اور ڈیٹا ہم پر منحصر ہے۔ جیسے ہم ان کے ساتھ کرتے ہیں۔ مشین لرننگ کچھ چیزیں ہم سے بہت بہتر کرتی ہے - لیکن کتے، مثال کے طور پر، منشیات کا پتہ لگانے میں انسانوں کے مقابلے میں بہت زیادہ مؤثر ہیں، جو انہیں بطور گواہ استعمال کرنے اور ان کی گواہی کی بنیاد پر فیصلے کرنے کی وجہ نہیں ہے۔ اور کتے، ویسے، کسی بھی مشین لرننگ سسٹم سے زیادہ ہوشیار ہوتے ہیں۔

ترجمہ: ڈیانا لیٹسکایا.
ترمیم: الیکسی ایوانوف.
برادری: @PonchikNews.

ماخذ: www.habr.com

نیا تبصرہ شامل کریں