مصنوعي ڄاڻ رکندڙ تعصب بابت

مصنوعي ڄاڻ رکندڙ تعصب بابت

tl؛ ڊاڪٽر:

  • مشين لرننگ ڊيٽا ۾ نمونن کي ڳولي ٿو. پر مصنوعي ذهانت ”متعصب“ ٿي سگهي ٿي - يعني اهي نمونا ڳوليو جيڪي غلط آهن. مثال طور، هڪ تصوير تي ٻڌل چمڙي جي ڪينسر جي سڃاڻپ جو نظام شايد خاص ڌيان ڏئي سگھي ٿو تصويرن تي جيڪو ڊاڪٽر جي آفيس ۾ ورتو ويو آهي. مشين سکيا نه ٿي سگهي سمجھو: ان جي الگورتھم صرف انگن ۾ نمونن جي نشاندهي ڪن ٿا، ۽ جيڪڏھن ڊيٽا نمائندو نه آھي، تنھنڪري ان جي پروسيسنگ جو نتيجو ٿيندو. ۽ اهڙين ڪيڙن کي پڪڙڻ مشڪل ٿي سگهي ٿو ڇاڪاڻ ته مشين سکيا جي تمام ميڪانيات جي ڪري.
  • سڀ کان وڌيڪ واضح ۽ مشڪل مسئلو علائقو انساني تنوع آهي. اهڙا ڪيترائي سبب آهن ڇو ته ماڻهن بابت ڊيٽا گڏ ڪرڻ واري اسٽيج تي به اعتراض وڃائي سگهي ٿي. پر اهو نه سوچيو ته هي مسئلو صرف ماڻهن کي متاثر ڪري ٿو: بلڪل ساڳيون مشڪلاتون پيدا ٿينديون آهن جڏهن گودام يا ناڪام گيس ٽربائن ۾ ٻوڏ کي ڳولڻ جي ڪوشش ڪئي وئي آهي. ڪجھ سسٽم چمڙي جي رنگ جي طرف متعصب ٿي سگھن ٿا، ٻيا سيمينس سينسر ڏانھن متعصب هوندا.
  • اهڙا مسئلا مشيني سکيا لاءِ نوان نه آهن، ۽ اهي ان کان منفرد آهن. ڪنهن به پيچيده ڍانچي ۾ غلط مفروضا ڪيا ويندا آهن، ۽ سمجھڻ ڇو ته هڪ خاص فيصلو ڪيو ويو هميشه ڏکيو آهي. اسان کي ان کي هڪ جامع طريقي سان وڙهڻو پوندو: تصديق لاءِ اوزار ۽ عمل ٺاهيو - ۽ صارفين کي تعليم ڏيو ته جيئن اهي AI سفارشن تي انڌو نه عمل ڪن. مشين لرننگ ڪجهه شيون اسان کان گهڻو بهتر ڪري ٿي - پر ڪتا، مثال طور، دوائن جي نشاندهي ڪرڻ ۾ انسانن کان تمام گهڻو اثرائتو آهن، جيڪو انهن کي شاهد طور استعمال ڪرڻ ۽ انهن جي گواهي جي بنياد تي فيصلو ڪرڻ جو سبب ناهي. ۽ ڪتا، رستي ۾، ڪنهن به مشين سکيا واري نظام کان تمام گهڻو هوشيار آهن.

مشين لرننگ اڄڪلهه سڀ کان اهم بنيادي ٽيڪنالاجي رجحانن مان هڪ آهي. هي هڪ اهم طريقو آهي جنهن ۾ ٽيڪنالاجي ايندڙ ڏهاڪي ۾ اسان جي چوڌاري دنيا کي تبديل ڪندي. انهن تبديلين جا ڪجهه حصا ڳڻتي جو سبب آهن. مثال طور، مزدور مارڪيٽ تي مشين سکيا جو امڪاني اثر، يا غير اخلاقي مقصدن لاء ان جو استعمال (مثال طور، آمريتي حڪومتن طرفان). هتي هڪ ٻيو مسئلو آهي جيڪو هن پوسٽ کي حل ڪري ٿو: مصنوعي ڄاڻ رکندڙ تعصب.

هي هڪ آسان ڪهاڻي نه آهي.

مصنوعي ڄاڻ رکندڙ تعصب بابت
گوگل جي AI ٻليون ڳولي سگهي ٿي. 2012 جي اها خبر ان وقت ڪجهه خاص هئي.

"AI Bias" ڇا آهي؟

"خام ڊيٽا" ٻئي هڪ آڪسيمورون ۽ هڪ خراب خيال آهي؛ ڊيٽا کي چڱي طرح ۽ احتياط سان تيار ڪيو وڃي. - جيفري بوڪر

2013 کان اڳ ڪٿي، هڪ سسٽم ٺاهڻ لاء، چون ٿا، تصويرن ۾ ٻلين کي سڃاڻي، توهان کي منطقي قدمن کي بيان ڪرڻو پوندو. تصوير ۾ ڪنڊن کي ڪيئن ڳولھيو، اکين کي سڃاڻو، فر جي بناوتن جو تجزيو ڪريو، پنن کي ڳڻيو، وغيره. پوءِ سڀني حصن کي گڏ ڪريو ۽ دريافت ڪريو ته اهو واقعي ڪم نٿو ڪري. گهڻو ڪري هڪ مشيني گهوڙي وانگر - نظرياتي طور تي اهو ٿي سگهي ٿو، پر عملي طور تي اهو بيان ڪرڻ تمام پيچيده آهي. آخر نتيجو آهي سوين (يا هزارين) هٿ سان لکيل ضابطن. ۽ ھڪڙو ڪم ڪندڙ ماڊل نه آھي.

مشين لرننگ جي اچڻ سان، اسان ڪنهن خاص شئي کي سڃاڻڻ لاءِ ”دستي“ ضابطا استعمال ڪرڻ بند ڪري ڇڏيا. ان جي بدران، اسان "هي"، X، "ٻين"، Y جا هڪ هزار نمونا وٺون ٿا، ۽ ڪمپيوٽر کي انهن جي شمارياتي تجزيي جي بنياد تي هڪ ماڊل ٺاهيو آهي. ان کان پوء اسان هن ماڊل کي ڪجهه نموني ڊيٽا ڏيون ٿا ۽ اهو ڪجهه درستگي سان طئي ڪري ٿو ته ڇا اهو سيٽن مان هڪ آهي. مشين لرننگ ڊيٽا مان هڪ ماڊل ٺاهي ٿي بلڪه انسان جي لکڻ کان. نتيجا متاثر ڪندڙ آهن، خاص طور تي تصوير ۽ نمونن جي سڃاڻپ جي ميدان ۾، ۽ اهو ئي سبب آهي ته سڄي ٽيڪنالاجي صنعت هاڻي مشين سکيا (ML) ڏانهن منتقل ٿي رهي آهي.

پر اهو ايترو سادو ناهي. حقيقي دنيا ۾، توهان جي X يا Y جي هزارين مثالن ۾ A, B, J, L, O, R ۽ حتي L به شامل آهن. اهي شايد هڪجهڙائي سان ورهايل نه هجن، ۽ ڪجهه اهڙا واقعا ٿي سگهن ٿا جو سسٽم وڌيڪ ادا ڪندو. انهن شين ڏانهن ڌيان ڏيو جيڪي توهان جي دلچسپي رکن ٿا.

هن عمل ۾ ڇا مطلب آهي؟ منهنجو پسنديده مثال آهي جڏهن تصوير جي سڃاڻپ سسٽم گھاس واري ٽڪريءَ کي ڏسو ۽ چئو، ”رڍ“. اهو واضح آهي ته ڇو: "رڍن" جون تصويرون اڪثر ڪري گاهه جي ميدانن ۾ ورتيون وينديون آهن جتي اهي رهن ٿا، ۽ انهن تصويرن ۾ گھاس ننڍڙن سفيد ڦڦڙن جي ڀيٽ ۾ تمام گهڻو جاء وٺندو آهي، ۽ اهو اهو گھاس آهي جنهن کي سسٽم سڀ کان اهم سمجهي ٿو. .

وڌيڪ سنجيده مثال آهن. ھڪڙو تازو پروجيڪٽ تصويرن ۾ چمڙي جي سرطان کي ڳولڻ لاء. اهو ظاهر ٿيو ته ڊرماتولوجسٽ اڪثر ڪري حڪمران جي تصويرن سان گڏ چمڙي جي ڪينسر جي ظاهري شڪلن جي شڪل کي رڪارڊ ڪرڻ لاء. صحتمند چمڙي جي تصويرن جي مثالن ۾ ڪو به حڪمران نه آهن. AI سسٽم لاءِ، اهڙن حڪمرانن (وڌيڪ واضح طور تي، پکسلز جن کي اسان "حڪمران" طور بيان ڪريون ٿا) مثالن جي سيٽن جي وچ ۾ فرقن مان هڪ بڻجي ويا آهن، ۽ ڪڏهن ڪڏهن چمڙي تي ننڍڙي ريش کان وڌيڪ اهم آهن. تنهنڪري چمڙي جي ڪينسر کي سڃاڻڻ لاءِ ٺهيل هڪ نظام ڪڏهن ڪڏهن حڪمرانن جي بدران تسليم ڪيو.

هتي اهم نقطو اهو آهي ته سسٽم کي ڪا به سمجهه نه آهي ته اهو ڇا ڏسي رهيو آهي. اسان عڪسن جي هڪ سيٽ کي ڏسون ٿا ۽ انهن ۾ هڪ رڍ، چمڙي يا حڪمران ڏسون ٿا، پر سسٽم صرف هڪ نمبر لائن آهي. هوءَ نه ڏسي ٿي ٽي-dimensional خلا، نه ڏسي ٿي شيون، بناوت، يا رڍون. هوءَ صرف ڊيٽا ۾ نمونن کي ڏسي ٿي.

اهڙن مسئلن جي تشخيص ڪرڻ ۾ مشڪل اها آهي ته نيورل نيٽ ورڪ (توهان جي مشين لرننگ سسٽم پاران ٺاهيل ماڊل) هزارين نوڊس تي مشتمل آهي. ماڊل کي ڏسڻ جو ڪو آسان طريقو ناهي ۽ ڏسو ته اهو ڪيئن فيصلو ڪري ٿو. اهڙي طريقي سان هئڻ جو مطلب اهو هوندو ته اهو عمل ڪافي سادو آهي ته جيئن سڀني قاعدن کي دستي طور تي بيان ڪري سگهجي، بغير ڪنهن مشين جي سکيا جي. ماڻهو پريشان آهن ته مشين سکيا هڪ بليڪ باڪس جي شيءِ بڻجي وئي آهي. (مان ٿوري دير بعد وضاحت ڪندس ڇو ته هي مقابلو اڃا تمام گهڻو آهي.)

هي، عام اصطلاحن ۾، مصنوعي ذهانت يا مشين لرننگ ۾ تعصب جو مسئلو آهي: ڊيٽا ۾ نمونن کي ڳولڻ لاءِ هڪ سسٽم غلط نمونن کي ڳولي سگهي ٿو، ۽ توهان شايد ان کي نوٽيس نه ڪيو. اها ٽيڪنالاجي جي هڪ بنيادي خصوصيت آهي، ۽ اهو هر ڪنهن لاءِ واضح آهي جيڪو ان سان گڏ ڪم ڪري ٿو اڪيڊمي ۽ وڏين ٽيڪنالاجي ڪمپنين ۾. پر ان جا نتيجا پيچيده آهن، ۽ ائين ئي انهن نتيجن لاءِ اسان جا ممڪن حل آهن.

اچو ته پهرين نتيجن جي باري ۾ ڳالهايون.

مصنوعي ڄاڻ رکندڙ تعصب بابت
AI، واضح طور تي اسان لاءِ، ماڻهن جي ڪجهه قسمن جي حق ۾ چونڊ ڪري سگھي ٿو، وڏي تعداد ۾ ناقابل قبول سگنلن جي بنياد تي

AI تعصب جا منظرنامو

سڀ کان وڌيڪ واضح ۽ خوفناڪ طور تي، اهو مسئلو پاڻ کي ظاهر ڪري سگهي ٿو جڏهن اهو انساني تنوع ۾ اچي ٿو. تازو اتي هڪ افواه هئيته Amazon نوڪري جي اميدوارن جي شروعاتي اسڪريننگ لاءِ مشين لرننگ سسٽم ٺاهڻ جي ڪوشش ڪئي. جيئن ته Amazon جي ڪارڪنن ۾ وڌيڪ مرد آهن، "ڪامياب نوڪرين" جا مثال پڻ گهڻو ڪري مرد آهن، ۽ سسٽم طرفان تجويز ڪيل ريزوم جي چونڊ ۾ وڌيڪ مرد هئا. Amazon هن کي محسوس ڪيو ۽ سسٽم کي پيداوار ۾ نه ڇڏيو.

هن مثال ۾ سڀ کان اهم شيء اها آهي ته سسٽم مرد درخواست ڏيندڙن جي حق ۾ افواهون هئي، ان حقيقت جي باوجود ته جنس جي شروعات تي وضاحت نه ڪئي وئي هئي. سسٽم ٻين نمونن کي "سٺو نوڪرين" جي مثالن ۾ ڏٺو: مثال طور، عورتون خاص لفظ استعمال ڪري سگھن ٿيون ڪاميابين کي بيان ڪرڻ لاء، يا خاص شوق آهن. يقينن، سسٽم کي خبر ناهي ته "هاڪي" ڇا هو، يا ڪير "ماڻهو" هئا، يا ڇا "ڪاميابي" هئي - اهو صرف متن جي شمارياتي تجزيو ڪيو. پر هن جيڪي نمونا ڏٺا اهي گهڻو ڪري انسانن جي نظر ۾ نه ايندا، ۽ انهن مان ڪجهه (مثال طور، حقيقت اها آهي ته مختلف صنفن جا ماڻهو ڪاميابيءَ کي مختلف طرح سان بيان ڪن ٿا) شايد اسان لاءِ اهو ڏسڻ مشڪل هوندو ته جيتوڻيڪ اسان انهن تي نظر وجهون.

وڌيڪ - بدتر. هڪ مشين لرننگ سسٽم جيڪو پيلي چمڙي تي ڪينسر ڳولڻ ۾ تمام سٺو آهي شايد ڪارائتو چمڙي تي سٺو ڪم نٿو ڪري، يا ان جي برعڪس. ضروري ناهي ته تعصب جي ڪري، پر ڇاڪاڻ ته توهان کي شايد هڪ الڳ ماڊل ٺاهڻ جي ضرورت آهي مختلف چمڙي جي رنگ لاء، مختلف خاصيتون چونڊڻ. مشين لرننگ سسٽم هڪ اهڙي تنگ علائقي ۾ به مٽائي نه سگهندا آهن جيئن تصوير جي سڃاڻپ. توهان کي سسٽم کي ٽائيڪ ڪرڻ جي ضرورت آهي، ڪڏهن ڪڏهن صرف آزمائشي ۽ غلطي جي ذريعي، ڊيٽا جي خاصيتن تي سٺو هينڊل حاصل ڪرڻ لاءِ جنهن ۾ توهان دلچسپي رکو ٿا جيستائين توهان حاصل ڪرڻ چاهيو ٿا. پر جيڪو توهان نوٽيس نه ڪيو اهو آهي ته سسٽم صحيح آهي 98٪ وقت جو هڪ گروپ سان، ۽ صرف 91٪ (انساني تجزيي کان به وڌيڪ صحيح) ٻئي سان.

هينئر تائين مون خاص طور ماڻهن ۽ انهن جي خاصيتن سان لاڳاپيل مثال استعمال ڪيا آهن. هن مسئلي جي چوڌاري بحث گهڻو ڪري هن موضوع تي ڌيان ڏئي ٿو. پر اهو سمجهڻ ضروري آهي ته ماڻهن ڏانهن تعصب صرف مسئلي جو حصو آهي. اسان ڪيترن ئي شين لاءِ مشين لرننگ استعمال ڪنداسين، ۽ نموني جي غلطي انهن سڀني سان لاڳاپيل هوندي. ٻئي طرف، جيڪڏهن توهان ماڻهن سان ڪم ڪريو ٿا، ڊيٽا ۾ تعصب شايد انهن سان لاڳاپيل نه هجي.

ھن کي سمجھڻ لاء، اچو ته چمڙي جي ڪينسر جي مثال ڏانھن موٽون ۽ سسٽم جي ناڪامي لاء ٽن نظرياتي امڪانن تي غور ڪريو.

  1. ماڻهن جي متضاد تقسيم: مختلف چمڙي جي رنگن جي تصويرن جو هڪ غير متوازن تعداد، رنگن جي ڪري غلط مثبت يا غلط منفي طرف.
  2. ڊيٽا جنهن تي سسٽم کي تربيت ڏني وئي آهي، هڪ بار بار موجود آهي ۽ هيٽروجني طور تي ورهايل خاصيت آهي جيڪو ماڻهن سان لاڳاپيل ناهي ۽ نه ئي تشخيصي قدر آهي: چمڙي جي ڪينسر جي تصويرن ۾ هڪ حڪمران يا رڍن جي تصويرن ۾ گھاس. انهي صورت ۾، نتيجو مختلف ٿيندو جيڪڏهن سسٽم ڪنهن شيء جي تصوير ۾ پکسلز ڳولي ٿو ته انساني اکين کي "حڪمران" طور سڃاتو وڃي ٿو.
  3. ڊيٽا هڪ ٽئين پارٽي جي خاصيت تي مشتمل آهي جيڪو هڪ شخص ڏسي نه ٿو سگهي جيتوڻيڪ هو ان کي ڳولي ٿو.

هن جو ڇا مطلب آهي؟ اسان کي اڳڀرائي ڄاڻون ٿا ته ڊيٽا مختلف ماڻهن جي مختلف گروهن جي نمائندگي ڪري سگهي ٿي، ۽ گهٽ ۾ گهٽ اسان اهڙن استثنان کي ڳولڻ جي منصوبابندي ڪري سگهون ٿا. ٻين لفظن ۾، ڪافي سماجي سبب آهن فرض ڪرڻ لاءِ ته ماڻهن جي گروپن بابت ڊيٽا اڳ ۾ ئي ڪجهه تعصب تي مشتمل آهي. جيڪڏهن اسان حڪمران سان گڏ فوٽو ڏسون ٿا، اسان کي اهو حڪمران نظر ايندو - اسان صرف ان کي نظر انداز ڪيو، اهو ڄاڻي ٿو ته اهو معاملو ناهي، ۽ اهو وساريو ته سسٽم کي ڪجهه به نه ڄاڻندو آهي.

پر ڇا جيڪڏهن توهان جي غير صحت مند چمڙي جون سڀئي تصويرون هڪ آفيس ۾ تاپديپت روشني هيٺ ورتيون ويون آهن، ۽ توهان جي صحتمند چمڙي فلورسنٽ روشني هيٺ ورتو ويو آهي؟ ڇا ٿيندو، جيڪڏهن توهان صحتمند چمڙي جي شوٽنگ ختم ڪرڻ کان پوءِ، غير صحت مند چمڙي جي شوٽنگ کان اڳ، توهان پنهنجي فون تي آپريٽنگ سسٽم کي اپڊيٽ ڪيو، ۽ ايپل يا گوگل شور گهٽائڻ الورورٿم کي ٿورو تبديل ڪيو؟ ڪو ماڻهو هن کي نوٽيس نٿو ڪري سگهي، ان کان سواء هن کي اهڙي خاصيتن لاء ڪيترو به نظر اچي ٿو. پر مشين جي استعمال جو نظام فوري طور تي ڏسندو ۽ استعمال ڪندو. هوءَ ڪجهه به نٿي ڄاڻي.

هن وقت تائين اسان ڪوڙي لاڳاپن بابت ڳالهايو آهي، پر اهو به ٿي سگهي ٿو ته ڊيٽا درست هجي ۽ نتيجا صحيح هجن، پر توهان انهن کي اخلاقي، قانوني يا انتظامي سببن لاءِ استعمال ڪرڻ نٿا چاهيو. مثال طور، ڪجهه عدالتون، عورتن کي اجازت نه ڏيندا آهن ته انهن جي انشورنس تي رعايت حاصل ڪن، جيتوڻيڪ عورتون محفوظ ڊرائيور ٿي سگهن ٿيون. اسان آساني سان هڪ سسٽم تصور ڪري سگهون ٿا، جڏهن تاريخي ڊيٽا جو تجزيو ڪندي، عورتن جي نالن کي گهٽ خطري جو عنصر تفويض ڪندو. ٺيڪ آهي، اچو ته چونڊ مان نالا ڪڍون. پر Amazon جو مثال ياد رکو: سسٽم ٻين عنصرن جي بنياد تي جنس جو تعين ڪري سگهي ٿو (جيتوڻيڪ اها خبر ناهي ته صنف ڇا آهي، يا ڪار به ڪهڙي آهي)، ۽ توهان ان کي نوٽيس نه ڪندا جيستائين ريگيوليٽر توهان جي قيمتن جو تجزيه نه ڪندو. پيش ڪيو ۽ توهان کي چارج ڪيو توهان کي ڏنڊ ڪيو ويندو.

آخرڪار، اهو اڪثر فرض ڪيو ويو آهي ته اسان صرف اهڙن منصوبن لاء سسٽم استعمال ڪنداسين جيڪي ماڻهن ۽ سماجي رابطي ۾ شامل آهن. هي غلط آهي. جيڪڏهن توهان گئس ٽربائن ٺاهيندا آهيو، توهان شايد توهان جي پراڊڪٽ تي ٽينس يا سوين سينسرز ذريعي منتقل ٿيل ٽيلي ميٽري تي مشين لرننگ لاڳو ڪرڻ چاهيندا (آڊيو، وڊيو، درجه حرارت، ۽ ٻيا ڪي به سينسرز ڊيٽا ٺاهيندا آهن جيڪي مشين ٺاهڻ لاءِ تمام آساني سان ترتيب ڏئي سگهجن ٿيون. سکيا ماڊل). فرضي طور تي، توهان چئي سگهو ٿا، "هتي هڪ هزار ٽربائن مان ڊيٽا آهي جيڪي ناڪام ٿيڻ کان اڳ ناڪام ٿيا، ۽ هتي هڪ هزار ٽربائنن مان ڊيٽا آهي جيڪي ناڪام نه ٿيا. ھڪڙو نمونو ٺاھيو اھو ٻڌائڻ لاءِ ته انھن جي وچ ۾ ڇا فرق آھي. چڱو، هاڻي تصور ڪريو ته سيمينز سينسرز 75٪ خراب ٽربائن تي نصب ٿيل آهن، ۽ صرف 12٪ سٺيون (ناڪامي سان ڪو به تعلق ناهي). سسٽم سيمينس سينسر سان ٽربائن ڳولڻ لاء هڪ ماڊل ٺاهيندو. اڙي!

مصنوعي ڄاڻ رکندڙ تعصب بابت
تصوير - مورتز هارڊٽ، يو سي برڪلي

AI تعصب جو انتظام

اسان ان بابت ڇا ڪري سگهون ٿا؟ توھان مسئلي کي ٽن زاوين کان وٺي سگھو ٿا:

  1. سسٽم کي تربيت ڏيڻ لاء ڊيٽا گڏ ڪرڻ ۽ انتظام ڪرڻ ۾ طريقياتي سختي.
  2. ماڊل رويي جي تجزيو ۽ تشخيص لاء ٽيڪنيڪل اوزار.
  3. پروڊڪٽس ۾ مشين سکيا کي لاڳو ڪرڻ وقت تربيت، تعليم، ۽ محتاط رهو.

موليئر جي ڪتاب ”The Bourgeois in the Nobility“ ۾ هڪ مذاق آهي: هڪ ماڻهوءَ کي ٻڌايو ويو ته ادب نثر ۽ شاعريءَ ۾ ورهايل آهي، ۽ هن کي اهو ڏسي خوشي ٿي ته هو سڄي ڄمار نثر ۾ ڳالهائيندو رهيو، ان جي ڄاڻ کان سواءِ. اهو شايد اهو آهي ته شمارياتيات اڄ ڪيئن محسوس ڪن ٿا: ان کي سمجهڻ کان سواء، انهن پنهنجي ڪيريئر کي مصنوعي ذهانت ۽ نموني جي غلطي لاء وقف ڪري ڇڏيو آهي. نموني جي غلطي کي ڳولڻ ۽ ان جي باري ۾ پريشان ٿيڻ ڪو نئون مسئلو ناهي، اسان کي صرف ان جي حل کي منظم ڪرڻ جي ضرورت آهي. جيئن مٿي ذڪر ڪيو ويو آهي، ڪجهه حالتن ۾ اهو اصل ۾ اهو ڪرڻ آسان آهي ماڻهن جي ڊيٽا سان لاڳاپيل مسئلن جو مطالعو ڪندي. اسان پهريان فرض ڪريون ٿا ته شايد اسان وٽ ماڻهن جي مختلف گروهن جي حوالي سان تعصب هجي، پر اهو اسان لاءِ ڏکيو آهي ته سيمينس سينسر جي باري ۾ تعصب جو تصور به ڪريون.

هي سڀ ڪجهه نئون ڇا آهي، يقينا، اهو آهي ته ماڻهو هاڻي سڌو سنئون شمارياتي تجزيو نٿا ڪن. اهو مشينن ذريعي ڪيو ويندو آهي جيڪي وڏيون، پيچيده ماڊل ٺاهيندا آهن جيڪي سمجهڻ ڏکيو آهن. شفافيت جو مسئلو تعصب جي مسئلي جي بنيادي حصن مان هڪ آهي. اسان کي ڊپ آهي ته سسٽم صرف تعصب وارو نه آهي، پر اهو ته ان جي تعصب کي ڳولڻ جو ڪو طريقو ناهي، ۽ اها مشين سکيا ٻين آٽوميشن جي شڪلن کان مختلف آهي، جيڪي واضح منطقي مرحلن تي مشتمل هوندا آهن جيڪي آزمائشي ٿي سگهن ٿيون.

هتي ٻه مسئلا آهن. اسان اڃا تائين مشين لرننگ سسٽم جي ڪجهه آڊيٽنگ ڪرڻ جي قابل ٿي سگهون ٿا. ۽ ڪنهن ٻئي سسٽم جي آڊيٽنگ اصل ۾ آسان ناهي.

پهرين، مشين جي سکيا جي ميدان ۾ جديد تحقيق جي هدايتن مان هڪ آهي طريقن جي ڳولا آهي مشين جي سکيا واري نظام جي اهم ڪارڪردگي کي سڃاڻڻ لاء. انهي چيو ته، مشين لرننگ (پنهنجي موجوده حالت ۾) سائنس جو هڪ مڪمل طور تي نئون شعبو آهي جيڪو جلدي تبديل ٿي رهيو آهي، تنهنڪري اهو نه سوچيو ته اهي شيون جيڪي اڄ ناممڪن آهن جلد ئي بلڪل حقيقي نه ٿي سگهن ٿيون. پروجيڪٽ OpenAI - هن جو هڪ دلچسپ مثال.

ٻيو، اهو خيال ته توهان موجوده سسٽم يا تنظيمن جي فيصلي سازي جي عمل کي جانچ ۽ سمجهي سگهو ٿا، نظرياتي طور تي سٺو آهي، پر ائين ئي عملي طور تي. سمجھڻ ته ڪيئن فيصلا ڪيا ويندا آھن وڏي تنظيم ۾. جيتوڻيڪ اتي هڪ باضابطه فيصلو سازي وارو عمل آهي، اهو ظاهر نٿو ڪري ته ماڻهو اصل ۾ ڪيئن مداخلت ڪن ٿا، ۽ اهي پاڻ اڪثر ڪري پنهنجن فيصلا ڪرڻ لاء منطقي، منظم طريقي سان نه هوندا آهن. جيئن منهنجي ساٿي چيو وجي پانڊي, ماڻهو پڻ ڪارو باڪس آهن.

ڪيترن ئي اوورليپنگ ڪمپنين ۽ ادارن ۾ هڪ هزار ماڻهو وٺو، ۽ مسئلو اڃا به وڌيڪ پيچيده ٿي ويندو. اسان ان حقيقت کان پوءِ ڄاڻون ٿا ته خلائي شٽل واپسيءَ تي ٽٽڻ جو مقدر هو، ۽ ناسا جي اندر موجود ماڻهن وٽ اها معلومات هئي جنهن کين اهو سوچڻ جو سبب ڏنو ته ڪجهه خراب ٿي سگهي ٿو، پر سسٽم. عام طور تي مون کي اها خبر نه هئي. NASA اڃا به ساڳئي آڊٽ ذريعي گذريو آهي ان جي پوئين شٽل کي وڃائڻ کان پوء، ۽ اڃا تائين اهو هڪ ٻئي کي وڃائي ڇڏيو آهي بلڪل ساڳئي سبب لاء. اهو بحث ڪرڻ آسان آهي ته تنظيمون ۽ ماڻهو واضح، منطقي قاعدن جي پيروي ڪندا آهن جيڪي آزمائشي، سمجهي، ۽ تبديل ٿي سگهن ٿا- پر تجربو ٻي صورت ۾ ثابت ٿئي ٿو. هي "گوسپلان جي فريب».

مان اڪثر ڪري مشين لرننگ جو موازنہ ڊيٽابيسس سان ڪندو آهيان، خاص ڪري لاڳاپو رکندڙ- هڪ نئين بنيادي ٽيڪنالاجي جنهن ڪمپيوٽر سائنس ۽ ان جي آس پاس جي دنيا جي صلاحيتن کي تبديل ڪري ڇڏيو آهي، جيڪا هر شيءِ جو حصو بڻجي وئي آهي، جنهن کي اسين مسلسل استعمال ڪريون ٿا ان کي سمجهڻ کان سواءِ. ڊيٽابيس ۾ پڻ مسئلا آهن، ۽ اهي هڪ جهڙي نوعيت جا آهن: سسٽم خراب مفروضن يا خراب ڊيٽا تي ٺهيل ٿي سگهي ٿو، پر اهو نوٽيس ڪرڻ ڏکيو هوندو، ۽ سسٽم استعمال ڪندڙ ماڻهو اهو ڪندا جيڪي انهن کي سوال پڇڻ کان سواء ٻڌائي ٿو. ٽيڪس ماڻهن جي باري ۾ ڪيترائي پراڻا مذاق آهن جن هڪ دفعو توهان جي نالي جي غلط اسپيل ڪئي، ۽ انهن کي غلطي کي درست ڪرڻ لاء قائل ڪرڻ اصل ۾ توهان جو نالو تبديل ڪرڻ کان وڌيڪ ڏکيو آهي. هن بابت سوچڻ جا ڪيترائي طريقا آهن، پر اهو واضح ناهي ته ڪهڙو بهتر آهي: SQL ۾ ٽيڪنيڪل مسئلو، يا Oracle رليز ۾ بگ جي طور تي، يا بيوروڪريسي ادارن جي ناڪامي جي طور تي؟ ڪنهن پروسيس ۾ بگ ڳولڻ ڪيترو ڏکيو آهي جنهن جي ڪري سسٽم ۾ ٽائپو اصلاح جي خاصيت نه آهي؟ ڇا ماڻهن کي شڪايت ڪرڻ شروع ڪرڻ کان اڳ اهو معلوم ٿي سگهي ٿو؟

اهو مسئلو اڃا به وڌيڪ آساني سان بيان ڪيو ويو آهي ڪهاڻيون جڏهن ڊرائيور دريائن ۾ ڊوڙندا آهن نيويگيٽر ۾ پراڻي ڊيٽا جي ڪري. ٺيڪ آهي، نقشن کي مسلسل اپڊيٽ ڪرڻ جي ضرورت آهي. پر توهان جي ڪار کي سمنڊ ۾ اڇلائڻ لاءِ ٽام ٽام ڪيترو ذميوار آهي؟

ان جو سبب مان اهو چوان ٿو ته ها، مشين لرننگ تعصب مسئلا پيدا ڪندو. پر اهي مسئلا ساڳيا ئي هوندا جن کي اسان ماضي ۾ منهن ڏنو آهي، ۽ انهن کي محسوس ڪري سگهجي ٿو ۽ حل ڪري سگهجي ٿو (يا نه). تنهن ڪري، هڪ منظر جنهن ۾ AI تعصب نقصان پهچائي ٿو اهو ممڪن ناهي ته ڪنهن وڏي تنظيم ۾ ڪم ڪندڙ سينئر محققن سان. گهڻو ڪري، ڪجهه غيرمعمولي ٽيڪنالاجي ٺيڪيدار يا سافٽ ويئر وينڊر انهن جي گوڏن تي ڪجهه لکندا، اوپن سورس اجزاء، لائبريريون ۽ اوزار استعمال ڪندي جيڪي اهي نٿا سمجهن. ۽ بدقسمت گراهڪ پراڊڪٽ جي تفصيل ۾ جملي ”مصنوعي ذهانت“ خريد ڪندو ۽ بغير ڪنهن سوال جي، ان کي پنهنجي گهٽ پگهار وارن ملازمن ۾ ورهائيندو، انهن کي حڪم ڏيندو ته جيئن AI چوي. اهو ئي آهي جيڪو ڊيٽابيس سان گڏ ٿيو. هي هڪ مصنوعي ذهانت جو مسئلو ناهي، يا اڃا به هڪ سافٽ ويئر مسئلو. هي انساني عنصر آهي.

ٿڪل

مشين لرننگ ڪجھ به ڪري سگھي ٿي جيڪو توھان ڪتي کي سيکاري سگھو ٿا - پر توھان ڪڏھن به پڪ نه ٿا ڪري سگھو ته توھان ڪتي کي ڇا سيکاريو آھي.

مان اڪثر محسوس ڪندو آهيان ته اصطلاح ”مصنوعي ذهانت“ صرف هن طرح گفتگو جي رستي ۾ اچي ٿو. هي اصطلاح غلط تاثر ڏئي ٿو ته اسان اصل ۾ ان کي پيدا ڪيو آهي - هي ڄاڻ. اهو ته اسان پنهنجي رستي تي آهيون HAL9000 يا Skynet - اهو ڪجهه اصل ۾ سمجهي ٿو. پر نه. اهي صرف مشينون آهن، ۽ انهن جو مقابلو ڪرڻ تمام گهڻو صحيح آهي، چئو، هڪ واشنگ مشين. هوءَ ڌوٻيءَ کي انسان کان گهڻو بهتر ڪندي آهي، پر جيڪڏهن تون ڌوٻيءَ جي بدران هن ۾ ٿانوَ وجهين، ته هوءَ... انهن کي ڌوئيندي. برتن به صاف ٿي ويندا. پر اهو نه ٿيندو جنهن جي توهان توقع ڪئي هئي، ۽ اهو نه ٿيندو، ڇاڪاڻ ته سسٽم ۾ وينجن جي حوالي سان ڪي تعصب آهن. ڌوئڻ واري مشين کي خبر ناهي ته ڇا کاڌا آهن يا ڪهڙا ڪپڙا آهن - اهو صرف آٽوميشن جو هڪ مثال آهي، تصوراتي طور تي ان کان مختلف ناهي ته ڪيئن عمل اڳ ۾ خودڪار هئا.

ڇا اسان ڪارن، هوائي جهازن، يا ڊيٽابيس بابت ڳالهائي رهيا آهيون، اهي سسٽم ٻئي تمام طاقتور ۽ تمام محدود هوندا. اهي مڪمل طور تي انحصار ڪندا ته ماڻهو انهن سسٽم کي ڪيئن استعمال ڪندا آهن، ڇا انهن جا ارادا سٺا يا خراب آهن، ۽ اهي ڪيترو سمجهندا آهن ته اهي ڪيئن ڪم ڪن ٿا.

تنهن ڪري، اهو چوڻ ته "مصنوعي ذهانت رياضي آهي، تنهنڪري اهو تعصب نٿو ڪري سگهي" مڪمل طور تي غلط آهي. پر اهو چوڻ برابر غلط آهي ته مشين سکيا ”فطرت ۾ موضوعي“ آهي. مشين لرننگ ڊيٽا ۾ نمونن کي ڳولي ٿو، ۽ اهو ڪهڙو نمونو ڳولي ٿو اهو ڊيٽا تي منحصر آهي، ۽ ڊيٽا اسان تي منحصر آهي. جيئن ته اسان انهن سان ڇا ڪندا آهيون. مشين لرننگ ڪجهه شيون اسان کان گهڻو بهتر ڪري ٿي - پر ڪتا، مثال طور، دوائن جي نشاندهي ڪرڻ ۾ انسانن کان تمام گهڻو اثرائتو آهن، جيڪو انهن کي شاهد طور استعمال ڪرڻ ۽ انهن جي گواهي جي بنياد تي فيصلو ڪرڻ جو سبب ناهي. ۽ ڪتا، رستي ۾، ڪنهن به مشين سکيا واري نظام کان تمام گهڻو هوشيار آهن.

ترجمو: ڊانا ليٽسڪيا.
ايڊيٽنگ: Aleksey Ivanov.
برادري: @PonchikNews.

جو ذريعو: www.habr.com

تبصرو شامل ڪريو