MIT نے نسل پرستی اور بدسلوکی کی اصطلاحات کی نشاندہی کرنے کے بعد ٹنی امیجز کا مجموعہ ہٹا دیا۔

ماشسٹس انسٹیٹیوٹ آف ٹیکنالوجی حذف کر دیا گیا ڈیٹا سیٹ چھوٹی امیجز80 ملین چھوٹی 32x32 تصاویر کا ایک تشریح شدہ مجموعہ پیش کرتا ہے۔ سیٹ کو کمپیوٹر ویژن ٹیکنالوجیز تیار کرنے والے ایک گروپ کے ذریعہ برقرار رکھا گیا تھا اور اسے 2008 سے مختلف محققین مشین لرننگ سسٹم میں آبجیکٹ کی شناخت کی تربیت اور جانچ کے لیے استعمال کر رہے ہیں۔

ہٹانے کی وجہ تھی۔ پتہ لگانے تصویروں میں دکھائے گئے اشیا کو بیان کرنے والے لیبلز میں نسل پرستی اور بدسلوکی کی اصطلاحات کا استعمال، نیز ایسی تصاویر کی موجودگی جنہیں جارحانہ سمجھا جاتا ہے۔ مثال کے طور پر، جنسی اعضاء کی تصویریں تھیں جن میں بد زبانی کی اصطلاحات تھیں، کچھ خواتین کی تصاویر کو "کسبی" کے طور پر نمایاں کیا گیا تھا اور ایسی اصطلاحات استعمال کی گئی تھیں جو سیاہ فاموں اور ایشیائیوں کے لیے جدید معاشرے میں ناقابل قبول تھیں۔

تاہم، MIT کی طرف سے حوالہ دیا گیا دستاویز اس طرح کے مجموعوں کے ساتھ مزید سنگین مسائل کی نشاندہی بھی کرتا ہے: کمپیوٹر ویژن ٹیکنالوجیز کو چہرے کی شناخت کے نظام کو تیار کرنے کے لیے استعمال کیا جا سکتا ہے تاکہ آبادی کے گروہوں کے نمائندوں کو تلاش کیا جا سکے جو کسی وجہ سے منع ہیں؛ تصویر بنانے کے لیے ایک نیورل نیٹ ورک گمنام ڈیٹا سے اصل کو دوبارہ تشکیل دے سکتا ہے۔

غلط الفاظ کے ظاہر ہونے کی وجہ ایک خودکار عمل کا استعمال تھا جو درجہ بندی کے لیے انگریزی لغوی ڈیٹابیس سے معنوی رشتوں کا استعمال کرتا ہے۔ ورڈ نیٹپرنسٹن یونیورسٹی میں 1980 کی دہائی میں تخلیق کیا گیا۔ چونکہ 80 ملین چھوٹی تصویروں میں جارحانہ زبان کی موجودگی کو دستی طور پر چیک کرنا ممکن نہیں، اس لیے ڈیٹا بیس تک رسائی کو مکمل طور پر بلاک کرنے کا فیصلہ کیا گیا۔ MIT نے دوسرے محققین پر بھی زور دیا کہ وہ اس مجموعہ کا استعمال بند کر دیں اور اس کی کاپیاں ہٹا دیں۔ اسی طرح کے مسائل سب سے بڑے تشریح شدہ امیج ڈیٹا بیس میں دیکھے جاتے ہیں۔ تصویری نیٹ، جو WordNet سے اینکرز بھی استعمال کرتا ہے۔

MIT نے نسل پرستی اور بدسلوکی کی اصطلاحات کی نشاندہی کرنے کے بعد ٹنی امیجز کا مجموعہ ہٹا دیا۔

MIT نے نسل پرستی اور بدسلوکی کی اصطلاحات کی نشاندہی کرنے کے بعد ٹنی امیجز کا مجموعہ ہٹا دیا۔

ماخذ: opennet.ru

نیا تبصرہ شامل کریں