درباره تعصب هوش مصنوعی

درباره تعصب هوش مصنوعی

TL؛ دکتر:

  • یادگیری ماشینی به دنبال الگوهایی در داده ها می گردد. اما هوش مصنوعی می‌تواند "سوگیرانه" باشد، یعنی الگوهایی را بیابد که نادرست هستند. به عنوان مثال، یک سیستم تشخیص سرطان پوست مبتنی بر عکس ممکن است به تصاویر گرفته شده در مطب پزشک توجه ویژه ای داشته باشد. یادگیری ماشینی نمی تواند برای درک: الگوریتم های آن فقط الگوها را به صورت اعداد شناسایی می کنند و اگر داده ها معرف نباشند، نتیجه پردازش آن نیز مشخص خواهد شد. و به دلیل مکانیزم های یادگیری ماشین، گرفتن چنین اشکالاتی می تواند دشوار باشد.
  • واضح ترین و دلهره آورترین حوزه مشکل، تنوع انسانی است. دلایل زیادی وجود دارد که چرا داده های مربوط به افراد ممکن است حتی در مرحله جمع آوری عینیت خود را از دست بدهند. اما فکر نکنید که این مشکل فقط افراد را تحت تأثیر قرار می دهد: دقیقاً همان مشکلات هنگام تلاش برای تشخیص سیل در یک انبار یا یک توربین گاز شکست خورده ایجاد می شود. برخی از سیستم ها ممکن است نسبت به رنگ پوست تعصب داشته باشند، برخی دیگر نسبت به سنسورهای زیمنس تعصب دارند.
  • چنین مشکلاتی برای یادگیری ماشینی جدید نیستند و منحصر به فرد نیستند. در هر ساختار پیچیده ای مفروضات اشتباهی مطرح می شود و درک اینکه چرا یک تصمیم خاص گرفته شده است همیشه دشوار است. ما باید به روشی جامع با این موضوع مبارزه کنیم: ابزارها و فرآیندهایی را برای تأیید ایجاد کنیم - و به کاربران آموزش دهیم تا کورکورانه توصیه‌های هوش مصنوعی را دنبال نکنند. یادگیری ماشینی برخی کارها را خیلی بهتر از ما انجام می دهد - اما برای مثال سگ ها در تشخیص مواد مخدر بسیار مؤثرتر از انسان هستند، که دلیلی برای استفاده از آنها به عنوان شاهد و قضاوت بر اساس شهادت آنها نیست. و به هر حال، سگ ها بسیار باهوش تر از هر سیستم یادگیری ماشینی هستند.

یادگیری ماشینی یکی از مهم ترین روندهای اساسی فناوری امروزه است. این یکی از راه‌هایی است که فناوری دنیای اطراف ما را در دهه آینده تغییر خواهد داد. برخی از جنبه های این تغییرات باعث نگرانی است. به عنوان مثال، تأثیر بالقوه یادگیری ماشینی بر بازار کار، یا استفاده از آن برای اهداف غیراخلاقی (مثلاً توسط رژیم های مستبد). مشکل دیگری وجود دارد که این پست به آن پرداخته است: تعصب هوش مصنوعی.

این داستان ساده ای نیست.

درباره تعصب هوش مصنوعی
هوش مصنوعی گوگل می تواند گربه ها را پیدا کند. این خبر مربوط به سال 2012 در آن زمان چیز خاصی بود.

"AI Bias" چیست؟

«داده‌های خام» هم ایده‌ای بد است و هم ایده‌ای بد. داده ها باید به خوبی و با دقت تهیه شوند. - جفری بوکر

جایی قبل از سال 2013، برای ساختن سیستمی که مثلاً گربه‌ها را در عکس‌ها تشخیص می‌دهد، باید مراحل منطقی را توصیف می‌کردید. نحوه پیدا کردن گوشه ها در یک تصویر، تشخیص چشم ها، تجزیه و تحلیل بافت ها برای خز، شمارش پنجه ها و غیره. سپس همه اجزا را کنار هم قرار دهید و متوجه شوید که واقعا کار نمی کند. بسیار شبیه یک اسب مکانیکی - از نظر تئوری می توان آن را ساخت، اما در عمل برای توصیف آن بسیار پیچیده است. نتیجه نهایی صدها (یا حتی هزاران) قانون دست نویس است. و نه یک مدل کار.

با ظهور یادگیری ماشینی، استفاده از قوانین دستی برای تشخیص یک شی خاص را متوقف کردیم. در عوض، ما هزار نمونه از «این»، X، هزار نمونه از «دیگر»، Y را می‌گیریم و از رایانه می‌خواهیم که یک مدل بر اساس تحلیل آماری‌شان بسازد. سپس به این مدل داده های نمونه می دهیم و با دقت مشخص می کند که آیا با یکی از مجموعه ها مطابقت دارد یا خیر. یادگیری ماشینی یک مدل را از داده‌ها تولید می‌کند نه از نوشتن توسط انسان. نتایج به ویژه در زمینه تشخیص تصویر و الگوی چشمگیر هستند و به همین دلیل است که کل صنعت فناوری اکنون به سمت یادگیری ماشینی (ML) حرکت می کند.

اما به این سادگی نیست. در دنیای واقعی، هزاران نمونه X یا Y شما نیز حاوی A، B، J، L، O، R و حتی L هستند. این موارد ممکن است به طور یکنواخت توزیع نشوند و برخی ممکن است آنقدر تکرار شوند که سیستم هزینه بیشتری بپردازد. به آنها توجه کنید تا به اشیایی که به شما علاقه دارند.

این در عمل به چه معناست؟ مثال مورد علاقه من زمانی است که سیستم های تشخیص تصویر به تپه ای با علف نگاه کنید و بگویید "گوسفند". واضح است که چرا: بیشتر نمونه عکس های "گوسفند" در چمنزارهای محل زندگی آنها گرفته شده است و در این تصاویر علف فضای بسیار بیشتری را نسبت به کرک های کوچک سفید اشغال می کند و این علف است که سیستم آن را از همه مهمتر می داند. .

نمونه های جدی تری هم وجود دارد. یکی اخیر پروژه برای تشخیص سرطان پوست در عکس معلوم شد که متخصصان پوست اغلب از خط کش همراه با تظاهرات سرطان پوست عکس می گیرند تا اندازه تشکیلات را ثبت کنند. در نمونه عکس های پوست سالم هیچ خط کشی وجود ندارد. برای یک سیستم هوش مصنوعی، چنین خط‌کش‌هایی (به‌طور دقیق‌تر، پیکسل‌هایی که ما به‌عنوان «خط‌کش» تعریف می‌کنیم) به یکی از تفاوت‌های مجموعه‌ای از نمونه‌ها تبدیل شده‌اند، و گاهی اوقات مهم‌تر از یک راش کوچک روی پوست هستند. بنابراین سیستمی که برای شناسایی سرطان پوست ایجاد شده بود، گاهی اوقات حاکمان را به جای آن تشخیص می داد.

نکته کلیدی در اینجا این است که سیستم هیچ درک معنایی از آنچه به آن نگاه می کند ندارد. ما به مجموعه ای از پیکسل ها نگاه می کنیم و در آنها یک گوسفند، پوست یا خط کش می بینیم، اما سیستم فقط یک خط اعداد است. او فضای سه بعدی را نمی بیند، اشیا، بافت ها یا گوسفندها را نمی بیند. او به سادگی الگوها را در داده ها می بیند.

مشکل در تشخیص چنین مشکلاتی این است که شبکه عصبی (مدل تولید شده توسط سیستم یادگیری ماشین شما) از هزاران صدها هزار گره تشکیل شده است. هیچ راه آسانی برای بررسی یک مدل و نحوه تصمیم گیری آن وجود ندارد. داشتن چنین روشی به این معنی است که این فرآیند به اندازه کافی ساده است تا بتوان تمام قوانین را به صورت دستی و بدون استفاده از یادگیری ماشین توصیف کرد. مردم نگران هستند که یادگیری ماشین به چیزی شبیه جعبه سیاه تبدیل شده است. (کمی بعد توضیح خواهم داد که چرا این مقایسه هنوز زیاد است.)

این، به طور کلی، مشکل سوگیری در هوش مصنوعی یا یادگیری ماشین است: یک سیستم برای یافتن الگوها در داده‌ها ممکن است الگوهای اشتباهی را پیدا کند، و شما ممکن است متوجه آن نشوید. این یک ویژگی اساسی فناوری است و برای همه کسانی که با آن در دانشگاه ها و شرکت های بزرگ فناوری کار می کنند واضح است. اما پیامدهای آن پیچیده است و راه‌حل‌های احتمالی ما برای آن پیامدها نیز پیچیده است.

بیایید ابتدا در مورد عواقب آن صحبت کنیم.

درباره تعصب هوش مصنوعی
هوش مصنوعی می تواند به طور ضمنی برای ما، بر اساس تعداد زیادی سیگنال نامحسوس، به نفع دسته خاصی از افراد انتخاب کند.

سناریوهای تعصب هوش مصنوعی

واضح‌تر و ترسناک‌تر این است که این مشکل زمانی که به تنوع انسانی می‌رسد می‌تواند خود را نشان دهد. به تازگی یک شایعه وجود داشتآمازون سعی کرد یک سیستم یادگیری ماشینی برای غربالگری اولیه نامزدهای شغلی بسازد. از آنجایی که تعداد مردان در میان کارگران آمازون بیشتر است، نمونه‌های «استخدام موفق» نیز بیشتر مرد هستند، و مردان بیشتری در انتخاب رزومه‌های پیشنهادی توسط سیستم وجود داشتند. آمازون متوجه این موضوع شد و این سیستم را وارد مرحله تولید نکرد.

مهمترین نکته در این مثال این است که شایعه شده است که سیستم به نفع متقاضیان مرد است، علیرغم اینکه جنسیت در رزومه مشخص نشده بود. این سیستم الگوهای دیگری را در نمونه هایی از «استخدام خوب» دید: برای مثال، زنان ممکن است از کلمات خاصی برای توصیف دستاوردها استفاده کنند یا سرگرمی های خاصی داشته باشند. البته، سیستم نمی دانست "هاکی" چیست، یا "مردم" چه کسانی هستند، یا "موفقیت" چیست - به سادگی یک تجزیه و تحلیل آماری از متن انجام داد. اما الگوهایی که او می دید به احتمال زیاد مورد توجه انسان قرار نمی گیرد و برخی از آنها (مثلاً این واقعیت که افراد با جنسیت های مختلف موفقیت را متفاوت توصیف می کنند) احتمالاً برای ما دشوار است حتی اگر به آنها نگاه کنیم.

بیشتر - بدتر. یک سیستم یادگیری ماشینی که در یافتن سرطان روی پوست رنگ پریده بسیار خوب است، ممکن است روی پوست تیره به خوبی عمل نکند یا برعکس. نه لزوماً به دلیل تعصب، بلکه به این دلیل که احتمالاً باید یک مدل جداگانه برای رنگ پوست متفاوت بسازید و ویژگی های مختلف را انتخاب کنید. سیستم‌های یادگیری ماشینی حتی در محدوده باریکی مانند تشخیص تصویر قابل تعویض نیستند. شما باید سیستم را تغییر دهید، گاهی اوقات فقط از طریق آزمون و خطا، تا کنترل خوبی روی ویژگی های داده های مورد علاقه خود داشته باشید تا زمانی که به دقت مورد نظر خود برسید. اما چیزی که ممکن است متوجه آن نشوید این است که سیستم در 98٪ مواقع با یک گروه دقیق است و فقط 91٪ (حتی دقیق تر از تجزیه و تحلیل انسانی) با گروه دیگر.

تا کنون عمدتاً از مثال‌های مربوط به افراد و ویژگی‌های آنها استفاده کرده‌ام. بحث پیرامون این مشکل عمدتاً بر این موضوع متمرکز است. اما درک این نکته مهم است که تعصب نسبت به مردم تنها بخشی از مشکل است. ما از یادگیری ماشین برای بسیاری از چیزها استفاده خواهیم کرد و خطای نمونه گیری به همه آنها مرتبط خواهد بود. از سوی دیگر، اگر با افراد کار می کنید، سوگیری در داده ها ممکن است به آنها مربوط نباشد.

برای درک این موضوع، اجازه دهید به مثال سرطان پوست برگردیم و سه احتمال فرضی برای خرابی سیستم را در نظر بگیریم.

  1. توزیع ناهمگون افراد: تعداد نامتعادل عکس با رنگ های مختلف پوست که منجر به مثبت کاذب یا منفی کاذب به دلیل رنگدانه می شود.
  2. داده‌هایی که این سیستم بر روی آن آموزش داده می‌شود حاوی ویژگی‌هایی است که اغلب رخ می‌دهد و به طور ناهمگن توزیع می‌شود که با افراد مرتبط نیست و ارزش تشخیصی ندارد: یک خط کش در عکس‌های سرطان پوست یا علف در عکس‌های گوسفند. در این حالت، اگر سیستم پیکسل هایی را در تصویر چیزی پیدا کند که چشم انسان به عنوان یک "حاکم" شناسایی می کند، نتیجه متفاوت خواهد بود.
  3. داده ها حاوی یک ویژگی شخص ثالث است که شخص حتی اگر به دنبال آن باشد نمی تواند آن را ببیند.

چه مفهومی داره؟ ما به طور پیشینی می دانیم که داده ها ممکن است گروه های مختلف مردم را به طور متفاوت نشان دهند، و حداقل می توانیم برای جستجوی چنین استثناهایی برنامه ریزی کنیم. به عبارت دیگر، دلایل اجتماعی زیادی برای این فرض وجود دارد که داده‌های مربوط به گروه‌هایی از مردم قبلاً حاوی برخی سوگیری هستند. اگر به عکس با خط کش نگاه کنیم، این خط کش را می بینیم - ما قبلاً به سادگی از آن چشم پوشی کردیم و می دانستیم که مهم نیست و فراموش کرده ایم که سیستم چیزی نمی داند.

اما اگر تمام عکس‌های شما از پوست ناسالم در یک دفتر تحت نور مهتابی گرفته شود و پوست سالم شما زیر نور فلورسنت گرفته شود، چه؟ اگر پس از اتمام تصویربرداری از پوست سالم، قبل از عکاسی از پوست ناسالم، سیستم عامل گوشی خود را به روز کرده باشید و اپل یا گوگل کمی الگوریتم کاهش نویز را تغییر دهند، چه؟ یک فرد نمی تواند متوجه این موضوع شود، مهم نیست که چقدر به دنبال چنین ویژگی هایی است. اما سیستم استفاده از ماشین بلافاصله این را می بیند و استفاده می کند. او چیزی نمی داند.

تاکنون در مورد همبستگی‌های جعلی صحبت کرده‌ایم، اما ممکن است داده‌ها دقیق و نتایج صحیح باشند، اما شما نمی‌خواهید به دلایل اخلاقی، قانونی یا مدیریتی از آنها استفاده کنید. برای مثال، برخی از حوزه‌های قضایی به زنان اجازه نمی‌دهند در بیمه خود تخفیف دریافت کنند، حتی اگر زنان رانندگان ایمن‌تری باشند. ما به راحتی می‌توانیم سیستمی را تصور کنیم که هنگام تجزیه و تحلیل داده‌های تاریخی، فاکتور خطر کمتری را به نام‌های زن اختصاص دهد. خوب، بیایید نام ها را از انتخاب حذف کنیم. اما مثال آمازون را به خاطر بسپارید: این سیستم می‌تواند جنسیت را بر اساس عوامل دیگر تعیین کند (حتی اگر نمی‌داند جنسیت چیست یا حتی ماشین چیست) و تا زمانی که تنظیم‌کننده تعرفه‌های شما را به‌عنوان ماسبق تجزیه و تحلیل نکند متوجه این موضوع نخواهید شد. پیشنهاد دهد و از شما هزینه کند جریمه می شوید.

در نهایت، اغلب تصور می شود که ما از چنین سیستم هایی فقط برای پروژه هایی استفاده خواهیم کرد که افراد و تعاملات اجتماعی را در بر می گیرند. این اشتباه است. اگر توربین‌های گازی می‌سازید، احتمالاً می‌خواهید یادگیری ماشینی را برای تله‌متری که توسط ده‌ها یا صدها حسگر روی محصولتان ارسال می‌شود (صوت، تصویر، دما و هر حسگر دیگری تولید می‌کنند داده‌هایی تولید می‌کنند که می‌تواند به راحتی برای ایجاد یک ماشین سازگار شود). مدل یادگیری). به طور فرضی، می‌توانید بگویید: «در اینجا داده‌های هزار توربین است که قبل از خرابی از کار افتاده‌اند، و در اینجا داده‌هایی از هزار توربین است که از کار افتاده‌اند. مدلی بسازید تا بگویید تفاوت بین آنها چیست." خوب، حالا تصور کنید که سنسورهای زیمنس روی 75 درصد توربین های بد نصب شده اند و فقط 12 درصد از توربین های خوب (هیچ ارتباطی با خرابی ها وجود ندارد). این سیستم مدلی برای یافتن توربین با حسگرهای زیمنس خواهد ساخت. اوه!

درباره تعصب هوش مصنوعی
تصویر - موریتز هارت، UC برکلی

مدیریت تعصب هوش مصنوعی

در مورد آن جه می توانیم انجام دهیم؟ شما می توانید از سه زاویه به موضوع نگاه کنید:

  1. دقت روش شناختی در جمع آوری و مدیریت داده ها برای آموزش سیستم.
  2. ابزارهای فنی برای تجزیه و تحلیل و تشخیص رفتار مدل.
  3. در هنگام پیاده سازی یادگیری ماشینی در محصولات، آموزش دهید، آموزش دهید و مراقب باشید.

در کتاب مولیر «بورژوا در اشراف» شوخی وجود دارد: به مردی گفته شد که ادبیات به نثر و شعر تقسیم می‌شود و او از این که متوجه شد در تمام عمرش بدون اینکه بداند به نثر صحبت می‌کرده خوشحال شد. احتمالاً امروز آماردانان این احساس را دارند: بدون اینکه بدانند، حرفه خود را وقف هوش مصنوعی و خطای نمونه‌گیری کرده‌اند. به دنبال خطای نمونه برداری و نگرانی در مورد آن مشکل جدیدی نیست، فقط باید به طور سیستماتیک به راه حل آن نزدیک شویم. همانطور که در بالا ذکر شد، در برخی موارد انجام این کار با مطالعه مشکلات مربوط به داده های افراد در واقع آسان تر است. ما پیشداوری فرض می‌کنیم که ممکن است در مورد گروه‌های مختلف مردم تعصب داشته باشیم، اما حتی تصور تعصب در مورد حسگرهای زیمنس برای ما دشوار است.

البته آنچه در مورد همه اینها جدید است این است که مردم دیگر مستقیماً تحلیل آماری انجام نمی دهند. این کار توسط ماشین هایی انجام می شود که مدل های بزرگ و پیچیده ای را ایجاد می کنند که درک آنها دشوار است. موضوع شفافیت یکی از جنبه های اصلی مشکل سوگیری است. ما از این می ترسیم که سیستم فقط سوگیری نداشته باشد، بلکه راهی برای تشخیص سوگیری آن وجود نداشته باشد، و یادگیری ماشینی با سایر اشکال اتوماسیون متفاوت است، که قرار است شامل مراحل منطقی واضحی باشد که می توان آنها را آزمایش کرد.

اینجا دوتا مشکل داریم. ممکن است همچنان بتوانیم نوعی ممیزی سیستم های یادگیری ماشین را انجام دهیم. و حسابرسی هر سیستم دیگری در واقع آسان تر نیست.

در مرحله اول، یکی از جهت گیری های تحقیقات مدرن در زمینه یادگیری ماشین، جستجوی روش هایی برای شناسایی عملکردهای مهم سیستم های یادگیری ماشین است. همانطور که گفته شد، یادگیری ماشین (در وضعیت فعلی آن) یک رشته کاملاً جدید از علم است که به سرعت در حال تغییر است، بنابراین فکر نکنید چیزهایی که امروزه غیرممکن هستند به زودی نمی توانند کاملا واقعی شوند. پروژه OpenAI - یک مثال جالب از این.

دوم، این ایده که می‌توانید فرآیند تصمیم‌گیری سیستم‌ها یا سازمان‌های موجود را آزمایش و درک کنید، در تئوری خوب است، اما در عمل چنین است. درک چگونگی تصمیم گیری در یک سازمان بزرگ آسان نیست. حتی اگر یک فرآیند تصمیم‌گیری رسمی وجود داشته باشد، نحوه تعامل واقعی افراد را منعکس نمی‌کند و خود آنها اغلب رویکردی منطقی و سیستماتیک برای تصمیم‌گیری ندارند. همانطور که همکارم گفت ویجی پانده, مردم نیز جعبه سیاه هستند.

هزار نفر را در چندین شرکت و مؤسسه با هم همپوشانی کنید، مشکل پیچیده‌تر می‌شود. ما بعد از این واقعیت می دانیم که شاتل فضایی قرار بود در بازگشت از هم بپاشد، و افراد ناسا اطلاعاتی داشتند که به آنها دلیلی می داد فکر کنند ممکن است اتفاق بدی بیفتد، اما سیستم بطور کلی من این را نمی دانستم ناسا حتی پس از از دست دادن شاتل قبلی خود، یک ممیزی مشابه را انجام داد، اما یکی دیگر را به دلیلی بسیار مشابه از دست داد. به راحتی می توان استدلال کرد که سازمان ها و افراد از قوانین منطقی و واضحی پیروی می کنند که قابل آزمایش، درک و تغییر است – اما تجربه خلاف آن را ثابت می کند. این "توهم گوسپلان'.

من اغلب یادگیری ماشین را با پایگاه‌های داده، به‌ویژه پایگاه‌های اطلاعاتی رابطه‌ای مقایسه می‌کنم - یک فناوری بنیادی جدید که قابلیت‌های علوم کامپیوتر و دنیای اطراف آن را تغییر داده است، که بخشی از همه چیز شده است، که ما دائماً بدون اینکه متوجه شویم از آن استفاده می‌کنیم. پایگاه‌های داده نیز مشکلاتی دارند و ماهیت مشابهی دارند: سیستم ممکن است بر اساس فرضیات بد یا داده‌های بد ساخته شده باشد، اما تشخیص آن دشوار خواهد بود و افرادی که از سیستم استفاده می‌کنند بدون پرسیدن سوال، آنچه را که به آنها می‌گوید انجام می‌دهند. جوک های قدیمی زیادی در مورد افرادی وجود دارد که زمانی نام شما را اشتباه نوشتند، و متقاعد کردن آنها برای تصحیح اشتباه بسیار دشوارتر از تغییر نام واقعی است. راه های زیادی برای فکر کردن در مورد این موضوع وجود دارد، اما مشخص نیست که کدام بهتر است: به عنوان یک مشکل فنی در SQL، یا به عنوان یک باگ در انتشار اوراکل، یا به عنوان شکست نهادهای بوروکراتیک؟ یافتن یک باگ در فرآیندی که منجر به عدم وجود ویژگی تصحیح تایپی در سیستم شده است چقدر دشوار است؟ آیا می شد قبل از شروع شکایت مردم به این موضوع پی برد؟

این مشکل با داستان‌هایی که رانندگان به دلیل اطلاعات قدیمی در ناوبر به رودخانه می‌روند، حتی ساده‌تر نشان داده می‌شود. خوب، نقشه ها باید دائما به روز شوند. اما تام تام چقدر مقصر است که ماشین شما به دریا منفجر شده است؟

دلیل اینکه من این را می گویم این است که بله، سوگیری یادگیری ماشین مشکلاتی را ایجاد می کند. اما این مشکلات مشابه مشکلاتی خواهند بود که در گذشته با آن مواجه بوده‌ایم و می‌توان آن‌ها را به همان خوبی که در گذشته می‌توانستیم متوجه شد و حل کرد (یا نه). بنابراین، سناریویی که در آن سوگیری هوش مصنوعی باعث آسیب می شود، بعید است برای محققان ارشد شاغل در یک سازمان بزرگ اتفاق بیفتد. به احتمال زیاد، برخی از پیمانکاران فناوری یا فروشنده نرم‌افزاری بی‌اهمیت، با استفاده از اجزای منبع باز، کتابخانه‌ها و ابزارهایی که درک نمی‌کنند، چیزی را روی زانوهای خود می‌نویسند. و مشتری بدشانس عبارت "هوش مصنوعی" را در توضیحات محصول خریداری می کند و بدون پرسیدن هیچ سوالی، آن را بین کارمندان کم درآمد خود توزیع می کند و به آنها دستور می دهد آنچه را که هوش مصنوعی می گوید انجام دهند. این دقیقاً همان چیزی است که در مورد پایگاه داده ها اتفاق افتاد. این یک مشکل هوش مصنوعی یا حتی یک مشکل نرم افزاری نیست. این عامل انسانی است.

نتیجه

یادگیری ماشینی می تواند هر کاری را که شما می توانید به سگ آموزش دهید انجام دهد - اما هرگز نمی توانید مطمئن باشید که دقیقاً چه چیزی را به سگ یاد داده اید.

من اغلب احساس می‌کنم که اصطلاح «هوش مصنوعی» فقط مانع از چنین مکالماتی می‌شود. این اصطلاح این تصور نادرست را ایجاد می کند که ما واقعاً آن را ایجاد کرده ایم - این هوش. اینکه ما در راه HAL9000 یا Skynet هستیم - چیزی که در واقع می فهمد. اما نه. اینها فقط ماشین هستند و مقایسه آنها با مثلاً ماشین لباسشویی بسیار دقیق تر است. او خیلی بهتر از یک انسان لباس می‌شوید، اما اگر به جای لباس‌شویی ظرف‌ها را در او بگذارید، او آنها را می‌شوید. ظروف حتی تمیز خواهند شد. اما این چیزی نیست که شما انتظار داشتید و این اتفاق نخواهد افتاد زیرا سیستم هیچ گونه تعصبی در مورد ظروف دارد. ماشین لباسشویی نمی داند ظروف چیست یا لباس چیست - فقط نمونه ای از اتوماسیون است که از نظر مفهومی با نحوه خودکارسازی فرآیندهای قبلی تفاوتی ندارد.

چه در مورد اتومبیل ها، هواپیماها یا پایگاه های داده صحبت کنیم، این سیستم ها هم بسیار قدرتمند و هم بسیار محدود خواهند بود. آنها کاملاً به نحوه استفاده افراد از این سیستم ها، خوب یا بد بودن نیت آنها و میزان درک آنها از این سیستم ها بستگی دارند.

بنابراین، اینکه بگوییم "هوش مصنوعی ریاضی است، بنابراین نمی تواند سوگیری داشته باشد" کاملاً نادرست است. اما به همان اندازه نادرست است که بگوییم یادگیری ماشین "ماهیت ذهنی" دارد. یادگیری ماشین الگوها را در داده ها پیدا می کند و اینکه چه الگوهایی پیدا می کند به داده ها بستگی دارد و داده ها به ما بستگی دارد. درست مانند کاری که با آنها انجام می دهیم. یادگیری ماشینی برخی کارها را بسیار بهتر از ما انجام می دهد - اما برای مثال سگ ها در تشخیص مواد مخدر بسیار موثرتر از انسان ها هستند، که دلیلی برای استفاده از آنها به عنوان شاهد و قضاوت بر اساس شهادت آنها نیست. و به هر حال، سگ ها بسیار باهوش تر از هر سیستم یادگیری ماشینی هستند.

ترجمه: دیانا لتسکایا.
ویرایش: الکسی ایوانف.
انجمن: @PonchikNews.

منبع: www.habr.com

اضافه کردن نظر