حول تحيز الذكاء الاصطناعي

حول تحيز الذكاء الاصطناعي

ليرة تركية، والدكتور:

  • يبحث التعلم الآلي عن أنماط في البيانات. لكن الذكاء الاصطناعي يمكن أن يكون "متحيزًا"، أي العثور على أنماط غير صحيحة. على سبيل المثال، قد يولي نظام الكشف عن سرطان الجلد المعتمد على الصور اهتمامًا خاصًا للصور الملتقطة في عيادة الطبيب. التعلم الآلي لا يستطيع ذلك لفهم: تحدد خوارزمياتها الأنماط بالأرقام فقط، وإذا لم تكن البيانات ممثلة، فستكون نتيجة معالجتها كذلك. وقد يكون اكتشاف مثل هذه الأخطاء أمرًا صعبًا بسبب آليات التعلم الآلي ذاتها.
  • إن مجال المشكلة الأكثر وضوحا وصعوبة هو التنوع البشري. هناك العديد من الأسباب التي تجعل البيانات المتعلقة بالأشخاص قد تفقد موضوعيتها حتى في مرحلة جمعها. لكن لا تعتقد أن هذه المشكلة تؤثر على الأشخاص فقط: فنفس الصعوبات تنشأ عند محاولة اكتشاف فيضان في أحد المستودعات أو توربينات غازية معطلة. قد تكون بعض الأنظمة متحيزة نحو لون البشرة، والبعض الآخر سيكون متحيزًا تجاه مستشعرات سيمنز.
  • مثل هذه المشاكل ليست جديدة على التعلم الآلي، وهي ليست فريدة من نوعها على الإطلاق. يتم وضع افتراضات خاطئة في أي هيكل معقد، ومن الصعب دائمًا فهم سبب اتخاذ قرار معين. نحن بحاجة إلى مكافحة هذا بطريقة شاملة: إنشاء أدوات وعمليات للتحقق - وتثقيف المستخدمين حتى لا يتبعوا توصيات الذكاء الاصطناعي بشكل أعمى. يقوم التعلم الآلي ببعض الأشياء بشكل أفضل مما نستطيع، لكن الكلاب، على سبيل المثال، أكثر فعالية من البشر في اكتشاف المخدرات، وهذا ليس سببًا لاستخدامها كشهود وإصدار أحكام بناءً على شهادتهم. وبالمناسبة، فإن الكلاب أكثر ذكاءً من أي نظام للتعلم الآلي.

يعد التعلم الآلي أحد أهم اتجاهات التكنولوجيا الأساسية اليوم. وهذه إحدى الطرق الرئيسية التي ستغير بها التكنولوجيا العالم من حولنا في العقد القادم. بعض جوانب هذه التغييرات مدعاة للقلق. على سبيل المثال، التأثير المحتمل للتعلم الآلي على سوق العمل، أو استخدامه لأغراض غير أخلاقية (على سبيل المثال، من قبل الأنظمة الاستبدادية). هناك مشكلة أخرى تتناولها هذه المشاركة: تحيز الذكاء الاصطناعي.

هذه ليست قصة سهلة.

حول تحيز الذكاء الاصطناعي
يستطيع الذكاء الاصطناعي من Google العثور على القطط. كانت هذه الأخبار من عام 2012 شيئًا مميزًا في ذلك الوقت.

ما هو "تحيز الذكاء الاصطناعي"؟

إن "البيانات الأولية" عبارة عن تناقض لفظي وفكرة سيئة؛ ويجب إعداد البيانات بشكل جيد وبعناية. —جيفري بوكر

في مكان ما قبل عام 2013، من أجل إنشاء نظام يتعرف على القطط في الصور، على سبيل المثال، كان عليك وصف خطوات منطقية. كيفية العثور على الزوايا في الصورة، والتعرف على العيون، وتحليل نسيج الفراء، وحساب الكفوف، وما إلى ذلك. ثم قم بتجميع جميع المكونات معًا واكتشف أنها لا تعمل حقًا. يشبه إلى حد كبير الحصان الميكانيكي - فمن الممكن نظريًا صنعه، ولكن من الناحية العملية فهو معقد للغاية بحيث لا يمكن وصفه. والنتيجة النهائية هي مئات (أو حتى آلاف) القواعد المكتوبة بخط اليد. وليس نموذج عمل واحد.

مع ظهور التعلم الآلي، توقفنا عن استخدام القواعد "اليدوية" للتعرف على كائن معين. وبدلاً من ذلك، فإننا نأخذ ألف عينة من "هذا"، X، وألف عينة من "أخرى"، Y، ونطلب من الكمبيوتر بناء نموذج بناءً على تحليله الإحصائي. ثم نعطي هذا النموذج بعض نماذج البيانات ويحدد ببعض الدقة ما إذا كان يناسب إحدى المجموعات. يُنشئ التعلم الآلي نموذجًا من البيانات وليس من كتابته البشرية. وكانت النتائج مثيرة للإعجاب، خاصة في مجال التعرف على الصور والأنماط، ولهذا السبب تنتقل صناعة التكنولوجيا بأكملها الآن إلى التعلم الآلي (ML).

لكن الأمر ليس بهذه البساطة. في العالم الحقيقي، تحتوي آلاف الأمثلة الخاصة بـ X أو Y أيضًا على A وB وJ وL وO وR وحتى L. وقد لا يتم توزيعها بالتساوي، وقد يحدث بعضها بشكل متكرر لدرجة أن النظام سيدفع المزيد الاهتمام بهم بدلاً من الأشياء التي تهمك.

ماذا يعني هذا في الممارسة العملية؟ المثال المفضل لدي هو أنظمة التعرف على الصور انظر إلى تلة عشبية وقل "خروف". السبب واضح: تم التقاط معظم صور "الأغنام" في المروج التي يعيشون فيها، وفي هذه الصور يشغل العشب مساحة أكبر بكثير من الزغب الأبيض الصغير، ويعتبر العشب هو الأكثر أهمية .

هناك أمثلة أكثر خطورة. واحدة حديثة مشروع للكشف عن سرطان الجلد بالصور. اتضح أن أطباء الجلد غالبًا ما يقومون بتصوير المسطرة مع مظاهر سرطان الجلد لتسجيل حجم التكوينات. لا توجد مساطر في أمثلة الصور الفوتوغرافية للبشرة الصحية. بالنسبة لنظام الذكاء الاصطناعي، أصبحت مثل هذه المساطر (أو بشكل أكثر دقة، وحدات البكسل التي نحددها على أنها "مسطرة") أحد الاختلافات بين مجموعات الأمثلة، وفي بعض الأحيان أكثر أهمية من طفح جلدي صغير على الجلد. لذا فإن النظام الذي تم إنشاؤه للتعرف على سرطان الجلد يتعرف أحيانًا على المساطر بدلاً من ذلك.

النقطة الأساسية هنا هي أن النظام ليس لديه فهم دلالي لما ينظر إليه. نحن ننظر إلى مجموعة من البكسلات ونرى فيها خروفًا أو جلدًا أو مساطر، لكن النظام ليس سوى خط أرقام. إنها لا ترى مساحة ثلاثية الأبعاد، ولا ترى الأشياء أو الأنسجة أو الأغنام. إنها ببساطة ترى الأنماط في البيانات.

تكمن صعوبة تشخيص مثل هذه المشكلات في أن الشبكة العصبية (النموذج الذي تم إنشاؤه بواسطة نظام التعلم الآلي الخاص بك) تتكون من آلاف ومئات الآلاف من العقد. لا توجد طريقة سهلة للنظر إلى النموذج ومعرفة كيفية اتخاذ القرار. وجود مثل هذه الطريقة يعني أن العملية بسيطة بما يكفي لوصف جميع القواعد يدويًا، دون استخدام التعلم الآلي. يشعر الناس بالقلق من أن التعلم الآلي أصبح أشبه بالصندوق الأسود. (سأشرح بعد قليل لماذا لا تزال هذه المقارنة أكثر من اللازم.)

هذه، بشكل عام، هي مشكلة التحيز في الذكاء الاصطناعي أو التعلم الآلي: قد يجد نظام البحث عن الأنماط في البيانات أنماطًا خاطئة، وقد لا تلاحظ ذلك. وهذه سمة أساسية للتكنولوجيا، وهي واضحة لكل من يعمل بها في الأوساط الأكاديمية وفي شركات التكنولوجيا الكبرى. لكن عواقبه معقدة، وكذلك حلولنا المحتملة لتلك العواقب.

دعونا نتحدث عن العواقب أولا.

حول تحيز الذكاء الاصطناعي
يمكن للذكاء الاصطناعي، ضمنيًا بالنسبة لنا، اتخاذ خيار لصالح فئات معينة من الأشخاص، بناءً على عدد كبير من الإشارات غير المحسوسة.

سيناريوهات تحيز الذكاء الاصطناعي

والأمر الأكثر وضوحًا وإثارة للخوف هو أن هذه المشكلة يمكن أن تظهر نفسها عندما يتعلق الأمر بالتنوع البشري. حديثاً كانت هناك شائعةأن أمازون حاولت بناء نظام للتعلم الآلي للفحص الأولي للمرشحين للوظائف. ونظرًا لوجود عدد أكبر من الرجال بين العاملين في أمازون، فإن أمثلة "التوظيف الناجح" غالبًا ما تكون من الذكور، وكان هناك عدد أكبر من الرجال في اختيار السير الذاتية التي يقترحها النظام. لاحظت أمازون ذلك ولم تطلق النظام إلى الإنتاج.

والأهم في هذا المثال هو أنه تردد أن النظام يفضل المتقدمين الذكور، على الرغم من عدم تحديد الجنس في السيرة الذاتية. ورأى النظام أنماطًا أخرى في أمثلة "التوظيف الجيد": على سبيل المثال، قد تستخدم النساء كلمات خاصة لوصف الإنجازات، أو لديهن هوايات خاصة. بالطبع، لم يكن النظام يعرف ما هو "الهوكي"، أو من هم "الناس"، أو ما هو "النجاح" - لقد أجرى ببساطة تحليلاً إحصائيًا للنص. لكن الأنماط التي رأتها من المرجح أن تمر دون أن يلاحظها البشر، وبعضها (على سبيل المثال، حقيقة أن الأشخاص من جنسين مختلفين يصفون النجاح بشكل مختلف) ربما يكون من الصعب علينا رؤيتها حتى لو نظرنا إليها.

علاوة على ذلك - أسوأ. قد لا يكون أداء نظام التعلم الآلي الجيد جدًا في اكتشاف السرطان على البشرة الفاتحة جيدًا على البشرة الداكنة، أو العكس. ليس بالضرورة بسبب التحيز، ولكن لأنك ربما تحتاج إلى بناء نموذج منفصل للون بشرة مختلف، واختيار خصائص مختلفة. أنظمة التعلم الآلي غير قابلة للتبديل حتى في منطقة ضيقة مثل التعرف على الصور. تحتاج إلى تعديل النظام، أحيانًا من خلال التجربة والخطأ فقط، حتى تتمكن من التعامل بشكل جيد مع الميزات الموجودة في البيانات التي تهمك حتى تحقق الدقة التي تريدها. لكن ما قد لا تلاحظه هو أن النظام دقيق بنسبة 98% من الوقت مع مجموعة واحدة، و91% فقط (حتى أكثر دقة من التحليل البشري) مع المجموعة الأخرى.

لقد استخدمت حتى الآن بشكل أساسي أمثلة تتعلق بالأشخاص وخصائصهم. تركز المناقشة حول هذه المشكلة بشكل أساسي على هذا الموضوع. ولكن من المهم أن نفهم أن التحيز تجاه الناس ليس سوى جزء من المشكلة. سنستخدم التعلم الآلي في الكثير من الأشياء، وسيكون خطأ أخذ العينات مناسبًا لها جميعًا. ومن ناحية أخرى، إذا كنت تعمل مع أشخاص، فقد لا يكون التحيز في البيانات مرتبطًا بهم.

لفهم ذلك، دعونا نعود إلى مثال سرطان الجلد ونفكر في ثلاثة احتمالات افتراضية لفشل النظام.

  1. التوزيع غير المتجانس للأشخاص: عدد غير متوازن من الصور الفوتوغرافية ذات ألوان البشرة المختلفة، مما يؤدي إلى نتائج إيجابية كاذبة أو سلبية كاذبة بسبب التصبغ.
  2. تحتوي البيانات التي تم تدريب النظام عليها على سمة تحدث بشكل متكرر وموزعة بشكل غير متجانس وغير مرتبطة بالأشخاص وليس لها قيمة تشخيصية: مسطرة في صور سرطان الجلد أو العشب في صور الأغنام. وفي هذه الحالة، ستكون النتيجة مختلفة إذا وجد النظام بكسلات في صورة شيء تحدده العين البشرية على أنه "مسطرة".
  3. تحتوي البيانات على خاصية الطرف الثالث التي لا يستطيع الإنسان رؤيتها حتى لو بحث عنها.

ماذا يعني ذلك؟ نحن نعلم بداهة أن البيانات قد تمثل مجموعات مختلفة من الأشخاص بشكل مختلف، وعلى الأقل يمكننا التخطيط للبحث عن مثل هذه الاستثناءات. بمعنى آخر، هناك الكثير من الأسباب الاجتماعية التي تجعلنا نفترض أن البيانات المتعلقة بمجموعات من الأشخاص تحتوي بالفعل على بعض التحيز. إذا نظرنا إلى الصورة مع المسطرة، فسنرى هذه المسطرة - لقد تجاهلناها ببساطة من قبل، مع العلم أنها لا تهم، ونسينا أن النظام لا يعرف شيئًا.

ولكن ماذا لو تم التقاط جميع صورك للبشرة غير الصحية في مكتب تحت ضوء ساطع، وتم التقاط بشرتك الصحية تحت ضوء الفلورسنت؟ ماذا لو، بعد الانتهاء من تصوير بشرة صحية، وقبل تصوير بشرة غير صحية، قمت بتحديث نظام التشغيل على هاتفك، وقامت Apple أو Google بتغيير طفيف في خوارزمية تقليل الضوضاء؟ ولا يمكن للإنسان أن يلاحظ ذلك مهما بحث عن مثل هذه الميزات. لكن نظام استخدام الآلة سيرى هذا ويستخدمه على الفور. إنها لا تعرف أي شيء.

لقد تحدثنا حتى الآن عن الارتباطات الزائفة، ولكن من الممكن أيضًا أن تكون البيانات دقيقة والنتائج صحيحة، ولكنك لا تريد استخدامها لأسباب أخلاقية أو قانونية أو إدارية. على سبيل المثال، لا تسمح بعض الولايات القضائية للنساء بالحصول على خصم على التأمين الخاص بهن، على الرغم من أن النساء قد يكونن سائقات أكثر أمانًا. يمكننا أن نتخيل بسهولة نظامًا من شأنه، عند تحليل البيانات التاريخية، تعيين عامل خطر أقل لأسماء الإناث. حسنًا، دعونا نزيل الأسماء من التحديد. لكن تذكر مثال أمازون: يمكن للنظام تحديد الجنس بناءً على عوامل أخرى (على الرغم من أنه لا يعرف ما هو الجنس، أو حتى ما هي السيارة)، ولن تلاحظ ذلك حتى تقوم الجهة التنظيمية بتحليل التعريفات التي حددتها بأثر رجعي. العرض والرسوم عليك سيتم تغريمك.

وأخيرًا، غالبًا ما يُفترض أننا لن نستخدم مثل هذه الأنظمة إلا في المشاريع التي تتضمن أشخاصًا وتفاعلات اجتماعية. هذا خطأ. إذا كنت تصنع توربينات غازية، فربما ترغب في تطبيق التعلم الآلي على القياس عن بعد الذي يتم نقله بواسطة عشرات أو مئات من أجهزة الاستشعار الموجودة على منتجك (الصوت والفيديو ودرجة الحرارة وأي مستشعرات أخرى تولد بيانات يمكن تكييفها بسهولة لإنشاء آلة نموذج التعلم). افتراضيًا، يمكنك القول: "هذه بيانات من ألف توربينة تعطلت قبل أن تفشل، وهنا بيانات من ألف توربينة لم تفشل. قم ببناء نموذج لمعرفة الفرق بينهما." حسنًا، تخيل الآن أن أجهزة استشعار سيمنز مثبتة على 75% من التوربينات السيئة، و12% فقط من التوربينات الجيدة (لا يوجد أي اتصال بالفشل). سيقوم النظام ببناء نموذج للعثور على التوربينات باستخدام أجهزة استشعار سيمنز. أُووبس!

حول تحيز الذكاء الاصطناعي
اللوحة - موريتز هاردت، جامعة كاليفورنيا، بيركلي

إدارة تحيز الذكاء الاصطناعي

مالذي يمكننا فعله حيال هذا؟ بإمكانك تناول الموضوع من ثلاث زوايا:

  1. الدقة المنهجية في جمع وإدارة البيانات لتدريب النظام.
  2. الأدوات التقنية لتحليل وتشخيص سلوك النموذج.
  3. قم بالتدريب والتثقيف والحذر عند تطبيق التعلم الآلي في المنتجات.

هناك نكتة في كتاب موليير «البرجوازية في النبلاء»: قيل لرجل أن الأدب ينقسم إلى نثر وشعر، وكان مسرورًا عندما اكتشف أنه كان يتحدث نثرًا طوال حياته، دون أن يعرف ذلك. ولعل هذا هو ما يشعر به الإحصائيون اليوم: فمن دون أن يدركوا ذلك، كرسوا حياتهم المهنية للذكاء الاصطناعي وأخطاء أخذ العينات. البحث عن خطأ في أخذ العينات والقلق بشأنه ليس مشكلة جديدة، نحتاج فقط إلى التعامل مع حلها بشكل منهجي. كما ذكرنا أعلاه، في بعض الحالات يكون من الأسهل فعل ذلك من خلال دراسة المشكلات المتعلقة ببيانات الأشخاص. نحن نفترض مسبقًا أنه قد يكون لدينا تحيزات فيما يتعلق بمجموعات مختلفة من الأشخاص، ولكن من الصعب علينا حتى أن نتخيل تحيزًا بشأن أجهزة استشعار سيمنز.

والجديد في كل هذا، بالطبع، هو أن الناس لم يعودوا يقومون بالتحليل الإحصائي بشكل مباشر. ويتم تنفيذها بواسطة آلات تقوم بإنشاء نماذج كبيرة ومعقدة يصعب فهمها. تعتبر مسألة الشفافية أحد الجوانب الرئيسية لمشكلة التحيز. ونخشى ألا يكون النظام متحيزا فحسب، بل لا توجد طريقة للكشف عن انحيازه، وأن يختلف التعلم الآلي عن الأشكال الأخرى من الأتمتة، التي من المفترض أن تتكون من خطوات منطقية واضحة يمكن اختبارها.

هناك مشكلتان هنا. ربما لا يزال بإمكاننا إجراء نوع من التدقيق على أنظمة التعلم الآلي. ومراجعة أي نظام آخر ليست في الواقع أسهل.

أولاً، أحد اتجاهات البحث الحديث في مجال التعلم الآلي هو البحث عن طرق لتحديد الوظائف المهمة لأنظمة التعلم الآلي. ومع ذلك، فإن التعلم الآلي (في حالته الحالية) هو مجال علمي جديد تمامًا يتغير بسرعة، لذلك لا تعتقد أن الأشياء المستحيلة اليوم لا يمكن أن تصبح حقيقية تمامًا قريبًا. مشروع OpenAI - مثال مثير للاهتمام على ذلك.

ثانيًا، فكرة أنه يمكنك اختبار وفهم عملية صنع القرار في الأنظمة أو المنظمات الحالية هي فكرة جيدة من الناحية النظرية، ولكنها كذلك من الناحية العملية. إن فهم كيفية اتخاذ القرارات في مؤسسة كبيرة ليس بالأمر السهل. وحتى لو كانت هناك عملية رسمية لصنع القرار، فإنها لا تعكس كيفية تفاعل الناس فعليا، وهم أنفسهم في كثير من الأحيان لا يملكون نهجا منطقيا ومنهجيا لاتخاذ قراراتهم. كما قال زميلي فيجاي باندي, الناس هم أيضا صناديق سوداء.

خذ ألف شخص في العديد من الشركات والمؤسسات المتداخلة، وستصبح المشكلة أكثر تعقيدًا. نعلم بعد ذلك أن مكوك الفضاء كان مقدرًا له أن يتفكك عند عودته، وكان لدى الأفراد داخل وكالة ناسا معلومات أعطتهم سببًا للاعتقاد بأن شيئًا سيئًا قد يحدث، لكن النظام بشكل عام لم أكن أعرف هذا. حتى أن وكالة ناسا خضعت لعملية تدقيق مماثلة بعد أن فقدت مكوكها السابق، ومع ذلك فقد خسرت مكوكًا آخر لسبب مشابه جدًا. من السهل القول بأن المنظمات والأفراد يتبعون قواعد واضحة ومنطقية يمكن اختبارها وفهمها وتغييرها، ولكن التجربة تثبت خلاف ذلك. هذا "وهم جوسبلان".

كثيرا ما أقارن التعلم الآلي بقواعد البيانات، وخاصة العلائقية منها، وهي تقنية أساسية جديدة غيرت قدرات علوم الكمبيوتر والعالم من حولها، والتي أصبحت جزءا من كل شيء، نستخدمها باستمرار دون أن ندرك ذلك. تعاني قواعد البيانات أيضًا من مشاكل، وهي ذات طبيعة مماثلة: قد يكون النظام مبنيًا على افتراضات سيئة أو بيانات سيئة، ولكن سيكون من الصعب ملاحظة ذلك، وسيفعل الأشخاص الذين يستخدمون النظام ما يطلبه منهم دون طرح أسئلة. هناك الكثير من النكات القديمة عن موظفي الضرائب الذين كتبوا اسمك بشكل خاطئ ذات مرة، وإقناعهم بتصحيح الخطأ أصعب بكثير من تغيير اسمك فعليًا. هناك العديد من الطرق للتفكير في هذا، ولكن ليس من الواضح أيهما أفضل: هل هي مشكلة فنية في SQL، أم خطأ في إصدار أوراكل، أم فشل المؤسسات البيروقراطية؟ ما مدى صعوبة العثور على خطأ في عملية أدت إلى عدم وجود ميزة تصحيح الأخطاء المطبعية في النظام؟ هل كان من الممكن اكتشاف ذلك قبل أن يبدأ الناس في الشكوى؟

يتم توضيح هذه المشكلة بشكل أكثر بساطة من خلال القصص عندما يقود السائقون سياراتهم في الأنهار بسبب البيانات القديمة في الملاح. حسنًا، الخرائط بحاجة إلى التحديث باستمرار. ولكن إلى أي مدى يقع اللوم على TomTom في تفجير سيارتك في البحر؟

السبب وراء قولي هذا هو أن تحيز التعلم الآلي سيخلق مشاكل. لكن هذه المشاكل ستكون مشابهة لتلك التي واجهناها في الماضي، ويمكن ملاحظتها وحلها (أو لا) بنفس القدر الذي تمكنا من القيام به في الماضي. ولذلك، فإن السيناريو الذي يتسبب فيه تحيز الذكاء الاصطناعي في إحداث ضرر من غير المرجح أن يحدث لكبار الباحثين الذين يعملون في مؤسسة كبيرة. على الأرجح، سيكتب بعض مقاولي التكنولوجيا أو بائعي البرامج غير المهمين شيئًا ما على ركبهم، باستخدام مكونات ومكتبات وأدوات مفتوحة المصدر لا يفهمونها. وسيشتري العميل سيئ الحظ عبارة “الذكاء الاصطناعي” في وصف المنتج، ودون طرح أي أسئلة، يوزعها على موظفيه ذوي الأجور المنخفضة، ويأمرهم بفعل ما يقوله الذكاء الاصطناعي. وهذا بالضبط ما حدث مع قواعد البيانات. هذه ليست مشكلة ذكاء اصطناعي، أو حتى مشكلة برمجية. هذا هو العامل البشري.

اختتام

يمكن للتعلم الآلي أن يفعل أي شيء يمكنك تعليمه للكلب، لكن لا يمكنك أبدًا التأكد مما علمته للكلب بالضبط.

غالبًا ما أشعر أن مصطلح "الذكاء الاصطناعي" لا يعيق سوى محادثات كهذه. يعطي هذا المصطلح انطباعًا خاطئًا بأننا خلقناه بالفعل - هذا الذكاء. أننا في طريقنا إلى HAL9000 أو Skynet - وهو أمر في الواقع يفهم. لكن لا. هذه مجرد آلات، ومن الأدق مقارنتها بغسالة على سبيل المثال. إنها تغسل الملابس بشكل أفضل بكثير من الإنسان، ولكن إذا وضعت الأطباق فيها بدلًا من الغسيل، فسوف تغسلها. سوف تصبح الأطباق نظيفة. ولكن هذا لن يكون ما كنت تتوقعه، وهذا لن يحدث لأن النظام لديه أي أحكام مسبقة فيما يتعلق بالأطباق. لا تعرف الغسالة ما هي الأطباق أو ما هي الملابس - إنها مجرد مثال على الأتمتة، ولا تختلف من الناحية النظرية عن كيفية أتمتة العمليات من قبل.

سواء كنا نتحدث عن السيارات أو الطائرات أو قواعد البيانات، ستكون هذه الأنظمة قوية جدًا ومحدودة جدًا. وسوف تعتمد كليًا على كيفية استخدام الأشخاص لهذه الأنظمة، وما إذا كانت نواياهم جيدة أم سيئة، ومدى فهمهم لكيفية عملها.

لذلك، فإن القول بأن "الذكاء الاصطناعي هو الرياضيات، لذا لا يمكن أن يكون له تحيزات" هو قول خاطئ تمامًا. ولكن من الخطأ أيضًا أن نقول إن التعلم الآلي هو "ذاتي بطبيعته". يجد التعلم الآلي أنماطًا في البيانات، والأنماط التي يجدها تعتمد على البيانات، والبيانات تعتمد علينا. تماما مثل ما نفعله معهم. يقوم التعلم الآلي ببعض الأشياء بشكل أفضل مما نستطيع، لكن الكلاب، على سبيل المثال، أكثر فعالية من البشر في اكتشاف المخدرات، وهذا ليس سببًا لاستخدامها كشهود وإصدار أحكام بناءً على شهادتهم. وبالمناسبة، فإن الكلاب أكثر ذكاءً من أي نظام للتعلم الآلي.

ترجمة: ديانا ليتسكايا.
التحرير: أليكسي إيفانوف.
تواصل اجتماعي: @بونشيك نيوز.

المصدر: www.habr.com

إضافة تعليق