لقد حظر مشروع Gentoo اعتماد التغييرات المعدة باستخدام أدوات الذكاء الاصطناعي

وافق مجلس إدارة توزيع Gentoo Linux على القواعد التي تمنع Gentoo من قبول أي محتوى تم إنشاؤه باستخدام أدوات الذكاء الاصطناعي التي تعالج استعلامات اللغة الطبيعية، مثل ChatGPT وBard وGitHub Copilot. لا ينبغي استخدام مثل هذه الأدوات عند كتابة التعليمات البرمجية لمكون Gentoo، أو إنشاء عمليات إنشاء إلكترونية، أو إعداد الوثائق، أو إرسال تقارير الأخطاء.

الاهتمامات الرئيسية التي يُحظر بسببها استخدام أدوات الذكاء الاصطناعي في Gentoo:

  • عدم اليقين بشأن احتمال انتهاك حقوق الطبع والنشر في المحتوى الذي تم إنشاؤه باستخدام نماذج تم تدريبها على مجموعات كبيرة من البيانات، بما في ذلك الأعمال المحمية بحقوق الطبع والنشر. ويشير أيضًا إلى عدم القدرة على ضمان الامتثال لمتطلبات الترخيص في التعليمات البرمجية التي يتم إنشاؤها من خلال أدوات الذكاء الاصطناعي. يمكن اعتبار كود الذكاء الاصطناعي الذي تم إنشاؤه عملاً مشتقًا من الكود الذي تم استخدامه لتدريب النموذج ويتم توزيعه بموجب تراخيص معينة.

    على سبيل المثال، عند تدريب نموذج على كود بترخيص يتطلب الإسناد، فإن الكود الذي توفره أدوات الذكاء الاصطناعي لا يتوافق مع هذا المطلب، وهو ما يمكن اعتباره انتهاكًا لمعظم التراخيص المفتوحة، مثل GPL وMIT وApache. قد تكون هناك أيضًا مشكلات في توافق الترخيص عند إدراج التعليمات البرمجية التي تم إنشاؤها باستخدام نماذج تم تدريبها على التعليمات البرمجية مع تراخيص الحقوق المتروكة في المشاريع بموجب تراخيص متساهلة.

  • مشاكل الجودة المحتملة. يكمن القلق في أن الكود أو النص الذي تم إنشاؤه بواسطة أدوات الذكاء الاصطناعي قد يبدو صحيحًا، ولكنه يحتوي على مشاكل وتناقضات مخفية مع الحقائق. قد يؤدي استخدام هذا المحتوى دون التحقق إلى انخفاض جودة المشاريع. على سبيل المثال، يمكن للتعليمات البرمجية المركبة تكرار الأخطاء في التعليمات البرمجية المستخدمة لتدريب النموذج، الأمر الذي سيؤدي في النهاية إلى ثغرات أمنية وعدم وجود عمليات فحص ضرورية عند معالجة البيانات الخارجية.

    يتطلب التحقق الكثير من العمل للتحقق من الحقائق ومراجعة التعليمات البرمجية. عند تحليل تقارير الأخطاء التي يتم إنشاؤها تلقائيًا، يضطر المطورون إلى إضاعة الكثير من الوقت في تحليل التقارير غير المفيدة والتحقق مرة أخرى من المعلومات الواردة فيها عدة مرات، نظرًا لأن الجودة الخارجية للتصميم تخلق الثقة في المعلومات وهناك شعور بأن المراجع يساء فهم شيء.

  • زادت القضايا الأخلاقية المتعلقة بانتهاك حقوق الطبع والنشر عند نماذج التدريب، والتأثير السلبي على البيئة بسبب ارتفاع تكاليف الطاقة عند إنشاء النماذج، وتسريح العمال بسبب استبدال الموظفين بخدمات الذكاء الاصطناعي، وانخفاض جودة الخدمات بعد استبدال خدمات الدعم بالروبوتات. فرص البريد العشوائي والاحتيال.

يشير الإعلان إلى أنه قد يتم التنازل عن المتطلب الجديد بشكل انتقائي لأدوات الذكاء الاصطناعي التي ثبت أنها لا تحتوي على حقوق نشر أو جودة أو مشكلات أخلاقية.

المصدر: opennet.ru

إضافة تعليق