El Proyecto Gentoo ha prohibido la adopción de cambios preparados con herramientas de IA

La junta directiva de la distribución Gentoo Linux ha adoptado reglas que prohíben a Gentoo aceptar cualquier contenido creado utilizando herramientas de inteligencia artificial que procesen consultas en lenguaje natural, como ChatGPT, Bard y GitHub Copilot. Estas herramientas no deben usarse al escribir código de componentes Gentoo, crear ebuilds, preparar documentación o enviar informes de errores.

Las principales preocupaciones por las cuales está prohibido el uso de herramientas de IA en Gentoo:

  • Incertidumbre sobre una posible infracción de derechos de autor en contenido creado utilizando modelos entrenados en grandes conjuntos de datos, incluidas obras protegidas por derechos de autor. También menciona la incapacidad de garantizar el cumplimiento de los requisitos de licencia en el código generado a través de herramientas de inteligencia artificial. El código de IA generado puede considerarse un trabajo derivado del código que se utilizó para entrenar el modelo y se distribuye bajo determinadas licencias.

    Por ejemplo, al entrenar un modelo en código con una licencia que requiere atribución, el código proporcionado por las herramientas de IA no cumple con este requisito, lo que podría considerarse una violación de la mayoría de las licencias abiertas, como GPL, MIT y Apache. También puede haber problemas de compatibilidad de licencias al insertar código generado utilizando modelos entrenados en código con licencias copyleft en proyectos bajo licencias permisivas.

  • Posibles problemas de calidad. La preocupación es que el código o texto generado por las herramientas de IA pueda parecer correcto, pero contenga problemas ocultos y discrepancias con los hechos. El uso de dicho contenido sin verificación puede resultar en proyectos de menor calidad. Por ejemplo, el código sintetizado puede repetir errores en el código utilizado para entrenar el modelo, lo que en última instancia conducirá a vulnerabilidades y a la falta de las comprobaciones necesarias al procesar datos externos.

    La verificación requiere mucho trabajo para verificar los hechos y revisar el código. Al analizar informes de errores generados automáticamente, los desarrolladores se ven obligados a perder mucho tiempo analizando informes inútiles y verificando varias veces la información contenida en ellos, ya que la calidad externa del diseño genera confianza en la información y existe la sensación de que el revisor entendido mal algo.

  • Aumentaron las cuestiones éticas relacionadas con la infracción de derechos de autor al entrenar modelos, el impacto negativo en el medio ambiente debido a los altos costos de energía al crear modelos, los despidos debido al reemplazo de personal con servicios de IA, una disminución en la calidad de los servicios después de reemplazar los servicios de soporte con bots. oportunidades de spam y fraude.

El anuncio señala que el nuevo requisito puede no aplicarse selectivamente a las herramientas de inteligencia artificial que demuestren que no tienen derechos de autor, calidad o problemas éticos.

Fuente: opennet.ru

Añadir un comentario