O Projeto Gentoo proibiu a adoção de mudanças preparadas com ferramentas de IA

O conselho administrativo da distribuição Gentoo Linux adotou regras que proíbem o Gentoo de aceitar qualquer conteúdo criado usando ferramentas de IA que processam consultas em linguagem natural, como ChatGPT, Bard e GitHub Copilot. Tais ferramentas não devem ser usadas ao escrever código de componentes do Gentoo, criar ebuilds, preparar documentação ou enviar relatórios de bugs.

As principais preocupações para as quais o uso de ferramentas de IA no Gentoo é proibido:

  • Incerteza sobre possíveis violações de direitos autorais em conteúdo criado usando modelos treinados em grandes conjuntos de dados, incluindo obras protegidas por direitos autorais. Menciona também a incapacidade de garantir o cumprimento dos requisitos de licenciamento em código gerado através de ferramentas de IA. O código de IA gerado pode ser considerado um trabalho derivado do código que foi usado para treinar o modelo e é distribuído sob determinadas licenças.

    Por exemplo, ao treinar um modelo em código com uma licença que requer atribuição, o código fornecido pelas ferramentas de IA não cumpre este requisito, o que pode ser considerado uma violação da maioria das licenças abertas, como GPL, MIT e Apache. Também pode haver problemas de compatibilidade de licenciamento ao inserir código gerado usando modelos treinados em código com licenças copyleft em projetos sob licenças permissivas.

  • Possíveis problemas de qualidade. A preocupação é que o código ou texto gerado pelas ferramentas de IA possa parecer correto, mas contenha problemas ocultos e discrepâncias com os fatos. Usar esse conteúdo sem verificação pode resultar em projetos de qualidade inferior. Por exemplo, o código sintetizado pode repetir erros no código usado para treinar o modelo, o que acabará por levar a vulnerabilidades e à falta das verificações necessárias ao processar dados externos.

    A verificação requer muito trabalho para verificação de fatos e revisão de código. Ao analisar relatórios de erros gerados automaticamente, os desenvolvedores são obrigados a perder muito tempo analisando relatórios inúteis e verificando várias vezes as informações neles contidas, pois a qualidade externa do design cria confiança nas informações e há a sensação de que o revisor entendeu mal alguma coisa.

  • Questões éticas relacionadas à violação de direitos autorais no treinamento de modelos, impacto negativo no meio ambiente devido aos altos custos de energia na criação de modelos, demissões devido à substituição de pessoal por serviços de IA, diminuição da qualidade dos serviços após a substituição dos serviços de suporte por bots, aumento oportunidades para spam e fraude.

O anúncio observa que o novo requisito pode ser dispensado seletivamente para ferramentas de IA que comprovadamente não tenham direitos autorais, qualidade ou problemas éticos.

Fonte: opennet.ru

Adicionar um comentário