U Prughjettu Gentoo hà pruibitu l'adopzione di cambiamenti preparati cù l'arnesi AI

U cunsigliu di guvernu di a distribuzione Gentoo Linux hà appruvatu e regule chì pruibiscenu à Gentoo di accettà qualsiasi cuntenutu creatu utilizendu strumenti AI chì processanu e dumande in lingua naturale, cum'è ChatGPT, Bard è GitHub Copilot. Tali arnesi ùn deve esse usatu quandu scrive u codice di cumpunenti Gentoo, creanu ebuilds, preparanu documentazioni, o sottumettenu rapporti di bug.

I prublemi principali per quale l'usu di strumenti AI in Gentoo hè pruibitu:

  • Incertezza nantu à una pussibule violazione di copyright in u cuntenutu creatu utilizendu mudelli furmati nantu à grandi seti di dati, cumprese opere cun copyright. Menciona ancu l'incapacità di guarantiscia u rispettu di i requisiti di licenze in codice generatu per l'arnesi AI. U codice AI generatu pò esse cunsideratu un travagliu derivativu di u codice chì hè stata utilizata per furmà u mudellu è hè distribuitu sottu certi licenze.

    Per esempiu, quandu a furmazione di un mudellu nantu à u codice cù una licenza chì esige l'attribuzione, u codice furnitu da l'arnesi AI ùn hè micca cumpletu cù questu requisitu, chì puderia esse cunsideratu una violazione di a maiò parte di licenze aperte, cum'è GPL, MIT è Apache. Ci ponu ancu esse prublemi di cumpatibilità di licenze quandu inserite u codice generatu cù mudelli furmatu nantu à u codice cù licenze copyleft in prughjetti sottu licenze permissive.

  • Possibili prublemi di qualità. A preoccupazione hè chì u codice o u testu generatu da l'arnesi AI pò vede currettu, ma cuntene prublemi oculati è discrepanzii cù i fatti. Utilizà tali cuntenutu senza verificazione pò esse risultatu in prughjetti di qualità più bassa. Per esempiu, u codice sintetizatu pò ripetiri l'errore in u codice utilizatu per furmà u mudellu, chì ultimamente porta à vulnerabilità è a mancanza di cuntrolli necessarii in u processu di dati esterni.

    A verificazione richiede assai travagliu per a verificazione di fatti è a revisione di codice. Quandu analizà i rapporti d'errore generati automaticamente, i sviluppatori sò furzati à perde assai tempu per analizà rapporti inutili è cuntrollà duie volte l'infurmazioni cuntenute quì, postu chì a qualità esterna di u disignu crea fiducia in l'infurmazioni è ci hè un sentimentu chì u revisore. sbagliatu qualcosa.

  • I prublemi etichi ligati à a violazione di u copyright quandu i mudelli di furmazione, l'impattu negativu annantu à l'ambiente per via di l'alti costi energetichi quandu creanu mudelli, licenziamenti per via di a sustituzione di u persunale cù servizii AI, una diminuzione di a qualità di i servizii dopu à rimpiazzà i servizii di supportu cù bots, aumentatu opportunità per spam è fraud.

L'annunziu nota chì u novu requisitu pò esse rinunciatu selettivamente per i strumenti AI chì sò pruvati chì ùn anu micca copyright, qualità o questioni etiche.

Source: opennet.ru

Add a comment