Projekt Gentoo je prepovedal sprejemanje sprememb, pripravljenih z orodji AI

Upravni odbor distribucije Gentoo Linux je sprejel pravila, ki Gentooju prepovedujejo sprejemanje kakršne koli vsebine, ustvarjene z orodji AI, ki obdelujejo poizvedbe v naravnem jeziku, kot so ChatGPT, Bard in GitHub Copilot. Takšnih orodij ne bi smeli uporabljati pri pisanju kode komponente Gentoo, ustvarjanju ebuild, pripravi dokumentacije ali pošiljanju poročil o napakah.

Glavni pomisleki, zaradi katerih je uporaba orodij AI v Gentooju prepovedana:

  • Negotovost glede morebitne kršitve avtorskih pravic v vsebini, ustvarjeni z uporabo modelov, usposobljenih za velike nize podatkov, vključno z avtorsko zaščitenimi deli. Omenja tudi nezmožnost zagotavljanja skladnosti z licenčnimi zahtevami v kodi, ustvarjeni z orodji AI. Ustvarjeno kodo AI lahko štejemo za izpeljanko kode, ki je bila uporabljena za usposabljanje modela in se distribuira pod določenimi licencami.

    Na primer, pri usposabljanju modela na kodi z licenco, ki zahteva pripis, koda, ki jo zagotavljajo orodja AI, ni v skladu s to zahtevo, kar bi lahko veljalo za kršitev večine odprtih licenc, kot so GPL, MIT in Apache. Težave z združljivostjo licenc lahko pride tudi pri vstavljanju kode, ustvarjene z uporabo modelov, usposobljenih za kodo z licencami copyleft, v projekte pod permisivnimi licencami.

  • Možne težave s kakovostjo. Zaskrbljujoče je, da je lahko koda ali besedilo, ki ga ustvarijo orodja AI, videti pravilno, vendar vsebuje skrite težave in neskladja z dejstvi. Uporaba takšne vsebine brez preverjanja lahko povzroči manj kakovostne projekte. Na primer, sintetizirana koda lahko ponovi napake v kodi, uporabljeni za usposabljanje modela, kar bo na koncu povzročilo ranljivosti in pomanjkanje potrebnih preverjanj pri obdelavi zunanjih podatkov.

    Preverjanje zahteva veliko dela za preverjanje dejstev in pregled kode. Pri analizi samodejno ustvarjenih poročil o napakah so razvijalci prisiljeni izgubiti veliko časa z analizo neuporabnih poročil in večkratnim dvojnim preverjanjem tam vsebovanih informacij, saj zunanja kakovost zasnove ustvarja zaupanje v informacije in obstaja občutek, da pregledovalec nekaj narobe razumel.

  • Etična vprašanja v zvezi s kršenjem avtorskih pravic pri izobraževanju modelov, negativni vplivi na okolje zaradi visokih stroškov energije pri izdelavi modelov, odpuščanja zaradi zamenjave osebja s storitvami umetne inteligence, zmanjšanje kakovosti storitev po zamenjavi podpornih storitev z boti, povečana možnosti za neželeno pošto in goljufije.

Obvestilo ugotavlja, da se lahko nova zahteva selektivno opusti za orodja AI, za katera je dokazano, da nimajo avtorskih pravic, kakovosti ali etičnih težav.

Vir: opennet.ru

Dodaj komentar