„Gentoo“ projektas uždraudė priimti pakeitimus, parengtus naudojant AI įrankius

„Gentoo Linux“ platinimo valdyba patvirtino taisykles, draudžiančias „Gentoo“ priimti bet kokį turinį, sukurtą naudojant AI įrankius, apdorojančius natūralios kalbos užklausas, tokias kaip „ChatGPT“, „Bard“ ir „GitHub Copilot“. Tokie įrankiai neturėtų būti naudojami rašant Gentoo komponento kodą, kuriant ebuildus, ruošiant dokumentaciją ar pateikiant klaidų ataskaitas.

Pagrindinės problemos, dėl kurių „Gentoo“ draudžiama naudoti AI įrankius:

  • Neaiškumas dėl galimo autorių teisių pažeidimo turinyje, sukurtame naudojant modelius, parengtus naudojant didelius duomenų rinkinius, įskaitant autorių teisių saugomus kūrinius. Jame taip pat minimas nesugebėjimas užtikrinti, kad kode, sugeneruota naudojant AI įrankius, būtų laikomasi licencijavimo reikalavimų. Sukurtas AI kodas gali būti laikomas išvestiniu iš kodo, kuris buvo naudojamas modeliui mokyti ir platinamas pagal tam tikras licencijas.

    Pavyzdžiui, mokant modelį pagal kodą su licencija, kuriai reikalingas priskyrimas, AI įrankių pateiktas kodas neatitinka šio reikalavimo, o tai gali būti laikoma daugumos atvirųjų licencijų, tokių kaip GPL, MIT ir Apache, pažeidimu. Taip pat gali kilti licencijavimo suderinamumo problemų, kai į projektus pagal leistinas licencijas įterpiamas kodas, sukurtas naudojant modelius, apmokytus pagal kodą su copyleft licencijomis.

  • Galimos kokybės problemos. Susirūpinimą kelia tai, kad AI įrankių sukurtas kodas ar tekstas gali atrodyti teisingai, tačiau jame yra paslėptų problemų ir neatitikimų faktams. Naudojant tokį turinį be patvirtinimo, projektai gali būti prastesnės kokybės. Pavyzdžiui, susintetintas kodas gali pakartoti klaidas kode, naudojamoje modeliui parengti, o tai galiausiai sukels pažeidžiamumą ir reikalingų patikrinimų trūkumą apdorojant išorinius duomenis.

    Patvirtinimas reikalauja daug darbo, kad būtų galima patikrinti faktus ir peržiūrėti kodą. Analizuodami automatiškai generuojamas klaidų ataskaitas, kūrėjai yra priversti gaišti daug laiko analizuodami nenaudingas ataskaitas ir kelis kartus tikrindami jose esančią informaciją, nes išorinė dizaino kokybė sukuria pasitikėjimą informacija ir kyla jausmas, kad apžvalgininkas. kažką ne taip suprato.

  • Etikos problemos, susijusios su autorių teisių pažeidimu rengiant modelius, neigiamas poveikis aplinkai dėl didelių energijos sąnaudų kuriant modelius, atleidimai dėl personalo pakeitimo dirbtinio intelekto paslaugomis, paslaugų kokybės pablogėjimas pakeitus palaikymo paslaugas robotais, padidėjo. šlamšto ir sukčiavimo galimybės.

Pranešime pažymima, kad naujojo reikalavimo gali būti netaikomas dirbtinio intelekto įrankiams, kurie, kaip įrodyta, neturi autorių teisių, kokybės ar etikos problemų.

Šaltinis: opennet.ru

Добавить комментарий