Праект Gentoo забараніў прыняцце змен, падрыхтаваных пры дапамозе AI-інструментаў

Кіравальная рада дыстрыбутыва Gentoo Linux зацвердзіў правілы, якія забараняюць прыняцце ў Gentoo любога кантэнту, створанага з выкарыстаннем AI-інструментаў, якія апрацоўваюць запыты на натуральнай мове, такіх як ChatGPT, Bard і GitHub Copilot. Падобныя прылады не павінны выкарыстоўвацца пры напісанні кода кампанентаў Gentoo, стварэнні ebuild, падрыхтоўцы дакументацыі і адпраўцы справаздач аб памылках.

Асноўныя асцярогі, з-за якіх забаронена ўжыванне AI-інструментаў у Gentoo:

  • Нявызначанасць у галіне магчымага парушэння аўтарскіх правоў у змесцівам, створаным пры дапамозе мадэляў, навучаных на вялікім масіве інфармацыі, які ахоплівае і творы, абароненыя аўтарскім правам. Гэтак жа згадваецца немагчымасць гарантаваць захаванне ліцэнзійных патрабаванняў у кодзе, згенераваным праз AI-інструменты. Згенераваны AI код можа разглядацца як стварэнне вытворнай працы ад кода, які выкарыстоўваўся пры навучанні мадэлі і распаўсюджваецца пад пэўнымі ліцэнзіямі.

    Напрыклад, пры навучанні мадэлі на кодзе з ліцэнзіяй, якая патрабуе паведамлення аб аўтарстве (атрыбуцыя), у які прадстаўляецца AI-інструментамі кодзе дадзенае патрабаванне не выконваецца, што можа разглядацца як парушэнне большасці адчыненых ліцэнзій, такіх як GPL, MIT і Apache. Таксама могуць узнікнуць праблемы з ліцэнзійнай сумяшчальнасцю пры ўстаўцы ў праекты пад пермісіўнымі ліцэнзіямі кода, згенераванага з выкарыстаннем мадэляў, навучаных на кодзе з капілефт-ліцэнзіямі.

  • Магчымыя праблемы з якасцю. Асцярогі звязаныя з тым, што згенераваны AI-інструментамі код або тэкст можа выглядаць карэктным, але змяшчаць няяўныя праблемы і разыходжанні з фактамі. Выкарыстанне такога кантэнту без праверкі можа прывесці да зніжэння якасці праектаў. Напрыклад, сінтэзаваны код можа паўтараць памылкі кода, які выкарыстоўваецца пры навучанні мадэлі, што ў выніку прывядзе да з'яўлення ўразлівасцяў і адсутнасці неабходных праверак пры апрацоўцы вонкавых дадзеных.

    Праверка ж патрабуе вялікіх працавыдаткаў на фактчэкінг і рэцэнзаванне кода. Разбіраючы аўтаматычна згенераваныя справаздачы аб памылках распрацоўшчыкі вымушаныя марна марнаваць шмат часу на аналіз бескарысных справаздач і пераправяраць паказаныя там звесткі па некалькі разоў, бо вонкавая якасць афармлення выклікае давер да інфармацыі і ўзнікае адчуванне, што які рэцэнзуе штосьці не зразумеў.

  • Этычныя пытанні, звязаныя з парушэннем аўтарскіх правоў пры навучанні мадэляў, негатыўным уплывам на экалогію з-за вялікіх энергазатрат пры стварэнні мадэляў, звальненнямі ў сувязі з заменай персаналу AI-сэрвісамі, зніжэннем якасці сэрвісаў пасля замены службаў падтрымкі на ботаў, пашырэннем магчымасцяў для спаму і махлярства.

У анонсе адзначаецца, што новае патрабаванне можа быць выбарачна адменена для AI-інструментаў, для якіх будзе даказана адсутнасць праблем з аўтарскім правам, якасцю і этыкай.

Крыніца: opennet.ru

Дадаць каментар