Proceso kontraŭ Microsoft kaj OpenAI rilata al la GitHub Copilot-kodgeneratoro

Malfermfonta tipografia programisto Matthew Butterick kaj la Joseph Saveri Law Firm prezentis proceson (PDF) kontraŭ la produktantoj de la teknologio uzita en la Copilot-servo de GitHub. Akuzitoj inkludas Mikrosofton, GitHub kaj la firmaojn kiuj kontrolas la OpenAI-projekton, kiu produktis la OpenAI Codex-kodgeneracian modelon kiu subestas GitHub Copilot. La procedoj provas impliki la tribunalon en determini la laŭleĝecon de kreado de servoj kiel GitHub Copilot kaj determini ĉu tiaj servoj malobservas la rajtojn de aliaj programistoj.

La agadoj de la akuzitoj estis komparitaj kun la kreado de nova speco de programaro-piratado, bazita sur la manipulado de ekzistanta kodo uzante maŝinlernajn teknikojn kaj permesante al ili profiti el la laboro de aliaj homoj. La kreado de Copilot ankaŭ estas rigardata kiel la enkonduko de nova mekanismo por monetigi la laboron de liberkodaj programistoj, malgraŭ la fakto, ke GitHub antaŭe promesis neniam fari tion.

La pozicio de la akuzantoj resumiĝas al tio, ke la rezulto de kodgenerado per maŝinlernada sistemo trejnita sur publike disponeblaj fonttekstoj ne povas esti interpretita kiel principe nova kaj sendependa laboro, ĉar ĝi estas sekvo de algoritmoj prilaboranta jam ekzistantan kodon. Laŭ la akuzantoj, Copilot nur reproduktas kodon kiu havas rektajn referencojn al ekzistanta kodo en publikaj deponejoj, kaj tiaj manipuladoj ne kategoriiĝas sub la kriterioj de justa uzo. Alivorte, la koda sintezo en GitHub Copilot estas konsiderata de la akuzantoj kiel la kreado de derivita verko el ekzistanta kodo, distribuita sub certaj licencoj kaj havanta specifajn aŭtorojn.

Aparte, dum trejnado de la Copilot-sistemo, kodo estas uzita kiu estas distribuita sub malfermaj licencoj, en la plej multaj kazoj postulante avizon pri aŭtoreco (atribuo). Ĉi tiu postulo ne estas plenumita dum generado de la rezulta kodo, kio estas klara malobservo de la plej multaj malfermfontaj permesiloj kiel GPL, MIT kaj Apache. Krome, Copilot malobservas la proprajn kondiĉojn de servo kaj privateco de GitHub, ne plenumas la DMCA, kiu malpermesas la forigon de kopirajtaj informoj, kaj la CCPA (Kalifornia Konsumanto Privateco-Leĝo), kiu reguligas la uzadon de personaj datumoj.

La teksto de la proceso disponigas proksimuman kalkulon de la damaĝo kaŭzita al la komunumo kiel rezulto de la agadoj de Copilot. Laŭ Sekcio 1202 de la Digital Millennium Copyright Act (DMCA), la minimumaj damaĝoj estas $2500 per malobservo. Konsiderante la fakton, ke la servo Copilot havas 1.2 milionojn da uzantoj kaj ĉiufoje kiam la servo estas uzata, okazas tri DMCA-malobservoj (kondiĉoj pri atribuo, kopirajto kaj permesilo), la minimuma kvanto de totala damaĝo estas taksita je 9 miliardoj da dolaroj (1200000 * 3). * $ 2500).

La homrajta organizo Software Freedom Conservancy (SFC), kiu antaŭe kritikis GitHub kaj Copilot, komentis la proceson kun rekomendo ne devii de unu el ĝiaj antaŭe deklaritaj principoj kiam ĝi protektas la interesojn de la komunumo - "komunumorientita devigo devus. ne prioritatu financan gajnon." Laŭ la SFC, la agoj de Copilot estas neakcepteblaj ĉefe ĉar ili subfosas la copyleft-mekanismon, celitan provizi egalajn rajtojn al uzantoj, programistoj kaj konsumantoj. Multaj el la projektoj kovritaj en Copilot estas distribuitaj sub copyleft-licencoj, kiel ekzemple la GPL, kiuj postulas la kodon de derivitaj verkoj esti distribuita sub kongrua permesilo. Enmetante ekzistantan kodon kiel sugestite de Copilot, programistoj povas senintence malobservi la permesilon de la projekto de kiu la kodo estis pruntita.

Ni rememoru, ke somere GitHub lanĉis novan komercan servon, GitHub Copilot, trejnitan sur aro da fontotekstoj afiŝitaj en publikaj GitHub-deponejoj, kaj kapabla generi normajn dezajnojn dum skribado de kodo. La servo povas generi sufiĉe kompleksajn kaj grandajn blokojn de kodo, ĝis pretaj funkcioj, kiuj povas ripeti tekstopasaĵojn de ekzistantaj projektoj. Laŭ GitHub, la sistemo provas rekrei la strukturon de la kodo prefere ol kopii la kodon mem, tamen, en proksimume 1% de kazoj, la proponita rekomendo povas inkluzivi kodfragmentojn de ekzistantaj projektoj kiuj estas pli ol 150 karakteroj longaj. Por malhelpi anstataŭigon de ekzistanta kodo, Copilot havas enkonstruitan filtrilon kiu kontrolas por intersekciĝoj kun projektoj gastigitaj sur GitHub, sed ĉi tiu filtrilo estas aktivigita laŭ la bontrovo de la uzanto.

Du tagojn antaŭ ol la proceso estis prezentita, GitHub sciigis sian intencon efektivigi funkcion en 2023, kiu permesus spuri la rilaton inter fragmentoj generitaj en Copilot kaj ekzistanta kodo en la deponejoj. Programistoj povos vidi liston de simila kodo jam ĉeestanta en publikaj deponejoj, kaj ankaŭ ordigi intersekciĝojn laŭ kodlicenco kaj tempo de modifo.

fonto: opennet.ru

Aldoni komenton