Proses hukum terhadap Microsoft dan OpenAI terkait dengan pembuat kode GitHub Copilot

Pengembang tipografi open source Matthew Butterick dan Firma Hukum Joseph Saveri telah mengajukan gugatan (PDF) terhadap pembuat teknologi yang digunakan dalam layanan Copilot GitHub. Terdakwa termasuk Microsoft, GitHub dan perusahaan yang mengawasi proyek OpenAI, yang memproduksi model pembuatan kode OpenAI Codex yang mendasari GitHub Copilot. Prosesnya berupaya melibatkan pengadilan dalam menentukan legalitas pembuatan layanan seperti GitHub Copilot dan menentukan apakah layanan tersebut melanggar hak pengembang lain.

Aktivitas para terdakwa disamakan dengan pembuatan pembajakan perangkat lunak jenis baru, berdasarkan manipulasi kode yang ada menggunakan teknik pembelajaran mesin dan memungkinkan mereka mengambil keuntungan dari karya orang lain. Penciptaan Copilot juga dipandang sebagai pengenalan mekanisme baru untuk memonetisasi pekerjaan pengembang perangkat lunak sumber terbuka, meskipun GitHub sebelumnya berjanji untuk tidak melakukan hal ini.

Posisi penggugat bermuara pada fakta bahwa hasil pembuatan kode oleh sistem pembelajaran mesin yang dilatih pada teks sumber yang tersedia untuk umum tidak dapat ditafsirkan sebagai karya yang pada dasarnya baru dan independen, karena ini merupakan konsekuensi dari algoritma yang memproses kode yang sudah ada. Menurut penggugat, Copilot hanya mereproduksi kode yang memiliki referensi langsung ke kode yang ada di repositori publik, dan manipulasi tersebut tidak termasuk dalam kriteria penggunaan wajar. Dengan kata lain, sintesis kode di GitHub Copilot dianggap oleh penggugat sebagai ciptaan karya turunan dari kode yang sudah ada, didistribusikan di bawah lisensi tertentu dan memiliki penulis tertentu.

Khususnya, saat melatih sistem Kopilot, kode yang digunakan didistribusikan di bawah lisensi terbuka, dalam banyak kasus memerlukan pemberitahuan kepenulisan (atribusi). Persyaratan ini tidak dipenuhi saat membuat kode yang dihasilkan, yang jelas merupakan pelanggaran terhadap sebagian besar lisensi sumber terbuka seperti GPL, MIT, dan Apache. Selain itu, Copilot melanggar persyaratan layanan dan privasi GitHub sendiri, tidak mematuhi DMCA, yang melarang penghapusan informasi hak cipta, dan CCPA (California Consumer Privacy Act), yang mengatur penanganan data pribadi.

Teks gugatan memberikan perkiraan perhitungan kerugian yang dialami masyarakat akibat kegiatan Copilot. Sesuai dengan Pasal 1202 Digital Millennium Copyright Act (DMCA), ganti rugi minimum adalah $2500 per pelanggaran. Mempertimbangkan fakta bahwa layanan Copilot memiliki 1.2 juta pengguna dan setiap kali layanan digunakan, terjadi tiga pelanggaran DMCA (atribusi, hak cipta, dan persyaratan lisensi), jumlah total kerusakan minimum diperkirakan mencapai 9 miliar dolar (1200000 * 3 * $2500).

Organisasi hak asasi manusia Software Freedom Conservancy (SFC), yang sebelumnya mengkritik GitHub dan Copilot, mengomentari gugatan tersebut dengan rekomendasi untuk tidak menyimpang dari salah satu prinsip yang disebutkan sebelumnya ketika melindungi kepentingan komunitas - β€œpenegakan hukum yang berorientasi pada komunitas harus tidak memprioritaskan keuntungan finansial.” Menurut SFC, tindakan Copilot tidak dapat diterima terutama karena melanggar mekanisme copyleft, yang bertujuan memberikan persamaan hak kepada pengguna, pengembang, dan konsumen. Banyak proyek yang tercakup dalam Copilot didistribusikan di bawah lisensi copyleft, seperti GPL, yang memerlukan kode karya turunan untuk didistribusikan di bawah lisensi yang kompatibel. Dengan memasukkan kode yang ada seperti yang disarankan oleh Copilot, tanpa disadari pengembang dapat melanggar lisensi proyek dari mana kode tersebut dipinjam.

Mari kita ingat bahwa di musim panas GitHub meluncurkan layanan komersial baru, GitHub Copilot, melatih serangkaian teks sumber yang diposting di repositori GitHub publik, dan mampu menghasilkan desain standar saat menulis kode. Layanan ini dapat menghasilkan blok kode yang cukup kompleks dan besar, hingga fungsi siap pakai yang dapat mengulang bagian teks dari proyek yang ada. Menurut GitHub, sistem mencoba membuat ulang struktur kode daripada menyalin kode itu sendiri, namun, pada sekitar 1% kasus, rekomendasi yang diusulkan mungkin menyertakan cuplikan kode dari proyek yang ada yang panjangnya lebih dari 150 karakter. Untuk mencegah substitusi kode yang ada, Copilot memiliki filter bawaan yang memeriksa persimpangan dengan proyek yang dihosting di GitHub, namun filter ini diaktifkan berdasarkan kebijaksanaan pengguna.

Dua hari sebelum gugatan diajukan, GitHub mengumumkan niatnya untuk mengimplementasikan fitur pada tahun 2023 yang memungkinkan pelacakan hubungan antara fragmen yang dihasilkan di Copilot dan kode yang ada di repositori. Pengembang akan dapat melihat daftar kode serupa yang sudah ada di repositori publik, serta mengurutkan persimpangan berdasarkan lisensi kode dan waktu modifikasi.

Sumber: opennet.ru

Tambah komentar