Menurut sebuah studi yang dilakukan oleh peneliti Oxford China Policy Lab, Zilan Qian, layanan proksi pasar gelap di Tiongkok menjual kembali akses ke model AI Claude kepada Anthropic dengan harga sepersepuluh dari harga resmi, meraup keuntungan dari kredensial curian, substitusi model, dan penjualan kembali permintaan dan respons pengguna.

Jaringan proksi ini, yang oleh para pengembang Tiongkok disebut "stasiun perantara," beroperasi secara terbuka melalui GitHub, Taobao, dan Telegram. Temuan Qian mengkonfirmasi peringatan baru-baru ini dari Gedung Putih dan Anthropic. Pada akhir April, pemerintahan AS menuduh entitas Tiongkok melakukan distilasi "skala industri"—melatih model AI mereka sendiri pada respons Claude—melalui puluhan ribu akun proksi, sementara Anthropic mengidentifikasi sekitar 24.000 akun yang terkait dengan perusahaan rintisan AI DeepSeek, Moonshot AI, dan MiniMax pada bulan Februari.
Qian menjelaskan sebuah skema di mana setiap peserta bertanggung jawab atas satu atau dua tautan. Penyedia akun di tingkat atas mendaftarkan akun secara massal untuk mendapatkan kredit Anthropic senilai $5 secara gratis, menjual kembali kredit yang tidak terpakai dari akun lain, memanfaatkan diskon perusahaan dan pendidikan, atau membagi langganan Claude Max senilai $200 di antara puluhan pengguna melalui batasan token per jam. Beberapa akun yang dibayar dengan kartu bank curian akhirnya masuk ke dalam kumpulan tersebut hampir secara gratis. Untuk melewati verifikasi identitas, perantara melakukan perjalanan ke negara-negara Afrika dan Amerika Latin dan mempekerjakan orang untuk menjalani verifikasi secara langsung. Sebuah preseden yang terdokumentasi adalah pasar gelap biometrik Worldcoin, di mana pemindaian iris yang dikumpulkan dari penduduk Kamboja dan Kenya dijual dengan harga kurang dari $30.
Risiko terpisah terkait dengan penggantian model AI. Para peneliti Jerman dari Pusat Keamanan Informasi CISPA Helmholtz menguji 17 layanan proksi tersebut dan menemukan bahwa model AI yang diiklankan seringkali tidak sesuai dengan model yang sebenarnya. Access, yang dipasarkan sebagai "Gemini-2.5," memperoleh skor 37% dalam uji medis, sementara API resminya mencapai hampir 84%. Menurut Qian, alih-alih Claude Opus yang diminta, pengguna dapat menerima respons dari Sonnet, Haiku, atau mesin AI Tiongkok yang lebih murah.
Operator proxy juga merekam semua permintaan dan respons yang melewati server mereka. Beberapa pengembang Tiongkok mengatakan kepada Qian bahwa biaya akses premium pada dasarnya adalah cara untuk menarik pelanggan, sementara model bisnis sebenarnya dibangun di atas pengumpulan data. HuggingFace sudah menyimpan dataset penalaran Claude Opus 4.6 yang tidak diketahui asalnya. Data tersebut sangat berharga untuk distilasi, karena respons penalaran dapat dikumpulkan secara sistematis dan digunakan untuk melatih model yang bersaing. Server proxy menyediakan aliran data yang sama dengan upaya yang lebih sedikit: pengguna yang membayar membuat materi pelatihan sendiri.
Namun, ancaman tersebut tidak terbatas pada pelatihan model. Pengembang sering kali berbagi fragmen kode kepemilikan, struktur API, dan logika otentikasi dengan agen AI. Jika lalu lintas ini melewati proxy yang tidak tepercaya, perusahaan secara efektif mengirimkan data internal ke server pihak ketiga tanpa kewajiban untuk memprosesnya. Risiko serupa muncul pada tahun 2023 di Samsung, ketika para insinyurnya mengirimkan kode sumber ke ChatGPT, sehingga mengekspos data manufaktur semikonduktor yang sensitif ke server OpenAI.
Anthropic memblokir akses ke Claude untuk entitas yang dikendalikan China pada bulan September dan kemudian memperketat verifikasi pengguna. Namun, penelitian Qian menunjukkan bahwa setiap langkah baru tersebut justru menciptakan pasar tersendiri untuk penghindaran verifikasi, alih-alih menghentikan akses tanpa izin.
Sumber:
Sumber: 3dnews.ru
