U Kini je pristup Claudeu ponuđen uz popust od 90%; prikupljeni podaci su korišteni za destilaciju AI modela.

Proxy servis na sivom tržištu u Kini preprodaje pristup Claude AI modelima kompaniji Anthropic za desetinu službene cijene, profitirajući od ukradenih akreditiva, zamjene modela i preprodaje korisničkih zahtjeva i odgovora, prema studiji istraživača Zilana Qiana iz Oxford China Policy Laba.

U Kini je pristup Claudeu ponuđen uz popust od 90%; prikupljeni podaci su korišteni za destilaciju AI modela.

Ove proxy mreže, koje kineski programeri nazivaju "putnim stanicama", otvoreno djeluju putem GitHuba, Taobaoa i Telegrama. Qianovi nalazi potvrđuju nedavna upozorenja Bijele kuće i Anthropica. Krajem aprila, američka administracija optužila je kineske subjekte za destilaciju "industrijskih razmjera" - obuku vlastitih AI modela na Claudeovim odgovorima - putem desetina hiljada proxy računa, dok je Anthropic u februaru identificirao približno 24.000 računa povezanih sa AI startupima DeepSeek, Moonshot AI i MiniMax.

Qian je opisao shemu u kojoj je svaki učesnik odgovoran za jednu ili dvije veze. Pružaoci računa na najvišem nivou masovno registruju račune za besplatne Anthropic kredite od 5 dolara, preprodaju neiskorištene kredite s drugih računa, iskorištavaju korporativne i obrazovne popuste ili dijele pretplate na Claude Max od 200 dolara među desetinama korisnika putem satnih ograničenja tokena. Neki računi plaćeni ukradenim bankovnim karticama završavaju u pulu praktično besplatno. Kako bi zaobišli verifikaciju identiteta, posrednici putuju u afričke i latinoameričke zemlje i zapošljavaju ljude da se lično podvrgnu verifikaciji. Dokumentovani presedan bio je biometrijski crni market Worldcoin, gdje su skenovi šarenice prikupljeni od stanovnika Kambodže i Kenije prodavani za manje od 30 dolara.

Poseban rizik povezan je sa zamjenom AI modela. Njemački istraživači iz CISPA Helmholtz Centra za sigurnost informacija testirali su 17 takvih proxy servisa i otkrili da se reklamirani AI model često ne poklapa sa stvarnim. Access, koji se prodaje kao "Gemini-2.5", postigao je 37% na medicinskom testu, dok je službeni API postigao skoro 84%. Prema Qianu, umjesto traženog Claude Opusa, korisnici su mogli dobiti odgovore od jeftinijih Sonnet, Haiku ili kineskih AI motora.

Proxy operateri također bilježe sve zahtjeve i odgovore koji prolaze kroz njihove servere. Nekoliko kineskih programera reklo je Qianu da je premija pristupa u suštini sredstvo za privlačenje kupaca, dok se pravi poslovni model temelji na prikupljanju podataka. HuggingFace već hostira skupove podataka o Claude Opus 4.6 obrazloženju nepoznatog porijekla. Takvi podaci su posebno vrijedni za destilaciju, jer se odgovori obrazloženja mogu sistematski prikupljati i koristiti za obuku konkurentskih modela. Proxy serveri pružaju isti tok podataka uz manje napora: korisnici koji plaćaju sami kreiraju materijal za obuku.

Međutim, prijetnja nije ograničena samo na obuku modela. Programeri često dijele fragmente vlasničkog koda, API strukture i logike autentifikacije s AI agentima. Ako ovaj promet prolazi kroz nepouzdani proxy, kompanija efektivno šalje interne podatke na server treće strane bez ikakve obaveze da ih obradi. Sličan rizik pojavio se 2023. godine u Samsungu, kada su njegovi inženjeri poslali izvorni kod ChatGPT-u, čime su osjetljive podatke o proizvodnji poluprovodnika izložili OpenAI serverima.

Anthropic je u septembru blokirao pristup Claudeu za subjekte pod kontrolom Kine i potom pooštrio verifikaciju korisnika. Međutim, Qianovo istraživanje pokazuje da je svaka nova mjera stvorila zasebno tržište za zaobilaženje, umjesto da zaustavi neovlašteni pristup.

izvor:


izvor: 3dnews.ru