V Číne bol prístup k Claude ponúkaný so zľavou 90 %; zozbierané údaje sa použili na vytvorenie modelov umelej inteligencie.

Proxy služba na šedom trhu v Číne predáva spoločnosti Anthropic prístup k modelom Claude AI za desatinu oficiálnej ceny, pričom profituje z ukradnutých prihlasovacích údajov, nahrádzania modelov a ďalšieho predaja používateľských požiadaviek a odpovedí, vyplýva zo štúdie výskumníka Oxford China Policy Lab Zilana Qiana.

V Číne bol prístup k Claude ponúkaný so zľavou 90 %; zozbierané údaje sa použili na vytvorenie modelov umelej inteligencie.

Tieto proxy siete, ktoré čínski vývojári nazývajú „prestupové stanice“, fungujú otvorene prostredníctvom GitHubu, Taobao a Telegramu. Qianove zistenia potvrdzujú nedávne varovania Bieleho domu a spoločnosti Anthropic. Koncom apríla americká administratíva obvinila čínske subjekty z destilácie v „priemyselnom rozsahu“ – trénovania vlastných modelov umelej inteligencie na odpovediach Claude – prostredníctvom desiatok tisíc proxy účtov, zatiaľ čo spoločnosť Anthropic ešte vo februári identifikovala približne 24 000 účtov prepojených so startupmi zameranými na umelú inteligenciu DeepSeek, Moonshot AI a MiniMax.

Qian opísal schému, v ktorej je každý účastník zodpovedný za jeden alebo dva odkazy. Poskytovatelia účtov na najvyššej úrovni hromadne registrujú účty za bezplatné kredity Anthropic v hodnote 5 dolárov, ďalej predávajú nevyužité kredity z iných účtov, využívajú firemné a vzdelávacie zľavy alebo rozdeľujú predplatné Claude Max v hodnote 200 dolárov medzi desiatky používateľov prostredníctvom hodinových limitov tokenov. Niektoré účty platené ukradnutými bankovými kartami končia v poole prakticky zadarmo. Aby sprostredkovatelia obišli overovanie totožnosti, cestujú do afrických a latinskoamerických krajín a najímajú ľudí, aby sa osobne podrobili overeniu. Zdokumentovaným precedensom bol biometrický čierny trh Worldcoin, kde sa skeny dúhovky očí zozbierané od obyvateľov Kambodže a Kene predávali za menej ako 30 dolárov.

Samostatné riziko je spojené so substitúciou modelov umelej inteligencie. Nemeckí výskumníci z Helmholtzovho centra pre informačnú bezpečnosť CISPA testovali 17 takýchto proxy služieb a zistili, že inzerovaný model umelej inteligencie sa často nezhodoval so skutočným modelom. Access, predávaný ako „Gemini-2.5“, dosiahol v lekárskom teste 37 %, zatiaľ čo oficiálne API dosiahlo takmer 84 %. Podľa Qiana namiesto požadovaného Claude Opus mohli používatelia dostávať odpovede z lacnejších nástrojov umelej inteligencie Sonnet, Haiku alebo čínskych nástrojov umelej inteligencie.

Proxy operátori tiež zaznamenávajú všetky požiadavky a odpovede prechádzajúce cez ich servery. Niekoľko čínskych vývojárov povedalo Qianovi, že prémiový prístup je v podstate prostriedkom na prilákanie zákazníkov, zatiaľ čo skutočný obchodný model je postavený na zbere údajov. HuggingFace už hostí súbory údajov o uvažovaní Claude Opus 4.6 neznámeho pôvodu. Takéto údaje sú obzvlášť cenné na destiláciu, pretože odpovede na uvažovanie možno systematicky zhromažďovať a používať na trénovanie konkurenčných modelov. Proxy servery poskytujú rovnaký tok údajov s menším úsilím: platiaci používatelia si sami vytvárajú školiace materiály.

Hrozba sa však neobmedzuje len na trénovanie modelov. Vývojári často zdieľajú fragmenty proprietárneho kódu, štruktúru API a logiku autentifikácie s agentmi umelej inteligencie. Ak táto prevádzka prechádza cez nedôveryhodný proxy server, spoločnosť v podstate odosiela interné údaje na server tretej strany bez akejkoľvek povinnosti ich spracovať. Podobné riziko sa objavilo v roku 2023 v spoločnosti Samsung, keď jej inžinieri odoslali zdrojový kód do služby ChatGPT, čím vystavili citlivé údaje o výrobe polovodičov serverom OpenAI.

Spoločnosť Anthropic v septembri zablokovala prístup k platforme Claude pre subjekty kontrolované Čínou a následne sprísnila overovanie používateľov. Výskum spoločnosti Qian však ukazuje, že každé nové opatrenie vytvorilo samostatný trh pre obchádzanie, a nie zastavenie neoprávneného prístupu.

Zdroj:


Zdroj: 3dnews.ru