V Číně byl přístup k Claude nabízen se slevou 90 %; shromážděná data byla použita k destilaci modelů umělé inteligence.

Proxy služba na šedém trhu v Číně přeprodává přístup k modelům Claude AI společnosti Anthropic za desetinu oficiální ceny, přičemž profituje z ukradených přihlašovacích údajů, nahrazování modelů a dalšího prodeje uživatelských požadavků a odpovědí, uvádí studie výzkumníka Oxford China Policy Lab Zilana Qiana.

V Číně byl přístup k Claude nabízen se slevou 90 %; shromážděná data byla použita k destilaci modelů umělé inteligence.

Tyto proxy sítě, které čínští vývojáři nazývají „přestupní stanice“, fungují otevřeně prostřednictvím GitHubu, Taobao a Telegramu. Qianova zjištění potvrzují nedávná varování Bílého domu a společnosti Anthropic. Koncem dubna americká administrativa obvinila čínské subjekty z destilace v „průmyslovém měřítku“ – trénování vlastních modelů umělé inteligence na Claudeových odpovědích – prostřednictvím desítek tisíc proxy účtů, zatímco Anthropic v únoru identifikoval přibližně 24 000 účtů propojených se startupy umělé inteligence DeepSeek, Moonshot AI a MiniMax.

Qian popsal schéma, ve kterém je každý účastník zodpovědný za jeden nebo dva odkazy. Poskytovatelé účtů na nejvyšší úrovni hromadně registrují účty za 5 dolarů zdarma v podobě kreditů Anthropic, dále prodávají nevyužité kredity z jiných účtů, využívají firemní a vzdělávací slevy nebo rozdělují 200 dolarů na předplatné Claude Max mezi desítky uživatelů prostřednictvím hodinových limitů tokenů. Některé účty placené ukradenými bankovními kartami končí v poolu prakticky zdarma. Aby zprostředkovatelé obešli ověřování identity, cestují do afrických a latinskoamerických zemí a najímají lidi, aby se osobně podrobili ověřování. Zdokumentovaným precedentem byl biometrický černý trh Worldcoin, kde se skeny duhovky shromážděné od obyvatel Kambodže a Keni prodávaly za méně než 30 dolarů.

Samostatné riziko je spojeno se substitucí modelů umělé inteligence. Němečtí vědci z Helmholtzova centra pro informační bezpečnost CISPA testovali 17 takových proxy služeb a zjistili, že inzerovaný model umělé inteligence často neodpovídá skutečnému modelu. Access, prodávaný jako „Gemini-2.5“, dosáhl v lékařském testu 37 %, zatímco oficiální API dosáhlo téměř 84 %. Podle Qiana mohli uživatelé místo požadovaného Claude Opus dostávat odpovědi z levnějších Sonnet, Haiku nebo čínských enginů umělé inteligence.

Proxy operátoři také zaznamenávají všechny požadavky a odpovědi procházející jejich servery. Několik čínských vývojářů sdělilo Qianovi, že prémiový přístup je v podstatě prostředkem k přilákání zákazníků, zatímco skutečný obchodní model je postaven na sběru dat. HuggingFace již hostuje datové sady Claude Opus 4.6 s neznámým původem. Tato data jsou obzvláště cenná pro destilaci, protože odpovědi na uvažování lze systematicky shromažďovat a používat k trénování konkurenčních modelů. Proxy servery poskytují stejný datový tok s menším úsilím: platící uživatelé si sami vytvářejí školicí materiály.

Hrozba se však neomezuje pouze na trénování modelů. Vývojáři často sdílejí fragmenty proprietárního kódu, strukturu API a autentizační logiku s agenty umělé inteligence. Pokud tento provoz prochází nedůvěryhodným proxy serverem, společnost v podstatě odesílá interní data na server třetí strany, aniž by byla povinna je zpracovávat. Podobné riziko se objevilo v roce 2023 u společnosti Samsung, když její inženýři odeslali zdrojový kód do ChatGPT, čímž zveřejnili citlivá data o výrobě polovodičů serverům OpenAI.

Společnost Anthropic v září zablokovala přístup k platformě Claude pro subjekty ovládané Čínou a následně zpřísnila ověřování uživatelů. Výzkum společnosti Qian však ukazuje, že každé nové opatření vytvořilo samostatný trh pro obcházení zákona, spíše než aby zastavilo neoprávněný přístup.

Zdroj:


Zdroj: 3dnews.ru