En Chine, l'accès à Claude était proposé avec une réduction de 90 % ; les données collectées ont été utilisées pour affiner les modèles d'IA.

Un service de proxy du marché gris en Chine revend l'accès aux modèles Claude AI à Anthropic pour un dixième du prix officiel, profitant d'identifiants volés, de la substitution de modèles et de la revente des requêtes et réponses des utilisateurs, selon une étude de Zilan Qian, chercheur au Oxford China Policy Lab.

En Chine, l'accès à Claude était proposé avec une réduction de 90 % ; les données collectées ont été utilisées pour affiner les modèles d'IA.

Ces réseaux de proxy, que les développeurs chinois appellent « stations de transit », opèrent ouvertement via GitHub, Taobao et Telegram. Les découvertes de Qian confirment les récentes mises en garde de la Maison Blanche et d'Anthropic. Fin avril, l'administration américaine a accusé des entités chinoises de procéder à une distillation à grande échelle – entraînant leurs propres modèles d'IA sur les réponses de Claude – via des dizaines de milliers de comptes de proxy, tandis qu'Anthropic avait identifié environ 24 000 comptes liés aux startups d'IA DeepSeek, Moonshot AI et MiniMax en février.

Qian a décrit un système où chaque participant est responsable d'un ou deux liens. Les fournisseurs de comptes de haut niveau créent des comptes en masse pour obtenir gratuitement 5 $ de crédits Anthropic, revendent les crédits inutilisés d'autres comptes, profitent des réductions pour entreprises et établissements d'enseignement, ou répartissent les abonnements Claude Max de 200 $ entre des dizaines d'utilisateurs grâce à des limites horaires de jetons. Certains comptes payés avec des cartes bancaires volées se retrouvent ainsi quasiment gratuitement dans le système. Pour contourner la vérification d'identité, des intermédiaires se rendent dans des pays d'Afrique et d'Amérique latine et recrutent des personnes pour se faire vérifier en personne. Un précédent documenté est le marché noir biométrique Worldcoin, où des scans d'iris collectés auprès de résidents du Cambodge et du Kenya étaient vendus pour moins de 30 $.

Un autre risque est lié à la substitution des modèles d'IA. Des chercheurs allemands du CISPA Helmholtz Center for Information Security ont testé 17 services de ce type et constaté que le modèle d'IA annoncé ne correspondait souvent pas au modèle réel. Access, commercialisé sous le nom de « Gemini-2.5 », a obtenu un score de 37 % lors d'un test médical, tandis que l'API officielle a atteint près de 84 %. Selon Qian, au lieu du modèle Claude Opus demandé, les utilisateurs pourraient recevoir des réponses de moteurs d'IA moins coûteux comme Sonnet, Haiku ou des moteurs d'IA chinois.

Les opérateurs de proxy enregistrent également toutes les requêtes et réponses transitant par leurs serveurs. Plusieurs développeurs chinois ont indiqué à Qian que le prix d'accès premium sert principalement à attirer des clients, tandis que le véritable modèle économique repose sur la collecte de données. HuggingFace héberge déjà des ensembles de données de raisonnement Claude Opus 4.6 d'origine inconnue. Ces données sont particulièrement précieuses pour la distillation, car les réponses de raisonnement peuvent être collectées systématiquement et utilisées pour entraîner des modèles concurrents. Les serveurs proxy fournissent le même flux de données avec moins d'efforts : les utilisateurs payants créent eux-mêmes le matériel d'entraînement.

Cependant, la menace ne se limite pas à l'entraînement des modèles. Les développeurs partagent souvent des fragments de code propriétaire, la structure de leurs API et leur logique d'authentification avec les agents d'IA. Si ce trafic transite par un proxy non fiable, l'entreprise transmet de fait des données internes à un serveur tiers sans aucune obligation de les traiter. Un risque similaire est apparu en 2023 chez Samsung, lorsque ses ingénieurs ont soumis du code source à ChatGPT, exposant ainsi des données sensibles relatives à la fabrication de semi-conducteurs aux serveurs d'OpenAI.

En septembre, Anthropic a bloqué l'accès à Claude aux entités contrôlées par la Chine et a par la suite renforcé la vérification des utilisateurs. Cependant, les recherches de Qian montrent que chaque nouvelle mesure a créé un marché parallèle pour le contournement des restrictions d'accès, au lieu d'empêcher les accès non autorisés.

Source:


Source: 3dnews.ru