Les concurrents OpenAI, Anthropic et Google ont commencé à collaborer pour empêcher les entreprises chinoises d'exploiter les capacités des modèles d'IA américains afin de créer leurs propres produits et de prendre l'avantage dans la course mondiale à l'IA, écrit-on. Bloomberg.
PC du mois : L'ère du rollback, ou comment la pénurie de puces mémoire affecte les choix de matériel pour PC de jeu

Pour échanger des informations, les trois entreprises ont décidé de recourir au Frontier Model Forum, une organisation à but non lucratif créée en 2023 en partenariat avec Microsoft. OpenAI a confirmé sa participation au projet de partage d'informations sur la distillation des modèles d'IA et a rappelé avoir déjà contribué à ce projet. envoyé une note adressée au Congrès américain accusant la société chinoise DeepSeek de tenter de « profiter indûment des capacités développées par OpenAI et d'autres laboratoires américains de pointe ».
La distillation est une méthode qui consiste à utiliser un modèle d'IA existant pour entraîner un nouveau modèle capable de reproduire les capacités d'un modèle plus ancien, souvent à un coût bien inférieur à celui de la création d'un modèle à partir de zéro. Certaines variantes de ce processus sont largement utilisées, voire encouragées, pour développer des modèles plus compacts et performants ; les développeurs autorisent leurs clients à l'utiliser, mais uniquement à des fins non compétitives.

La plupart des modèles d'IA chinois sont publiés sous licences libres, permettant aux utilisateurs de les déployer librement sur leurs plateformes et de les modifier sans restriction. Cela pose problème aux entreprises américaines qui commercialisent des modèles propriétaires et les rendent payants, notamment pour couvrir leurs coûts. OpenAI affirme que DeepSeek, une entreprise chinoise, continue d'adapter des modèles américains pour créer une nouvelle version de son chatbot.
Le partage d'informations entre développeurs d'IA américains s'inscrit dans une pratique courante de cybersécurité, où les entreprises publient régulièrement des informations sur les attaques et les tactiques malveillantes afin de renforcer leurs défenses. En collaborant, les développeurs d'IA visent à détecter plus efficacement les pratiques de distillation, à identifier les responsables et à prévenir les accès non autorisés. Ce processus est actuellement limité : les participants au projet ignorent dans quelle mesure ils peuvent partager des données, conformément à la réglementation antitrust en vigueur, qui vise à lutter contre la menace chinoise.
Outre OpenAI, Anthropic et Google ont soulevé des questions concernant la distillation des modèles. OpenAI a notamment cité les startups chinoises DeepSeek, Moonshot et MiniMax ; Google a quant à lui indiqué que les tentatives de distillation de ses modèles s'étaient récemment intensifiées. Les trois entreprises n'ont pas apporté de preuves quant à l'ampleur du recours à ce procédé par l'industrie chinoise de l'IA, mais ont souligné que sa prévalence pouvait être mesurée par le volume des requêtes de données à grande échelle.
Source:
Source: 3dnews.ru
