
Selon un rapport de Bloomberg daté du 16 avril, OpenAI, Anthropic PBC et Google ont lancé une collaboration via l’organisation à but non lucratif de l’industrie Frontier Model Forum, en partageant des informations afin de détecter et d’empêcher des comportements de distillation d’IA adversaire en violation des conditions de service. OpenAI a confirmé à Bloomberg qu’elle a participé à ce travail de partage d’informations concernant la distillation adversaire.
Frontier Model Forum a été fondé en 2023 conjointement par OpenAI, Anthropic, Google et Microsoft. D’après un rapport de Bloomberg, les trois entreprises échangent actuellement des informations via cette organisation, dans le but d’identifier de grandes requêtes de données adversaires, de suivre les tentatives de distillation en infraction aux conditions de service et de coordonner l’arrêt des activités concernées. Google a déjà publié un billet indiquant qu’elle avait constaté une augmentation des tentatives d’extraction des modèles.
Selon Bloomberg, ce type de mécanisme de partage d’informations correspond à des pratiques existantes dans l’industrie de la cybersécurité, qui, de longue date, renforce la défense en échangeant des données d’attaques et des stratégies d’adversaires entre entreprises.
D’après un mémo soumis par OpenAI au House Select Committee on China (comité spécial de la Chambre des représentants sur la Chine) des États-Unis (février 2026), OpenAI accuse l’entreprise chinoise d’IA DeepSeek d’avoir tenté de « profiter de la mise à contribution » d’OpenAI et d’autres technologies développées par des laboratoires américains de pointe, et indique qu’elle continue d’utiliser des techniques de distillation de données pour extraire des résultats de modèles américains afin de développer de nouvelles versions de robots conversationnels, ainsi que que les méthodes employées deviennent de plus en plus sophistiquées.
Anthropic a publié une déclaration en février 2026, identifiant trois laboratoires d’IA chinois — DeepSeek, Moonshot et MiniMax — et les accuse d’avoir extrait illégalement les capacités du modèle Claude via une distillation d’IA adversaire. Anthropic avait auparavant interdit aux entreprises chinoises d’utiliser Claude en 2025. Bloomberg a également rapporté qu’après la publication par DeepSeek de son modèle de raisonnement R1 en janvier 2025, Microsoft et OpenAI avaient ouvert des enquêtes sur la question de savoir si l’entreprise avait extrait illégalement des données de modèles américains.
D’après des documents de politique publique, des responsables de l’administration Trump ont indiqué qu’ils étaient disposés à favoriser le partage d’informations entre les sociétés d’IA afin de répondre aux menaces de distillation d’IA adversaire. Le plan d’action sur l’intelligence artificielle publié par le président Trump appelle explicitement à mettre en place un centre de partage d’informations et d’analyse, dont une partie des objectifs vise à répondre auxdits comportements.
Selon Bloomberg, l’étendue du partage d’informations de distillation technique des trois entreprises demeure encore limitée, car elles ne sont pas certaines, dans le cadre des directives antitrust en vigueur, quelles informations peuvent être partagées de manière conforme ; les trois entreprises ont déclaré vouloir élargir le périmètre de la collaboration une fois que le gouvernement américain aura clarifié le cadre de directives concerné.
Selon Bloomberg, les trois entreprises effectuent un partage d’informations via Frontier Model Forum ; l’organisation, à but non lucratif de l’industrie, a été fondée conjointement en 2023 par OpenAI, Anthropic, Google et Microsoft.
D’après les informations publiques d’OpenAI, OpenAI a soumis au House Select Committee on China un mémo (février 2026), en accusant DeepSeek d’utiliser en continu des techniques de distillation de données pour extraire des résultats de modèles américains, et de s’en servir pour développer une nouvelle version de chatbot.
D’après la déclaration publique d’Anthropic, Anthropic a interdit aux entreprises chinoises d’utiliser le modèle Claude en 2025, puis a identifié en février 2026 trois laboratoires d’IA chinois — DeepSeek, Moonshot et MiniMax — et les accuse d’avoir extrait illégalement les capacités du modèle Claude via une distillation d’IA adversaire.
Articles similaires
Anthropic prévoit de fournir l’accès à Mythos aux banques britanniques la semaine prochaine
Marché mondial des Robotaxis projeté pour atteindre $168B d’ici 2035, porté par les États-Unis et la Chine
OpenAI lance GPT-4.5 avec des capacités de raisonnement améliorées, tarification à $75 par million de jetons d’entrée
La Chambre des représentants des États-Unis propose un projet de loi visant à sanctionner les entreprises chinoises d’IA pour copie de modèles