
Según informó Bloomberg el 16 de abril, OpenAI, Anthropic PBC y Google han iniciado una colaboración a través del grupo sin fines de lucro del sector Frontier Model Forum, compartiendo información para detectar y detener la conducta de destilación de modelos de IA adversarial que infringe los Términos de Servicio. OpenAI confirmó a Bloomberg que participa en el trabajo de intercambio de información sobre la destilación adversarial.
Frontier Model Forum fue creado conjuntamente por OpenAI, Anthropic, Google y Microsoft en 2023. Según informó Bloomberg, las tres compañías intercambian información mediante esta organización con el objetivo de identificar solicitudes masivas de datos adversariales, rastrear intentos de destilación que vulneran los Términos de Servicio y coordinar la detención de las conductas relacionadas. Google publicó anteriormente un artículo en el que señaló que había descubierto que los intentos de extracción de modelos habían aumentado.
Según informó Bloomberg, este tipo de patrón de intercambio de información es coherente con las prácticas existentes en la industria de la ciberseguridad, que durante mucho tiempo ha reforzado la defensa intercambiando datos de ataques entre empresas y estrategias de los adversarios.
De acuerdo con un memorando presentado por OpenAI ante el House Select Committee on China de la Cámara de Representantes de Estados Unidos (febrero de 2026), OpenAI acusa a la empresa china de IA DeepSeek de intentar “aprovecharse” de la tecnología desarrollada por OpenAI y otros laboratorios estadounidenses de vanguardia, y afirma que continúa utilizando técnicas de destilación de datos para extraer resultados de modelos estadounidenses con el fin de desarrollar una nueva versión de un chatbot, y que los métodos que emplea son cada vez más complejos.
Anthropic emitió una declaración en febrero de 2026 en la que identifica tres laboratorios chinos de IA —DeepSeek, Moonshot y MiniMax— y los acusa de extraer ilegalmente las funciones del modelo Claude mediante destilación adversarial. Anteriormente, Anthropic ya había prohibido en 2025 que empresas chinas usaran Claude. Bloomberg también había informado previamente que, después de que DeepSeek publicara el modelo de razonamiento R1 en enero de 2025, Microsoft y OpenAI iniciaron investigaciones sobre si estaba realizando una extracción ilegal de datos de modelos estadounidenses.
Según documentos de políticas públicas, funcionarios del gobierno de Trump han manifestado su disposición a promover el intercambio de información entre empresas de IA para hacer frente a las amenazas de la destilación adversarial. El Plan de Acción de Inteligencia Artificial que dio a conocer el presidente Trump exige explícitamente la creación de un centro de intercambio de información y análisis, y parte de su finalidad es precisamente abordar las conductas mencionadas.
Según informó Bloomberg, el alcance del intercambio de información de destilación tecnológica entre estas tres compañías aún es limitado, debido a que no están seguras de qué información puede compartirse de forma conforme a la normativa bajo las directrices antimonopolio vigentes; las tres compañías han declarado que desean ampliar el alcance de la colaboración después de que el gobierno de Estados Unidos establezca de manera clara el marco de directrices correspondiente.
Según informó Bloomberg, las tres compañías compartieron información a través de Frontier Model Forum; esta organización fue creada conjuntamente en 2023 por OpenAI, Anthropic, Google y Microsoft, y es una organización sin fines de lucro del sector.
De acuerdo con la información pública de OpenAI, OpenAI presentó un memorando (febrero de 2026) ante el House Select Committee on China de la Cámara de Representantes de Estados Unidos, en el que acusa que DeepSeek utiliza técnicas de destilación de datos para extraer continuamente resultados de modelos estadounidenses y, con base en ello, desarrollar una nueva versión de chatbot.
Según la declaración pública de Anthropic, Anthropic prohibió en 2025 que las empresas chinas usaran el modelo Claude y, en febrero de 2026, identificó tres laboratorios chinos de IA —DeepSeek, Moonshot y MiniMax—, acusándolos de extraer ilegalmente las funciones del modelo Claude mediante destilación adversarial.
Artículos relacionados
Anthropic planea proporcionar acceso a Mythos a los bancos del Reino Unido la próxima semana
El mercado global de Robotaxi se proyecta alcanzar $168B para 2035, impulsado por Estados Unidos y China
OpenAI lanza GPT-4.5 con capacidades de razonamiento mejoradas, con precios de $75 por cada millón de tokens de entrada
La Cámara de Representantes de EE. UU. Propone un Proyecto de Ley para Sancionar a Empresas de IA Chinas por Copiar Modelos
Aave Labs lanza Aave Checkpoint, un sistema de seguridad de gobernanza impulsado por IA