Anthropic acusa a laboratorios de IA chinos de minar Claude mientras EE. UU. debate sobre exportaciones de chips de IA

Anthropic acusa a laboratorios de IA chinos de minar Claude mientras EE. UU. debate sobre exportaciones de chips de IA

Rebecca Bellan

Mar, 24 de febrero de 2026 a las 4:57 AM GMT+9 4 min de lectura

El logo de Deepseek se muestra en la pantalla de un teléfono móvil con la bandera de China y código binario en esta ilustración en Bruselas, Bélgica, el 22 de febrero de 2026. (Foto de Jonathan Raa/NurPhoto vía Getty Images) | Créditos de la imagen: Getty Images

Anthropic acusa a tres empresas chinas de IA de crear más de 24,000 cuentas falsas con su modelo Claude para mejorar sus propios modelos.

Los laboratorios — DeepSeek, Moonshot AI y MiniMax — supuestamente generaron más de 16 millones de intercambios con Claude a través de esas cuentas usando una técnica llamada “destilación”. Anthropic afirmó que los laboratorios “apuntaron a las capacidades más diferenciadas de Claude: razonamiento agentico, uso de herramientas y codificación.”

Las acusaciones surgen en medio de debates sobre qué tan estrictamente se deben aplicar los controles de exportación de chips de IA avanzados, una política destinada a frenar el desarrollo de IA en China.

La destilación es un método de entrenamiento común que los laboratorios de IA usan en sus propios modelos para crear versiones más pequeñas y económicas, pero los competidores pueden usarlo para copiar esencialmente el trabajo de otros laboratorios. OpenAI envió un memorando a los legisladores de la Cámara a principios de este mes acusando a DeepSeek de usar destilación para imitar sus productos.

DeepSeek causó revuelo hace un año cuando lanzó su modelo de razonamiento de código abierto R1, que casi igualaba el rendimiento de los laboratorios estadounidenses de frontera a una fracción del costo. Se espera que DeepSeek lance pronto DeepSeek V4, su modelo más reciente, que supuestamente puede superar a Claude de Anthropic y a ChatGPT de OpenAI en codificación.

La escala de cada ataque varió en alcance. Anthropic rastreó más de 150,000 intercambios de DeepSeek que parecían dirigidos a mejorar la lógica fundamental y la alineación, específicamente en torno a alternativas seguras para censura en consultas sensibles a políticas.

Moonshot AI tuvo más de 3.4 millones de intercambios dirigidos a razonamiento agentico y uso de herramientas, codificación y análisis de datos, desarrollo de agentes de uso informático y visión por computadora. El mes pasado, la firma lanzó un nuevo modelo de código abierto, Kimi K2.5, y un agente de codificación.

MiniMax realizó 13 millones de intercambios dirigidos a codificación agentica, uso de herramientas y orquestación. Anthropic afirmó que pudo observar a MiniMax en acción, ya que redirigió casi la mitad de su tráfico para extraer capacidades del último modelo Claude cuando fue lanzado.

Anthropic dice que continuará invirtiendo en defensas que hagan más difícil ejecutar ataques de destilación y más fáciles de identificar, pero hace un llamado a “una respuesta coordinada en toda la industria de IA, proveedores de la nube y responsables políticos.”

Los ataques de destilación ocurren en un momento en que las exportaciones de chips estadounidenses a China aún están en debate. El mes pasado, la administración Trump permitió formalmente que empresas estadounidenses como Nvidia exportaran chips de IA avanzados (como el H200) a China. Los críticos argumentan que esta flexibilización de los controles de exportación aumenta la capacidad de computación de IA en China en un momento crítico en la carrera global por el dominio de la IA.

Continúa la historia  

Anthropic afirma que la escala de extracción de DeepSeek, MiniMax y Moonshot “requiere acceso a chips avanzados.”

“Por lo tanto, los ataques de destilación refuerzan la justificación de los controles de exportación: el acceso restringido a chips limita tanto el entrenamiento directo de modelos como la escala de destilación ilícita,” según el blog de Anthropic.

Dmitri Alperovitch, presidente del think-tank Silverado Policy Accelerator y cofundador de CrowdStrike, dijo a TechCrunch que no le sorprenden estos ataques.

“Desde hace un tiempo, ha sido claro que parte del progreso rápido de los modelos de IA chinos ha sido por robo mediante destilación de modelos estadounidenses de frontera. Ahora lo sabemos con certeza,” dijo Alperovitch. “Esto debería darnos aún más razones convincentes para negarnos a vender chips de IA a cualquiera de estas [empresas],**** lo que solo les beneficiaría aún más.”

Anthropic también afirmó que la destilación no solo amenaza con socavar el dominio estadounidense en IA, sino que también podría crear riesgos para la seguridad nacional.

“Anthropic y otras empresas estadounidenses construyen sistemas que impiden que actores estatales y no estatales utilicen IA para, por ejemplo, desarrollar armas biológicas o realizar actividades cibernéticas maliciosas,” dice la publicación de Anthropic. “Los modelos construidos mediante destilación ilícita probablemente no mantengan esas salvaguardas, lo que significa que capacidades peligrosas pueden proliferar con muchas protecciones completamente eliminadas.”

Anthropic señaló que gobiernos autoritarios están desplegando IA de frontera para actividades como “operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva,” un riesgo que se multiplica si esos modelos son de código abierto.

TechCrunch se ha puesto en contacto con DeepSeek, MiniMax y Moonshot para comentarios.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado