Anthropic también acusa a China de robar su Inteligencia Artificial
Anthropic acusó específicamente a empresas como DeepSeek, Moonshot y MiniMax de usar IA de su propiedad.
Anthropic, compañía de Inteligencia Artificial (IA), realizó una acusación sobre la detección de campañas a escala industrial orquestadas por tres laboratorios de IA con sede en China, DeepSeek, Moonshot y MiniMax, para extraer ilícitamente las capacidades de su modelo de lenguaje avanzado, Claude.
La firma aseveró que esta operación de robo de propiedad intelectual se llevó a cabo mediante una técnica conocida como “destilación”, infringiendo los términos de servicio de la empresa y las restricciones de acceso geográficas.
Esta denuncia se une a la de OpenAI, que también acusó recientemente a compañías chinas de utilizar los desarrollos de IA de la empresa estadounidense para entrenar a las suyas.
De acuerdo con el informe de Anthropic, los laboratorios chinos generaron más de 16 millones de interacciones con Claude utilizando aproximadamente 24,000 cuentas fraudulentas.
Explicó que la destilación, si bien es un método de entrenamiento legítimo que permite crear modelos más pequeños y eficientes, fue utilizada en este caso con fines ilícitos. Y es que al entrenar sus propios modelos con los resultados de un sistema más potente como Claude, los atacantes logran adquirir capacidades avanzadas en una fracción del tiempo y coste que les llevaría desarrollarlas de forma independiente.
“Sin visibilidad de estos ataques, los avances aparentemente rápidos de estos laboratorios se interpretan erróneamente como evidencia de la ineficacia de los controles de exportación y de que la innovación puede eludirlos.
“En realidad, estos avances dependen en gran medida de las capacidades extraídas de modelos estadounidenses, y ejecutar esta extracción a gran escala requiere acceso a chips avanzados”, explicó el reporte de Anthropic.
Afirmó que las consecuencias de esta destilación ilícita van más allá de lo económico, planteando importantes riesgos para la seguridad nacional. Anthropic subraya que los modelos creados de esta forma probablemente carezcan de las salvaguardias esenciales que las empresas estadounidenses integran para evitar el uso de la IA en el desarrollo de armas biológicas o en actividades cibernéticas maliciosas.
Agregó que al eliminarse estas protecciones, las capacidades peligrosas pueden proliferar, lo que permite que los gobiernos autoritarios, a través de estos laboratorios, incorporen IA de vanguardia desprotegida en sistemas militares, de inteligencia y de vigilancia masiva.
Además, Anthropic argumentó que los ataques de destilación socavan directamente los controles de exportación establecidos para mantener el liderazgo estadounidense en IA. Estos avances, aparentemente rápidos, de los laboratorios extranjeros podrían ser malinterpretados como una señal de la ineficacia de los controles.
Sin embargo, la realidad, de acuerdo con la empresa, es que dependen en gran medida de las capacidades extraídas de modelos de Estados Unidos. Esto, a su vez, refuerza la justificación de restringir el acceso a chips avanzados, ya que limita tanto el entrenamiento directo de modelos como la escala de la destilación ilícita.
La evidencia recabada detalla que las campañas se centraron en las capacidades más distintivas de Claude, como el razonamiento de agente, el uso de herramientas y la programación.
Añadieron que los atacantes utilizaron cuentas fraudulentas y servicios proxy, con patrones de solicitud que sugerían una extracción deliberada.
Acusó que, específicamente, DeepSeek fue observado utilizando técnicas para solicitar a Claude que articulara su razonamiento interno paso a paso, generando datos de entrenamiento de “cadena de pensamiento” a gran escala, y buscando alternativas seguras a consultas políticamente sensibles, evidenciando un esfuerzo coordinado y sofisticado para la adquisición de capacidades de IA.