Anthropic acusa a DeepSeek y otros laboratorios chinos de robar capacidades de Claude

Wait 5 sec.

Imagina que pasas años construyendo algo increíble. Le dedicas miles de horas, millones de dólares, y el mejor talento del mundo. Y de repente descubres que alguien entró por la ventana, copió todo… y encima te culpan a ti de haberlo dejado abierto.Eso es, más o menos, lo que le acaba de pasar a Anthropic.¿Qué pasó exactamente?El pasado 23 de febrero la empresa estadounidense publicó en su blog oficial una acusación bastante contundente. Tres laboratorios de inteligencia artificial chinos —DeepSeek, Moonshot AI y MiniMax— habrían orquestado campañas masivas para extraer las capacidades de Claude, el modelo de IA de Anthropic.¿Cómo lo hicieron? A través de más de 24,000 cuentas falsas, generaron más de 16 millones de conversaciones con Claude. Todo para obtener sus respuestas, analizarlas y usarlas para entrenar y mejorar sus propios modelos.Y lo hicieron violando los términos de servicio de Anthropic. Y también las restricciones de acceso regional —porque Anthropic no ofrece Claude en China por razones de seguridad nacional.La «destilación»: ¿robo o técnica legítima?Aquí está el punto que genera debate. La técnica que usaron estos laboratorios se llama destilación (distillation, en inglés), y no es en sí misma ilegal ni nueva.¿Qué es la destilación? Básicamente, entrenas un modelo más pequeño y menos capaz usando las respuestas de uno más poderoso. Es como si un estudiante aprendiera resolviendo los exámenes ya contestados por un genio. Las respuestas le van dando forma a su propio razonamiento.Los propios laboratorios de IA —incluyendo los estadounidenses— usan esta técnica para crear versiones más ligeras y baratas de sus modelos. Así que no es un método oscuro ni prohibido.El problema, según Anthropic, es cuando tus competidores te usan a ti como fuente de aprendizaje sin permiso. Es la diferencia entre estudiar un libro publicado y fotocopiar los apuntes del estudiante más brillante de la clase… después de meterte al aula por una ventana rota.¿Qué buscaban robar, concretamente?Anthropic fue bastante específica sobre los objetivos de cada laboratorio.DeepSeek apuntaba a capacidades de razonamiento en tareas diversas, y también a crear versiones «censuradas» de respuestas sobre temas políticamente sensibles.Moonshot AI fue tras el razonamiento agéntico, el uso de herramientas, la programación y el análisis de datos.MiniMax también participó en la extracción de capacidades avanzadas del modelo.No buscaban información cualquiera. Fueron directamente por lo mejor de Claude: sus habilidades más diferenciadas y difíciles de replicar.El riesgo más allá del negocioAnthropic no lo enmarcó solo como un problema comercial. Lo presentó como un asunto de seguridad nacional.El argumento es así: los modelos de IA desarrollados por empresas estadounidenses incluyen salvaguardas que impiden que sean usados, por ejemplo, para desarrollar bioarmas o ejecutar ciberataques.Pero un modelo construido a partir de la destilación ilícita probablemente no hereda esas protecciones.«Los modelos construidos a través de destilación ilícita difícilmente retendrán esas salvaguardas, lo que significa que capacidades peligrosas pueden proliferar sin ninguna protección», señaló la empresa.Y hay más. Según Anthropic, los laboratorios extranjeros destilan modelos americanos y luego alimentan esas capacidades —ya sin restricciones— a sistemas militares, de inteligencia y de vigilancia. Un escenario que, dicho así, suena bastante serio.La misma historia, distintos protagonistasEsto no es la primera vez que se señala a DeepSeek en este tipo de acusaciones. OpenAI ya había enviado un memorándum a legisladores estadounidenses este mismo año, alegando que DeepSeek usó destilación para imitar sus productos.Y Anthropic también tiene historial aquí. En noviembre de 2025, había alertado de que una amenaza respaldada por el Estado chino había manipulado su herramienta Claude Code en una operación de ciberespionaje.El patrón se repite. Y cada vez que se repite, el debate sobre los controles de exportación de chips de IA vuelve al centro del escenario.Anthropic, aprovechando el momento, reiteró su llamado a fortalecer esas restricciones —argumentando que reducir el acceso a chips de alto rendimiento también limita la capacidad de ejecutar este tipo de destilaciones masivas.Fuente: The GuardianThe post Anthropic acusa a DeepSeek y otros laboratorios chinos de robar capacidades de Claude first appeared on PasionMóvil.