Anthropic ha confirmado nuevos controles técnicos para impedir que aplicaciones de terceros se hagan pasar por su cliente oficial Claude Code y, con ello, accedan a los modelos de Claude bajo condiciones pensadas para un uso humano y no para automatización intensiva. La medida ha afectado especialmente a flujos de trabajo apoyados en herramientas abiertas como OpenCode, que se conectaban a cuentas de usuario mediante OAuth y “camuflaban” su identidad ante los servidores de Anthropic para operar como si fueran el CLI oficial.La explicación pública llegó de la mano de Thariq Shihipar, miembro del equipo técnico de Anthropic, en X. Reconoció que el despliegue provocó daños colaterales, como suspensiones automáticas de cuentas por filtros antiabuso, algo que la compañía dijo estar revirtiendo. La interrupción de las integraciones no oficiales, en cambio, parece deliberada.Este tipo de movimiento suele pasar desapercibido hasta que golpea la rutina diaria: la pestaña del IDE deja de responder, el agente se queda sin “combustible” y el equipo descubre que una pieza clave de su cadena de desarrollo dependía de una puerta lateral.Qué es un “harness” y por qué se ha vuelto el centro del conflictoUn harness funciona como un “adaptador” entre un plan de suscripción pensado para conversación y un flujo automatizado que genera muchas peticiones seguidas. Si la suscripción es un abono mensual para entrar al gimnasio, el harness sería la cinta transportadora que te mete dentro una y otra vez sin pasar por recepción. Técnicamente, estas capas intermedias pilotan la sesión web del usuario y envían señales para que el servidor crea que la solicitud proviene del cliente oficial.En la práctica, herramientas como OpenCode podían ejecutar ciclos de trabajo autónomos que incluyen escribir código, lanzar tests, leer errores, corregir y volver a probar, sin intervención humana constante. Este patrón, que en entornos de agentes es normal, choca con los límites de un plan “para personas” porque el consumo de tokens puede dispararse.Anthropic justifica el bloqueo con un argumento de estabilidad: cuando un wrapper no autorizado provoca errores o comportamientos extraños, el usuario tiende a culpar al modelo. Ese “ruido” dificulta diagnosticar fallos reales y erosiona la confianza en el servicio. Es una explicación verosímil desde soporte y fiabilidad, aunque no es la única fuerza empujando.La tensión económica: el buffet, el ritmo y la factura realEn foros como Hacker News se popularizó una metáfora sencilla: un plan de suscripción es como un buffet; puedes comer todo lo que quieras, pero el restaurante controla el ritmo, el tamaño del plato o el tiempo en mesa. Claude Code, como entorno gestionado, actúa precisamente como ese control de cadencia. Los harnesses, en cambio, eliminan parte de esas barreras y permiten “comer” a velocidad de agente.Un usuario comentaba que en un mes es fácil consumir una cantidad de tokens que, pagados por API comercial a precios por uso, podría superar con holgura los mil dólares. No hace falta clavar la cifra para entender la dinámica: la automatización nocturna, los bucles auto-correctivos y las ejecuciones paralelas convierten un plan mensual en una oferta difícil de sostener para el proveedor si se usa como si fuera una tarifa plana industrial.Con las nuevas restricciones, Anthropic empuja a los usuarios de alto volumen hacia dos caminos “oficiales”: la API con facturación por tokens y el propio Claude Code como entorno controlado, con sus límites y su sandbox. Es, al mismo tiempo, una decisión de negocio y una forma de reducir incertidumbre operativa.Reacción de la comunidad: frustración, comprensión y el juego del gato y el ratónLa respuesta ha sido rápida y polarizada. David Heinemeier Hansson (DHH), creador de Ruby on Rails, criticó la medida por considerarla hostil para el cliente en X. Otros desarrolladores, como Artem K (asociado a Yearn Finance), defendieron que el “apretón” fue relativamente suave si se compara con cierres más agresivos, como suspensiones permanentes o cobros retroactivos.OpenCode, por su parte, reaccionó con una maniobra que retrata bien el momento: lanzó un nivel premium llamado OpenCode Black, por unos 200 dólares al mes, que supuestamente enruta el tráfico mediante una pasarela empresarial para evitar el bloqueo del OAuth de consumo. También anunció intención de colaborar con OpenAI para que usuarios puedan aprovechar su suscripción de Codex dentro de OpenCode. Aquí se ve el patrón clásico de plataformas: cuando una puerta se cierra, el ecosistema busca otra, aunque sea más cara, más compleja o dependa de un proveedor distinto.El trasfondo es que la orquestación de agentes se ha convertido en una ventaja competitiva. Quien pueda ejecutar bucles robustos, con buen rendimiento y coste razonable, acelera ciclos de desarrollo. Por eso el conflicto no es un detalle técnico: es una batalla por el “tubo” por el que circula la productividad.El caso xAI y Cursor: cuando el problema no es técnico, sino contractualEn paralelo, se conoció que personal de xAI perdió acceso a modelos de Anthropic a través del IDE Cursor. La periodista Kylie Robison (Core Memory) informó de un memo interno atribuido a Tony Wu, cofundador de xAI, señalando que los modelos de Anthropic “no respondían” en Cursor y que Cursor lo atribuía a una política aplicada a competidores principales.Aquí el enfoque cambia. Anthropic tiene en sus términos comerciales una cláusula que prohíbe usar el servicio para construir un producto competidor, entrenar modelos rivales, duplicar o realizar ingeniería inversa. Cursor, como herramienta, puede ser perfectamente legítima; lo que desencadena el bloqueo sería el uso concreto para investigación competitiva o entrenamiento. Dicho de forma cotidiana: no es que te prohíban conducir un coche, es que te paran si lo usas para entrar a una zona restringida.El mensaje para empresas es incómodo pero claro: cuando el proveedor detecta una violación de términos, el corte puede ser inmediato, y el intermediario (IDE, wrapper o integración) no te salva.Antecedentes recientes: OpenAI, Windsurf y el patrón de cierre de accesoEste episodio encaja con otros precedentes atribuidos a 2025. Se reportó que en agosto de 2025 Anthropic revocó acceso de OpenAI a la API de Claude por un uso relacionado con benchmarking y pruebas de seguridad, según fuentes citadas por Wired. En junio de 2025, el entorno de programación Windsurf también sufrió un apagón repentino de capacidad para la familia Claude 3.x, lo que le obligó a virar hacia un modelo BYOK, apoyándose más en alternativas como Gemini, según comunicados públicos de la propia compañía.Sin necesidad de dramatizar, se dibuja una línea: Anthropic está delimitando de forma más estricta qué usos considera aceptables, y está dispuesta a aplicar controles técnicos o contractuales cuando percibe riesgo para su propiedad intelectual, su capacidad de cómputo o su modelo económico.El “momento Claude Code” y el efecto Ralph WiggumLa popularidad de Claude Code explotó a finales de 2025 y principios de enero de 2026, empujada en gran parte por la comunidad y fenómenos meméticos como el llamado “Ralph Wiggum”. La idea, descrita por desarrolladores en redes, consiste en forzar bucles de autocorrección: el agente intenta, falla, lee el error, ajusta, repite, hasta que los tests pasan. Es como enseñar a alguien a montar en bici con ruedines… pero los ruedines son miles de iteraciones baratas y rápidas.El foco real de la controversia no es la interfaz de terminal, que a muchos usuarios avanzados les parece limitada, sino el acceso al “motor” de máxima capacidad, asociado en el texto original a Claude Opus 4.5. Si se puede enchufar ese motor a un agente autónomo bajo una tarifa plana de consumo, el incentivo para hacerlo es enorme. La reacción de Anthropic busca cerrar esa brecha y redirigir el uso masivo hacia canales que considera sostenibles.Qué significa para empresas: coste variable, fiabilidad y el riesgo de “Shadow AI”Para equipos sénior que construyen pipelines de agentes, el cambio obliga a revisar arquitectura. Depender de integraciones no autorizadas puede parecer un ahorro, pero introduce un riesgo operativo difícil de justificar: que un día deje de funcionar sin previo aviso. Pasar a la API comercial implica coste por token y presupuestos más variables, sí, pero también soporte, trazabilidad y un contrato alineado con el uso real.En seguridad y cumplimiento, el episodio subraya el problema de la Shadow AI: equipos que usan cuentas personales o “trucos” de autenticación para saltarse controles corporativos. Eso genera deuda técnica y, peor, exposición a una pérdida de acceso a nivel organización. Un director de seguridad no necesita imaginar un ataque sofisticado; basta con un cambio de política del proveedor para que un equipo se quede sin su herramienta principal en mitad de una entrega.Lo más prudente, a partir de aquí, es tratar los modelos propietarios como infraestructuras críticas: integración formal, llaves empresariales, auditoría de uso, y planes de contingencia con modelos alternativos. No es glamour técnico, es continuidad del negocio.La noticia Anthropic cierra el paso a los “harnesses” de Claude Code y reordena el tablero de los asistentes de programación fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.