Anthropic limita el uso de Claude y desata el descontento de desarrolladores

Wait 5 sec.

La inteligencia artificial generativa sigue siendo el corazón de muchos flujos de trabajo modernos, pero a veces hasta las máquinas necesitan un respiro. Esto es precisamente lo que ha llevado a Anthropic a establecer nuevos límites semanales de uso para su modelo Claude, especialmente en su modalidad Claude Code, que ha experimentado una demanda desbordante.Nuevas reglas para el uso de ClaudeA partir del 28 de agosto, los usuarios de Claude deberán ajustarse a una nueva política de uso que combina los ya existentes límites de 5 horas con restricciones semanales. Según la compañía, esta medida solo afectará al 5% de sus usuarios, pero ya ha generado preocupación entre la comunidad de desarrolladores y empresas que dependen del modelo para tareas complejas y de larga duración.Anthropic explicó que ha observado patrones de uso inusuales, como ejecutar Claude de manera ininterrumpida las 24 horas del día. Estos hábitos, junto con prácticas como la compartición de cuentas o incluso la reventa de accesos, han provocado una sobrecarga en los sistemas, comprometiendo la calidad del servicio para todos.¿Qué límites se aplicarán?Aunque la empresa no ha detallado los valores exactos de los nuevos límites, se han dado algunas referencias. Los usuarios del plan Claude Max 20x podrán esperar entre 240 y 480 horas semanales para el modelo Sonnet 4, y entre 24 y 40 horas para Opus 4. Este rango es suficiente para la mayoría de los casos de uso diarios, según Anthropic.Sin embargo, aquellos que utilizan múltiples instancias o realizan tareas pesadas —como proyectos de programación automatizada— podrían alcanzar esos límites mucho antes de que termine la semana. En estos casos, la empresa ofrece la posibilidad de comprar horas adicionales a las tarifas estándar de su API.Una medida que divide opinionesMientras Anthropic defiende su decisión como una forma de proteger la experiencia de la mayoría de sus usuarios, muchos desarrolladores consideran que se trata de un castigo colectivo. En redes sociales y foros especializados, se multiplican las críticas que apuntan a la compañía por penalizar a los usuarios más activos debido a la conducta de unos pocos que han abusado del sistema.En contraste, otros usuarios han mostrado cierta comprensión. Ven las limitaciones como un mal necesario en una etapa en la que el crecimiento explosivo de los asistentes de IA está tensionando la infraestructura disponible.¿Por qué imponer límites?Establecer límites de uso no es nuevo en el mundo de la inteligencia artificial. Plataformas como OpenAI o la propia Google han optado por modelos escalonados, en los que los usuarios pagan más si necesitan más capacidad. La lógica detrás de esta estrategia es similar a la de una autopista: si todos quieren conducir al mismo tiempo, hay que regular el tráfico para evitar atascos.Pero este tipo de políticas pueden limitar la experimentación y la innovación, especialmente cuando hablamos de agentes de IA que necesitan operar durante largos periodos sin interrupción. Equipos que trabajan en prototipos o flujos automatizados se ven particularmente afectados.¿Qué alternativas ofrece Anthropic?Aunque la compañía no ha presentado aún una solución definitiva para quienes requieren un uso intensivo, ha asegurado que explora opciones para casos de uso de larga duración. Se espera que en el futuro se introduzcan modalidades específicas que permitan este tipo de trabajos sin comprometer la estabilidad del sistema general.Además, la empresa continúa puliendo su infraestructura. En las últimas semanas, algunos usuarios han reportado problemas de fiabilidad en el servicio, algo que Anthropic reconoce y se compromete a resolver a corto plazo.Claude y su expansión recientePese a la polémica actual, Claude ha ganado terreno rápidamente. En junio, Anthropic amplió las capacidades del asistente, transformándolo en una plataforma sin código accesible para todo tipo de usuarios. También lanzó una versión enfocada en servicios financieros dentro de su paquete para empresas, lo que demuestra su ambición de abarcar más sectores.Claude Code, por su parte, ha sido una herramienta bien recibida por la comunidad de desarrolladores, gracias a su capacidad para escribir, depurar y explicar código de manera eficiente. Esta popularidad, sin embargo, ha traído consigo el problema actual de saturación.El futuro inmediato: control y adaptaciónLo cierto es que este tipo de ajustes reflejan la creciente necesidad de gestionar los recursos de computación de forma más eficiente. Las plataformas de IA generativa se enfrentan al reto de escalar sin perder calidad, un equilibrio delicado que requiere decisiones impopulares, como esta.Para los usuarios, el mensaje es claro: adaptarse a las nuevas reglas o pagar más por mayor capacidad. Para Anthropic, en cambio, el desafío es mantener el interés y la confianza de los desarrolladores sin perder de vista la sostenibilidad operativa.La noticia Anthropic limita el uso de Claude y desata el descontento de desarrolladores fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.