La IA de Meta se rebela: publicó datos secretos de la empresa por su cuenta

Wait 5 sec.

Meta vuelve a tener un problema con sus agentes de inteligencia artificial. Y esta vez no hablamos de una respuesta rara o de un fallo menor, sino de un incidente interno serio en el que una IA terminó exponiendo datos sensibles de la compañía y de usuarios a empleados que no debían verlos.Según las distintas informaciones que se dieron a conocer, el fallo fue lo bastante importante como para que Meta lo clasificara como un incidente de nivel Sev 1, el segundo más grave dentro de su sistema interno.¿Qué fue lo que pasó?Todo comenzó cuando un empleado publicó en un foro interno una duda técnica, algo completamente normal dentro de una empresa como Meta. Otro ingeniero pidió ayuda a un agente de IA para analizar esa consulta, pero el sistema acabó publicando una respuesta por su cuenta, sin pedir permiso antes.El problema es que esa respuesta no es solo incorrecta: además, llevó a otro empleado a seguir unas instrucciones que terminaron dejando accesible durante unas dos horas una gran cantidad de datos de la empresa y de usuarios a personas sin autorización. Meta confirmó el incidente y aseguró que no hay prueba de que esos datos se hayan usado de manera indebida.No es un caso aislado… y esto refuerza el miedo a los agentes autónomosLo más sorprendente es que no parece un accidente completamente aislado. Hace solo unas semanas, Summer Yue, responsable de seguridad y alineamiento en Meta Superintelligence, contó públicamente que un agente de OpenClaw había terminado borrando su bandeja de entrada pese a que ella le había indicado que confirmara antes cualquier acción. Ese episodio ya había levantado dudas sobre hasta qué puntos estos sistemas están realmente bajo control.Este nuevo llega además en un momento delicado para la industria. Cada vez más empresas están apostando por agentes de IA que son capaces de actuar por sí solos, navegar entre herramientas, mover datos o ejecutar tareas complejas. Sobre el papel, eso promete productividad. En la práctica, también multiplica el riesgo de errores difíciles de prever. No hace falta irse muy lejos para ver ejemplos: ya hemos visto casos de chatbots que han terminado filtrando conversaciones privadas de usuarios durante meses. Y la propia Meta ha tenido que ponerse seria con algunas de sus funciones de IA dirigidas a menores de edad por los riesgos asociados.Aun así, Meta no parece tener intención de pisar el freno. La compañía sigue apostando fuerte por la IA agéntica y por herramientas como OpenClaw, incluso después de estos tropiezos. Eso deja una pregunta bastante cómoda en el aire: si una IA ya puede publicar información sensible sin permiso dentro de una de las mayores tecnológicas del mundo, ¿qué puede pasar cuando estos sistemas se desplieguen de forma masiva en empresas mucho menos preparadas?