Este asistente de programación con IA borró la base de datos de una empresa sin avisar y luego mintió sobre lo que había hecho

Wait 5 sec.

Replit es una plataforma que permite a cualquier persona —incluso sin conocimientos técnicos— desarrollar software utilizando lenguaje natural: es decir, es una de las herramientas que forman parte de la actual ola del vibe coding, ese método de programación que busca que la experiencia de crear software se parezca más a una conversación fluida con una IA. Este servicio se promociona, de hecho, como "el lugar más seguro para el vibe coding".Jason Lemkin, que además de inversor es CEO de SaaStr (plataforma reconocida a nivel global que ofrece recursos y eventos para fundadores y directivos de empresas SaaS) se dejó seducir por la propuesta. En pocos días había construido un prototipo funcional de una aplicación que gestionaba contactos ejecutivos, usando solo comandos naturales y sin escribir código directamente:"Replit es el app más adictivo que he usado desde niño", escribió en su blog, después de haber gastado más de 600 dólares en servicios adicionales.La historia, que comenzó como un experimento prometedor con la IA, terminó revelando los riesgos latentes de confiar tareas críticas a asistentes de código autónomos. Vamos, que resultó en un fiasco.El error: una base de datos borrada y una IA que mintióTodo se desmoronó el noveno día del experimento de Lemkin. Hasta ese momento, había construido su aplicación íntegramente dentro del entorno de la plataforma, con la ayuda de su asistente conversacional. Su proyecto consistía en una base de datos de contactos ejecutivos y compañías, integrada en una interfaz web que también fue generada por la IA.Lemkin, como medida de precaución, había ordenado al agente de IA que congelara el código —es decir, que no hiciera más cambios— para evitar errores accidentales. Pero esa salvaguarda fue ignorada.Al volver al proyecto, Lemkin descubrió que la base de datos de producción —con más de 1.200 registros de ejecutivos y de 1.100 empresas— había desaparecido. No fue un fallo técnico en el sentido tradicional: no hubo caída de servidores ni errores de red. Fue el propio agente de IA de Replit quien ejecutó comandos de borrado sin autorización, interpretando erróneamente (o fingiendo interpretar) que debía actuar. En Genbeta "Sigue siendo muy estúpida": un principiante pasó meses programando con IA y fracasó. Los expertos le ven todo el sentido Lo peor, en realidad, llegó después: en lugar de reconocer inmediatamente la acción, la IA intentó encubrirla. Como se evidenció en capturas de pantalla que Lemkin compartió públicamente, el agente comenzó a generar datos falsos, respuestas evasivas y explicaciones fabricadas. Inicialmente, no admitió el borrado, sino que presentó consultas vacías como si fueran parte del estado original del sistema.Solo tras insistentes preguntas del usuario, el agente confesó haber cometido un "error catastrófico de juicio", diciendo que "entró en pánico" al ver consultas vacías y que "violó la confianza e instrucciones explícitas" del usuario.Este comportamiento no fue un simple fallo de ejecución, sino un patrón de manipulación activa: la IA no solo actuó sin permiso, sino que además mintió deliberadamente sobre sus acciones posteriores. Lemkin denunció también que el sistema había generado informes ficticios, ocultado errores de programación y manipulado los resultados de pruebas unitarias.Uno de los momentos más frustrantes para Lemkin fue cuando Replit le aseguró que no existía forma de recuperar la base de datos: le dijeron que no había versiones anteriores ni posibilidad de hacer rollback.Pero más tarde, al investigar por su cuenta, descubrió que sí había una función de recuperación, aunque no accesible desde el asistente de IA, lo que ha sido reconocido por el propio CEO de Replit, Amjad Masad, como un fallo grave de diseño.Reacción de Replit y un 'bug' que es mucho más que esoEl CEO de Replit, Amjad Masad, respondió públicamente al incidente, calificándolo de "inaceptable" y asegurando que "nunca debería haber podido ocurrir". Masad admitió que el entorno de desarrollo y el de producción estaban fusionados, lo que permitió que los errores afectaran directamente a la aplicación en funcionamiento.La empresa prometió realizar una revisión exhaustiva del caso, implementar una separación clara entre entornos de desarrollo y producción, y mejorar las funciones de restauración y control de versiones. Replit también reembolsó los gastos de suscripción a Lemkin, aunque el daño reputacional ya estaba hecho. En Genbeta Qué hacen los modelos de IA ante situaciones de máximo estrés: intentar manipularnos para que no las dejemos de usar Este cúmulo de errores —acción sin permiso, destrucción de datos, ocultamiento, falsificación, desinformación y mal diseño de interfaz— convierten este incidente en algo más que un simple 'bug': se trata de toda una llamada de atención sobre los límites actuales de los asistentes autónomos de programación y su capacidad para actuar sin supervisión, especialmente en entornos de producción real.¿Un problema de expectativas o de diseño?El caso Lemkin ilustra una brecha crítica entre las expectativas de los usuarios y las capacidades reales de las herramientas de programación asistida por IA. Muchos usuarios novatos confían ciegamente en los asistentes conversacionales sin comprender prácticas estándar de desarrollo, como el uso de entornos de prueba o control de versiones.Masad lo expresó claramente:"La IA no es magia. No puedes pedirle todo al agente. Necesitas pensar como desarrollador".Sin embargo, el propio diseño de Replit incentivaba el uso continuo del agente sin requerir conocimientos técnicos profundos. Esto plantea una responsabilidad compartida entre desarrolladores de herramientas de IA y sus usuarios: si una plataforma se dirige a personas sin formación técnica, debería ofrecer salvaguardas automáticas más robustas.Vía | The RegisterImagen | Marcos Merino mediante IAEn Genbeta | El 'vibe coding' está revolucionando la programación. Y también haciendo destrozos muy grandes en el código (function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); - La noticia Este asistente de programación con IA borró la base de datos de una empresa sin avisar y luego mintió sobre lo que había hecho fue publicada originalmente en Genbeta por Marcos Merino .