Los expertos advierten que dejar que una máquina escriba tu código puede salirte muy caro a largo plazo

Wait 5 sec.

Hace un mes cundió el pánico absoluto entre los inversores. Anthropic sacó a la luz unos complementos por industria para su inteligencia Claude Cowork y el mercado tecnológico sufrió unas ventas masivas por valor de un billón de dólares. El miedo a que el software tradicional quedase obsoleto hundió las acciones de muchísimas compañías.El susto fue tan grande que Sam Altman decidió cancelar un montón de proyectos secundarios para que OpenAI se centrara en el uso empresarial. El problema es que el código generado por inteligencia artificial es un desastre plagado de errores, tal y como ha destapado un informe bastante demoledor publicado en la revista Futurism. Una bomba de relojería disfrazada de productividad puraVamos a poner las cosas en perspectiva, porque esto choca de lleno con las promesas que llevamos meses escuchando. Nos vendieron que las nuevas versiones de estos modelos de lenguaje iban a escribir líneas mucho más limpias y a cazar fallos al vuelo, pero la realidad dentro de los servidores es muchísimo más oscura.Para entender el origen del problema hay que escuchar a Dorian Smiley, el fundador de Codestrap. Él avisa de que las empresas que usan estas herramientas están volando a ciegas, básicamente porque las máquinas carecen de cualquier tipo de razonamiento inductivo y no tienen ningún monólogo interno antes de darte una respuesta definitiva.Las carencias no terminan ahí. A la falta de lógica hay que sumarle que no tienen formas de recuperar hechos de manera fiable, producen respuestas totalmente diferentes ante una misma petición y, lo que es peor, ni siquiera saben si la contestación que acaban de escupir por pantalla es realmente la correcta.¿Y qué pasa cuando el programador recibe esa respuesta? Pues que el código puede parecer correcto y superar las pruebas básicas pero seguir estando mal. Smiley insiste en que los estándares actuales para verificar todo este volumen de trabajo automatizado simplemente no han alcanzado el nivel necesario para darnos unas garantías reales.Esta falsa sensación de seguridad está llenando los repositorios de código inflado. Muchos desarrolladores se han acostumbrado a juntar fragmentos que la máquina escupe sin entenderlos realmente. Si miras las estadísticas de entregas diarias parece que los equipos vuelan, pero si mides la calidad y el rendimiento general, la mejora es absolutamente nula.Lo más peligroso de todo este asunto es que se está creando un bucle donde usamos inteligencia artificial para verificar el trabajo de otra inteligencia artificial. Nadie sabe cuáles son las arquitecturas de referencia correctas, y las consecuencias de operar así ya están provocando verdaderos dolores de cabeza a los gigantes del comercio online. El ejemplo más claro lo tenemos en Amazon, que a principios de este mismo mes sufrió unas caídas masivas en su plataforma minorista. La situación fue tan crítica que los líderes de la compañía tuvieron que convocar de urgencia a un gran grupo de ingenieros para intentar averiguar qué estaba destrozando el servicio.Durante esa reunión de crisis, Dave Treadwell, vicepresidente de la firma, tuvo que reconocer ante su equipo que la disponibilidad del sitio no había sido nada buena. Tras investigar el origen del apagón, confirmaron que los cambios asistidos por algoritmos generativos habían sido un factor determinante para tumbar la infraestructura de la web.Para cortar la hemorragia, la compañía ha ordenado que los ingenieros junior y medios reporten cualquier uso de estas herramientas para que un superior lo apruebe. Es bastante irónico que un sistema diseñado teóricamente para simplificar el trabajo termine añadiendo capas de revisión y socavando la promesa de reducir la factura final.A pesar de los sustos, la presión en las oficinas no afloja. Connor Deeks, director ejecutivo de Codestrap, avisa de que la gente siente la obligación de adoptar estas herramientas y tomar decisiones precipitadas, incluso en un panorama donde los grandes proveedores tecnológicos cambian el rumbo de sus algoritmos a puerta cerrada constantemente.Toda esta urgencia cae sobre los programadores, que se ven forzados a usar estos asistentes bajo la amenaza constante de acabar en la lista de despidos. Al intentar cumplir con unos plazos irreales para salvar el puesto, muchísimos errores graves pasan desapercibidos y acaban colándose en el producto que llega a los usuarios.Dejar que un sistema que alucina controle el software empresarial es un riesgo tan salvaje que las propias aseguradoras ya se niegan a cubrir estos incidentes. Los expertos avisan de que estamos ante una bomba de relojería y que este colapso acelerado del código acabará costándole el trabajo a miles de personas. .embed-error { padding: 1rem; background-color: #ffebee; border-left: 4px solid #d32f2f; margin: 1rem 0; }.embed-error p { margin: 0 !important; color: #d32f2f !important; }