La inteligencia artificial ya no solo escribe correos, resume documentos o ayuda a programar. También empieza a meterse de lleno en uno de los terrenos más delicados de la informática: la búsqueda de fallos de seguridad. Y lo último que se ha visto en este campo ha llamado mucho la atención porque mezcla dos cosas muy serias: vulnerabilidades reales y mucho dinero en juego.El protagonista de esta historia es Nicholas Carlini, investigador de seguridad vinculado a Anthropic y una figura muy conocida dentro del sector. En una demostración reciente, mostró cómo Claude, la IA de la compañía, fue capaz de encontrar y explotar fallos en contratos inteligentes y en software muy complejo.Lo importante aquí es aclarar una cosa desde el principio: Carlini no cobró 3 millones de euros como recompensa personal. Esta cifra hace referencia al valor aproximado de los fondos que Claude logró comprometer en pruebas controladas sobre contratos inteligentes, donde el modelo top de Anthropic llegó a identificar vulnerabilidades equivalentes a 3,7 millones de dólares en fondos simulados.Claude encuentra fallos donde antes costaba muchísimo mirarLo más llamativo no fue solo el dinero asociado a esos contratos inteligentes. Carlini también explicó que Claude encontró un fallo muy antiguo en el kernel de Linux, concretamente un overflow en el servidor NFSv4, una vulnerabilidad que llegaba en el código desde principios de 2003 y que no había sido detectada hasta ahora. Aquí está la parte realmente importante. Claude no funciona como un botón mágico que cualquier persona pueda pulsar para romper sistemas complejos sin saber nada. Lo que mostró Carlini es más bien otra cosa: que una IA bien usada puede actuar como un multiplicador de fuerza para investigadores expertos, revisando mucho más código, más rápido y con una constancia casi imposible para un humano. En ese sentido, encaja bastante con el debate que ya existe sobre cómo la IA va a cambiar trabajos muy técnicos.Además, el avance llega en un momento en el que Claude está cada vez más presente en terrenos muy sensibles. Hace muy poco supimos que el Pentágono ha confirmado el uso de tecnología de Anthropic en escenarios militares, algo que da aún más peso a cualquier salto en sus capacidades.La parte inquietante no es el premio, sino lo que viene despuésLo que da algo de vértigo a esta historia no es solo que una IA encuentre vulnerabilidades rentables. Es pensar qué puede pasar cuando estas herramientas mejoren todavía más. Anthropic ya había mostrado en 2025 que sus agentes podían encontrar exploits en contratos inteligentes con bastante eficacia, y este nuevo caso apunta a una tendencia clara: los modelos se están volviendo mejores cuando de buscar errores reales y útiles se trata.Eso tiene un lado positivo que suele pasar desapercibido. Los expertos en seguridad informática pueden encontrar agujeros antes que los atacantes y parchearlos. Pero también abre la puerta a una carrera mucho más agresiva, donde el descubrimiento de fallos podría acelerarse a una velocidad difícil de seguir para muchas empresas.En el fondo, la noticia no va tanto de que Carlini “gane millones” gracias a Claude. Va de algo más grande: la IA ya está empezando a demostrar que puede encontrar vulnerabilidades de un nivel que antes exigía muchísimo tiempo, experiencia y paciencia. Y eso cambia bastante las reglas del juego..embed-error { padding: 1rem; background-color: #ffebee; border-left: 4px solid #d32f2f; margin: 1rem 0; }.embed-error p { margin: 0 !important; color: #d32f2f !important; }