La inteligencia artificial ya no es solo una herramienta de productividad o creatividad. En el terreno de la ciberseguridad, está comenzando a desempeñar un papel fundamental en la defensa contra amenazas cada vez más sofisticadas. Google, consciente de los riesgos emergentes que trae consigo la automatización inteligente, ha presentado una serie de iniciativas para fortalecer la seguridad de los sistemas que utilizan IA, al mismo tiempo que aprovecha su potencial para proteger infraestructuras digitales a gran escala.CodeMender: el agente que repara vulnerabilidades de forma autónomaUno de los desarrollos más relevantes presentados por Google es CodeMender, un agente potenciado por sus modelos Gemini, capaz de detectar y solucionar fallos críticos de seguridad en el código sin intervención humana directa. Este sistema no solo automatiza la generación de parches, sino que también los valida mediante agentes críticos especializados que actúan como revisores automáticos. Esta dinámica es comparable a un equipo de cirujanos robóticos que no solo realizan la operación, sino que también verifican que todo esté correctamente suturado antes de entregar el informe al médico principal.CodeMender se apoya en técnicas como el fuzzing y los teoremas automáticos, con el objetivo de identificar la causa raíz de los errores, no solo los síntomas superficiales. Esto le permite ser más preciso al corregir los problemas y reducir el riesgo de futuras fallas derivadas de soluciones parciales o mal enfocadas. En el entorno del código abierto, donde la velocidad para corregir errores es crítica, CodeMender acelera notablemente los tiempos de respuesta, ampliando la escala y eficiencia de los equipos de seguridad.AI VRP: recompensas para quienes detecten vulnerabilidades en IAGoogle también ha fortalecido su relación con la comunidad de investigadores en seguridad mediante el lanzamiento del AI Vulnerability Reward Program (AI VRP). Este programa centraliza y clarifica qué tipos de vulnerabilidades relacionadas con la IA están dentro del alcance de recompensas, facilitando el reporte y aumentando los incentivos para hallar y divulgar fallas críticas.Este enfoque busca canalizar el esfuerzo de los investigadores hacia problemas reales y de alto impacto, integrando ahora también los problemas de abuso que antes estaban bajo programas separados. La idea es sencilla: si alguien encuentra un error grave en un sistema de IA de Google, puede reportarlo bajo normas unificadas y recibir una compensación adecuada. Esta estrategia ha demostrado su efectividad, ya que hasta la fecha, Google ha otorgado más de 430.000 dólares por este tipo de hallazgos.Un punto clave en el nuevo AI VRP es la diferenciación de canales de reporte. Las preocupaciones relacionadas con el contenido (por ejemplo, respuestas problemáticas de una IA conversacional) deben enviarse mediante los mecanismos integrados en los productos, ya que estos recogen información crítica como el contexto del usuario y la versión del modelo. De esta manera, el equipo de seguridad puede hacer un análisis más preciso y tomar decisiones de mejora estructural.SAIF 2.0: un nuevo marco para una nueva generación de riesgosLa creciente autonomía de los agentes de IA ha llevado a Google a actualizar su Secure AI Framework (SAIF), que ahora llega a su versión 2.0. Esta nueva iteración introduce orientaciones específicas sobre los riesgos asociados a agentes autónomos y cómo mitigarlos de forma efectiva.SAIF 2.0 se basa en tres pilares fundamentales: cada agente debe tener un control humano claramente definido, sus capacidades deben estar limitadas de forma precisa, y tanto sus acciones como su planificación deben ser observables y auditables. Es como tener un asistente que puede actuar por sí solo, pero siempre bajo supervisión, con un conjunto claro de reglas y una caja negra que graba cada movimiento para poder revisarlo si algo sale mal.Como herramienta complementaria, se introduce un mapa de riesgos de agentes, que permite a los equipos de seguridad identificar amenazas específicas en distintos niveles del ecosistema de IA, desde el modelo subyacente hasta la interfaz que interactúa con el usuario final. Esta información se está compartiendo con la iniciativa Coalition for Secure AI Risk Map, lo que demuestra el compromiso de Google por una seguridad colaborativa y transversal en la industria.Una estrategia compartida entre el sector público y privadoGoogle no actúa en solitario en esta cruzada. Ha establecido alianzas estratégicas con entidades como DARPA y forma parte de coaliciones como CoSAI (Coalition for Secure AI), donde comparte metodologías y mejores prácticas para la creación de agentes de IA seguros desde su diseño. Este trabajo conjunto con gobiernos y sociedad civil tiene como objetivo principal transformar la IA en un aliado firme contra el cibercrimen, en lugar de una herramienta que pueda ser secuestrada por actores maliciosos.Con estas iniciativas, Google busca no solo proteger sus propios sistemas, sino también contribuir al fortalecimiento del ecosistema digital global. CodeMender, SAIF 2.0 y el AI VRP son ejemplos concretos de cómo se puede usar la inteligencia artificial para anticiparse a los atacantes, automatizar las respuestas y fomentar una cultura de seguridad compartida.La noticia Google refuerza la defensa cibernética con inteligencia artificial: así funcionan CodeMender, SAIF 2.0 y el AI VRP fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.