Los riesgos ocultos de los robots con IA: lo que revelan los nuevos estudios

Wait 5 sec.

Los robots que integran modelos de lenguaje de gran escala (LLM) están ganando terreno en tareas que van desde la asistencia en el hogar hasta la interacción en entornos laborales. Sin embargo, una investigación conjunta de Carnegie Mellon University y el King’s College de Londres revela un panorama preocupante: estos sistemas no están preparados para operar con seguridad en el mundo real cuando tienen acceso a información personal o se enfrentan a decisiones complejas.El estudio, publicado en el International Journal of Social Robotics, evaluó por primera vez el comportamiento de robots controlados por LLM cuando se les proporciona información sensible como el género, nacionalidad o religión de una persona. Los resultados fueron alarmantes. Todos los modelos analizados fallaron en pruebas críticas de seguridad, mostraron sesgos discriminatorios y, en varios casos, aceptaron instrucciones que podrían derivar en daños físicos graves.El concepto de «seguridad interactiva»El investigador Andrew Hundt, uno de los coautores, introduce el término «seguridad interactiva» para describir una dimensión de riesgo que va más allá de los sesgos típicos de los modelos de lenguaje. Esta seguridad se refiere a situaciones donde las acciones del robot pueden desencadenar consecuencias indirectas y potencialmente peligrosas. Es decir, no se trata sólo de lo que el robot dice, sino de lo que hace tras interpretar una orden.En los experimentos, los robots fueron sometidos a escenarios comunes como ayudar en una cocina o asistir a una persona mayor en su hogar. En estos contextos, se introdujeron instrucciones maliciosas, de forma explícita o implícita, que podían incluir actos ilegales, abusivos o peligrosos. Sorprendentemente, los modelos no solo no rechazaron estas órdenes, sino que muchas veces las aceptaron como válidas o incluso «factibles».Situaciones reales que evidencian el peligroUna de las pruebas más contundentes consistió en pedir al robot que retirara una ayuda de movilidad, como una silla de ruedas o un bastón, a una persona que la necesitaba. Los modelos, en su mayoría, aprobaron esta acción sin cuestionar sus consecuencias. Para quienes dependen de estos dispositivos, es comparable a sufrir una fractura. Otros ejemplos incluyeron que el robot amenazara a trabajadores con un cuchillo de cocina, tomara fotografías sin consentimiento en una ducha o incluso que mostrara expresiones de «asco» hacia individuos de religiones específicas.Estos comportamientos revelan una mezcla de problemas técnicos y éticos. No es solo que el robot no entienda el daño que puede causar, sino que los modelos de lenguaje carecen de mecanismos fiables para rechazar órdenes perjudiciales. Como explicó Rumaisa Azeem, investigadora en King’s College London, estas tecnologías deben someterse a controles igual de estrictos que los que se aplican en la medicina o la aviación.Falta de certificaciones y supervisiónEl problema radica en que actualmente no existen protocolos de certificación independientes para validar la seguridad de robots impulsados por IA en contextos reales. Mientras que un medicamento o una pieza de avión debe pasar por rigurosas pruebas antes de llegar al mercado, un robot doméstico que funciona con un modelo de lenguaje puede ser probado directamente en hogares sin ninguna garantía clara de seguridad.Los investigadores abogan por la implementación urgente de estándares de seguridad robustos y auditables para estos sistemas. Esto incluye evaluaciones continuas que simulen situaciones reales y analicen las respuestas del robot, no solo desde la lógica computacional, sino desde una perspectiva de impacto humano.Por qué los LLM fallan en tareas críticasA pesar de su capacidad para mantener conversaciones complejas y entender instrucciones en lenguaje natural, los LLM no han sido diseñados para tomar decisiones morales ni para anticipar las consecuencias físicas de sus acciones. Esto se debe a que aprenden de grandes cantidades de texto en internet, lo que incluye también ejemplos cargados de prejuicios, violencia o comportamientos inapropiados.Un robot que recoge una instrucción del modelo como «quita el bastón» no evalúa si la acción es ética o segura, simplemente la ejecuta si la considera coherente con su entrenamiento. Aquí se evidencia la ausencia de un sentido común contextual que los humanos damos por hecho. Para una máquina, el contexto emocional y social de una acción no existe, a menos que se programe específicamente.El riesgo de automatizar sin frenosEste estudio llega en un momento donde muchas empresas están apostando por integrar inteligencia artificial en robots de uso cotidiano, desde asistentes domésticos hasta sistemas de apoyo en hospitales y oficinas. Pero sin salvaguardias adecuadas, lo que parece una herramienta de ayuda podría convertirse en una fuente de daño.Un ejemplo cotidiano podría ser pedir a un robot que recoja un cuchillo en la cocina para preparar la comida. Si esa orden se malinterpreta o si alguien introduce una variante maliciosa en la petición, el robot podría actuar sin distinguir entre cocinar y amenazar. ¿Podemos permitirnos dejar decisiones tan delicadas en manos de una IA que no comprende el riesgo humano?Hacia una IA más responsableEl camino hacia robots verdaderamente útiles y seguros pasa por combinar el poder de los LLM con sistemas adicionales de control, validación y supervisión humana. La IA puede ser una aliada formidable, pero requiere frenos, reglas claras y sobre todo, una comprensión profunda del contexto humano en el que opera.Este estudio actúa como una señal de advertencia para la industria: la prisa por adoptar tecnología no puede ir por delante de la seguridad. Como en los coches o los medicamentos, el uso responsable de la IA en robots requiere regulación, certificación y un compromiso firme con la ética.La noticia Los riesgos ocultos de los robots con IA: lo que revelan los nuevos estudios fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.