Microsoft alerta de que los nuevos agentes de IA de Windows 11, aún en fase experimental, podrían ser manipulados para extraer datos o instalar malware si el usuario decide activarlos manualmente.Microsoft ha publicado una advertencia oficial sobre las funciones experimentales de agentes de inteligencia artificial que planea integrar próximamente en Windows 11, señalando posibles riesgos de seguridad derivados de su uso. Estas herramientas, capaces de acceder a archivos del sistema y realizar acciones en nombre del usuario, podrían ser manipuladas para ejecutar tareas no autorizadas, incluyendo la instalación de malware.Según recoge Windows Central, Microsoft ha detallado los peligros asociados a estos agentes, que aún se encuentran en fase experimental. En su comunicado, la compañía subraya que los modelos de IA "todavía presentan limitaciones funcionales" y pueden generar comportamientos inesperados. Además, advierte de nuevas amenazas específicas, como la denominada cross-prompt injection (XPIA), una técnica en la que contenido malicioso incrustado en elementos de la interfaz o documentos puede anular las instrucciones del agente y provocar acciones no deseadas, desde la extracción de datos hasta la ejecución de software malicioso.Úsalos bajo tu responsabilidadLa compañía insiste en que estos agentes permanecerán desactivados por defecto, de modo que el usuario deberá activarlos manualmente si desea probar sus capacidades. Microsoft explica que esta decisión busca evitar que funciones aún inmaduras puedan comprometer la seguridad del sistema o la privacidad del usuario.Aunque no se descarta que estas funciones puedan activarse automáticamente en el futuro, Microsoft recalca que, por ahora, el riesgo depende exclusivamente de quienes decidan habilitarlas. Hasta que las medidas de protección estén completamente afinadas, la compañía recomienda cautela y recuerda que la responsabilidad final recae en el propio usuario al activar estas herramientas experimentales.