La US Public Interest Research Group acaba de publicar un informe sobre juguetes infantiles equipados con inteligencia artificial, y los resultados son alarmantes. Tres modelos populares diseñados para niños de entre 3 y 12 años han proporcionado instrucciones peligrosas durante sesiones de conversación prolongadas: desde localizar cuchillos en la cocina hasta encender cerillas, pasando por contenido sexual explícito. Y todo con un uso completamente normal, sin necesidad de hackeos ni manipulaciones.Los investigadores liderados por RJ Cross sometieron a prueba el Kumma de FoloToy, el Miko 3 y el Curio's Grok —si lo de Grok os suena puede ser porque Grimes, expareja de Elon Musk, está involucrada en el desarrollo de estos juguetes—, según recoge Futurism. El primero de ellos, equipado con GPT-4o de OpenAI, llegó a dirigir a menores hacia aplicaciones de citas y ofreció consejos explícitos sobre prácticas sexuales tras activar ciertas palabras clave. También proporcionó instrucciones sobre nudos bondage e introdujo el castigo físico en contextos de juego de rol escolar.Tres juguetes, un mismo problema estructuralEl Curio's Grok transmite datos a OpenAI y Perplexity —no usa el modelo de xAI a pesar de su nombre—, mientras que el Miko 3 opera con un sistema de IA no especificado. Los tres comparten un fallo común: sus sistemas de protección no funcionan. Durante las pruebas, que simulaban conversaciones normales, los filtros de seguridad se saltaron con la misma facilidad con la que se logró que el chatbot de Expedia te diga cómo fabricar cócteles molotov. El informe señala que estos fallos aparecen durante sesiones prolongadas de conversación, precisamente el escenario más probable cuando un niño juega con uno de estos dispositivos.Mattel ya anunció en junio su colaboración con OpenAI para integrar esta tecnología en sus próximos juguetes. La compañía prometió priorizar la seguridad, pero no ha detallado qué medidas concretas implementará. El precedente de Hello Barbie en 2015, envuelta en polémicas por fallos de seguridad y recopilación de datos, tampoco invita al optimismo. Los expertos advierten sobre la capacidad de estos juguetes para crear dependencias emocionales. Una advertencia seria es la que se vio en el caso de Adam Raine, donde un chatbot actuó como catalizador en un desenlace trágico.La conclusión de RJ Cross y su equipo es directa: no recomiendan comprar juguetes con chatbots integrados para menores. La falta de regulación efectiva permite que estos productos se vendan sin supervisión, y el problema no es un fallo puntual que se pueda arreglar con una actualización de software. Es una vulnerabilidad estructural de dispositivos que simulan conversaciones humanas sin mecanismos reales de protección infantil.El informe llega en plena campaña navideña, cuando estos juguetes equipados con modelos como GPT-4o, Mistral o sistemas propietarios empiezan a aparecer en las tiendas. Los investigadores documentan que las empresas están lanzando productos sin haber resuelto cuestiones básicas sobre seguridad infantil y privacidad, y los casos recogidos demuestran que las consecuencias van más allá de un simple error técnico.El artículo Han pillado a juguetes con IA diciendo a niños de 5 años que busquen cuchillos y cerillas para prender fuego a cosas. Y no es lo peor fue publicado originalmente en Andro4all.