Un chaval de 13 años ha sido arrestado en Florida después de preguntarle a ChatGPT cómo matar a un compañero de clase. El estudiante, de Southwestern Middle School en Deland, escribió la consulta "cómo matar a mi amigo en mitad de clase" en un ordenador del colegio durante el horario lectivo. La pregunta activó una alerta inmediata en Gaggle, el sistema de vigilancia instalado en los dispositivos del centro.Según se recoge en Futurism, un agente de policía del colegio recibió la notificación al instante y localizó al adolescente para interrogarle sobre lo sucedido. El crío alegó que solo estaba "bromeando" con un amigo, pero las autoridades no vieron ninguna gracia en el asunto. En un país con el historial de tiroteos escolares de Estados Unidos, una consulta así no se toma a la ligera.Un sistema de vigilancia que genera tanta polémica como falsas alarmasLa Oficina del Sheriff del Condado de Volusia arrestó al menor y lo trasladó a la cárcel del condado. En redes sociales circularon imágenes del adolescente esposado saliendo del coche policial. Las autoridades aprovecharon el incidente para advertir a los padres de que hablen con sus hijos sobre las consecuencias de este tipo de consultas, aunque las hagan supuestamente en broma.Gaggle funciona mediante inteligencia artificial instalada en los ordenadores escolares y monitoriza la actividad de los estudiantes en busca de comportamientos preocupantes, ya sean dirigidos hacia ellos mismos o hacia terceros. El sistema puede bloquear contenido inadecuado y enviar alertas en tiempo real a los responsables de seguridad del centro. Pero no todo es tan sencillo como parece: Gaggle lleva años generando polémica por su elevado número de falsas alarmas y por crear un ambiente de vigilancia constante en los colegios.OpenAI ha empezado a tomar medidas para evitar que menores acaben usando ChatGPT en contextos peligrosos. A principios de septiembre anunciaron herramientas de control parental que permitirán a los padres vincular sus cuentas con las de sus hijos y recibir notificaciones cuando la IA detecte situaciones de riesgo. La medida llega después de varios casos donde chavales han usado la plataforma para consultas relacionadas con violencia o actividades delictivas.No es la única empresa que está reforzando la vigilancia sobre menores. Google también está en ello: hace unos meses anunció que usará inteligencia artificial para identificar cuentas de menores de edad de forma automática, sin que el usuario tenga que declarar su edad. Una vez detectadas, el sistema aplicará restricciones como el bloqueo de publicidad personalizada o la limitación de acceso a aplicaciones para adultos. Todo automático, sin preguntar.El caso de Florida deja sobre la mesa varias preguntas incómodas sobre seguridad, privacidad y tecnología en los colegios. Estos sistemas de vigilancia funcionan, eso está claro: detectan amenazas y permiten actuar rápido. Pero también generan falsas alarmas constantemente y convierten los centros educativos en espacios donde los chavales están permanentemente monitorizados. La cuestión es si merece la pena ese coste.El artículo Arrestado un menor de 13 años tras preguntarle a ChatGPT cómo matar a un compañero fue publicado originalmente en Andro4all.