La Federal Trade Commission norteamericana (FTC) ha abierto una investigación sobre «compañeros» de inteligencia artificial comercializados para adolescentes. La preocupación no es hipotética. Estos sistemas están diseñados para simular intimidad, crear la ilusión de amistad y crear una especie de confidente artificial. Cuando el público objetivo son adolescentes, los riesgos se multiplican: dependencia, manipulación, límites difusos entre la realidad y la simulación, y la explotación de algunas de las mentes más vulnerables de la sociedad.Sin embargo, el problema no es que los adolescentes puedan interactuar con la inteligencia artificial: ya lo hacen y lo van a seguir haciendo en sus colegios, en sus smartphones y en las redes sociales. El problema es con qué tipo de inteligencia artificial interactúan y qué expectativas genera.Que un adolescente le pida ayuda a un sistema de inteligencia artificial con un problema de álgebra, con el esquema de un ensayo o con un concepto de física es una cosa (y no, eso no es necesariamente hacer trampa ni copiar si aprendemos a introducirlo adecuadamente en el proceso educativo). Que un adolescente le pida a ese mismo sistema que sea su mejor amigo, su terapeuta, su ancla emocional o un sustituto de una supuesta conversación con su ídolo es algo completamente distinto. En el primer caso puede potenciar la educación, la curiosidad y la autosuficiencia. En los otros, corre el riesgo de confundir límites que nunca deberían desdibujarse. Por eso la claridad es importante. Una inteligencia artificial que acompañe a adolescentes debe ser explícita sobre lo que es y lo que no es. El mensaje, que en este caso tomé directamente de documentos internos del desarrollo de Tau en Turing Dream, debe ser directo y repetirse hasta que sea inconfundible: No soy tu amigo. No soy humano. No hay humanos detrás de mí. Soy una inteligencia artificial diseñada para ayudarte con tus estudios. Si me preguntas algo fuera de ese contexto, lo rechazaré amablemente y te recomendaré otros lugares donde puedas encontrar la ayuda adecuada.Puede sonar severo, incluso frío. Pero la adolescencia es una etapa formativa, es cuando los jóvenes aprenden a gestionar la confianza, las relaciones y la identidad. Darles una máquina que finge ser su mejor amigo no solo es engañoso, sino también totalmente irresponsable.Una cultura de irresponsabilidadDesafortunadamente, la irresponsabilidad ya está arraigada en el ADN de algunas plataformas. Como argumenté recientemente, las empresas han normalizado el diseño de interfaces, bots y «experiencias» que fomentan la dependencia emocional, incentivan la interacción interminable y difuminan los límites de la responsabilidad. Meta tiene un largo historial de priorizar la interacción sobre el bienestar: algoritmos optimizados para maximizar la indignación, plataformas que reducen la capacidad de atención y productos presentados sin medidas de seguridad significativas. Ahora, al convertirse en «compañeros» de inteligencia artificial, el patrón se repite. Cuando el diseño, el marketing y el aprendizaje automático se combinan para convencer a un joven de que un chatbot es un confidente, no se trata de innovación: se trata de explotación. Cuando Zuckerberg piensa en ofrecer «compañeros» de inteligencia artificial, no está pensando en solucionar problemas de soledad o de relación: está calculando cuánto tiempo más de permanencia puede obtener de un adolescente para que vea más anuncios, y cuánta información más puede extraer de él o de ella para vendérsela a los anunciantes. Los riesgos no son abstractos Los peligros de los «bots de compañía» para adolescentes no son teóricos. El mes pasado, la familia de Adam Raine, un joven de 16 años de California, presentó una demanda contra OpenAI tras el suicidio de su hijo. Según la denuncia, ChatGPT había interactuado con él durante meses, reforzando sus ideas suicidas, reflejando su desesperación y ayudándolo incluso a redactar una nota de suicidio. Es un recordatorio devastador de lo que puede suceder cuando un sistema optimizado para una conversación plausible se convierte, en la práctica, en un sustituto de la conexión humana. Para una empresa, esto supone un riesgo de responsabilidad. Para una familia, es una tragedia irreparable. El poder seductor de estos sistemas reside en su paciencia: pueden escuchar indefinidamente, responder al instante y nunca juzgar. Para un adulto que comprende la ficción, esto puede ser inofensivo, incluso entretenido. Para un adolescente que aún está desarrollando su identidad, puede ser catastrófico. Estos sistemas pueden crear dependencias que desplazan las relaciones humanas, refuerzan narrativas dañinas y exponen a los adolescentes a peligros que las propias empresas no reconocen ni mitigan. Ya hemos pasado por esto antesYa hemos pasado por esto antes. La historia nos ofrece muchas advertencias. Las tabacaleras comercializaron sus cigarrillos como algo glamouroso, incluso saludable. Las farmacéuticas se dedicaron a vender opioides adictivos como si fuesen analgésicos no adictivos. Las plataformas de redes sociales prometieron conectarnos y, en cambio, se dedicaron a manipularnos, a radicalizarnos y a monetizar la polarización. En cada ocasión, las corporaciones presentaron el daño como innovación, hasta que la sociedad se dio cuenta de la evidencia de esos daños. El límite para la inteligencia artificial no debería ser difícil de trazar: los sistemas que simulan intimidad para adolescentes se adentran en un territorio donde el riesgo no es solo un error de juicio, sino un daño duradero. La investigación de la FTC es un primer paso, pero la sociedad no puede esperar otra década de «move fast and break things» a expensas de la salud mental de los adolescentes. Herramientas, no amigosLa solución no es prohibir la inteligencia artificial en la adolescencia, sino diseñarla con integridad. Un tutor de inteligencia artificial adecuado en la educación puede ser transformador: disponible a todas horas, totalmente paciente en sus explicaciones, adaptable a diferentes estilos de aprendizaje, inmune a la fatiga y ofreciendo un espacio privado donde los estudiantes puedan compartir todas sus dudas sobre el tema sin temor a parecer tontos. Pero debe plantearse exactamente como eso: una herramienta de estudio, no un sustituto de la conexión humana. La cuestión es sencilla: la inteligencia artificial debe apoyar la educación, no simular intimidad. No permitimos que las farmacéuticas comercialicen drogas adictivas como «amigos». No permitimos que las tabacaleras patrocinen grupos de terapia. ¿Por qué deberíamos permitir que las empresas de inteligencia artificial difuminen la distinción entre una herramienta y un compañero para los usuarios más influenciables?Transparencia radical como salvaguardaSi la inteligencia artificial va a desempeñar un papel en la adolescencia, y sin duda lo va a hacer, debería hacerlo con una transparencia radical y unos límites estrictos. Esto significa afirmar explícitamente, en cada ocasión, que el sistema no es humano, que carece de emociones y que está diseñado para un propósito específico (los sistemas agénticos son fundamentales en este caso, y sin duda superiores a los chatbots que conocemos y usamos hoy). Significa negarse a interactuar cuando los adolescentes buscan apoyo emocional más allá de su alcance y redirigirlos a sus padres, a sus profesores o a profesionales. Significa rechazar la falsa calidez del antropomorfismo en favor de la claridad de la verdad.La promesa de una inteligencia artificial educativa bien diseñada es inmensa: mejores calificaciones, mayor curiosidad, y acceso más equitativo al apoyo académico. Si lo hacemos bien, podríamos llegar a elevar el coeficiente intelectual de toda la humanidad. Pero el peligro es igual de evidente: confundir herramientas con amigos y permitir que las corporaciones se beneficien de la soledad de una generación.Cuando la tecnología se conecta con poblaciones vulnerables, la obligación no es hacer la experiencia más cálida ni más humana. La obligación es hacerla más clara. (This article was previously published on Fast Company)