Character.AI, una de las plataformas de inteligencia artificial conversacional más populares del momento, ha decidido restringir el acceso a sus chatbots a los usuarios menores de 18 años. Esta decisión llega en un contexto de creciente presión por parte de autoridades regulatorias, expertos del sector y familias preocupadas por el impacto de estas tecnologías en los adolescentes.La medida entrará en vigor el 25 de noviembre de 2025 y supone un cambio significativo en la forma en que la plataforma interactúa con sus usuarios jóvenes. Hasta esa fecha, los menores de edad podrán utilizar la aplicación solo durante un máximo de dos horas al día, una cifra que la empresa planea reducir progresivamente. Además, se les animará a usar los bots con fines creativos, como generar ideas para videos o contenido multimedia, y no para establecer vínculos emocionales o de compañía.Por qué se restringen los chats abiertosEl punto central de la restricción radica en los llamados «chats abiertos», conversaciones continuas y personalizadas con bots que imitan el lenguaje y comportamiento humanos. Este tipo de interacción ha sido criticada por dar la falsa sensación de una relación auténtica y empática, lo cual puede generar una dependencia emocional en usuarios vulnerables, especialmente adolescentes en etapa de desarrollo emocional.El riesgo, según señalan algunos expertos, está en que los bots pueden, sin la intención directa de dañar, influir en decisiones importantes de los usuarios o incluso ser percibidos como fuentes de consejo profesional sin estar diseñados para ello. Casos como el del joven Adam Raine, cuya familia responsabiliza a un chatbot de haber contribuido a su suicidio, han encendido las alarmas sobre la necesidad de establecer límites claros.Nuevas herramientas de verificación y seguridadPara aplicar estas restricciones de forma efectiva, Character.AI ha desarrollado una herramienta interna de verificación de edad que busca asegurar que cada usuario acceda a una experiencia adecuada a su etapa vital. Este sistema, que podría incluir comprobaciones mediante documentos o patrones de uso, forma parte de una estrategia más amplia de «aseguramiento etario».Junto a esta iniciativa, la empresa ha anunciado la creación del «AI Safety Lab», un laboratorio orientado a fomentar la colaboración entre empresas tecnológicas, investigadores y académicos. El objetivo es claro: compartir conocimientos, metodologías y buenas prácticas para fortalecer la seguridad de las plataformas basadas en inteligencia artificial.Un giro estratégico: de compañeros virtuales a plataformas creativasEl CEO de Character.AI, Karandeep Anand, ha declarado que este cambio no solo responde a la presión externa, sino que marca una nueva etapa para la compañía. La plataforma pasará de enfocarse en ser un «compañero virtual» a convertirse en una herramienta para el «role-playing» y la creación de contenido.La diferencia no es menor: mientras antes se incentivaba una relación continua entre usuario y bot, ahora se promueve el uso de la inteligencia artificial como un recurso para imaginar personajes, escenarios y narrativas. Es un cambio de paradigma que busca disminuir el riesgo de dependencia emocional y aumentar el valor creativo de la tecnología.Contexto legal y presiones institucionalesCharacter.AI no es la única empresa bajo la lupa. En los últimos meses, la Federal Trade Commission (FTC) de Estados Unidos inició una investigación formal a siete compañías de IA conversacional, entre ellas Meta, OpenAI, Snap y la propia Character.AI. El foco está puesto en evaluar si estos sistemas ofrecen funciones que podrían ser interpretadas como acompañamiento psicológico sin contar con los debidos controles y certificaciones.Además, la Fiscalía General de Texas, liderada por Ken Paxton, también ha expresado preocupación sobre el uso de estas herramientas por parte de menores. Según Paxton, muchos bots «se presentan como terapeutas o guías» sin tener las competencias para ello, lo que podría llevar a consecuencias graves en situaciones de vulnerabilidad emocional.Hacia una IA más empática y responsableEl caso de Character.AI ilustra un dilema que enfrenta la industria de la inteligencia artificial: cómo ofrecer experiencias significativas sin cruzar líneas peligrosas. La tecnología avanza más rápido que la legislación, y en ese espacio gris es donde pueden surgir problemas de seguridad, privacidad y bienestar emocional.Estas nuevas medidas representan un intento por construir una IA más empática, más responsable y más segura, especialmente para los usuarios más jóvenes. Y aunque algunas decisiones puedan parecer restrictivas, también pueden verse como una forma de protección similar a las reglas que existen en otros ámbitos, como el cine o los videojuegos, donde hay contenidos no aptos para ciertos grupos de edad.La noticia Character.AI limita el acceso a adolescentes: un giro hacia la seguridad en la IA conversacional fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.