Adaptar el marco legislativo a los avances tecnológicos es un reto para gobiernos e instituciones. También para las compañías. Cada uno de ellos tiene su responsabilidad y sus intereses, en ocasiones enfrentados o que pueden derivar en áreas de tensión que afecten a los usuarios y a su protección.Es el caso de la inteligencia artificial, que en los últimos tiempos trata de mejorar su imagen en cuanto a la relación entre menores de edad y asistentes de IA se refiere. Los controles parentales llegaron a herramientas como ChatGPT para dotar a los padres de llaves para conocer y limitar el movimiento de sus hijos en entornos con chatbots.A ellas se debe sumar la legislación desde la política, y en ella ha querido jugar un papel OpenAI de un modo que no ha gustado a las organizaciones que promueven un marco legislativo que proteja a los más jóvenes ante los peligros que estas herramientas han mostrado en el pasado.Limitar la responsabilidad de los productos de IA desde dentro de las ONGsUna maniobra que buscaba influir en la obtención de un cuadro normativo más relajado y flexible, cercano a los postulados empresariales y que dejaba aspectos clave de la protección en segundo plano. La estrategia era sencilla: crear una asociación con imagen y señas de identidad relacionadas con la seguridad y buscar, desde dentro, un escenario legal afín para OpenAI y sus modelos.Así lo recoge la información publicada por el San Francisco Standard, medio que señala que diferentes entidades sin ánimo de lucro acusan a OpenAI de tratar de mediar en beneficio propio en procesos destinados a organizar iniciativas de ONGs para establecer un marco de seguridad y vigilancia en la relación entre menores e inteligencia artificial.En el momento en que hay una preocupación social, como el caso de la relación entre jóvenes e IA, surgen agrupaciones que buscan ordenar principios, límites básicos y ámbitos a acotar que se trasladen a una legislación férrea y que defienda a los usuarios. Ante ellas las grandes compañías afectadas, cuya misión es encontrar el modo de flexibilizar las normas y evitar enfrentarse a un escenario en el que las sanciones puedan minar su músculo económico.Organización con intereses demasiado próximos a los de OpenAIEntre esas organizaciones surgió Coalición Padres e Hijos Seguros con la IA, con principios en sintonía con lo que defendían el resto de organizaciones no lucrativas incluidas en el movimiento de defensa de seguridad infantil y juvenil ante la inteligencia artificial.Sin embargo, las cartas quedaron pronto boca arriba al pedir esta organización el apoyo al resto de asociaciones a unas medidas que, casualmente, coincidían con los postulados de OpenAI en materia regulatoria y de exoneración de responsabilidad de empresas de IA por cuestiones derivadas del uso de sus productos.El movimiento de esta asociación próxima a OpenAI provocó tensiones entre las organizaciones que conformaban el grupo inicial y aquellas que se planteaban acceder a él, entre las que se encontraba FairPlay For Kids, cuyo responsable es Josh Golin. En el caso de su asociación, Golin desestimó en primera instancia unirse a la coalición al conocer la influencia de OpenAI en la Coalición Padres e Hijos Seguros con la IA, dado que según declaró al San Francisco Standard era contrario a "que OpenAI dicte sus propias reglas sobre cómo interactúa con los niños" .Una estratagema con la que la compañía que preside Sam Altman tenía un fin claro: influir desde dentro en organizaciones que priorizan el bienestar social y los intereses comunes, con el fin de impulsar un marco regulatorio y legislativo más favorable a sus propios intereses. De nuevo, el ámbito empresarial pesaba más para OpenAI que el marco humano, una cuestión que a la vista de lo complicado que está resultando para la compañía rentabilizar sus productos e inversiones explica en parte su proceder en este tema.