Cuidado con lo que le cuentas a ChatGPTSi eres de los que ha convertido a ChatGPT en su diario personal o confidente, quizá sea momento de hacer una pausa. El propio CEO de OpenAI, Sam Altman, ha lanzado una advertencia crucial: las conversaciones con la inteligencia artificial no tienen, por ahora, la misma protección que una charla con tu médico, abogado o psicólogo.En una reveladora entrevista en el podcast This Past Weekend del comediante Theo Von, Altman admitió que la industria de la IA todavía no ha desarrollado los mecanismos para garantizar la confidencialidad de las conversaciones más personales de los usuarios.Esta situación podría tener consecuencias serias si esos chats llegaran a ser requeridos en un proceso legal.El “diván digital”, un espacio sin secreto profesional“La gente comparte los detalles más íntimos de su vida con ChatGPT”, confesó Altman. Explicó que muchos, especialmente los jóvenes, lo usan como un terapeuta o un consejero de vida para resolver problemas de pareja y pedir consejo.“El problema”, señaló, “es que, si hablas de eso con un terapeuta, un abogado o un doctor, existe un privilegio legal. Hay confidencialidad médico-paciente, confidencialidad legal. Aún no hemos resuelto eso para cuando hablas con ChatGPT”.La advertencia de Altman fue directa: en las condiciones actuales, las conversaciones de los usuarios con ChatGPT podrían ser reveladas si un tribunal lo ordena.“Esto podría crear un problema de privacidad para los usuarios en caso de una demanda”, afirmó, explicando que OpenAI estaría legalmente obligada a entregar esos registros si se le solicitan.Una falla en el sistema que urge resolverEl propio CEO de OpenAI se mostró frustrado con esta situación. “Creo que eso está muy mal. Pienso que deberíamos tener el mismo concepto de privacidad para tus conversaciones con una IA que el que tenemos con un terapeuta”, añadió.“Es algo en lo que nadie tuvo que pensar hace apenas un año”. Estas declaraciones demuestran la velocidad con la que la tecnología avanza, dejando atrás los marcos legales que la regulan.Estas sinceras palabras llegan en un momento delicado para OpenAI, que se encuentra en medio de una notoria batalla legal con el periódico The New York Times.Como parte de una demanda por derechos de autor, el diario y otros demandantes solicitaron a un tribunal que ordene a OpenAI conservar todas las conversaciones de los usuarios de forma indefinida, incluso las que han sido eliminadas.OpenAI ha calificado esta petición como una “extralimitación” y ha confirmado que está apelando la decisión.La compañía argumenta que permitir que los tribunales dicten cómo deben almacenar los datos sentaría un peligroso precedente para futuras solicitudes de las fuerzas del orden y otros equipos legales.¿Quién puede leer tus conversaciones?A diferencia de aplicaciones de mensajería cifrada como WhatsApp, el personal de OpenAI sí puede acceder a las conversaciones de los usuarios. Según la empresa, esto se hace con dos fines principales: ajustar y mejorar los modelos de IA, y vigilar que la herramienta no se utilice para fines maliciosos.Actualmente, la política de OpenAI establece que los chats eliminados de las cuentas gratuitas (Free) y de pago (Plus y Pro) se borran de sus sistemas en un plazo de 30 días, a menos que necesiten conservarse “por razones legales o de seguridad”.Este nivel de acceso ha sido un punto de fricción para muchos usuarios potenciales, especialmente en un mundo donde la privacidad digital está cada vez más bajo la lupa.Aunque ChatGPT pueda sentirse como un amigo comprensivo y sin prejuicios, el sistema legal, por ahora, no lo ve de la misma manera. Es mejor pecar de precavidos.Fuente: BusinessInsiderThe post Piénsalo dos veces antes de usar ChatGPT como terapeuta, tus conversaciones no son privadas first appeared on PasionMóvil.