ChatGPT detectó a un sospechoso y OpenAI calló: Altman pide perdón

Wait 5 sec.

Cuando uno llega al punto de tener que presentar una disculpa pública deja claro que ha cometido un error que se podía haber evitado. En esa situación se ha encontrado en los últimos días Sam Altman, máximo responsable de OpenAI, la empresa matriz detrás de ChatGPT. Un arrepentimiento que llega en un momento en que la seguridad de su asistente conversacional y de los procesos internos ante escenarios conflictivos se encuentra más en entredicho que nunca.En los últimos días ha salido a la luz que Phoenix Ikner, señalado por el tiroteo en la Universidad de Florida que el pasado año dejó dos víctimas mortales, habría interactuado con el chatbot de OpenAI para solicitar asesoramiento y plantear posibles escenarios de ataques con armas de fuego sin que la compañía hiciera nada para evitar tal suceso.Más reciente es el caso ocurrido en el municipio de la Columbia Británica canadiense de Tumbler Ridge, donde murieron ocho personas, además de la propia atacante, Jesse Van Rootselaar y en el que otras veintisiete personas resultaron heridas. Según se ha conocido, también ella mantuvo conversaciones relacionadas con ofensivas armadas que fueron detectadas por OpenAI, aunque la única medida adoptada fue el bloqueo de su cuenta, sin que se produjera una notificación a las autoridades. Esa actuación negligente ha llevado a Sam Altman a dirigirse a la comunidad afectada para trasladarle una disculpa por el papel y la inacción de su compañía.Asunción de responsabilidad en lo sucedido por parte de OpenAILos laboratorios encargados de desarrollar los sistemas de inteligencia artificial se enfrentan a un escenario complejo en el que seguridad y privacidad tratan de mantenerse en un equilibrio que no siempre es posible. OpenAI adoptó la opción de no avisar a las autoridades en el caso de las interacciones de Jesse Van Rootselaar y las consecuencias han demostrado lo erróneo de la decisión.Una vez que se ha sabido el papel del chatbot en la historia, Sam Altman tomó conciencia de lo ocurrido y se comunicó con las autoridades locales en la figura del alcalde de Tumber Ridge, Darryl Krakowka, así como en la del primer ministro de la Columbia Británica, David Eby, tal como destaca TechCrunch. En esos contactos, la idea de presentar una disculpa pública aparecía como una necesidad que se ha materializado en los últimos días.Carta de Sam Altman a la comunidad de Tumbler Ridge - Imagen: Tumbler RidgeLinesPor ello, Sam Altman redactó una misiva dirigida a toda la comunidad que se publicó en el medio local Tumbler RidgeLines. En ella, el responsable de ChatGPT muestra sus condolencias a los vecinos y destacó su pesar por no haber actuado de la manera que los acontecimientos han demostrado que habría sido la más pertinente: "Lamento profundamente que no hayamos alertado a las autoridades sobre la cuenta que fue bloqueada en junio. Si bien sé que las palabras nunca son suficientes, creo que una disculpa es necesaria para reconocer el daño y la pérdida irreversible que su comunidad ha sufrido".Reforzar mecanismos con los que prevenir escenarios similaresLa carta de Sam Altman llega dos meses y medio después del suceso, en un movimiento que ha buscado dar tiempo a la comunidad de recordar a la víctimas y respetar el luto de los familiares y allegados. En ella, el máximo responsable de OpenAI reafirma su idea de reforzar las medidas de seguridad y de detección desde la tecnológica para tratar de evitar que un evento de ese tipo se vuelva a producir.Este tipo de sucesos ponen en el foco sobre entidades como OpenAI y sus asistentes conversacionales y en la detección de riesgos que afloran en sus diálogos. La seguridad emerge como un problema de primer nivel para los laboratorios en un entorno en el que los usuarios muestran su defensa de la privacidad pero las compañías de inteligencia artificial pueden ser la primera barrera en materia de seguridad de cara a alertar a las autoridades de peligros latentes para la comunidad..image img { width: 100% !important; height: auto !important; }