Wolf River Electric, una empresa instaladora de paneles solares en Minnesota, se vio atrapada en una situación insólita: varios clientes comenzaron a cancelar contratos tras encontrar en Google resultados que aseguraban que la compañía había llegado a un acuerdo legal con la fiscalía del estado por prácticas comerciales engañosas. El problema es que eso nunca ocurrió.Cuando los ejecutivos de la empresa buscaron su propio nombre en Google, encontraron que la información falsa aparecía de forma destacada, generada por Gemini, la tecnología de inteligencia artificial del buscador. A pesar de intentar corregir los datos a través de las herramientas de Google, no obtuvieron resultados. Las cancelaciones seguían acumulándose, junto con pérdidas de clientes potenciales que habían sido influidos por la información errónea.El daño fue tan significativo que la empresa, fundada por amigos cercanos en 2014, decidió demandar a Google por difamación. Según Vladimir Marchenko, CEO de la compañía, las consecuencias económicas fueron devastadoras: estiman que perdieron cerca de 25 millones de dólares en ventas durante 2024.La difamación generada por IA: un territorio legal inexploradoEl caso de Wolf River Electric no es único. En los últimos dos años, al menos seis demandas por difamación generada por inteligencia artificial han sido presentadas en Estados Unidos. Lo que las distingue de otros litigios es que el contenido ofensivo no fue redactado por una persona, sino por algoritmos.Esto plantea una cuestión jurídica crucial: ¡Quién es responsable cuando una IA comete un error que daña la reputación de alguien? Algunos expertos comparan este dilema con el del monstruo de Frankenstein: si alguien crea una máquina que actúa de forma perjudicial, ¿puede desentenderse de las consecuencias?Uno de los primeros casos fue el de Mark Walters, un locutor de radio en Georgia, que fue falsamente acusado por ChatGPT de estar involucrado en un caso de malversación. Aunque la demanda fue desestimada, dejó en evidencia que las IA pueden difundir afirmaciones falsas con gran convicción. El obstáculo legal, sin embargo, fue demostrar que la información había sido considerada creíble por terceros.Casos que van más allá de Estados UnidosEl problema no se limita a territorio estadounidense. El presentador de radio irlandés Dave Fanning descubrió en MSN, el portal de noticias de Microsoft, un artículo con su foto que lo acusaba falsamente de conductas sexuales inapropiadas. La nota, escrita por un medio de la India con ayuda de una IA, se distribuyó en Irlanda a través del navegador Edge. Fanning inició acciones legales tanto contra el medio como contra Microsoft, alegando daños personales y profesionales graves.Este caso revela otro aspecto del problema: la velocidad y el alcance de las falsedades generadas por IA. Un solo error puede viralizarse rápidamente, alcanzar a miles de usuarios y persistir en el tiempo, incluso después de ser desmentido.Las empresas tecnológicas ante la justiciaAlgunas empresas han optado por resolver estas demandas fuera de los tribunales. Robby Starbuck, una figura política conservadora, demandó a Meta alegando que uno de sus chatbots lo vinculó falsamente con teorías conspirativas y los disturbios del 6 de enero en el Capitolio. Meta llegó a un acuerdo extrajudicial y, como parte del mismo, Starbuck fue incorporado como asesor para ayudar a reducir los sesgos políticos en las respuestas de su IA.Esta estrategia de conciliación podría convertirse en la norma, según varios expertos legales. Un fallo judicial en contra de una gran empresa podría abrir la puerta a miles de demandas similares, lo que convertiría cada error algorítmico en una posible bomba legal.La dificultad de limpiar una reputación digitalEn el caso de Wolf River Electric, el daño va más allá de los ingresos perdidos. Algunos competidores están utilizando los falsos resultados para desacreditar a la empresa en reuniones con clientes potenciales. En Reddit, incluso se les llegó a calificar como una «empresa diabólica».Intentar revertir estos efectos es como tratar de sacar tinta de un vaso de agua: una vez que la información está fuera, es muy difícil contenerla. Aunque Google afirmó haber corregido el error al ser notificado, el contenido difamatorio sigue apareciendo en búsquedas relacionadas, lo que refuerza la sensación de impotencia de las víctimas.La compañía, que no es considerada una figura pública, tiene una carga probatoria menor para demostrar difamación. Solo necesita acreditar que Google actuó con negligencia, no con malicia. Esto podría darle ventaja si el caso avanza en tribunales.Un reto urgente para el marco legal actualLos sistemas de IA ya no son experimentos de laboratorio: influyen en decisiones de consumo, reputación y oportunidades laborales. Sin un marco legal claro, las personas y empresas afectadas por errores algorítmicos quedan atrapadas en una especie de limbo, sin garantías ni mecanismos eficaces para proteger su imagen.Este nuevo escenario exige una revisión profunda del concepto de responsabilidad editorial, ya que el contenido generado automáticamente no pasa por filtros humanos. A medida que estas tecnologías se integran en motores de búsqueda, redes sociales y medios de comunicación, se hace urgente definir —tanto en lo legal como en lo ético— quién debe responder por sus consecuencias.La noticia Cuando la inteligencia artificial difama: el caso de Wolf River Electric y la pregunta por la responsabilidad legal fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.