La proliferación de herramientas de inteligencia artificial ha provocado que cada vez más personas recurran a ellas para generar contenido escrito, ya sea por motivos profesionales, educativos o creativos. Este auge ha puesto en el centro del debate la necesidad de diferenciar lo creado por humanos de lo producido por máquinas. Para ello, han surgido detectores de contenido generado por IA que intentan cumplir esta tarea, aunque no sin dificultades.En el caso del texto, estos sistemas suelen buscar lo que se conoce como «patrones característicos» del lenguaje artificial. Algunos indicios comunes son la excesiva coherencia o la previsibilidad en las frases, el uso reiterado de ciertas palabras que se han vuelto populares en contenidos de IA (como «explora», «profundiza» o «destaca») y estructuras gramaticales demasiado pulidas.El razonamiento detrás de estos detectores es simple: los modelos de lenguaje como ChatGPT tienden a elegir la opción más probable en cada palabra. Esto genera un estilo uniforme, con menos errores y con transiciones que podrían parecer más artificiales que humanas. Sin embargo, esta línea divisoria se está volviendo cada vez más difusa. A medida que los modelos se perfeccionan y los usuarios humanos adoptan ciertos giros propios del estilo generado por IA, los detectores se ven en apuros para trazar límites claros.Las imágenes y los metadatos ocultosCuando se trata de contenido visual, los mecanismos cambian. Algunos detectores de imágenes analizan los metadatos que pueden estar embebidos en los archivos. Ciertos programas de generación de imágenes, como los de Adobe o Google, incluyen lo que se conoce como «credenciales de contenido», que dejan una huella digital del proceso de creación. Herramientas como Content Credentials permiten examinar esta información siempre que la imagen haya sido editada con software compatible.Otro método consiste en comparar la imagen sospechosa con bases de datos que contienen ejemplos verificados de imágenes generadas por IA, incluyendo casos conocidos de deepfakes. Esta estrategia es especialmente útil cuando el contenido está relacionado con figuras públicas o eventos noticiosos. Sin embargo, como en el caso del texto, estas herramientas también tienen limitaciones significativas.Las marcas de agua invisibles y sus promesasAlgunos desarrolladores han comenzado a incorporar marcas de agua digitales en los contenidos generados por sus sistemas. Estas marcas, como el sistema SynthID de Google, consisten en patrones ocultos, imperceptibles para el ojo humano, pero detectables por sistemas específicos.Aunque prometedoras, estas tecnologías presentan un problema importante: no son interoperables. Por ejemplo, SynthID solo puede detectar contenidos creados por los propios modelos de Google, como Imagen. Si alguien genera una imagen con DALL-E de OpenAI o con Midjourney, esa marca de agua no estará presente ni podrá ser reconocida por herramientas ajenas. Además, estas tecnologías todavía no están disponibles para el público general.Precisión limitada y muchas zonas grisesLa efectividad de estos detectores está lejos de ser infalible. Hay muchos factores que influyen en los resultados: desde el tipo de herramienta de generación utilizada hasta las ediciones posteriores que se le hagan al contenido. Si un texto generado por IA se modifica ligeramente o una imagen se comprime o se le añade ruido visual, los detectores pueden fallar.Los errores pueden tomar dos formas: falsos positivos, cuando se acusa a una persona de haber usado IA cuando no lo hizo, y falsos negativos, cuando el detector no identifica contenido artificial. En ambos casos, las consecuencias pueden ser graves. Imaginemos a un estudiante que escribe su ensayo con esfuerzo y luego es acusado de haberlo generado con IA, o un profesional que recibe un correo que parece confiable, pero en realidad fue escrito por una máquina con fines engañosos.La explicabilidad también es un punto crítico. Muchos detectores solo ofrecen un porcentaje de confianza, sin explicar por qué creen que algo fue generado por IA. Esto deja a los usuarios con más preguntas que respuestas, sobre todo en contextos donde la verificación es crucial, como en universidades o tribunales.Ejemplos que ilustran los desafíos actualesEn Australia, la firma Deloitte tuvo que devolver parte de los honorarios que recibió del gobierno tras detectarse que un informe contenía errores atribuibles a contenido generado por IA. De forma similar, un abogado enfrentó acciones disciplinarias por presentar documentos legales con citas inexistentes creadas por una herramienta de IA. Ambos casos demuestran que el uso inapropiado de estas tecnologías puede tener consecuencias legales y reputacionales importantes.Por otro lado, en el ámbito académico, muchas universidades están preocupadas por el uso de estas herramientas por parte del alumnado. Sin detectores confiables, se corre el riesgo de castigar injustamente o, por el contrario, de dejar pasar trabajos que no fueron elaborados de forma ética.¿Cómo actuar frente a esta incertidumbre?Ante este panorama, depender de una sola herramienta de detección no es lo más prudente. Lo ideal es adoptar un enfoque combinado: analizar el contenido con varias herramientas, contrastar la información con fuentes fiables, y prestar atención a detalles contextuales que puedan indicar una posible generación artificial.En el caso de las imágenes, puede ser útil buscar otras fotos del mismo evento o lugar para ver si coinciden. En textos, revisar la coherencia, verificar datos y, si es posible, dialogar con la persona que lo presentó puede dar pistas adicionales.A pesar de los avances tecnológicos, los lazos de confianza entre personas, medios e instituciones seguirán siendo un pilar fundamental. Cuando los detectores fallen o no estén disponibles, el juicio humano seguirá siendo la mejor herramienta para evaluar la autenticidad del contenido.La noticia ¿Cómo funcionan los detectores de contenido generado por inteligencia artificial? fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.