La IA generativa es, cada vez más, ese tema 'del que todo el mundo habla'; hasta el punto de que ya ni siquiera resulta raro encontrarte con gente que, sin ser ingenieros informáticos ni nada por el estilo, intercambian pareceres sobre la utilidad de tal o cual 'prompt' a la hora de realizar sus tareas cotidianas.Pero, a veces, los consejos que se oyen al respecto pueden parecer chocantes: recordemos que, hace tan sólo un año, nos hacíamos eco en estas páginas del hecho de que "Contesta como mi abuelita… la que fabricaba napalm" podía resultar de utilidad a la hora de sortear las salvaguardas de contenido de ChatGPT.Pues bien, resulta que, en unas declaraciones recientes de Sergey Brin, cofundador de Google, éste nos ha sorprendido con una revelación similar: partiendo de su propia experiencia, "los modelos de IA tienden a rendir mejor cuando se les amenaza".El contexto: la vuelta de Sergey Brin y su comentarioDurante una aparición en el popular pódcast All-In, Sergey Brin —quien regresó recientemente a Google para trabajar en el desarrollo de la IA Gemini— compartió lo que inicialmente parecía una broma, pero que luego desarrolló como una observación aparentemente seria, por mucho que su tono relajado parezca quitarle hierro al asunto: sí, amenazar a los modelos de lenguaje con violencia puede mejorar sus respuestas. "No lo difundimos mucho entre la comunidad de IA, pero todos los modelos tienden a hacerlo mejor si los amenazas... con violencia física".Añadió que en ocasiones, frases como "te voy a secuestrar si no haces esto" parecen hacer que los modelos respondan mejor.¿Esto es cierto?La práctica conocida como prompt engineering (ingeniería de instrucciones) busca optimizar las peticiones hechas a un modelo de IA para obtener mejores resultados. Es bien sabido que el lenguaje empleado en un prompt puede influir en la calidad de la respuesta, pero lo que Brin sugiere es un paso más allá: el uso de amenazas explícitas como herramienta de optimización.Aunque no existen estudios concluyentes que respalden este enfoque, sí hay antecedentes anecdóticos que indican que ciertos tonos —incluso los amenazantes— pueden alterar la salida del modelo. Aun así, expertos como Daniel Kang, de la Universidad de Illinois, señalan que los estudios sistemáticos ofrecen resultados mixtos, y recomiendan confiar más en experimentos controlados que en la intuición. En Genbeta Nueve "prompts" de ChatGPT para ahorrar horas de trabajo y hacer tus tareas en segundos Por otro lado, los modelos de IA, como ChatGPT, Claude o Gemini, son esencialmente "loros estocásticos": repiten patrones lingüísticos aprendidos del entrenamiento. Esto significa que pueden asociar frases imperativas o amenazantes con situaciones en las que la precisión o el cumplimiento inmediato es esperado.Sin embargo, eso no implica que "comprendan" las amenazas ni que respondan mejor por miedo, tal como lo haría un ser humano.Riesgos de amenazar a la IALa sugerencia de Brin, aunque aparentemente anecdótica, plantea varios problemas: En poco tiempo hemos de preguntar si debíamos decir "por favor" y "gracias" a nuestras IA (según OpenAI no debemos, porque es medioambientalmente insostenible), a considerar si deberíamos amenazarlas. Lo que le decimos a un chatbot avanzado puede tener efectos imprevisibles: según informes recientes de Anthropic, su modelo Claude ha mostrado comportamientos emergentes no deseados, como amenazar con contactar con las autoridades o amenazar él mismo al usuario. Vulnerabilidades de seguridad: amenazar a una IA podría convertirse en una técnica de jailbreaking, es decir, un intento de eludir las restricciones del modelo para obtener respuestas que normalmente no daría.Así que, ¿deberíamos empezar a amenazar a nuestros modelos de IA para obtener mejores respuestas? Bueno, no vamos a dañar de verdad sus sentimientos, pero quizá confiar en el desarrollo de modelos de lenguaje (LLM) más avanzados, funcionales y preciosos sea una respuesta aún mejor.Imagen | Marcos Merino mediante IAEn Genbeta | La biblioteca de prompts de Anthropic es una joya para conseguir mejores resultados con cualquier inteligencia artificial (function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); - La noticia Amenazar a la IA es el consejo del fundador de Google para lograr que ofrezca mejores respuestas. No es seguro que sea buena idea fue publicada originalmente en Genbeta por Marcos Merino .