Entrevista | SAS revela prioridades del uso de inteligencia artificial en las empresas y su Gobierno Corporativo

Wait 5 sec.

Reggie Townsend vp etica IA gobernanza SAS Reggie Townsend, vicepresidente de ética para la IA, Gobernanza e Impacto Social en SAS, advirtió que el principal error de las empresas en América Latina y el mundo es tratar la inteligencia artificial como un terreno virgen, cuando en realidad debe integrarse a los ecosistemas digitales existentes.El ejecutivo fue uno de los líderes más notables en la conferencia de tecnología que la multinacional llevó a cabo en Dallas, Texas, denominada el SAS Innovate.En medio del furor por la inteligencia artificial generativa y la incipiente IA ejecutada por medio de agentes, el directivo de SAS fue contundente: “La respuesta a todos los problemas no es la IA. A veces la respuesta es no usar IA”. Y agregó en entrevista con Valora Analitik que las organizaciones deben entender que hoy conviven distintas capacidades —desde modelos tradicionales hasta agentes autónomos— y el verdadero desafío es saber para qué caso de uso conviene cada una.Townsend criticó la narrativa global que plantea una falsa dicotomía entre gobernanza e innovación. “Siempre ha sido una mentira. Estamos gobernados por las leyes de la física, y la IA lo está por las leyes de internet. Decir que la gobernanza frena la innovación es absurdo”, afirmó. En su opinión, todo CEO tiene la responsabilidad fiduciaria de gobernar su organización, y aquellos que rechazan la gobernanza “deberían ser despedidos”.El mito del “terreno virgen”Uno de los puntos más destacados de la entrevista fue su llamado a dejar de pensar que la IA llega a organizaciones sin historia. “La mayoría de las empresas ya tenían gobernanza digital antes de la IA. Llegó el correo electrónico, luego la nube, ahora la IA. Se trata de adaptar los procedimientos operativos existentes, no empezar de cero”, explicó.Para las empresas de América Latina, Townsend recomendó alejarse del manual de Silicon Valley. “Lo primero es entender qué necesita realmente el cliente local. No siempre se requiere un gran modelo de lenguaje (LLM). A veces, modelos más pequeños y específicos generan menos riesgo y más valor”, señaló. Advirtió que los grandes modelos traen consigo una “carga fiscal” en términos de riesgo y cumplimiento, que puede no valer la pena según el contexto. Herramientas como AI Navigator y el fantasma de la IA cuánticaSAS ha desarrollado soluciones como AI Navigator, una plataforma que permite aplicar políticas diferenciadas por país y caso de uso, algo crucial en regiones como Asia Pacífico o América Latina, donde conviven regulaciones y culturas diversas. “No se trata de que la herramienta decida, sino de que ponga al usuario en posición de ejercer su juicio”, aclaró.Consultado sobre la IA cuántica, Townsend admitió que aún es prematuro hablar de gobernanza en ese campo. “La gobernanza siempre va detrás de la innovación. Apenas estamos aprendiendo los límites de lo cuántico”, dijo, aunque reconoció que ya se anticipan riesgos como la ruptura de claves criptográficas. El papel de la ciudadanía y los líderesEl ejecutivo lanzó una reflexión final sobre quién define el futuro de la IA. “Hay industrias con cientos de miles de millones de dólares vendiendo un sueño de AGI y renta básica universal. Pero nosotros como sociedad podemos decidir si compramos ese sueño o creamos el nuestro”, afirmó. A su juicio, hace falta más alfabetización popular en IA para que las personas puedan exigir a sus líderes políticos y empresariales un desarrollo que priorice la confianza, el empleo digno y la autenticidad en la atención al cliente.“Si creemos que algo será verdad, lo haremos verdad. Nuestra percepción construye la realidad. Por eso debemos elegir qué visión de la IA queremos”, concluyó Townsend, invitando a los líderes latinoamericanos a construir su propio camino, adaptado a sus necesidades y no al de Silicon Valley. —