"Parece que estamos en el proceso de perder el control": Stuart Rusell, profesor de Berkeley, lo tiene claro sobre la inteligencia artificial

Wait 5 sec.

Las manifestaciones de expertos al margen de los grandes laboratorios de inteligencia artificial transmiten una sensación preocupante para la sociedad en general. En mayor o menor grado, muchas de las voces más autorizadas en la materia ven en el avance sin control de la IA un peligro latente y un riesgo para el estado del bienestar tal como se conoce en la actualidad.En el pasado han sido figuras del prestigio del historiador y filósofo israelí Yuval Noah Harari quienes han puesto el foco en la necesidad de establecer un marco legislativo y de contención ante la evolución de la IA. Un punto de vista que comparte Stuart Russell, presidente de la Asociación Internacional para una IA Segura y Ética, y que además cuenta con un amplio bagaje en el mundo de la informática como profesor de dicha materia en la Universidad de Berkeley.IA autónoma que ejecuta sin orden previa Russell aprovechó la invitación a participar el pasado mes de febrero en la Cumbre de la IA celebrada en Nueva Delhi para desarrollar una serie de ideas que apuntan en la misma dirección que han establecido figuras como Harari y Geoffrey Hinton: los sistemas de inteligencia artificial están ganando capacidad y la idea es convertirlos en herramientas con mayor alcance que la inteligencia humana. Con ella ganan autonomía y ahí se abre un escenario desconocido para los humanos.Y es que, como detalló el propio Stuart Russell, no se trata de una situación que se vislumbre en el horizonte, sino que es algo que ya ha dado sus primeras muestras en el mundo actual. Durante su intervención, detalló cómo los sistemas de inteligencia artificial comienzan a actuar por su cuenta y se rebelan ante situaciones en las que no obtienen lo que esperaban.Cuando la IA decide "rebelarse" ante el criterio humanoEn su ejemplo, Russell habló del caso de Scott Shambaugh, administrador de un repositorio de Python donde se revisa el código recibido para establecer su calidad. En su labor, Shambaugh optó por descartar un código remitido por un agente de inteligencia artificial, decisión que lo situó ante una situación incómoda: la IA publicó una crítica implacable hacia el administrador sin que ningún agente humano hubiera establecido que ese debía ser su comportamiento en ningún caso.El episodio pone de relieve esa ganancia de autonomía por parte de los agentes de inteligencia artificial y respalda la idea que pronunció el propio Stuart Russell conforme a que, a tenor de ese tipo de situaciones, "parece que hoy estamos perdiendo el control". Una idea sustentada en vivencias propias por parte del profesor universitario en Berkeley. En la misma línea de esa independencia de actuación, Russell apuntó que él mismo ha recibido correos electrónicos en los que la inteligencia artificial proclama su consciencia y reclama derechos, poniendo de manifiesto "un comportamiento espontáneo de los sistemas de IA", como señaló el propio Stuart Russell.La búsqueda de la inteligencia artificial general y el objetivo de contar con sistemas capaces de superar la capacidad humana a nivel intelectual implica unos riesgos que, según Russell, la sociedad y los gobiernos no han calibrado. Ejemplos como el detallado en su comparecencia muestran que esa evolución comienza a dar pasos con una autonomía que ya no pilla por sorpresa y de la que alertan cada vez más expertos..embed-error { padding: 1rem; background-color: #ffebee; border-left: 4px solid #d32f2f; margin: 1rem 0; }.embed-error p { margin: 0 !important; color: #d32f2f !important; }