Tres palabras que cambian la IA para siempre: "no estoy segura"

Wait 5 sec.

La inteligencia artificial está transformando nuestro mundo, pero peca de algo muy peligroso conocido como exceso de confianza, una situación en la que un modelo se muestra muy seguro de predicciones que son incorrectas.  Esto plantea ciertos riesgos en ciertos sectores donde la exigencia es muy alta, como la conducción autónoma o los diagnósticos médicos. De hecho, es uno de los principales culpables detrás de las alucinaciones que a menudo generan los modelos actuales al ofrecer información falsa de manera verosímil. Para solucionarlo, un equipo de investigación del KAIST, liderado por el profesor Se-Bum Paik del Departamento de Ciencias del Cerebro y Cognitivas, ha propuesto un método de entrenamiento innovador diseñado para abordar este problema de raíz. Al hacer que la IA reconozca situaciones que involucran conocimientos desconocidos, este nuevo enfoque podría reducir la certeza injustificada y mejorar significativamente su fiabilidad.El equipo investigó el original de este exceso de confianza hasta las primeras etapas del proceso de aprendizaje profundo, específicamente en una técnica muy utilizada llamada inicialización aleatoria. Descubrieron que esta sobreconfianza surge precisamente en esta fase temprana y puede programarse fácilmente, causando muchos errores durante el entrenamiento posterior. De hecho, el equipo observó algo sorprendente: cuando se introducen datos aleatorios y sin sentido en una red neuronal inicializada al azar, el modelo exhibe un nivel de confianza alarmantemente alto a pesar de no haber aprendido absolutamente nada.Inspiración biológica para crear redes neuronales más conscientesMétodo de entrenamiento de IA que propone el equipo del profesor Se-Bum PaikPara resolver este defecto, el equipo del KAIST buscó respuestas en la biología, inspirándose en el desarrollo del cerebro humano. Antes de nacer, nuestro cerebro forma circuitos neuronales a través de actividad neuronal espontánea, es decir, señales cerebrales generadas internamente sin necesidad de estímulos externos. Aplicando este concepto biológico a las redes neuronales artificiales, los investigadores introdujeron una fase de "calentamiento". Durante esta etapa, la red neuronal se somete a un breve entrenamiento previo utilizando "ruido" aleatorio antes de ser expuesta a datos reales, lo que obliga a la IA a ajustar su margen de error antes de comenzar su aprendizaje. Todo esto ha sido publicado en Nature Machine.Este avance se traduce en una mayor capacidad del modelo para identificar información que difiere de sus parámetros de entrenamiento habituales. En última instancia, este estudio deja claro que la inteligencia artificial puede evolucionar más allá de la simple generación de respuestas correctas y desarrollar una forma de metacognición, imitando la capacidad humana de reconocer su propio estado de conocimiento. Según el profesor Paik, esta investigación demuestra que, al incorporar principios clave del desarrollo cerebral, la IA puede comprender cuándo está insegura o podría equivocarse. .image img { width: 100% !important; height: auto !important; }