Imaginar un cerebro en una pantalla suele sonar a caricatura: una red que aprende porque le damos miles de ejemplos, ajusta parámetros y acierta. El trabajo que acaba de publicarse en Nature Communications va por otra ruta. Un equipo con investigadores de Dartmouth College, el MIT y la Universidad Estatal de Nueva York en Stony Brook ha construido un modelo biomimético del cerebro desde cero, intentando respetar no solo “qué calcula” el sistema, sino “cómo” lo hace: con conexiones neuronales plausibles, señales eléctricas y química cerebral, y una arquitectura por regiones que recuerda a la biología. El resultado es llamativo por dos motivos: el modelo aprende una tarea visual sencilla con un progreso tan irregular como el de animales de laboratorio y, mientras lo hace, deja ver un tipo de actividad neuronal que había pasado desapercibida en datos reales, según relata el propio equipo en la nota institucional del MIT y el artículo científico.La prueba es una de esas tareas que, a ojos humanos, parecen casi un juego de mesa: se muestran patrones de puntos y el sujeto (animal o simulación) debe decidir a cuál de dos categorías pertenece lo que ve. La gracia está en que no basta con “ver puntos”; hay que extraer una regla de clasificación. Lo sorprendente es que el modelo no fue entrenado con registros de animales. Primero se diseñó para que fuera biológicamente verosímil; solo después se le planteó la tarea, y entonces se compararon sus trazas con las de animales que ya habían hecho el experimento.Aprender con tropiezos: cuando mejorar no es una línea rectaSi pensamos en aprendizaje como una cuesta hacia arriba, solemos imaginar una mejora continua. En los datos del estudio, tanto el modelo como los animales progresan con altibajos: aciertos y fallos se mezclan de forma errática durante un tiempo, hasta que la conducta se estabiliza. Esa “curva con baches” no es un detalle menor, porque sugiere que el sistema simulado no solo llega al resultado, sino que lo hace por un camino parecido. Richard Granger, profesor en Dartmouth y autor sénior del trabajo, lo expresó con una mezcla de sorpresa y prudencia: el modelo genera sus propias gráficas simuladas y solo después se comparan con las del laboratorio; que encajen tan bien resulta impactante.Esta coincidencia importa porque, en neurociencia computacional, un modelo puede acertar la respuesta final y aun así estar “haciendo trampas” con estrategias internas que no se parecen a las del cerebro. Aquí, el foco está en que el comportamiento y parte de la dinámica neuronal emergen de un diseño que intenta ser fiel a los mecanismos biológicos.“No perder el árbol ni el bosque”: el enfoque de doble escalaMuchos modelos se quedan en uno de dos extremos: o describen neuronas y sinapsis con mucho detalle (pero pierden la visión global), o modelan regiones cerebrales con reglas agregadas (pero sacrifican la microfísica neuronal). Anand Pathak, entonces postdoc en Dartmouth y primer autor, resume la intención con una metáfora clara: no querían perder ni el árbol ni el bosque. En el artículo, el equipo habla de “primitivas”: pequeñas piezas de circuito formadas por pocas neuronas que replican funciones básicas.Un ejemplo que ayuda a visualizarlo: imagine un grupo de personas en una sala intentando decidir quién habla. En un esquema de “ganador se lo lleva todo”, uno levanta la mano con fuerza y los demás se callan, no por educación, sino porque existe un mecanismo que apaga las señales competidoras. En el modelo, ese tipo de organización aparece cuando neuronas excitadoras reciben información visual a través de sinapsis moduladas por glutamato, y luego interactúan con neuronas inhibitorias que favorecen una competencia. Este patrón, conocido en neurobiología, sirve para filtrar información y evitar que todo se active a la vez como un coro sin director.Las regiones importan: cortex, estriado y el papel del “ruido” químicoLa arquitectura del modelo incorpora varias regiones asociadas a aprendizaje y memoria: una corteza, un tronco encefálico, un estriado y una estructura de neuronas tónicas activas, las TAN. Aquí entra un ingrediente clave para entender por qué el aprendizaje se parece a la vida cotidiana: el ruido.Al principio, cuando aún no sabemos la regla del juego, probar cosas es útil. Como cuando estrenas una cafetera nueva y tocas botones “a ver qué pasa” antes de memorizar el modo correcto. En el modelo, las TAN pueden inyectar variabilidad mediante ráfagas de acetilcolina, empujando al sistema a explorar respuestas distintas ante el mismo estímulo visual. Con el tiempo, a medida que el modelo aprende, los circuitos de corteza y estriado refuerzan conexiones que suprimen la influencia de las TAN. Es decir, la exploración deja paso a la consistencia: una transición muy humana, parecida a pasar de conducir inseguro por una ciudad desconocida a hacerlo casi en automático.Ritmos cerebrales: sincronía en beta cuando se aciertaEl trabajo también replica un fenómeno observado en experimentos con animales por el laboratorio de Earl K. Miller, profesor del MIT en el Picower Institute for Learning and Memory: conforme avanza el aprendizaje, corteza y estriado se sincronizan más en la banda beta de los ritmos cerebrales. Y esa sincronía se asocia con momentos en los que el sujeto (animal o modelo) elige la categoría correcta.Este punto es relevante porque conecta un modelo computacional con un marcador fisiológico: no se trata solo de “decisiones correctas”, sino de un patrón temporal y coordinado entre regiones que aparece cuando el sistema se vuelve competente. Es como si, en una banda de música, los instrumentos empezaran a entrar a tiempo entre sí justo cuando la melodía por fin suena bien.El hallazgo inesperado: neuronas “incongruentes” que predicen el falloLa parte más intrigante llega cuando el modelo muestra un conjunto de neuronas —aproximadamente un 20%— cuya actividad se correlaciona con el error. El equipo las describe como neuronas “incongruentes” porque, cuando su influencia pesa más en los circuitos, la decisión tiende a salir mal. Lo primero fue sospechar del propio modelo: ¿un artefacto? ¿una rareza?La respuesta fue revisar datos reales ya existentes del laboratorio de Miller. Y, según explican Granger y Miller, esas neuronas estaban ahí: no se habían detectado o analizado con ese enfoque. Este giro es importante por una razón práctica: un buen modelo no solo imita; también puede señalar “lugares donde mirar” en registros biológicos, como una linterna que ilumina una esquina ignorada de la habitación.¿Para qué querría el cerebro células que empujan a equivocarse? Miller plantea una hipótesis con sentido evolutivo y cotidiano. Aprender reglas es útil, pero el mundo cambia. Si la regla cambia y tú sigues aplicando la antigua, fallas de forma sistemática. Mantener de vez en cuando una vía que proponga alternativas —aunque ocasionalmente cause errores— puede ser el precio de conservar flexibilidad. Es el equivalente a cuestionar una ruta habitual al trabajo: la mayoría de días te retrasará, pero el día que hay un corte de tráfico puede salvarte.De la explicación a la intervención: por qué esto interesa a la biotecnologíaEl equipo no se queda en la curiosidad científica. Según la nota del MIT, Miller, Granger y colaboradores han fundado Neuroblox.ai, con la idea de convertir este enfoque en una plataforma de modelado biomimético útil para explorar enfermedad cerebral y posibles intervenciones. Lilianne R. Mujica-Parodi, profesora en Stony Brook y responsable principal del proyecto Neuroblox, figura como CEO de la empresa.Aquí el argumento es directo: si se puede simular una dinámica cerebral realista, se podrían probar hipótesis de neuroterapias, efectos de fármacos o estrategias de estimulación antes de llegar a fases caras y arriesgadas como ensayos clínicos. No significa sustituir la investigación en humanos o animales; significa filtrar mejor qué vale la pena llevar a esas etapas.El propio Granger señala que el modelo del artículo es un punto de partida y que ya lo están ampliando: más regiones cerebrales, más neuromoduladores y pruebas de intervención con fármacos para ver cómo cambian las dinámicas internas.Qué cambia este tipo de modelo en la conversación sobre IA y cerebroEste estudio no es un “cerebro digital” completo, ni pretende explicar toda la mente. Su valor está en la estrategia: construir con piezas biológicamente plausibles, dejar que el comportamiento emerja y usar ese resultado como espejo para reinterpretar datos reales. Para quien sigue el cruce entre neurociencia computacional e inteligencia artificial, es una señal de que la fidelidad biológica puede ser más que un adorno: puede producir predicciones útiles y, en ocasiones, descubrir patrones que estaban ocultos a simple vista.También invita a una lectura prudente: un modelo que encaja muy bien en una tarea concreta aún debe demostrar que generaliza a otras tareas, especies y condiciones. El equipo ya apunta esa dirección al añadir regiones y neuromoduladores. Si la plataforma mantiene su capacidad de reproducir señales y comportamientos al subir la complejidad, podríamos estar ante una herramienta interesante para tender puentes entre experimentos y terapia.La noticia Un modelo de cerebro “con piezas reales” aprende como los animales y destapa neuronas que empujan al error fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.