Cuando en 2003 la NASA buscaba una simulación fotorrealista de Marte, acudió a Nvidia, una empresa entonces centrada en tarjetas gráficas para videojuegos. Ese encuentro marcó el comienzo de una relación transformadora que, dos décadas después, está redefiniendo los límites del conocimiento científico gracias al deep learning.La clave del cambio llegó en 2006, cuando Nvidia lanzó CUDA, una plataforma de computación paralela que permitió usar las GPU para tareas científicas. Este paso abrió la puerta a una nueva era: la potencia de procesamiento pensada para crear mundos virtuales ahora podía aplicarse a analizar grandes volúmenes de datos reales.Deep learning: una nueva forma de pensar con máquinasEl deep learning no es solo una evolución del aprendizaje automático, sino una forma completamente diferente de abordar problemas complejos. Inspirado en la estructura del cerebro humano, emplea redes neuronales con múltiples capas para identificar patrones, clasificar datos e incluso tomar decisiones de forma autónoma.Aplicado a la ciencia, esto significa que ya no es necesario programar manualmente cada regla o condición. Las máquinas pueden aprender a detectar cambios climáticos, identificar ondas gravitacionales o analizar la atmósfera simplemente «viendo» suficientes ejemplos. Es como enseñarle a un niño a reconocer un gato mostrandole miles de imágenes, en lugar de explicarle cada característica.DeepSat: vigilando la salud del planeta desde el espacioUno de los primeros grandes proyectos de NASA impulsado por esta tecnología fue DeepSat, un sistema de clasificación de imágenes satelitales entrenado con más de 330.000 escenas de alta resolución sobre Estados Unidos. Cada una de estas imágenes podía ocupar hasta 200 MB, lo que resultó en un conjunto de datos que rozaba los 65 terabytes.Con este volumen de información, el deep learning demostró su utilidad real: el sistema alcanzó una precisión del 97,95%, superando ampliamente a otras tecnologías de clasificación. Gracias a DeepSat, ahora es posible medir la captura de carbono de los ecosistemas, estudiar las islas de calor urbanas o ajustar modelos climáticos con un nivel de detalle antes impensable.La infraestructura que sostiene este sistema se basa en GPU Tesla de Nvidia y el superordenador Pleiades de la NASA, con más de 200.000 núcleos CUDA. Esto permitió reducir el tiempo de entrenamiento de los modelos de meses a semanas, acelerando significativamente los descubrimientos.LIGO: escuchando los susurros del universoMientras DeepSat observaba la Tierra, otro proyecto escuchaba el universo. El observatorio LIGO enfrentaba un desafío monumental: detectar ondas gravitacionales entre ruidos de fondo extremadamente complejos.La solución llegó de la mano de redes neuronales profundas, diseñadas por el equipo de Daniel George y Eliu Huerta en el NCSA Gravity Group. Ejecutadas sobre GPUs Tesla, estas redes no solo detectaban las ondas, sino que estimaban la masa de los agujeros negros involucrados, todo en tiempo real.La mejora fue drástica: el sistema multiplicó por 100 la capacidad de inferencia y la aceleración por GPU añadió otro factor de 50. Esta combinación de tecnología y aprendizaje permitió iniciar una nueva era en la astrofísica, donde es posible coordinar observaciones globales apenas segundos después de una detección.Nuevos horizontes en la ciencia computacionalLa colaboración NASA-Nvidia no se limita a estos dos casos. Cada año se celebran hackatones con GPU donde equipos de distintos centros de la NASA trabajan en mejorar desde la dinámica de fluidos hasta la simulación química atmosférica, con incrementos de rendimiento que pueden multiplicarse hasta 250 veces.NASA también ha adoptado bibliotecas como RAPIDS, desarrolladas por Nvidia, para optimizar procesos de ciencia de datos. Christoph Keller, de la Oficina Global de Modelado y Asimilación, utiliza modelos de aprendizaje para reducir el coste computacional de GEOS-CF, un modelo que simula 250 especies químicas en tiempo casi real.El propio David Salvagnini, director de datos y de IA en NASA, ha destacado cómo esta tecnología ayuda a la exploración de exoplanetas y a la operación de sistemas autónomos como el rover Perseverance en Marte.Infraestructura y visión: el futuro de la IA científicaEl compromiso va más allá de proyectos concretos. La Fundación Nacional de Ciencia de EE. UU. (NSF) y Nvidia han lanzado el proyecto OMAI (Open Multimodal AI Infrastructure), que busca crear modelos abiertos de IA para acelerar la ciencia en Estados Unidos. Con una inversión conjunta de más de 150 millones de dólares y liderado por el Allen Institute for AI, este proyecto subraya la importancia de contar con una infraestructura robusta.Para Jensen Huang, CEO de Nvidia, la IA es hoy el motor de la ciencia moderna. Al igual que la electricidad transformó la industria, los modelos de IA abiertos pueden convertirse en el recurso más poderoso y renovable de una nación.IA más allá del planeta TierraUna de las líneas más ambiciosas de esta colaboración es llevar la computación de IA directamente al espacio. Con empresas como HPE, IBM y SpaceX, se están desarrollando servidores resistentes a la radiación y soluciones de computación de alto rendimiento (HPC) adaptadas a entornos espaciales.Esto permitirá procesar datos in situ, sin depender de los largos tiempos de transmisión a la Tierra. Por ejemplo, detectar y actuar sobre basura espacial en tiempo real, un problema creciente para las misiones orbitales.La visión de la NASA es clara: integrar la IA en cada aspecto de su operación, pero sin perder de vista la gestión de riesgos. Esto implica complementar a los equipos humanos con herramientas generativas de IA, mejorando la eficiencia sin sustituir el juicio humano.La noticia NASA y Nvidia: Cómo el deep learning impulsa una nueva era en el descubrimiento científico fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.