Ya llevamos unos años viendo que la industria utiliza la inteligencia artificial como un motor de fuerza bruta para compensar las carencias del hardware. A veces, con mejores resultados y en otras ocasiones con uno peor. En el mundo del gaming, herramientas como el reciente DLSS 4.5 de NVIDIA nos permiten multiplicar hasta por seis los fotogramas generados para soportar cargas como el path tracing. En paralelo, en nuestros bolsillos, los algoritmos de fotografía de marcas como Google, Honor, Vivo u Oppo han hecho posible obtener imágenes con gran nitidez en la oscuridad, a pesar de los sensores diminutos del móvil. En ambos casos, la meta es clara: optimizar el rendimiento.Sin embargo, la línea entre optimizar una imagen e inventarla lleva tiempo difuminándose. NVIDIA, precisamente, ha presentado hace unas horas DLSS 5, una tecnología prevista para el próximo otoño que abandona el simple reescalado para abrazar un renderizado agresivo. Casi al mismo tiempo, los análisis de los últimos smartphones de gama alta revelan que sus cámaras están tomando decisiones creativas por su cuenta. Sin duda, es un cambio de paradigma que afecta a todos por igual y deja algo claro: la IA ha empezado a reescribir la realidad que vemos en nuestras pantallas. Qué propone NVIDIA y por qué es polémico. La nueva versión de la tecnología de la americana no se limita a reconstruir la resolución del juego original. El sistema utiliza un modelo de IA entrenado para analizar los vectores de movimiento y añadir, en tiempo real, iluminación fotorrealista y materiales complejos (como la dispersión de luz en la piel o tejidos) que no estaban programados en un inicio en el motor gráfico.Aunque NVIDIA asegura que los desarrolladores tendrán control sobre estos parámetros, la comunidad y diversos profesionales han criticado que delegar la iluminación a una IA puede destruir toda la dirección de arte e incluso la atmósfera original concebida por los creadores del videojuegos. Las capturas y vídeos de 'Resident Evil: Requiem' son una prueba.Paralelismo con el smartphone. Esta invención de detalles mediante redes neuronales es un conflicto que la industria del móvil conoce a la perfección. Mismamente hace unos meses, en Xataka comparaban dos de los teleobjetivos más extremos con una evidencia que es abrumadora: al aplicar aumentos como el zoom 100x, la cámara no está captando la realidad, sino que el procesador de señal de imagen (ISP) "alucina" texturas. Lo vimos fotografiando monumentos lejanos, donde la IA generativa se inventa literalmente formas, escamas o colores para ofrecer al usuario una imagen falsamente nítida en lugar de un borrón de píxeles. Esto aplica a cualquier móvil de gama alta de la actualidad, un servidor pudo comprobarlo con el OnePlus 15. En Xataka Móvil Si una tercera persona sale en una foto, mejor que no la edites con la IA. Existen varios riesgos más allá del meme Fatiga de la realidad computacional. Al igual que los jugadores pueden temer perder la visión artística en favor de un fotorrealismo genérico, los de móviles están mostrando cierto agotamiento ante el sobreprocesado. La demanda por recuperar la imagen "real" ha impulsado soluciones en forma de apps de cámara para el iPhone como «Halide», que extrae información bruta del sensor sin aplicar ningún tipo de procesado.IA como asistente y no como autor. Por suerte, la industria está explorando otras formas de utilizar esta potencia computacional sin llegar a distorsionar la obra original. Proyectos como «Indigo» de Adobe (liderada por uno de los padres del Google Pixel) demuestran que es posible procesar hasta 32 fotogramas RAW en un móvil para obtener un rango dinámico natural, sin inventar texturas artificiales. Es una prueba de que, con interés, la IA puede ser domada. Quizá ese sea el camino y el punto de equilibrio necesario. {"videoId":"xa23b2u","autoplay":false,"title":"Esta es la mejor IA GRATIS para generar vídeo en 2026", "tag":"webedia-prod", "duration":"673"} El peligro de los sesgos. Delegar la renderización a un algoritmo encierra un riesgo adicional: los sesgos de entrenamiento. Ya lo hemos visto en la fotografía móvil donde estudios de DXOMARK demostraron que los modos retrato procesados por IA fallaban al iluminar y enfocar tonos de piel oscuros debido a la falta de diversidad en sus bases de datos. Si técnicas parecidas como DLSS 5 aplica un razonamiento similar para iluminar personajes o escenarios en los videojuegos, NVIDIA deberá asegurar que sus modelos comprendan absolutamente todos los matices de color, luz y sombra, para no estandarizar el arte interactivo.Ojalá podamos seguir disfrutando del arte como hasta ahora: en mejor o peor calidad, pero siempre atado a la visión original del autor. Y tanto los videojuegos como la fotografía, lo son.Imagen de portada | Composición con imágenes En Xataka Móvil | El teleobjetivo ha redefinido para siempre la fotografía móvil: el zoom óptico sirve para mucho más que ver cosas de lejos (function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); - La noticia DLSS 5 promete gráficos brutales, pero abre un debate que los móviles conocen: cuándo la IA deja de mejorar y empieza a inventar fue publicada originalmente en Xataka Móvil por Pepu Ricca .