Apple y la Universidad de Purdue han presentado DarkDiff, una IA capaz de ver donde el ojo humano sólo ve negro. Los detalles del modelo de IA se han reflejado en un estudio, publicado por el departamento de Apple Machine Learning Research. La IA utiliza modelos de difusión para rescatar el color y el detalle en escenas con luz extrema, lo que permite una calidad nocturna superior a los algoritmos actuales.La investigación aparece detallada en 9to5Mac, exponiendo que los métodos de procesado tradicionales ya han tocado techo físico. Mientras que algunos ajustes de iOS pueden empeorar tus fotos, el equipo de Apple propone eliminar los algoritmos de regresión que empastan las sombras. DarkDiff asume la carga del revelado digital mediante redes generativas inteligentes.Modelos de difusión contra el ruido extremo#gallery-1{margin:auto}#gallery-1 .gallery-item{float:left;margin-top:10px;text-align:center;width:33%}#gallery-1 img{border:2px solid #cfcfcf}#gallery-1 .gallery-caption{margin-left:0}Pulsa aquí para ver la galería de imágenes completaEl paper técnico explica cómo DarkDiff reutiliza modelos de difusión preentrenados, similares a Stable Diffusion, para integrarlos directamente en el procesador de señal de imagen (ISP). A diferencia de lo que Google ha desarrollado para iluminar escenas, Apple aplica un mecanismo de atención por parches locales y un sistema de classifier-free guidance para ajustar la nitidez.Este método reduce las alucinaciones de la IA, evitando que el software se invente objetos inexistentes en la penumbra. El sistema analiza la estructura de la imagen RAW original para conservar la fidelidad, permitiendo que una captura manual de 0,033 segundos parezca una exposición 300 veces más larga. Se evita que las sombras se conviertan en manchas gracias a la reconstrucción sRGB directa.En las pruebas realizadas con una Sony A7SII, DarkDiff ha barrido a cualquier estándar actual en tres benchmarks distintos. Los resultados muestran que los colores no se ven lavados y mantienen el detalle, superando incluso la gestión que hace el procesamiento computacional del Pixel 10 Pro. Esta superioridad lo situaría pronto como referencia entre los móviles con mejor cámara.Sin embargo, hay una pega importante: el proceso es extremadamente lento. Apple admite en el estudio que este cálculo se bebería la batería en segundos, lo que obligaría a procesar los datos en servidores externos. El sistema difícilmente llegará al iPhone sin una evolución radical del hardware local o una conexión constante a la nube para ejecutar el algoritmo, lo que probablemente sería una barrera insalvable para su uso.Por ahora parece que DarkDiff va a quedarse lejos de los teléfonos de Apple. Es un modelo con una capacidad teórica impresionante, pero mientras no se encuentre una forma de que realice el procesado de imagen de forma más eficiente será, por desgracia, una quimera en el mundo real. No obstante Apple es una compañía a la que le gusta sorprender, así que veremos qué pasa en el futuro.El artículo Apple tiene un plan para mejorar (y mucho) las fotos nocturnas de tu iPhone fue publicado originalmente en Andro4all.