Google DeepMind ha presentado Nano Banana 2, identificado también como Gemini 3.1 Flash Image, como su modelo más reciente para generación y edición de imágenes dentro del ecosistema Gemini. La idea central es sencilla de entender si pensamos en una cocina: hasta ahora, para lograr un plato “de restaurante” solía hacer falta fuego lento; con Nano Banana 2, Google dice haber encontrado una forma de mantener el sabor y la presentación con un ritmo mucho más rápido. Según el anuncio firmado por Naina Raisinghani, product manager en Google DeepMind, el modelo busca juntar la calidad y el razonamiento visual que se asociaban a la versión Pro con la velocidad propia de la familia Flash.Este enfoque no se limita a “crear imágenes bonitas”. Google lo plantea como una herramienta para iterar rápido, corregir detalles sin fricción y producir recursos que puedan pasar de la pantalla del diseñador a un uso real en campañas, productos o contenidos con menos pasos intermedios.Velocidad tipo Flash con inteligencia “de contexto”El mensaje de Google se apoya en una combinación: la rapidez de Gemini Flash aplicada a lo visual y una capa de “conocimiento del mundo” que pretende mejorar la precisión. Dicho de forma cotidiana: no solo dibuja, también “sabe de qué está dibujando”. La compañía sostiene que Nano Banana 2 puede apoyarse en la base de conocimiento de Gemini y en información de la Búsqueda web para representar temas específicos con mayor exactitud, algo especialmente útil cuando la imagen exige detalles concretos y no simples aproximaciones.En la práctica, este tipo de fundamentación apunta a casos que van más allá del típico prompt creativo. Google menciona la posibilidad de crear infografías, convertir notas en diagramas y generar visualizaciones de datos. Para quien prepara una presentación, un material educativo o un documento interno, esto suena a tener un asistente que no solo “ilustra”, sino que ordena la información visualmente con sentido, como cuando alguien te ayuda a pasar un texto enmarañado a un esquema que se entiende de un vistazo.Texto dentro de la imagen: legibilidad, traducción y localizaciónUno de los talones de Aquiles históricos en generadores de imágenes ha sido el texto: letras deformadas, palabras inventadas, carteles imposibles de leer. Google afirma que Nano Banana 2 mejora la renderización de texto para que sea preciso y legible en usos como maquetas de marketing, tarjetas o creatividades. Esto es relevante porque el texto no es un adorno; en publicidad, packaging o señalética, una tipografía ilegible arruina la pieza.El modelo también incorpora traducción y localización de texto dentro de una imagen, lo que apunta a un flujo de trabajo más internacional. Imagina una campaña con el mismo arte base que debe adaptarse a varios idiomas: en lugar de rehacer creatividades desde cero, se busca poder mantener el diseño y ajustar el contenido textual con coherencia visual. Si funciona como promete, puede ahorrar iteraciones y reducir errores típicos de “copiar y pegar” textos que luego no encajan en el layout.Control creativo mejorado: coherencia de sujetos y seguimiento de instruccionesGoogle subraya que Nano Banana 2 reduce la distancia entre “ir rápido” y “verse bien”, y lo hace destacando dos mejoras que afectan a la consistencia. Por un lado, habla de consistencia del sujeto: mantener el parecido de hasta cinco personajes y conservar la fidelidad de hasta catorce objetos dentro de un mismo flujo de trabajo. Esto está pensado para narrativas visuales, guiones gráficos o piezas seriadas, donde el personaje no puede cambiar de cara como si fuera otra persona en cada viñeta.Por otro lado, menciona un seguimiento de instrucciones más estricto. En el día a día, esto equivale a que el modelo entienda mejor los matices: no es lo mismo “una granja divertida” que “una granja divertida con un ambiente alocado, personajes identificables y objetos específicos en posiciones concretas”. Cuando la herramienta interpreta mal el pedido, el usuario entra en un bucle de correcciones que mata la productividad. La apuesta de Nano Banana 2 es que ese bucle sea más corto y que el resultado se parezca más a lo que se pidió a la primera.Especificaciones listas para producción: de 512 px a 4K y múltiples formatosOtra pieza del anuncio apunta directamente a equipos que trabajan con entregables reales. Google afirma que el modelo permite crear recursos con control de relaciones de aspecto y resoluciones desde 512 píxeles hasta 4K, pensados para verse nítidos tanto en vertical (redes sociales) como en panorámico (fondos de pantalla o creatividades amplias). Este punto es menos vistoso que un estilo artístico nuevo, pero es el que separa un experimento de un activo usable: tamaño, recorte, nitidez y consistencia.La compañía también habla de mejora de fidelidad visual, con iluminación más vibrante, texturas más ricas y detalle más nítido, manteniendo la velocidad. Traducido a sensaciones: menos “plástico” y más “material”, menos superficies planas y más textura que recuerde a una foto o a una ilustración bien acabada, según el objetivo.Nano Banana Pro y Nano Banana 2: dos herramientas para necesidades distintasGoogle plantea un reparto de papeles claro: Nano Banana Pro quedaría para tareas con máxima precisión factual, mientras Nano Banana 2 se enfocaría en generación rápida, seguimiento de instrucciones y fundamentación integrada con la búsqueda de imágenes. Es un enfoque parecido al de elegir entre una cámara en modo manual para situaciones delicadas y un modo automático muy competente para disparar rápido sin perder calidad.Para usuarios y equipos, esto implica que el “mejor modelo” ya no es universal, sino contextual. Si tu prioridad es comprobar al milímetro un dato representado, la lógica es recurrir a Pro. Si tu prioridad es iterar creatividades, probar estilos, ajustar composición y sacar piezas en distintos formatos sin atascarte, Nano Banana 2 apunta a ser el caballo de batalla.Dónde se integra: Gemini, Búsqueda, API, Cloud, Flow y AdsLa distribución de Nano Banana 2 es una declaración de intenciones: Google quiere que el modelo no sea una demo aislada, sino una pieza transversal. Según el anuncio en el blog de Google, llega a la aplicación de Gemini, reemplazando a la versión Pro en los modelos Rápido, Pensamiento y Pro, con acceso a Pro reservado para suscriptores concretos que lo necesiten mediante opciones dentro del producto. También se integra en Búsqueda a través del Modo IA y Lens, disponible tanto en la app como en navegadores móviles y de escritorio, con ampliación de países e idiomas según la disponibilidad que comunica Google.Para desarrolladores, Nano Banana 2 aparece en AI Studio y la API de Gemini en versión preliminar, y también en Vertex AI dentro de Google Cloud. Esto abre la puerta a integrarlo en aplicaciones propias, automatizar generación de creatividades, o construir herramientas internas para equipos de contenido. La mención a Flow como modelo predeterminado de generación de imágenes, accesible sin coste en créditos para usuarios de Flow, sugiere un empuje fuerte hacia el uso cotidiano. La presencia en Google Ads cierra el círculo: si el modelo sugiere creatividades mientras se construyen campañas, la IA no se queda en el laboratorio, se sienta en el escritorio del anunciante.Procedencia y verificación: SynthID y credenciales C2PAA medida que las imágenes generadas se vuelven más realistas, crece la necesidad de poder identificar su origen. Google insiste en su enfoque de procedencia combinando SynthID con credenciales de contenido C2PA interoperables, con la idea de ofrecer un contexto más completo: no solo si hubo IA, también cómo se produjo el contenido. En el anuncio, la compañía señala que la verificación de SynthID dentro de la app de Gemini se ha utilizado más de 20 millones de veces desde su lanzamiento en noviembre, y adelanta la incorporación de verificación C2PA en la aplicación.Esto apunta a un cambio práctico para medios, marcas y usuarios: poder revisar señales de procedencia como quien revisa la etiqueta nutricional de un producto. No te dice si “te gusta” o si “es bueno”, pero ayuda a tomar decisiones informadas, especialmente cuando una imagen circula fuera de contexto.Lo que puede cambiar en el trabajo diario de creadores y equiposSi Nano Banana 2 cumple lo que Google promete, su valor no está solo en la estética, sino en el ritmo. Un diseñador que antes necesitaba varias rondas para obtener una composición usable podría iterar como quien prueba distintas combinaciones de ropa frente al espejo: cambias un detalle, miras el resultado, ajustas otro, sin tener que rehacerlo todo. Para marketing, la combinación de texto legible, formatos y calidad puede facilitar la creación de variantes para test A/B. Para educación o producto, la capacidad de transformar notas en diagramas puede ayudar a explicar ideas complejas como si las “dibujaras en una servilleta”, con claridad y orden.También hay una lectura importante: Google está colocando la generación de imágenes dentro de sus canales más masivos, como Search, Lens y Ads. Eso puede acelerar la adopción, pero también eleva la responsabilidad sobre procedencia, sesgos y uso correcto. La apuesta por SynthID y C2PA va en esa dirección, según lo descrito por la propia empresa.La noticia Nano Banana 2: el nuevo modelo de imágenes de Google que apuesta por velocidad sin renunciar al control fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.