Adobe Firefly se vuelve más personal: modelos a tu medida, 30+ motores de IA y edición integrada de vídeo e imagen

Wait 5 sec.

Quien haya tenido que mantener una identidad visual consistente —ya sea la de un ilustrador con un trazo muy particular o la de una marca que vive de “verse igual” en todos lados— conoce el desgaste: hoy toca un banner, mañana una historia vertical, pasado una pieza para una campaña y, sin darte cuenta, el estilo empieza a “derivarse” como una letra manuscrita que cambia con el cansancio. La propuesta que Adobe está empujando con Adobe Firefly apunta justo a ese punto: que la IA generativa no sea solo una máquina de ocurrencias, sino un sistema que te ayude a sostener tu sello sin tener que reexplicarlo en cada prompt.Este cambio se entiende mejor con una metáfora cotidiana: no es lo mismo pedir un café “con leche” cada mañana que entrar a tu cafetería de siempre, donde ya conocen tu taza, tu punto de azúcar y hasta si hoy vienes con prisa. Firefly quiere parecerse más a lo segundo, con herramientas que aprenden tu estética y con un flujo que permite generar, probar, corregir y producir sin saltar de una app a otra.Modelos personalizados: convertir tu estilo en una base reutilizableLa novedad principal es la ampliación del acceso a los modelos personalizados de Firefly, ahora en beta pública. La idea es simple de explicar y compleja de ejecutar: subes tus propias imágenes y Firefly entrena un modelo que captura rasgos de tu universo visual. Adobe dice que, en esta fase, están optimizados para ideación con estilos de personaje, ilustración y fotografía, es decir, tres terrenos donde la consistencia suele ser la mitad del trabajo.Lo interesante aquí es el enfoque “de taller”. En vez de empezar desde cero cada vez, el modelo entrenado actúa como una especie de molde: ya contiene el grosor del trazo, cierta lógica de paleta, una forma de iluminar, o los rasgos recurrentes de un personaje. Eso no elimina la dirección creativa; la acelera. Es como arrancar una receta con tu masa madre lista: sigues decidiendo ingredientes y tiempos, pero no necesitas reconstruir la base en cada intento.Adobe remarca otro punto que suele preocupar a creativos y marcas: estos modelos son privados por defecto, de modo que el material que usas para entrenarlos no se aprovecha para entrenar los modelos generales de Firefly. En la práctica, esa promesa apunta a reducir el miedo a “ceder” estilo y recursos, especialmente cuando hablamos de bibliotecas internas o guías visuales muy valiosas.Derechos, controles y la parte menos glamurosa: qué subes y qué noCuando una herramienta permite entrenar un modelo con obras propias, el tema de derechos deja de ser un pie de página. Según The Verge, antes de entrenar un modelo Adobe solicita una confirmación de que tienes los permisos necesarios y que tu uso no vulnera copyright, propiedad intelectual, derechos de imagen o privacidad.Hay un detalle técnico con implicaciones prácticas: Adobe afirma que Firefly revisa las imágenes subidas buscando credenciales de la Content Authenticity Initiative (CAI) y, si un creador ha marcado su contenido para excluirlo del entrenamiento o uso con IA, el sistema lo detecta y lo impide. Esto no es un escudo perfecto contra el mal uso, pero sí marca una diferencia respecto a flujos donde todo depende de “la buena fe” del usuario.Por el lado de acceso, la propia comunidad de Adobe indica que Firefly Custom Models está en beta pública para clientes individuales de pago y que se apoya en los créditos generativos incluidos en el plan. Traducido a lenguaje de calle: es una función pensada para uso real, pero su disponibilidad puede variar por plan y el consumo de créditos importa si tu flujo es intensivo.Más de 30 modelos en un mismo espacio: escoger motor según la tareaOtro movimiento estratégico es convertir Firefly en un “hub” de modelos. Adobe afirma que dentro del entorno se puede trabajar con más de 30 modelos líderes del sector, incluyendo opciones de Adobe y de socios como Google, OpenAI, Runway y nuevas incorporaciones como Kling. En el anuncio se citan nombres concretos como Nano Banana 2 y Veo 3.1 de Google, Gen-4.5 de Runway, Firefly Image Model 5 (ya disponible de forma general) y Kling 2.5 Turbo.Lo valioso aquí no es solo “tener muchos”, sino poder comparar y encadenar. Adobe sostiene que Firefly permite generar con un modelo, refinar con otro y seguir editando con herramientas profesionales sin salir del entorno. Para un equipo de contenido esto se parece a tener varias cámaras y lentes en la misma mesa: eliges el equipo según la escena, no según el proveedor. Y para alguien que trabaja por encargo, abre la puerta a iterar rápido sin rehacer un proyecto porque el primer modelo “no entendió” el estilo.Adobe también menciona que está ofreciendo, por ahora, generaciones ilimitadas de vídeo e imagen con una gama amplia de modelos disponibles en Firefly, sujetas a promociones y planes. Aquí conviene leer la letra pequeña: en productos de este tipo, las condiciones suelen moverse con el tiempo, y lo “ilimitado” puede depender del plan o de restricciones operativas.Herramientas de edición dentro de Firefly: del borrador a algo entregableLa generación por sí sola rara vez termina en pieza final. Lo que se entrega casi siempre requiere recortes, limpieza, ajustes de composición o ese “pequeño cambio” que llega cuando el cliente ya lo vio en pantalla. En ese terreno, Adobe está reforzando la idea de que Firefly no es solo un generador, sino un espacio donde generar y editar se sienten como el mismo paso.En vídeo, aparece Quick Cut, una función que, según Adobe, convierte metraje en bruto en un primer montaje estructurado en minutos. Esto suena a un asistente que te deja el material “ordenado en la mesa” para que tú te ocupes de las decisiones importantes: ritmo, intención, transiciones, tono. En imagen, Adobe habla de capacidades ampliadas para añadir o quitar objetos, extender escenas y afinar elementos generados. No es un detalle menor: la edición es el lugar donde la IA deja de ser un juguete y empieza a ser una herramienta de producción.Del prompt al chat: Project Moonlight y la idea de “IA agéntica”La última pieza del anuncio apunta a una forma distinta de interactuar: menos caja de texto, más conversación. Adobe está introduciendo asistentes de IA agéntica en productos como Photoshop, Express y Acrobat, con la promesa de que puedan ejecutar acciones reales en las herramientas y que tú las ajustes después.En ese mapa entra Project Moonlight, una interfaz conversacional en beta privada que funcionaría a través de aplicaciones de Adobe y que busca llevarte “del concepto a la finalización” con menos fricción. La imagen mental es la de un coordinador: tú marcas la dirección creativa y el sistema mueve piezas, abre herramientas, propone variantes, mantiene el hilo con tus bibliotecas y recursos. Adobe ya había descrito esta visión como una coordinación entre asistentes especializados, casi como si alguien dirigiera una pequeña orquesta de apps.El riesgo, claro, es el de siempre: que el chat simplifique demasiado decisiones que son profundamente humanas. La oportunidad es igual de clara: si el sistema realmente entiende tu contexto, tu estilo y tus activos, podría recortar horas de tareas mecánicas y devolvértelas en forma de tiempo creativo.Qué significa todo esto para creadores, equipos y marcasCon modelos personalizados, Firefly intenta resolver un dolor real: la distancia entre “generar algo bonito” y “generar algo que parezca mío”. Con el agregado de 30+ modelos, busca que el creador no tenga que casarse con un solo motor para todo. Con herramientas como Quick Cut y edición integrada, empuja la experiencia hacia un flujo de producción, no solo de experimentación. Y con Project Moonlight, Adobe apuesta a que la conversación se convierta en una capa de control más natural, especialmente cuando el trabajo ya no vive en un solo archivo ni en una sola app.Para quien trabaja en solitario, esto puede sentirse como pasar de una caja de herramientas dispersa a un banco de trabajo organizado. Para equipos grandes, el atractivo está en la coherencia de marca y en la velocidad para producir variantes sin perder identidad, algo que medios y marcas persiguen desde antes de la IA. La clave, como siempre, quedará en la calidad del entrenamiento, en la facilidad para gobernar esos modelos y en qué tan predecible resulte el resultado cuando el proyecto se pone serio.La noticia Adobe Firefly se vuelve más personal: modelos a tu medida, 30+ motores de IA y edición integrada de vídeo e imagen fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.