Multiverse Computing lleva sus modelos de IA comprimidos al mercado empresarial: menos nube, más control

Wait 5 sec.

La startup española Multiverse Computing acaba de lanzar un portal de API de autoservicio y una app de demostración para que desarrolladores y empresas accedan directamente a sus modelos de IA comprimidos, sin necesidad de pasar por AWS Marketplace. Multiverse Computing lleva años desarrollando CompactifAI, una tecnología de compresión inspirada en computación cuántica que reduce el tamaño de modelos de IA de grandes laboratorios —OpenAI, Meta, DeepSeek, Mistral— para que puedan ejecutarse en dispositivos locales, sin depender de centros de datos ni proveedores cloud.En un momento donde los impagos en el sector privado de EE.UU. han alcanzado el 9,2% —la tasa más alta en años—, la firma de capital riesgo Lux Capital ha advertido que las empresas que dependen de IA deberían exigir sus compromisos de computación por escrito. Multiverse ofrece una alternativa: dejar de depender de infraestructura externa por completo.La app CompactifAI y el modelo GildaLa app CompactifAI funciona como un chat de IA similar a ChatGPT, pero con una diferencia clave: incorpora Gilda, un modelo lo bastante pequeño para ejecutarse localmente y sin conexión. Los datos no salen del dispositivo, la latencia es mínima y no necesitas pagar por inferencia en la nube.Hay un matiz importante: el dispositivo necesita suficiente RAM y almacenamiento. Si no cumple los requisitos —muchos iPhones antiguos no lo hacen—, la app redirige automáticamente a modelos en la nube vía API. El sistema que gestiona este enrutamiento se llama Ash Nazg (sí, como la inscripción del Anillo Único de Tolkien). Cuando la app usa la nube, pierde su principal ventaja de privacidad.Según datos de Sensor Tower, la app tuvo menos de 5.000 descargas el último mes. Pero el objetivo no es el consumidor masivo.El portal de API: el verdadero productoEl lanzamiento real es el portal de API de autoservicio, que da a desarrolladores y empresas acceso directo a los modelos comprimidos con monitorización de uso en tiempo real. Para empresas que buscan reducir costes de computación sin sacrificar rendimiento, esto es el punto de venta.El modelo más reciente de Multiverse, HyperNova 60B 2602, está construido sobre gpt-oss-120b (un modelo de OpenAI con código público) y comprimido a la mitad de su tamaño original. La compañía afirma que ofrece respuestas más rápidas y a menor coste que el original, una ventaja especialmente relevante para flujos de trabajo de agentic coding donde la IA ejecuta tareas de programación complejas en múltiples pasos.¿Por qué importa la compresión de modelos?Porque los modelos de IA más capaces consumen una cantidad absurda de recursos. Ejecutar un modelo grande en la nube cuesta dinero por cada consulta: electricidad, capacidad de cómputo, memoria y refrigeración. A escala empresarial, esos costes se acumulan rápidamente.La compresión permite mantener la mayor parte del rendimiento mientras se reduce drásticamente el tamaño y el coste de ejecución. Es como pasar de necesitar un camión frigorífico para transportar ingredientes a poder llevarlos en una nevera portátil: llegas al mismo sitio con lo esencial, pero el viaje sale mucho más barato.El contexto competitivo es relevante. Mistral acaba de actualizar su familia de modelos pequeños con Mistral Small 4 y ha lanzado Forge, un sistema para que las empresas construyan modelos personalizados eligiendo los compromisos que su caso de uso puede tolerar. Google tiene FunctionGemma con 270 millones de parámetros para funciones en el dispositivo. Apple Intelligence combina un modelo local con uno en la nube. El mercado de modelos pequeños y eficientes está madurando rápidamente.¿Para quién tiene sentido?Para trabajadores en sectores críticos —salud, finanzas, defensa, legal— donde los datos no pueden salir del dispositivo por regulación o por política de seguridad, un modelo que funciona offline y localmente no es una comodidad: es un requisito.Para empresas que buscan reducir su factura de inferencia en la nube sin renunciar a las capacidades de modelos de frontera, la compresión ofrece un camino intermedio entre «todo en la nube» (caro y dependiente) y «todo local» (limitado).Para desarrolladores que quieren experimentar con modelos comprimidos sin compromisos contractuales, el portal de API de autoservicio elimina la barrera de entrada.Mi valoración: Multiverse Computing tiene un producto interesante en un mercado que crece rápidamente. La compresión de modelos inspirada en computación cuántica es un diferenciador técnico real, y el lanzamiento del portal de API es el paso correcto para pasar de «demostración tecnológica» a «producto empresarial». La limitación es la adopción: con menos de 5.000 descargas de la app de consumo, la tracción inicial es modesta. Pero si el portal de API atrae desarrolladores y la apuesta empresarial funciona, Multiverse podría convertirse en una pieza relevante del ecosistema de IA eficiente que el mercado demanda cada vez con más fuerza.Preguntas frecuentes¿Qué es CompactifAI? Es la tecnología de compresión de modelos de IA de Multiverse Computing, inspirada en computación cuántica, que reduce el tamaño de modelos grandes para que puedan ejecutarse en dispositivos locales manteniendo la mayor parte del rendimiento.¿Qué modelos ha comprimido Multiverse? Modelos de OpenAI, Meta, DeepSeek y Mistral AI, entre otros. Su modelo más reciente, HyperNova 60B 2602, está basado en gpt-oss-120b comprimido a la mitad de su tamaño.¿Dónde tiene sede Multiverse Computing? Es una startup española, aunque opera a nivel internacional. Su portal de API y la app CompactifAI están disponibles globalmente.La noticia Multiverse Computing lleva sus modelos de IA comprimidos al mercado empresarial: menos nube, más control fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.