Cuando Apple anunció en enero que Gemini sería el motor de la nueva Siri, muchos lo interpretaron como una rendición. Apple, la empresa que lleva años presumiendo de privacidad y de procesar los datos en el propio dispositivo, cedía el cerebro de su asistente a Google. Lo que no se sabía entonces es lo que revela hoy The Information: que Apple no se ha limitado a enchufar una API. Se metió hasta la cocina.La destilación, o cómo robarle el conocimiento a un giganteEl concepto clave aquí es la destilación. Es una técnica que permite transferir el conocimiento de un modelo de IA grande a otro más pequeño. No se copia el modelo entero: se le pide al modelo grande que resuelva tareas y que explique su razonamiento paso a paso. {"videoId":"x9ndj38","autoplay":true,"title":"Así funciona Apple Intelligence Apple", "tag":"", "duration":"314"} Ese proceso, esa cadena de pensamiento, es lo que el modelo pequeño aprende a imitar. El resultado es un modelo compacto que se comporta de forma parecida al original, pero que requiere una fracción del hardware para funcionar. Todo ideado para que esa nueva Siri y Apple Intelligence sigan funcionando en nuestro dispositivo.Apple tiene acceso completo al modelo Gemini en sus propios centros de datos. No está usando Gemini desde fuera, como haría cualquier desarrollador con una API. Sus ingenieros pueden examinar cómo funciona por dentro, hacer preguntas al modelo grande y usar las respuestas para entrenar sus propias versiones reducidas.Por qué le interesa tanto a Apple procesar en el dispositivoLa obsesión de Apple con el procesamiento local no es nueva. Apple Intelligence ya funciona así en gran medida: los modelos pequeños corren en el chip del iPhone, sin enviar nada a ningún servidor. Es más rápido, más privado y más barato de mantener a escala. Y visto lo visto con Sora, que el iPhone se encargue de todo es una alegría para las cuentas de Apple. El problema es que, hasta ahora, los modelos propios de Apple no podían competir en calidad con los grandes modelos de Google o OpenAI para tareas complejas.La destilación resuelve todo esto. Si puedes crear un modelo pequeño que se comporta como Gemini pero funciona en un chip A19 sin conexión a internet, tienes lo mejor de los dos mundos: la inteligencia de Google y la privacidad de Apple. Un modelo así puede responder en milisegundos, funcionar en modo avión y no depender de que los servidores estén disponibles. El problema: Gemini no fue diseñado para ser SiriNada de esto es sencillo. Según las fuentes de The Information, Apple se ha encontrado con un "handicap". Gemini está optimizado para ser un chatbot y ayudar en programación. No para las cosas que Siri necesita hacer. Entender el contexto personal del usuario, gestionar recordatorios, interpretar el correo o sugerir que salgas antes de casa porque hay retenciones en la autopista son tareas con una lógica distinta a la de responder preguntas de conocimiento general.Adaptar un modelo grande para que funcione de otra manera antes de destilarlo es un trabajo fino. Y hacerlo bien lleva tiempo. Por eso no hemos visto ni rastro de la nueva Siri en iOS 26.4 ni tampoco lo veremos en iOS 26.5. El equipo de IA de Apple y una pregunta sin respuestaEl equipo Apple Foundation Models, IA en Apple, sigue activo. Está detrás de este proceso de destilación, pero también trabaja en modelos propios que no tienen nada que ver con Gemini. Lo que nadie tiene claro todavía, ni las propias fuentes de The Information, es cuál es exactamente su objetivo a largo plazo. En Applesfera El esperado rediseño de Siri llegará en iOS 27 con una app propia y más funciones a lo ChatGPT, según Gurman Una fuente descarta abiertamente que estén intentando construir un competidor directo de Gemini. Otro escenario apunta a modelos especializados: uno para entender documentos, otro para gestionar el calendario, otro para el correo. Piezas pequeñas, cada una optimizada para una tarea concreta, en lugar de un modelo generalista enorme.En junio se viene la prueba de fuegoTodo esto confluye en la WWDC del 8 de junio. Apple ha confirmado que veremos grandes avances en IA. Según los rumores, se presentará el gran lavado de cara de Siri para iOS 27: memoria de conversaciones anteriores, funciones proactivas, respuestas más elaboradas. Además, un diseño nuevo que puede que viva en la Dynamic Island. Si en junio Apple muestra una Siri que encadena tareas, recuerda lo que le dijiste la semana pasada y actúa sin que se lo pidas, el debate sobre si perdió la guerra de la IA tendrá que rehacerse desde cero. Y si además eso ocurre en parte dentro del iPhone, sin pasar por ningún servidor, la narrativa de la rendición a Google habrá quedado bastante mal planteada desde el principio. La pregunta no era si Apple usaba Gemini. Era qué hacía con él una vez que lo tenía.En Applesfera | WWDC26: fecha y novedades que esperamos del gran evento de Apple en el que se presentará iOS 27En Applesfera | Nuevo iOS 27 - todo lo que creemos saber sobre el futuro sistema operativo para el iPhone (function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); - La noticia Apple está troceando el inmenso cerebro de Gemini para exprimirlo dentro del iPhone. El plan pasa por poner a la IA a dieta fue publicada originalmente en Applesfera por Guille Lomener .