El frustrante autocorrector del iPhone y su supuesta promesa de inteligencia

Wait 5 sec.

Si usas un iPhone, es seguro que te ha ocurrido: un autocorrector que propone palabras que no tienen nada que ver con ningún contexto razonable, que hace desaparecer para siempre las sugerencias correctas si tecleas un carácter más, o que corrige frases enteras de forma inexplicable. Y que, además, se ha vuelto mucho peor desde que supuestamente tiene inteligencia artificial frente a cuando supuestamente era más tonto. El artículo del The Guardian titulado «Ducking annoying: why has iPhone’s autocorrect function gone haywire?« documenta cómo, después del lanzamiento de iOS 26, un buen número de usuarios han comentado que la función de autocorrección del teclado ha entrado en una fase completamente caótica. La sorpresa no es tanto que un algoritmo falle, que es algo que los ordenadores hacen habitualmente, sino que, en plena era de los teléfonos «inteligentes», ese mismo algoritmo debería ser infinitamente mejor. Y aquí abre una pregunta fascinante: teniendo en cuenta que un usuario promedio teclea miles de palabras al año, que su teléfono conoce qué palabras usa, con qué frecuencia, en qué combinación y con qué construcciones gramaticales… ¿no debería el autocorrector del iPhone estar entre las funciones más refinadas del mundo? Y si no lo está, ¿a qué se debe eso? El artículo revela que Apple ha reemplazado sus antiguos modelos de autocorrección basados en n-gramas por modelos de lenguaje tipo transformer que corren directamente en el dispositivo. Modelos más potentes, sí, pero también mucho más opacos y más difíciles de depurar. Como explica uno de los pioneros de la autocorrección, los fallos ya no son simples reglas erróneas, sino problemas de interpretación del contexto. Aquí entramos en otra capa interesante: la del modelo inteligente personalizado. Lo lógico es pensar que un teléfono en el que tecleas con tanta frecuencia podría aprender de ti. Podría reconocer tu vocabulario, tus expresiones, tus errores frecuentes, y ofrecer correcciones casi invisibles y precisas. Podría incorporar un pequeño modelo de lenguaje (un «small language model«) adaptado al usuario, sin enviar todos los datos a la nube, preservando la privacidad. Los estudios sobre modelos pequeños indican precisamente que son «suficientemente potentes, inherentemente más adecuados y necesariamente más económicos» para este tipo de tareas especializadas y cercanas. Entonces, ¿cuál es el problema? Algunas hipótesis:La privacidad como obstáculo: Apple prioriza que el modelo funcione «on-device», lo que limita la cantidad de datos que puede usar, algo que posiblemente le haga perder precisión La escala del modelo vs. los recursos: para funcionar sin agotar la batería o la memoria, el modelo debe ser compacto; pero las correcciones cada vez más frustrantes sugieren que ese equilibrio no está funcionando adecuadamenteLa opacidad del algoritmo: cuando un error ocurre no se puede «ver» por qué lo hizo, a diferencia de un simple cambio de ortografía. Eso rompe la confianza del usuario Expectativas demasiado altas: En un mundo donde hablamos con inteligencias artificiales de forma cada vez más habitual, se espera que todo lo «automático» sea casi perfecto. Sin embargo, un autocorrector es idealmente invisible, y que falle lo hace visible y molesto Esto me recuerda lo que me cuentan mis estudiantes cuando analizo estos temas: confianza frente a eficacia. Cada palabra que alguien escribe es privada, cotidiana, incluso íntima. Que el teléfono falle en ese nivel es una especie de traición funcional. No solo es incómodo, es que además es particularmente frustrante. La cuestión mayor quizá sea la siguiente: ¿estamos dispuestos a aceptar un autocorrector que simplemente «no moleste»? Porque si uno espera que «aprenda de mí», que «me entienda» o que «sea mi herramienta», pero lo que obtiene es un reglamento opaco que a veces actúa como un troll y te mete incluso en líos, el resultado es una pérdida de confianza. Y en tecnología, la confianza es un capital más frágil que la pantalla del teléfono. El autocorrector del iPhone debería ser uno de esos servicios discretos que ni te das cuenta que tienes… hasta que empieza a fallar. Y cuando falla, descubrimos dos cosas: que el dispositivo conocía mucho menos de nuestra escritura de lo que creíamos, y que la promesa de «inteligencia personalizada» no basta para conquistar al usuario si no viene acompañada de transparencia, control y previsibilidad. Si Apple o cualquier otro fabricante aspira a que sus teclados «aprendan a escribir por nosotros», tendrán que empezar por aprender a no equivocarse tanto.