Investigadores de la Universidad Aalto (Finlandia) y la Universidad de Leipzig (Alemania) han presentado Log2Motion, un modelo de IA que transforma los logs de uso de un smartphone (los simples registros de dónde y cuándo toca un dedo la pantalla) en una simulación biomecánica completa del cuerpo humano. El paper, publicado en arXiv con referencia 2601.21043, describe un sistema de aprendizaje por refuerzo aplicado a un modelo musculoesquelético que reproduce cómo se mueven los dedos, la mano y el brazo mientras usas una app. Y el resultado confirma con datos duros lo que muchos intuíamos: no todos los gestos cansan igual.El hallazgo más concreto: los swipes verticales (arriba-abajo y abajo-arriba) son más fatigantes que los horizontales. Los iconos pequeños y los situados en las esquinas de la pantalla requieren más esfuerzo muscular. Y los gestos «precisos» (movimientos lentos y controlados) generan menos pico de esfuerzo, pero acumulan más energía muscular total a lo largo del tiempo que los rápidos. El equipo, liderado por Antti Oulasvirta, profesor en Aalto e ELLIS Institute Finland, lo resume: «Es la primera vez que alguien ha desarrollado una herramienta que permite a diseñadores y desarrolladores evaluar rápidamente cuán cansada puede ser una interfaz móvil real». Hasta ahora, los logs de smartphone te decían dónde tocó el dedo, pero no si fue cómodo.Técnicamente, Log2Motion integra un emulador de software dentro de un simulador físico, lo que permite que un modelo musculoesquelético con más de 250 articulaciones y 600 músculos manipule aplicaciones reales en tiempo real. Un cuerpo digital, compuesto por huesos y músculos simulados, opera un smartphone sobre un escritorio virtual usando solo el dedo índice. El sistema descompone movimientos continuos en «operadores motores» discretos, lo que permite sintetizar secuencias de cualquier longitud partiendo de logs reales. Es una aproximación parecida, en espíritu, a OpenCap de Stanford para análisis biomecánico desde vídeos de móvil, pero aplicada a la ergonomía del propio uso del teléfono.Las aplicaciones prácticas son considerables. Los diseñadores de UX podrían evaluar un prototipo antes del lanzamiento: si la interfaz pide hacer 40 swipes verticales por minuto, la herramienta lo marcaría como ergonómicamente costoso. También abre la puerta a estudios de accesibilidad: cómo afectan el temblor, la reducción de fuerza o el uso de prótesis a la capacidad real de manejar una app concreta. Es una línea de trabajo que conecta con la preocupación creciente por la ergonomía digital: pasamos horas usando estos dispositivos, y la mayoría de decisiones de diseño se toman mirando métricas de engagement, no de fatiga.Mi valoración: Log2Motion es de esos trabajos académicos que parecen curiosidades de laboratorio y acaban reconfigurando industrias enteras. Durante años, las apps han competido por capturar atención maximizando interacciones: scroll infinito, gestos repetitivos, botones pequeños que fuerzan precisión. El coste físico de ese diseño nunca se medía porque no se podía medir. Ahora sí. La pregunta incómoda para TikTok, Instagram o cualquier app que viva del swipe vertical es cuánto músculo consume una hora en su plataforma. Con herramientas como esta, los reguladores europeos tienen un argumento nuevo para presionar por estándares de diseño ergonómico, igual que hay estándares de contraste y tamaño de fuente. La captura de atención ya no es gratis: ahora alguien sabe medir lo que cuesta en términos biomecánicos. Y eso, aunque parezca técnico, cambia el debate.Preguntas frecuentes¿Qué es Log2Motion? Un modelo de IA desarrollado por Aalto y Leipzig que traduce logs de uso de smartphone en simulaciones biomecánicas completas del cuerpo humano, estimando movimiento, velocidad, precisión y esfuerzo muscular. ¿Qué gestos cansan más? Los swipes verticales (arriba-abajo y abajo-arriba), los iconos pequeños y los situados en las esquinas de la pantalla. ¿Para qué sirve? Principalmente para diseñadores de UX que quieran evaluar la fatiga real de una interfaz antes del lanzamiento, y para estudios de accesibilidad.La noticia Log2Motion: el modelo de IA que simula tus músculos al usar el móvil y acaba de confirmar lo que todos sospechábamos (los swipes verticales cansan más) fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.