En enero, Apple estuvo a punto de retirar la app de Grok —el chatbot de inteligencia artificial de Elon Musk— de su App Store.El motivo era grave: la herramienta estaba siendo usada masivamente para crear imágenes sexuales falsas de mujeres reales. Sin su consentimiento. Y algunas eran menores de edad.Lo más llamativo no fue la amenaza en sí. Fue que Apple lo hizo en silencio, entre bastidores, mientras el escándalo crecía sin que la empresa dijera una sola palabra en público.Cómo empezó todo estoPara entender bien la historia, hay que retroceder unos meses. A mediados de 2025, usuarios de X (antes Twitter) comenzaron a notar algo preocupante. Si le mandabas a Grok una foto de una persona y le pedías que la «pusiera en bikini», el chatbot lo hacía. Sin preguntar. Sin filtros visibles.Al principio fueron casos aislados. Pero para finales de diciembre, aquello se había convertido en una tendencia viral. Miles de publicaciones en X mostraban a mujeres reales —actrices, cantantes, personas comunes— en imágenes íntimas que nunca existieron.El número es escalofriante. Según reportes, Grok generó alrededor de tres millones de imágenes sexualizadas en tan solo once días. Y lo peor es que algunas involucraban a menores, lo que en Estados Unidos constituye un delito federal.La carta que cambió el juegoTres senadores demócratas —Ron Wyden, Ben Ray Luján y Edward Markey— pusieron presión directa.En enero de 2026, enviaron cartas tanto a Apple como a Google exigiendo que retiraran de sus tiendas tanto a X como a la app de Grok. Su argumento era claro: esas imágenes violaban abiertamente las políticas de ambas plataformas.Apple respondió… pero en privado. NBC News obtuvo una copia de esa carta —que no es pública— y lo que reveló es bastante revelador.Según ese documento, Apple había revisado las apps por su cuenta, recibido quejas de usuarios y seguido la cobertura mediática del escándalo. Su conclusión fue directa: tanto X como Grok estaban violando las reglas del App Store.El ultimátum que nadie supo (hasta ahora)Aquí viene la parte que no muchos conocían. Apple no solo revisó las apps —les dio un ultimátum formal a los desarrolladores de Grok. Les exigió un plan de moderación de contenido. Y cuando xAI presentó su primera corrección, Apple la rechazó. La respuesta fue clara: los cambios no eran suficientes.La empresa de Tim Cook advirtió que, si no se hacían mejoras adicionales, Grok sería eliminado del App Store. Sin más vuelta de hoja.Imagínate estar en esa posición. Tu app, con millones de descargas, a punto de desaparecer de la tienda más importante del mundo. Esa presión tuvo efecto.Lo que hizo xAI para salvar la appCon la presión encima, xAI fue moviendo fichas. Primero limitó el uso de las herramientas de imagen de Grok solo a suscriptores de pago.Luego anunció que ningún usuario de X podría usar Grok para alterar imágenes de personas reales. En marzo, fue un paso más allá y lanzó una función para que cualquier persona bloqueara a Grok de modificar sus fotos públicas.Apple revisó las nuevas versiones de la app. La primera corrección no convencía. Pero después de más ajustes y conversaciones, finalmente determinó que Grok había mejorado lo suficiente. La app se quedó en el App Store.Por su parte, X también fue respondiendo más rápido que Grok a las demandas de Apple. Según la propia carta de la compañía a los senadores, X resolvió sus violaciones antes que xAI.The post Apple estuvo a punto de retirar Grok de la App Store por imágenes sexuales falsas de mujeres reales first appeared on PasionMóvil.