Meta ha registrado una patente que describe cómo una IA podría simular a un usuario cuando ese usuario está “ausente” en un sistema de redes sociales. En el texto se contempla la ausencia como una pausa larga… y también como el fallecimiento. La redacción es fría, casi administrativa, pero el efecto es muy humano: plantea que tu Facebook o tu Instagram podrían seguir publicando e interactuando como si siguieras ahí.La patente, titulada “Simulation of a user of a social networking system using a language model”, se atribuye a figuras técnicas de Meta, y medios como Business Insider señalan a Andrew Bosworth, CTO de la compañía, como autor principal del documento. Se habría presentado en 2023 y, según varias coberturas, se concedió a finales de 2025 (y ha vuelto al debate público en febrero de 2026).Meta, por su parte, ha trasladado que no tiene planes actuales de desplegar un producto pensado para cuentas de personas fallecidas. Es un matiz relevante, aunque no elimina la conversación: las patentes suelen funcionar como un “reservar asiento” tecnológico, un modo de proteger ideas y opciones futuras.Cómo funcionaría: entrenar un modelo con tu vida digitalLa idea central es simple de explicar y compleja de ejecutar: un modelo de lenguaje se entrenaría con tu historial de actividad para aprender tu estilo, tus temas recurrentes y tu forma de relacionarte. Con eso, el sistema podría publicar, comentar, dar “me gusta” o responder mensajes en tu nombre cuando no estés. Business Insider resume la propuesta como una simulación capaz de mantener la actividad, incluso con respuestas a interacciones y potencialmente con formatos ricos (texto y, en escenarios más ambiciosos, voz o vídeo).Conviene aterrizarlo con una metáfora cotidiana: sería como dejar un contestador automático tan sofisticado que no solo dice “ahora no puedo”, sino que conversa, opina y escribe como tú. No es “tu conciencia” viviendo dentro del sistema; es una aproximación estadística a tu manera de expresarte, creada a partir de datos. Esa diferencia, que suena técnica, es la línea que separa lo emocionalmente tolerable de lo perturbador.El eco cultural: de “Black Mirror” a la economía de la atenciónVarios artículos han comparado esta idea con “Be Right Back”, el episodio de Black Mirror en el que una persona reconstruye digitalmente a su pareja fallecida. La comparación no es casual: la tecnología no necesita “resucitar” a nadie para generar la sensación de presencia. Basta con sostener la conversación.También hay un ángulo menos romántico y más empresarial. Si una cuenta sigue activa, el sistema genera más señales: más publicaciones, más respuestas, más tiempo en pantalla. Dicho de otro modo, la identidad digital se convierte en un motor de actividad incluso cuando la persona ya no está. Esa continuidad puede presentarse como “acompañamiento” o “memoria”, pero también encaja con incentivos clásicos de plataformas basadas en engagement.“Gemelos digitales”: la promesa y la trampa del parecidoEn tecnología se habla de gemelo digital cuando se crea un “doble” que imita el comportamiento de un sistema real. En industria se usa para simular una turbina o una fábrica; aplicado a personas, el concepto se vuelve delicado. Un gemelo de un motor no tiene derechos, ni familia, ni duelo alrededor. Un gemelo de una persona sí.El problema es que el parecido puede ser suficiente para engañar incluso a quien sabe que es una simulación. Si recibes un mensaje con el tono exacto de tu madre, con sus muletillas y su humor, la parte racional y la emocional no siempre votan lo mismo. La IA generativa no necesita “ser” alguien para disparar el reflejo de “me está hablando”. Y ahí empiezan las preguntas difíciles.Ética y seguridad: consentimiento, control y la posibilidad de abusoLa primera gran cuestión es el consentimiento. ¿Quién decide que tu historial sirva para entrenar un modelo que actúe por ti? ¿Tú en vida, tu familia, un albacea digital, una cláusula escondida en términos y condiciones? El segundo tema es el control: incluso si alguien quisiera ese “modo legado”, ¿se puede acotar con precisión para que no haga daño?Imagina el riesgo como el de dejar una casa con la luz encendida. Desde fuera parece habitada, pero por dentro no hay nadie vigilando. Un actor malicioso podría intentar secuestrar esa simulación, manipularla o hacerla decir cosas que nunca dirías. En ciberseguridad, la suplantación ya es un problema serio; con un “tú” automático, la superficie de ataque crece.El tercer punto es el duelo. Expertos y críticos de la llamada grief tech advierten que estas herramientas pueden complicar procesos emocionales, sobre todo si la simulación se presenta con demasiado realismo o si aparece sin que el entorno lo pida. Algunas coberturas periodísticas han subrayado el potencial de daño psicológico y la falta de salvaguardas claras en una industria emergente.No es ciencia ficción: el mercado de la “grief tech” ya existeMeta no está sola en este terreno. En los últimos años han proliferado proyectos que prometen formas de “continuidad” digital, desde chatbots entrenados con conversaciones hasta sistemas que registran entrevistas para recrear respuestas. En el debate suelen aparecer nombres como Replika y distintas iniciativas orientadas a memoria y acompañamiento, además de proyectos centrados en testimonios y reconstrucciones. La propia prensa ha encuadrado este fenómeno como un sector creciente alrededor del “más allá digital”.El punto importante no es si estas soluciones son “buenas” o “malas” en abstracto, sino que ya están bajando a tierra. Por eso una patente de una plataforma masiva pesa distinto: la escala cambia el impacto. Lo que en una startup es una opción para quien la busca, en una red social puede convertirse en una configuración por defecto, un aviso confuso o una casilla marcada sin comprender las implicaciones.Qué puedes hacer hoy con tu huella digital sin esperar a que llegue esta funciónAunque Meta diga que no planea implementar el uso para personas fallecidas, el debate sirve como recordatorio práctico: tu legado digital existe ahora. La mejor manera de evitar sorpresas es decidir en vida qué debe pasar con tus cuentas y tus datos.Si lo piensas como una llave, tu cuenta no es solo un álbum; es también una puerta de entrada a conversaciones, contactos y posibles verificaciones de identidad. Revisar ajustes de privacidad, limitar qué se comparte públicamente y establecer una persona de confianza o un plan de herencia digital puede reducir escenarios desagradables. Algunas plataformas ya ofrecen opciones de conmemoración, eliminación o gestión póstuma; el problema es que casi nadie las mira hasta que las necesita.También merece atención lo que no está dentro de una sola red: brokers de datos, directorios, copias de perfiles y rastros repartidos. Cuando tu información está desperdigada, entrenar “un tú aproximado” se vuelve más fácil para terceros, aunque no sea Meta. La lección de fondo es que la privacidad no es un interruptor, es mantenimiento.La pregunta incómoda: ¿quién es el dueño de “tu yo” digital?La patente y las reacciones alrededor de ella apuntan a una discusión que apenas empieza: la propiedad y los límites de la identidad digital. Si un sistema puede generar mensajes “como tú”, ¿eso es una extensión de tu persona o un producto derivado de tus datos? Si comete un daño reputacional, ¿a quién se atribuye? Si tu familia quiere apagarlo y alguien más quiere mantenerlo, ¿qué pesa más?Por ahora, el documento muestra que la tecnología para simular presencia en redes sociales es técnicamente plausible y estratégicamente atractiva para plataformas. Y que, antes de que llegue cualquier “modo post-vida”, el trabajo urgente es social: normas, consentimiento explícito, controles, auditorías y transparencia real sobre qué datos entrenan a qué modelos.La noticia Meta patenta una IA capaz de mantener tus redes “vivas” tras tu muerte: qué significa y por qué inquieta fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.