A veces la realidad tiene un sentido del timing difícil de mejorar. Meta anunciaba esta semana un nuevo paquete de stock options para sus ejecutivos, condicionado a que la compañía alcance una valoración de 9.4 billones de dólares en 2031, desde los aproximadamente 1.5 actuales. Horas después, despedía a cientos de empleados. Y apenas unas horas más tarde, un jurado en Los Angeles declaraba a Meta y a YouTube responsables por negligencia en un caso centrado, precisamente, en el evidente carácter adictivo de sus productos. La secuencia es casi pedagógica. Por un lado, una compañía que intenta proyectar una confianza casi delirante en su futuro. Por otro, la realidad: despidos, incertidumbre, y lo más importante, un sistema judicial que empieza a señalar lo evidente. En Nuevo México, un jurado concluyó que Meta dañó conscientemente la salud mental y la seguridad de los menores, mientras que en Los Angeles se reconoce ya la responsabilidad directa por diseñar productos adictivos. No estamos ante errores puntuales, sino ante un clarísimo y evidente patrón que todos conocemos perfectamente.El caso de Los Ángeles no es uno más: es el primero de miles de demandas similares interpuestas por familias que acusan a estas compañías de haber construido productos diseñados para enganchar y perjudicar la salud mental. Y aunque las indemnizaciones no hayan sido espectaculares y el mercado haya reaccionado con aparente indiferencia, el precedente es lo verdaderamente importante: por primera vez, un jurado acepta que el problema está en el diseño. Y ese es el punto clave que llevamos años ignorando deliberadamente. Estas plataformas no «se han torcido». Funcionan exactamente como fueron concebidas, con el mismo nivel de irresponsabilidad criminal. Su objetivo es maximizar el tiempo de permanencia, intensificar la interacción y convertir cada emoción en datos monetizables. La adicción no es un fallo: es el modelo. Los cabreos que te pillas leyendo tus redes no son casuales, están provocados porque es la mejor manera de mantenerte ahí, leyendo más, escribiendo más, reaccionando más. Es, simplemente, un modelo tóxico. Lo hemos visto una y otra vez. Desde investigaciones como la de The Guardian sobre cómo Facebook e Instagram se convirtieron en mercados para el tráfico sexual infantil, hasta las advertencias de las autoridades sanitarias de los Estados Unidos o de la OMS Europa, que describen efectos claros sobre la salud mental y comportamientos adictivos. Y sin embargo, las compañías han seguido mintiendo como lo que son, absolutos irresponsables, y negando lo evidente. Dentro de algunos años, nos horrorizaremos leyendo lo que estas compañías, ante nuestra total dejadez, fueron capaces de hacer con nuestras sociedades. En realidad, no es que no lo supieran. Es que les daba exactamente igual. Como ya se ha documentado en múltiples ocasiones, incluyendo mis propios análisis en «Las redes sociales como toxina«, «Las redes sociales y las etiquetas de advertencia«, «Redes sociales: un experimento fallido que deberíamos haber clausurado hace años» o «Estafas y adicción: más razones por las qué Europa debería prohibir el modelo publicitario de las redes sociales«, por citar unos pocos de los muchísimos artículos que he escrito al respecto, el problema no es de ejecución, sino de incentivos. Ahora hay un elemento nuevo que muchos parecen ignorar: el precedente legal. Como señalaba recientemente Ars Technica, Meta perdió un juicio tras argumentar que la explotación infantil era «inevitable» en sus plataformas, una defensa que resulta tan reveladora como inquietante. Si los tribunales empiezan a asumir que diseñar productos adictivos genera responsabilidad, el modelo entero queda en entredicho. Y eso no es un problema menor para una compañía cuyo valor futuro depende precisamente de seguir enganchando criminalmente a sus usuarios. Porque, lejos de replantearse nada, sus ejecutivos hablan abiertamente de utilizar inteligencia artificial para hacer los feeds aún más personalizados y eficaces. Es decir, más adictivos. Exactamente lo que empieza a ser cuestionado. Mientras tanto, el deterioro del entorno informativo y democrático sigue avanzando. El Digital News Report del Reuters Institute advierte sobre la fragmentación informativa y la pérdida de peso del periodismo, y la Comisión Europea ha tenido que emitir directrices específicas para mitigar riesgos sistémicos en procesos electorales. Cuando una tecnología necesita ese nivel de intervención para no dañar la democracia, el problema no es superficial.Por eso resulta cada vez más absurdo seguir hablando de «mejorar» estas plataformas. No estamos ante un producto defectuoso, sino ante un modelo de negocio intrínsecamente tóxico. Uno que degrada la atención, amplifica la desinformación, incentiva la polarización y convierte la vulnerabilidad humana en ingresos.Llevo años diciendo que este experimento nunca debió permitirse en estos términos, como ya apuntaba en textos como «El juicio a Zuckerberg es solo la punta del iceberg«, «¿Europa sin redes sociales tóxicas?» o «Zuckerberg, el fact-checking y las amistades peligrosas«. Y lo que estamos viendo ahora no es un cambio de rumbo, sino simplemente el inicio de una rendición de cuentas largamente aplazada y que ha hecho muchísimo daño a la sociedad. La pregunta ya no es cómo reformarlas. La pregunta es por qué seguimos tolerando un sistema que, como empieza a demostrar la justicia, no solo es tóxico, sino estructuralmente incompatible con el bienestar de las personas y con la salud de nuestras democracias. Liquidémoslas, que paguen lo mejor que puedan por unos pocos de los daños causados con sus inmorales beneficios acumulados durante demasiados años, y acabemos con un modelo de negocio, el de la publicidad hipersegmentada, que está en la base de todos estos problemas y que jamás debimos permitir.