YouTube niega haber usado IA para eliminar masivamente tutoriales tecnológicos

Wait 5 sec.

La comunidad de creadores tecnológicos de YouTube lleva días en estado de alarma. Cientos de vídeos educativos han comenzado a desaparecer del portal sin previo aviso. Muchos de estos contenidos, que durante años habían sido tolerados e incluso promovidos por la plataforma, fueron repentinamente marcados como “peligrosos” o “dañinos”, lo que desató una ola de sospechas: ¿estaba YouTube dejando la moderación de contenidos en manos de la inteligencia artificial?Una oleada de eliminaciones sin explicación claraTodo comenzó cuando creadores veteranos, como el youtuber británico Brian White, conocido por su canal de tutoriales sobre Windows y hardware, notaron que algunos de sus vídeos más populares estaban siendo retirados. Se trataba de los llamados bread and butter videos, es decir, los contenidos que generan el grueso de las visualizaciones y los ingresos del canal. En declaraciones a Ars Technica, White explicó que "estos vídeos habían sido promovidos por el propio YouTube en el pasado, y que no violaban ninguna norma evidente*.Lo inquietante no fue solo la eliminación de los vídeos, sino la velocidad con la que se rechazaban las apelaciones. White asegura que uno de sus recursos fue denegado en menos de un minuto, un tiempo tan corto que resultaba imposible que hubiera intervenido un revisor humano. “Era evidente que hablaba con un bot, no con una persona”, afirmó. La sensación general entre los creadores era que un sistema automatizado de IA estaba tomando decisiones arbitrarias, sin posibilidad real de revisión humana.El caso no era aislado. Otro creador, conocido como Britec09, con casi 900.000 suscriptores, denunció que uno de sus vídeos también fue eliminado por “contenido peligroso o dañino”. A diferencia de White, sí recibió un “strike”, una advertencia formal que podría llevar a la suspensión de su cuenta si acumula tres en un periodo de 90 días. Britec aseguró que la situación le ha causado pérdidas económicas importantes, al tener que pausar acuerdos de patrocinio y reducir su actividad por miedo a más sanciones.Ambos creadores coinciden en que solo los vídeos recientes parecen verse afectados. Pero el temor va más allá: si la supuesta automatización se aplicara también a material antiguo, años de trabajo podrían desaparecer “en un abrir y cerrar de ojos”.YouTube niega el uso de moderación automatizadaAnte la polémica, YouTube emitió un comunicado negando que las eliminaciones se deban a la inteligencia artificial. Según la compañía, las decisiones recientes fueron tomadas por moderadores humanos, aunque no explicó cómo es posible que algunas apelaciones fueran rechazadas en cuestión de segundos.White y otros creadores no quedaron convencidos. En sus vídeos más recientes, apuntan que el propio sistema de soporte de YouTube parece gestionado por IA, ya que incluso cuando piden hablar con un supervisor reciben respuestas automáticas “sospechosamente genéricas”. “No estamos seguros de qué podemos publicar ahora mismo”, lamentó White. “Todo son teorías, porque YouTube no nos da ninguna explicación concreta.”Parte de la confusión proviene de la aparente contradicción entre las recomendaciones internas de contenido que ofrece YouTube a sus creadores y las normas que luego aplica. Britec mostró capturas de pantalla en las que el propio sistema de sugerencias de YouTube lo instaba a crear vídeos sobre instalación de Windows 11 en equipos no compatibles, los mismos temas que ahora están provocando las sanciones. “El sistema te anima a hacer ese tipo de vídeos, y si lo haces, te arriesgas a perder tu canal”, denunció.Los creadores han propuesto varias hipótesis para entender lo que está ocurriendo. Algunos sospechan que la plataforma podría estar reforzando sus mecanismos de detección de piratería, y que los tutoriales para instalar Windows sin una cuenta de Microsoft podrían haberse visto afectados por error. Sin embargo, White aclara que sus vídeos exigen una licencia válida y que Microsoft nunca ha pedido su retirada.Otros creen que YouTube podría estar probando nuevas herramientas de moderación impulsadas por IA, pero que aún no han sido calibradas correctamente. Según White, es posible que la compañía haya permitido que la inteligencia artificial identifique posibles infracciones sin imponer sanciones automáticas, como una forma de ensayo interno. Pero ni él ni sus colegas tienen forma de confirmarlo.El malestar no se limita a los creadores afectados. En foros como Reddit, los usuarios han comenzado a descargar y archivar tutoriales por miedo a que desaparezcan. Muchos de estos vídeos, aunque triviales para el gran público, son referencias esenciales para comunidades de reparación, mantenimiento o instalación de software, y su pérdida dejaría un vacío significativo en el ecosistema educativo digital.Para YouTube, la situación llega en un momento delicado. La compañía lleva meses integrando inteligencia artificial en sus sistemas de gestión y recomendación de contenido, lo que genera dudas sobre el equilibrio entre automatización y control humano. En el pasado, la empresa ha reconocido que su IA interviene en procesos de detección y filtrado, pero asegura que siempre hay una revisión humana en las decisiones críticas.Un dilema sobre el futuro de la moderación en líneaEl caso de White y Britec plantea una cuestión más amplia: ¿hasta qué punto puede confiarse en la inteligencia artificial para moderar el conocimiento técnico? Los algoritmos, diseñados para evitar daños o infracciones, pueden acabar suprimiendo información legítima y penalizando a quienes educan. En un contexto donde los creadores dependen económicamente de sus canales, una decisión errónea del sistema puede significar la pérdida total de ingresos o reputación.Por ahora, YouTube insiste en que no hay una política nueva y que las eliminaciones fueron revisadas manualmente, pero los creadores no se sienten tranquilos. “Antes, podías hablar con una persona y solucionar un malentendido —recordó White—. Ahora, sientes que estás discutiendo con una máquina.”La sensación general es de incertidumbre. Muchos temen que los criterios de moderación se estén volviendo opacos y arbitrarios, y que la creatividad y el valor educativo de los tutoriales tecnológicos se vean sacrificados por un exceso de automatización. Si el conocimiento técnico empieza a desaparecer “por precaución algorítmica”, dicen los creadores, el mayor perjudicado será el propio público.El artículo YouTube niega haber usado IA para eliminar masivamente tutoriales tecnológicos fue publicado originalmente en Andro4all.