La battaglia di YouTube contro l'intelligenza artificiale scadente

Wait 5 sec.

AGI - YouTube si prepara a introdurre nuove regole per contrastare la proliferazione di contenuti non autentici e prodotti in serie grazie all’uso sempre più diffuso dell’intelligenza artificiale. A partire dal 15 luglio, la piattaforma di proprietà di Google aggiornerà le proprie norme di monetizzazione del YouTube Partner Program (YPP), con l’obiettivo di chiarire in modo più preciso quali tipi di contenuti potranno generare guadagni per i creator e quali invece ne saranno esclusi. Secondo quanto spiegato in una pagina del Centro assistenza, l’obbligo per i creator di pubblicare contenuti “originali” e “autentici” esiste da sempre. Ma in un contesto in rapida evoluzione, dominato da chatbot, voiceover sintetici e strumenti AI generativi, si è reso necessario un refresh normativo che renda più chiara la definizione di “contenuto non autentico”.Nei giorni scorsi alcuni creator avevano espresso dubbi e preoccupazioni, temendo che l’aggiornamento potesse colpire anche formati diffusi come i reaction video o i contenuti che rielaborano clip già presenti online. Ma secondo quanto riportato da TechCrunch, YouTube ha rassicurato che non si tratta di nuove restrizioni, bensì di un aggiornamento volto a rafforzare l’applicazione delle policy esistenti, in particolare nei confronti di contenuti eccessivamente ripetitivi o generati in massa.In un video pubblicato martedì, Rene Ritchie, responsabile dei rapporti con i creator di YouTube, ha chiarito che quei contenuti considerati “spam” dagli utenti – come video generati automaticamente senza valore aggiunto – sono già da anni esclusi dalla monetizzazione. L’aggiornamento, ha spiegato, serve solo a rendere più esplicito ciò che YouTube già pratica da tempo. Come sottolinea anche The Verge, “l’aggiornamento non modifica le regole, ma mira a migliorare il modo in cui YouTube le applica”. In un momento in cui i contenuti generati da AI stanno invadendo la piattaforma, dal true crime fittizio fino ai video deepfake, YouTube cerca così di proteggere la qualità dell’esperienza e limitare il rischio di spam e disinformazione.Il fenomeno dell'AI slopCiò che YouTube non chiarisce del tutto – almeno secondo quanto evidenzia TechCrunch – è quanto sia oggi più semplice produrre contenuti di bassa qualità grazie all’intelligenza artificiale. Il fenomeno ha già un nome: “AI slop”, termine che indica contenuti realizzati con strumenti di AI generativa, spesso assemblati in modo automatizzato con voice-over sintetici, immagini riciclate, video di repertorio o musica artificiale. Alcuni canali costruiti interamente su musica generata da AI hanno già raccolto milioni di iscritti, mentre video fake su eventi reali, come il processo a Diddy, hanno ottenuto milioni di visualizzazioni.Ecco perché, nonostante YouTube definisca l’aggiornamento in arrivo come un semplice “ritocco” alle norme esistenti, in molti lo interpretano come un vero e proprio giro di vite: un tentativo di limitare in modo sistematico l’accesso alla monetizzazione per i creator che diffondono contenuti di questo tipo. Una mossa difensiva, ritenuta necessaria da diversi osservatori per salvaguardare la reputazione della piattaforma e arginare una deriva fatta di contenuti sintetici, generici e fuorvianti, che rischiano di erodere la fiducia degli utenti.