DeepNude, storia di un'app nata e uccisa dal suo ideatore

Wait 5 sec.

AGI - Una parabola breve ma intensa, che ha instillato nel dibattito già aperto altri temi, per lo più inquietanti. È la storia di DeepNude, un’applicazione basata su intelligenza artificiale progettata per rimuovere digitalmente i vestiti dai soggetti femminili nelle fotografie.Dopo la diffusione della notizia e le conseguenti reazioni dell'opinione pubblica, lo sviluppatore - noto con lo pseudonimo di "Alberto" - ha rimosso il software poche ore dopo la sua pubblicazione.Come funzionava DeepNudeL'applicazione si basava su pix2pix, un algoritmo open-source sviluppato nel 2017 dai ricercatori dell’Università della California, Berkeley. Il sistema utilizzava le Generative Adversarial Networks (GAN), un’architettura in cui due reti neurali competono tra loro per migliorare la precisione del risultato finale.Secondo quanto dichiarato dallo sviluppatore, l’algoritmo è stato addestrato su un dataset di oltre 10.000 immagini di nudi femminili. Il processo di elaborazione era caratterizzato da un’elevata efficienza: il software era in grado di produrre un'immagine manipolata in circa 30 secondi. Un limite tecnico del sistema riguardava i soggetti maschili: se applicato a foto di uomini, l'algoritmo non era in grado di operare correttamente, limitandosi a sovrapporre attributi anatomici femminili.Il modello di business e la chiusuraDeepNude era stato inizialmente rilasciato in due versioni: una gratuita con le immagini prodotte che presentavano una filigrana centrale con la scritta "FAKE"; l'altra a pagamento. Per 50 dollari la filigrana veniva ridotta e spostata in un angolo, rendendone agevole la rimozione tramite ritaglio.In una nota ufficiale rilasciata contestualmente alla chiusura, lo sviluppatore ha giustificato la decisione ammettendo che "la probabilità di un uso improprio è troppo alta". In precedenza, l'autore aveva difeso il progetto sostenendo che risultati simili fossero già ottenibili tramite software di fotoritocco tradizionale, sebbene con tempi di esecuzione nettamente superiori.Il contesto normativo e i precedentiIl caso DeepNude si inserisce in un dibattito globale più ampio sulla regolamentazione dei deepfake. Mentre l'attenzione pubblica si è spesso concentrata sulla disinformazione politica — come nei casi dei video manipolati di Nancy Pelosi e Mark Zuckerberg — il settore della pornografia non consensuale rappresenta una quota rilevante dell'utilizzo di queste tecnologie.Attualmente, le istituzioni stanno valutando risposte legislative specifiche. Negli Stati Uniti, la deputata Yvette Clarke ha presentato il Deepfakes Accountability Act, una proposta di legge volta a introdurre criteri di trasparenza e responsabilità per chi produce e diffonde contenuti manipolati tramite IA.