Gli occhiali smart iniziano a entrare nella vita quotidiana, spesso senza che chi ci sta intorno se ne accorga davvero. Nel caso dei Meta Ray-Ban, però, una nuova inchiesta solleva dubbi sui quali merita riflettere: video personali, anche molto intimi, finirebbero davanti agli occhi di revisori umani dall'altra parte del mondo.Il quadro che emerge non riguarda soltanto chi indossa gli occhiali, ma anche chi compare nei filmati senza saperlo. E costringe a chiedersi quanto siano davvero trasparenti le aziende quando parlano di IA, analisi dei dati e tutela della privacy. Gli occhiali Meta Ray-Ban permettono di registrare video in due modi: con una ripresa manuale classica, attivata dall'utente, e tramite la funzione di IA che analizza ciò che si sta guardando per rispondere a domande (per esempio riconoscere un oggetto o un'auto).Nel secondo caso è noto che le immagini devono passare dai server di Meta per essere elaborate. Il punto critico, emerso dal report del sito svedese SVD, è che parte di queste clip arriverebbe anche a annotatori umani, incaricati di etichettare gli oggetti presenti nei video.Secondo le testimonianze raccolte, questo lavoro di annotazione è affidato a un fornitore terzo in Kenya, dove i dipendenti visionano brevi spezzoni di vita quotidiana ripresi dagli occhiali, in teoria per "addestrare" meglio i sistemi di riconoscimento. Alcuni lavoratori in Kenya descrivono un ambiente di lavoro definito sgradevole, proprio per il tipo di contenuti che si trovano davanti. Nei video comparirebbero bagni, rapporti sessuali, persone nude o in momenti estremamente privati, apparentemente ripresi all’interno di case occidentali.Le clip includerebbero anche elementi come carte di pagamento e altri dati sensibili, che non dovrebbero finire in mano a revisori umani. Ex dipendenti di Meta sostengono infatti che il sistema dovrebbe escludere automaticamente i contenuti più delicati, ma questo filtro si basa su algoritmi che, come spesso accade, non funzionano sempre in modo affidabile.Resta poco chiaro in quali circostanze vengano catturate le scene più intime: in alcuni casi sembra un uso volontario degli occhiali durante il sesso, in altri si parla di persone che indossano gli occhiali mentre il partner passa nudo sullo sfondo. In ogni scenario, però, il risultato è lo stesso: materiale che molti considererebbero strettamente privato finisce in un flusso di revisione umana. Uno dei punti più critici riguarda la mancanza di chiarezza su cosa venga effettivamente inviato ai server di Meta e per quanto tempo. Quando si usa la funzione di IA degli occhiali, non è spiegato in modo concreto se la registrazione si ferma subito dopo la risposta, se continua per qualche secondo o se resta attiva più a lungo in attesa di altre domande.L’inchiesta cita un’analisi del traffico di rete dell’app collegata agli occhiali, che mostra contatti frequenti con server di Meta in Svezia e Danimarca, ma senza dettagli tecnici su quali dati vengano trasferiti. Questo rende difficile capire dove finisca il confine tra il minimo indispensabile per fornire la funzione di IA e una raccolta di dati più estensiva.Le stesse condizioni d’uso di Meta non aiutano: parlano in modo generico della possibilità che le interazioni con le IA, inclusi i contenuti delle conversazioni e dei messaggi, possano essere riviste in modo automatico o manuale. Alla richiesta di chiarimenti da parte di SVD, l’azienda si sarebbe limitata a rimandare ai documenti legali già pubblici, senza entrare nel merito di cosa succede nello specifico con i Ray-Ban. Se le informazioni riportate verranno confermate, il vero problema non riguarda solo Meta, ma il modello con cui molte aziende gestiscono i dati per addestrare le proprie IA. La presenza di revisori umani non è una novità, ma spesso resta nascosta dietro formule vaghe nelle informative sulla privacy.Per chi indossa gli occhiali smart, la lezione è semplice ma scomoda: meglio non puntare mai un dispositivo del genere verso qualcosa di sensibile, sia questo soggetto umano o meno, in particolare quando sono coinvolte funzioni basate sull'intelligenza artificiale.In attesa di regole più stringenti e di spiegazioni più precise da parte delle aziende, l'unica difesa reale resta un uso più prudente di qualsiasi funzione basata su IA, soprattutto quando entra in gioco la vita privata di chi ci circonda.L'articolo Il caso dei video "sensibili" inviati dai Meta Ray-Ban a revisori umani sembra essere il primo su Smartworld.