Non solo tecnologia, ma potere decisionale. Come andrebbe gestita l’Ai all’interno delle aziende

Wait 5 sec.

di Michele Tamburelli *Quando si parla di intelligenza artificiale nelle imprese, l’attenzione si concentra quasi sempre sugli aspetti tecnologici: quale provider scegliere, dove si trovano i server, se i dati vengono utilizzati per addestrare i modelli, quali clausole inserire nei contratti con i fornitori. Sono questioni rilevanti, ma non centrali. La domanda decisiva è un’altra: chi governa l’intelligenza artificiale dentro l’organizzazione? L’AI non è soltanto uno strumento informatico. È un sistema che incide sui processi decisionali: selezione del personale, valutazione delle performance, assegnazione dei turni, monitoraggio della produttività, gestione delle carriere. In altre parole, interviene sui rapporti di potere interni all’impresa.Molte aziende stanno delegando la gestione dell’AI all’IT. È una scelta comprensibile: si tratta pur sempre di tecnologia. Ma l’IT può valutare sicurezza, integrazioni, architetture cloud, livelli di accesso. Non può, da sola, valutare l’impatto sull’organizzazione del lavoro, sulla legittimità dei controlli a distanza, sulle dinamiche sindacali o sulla coerenza con il modello gestionale dell’impresa. Allo stesso modo, non basta il DPO (Data Protection Officer), il responsabile della protezione dei dati previsto dal GDPR. Il suo ruolo è essenziale per garantire la conformità normativa. Tuttavia, la compliance documentale non coincide con la governance reale.Redigere una DPIA (Data Protection Impact Assessment), cioè una valutazione d’impatto sulla protezione dei dati, o firmare un DPA (Data Processing Agreement) con un fornitore significa presidiare il rischio giuridico. Non significa decidere se e fino a che punto delegare potere decisionale a un sistema algoritmico.Un esempio aiuta a comprendere il problema. In molte aziende i dipendenti utilizzano quotidianamente chatbot generativi per velocizzare il lavoro: redigere email, sintetizzare report, riformulare documenti. Fin qui nulla di anomalo. Il punto critico emerge quando, per ottenere una risposta più precisa, vengono inseriti nel prompt dati personali di colleghi, clienti o candidati, oppure informazioni riservate su procedimenti disciplinari, trattative sindacali o performance individuali. In assenza di una DPIA e senza linee guida interne chiare, il lavoratore non ha alcun orientamento concreto su cosa possa o non possa essere condiviso. L’errore non nasce necessariamente da malafede, ma dall’assenza di regole e formazione. E il rischio, in questi casi, diventa sistemico.Il problema non è soltanto la possibile violazione della privacy. È la progressiva normalizzazione dell’uso dell’AI come strumento neutro, privo di implicazioni organizzative. Quando l’intelligenza artificiale entra nei software HR o nei sistemi di gestione, spesso lo fa in modo invisibile. Non è più un “tool esterno”, ma una funzione incorporata nei processi. E ciò che è invisibile tende a non essere governato.L’AI Act europeo classifica molti sistemi utilizzati in ambito HR come ad alto rischio. Questo comporta obblighi di documentazione, valutazione e supervisione umana. Ma la norma, da sola, non crea cultura organizzativa. Può imporre adempimenti, non può costruire responsabilità diffusa.Per questo il vero nodo non è tecnico ma organizzativo. Governare l’intelligenza artificiale significa chiedersi non solo se un trattamento sia lecito, ma chi decide, con quali criteri, con quali limiti e con quali possibilità di revisione umana. Significa stabilire regole interne chiare: quali sistemi possono essere adottati, per quali finalità, con quale coinvolgimento delle risorse umane e dei rappresentanti dei lavoratori.In questo contesto la formazione non è un adempimento formale, ma uno strumento di governo. Spiegare ai dipendenti cosa significa minimizzazione dei dati, quali informazioni non devono essere inserite in un chatbot, quali strumenti aziendali sono autorizzati e quali no, significa ridurre in modo sostanziale il rischio. Allo stesso modo, la consulenza non serve soltanto a redigere documenti, ma a costruire un perimetro operativo condiviso tra IT, risorse umane e funzione legale.Nei prossimi anni le imprese dovranno scegliere se limitarsi a utilizzare strumenti sempre più sofisticati oppure dotarsi di una vera architettura di governo dell’AI. La differenza non sarà nella potenza dell’algoritmo, ma nella capacità di mantenere il controllo sulle decisioni che incidono sulle persone. La questione non è uomo contro macchina. È responsabilità contro automatismo. Ed è su questo terreno che si gioca la qualità futura dell’organizzazione del lavoro.*Laureato in Diritto del Lavoro e Relazioni Industriali, ha maturato esperienze in ambito risorse umane sia in contesti aziendali che sindacali, consolidando competenze in diritto del lavoro, formazione e salute e sicurezzaL'articolo Non solo tecnologia, ma potere decisionale. Come andrebbe gestita l’Ai all’interno delle aziende proviene da Il Fatto Quotidiano.