Gli studi evidenziano la necessità di agire per un'IA responsabile: deficit di governance nelle aziende

L'IA responsabile nelle aziende è attualmente un'eccezione.
Categorie:
Immagine di Marcus Belke

Marcus Belke

CEO di 2B Advice GmbH, che guida l'innovazione nella privacy conformità e di gestione del rischio e di guidare lo sviluppo di Ailance, la nuova generazione di prodotti per la salute. conformità piattaforma.

Intelligenza artificiale è da tempo parte integrante della vita aziendale quotidiana. Le aree di applicazione vanno dall'automazione e dal supporto alle decisioni ai nuovi modelli di business. Tuttavia, mentre il suo utilizzo è in rapida crescita, lo sviluppo di strutture per un'IA responsabile e la sua governance è in ritardo. Diversi studi recenti mostrano chiaramente come le aziende traggano vantaggio dall'IA, ma allo stesso tempo manchino di fiducia a causa della mancanza di governance, Conformità e sicurezza.

L'IA come acceleratore e rischio

La stragrande maggioranza delle aziende sta già utilizzando l'IA, ma solo un numero esiguo ha una governance matura per l'IA responsabile. Secondo un attuale studio McKinsey del gennaio 2025 Sebbene quasi tutte le aziende stiano investendo nell'IA, solo 1 % dell'implementazione dell'IA viene definita "matura". Ciò significa che l'IA è integrata nei processi lavorativi e ha quindi un impatto positivo misurabile sul successo economico.

Fonte: Rapporto McKinsey "Superagency in the workplace: Empowering people to unlock AI's full potential" (pubblicato il 28 gennaio 2025)

Risultati simili sono mostrati dal grafico "Rapporto sulla governance dell'intelligenza artificiale di Trustmarque" da luglio 2025Il 93 % delle aziende intervistate utilizza l'IA almeno in qualche forma, ma solo il 7 % ha stabilito un quadro di governance dell'IA pienamente integrato. Di conseguenza, Trustmarque descrive la discrepanza come "un chiaro divario" tra l'uso diffuso dell'IA e la mancanza di governance.

Questo gap di governance si riflette anche nella mancanza di integrazione nei processi di sviluppo. Secondo Trustmarque, solo 8 % delle organizzazioni hanno integrato la governance dell'IA nel ciclo di sviluppo del software. Spesso i processi e gli strumenti tradizionali non sono stati adattati ai rischi specifici dell'IA. Ad esempio, meno di un terzo delle aziende utilizza test di polarizzazione o test di spiegabilità dei modelli. In molti casi, mancano anche l'infrastruttura e il monitoraggio: solo il 4 % delle aziende ritiene che il proprio ambiente IT sia pronto per l'IA su scala.

Fonte: Relazione sulla governance di Trustmarque AI (pubblicata il 21 luglio 2025)

Mancanza di linee guida per un'IA responsabile

I deficit di governance iniziano dalle basi. Per esempio un'indagine di OneTrust/OCEGche il 62 % delle aziende intervistate non dispone di un piano di governance documentato e il 58 % non sa quali sistemi di IA siano in uso. Non sorprende quindi che il 70 % degli intervistati abbia poca fiducia nelle proprie strategie di rischio.

Altrettanto preoccupante: secondo un rapporto di NTT Data, il 72 % dei manager intervistati ammette di non aver formulato una politica aziendale sull'IA per un uso responsabile. Allo stesso tempo, la maggioranza dei manager ammette di avere lacune nella conoscenza dell'IA. 67 % affermano che i loro dipendenti non hanno le competenze necessarie per lavorare efficacemente con l'IA.

Fonte: NTT Date "The AI Responsibility Gap: Why Leadership is the Missing Link" (pubblicato il 12 febbraio 2025)

Questi risultati evidenziano carenze significative nella governance e nella formazione che devono essere affrontate per utilizzare l'IA in modo sicuro e con successo.

IA responsabile: responsabilità frammentate

La conseguenza di queste lacune è la frammentazione delle responsabilità. In molte aziende, la governance dell'IA esiste solo nei silos dei singoli dipartimenti. Come ha rilevato Trustmarque, solo 9 % delle organizzazioni hanno raggiunto un allineamento tra la leadership IT e il team di governance, mentre 19 % non hanno una persona chiaramente designata come responsabile della governance dell'IA.

Nella maggior parte dei casi, la supervisione dell'IA rimane a livello dipartimentale invece di essere strategicamente ancorata a tutti i dipartimenti. Solo il 20 % delle organizzazioni ha istituito un organo di governance dell'IA interfunzionale. Questo approccio isolato rende difficile una governance coerente ed efficace e comporta il rischio che non si tenga adeguatamente conto di prospettive importanti, ad esempio in ambito legale, etico o di risorse umane.

Compito della direzione: modernizzare la governance dell'IA

Molte organizzazioni si stanno rendendo conto che i metodi di governance tradizionali non riescono a tenere il passo dello sviluppo dell'IA. Secondo "The 2025 AI-Ready Governance Report" di OneTrust, i responsabili stanno dedicando 37 % di tempo in più alla gestione dei rischi legati all'IA rispetto all'anno precedente. Questo è un indice di quanto l'IA stia gravando sui processi di compliance e di gestione del rischio esistenti.

Fonte: OneTrust "The 2025 AI-Ready Governance Report" (pubblicato il 9 settembre 2025)

Di conseguenza, gli esperti chiedono un cambio di direzione ai massimi livelli. Il rapporto NTT Data descrive la leadership come "l'anello mancante" per un'IA responsabile. Oltre l'80 per cento dei dirigenti ritiene che la leadership, la governance e lo sviluppo della forza lavoro non siano attualmente in grado di tenere il passo con i progressi dell'IA. È quindi necessario un cambiamento culturale e gestionale.

Per il management aziendale, ciò significa rendere la governance dell'IA una priorità assoluta. Gli esperti lo consigliano nel Rapporto NTT Data, responsabile Ancorare l'IA fin dall'inizio ("by design") e creare strutture di governance interdivisionali. Ciò include la valutazione proattiva dei rischi dell'IA e l'implementazione di controlli adeguati. E non solo poco prima del go-live, ma durante l'intero ciclo di vita dell'IA. I manager devono anche assicurarsi che i dipendenti abbiano le competenze necessarie per lavorare in modo sicuro ed efficace con le tecnologie AI. Responsabilità, linee guida e formazione chiare possono creare una cultura dell'IA affidabile, in cui innovazione e controllo vanno di pari passo.

Conclusione: la governance come fattore di successo nell'era dell'IA

I dati tracciano un quadro chiaro: l'IA è già onnipresente nelle aziende, ma le precauzioni organizzative non tengono il passo. Molte aziende operano in una pericolosa zona grigia. Sebbene traggano vantaggio dall'IA, stanno mettendo a rischio la loro reputazione e il Conformità a rischio a causa della mancanza di guardrail. Per sfruttare appieno il potenziale dell'IA senza cadere in crisi di fiducia o in trappole normative, le aziende devono agire subito e modernizzare la propria governance:

  1. Sviluppare linee guidaStabilire politiche chiare per l'uso responsabile dell'IA.
  2. Chiarire le responsabilitàCreare strutture di governance efficaci tra le varie divisioni.
  3. Costruire le competenzeFormare i dipendenti all'uso sicuro dell'IA.
  4. Gestione dei rischiRegistrare l'inventario di tutti i sistemi di IA, monitorare costantemente i rischi.
  5. Assumere il comandoAncorare la governance come argomento strategico nel top management.


Le aziende che svolgono questo compito avranno un vantaggio competitivo. Potranno utilizzare l'IA per creare valore affidabile, mentre altre potrebbero essere rallentate da incidenti e perdita di fiducia. Il motto è quindi investire subito nella governance per dare forma alla rivoluzione dell'IA in modo sostenibile e responsabile.

Il vostro prossimo passo: la governance di Ailance AI

Sfruttare tutto il potenziale dell'intelligenza artificiale senza lacune nella governance. Con Ailance AI Governance è possibile creare strutture chiare, processi documentati e responsabilità trasparenti. Questo vi permette di gestire efficacemente le iniziative di intelligenza artificiale, ridurre i rischi e soddisfare i requisiti normativi.

Suggerimento: Governance Ailance AI

Parlate con i nostri esperti e scoprite come Ailance può aiutare la vostra azienda a utilizzare l'IA in modo responsabile e redditizio.

Marcus Belke è amministratore delegato di 2B Advice, nonché avvocato ed esperto di informatica per Protezione dei dati e digitale Conformità. Scrive regolarmente di governance dell'IA, conformità al GDPR e gestione del rischio. Potete trovare maggiori informazioni su di lui sul sito Pagina del profilo dell'autore.

Tag:
Condividi questo post :