Perché è necessaria una governance del processo di decision making

Board a prova di intelligenza artificiale

18 Feb 2026
Notizie Companies & CSR Commenta Invia ad un amico
Il tema è stato esplorato durante la Cgc di Assonime: l'Ai può diventare un valido consulente del board ma è necessario adottare policy e definire le giuste competenze. L'obiettivo è garantire a monte la robustezza dell’output generato e ridurre i rischi di non chiarezza e di uso sbagliato del dato

Di intelligenza artificiale in azienda se ne parla più per il business che per il board. Eppure, governare l’Ai nell’ambito delle dinamiche del consiglio rappresenta un passaggio non rimandabile sia per il buon funzionamento del board sia per la gestione degli impatti Esg dell’azienda. Il tema è stato esplorato durante la sessione “Digital competences and technologies for better governance and board decision making” della Corporate Governance Conference organizzata lo scorso 12 febbraio da Assonime, insieme all’Ocse e con il supporto di Borsa Italiana.

Moderata da Margherita Bianchini, co-managing director di Assonime, la tavola rotonda ha messo a confronto le riflessioni di Matteo Del Fante, ceo di Poste Italiane; Alessandro Fracassi, ceo di Moltiply; Francesco Gianni, founding partner di Gianni & Origoni, Elena Goitini, ceo di Bnl; Giovanni Gorno Tempini, chair di Cassa Depositi e Prestiti; Fabio Pompei, ceo Italy and Central Mediterranean di Deloitte; Costanza Torricelli, board member di Anima Holding.

L’Ai può diventare un valido consulente del board: può aiutare a gestire la mole documentale pre-consiglio,  fare challenge delle informazioni che arrivano alla riunione del board e permettere di prendere decisioni in maniera diversa. Il rischio è sottovalutare le modalità di governo del suo utilizzo nelle varie fasi del decision making.

Le informazioni che arrivano al consiglio attraverso il ricorso all’Ai possono essere influenzate dalle domande che sono state utilizzate per “estrarre” le risposte dall’intelligenza artificiale. E quindi è giusto chiedersi: chi ha scelto la piattaforma di Ai? Chi ha posto le domande? Quale conoscenza c’è degli assunti di base con cui funziona l’intelligenza artificiale usata? Sono state poste le domande giuste? Da questi interrogativi nasce la riflessione sul concetto di “the power of questioning”, competenza che sta tornando sotto i riflettori a fronte di un contesto culturale in cui siamo stati educati a dare risposte e non a porre domande.

Una volta che le informazioni arrivano al board, inoltre, si può verificare uno slittamento silenzioso dal processo informativo al momento in cui decidiamo. In altri termini, si può passare senza accorgersi, e senza una dichiarazione formale del passaggio, dall’”Ai ci informa” all’”Ai di fatto decide”. Soprattutto  in contesti di modelli complessi, quale l’Ai, il rischio è prendere per buone le informazioni e disconnettere il senso critico, abdicando alla responsabilità decisionale. Al contrario, la responsabilità decisionale del consiglio non può e non deve essere ridotta, proprio perché l’Ai rappresenta uno strumento con algoritmi non pienamente valutabili al quale estendere la supervisione nell’ambito dei doveri di diligenza dei consiglieri.  Non uno strumento per avere risposte, quindi, ma per aumentare l’attività di challenge all’interno del board e migliorare la qualità delle decisioni finali, prestando attenzione a un ulteriore rischio: quello di perdere vantaggio competitivo seguendo informazioni generate “nella media” senza un vaglio critico e un processo solido di generazione dell’output.

La riflessione si sposta quindi sulla necessità di attuare un’adeguata formazione degli stessi consiglieri, che dovrebbero conoscere gli assunti dietro il funzionamento dei modelli di Ai e dovrebbero essere in grado di fare le domande giuste. E sull’opportunità di darsi policy chiare, che dettaglino anche come vengono costruiti i “prompt”, gli input testuali forniti all’Ai, quali sono le fonti di dati, e come i consiglieri vogliono usare l’output dell’intelligenza artificiale. Determinare a monte la robustezza dell’output generato riduce il rischio di non chiarezza e di uso sbagliato del dato, fattori che possono esporre a impatti avversi di medio periodo, inclusi quelli di natura etica ed Esg.

Elena Bonanni

 

 

0 commenti

Lascia un commento

Translate »