analisi del report dell'organizzazione. la sfida resta la governance
Ocse: boom dell’Ai nella finanza italiana
L’impiego dell’intelligenza artificiale (IA) è in aumento nel settore finanziario italiano, principalmente nei comparti assicurativo e bancario. Si tratta di una trasformazione già in atto, ma ancora lontana dalla maturità, la cui piena integrazione richiederà un equilibrio tra innovazione, governance e regolamentazione.
È quanto emerge dal rapporto finale basato su un’indagine realizzata nel secondo trimestre del 2025 su 450 operatori del settore, presentato lo scorso 24 aprile a Roma durante l’evento conclusivo del progetto “Artificial Intelligence in Italian Financial Markets – From Analysis to Action”, promosso dall’Ocse e ospitato dalla Banca d’Italia.
Il progetto, avviato nel 2024, ha l’obiettivo di aiutare la Banca d’Italia e le altre autorità finanziarie italiane a individuare, comprendere e affrontare le implicazioni di policy e di vigilanza derivanti dall’utilizzo dell’IA nei mercati finanziari italiani, contribuendo in ultima analisi a una maggiore stabilità, resilienza ed efficienza.
CRESCE L’ADOZIONE DELL’AI
L’uso dell’intelligenza artificiale è ormai una realtà consolidata per una parte significativa del sistema finanziario italiano. Il 39% degli intervistati dichiara di impiegarla nelle attività quotidiane, con picchi nei comparti assicurativo (70%) e bancario (59%). Più contenuta la diffusione tra gli operatori dei mercati finanziari come i gestori di portafogli, i gestori patrimoniali e i consulenti d’investimento, dove l’adozione si attesta intorno al 31 per cento. Ciononostante questi ultimi stanno compiendo progressi nella sperimentazione dell’IA e si aspettano di ampliarne l’utilizzo nelle aree principali connesse con i mercati finanziari.
Il fermento è evidente: tra gli intervistati del mercato finanziario che utilizzano l’IA, i gestori di portafoglio hanno segnalato circa mille casi d’uso tra sperimentazione e produzione, mentre le banche superano quota 2.500. Le banche si sono inoltre collocate al primo posto per il numero medio di casi d’uso per partecipante; anche le imprese di assicurazione e riassicurazione riportano medie elevate.
DALLA LOTTA ALLE FRODI AL PORTAFOGLIO
Sul piano operativo, l’IA trova applicazione soprattutto nella individuazione e prevenzione delle frodi, destinata a rimanere l’area dominante almeno fino al 2028. Le applicazioni specifiche del mercato finanziario su cui si è concentrata la maggior parte delle risposte includono l’allocazione degli attivi (come la gestione di portafoglio, la ricerca in materia di investimenti, la consulenza robotizzata, la consulenza finanziaria e l’analisi di mercato) e le strategie di negoziazione (come le attività di sottoscrizione, le IPO, la negoziazione algoritmica, la copertura dei rischi, l’analisi predittiva, le previsioni e il market-making).
Gli intervistati hanno segnalato più frequentemente di impiegare l’IA per l’analisi predittiva (21%), l’analisi di mercato (17%) e la ricerca in materia di investimenti (11%). Restano invece marginali gli impieghi legati allo sviluppo di nuovi prodotti o alle fasi di post-trading.
«Questi risultati – si legge nel report – suggeriscono che l’IA è utilizzata principalmente per funzioni aziendali che esulano dalle attività tipiche dei mercati finanziari».
QUALI VANTAGGI PORTA L’IA
I benefici percepiti abbracciano diversi settori. Tre imprese su quattro (75%) indicano miglioramenti nell’efficienza operativa, mentre il 62% segnala un aumento della produttività. Seguono il miglioramento dei processi interni (45%), la riduzione dei costi (30%) e migliori traduzioni (29%).
Nel front-office, l’impatto si traduce soprattutto in un miglioramento dei processi decisionali (49%) e nuove informazioni analitiche (22%). Tuttavia, il vantaggio più evidente offerto dall’IA è rappresentato da attività operative più rapide e meno costose.
LA GOVERNANCE TRA I RISCHI DA NON SOTTOVALUTARE
Se i benefici appaiono chiari, più complesso è il quadro dei rischi. I partecipanti all’indagine hanno spesso identificato in una governance debole una delle principali aree di rischio. Solo il 16% degli operatori ha adottato strutture specifiche per l’IA, mentre altri hanno adeguato quelli esistenti per gestire i suoi rischi. Infatti, tra gli intervistati che non dispongono di un assetto di governance, è stato osservato che i controlli già in funzione non specificamente riferiti all’IA (come le politiche e i codici di condotta in ambito IT) sono ritenuti, al momento, sufficienti.
La supervisione umana resta il principale presidio alla gestione dei rischi: metà degli intervistati utilizza la supervisione umana (human-in-the-loop), limitando l’autonomia delle applicazioni. Quanto ai rischi etici, le imprese puntano a garantire l’imparzialità dei modelli di intelligenza artificiale. In particolare, nei casi d’uso che coinvolgono terzi interessati (ad esempio, i clienti), alcune imprese evitano l’impiego di dati sensibili nello sviluppo di modelli di IA, come il genere o l’etnia.
Più deboli, invece, le misure contro rischi emergenti, in particolare quelli informatici: quasi il 46% delle imprese non ha ancora introdotto protezioni specifiche contro le minacce cyber legate all’IA.
REGOLE E INCERTEZZE NORMATIVE
Tra i principali ostacoli al più ampio impiego dell’IA nella finanza in Italia spiccano l’incertezza normativa e il potenziale disallineamento delle regole (anche se indicati come marginali). Una parte significativa dei partecipanti indica invece come ostacoli rilevanti le norme su protezione dei dati e proprietà intellettuale. Molti intervistati hanno menzionato anche la regolamentazione operativa e relativa ai terzi, nonché le norme riguardanti la governance, l’equità e la condotta dei mercati.
Accanto ai vincoli normativi, emergono quelli organizzativi e culturali: carenza di competenze, difficoltà nella gestione dei dati e costi di implementazione. Più marginali, almeno secondo gli intervistati, le preoccupazioni relative all’etica, alla conformità e alla responsabilità, nonché le questioni relative all’integrità del mercato e alla protezione dei consumatori o degli investitori, probabilmente grazie alle garanzie previste dalla normativa applicabile e dalle disposizioni del regolamento sull’IA.
IL RUOLO DELLE AUTORITÀ
Il rapporto dedica ampio spazio all’azione delle autorità italiane, impegnate a monitorare la diffusione dell’IA nel mercato interno e a favorire un’innovazione responsabile. Strumenti di supervisione, raccolta dati e strumenti di tecnologie di vigilanza (SupTech) in produzione e in sviluppo consentono già oggi di valutare l’entità dell’attuale adozione dell’IA da parte delle istituzioni finanziarie, mappare le tendenze attuali e il loro impatto e prevedere i potenziali sviluppi futuri nel settore.
LE POLICY PER SICUREZZA E RESPONSABILITÀ
Guardando avanti, il rapporto delinea una serie di considerazioni di policy principali per sostenere un’adozione responsabile dell’intelligenza artificiale, con l’obiettivo di migliorare la competitività dell’economia italiana, mantenendo al tempo stesso un elevato livello di tutela dei consumatori.
Le considerazioni di policy sono organizzate in otto aree:
- rafforzare una raccolta di dati coordinata, ricorrente e metodologicamente allineata circa l’adozione e l’esposizione all’IA
- promuovere e sostenere la chiarezza e la semplificazione del quadro normativo e di vigilanza
- richiedere ai soggetti vigilati l’attuazione di misure di governance dell’IA sufficientemente solide
- promuovere prassi e assetti di riferimento per la condivisione sicura dei dati
- promuovere e sostenere la cooperazione tra il settore pubblico e quello privato
- evidenziare e potenziare il ruolo dei facilitatori dell’innovazione
- sostenere la direzione strategica a livello di intero settore pubblico per lo sviluppo e l’utilizzo dell’IA nel settore finanziario
- rafforzare la capacità di supervisione.
Noemi Primini
Artificial intelligenceBanca d'ItaliaET.iaOcsestudiericerche