HomeBanche d'Italia

Banche, perché è ora di passare dall’AI alla XAI

Banche, perché è ora di passare dall’AI alla XAI

Al 2020, oltre la metà delle banche italiane utilizzava soluzioni basate sull’intelligenza artificiale (AI), con un trend in aumento per il triennio 2

Investimenti ESG: in tre anni l’ impronta carbonica del portfolio è scesa del 60%
Banche-fintech: quali sono le alleanze che creano valore?
La finanza decentralizzata sotto la rete di Bankitalia: rischi e opportunità

Al 2020, oltre la metà delle banche italiane utilizzava soluzioni basate sull’intelligenza artificiale (AI), con un trend in aumento per il triennio 2021-2023. Gli ambiti di maggior rilievo risultano gestione delle frodi, cybersicurezza, contact center, credito e supporto alle operation. Lo rileva l’indagine “L’Intelligenza Artificiale in banca: stato dell’arte e prospettive“, pubblicata sul sito Cipa (Convenzione Interbancaria Per l’Innovazione) nel giugno 2021. Ciononostante, l’AI spaventa molte banche a causa degli “algoritmi black box”.

L’AI e gli algoritmi “black box”

Gli algoritmi “black box” consistono nel fatto che i modelli di apprendimento automatico che hanno il compito di identificare schemi nei dati, fare previsioni e risolvere problemi complessi, sono spesso poco trasparenti e nascondono i loro meccanismi di base.

L’avvento della XAI

Per gestire le questioni di trasparenza e fiducia esiste la XAI, acronimo di “explicable AI”, nata proprio per rendere i modelli di IA più comprensibili e intuitivi per gli utenti umani, senza sacrificare le prestazioni o l’accuratezza delle previsioni. La comprensibilità sta diventando una preoccupazione sempre più pressante anche per le autorità di regolamentazione bancaria, che vogliono avere la certezza che i processi e i risultati dell’AI siano “ragionevolmente comprensibili” per i dipendenti delle banche. In questo senso, l’ampliamento delle tecniche di XAI sta diventando una priorità per molti istituti di credito. Alcuni di essi hanno collaborato con i principali specialisti della Carnegie Mellon University e dell’Università di Hong Kong per proporre nuovi usi della XAI, e hanno co-fondato laboratori di innovazione che mirano a produrre modelli di apprendimento automatico spiegabili che promuovano i loro obiettivi aziendali. Diverse banche stanno creando task force speciali per guidare le iniziative di comprensibilità dell’AI, in coordinamento con i loro team di AI e le loro business unit.

I vantaggi della XAI

La XAI può in primis far nascere un maggior numero di progetti pilota che coinvolgono l’AI nelle banche. Inoltre, gli strumenti di comprensibilità che offre possono sbloccare diversi tipi di informazioni su un modello, a seconda del tipo di risposte che si stanno cercando e dei tipi di approcci modellistici utilizzati. “Questi sforzi sono importanti per sostenere la protezione dei clienti e l’equità dei prestiti, identificando i parametri del modello che portano a un impatto disparato, comprendendo i compromessi nelle prestazioni del modello, sviluppando casi aziendali più convincenti per l’adozione del modello e l’accettazione da parte del management, garantendo una maggiore fiducia e credibilità nei modelli e prevenendo potenziali problemi di regolamentazione/conformità”, spiegano gli esperti di Deloitte.

Come implementare la XAI

L’implementazione della XAI richiede potenziali modifiche alle fonti di dati, allo sviluppo di modelli, all’interfaccia con i vari stakeholder, ai processi di governance e all’impegno con fornitori terzi, raccomandano gli esperti di Deloitte. Che suggeriscono anche le seguenti best practice:

  1. discutere i punti di forza e debolezza dei modelli;
  2. presentare in modo semplice e intuitivo le spiegazioni;
  3. esplicitare come i risultati del modello saranno impiegati.

Ciò comporterà probabilmente l’introduzione di nuove politiche e metodi, dalle fasi di premodellazione al monitoraggio e alla valutazione successivi all’implementazione. Sarà inoltre necessario che tutti gli stakeholder che contribuiscono allo sviluppo di modelli di AI agiscano in modo mirato in ogni decisione che prendono. Ad esempio, gli sviluppatori dovrebbero applicare i principi di comprensibilità alla scelta dei dati di addestramento e di input per i prototipi di modello. Invece di concentrarsi esclusivamente sui set di dati che massimizzeranno le prestazioni, dovrebbero anche considerare se i dati stessi possono perpetuare pregiudizi nascosti (ad esempio, i dati storici sui prestiti possono favorire alcuni gruppi demografici che hanno avuto un accesso più facile al credito), se i dati contengono informazioni personali dei clienti e se coprono un arco di tempo abbastanza lungo da catturare eventi rari o insoliti.

I team di sviluppo dei modelli dovrebbero anche effettuare una valutazione preliminare delle prestazioni e dell’interpretabilità del modello, per avere un’idea della sua accuratezza. Il faro di ogni decisione deve essere in ogni caso migliorare la comprensibilità del modello.

Per incorporare completamente la comprensibilità nel ciclo di vita della produzione dell’IA, a livello organizzativo le banche dovrebbero istituire una task force interfunzionale, che comprenda specialisti del comitato esecutivo, delle aziende, dell’IT, del rischio e della conformità, del settore legale, dell’etica e della ricerca sull’AI. Il programma Explainable AI della Defense Advanced Research Projects Agency (Darpa) dell’esercito statunitense ha dimostrato che alcuni dei team più efficaci hanno competenze e professionalità interdisciplinari, come gli informatici che lavorano con psicologi sperimentali e specialisti di user experience e design. Sarà importante altresì che le banche stiano attente alla comprensibilità anche nelle norme e nelle pratiche culturali, dalla formazione annuale dei dipendenti alla valutazione del Roi dei nuovi prototipi, fino alla previsione di ritorni pluriennali su tali progetti. Altrettanto cruciale per gli istituti di credito è l’aggiornamento continuo, partecipando attivamente alle conferenze e ai workshop che trattano gli argomenti emergenti della XAI e collaborando alla ricerca che può far progredire il settore e le sue applicazioni pratiche. Senza dimenticare la tutela degli interessi dei clienti.

“Adottando misure supplementari per essere etiche e trasparenti, e continuando a guidare la ricerca e le pratiche di punta nel campo dell’AI, le banche possono ottenere la fiducia delle autorità di regolamentazione e trovare l’equilibrio ideale tra innovazione tecnologica e sicurezza”, ha concluso Paolo Gianturco, Business Operations & FinTech Leader di Deloitte.

Fonte: Wall Street Italia

 

Commenti