Normativa
INTELLIGENZA ARTIFICIALE E “MACHINE LEARNING”: RISCHI E POTENZIALITÀ NELLE ANALISI DEL FINANCIAL STABILITY BOARD E DELL’OCSE
FSB - "Artificial intelligence and machine learning in financial services” OECD - "Artificial intelligence: why a global dialogue is critical" OECD - Conference on Artificial Intelligence - "AI: Intelligent Machines, Smart Policies (WEBPAGE E DOCUMENTI CORRELATI)
FINANCIAL STABILITY BOARD
www.fsb.org
OECD - ORGANISATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT
http://www.oecd.org/
OECD - Conference on Artificial Intelligence (WEPAGE /documenti correlati)
Il tema dell’Intelligenza Artificiale (IA) e dell’apprendimento automatico (Machine Learning) è al centro del dibattito in ambito finanziario e oggetto di numerosi studi e analisi.
Su questi temi è stato recentemente pubblicato un report del Financial Stability Board(1) e l’OCSE ha organizzato un convegno di due giorni (26 e 27 ottobre) a Parigi.
Nel suo Report, FSB sottolinea che è necessario cominciare ad analizzare le conseguenze delle innovazioni digitali più avanzate sul piano della stabilità finanziaria.
Le istituzioni finanziarie e le compagnie di assicurazione, infatti, stanno cominciando ad usare la IA per la valutazione del merito creditizio e/o per la sottoscrizione dei rischi; molte applicazioni, inoltre, sono rivolte all’automazione delle relazioni con i clienti.
Altri operatori, come gli hedge fund, usano invece l’IA per la ricerca di rendimenti superiori (ad esempio, sfruttando le imperfezioni dei mercati) o per ottimizzare i costi di transazione.
Un ultimo ma importante ambito di applicazione è quello regolamentare e della supervisione.
Secondo FSB, sono individuabili benefici e rischi derivanti dall’impiego di queste tecnologie:
- tra i benefici, il miglioramento dell’efficienza del processo di informazione nei mercati finanziari e assicurativi;
-
per contro, attraverso l’IA è probabile che si sviluppi una rete interconnessa tra i diversi soggetti dei mercati, creando una potenziale futura dipendenza da soggetti terzi esclusi dalla vigilanza sistemica;
-
la complessità dei modelli insita nell’IA potrebbe creare problemi di trasparenza, interpretabilità e controllo dei metodi utilizzati e, quindi, di opacità dei modelli operativi utilizzati nei mercati;
- come in ogni prodotto o servizio radicalmente innovativo, è necessaria un’accurata valutazione dei rischi presenti e potenziali (ad esempio, rischi di privacy, rischi cyber, rischi operativi).
E’ necessaria quindi, secondo FSB, una valutazione approfondita dei profili di governance e di sviluppo di queste nuove tecnologie.
Anche l’OCSE sta dedicando al tema dell’IA molta attenzione: secondo l’Organizzazione parigina è necessario avviare un dialogo a livello internazionale sul funzionamento dell’IA, che ne stabilisca regole e limiti.
_________________________________
(1) Su tema della Fintech è stato costituito all’interno del FSB un network di lavoro. Alcuni dei risultati sono contenuti nella presente pubblicazione.