News
INTELLIGENZA ARTIFICIALE GENERATIVA, RISCHI E CONCETTO DI “FIDUCIA” IN AMBITO ASSICURATIVO
“Challenging the notion of trust around ChatGPT in the high-stakes use case of insurance” PAPER, September 2023
Juliane RESSEL, Michaele VÖLLER, Finbarr MURPHY, Martin MULLINS
SSRN - Link all’ABSTRACT e al PAPER
Il lavoro in esame avvicina lo storico e fondamentale concetto di “fiducia” nel rapporto assicurativo alla realtà – recentissima e innovativa – di ChatGPT e di altre applicazioni basate su modelli linguistici di grandi dimensioni (Large Language Models - LLM).
In apertura, gli Autori del Paper osservano che il pubblico dibattito su tali aspetti dell’innovazione tecnologica è caratterizzato da ampie generalizzazioni e aspetti controversi.
Cercano, quindi, di offrire maggiore specificità al dibattito, approfondendo il concetto e il ruolo della “fiducia” nei sistemi LLM-based in ambito assicurativo: si tratta di importanti sviluppi, posta la natura altamente immateriale dei prodotti coinvolti, unita a livelli elevati di rischio, complessità e asimmetrie informative. Del resto, va considerato come “prevedibile” un ampio utilizzo dei LLM nel settore, data la vasta gamma di “documenti di testo” normalmente in uso in ambito assicurativo (in particolare, condizioni generali di polizza o protocolli relativi ai sinistri).
Sul piano regolamentare, la regulatory community è da tempo profondamente consapevole dei rischi posti dall’uso dei sistemi di intelligenza artificiale; nel settore assicurativo, ciò si è reso palese con l’istituzione del Gruppo di Esperti EIOPA in materia di etica digitale (2021)(1). Più recentemente, le controverse reazioni provocate dal release di ChatGPT hanno attirato l’attenzione dei decisori sulla questione di come includere adeguatamente i sistemi di intelligenza artificiale “generativa” nella normativa europea in materia di IA (“AI Act”, 2023)(2)
Gli Autori evidenziano che le iniziative relative alla definizione di regole universali o codici di condotta per l'utilizzo dei Large Language Models-LLM devono, come minimo, essere fondate su un'adeguata informativa, fornita anche da “casi d'uso”. L’utilizzo degli LLM da parte delle compagnie di assicurazione - in particolare - pone diversi rischi a carico dei consumatori, tra cui esclusione finanziaria, errori nel contesto della vendita del prodotto (mis-selling) e asimmetrie informative. I sistemi LLM con accesso diretto ai database assicurativi, inoltre, possono aumentare il potenziale di tali esternalità negative.
Un approccio specifico per una buona governance è essenziale per evitare esternalità negative legate all’inclusione finanziaria. In effetti, in quanto elemento costitutivo della fiducia, la vulnerabilità è particolarmente impegnativa all’interno di un insieme di transazioni ad alto rischio, con l’adozione dei LLM che si aggiungono ai rischi socio-etici.
Alla luce di quanto precede, il documento stabilisce una base di riferimento per supportare i regolatori e i policymaker nell’implementazione di sistemi di regolamentazione adeguati.
__________________________________________
Sul punto, si veda:
“EIOPA: al via il Gruppo di Esperti sull’etica digitale in assicurazione”,
in Panorama Assicurativo n. 192, ottobre 2019 (Sezione “UNIONE EUROPEA”)
https://www.panoramassicurativo.ania.it/newsletter/51087/articolo/72443
Si veda, al riguardo:
“Il Parlamento Europeo adotta la normativa in materia di intelligenza artificiale (AI Act)”,
in Panorama Assicurativo n. 237, luglio 2023 (Sezione “UNIONE EUROPEA”)
https://www.panoramassicurativo.ania.it/newsletter/85339/articolo/85847