Newsletter

N. 19 del 30 maggio 2024

Intelligenza artificiale e assicurazioni. Intervista a Brando Benifei, relatore dell’AI Act al Parlamento Europeo

Ci siamo già occupati di intelligenza artificiale applicata al settore assicurativo (newsletter n. 10 del 2 aprile 2024), un fenomeno in rapida espansione, capace certamente di migliorare alcuni aspetti di un mondo complesso, ma con il rischio di innegabili ricadute sulla realtà degli intermediari, i quali dovranno confrontarsi con novità che potrebbero addirittura ridimensionare il loro ruolo nella filiera.

BRANDO BENIFEI - PARLAMENTO EUROPEO - rid

Ne abbiamo parlato con l’On Brando Benifei (nella foto), Parlamentare europeo del PD, relatore dell’AI Act, la legge sulla regolamentazione dell’utilizzo dei sistemi di intelligenza artificiale, approvata dal Parlamento Europeo nello scorso marzo con l’obiettivo di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore.

On Benifei, come possiamo conciliare, in maniera ottimale, il principio della mutualità, posto alle fondamenta del sistema assicurativo e l’utilizzo di modelli ad alta profilazione, predisposti secondo meccanismi di intelligenza artificiale? Con particolare riferimento ai rami come la Responsabilità Civile Auto – obbligatoria per Legge e a tutela del patrimonio – il rischio di discriminazione sul prezzo e di conseguente elusione dall’obbligo di copertura assicurativa potrebbe accentuarsi?

L’avvento degli algoritmi e, più di recente, la diffusione dell’intelligenza artificiale anche nel settore assicurativo, pongono sicuramente nuove sfide, rendendo possibili servizi sempre più personalizzati e, quindi, in questo contesto, aprendo a rischi di discriminazione, in particolare laddove si basino su dati sensibili (dati sanitari, etnia, etc.), anche se aumentano la precisione nella valutazione del rischio. La conciliazione tra il principio della mutualità e l’uso di modelli di IA ad alta profilazione richiede un equilibrio delicato tra innovazione tecnologica e protezione dei diritti degli assicurati. Attraverso regolamentazioni appropriate, trasparenza, redistribuzione del rischio e un approccio etico, è possibile sfruttare i benefici dell’IA mantenendo l’equità e l’accessibilità nel sistema assicurativo. L’AI Act considera come ad alto rischio soltanto i sistemi utilizzati per valutare l’accesso ad assicurazione sulla vita o sanitaria, quindi l’RCA è in linea di principio esclusa dall’ambito. Tuttavia, ciò non toglie che il problema di sviluppare (e usare) sistemi di IA in modo etico, trasparente e nel rispetto dei diritti fondamentali delle persone resta fondamentale per tutto il settore. Anche per ovviare ai rischi di discriminazione e di conseguente elusione dall’obbligo, è poi necessario che questi sistemi vengano sempre utilizzati come supporto per la presa di decisione, ma che questa rimanga sempre umana, e che chi fa uso di questi strumenti lo faccia con adeguate competenze e in modo responsabile, per evitare di convalidare automaticamente l’output del sistema (automation bias) in modo acritico.

Il rischio di ridimensionamento del ruolo umano in un sistema ad elevato impatto di IA è evidente, con probabili ripercussioni per l’intera filiera occupazionale. Ancor più se uno dei parametri prioritari di scelta assicurativa fosse l’obiettivo/variabile “prezzo”, che priverebbe il mercato del valore aggiunto garantito dall’intermediario al cliente grazie al rapporto di prossimità. Come si concilierebbe questo con l’impostazione antropocentrica, delineata dall’AI act e dalla Direttiva IDD? La consulenza dovrebbe essere demandata, necessariamente, a Professionisti del settore o potrebbe essere espletata, comunque, da algoritmi? Le due formule sono, a Suo avviso, conciliabili tra loro?

Come dicevo prima, gli algoritmi e i sistemi di intelligenza artificiale offrono incredibili opportunità nel supportare gli intermediari, nell’elaborare velocemente analisi di masse imponenti di dati, ma è fondamentale che non sostituiscano mai del tutto il fattore umano nella decisione. Sia la Direttiva IDD che, soprattutto, l’AI Act, cercano di promuovere un uso etico di queste tecnologie e di garantire che il loro uso e sviluppo abbia sempre al centro l’essere umano. Quindi non solo le due formule sono conciliabili, ma devono necessariamente procedere insieme, per poter fornire al cliente un servizio di qualità, senza compromettere il rapporto umano che lega l’intermediario al cliente.

Considerando che i modelli di intelligenza artificiale operano anche aggregando informazioni estrapolate da più archivi, i quali, previa elaborazione algoritmica di tali elementi, determineranno tariffe in tutti i rami assicurativi, non sarebbe opportuno che i processi debbano sottostare ai presidi previsti per i profili di alto rischio? La raccolta dati da più fonti, finalizzata alla profilazione dei soggetti, in base a comportamenti e decisioni, potrebbe indurre il cliente ad immedesimarsi nelle scelte dell’algoritmo, ritenendole compatibili, a priori, con le personali esigenze. Ritiene concreta questa possibilità? Ciò potrebbe essere pregiudizievole per il cliente/assicurato?

Anche in questo caso, il fattore umano deve restare determinante, anche nel rapporto tra cliente e algoritmo. Un elemento importante, oltre alla supervisione umana (requisito previsto infatti dall’AI Act) e alla possibilità di intervento nella decisione, è fondamentale promuovere l’educazione del consumatore per un utilizzo consapevole dei servizi in maniera compatibile con i propri diritti. Il Regolamento, poi, prevede anche nel settore assicurativo (anche se, ripeto, solo assicurazione vita e sanitaria rientrano nell’ambito degli usi ad alto rischio) l’obbligo di valutazione di impatto sui diritti fondamentali da parte del deployer, quindi nel nostro caso dell’intermediario, prima di utilizzare un determinato sistema sui propri clienti. Nell’effettuare la valutazione possono emergere necessità di contatti mirati con gruppi specifici di consumatori, magari appartenenti a gruppi vulnerabili, per campagne di comunicazione o in forma di procedure di reclamo interno, che mitighino impatti particolarmente negativi o discriminatori. Anche in questo, la valutazione di impatto è un fattore potenzialmente molto importante nell’educazione del cliente/consumatore e nel migliorarne la fiducia verso questi sistemi. Merita inoltre citare il diritto a ottenere una spiegazione, inserita (come la valutazione di impatto sui diritti fondamentali) dal Parlamento nel testo finale, che consente al cliente di poter ricevere una vera e propria spiegazione individuale del motivo per cui l’algoritmo abbia suggerito una certa decisione, laddove il cliente stesso consideri i propri diritti lesi. Questo diritto va al di là delle misure già previste dal GDPR ed è diventato ormai un elemento di cui si sente la necessità, vista la crescente dipendenza da decisioni automatizzate di cui l’uomo spesso non sa ricostruire la ratio. Una tendenza che i complessi sistemi di intelligenza artificiale hanno esacerbato e che l’AI Act, grazie a questa misura ma anche ai vari requisiti per migliorarne la tracciabilità, cerca di affrontare, speriamo in modo soddisfacente.

Facebook
LinkedIn
WhatsApp