
L’intelligenza artificiale può, da un lato, aiutare a colmare il gap di genere nei comparti dell’intermediazione assicurativa, della gestione fondi, della consulenza e intermediazione finanziaria e, dall’altro, aumentare il grado di soddisfazione dei clienti. Il modo in cui tutto questo può avvenire lo ha spiegato Patrizia Contaldo, componente del comitato scientifico del Cesia, docente di Economia delle polizze vita e dei fondi pensione e direttrice dell’Osservatorio sul mercato assicurativo presso l’Università Bocconi di Milano, durante la presentazione del IX Rapporto annuale del Cesia (Centro studi intermediazione assicurativa), istituzione promossa da Cgpa Europe, lo scorso 27 maggio.
Nel corso del suo intervento su Bias, genere e intelligenza artificiale, è partita dalla costatazione che i settori finanziario e assicurativo soffrono del più ampio divario retributivo di genere (Healy e Ahamed, 2019) e impiegano solo il 10-20% di donne in ruoli di gestione fondi, consulenza finanziaria e intermediazione finanziaria (Bellstrom e Hinchliffe, 2019; Niessen-Ruenzi e Ruenzi, 2019).
Torniamo con lei sull’argomento per capirne di più.
Professoressa, qual è la situazione delle donne nel comparto della distribuzione?
Sebbene la presenza delle donne sia aumentata nelle imprese assicurative, lo stesso non si può affermare per l’intermediazione assicurativa, dove i ruoli di responsabili di agenzia, di società di brokeraggio e di collaboratori sono stati ricoperti da uomini, mentre i ruoli amministrativi da donne. Da un’analisi del Rui emerge inoltre come siano predominanti le figure maschili di broker e agenti. Fenomeni ancora più esasperati in alcune regioni del Sud Italia.
La presenza prevalentemente maschile nel settore assicurativo e, più in particolare, nell’intermediazione non è sempre la risposta più adeguata.
Perché?
La finanza comportamentale che studia il comportamento umano nelle scelte d’acquisto indica che gli esseri umani non sono sempre razionali nelle loro decisioni economiche. Sono invece influenzati da una serie di fattori psicologici, come le emozioni, le convinzioni e le distorsioni cognitive (bias cognitivi). Questi elementi influenzano non solo il comportamento dei clienti ma anche quello dei distributori, con particolare rilevanza nel settore finanziario/assicurativo.
Nei servizi finanziari, infatti, si è osservato che un processo decisionale omogeneo, un’eccessiva sicurezza e un’assunzione di rischi concentrati sono collegati a negligenza e scarse prestazioni.
In questo contesto le donne possono dare un contributo fondamentale.
In che modo?
Diversi studi hanno evidenziato come le competenze complementari delle donne riducano sia l’eccessiva sicurezza, sia i comportamenti di assunzione di elevati rischi. Secondo alcune analisi le donne possiedono molti tratti favorevoli nel giudizio di valore, nell’atteggiamento verso il rischio e nel processo decisionale. In genere le donne hanno maggiore avversione al rischio e quindi performano meglio quando vendono prodotti con rischiosità minore o propongono prodotti multirischio.
Se si amplia il tema non solo al risultato connesso alle vendite ma al valore dell’impresa, gli studi indicano che la diversità influenzano anche le performance non finanziarie delle organizzazioni. Ciò riguarda in particolare la responsabilità aziendale e la sostenibilità nel contesto del ruolo delle aziende per il valore a lungo termine.
Posti questi presupposti, in che modo l’intelligenza artificiale condiziona la presenza femminile nei comparti assicurativo e finanziario?
Nonostante le sue straordinarie potenzialità, l’IA non è esente da distorsioni e pregiudizi, che possono emergere involontariamente dai dati di addestramento o essere il risultato di scelte progettuali. Si tratta di bias algoritmici che possono rafforzare disuguaglianze già esistenti ma soprattutto rischiano di istituzionalizzare la discriminazione su larga scala, rendendo le decisioni automatizzate meno eque.
Può farci qualche esempio?
Si è compreso che alcuni sistemi di selezione del personale possono favorire inconsapevolmente candidati di un certo genere o provenienza sociale. Un esempio effettivo di errore dovuto ai bias degli algoritmi si è verificato con ChatGPT: uno studio del 2023 condotto dalla ricercatrice Nicole Gross ha rivelato che il modello tendeva ad associare automaticamente ruoli di prestigio, come professori o amministratori delegati, agli uomini.
Questo non era dovuto a una programmazione intenzionale ma alla sottorappresentazione delle donne nei dataset di addestramento. Poiché l’IA apprende da testi preesistenti, se questi riflettono un mondo in cui le figure di potere sono prevalentemente maschili, l’algoritmo finisce per riprodurre e amplificare questa visione, consolidando stereotipi di genere.
Altro esempio si riscontra nella selezione automatizzata dei curriculum vitae. Molte aziende oggi si affidano a sistemi di IA per filtrare le candidature ma, se il dataset di addestramento contiene la maggior parte di profili maschili, l’algoritmo considera gli uomini come candidati maggiormente adeguati. Di conseguenza, anche a parità di competenze, le donne rischiano di essere escluse, creando un circolo vizioso: meno assunzioni femminili significano una minore rappresentanza nei dati futuri, amplificando ulteriormente il divario di genere nel mercato del lavoro.
Come si può intervenire per modificare i bias degli algoritmi?
È fondamentale capire come nascono i bias degli algoritmi nell’utilizzo dell’intelligenza artificiale e sviluppare strategie efficaci per ridurne l’impatto. Soluzioni come la creazione di dataset più inclusivi e l’adozione di sistemi di auditing indipendenti possono contribuire a rendere l’IA più equa e trasparente.
Nel corso del suo intervento al convegno di Cgpa Europe ha affermato che il tema del genere è rilevante anche nell’analisi della domanda assicurativa e nella correlazione con l’intermediario. Come?
In questo caso sono stati individuati atteggiamenti differenti tra i generi, che possono essere correlati positivamente. L’overconfidence nella conoscenza di base e il bias dell’autonomia sono imputabili con maggiore frequenza al target che ha predominanza di caratteristiche associate alla figura maschile, mentre le clienti donne dimostrano forte avversione al rischio, cosa che le porta a sovrastimare i rischi corsi, nonché una scarsa conoscenza dei prodotti finanziari e assicurativi.
Le caratteristiche specifiche “overconfidence” o “autonomia” possono essere trattate da chi possiede determinati requisiti comportamentali. È quindi in tale senso che una maggiore diversificazione di genere nell’ambito dell’intermediazione può favorire lo sviluppo di comportamenti orientati a rispondere al meglio alle diverse caratteristiche e bias dei clienti.
Quali strategie si possono mettere in campo grazie all’intelligenza artificiale?
L’intelligenza artificiale può essere utilizzata per meglio definire i differenti atteggiamenti dei target e, soprattutto, l’evoluzione dei generi nel tempo, valutando le caratteristiche e i comportamenti per contrastare i bias cognitivi.
Come auspicato dall’Autorità, è utile un’azione mirata che agisca in senso di “debiasing” rispetto ad esempio alla “overconfidence”, proprio per ridurre il “bias dell’autonomia” e migliorare in tal modo l’efficacia assicurativa. Le tecniche di debiasing sono molte e sono specifiche in funzione della tipologia di atteggiamento messa in atto dall’individuo, a volte richiedono un approccio determinato altre più morbido. Quindi creare un’adeguata coerenza tra: caratteristica del cliente, tecnica di bias e caratteristica dell’intermediario, rappresenta un vantaggio competitivo.
Un’analisi dei comportamenti degli intermediari con riferimento al ruolo del genere può permettere di attivare queste attività e quindi di migliorare le performance di vendita in funzione dei vari target.
Può farci qualche esempio per migliorare le tecniche di vendita?
Un esempio è il consider the opposite, una strategia di debiasing che si concentra su come contrastare l’ancoraggio e l’overconfidence attraverso il ragionamento in senso contrario. Questa tecnica è progettata per aiutare le persone a evitare di essere eccessivamente influenzate da informazioni iniziali o per mitigare il fenomeno in cui le persone sovrastimano la precisione delle proprie previsioni o giudizi. E consiste nel portare a valutare altre informazioni oltre a quelle iniziali, così da considerare attivamente inappropriato o irrilevante quell’ancoraggio.
In questo caso, alcune caratteristiche associate al genere di chi cerca di produrre questo effetto sono rilevanti. Gli intermediari che hanno caratteristiche associate al genere maschile tendono a essere riconosciuti come più autorevoli e quindi più idonei a portare il cliente a uscire dal proprio ancoraggio, accettando la rilevanza di altre informazioni e la possibilità che le proprie iniziali previsioni non siano corrette.
Esistono invece strategie più adatte al genere femminile?
Per un target con caratteristiche femminili si rivela più utile l’accountability, una strategia di debiasing che si basa sull’idea di rendere gli individui responsabili dei propri comportamenti e decisioni attraverso la richiesta di spiegare tali decisioni a terzi.
Questo processo mira a indurre una maggiore riflessione e autovalutazione, spingendo le persone a considerare in modo critico le proprie azioni e a prendere decisioni più ponderate. Questa metodologia può essere proposta con maggiore successo da un intermediario con caratteristiche femminili che abbia una maggiore predisposizione al racconto e all’accudimento se il cliente ha uno spiccato bias della forte consapevolezza di sé.
Quale potrebbe essere il futuro dei generi nello scenario della distribuzione?
È inteso che non ci si riferisce al genere naturale delle persone altrimenti incorreremmo nel rafforzare gli stereotipi, ma alle caratteristiche che storicamente sono state associate ai due generi, in questo senso l’intelligenza artificiale, se ben strutturata, può aiutare a capire le caratteristiche proprie dell’individuo e dell’intermediario e a creare le più adeguate correlazioni che tengano conto dell’evoluzione sociale e delle conseguenti diverse necessità.























