Chi rassicurerà le assicurazioni sull’Intelligenza artificiale? Perché il dietrofront non è da sottovalutare

Chi rassicurerà le assicurazioni sull’Intelligenza artificiale? Perché il dietrofront non è da sottovalutare

Partiamo da un fatto, quasi un aneddoto, che però è la punta di un iceberg colossale. Leggo sul Financial Times che colossi delle assicurazioni come AIG e WR Berkley stanno chiedendo ai regolatori statunitensi il permesso di escludere dalle loro polizze i rischi legati all’intelligenza artificiale. Fermiamoci un istante. Mentre le aziende di ogni settore fanno a gara per integrare chatbot e agenti AI nei loro processi, vedendoli come la nuova frontiera dell’efficienza, l’industria che ha costruito la propria fortuna sulla capacità di prezzare il futuro sta dicendo: “Questo gioco, a queste condizioni, non lo giochiamo”.

Matteo Flora art

Questa non è una semplice notizia finanziaria. È un segnale potentissimo, è il canarino nella miniera digitale. Quando chi vende certezze inizia a vendere dubbi, è il momento di prestare la massima attenzione.

L’anatomia di un rischio incalcolabile

Perché questa grande ritirata? La risposta non risiede nella tecnologia in sé, ma nell’intersezione tra le sue caratteristiche intrinseche e le strutture legali e sociali in cui opera. Gli assicuratori si trovano di fronte a un cocktail micidiale di tre fattori che rendono il rischio AI, al momento, semplicemente non assicurabile su larga scala.

Il primo è la natura di “scatola nera” di molti modelli avanzati. Un esperto citato nell’articolo lo dice chiaramente: è troppo un “black box”. Io traduco: non siamo in grado di mappare in modo deterministico la catena causa-effetto che porta a un errore. Se un’AI “allucina” e diffama un’azienda (come nel caso di Wolf River Electric contro Google) o se un chatbot di una compagnia aerea si inventa uno sconto che poi l’azienda è costretta a onorare (ciao, Air Canada!), non stiamo parlando di un bug nel codice che può essere isolato e corretto. Stiamo parlando di una proprietà emergente di un sistema complesso la cui prevedibilità è ancora drammaticamente bassa. E ciò che non è prevedibile non è prezzabile.

Leggi anche: Fintech e Insurtech, calano le startup e la raccolta si ferma a 202 milioni di euro tra equity e strumenti convertibili

Il secondo fattore è il cortocircuito della responsabilità. Se un’AI commette un errore catastrofico, di chi è la colpa? Dell’azienda che l’ha usata? Dell’azienda che l’ha addestrata? Della piattaforma cloud che la ospita? Dell’utente che ha scritto il prompt? Questa matassa legale è un incubo per i liquidatori. Ericson Chan di Zurich Insurance sottolinea come, a differenza degli errori tecnologici tradizionali, qui la responsabilità è diffusa tra una pluralità di attori, rendendo l’impatto potenziale “esponenziale”. In assenza di normative chiare e precedenti legali consolidati, assicurare questo scenario equivale a firmare un assegno in bianco.

Ma il vero elefante nella stanza è il terzo fattore: il rischio sistemico. Kevin Kalinich di Aon lo spiega magistralmente: un’assicurazione può permettersi un danno da 500 milioni di dollari a una singola azienda. Quello che non può permettersi è che un errore in un modello fondamentale, usato da migliaia di aziende, provochi 10.000 sinistri contemporaneamente. Questo è l’incubo di ogni assicuratore: un rischio aggregato, correlato, sistemico. È il “Cigno Nero” di cui parla Nassim Nicholas Taleb, un evento imprevedibile con conseguenze devastanti. Se un difetto in GPT-4 causasse la divulgazione di dati sensibili per tutte le aziende che lo usano tramite API, non parleremmo di un incidente, ma di un collasso settoriale.

Le false promesse delle polizze “Ristrette”

Di fronte a questo vuoto, il mercato sta reagendo in modo scomposto. Alcuni assicuratori non stanno negando la copertura in toto, ma la stanno ridefinendo con “endorsement”, ovvero clausole aggiuntive. E qui, come sempre, il diavolo si nasconde nei dettagli.

L’articolo cita il caso di QBE, che ha esteso la copertura alle multe previste dall’AI Act europeo. Sembra una buona notizia, vero? Peccato che il risarcimento sia limitato al 2,5% del massimale della polizza. È un gesto di facciata, più marketing che sostanza. Altri, come Chubb, coprono alcuni rischi ma escludono esplicitamente gli “incidenti diffusi”, cioè proprio quello scenario sistemico che fa più paura.

Questa tattica ci insegna una lezione fondamentale: le aziende devono smettere di pensare all’assicurazione come a una rete di sicurezza magica. Devono leggere, analizzare e comprendere ogni singola clausola delle loro polizze cyber e “Errors and Omissions”, perché è quasi certo che la copertura per i rischi AI sia molto più limitata di quanto il loro management possa pensare.

Verso una reale governance dell’AI

Cosa ci lascia, quindi, questa ritirata strategica del mondo assicurativo? Non la paura o il rifiuto della tecnologia, ma un sano e necessario principio di realtà. La fuga degli assicuratori è la fine della fase adolescenziale dell’intelligenza artificiale, quella dell’entusiasmo cieco. Ci costringe, come imprenditori, manager e cittadini, a porci le domande difficili sulla governance.

Il messaggio per chi fa impresa non è “non usate l’AI”. È “usate l’AI comprendendo a fondo quali nuovi rischi state introducendo in azienda e quali di questi, con ogni probabilità, non saranno coperti da nessuno se non da voi stessi”. Questo sposta il focus dall’adozione tecnologica alla gestione del rischio operativo e legale. Significa investire in policy interne, in team di “red teaming” che testino i limiti dei modelli, in consulenza legale specializzata e, soprattutto, in una cultura aziendale che non deleghi mai completamente il giudizio critico a una macchina.

Il futuro dell’AI non si giocherà solo sulla potenza dei modelli, ma sulla nostra capacità di renderli trasparenti, controllabili e, in ultima analisi, governabili. Le assicurazioni ci hanno appena detto, nel modo più diretto possibile, che su questo fronte siamo ancora molto, molto indietro. E ignorare il loro avvertimento sarebbe il rischio più grande di tutti.