Verzekeraars zetten in toenemende mate big data, algoritmes en artificiële intelligentie (AI) in. AI en data zijn echter niet neutraal of waardenvrij en roepen vragen op binnen organisaties en de maatschappij. Het belang van data-ethiek en AI-governance neemt dus toe. Hoe kan een verzekeraar daar verstandig mee omgaan?
Wat wordt door klanten en de maatschappij bijvoorbeeld als rechtvaardig en aanvaardbaar gezien, en wat niet? Wetgeving probeert de razendsnelle ontwikkelingen bij te benen, maar voor verzekeraars is een eigen afweging over wat kan, wat mag en wat past bij waar de organisatie voor staat nog steeds noodzakelijk. Verschillende experts van KPMG en het Verbond van Verzekeraars gaan met elkaar in gesprek over deze vraagstukken.
Gespreksleider is Anouk Zevenbergen, Director KPMG. Zij gaat samen met Jos Schaffers, Senior Beleidsadviseur bij het Verbond van Verzekeraars, Frank van Praat, Director KPMG, en Dr. Alexander Boer, Senior Manager KPMG, dieper in op het groeiende belang van data-ethiek en AI-governance voor verzekeraars.
De ethische dilemma’s van AI
Anouk: “De toename van het gebruik van AI kan niemand ontgaan zijn, denk aan de populariteit van ChatGPT. Jos, wat is daarover jouw oordeel?”
Jos: “Ik vroeg ChatGPT: ‘Hoe kan een Nederlandse levensverzekeraar nu goed reageren op lage rentestanden? En het programma produceerde een heel plausibele tekst; ik herkende de beleidstaal die ik zelf ook schrijf. Toch een schok, want ik dacht dat automatisering vooral impact zou hebben op ongeschoold werk. Maar dit was een blik in de toekomst, die misschien dichterbij is dan ik dacht, waarin alle soorten werk geautomatiseerd kunnen worden.”
Frank: “ChatGPT laat zien dat er veel mogelijk is met AI en dat het ontzettend snel gaat. Maar het laat ook een ethisch aspect zien: lezen scholieren straks nog wel hun boekenlijsten als ChatGPT hun boekverslagen kan maken? Leren ze dan nog wel goed schrijven?”
“Dit speelt niet alleen bij ChatGPT, maar eigenlijk bij allerlei data en AI. Wat betekenen de ethische risico’s voor verzekeraars? Er zijn drie zaken te onderscheiden. In de eerste plaats: waar gebruik je AI voor? Dat is een vraagstuk over proportionaliteit. Kun je bijvoorbeeld AI in alle gevallen gebruiken om fraude op te sporen; leidt dat niet tot een disproportionele focus op minderheden? Voor verzekeraars geldt die proportionaliteit ook; waar wil je AI wel of niet voor inzetten?”
“In de tweede plaats: als je ervoor kiest om AI te gebruiken, wil je er natuurlijk voor zorgen dat er een eerlijk en niet-discriminatoir model is. Het is cruciaal dat als je AI gebruikt, er geen ongerechtvaardigd onderscheid wordt gemaakt tussen groepen of individuen.”
“In de derde plaats: wat zijn de maatschappelijke gevolgen van AI? Bij ChatGPT leidt dat tot vragen over wat scholieren nog leren, maar ook over de vraag of er nog wel advocaten nodig zijn voor het opstellen van contracten. Voor verzekeraars bijvoorbeeld gaat dat over solidariteit. Een voorbeeld: heel specifiek AI laten kijken naar bepaalde groepen mensen kan ertoe leiden dat bepaalde mensen onverzekerbaar worden omdat ze aan te veel riskante eigenschappen voldoen. Deze drie aspecten laten goed zien waar de ethische risico’s met betrekking tot AI liggen.”
Letter en geest van de wet
Er is momenteel veel regelgeving in voorbereiding voor AI. Verzekeraars die AI aanwenden moeten aan allerlei regels voldoen; in de toekomst zullen de eisen beter worden gedefinieerd en hoogstwaarschijnlijk strenger zijn. Maar er zijn verzekeraars die alvast hun AI-governance op orde willen hebben, voordat de guidance, de regels, geformaliseerd zijn. Uiteraard zijn er ook partijen die afwachten tot de regelgeving er ligt.
De aansluitende wet- en regelgeving neemt dus een vlucht. Frank: “Vanuit de Europese Unie komt de AI Act. De AI Act is nog in ontwerp, maar het zal hoogstwaarschijnlijk niet langer dan drie jaar duren voordat die in werking treedt. Deze wet definieert bepaalde AI-toepassingen als hoog risico. Verzekeraars moeten daarop voorbereid zijn. Wat betreft verdere regelgeving zijn er op het gebied van AI en data ook de AI Liability Directive en de Data Act. De Data Act legt meer soevereiniteit bij de eigenaar van data; eigenlijk is de Directive aanvullend op de GDPR (AVG).” Ten slotte is er natuurlijk bestaande regelgeving die ook belangrijk wordt bij AI. Denk aan levensverzekeraars die AI-modellen kunnen gebruiken voor fraudeonderzoeken in het kader van de Wwft.
Casus: Noorse autoschadeverzekeraar
Hoe zorg je als verzekeraar nu dat alles goed is geregeld op het gebied van AI-governance? KPMG werkt momenteel aan een groot project bij een Noorse verzekeraar die actief is in zes Noord-Europese landen. KPMG is aangetrokken om de complete AI-governance in te richten, overeenkomstig de (toekomstige) regelgeving. Frank: “Verzekeraars moeten de complexiteit hiervan niet onderschatten. Het is goed om de tijd te nemen voor AI-governance; het is een langdurig proces.”
Alexander: “Hoe zijn we nu te werk gegaan in de pilots? De lifecycle van een systeem kan ingedeeld worden in ten minste vier fasen. Vooraf bepaal je commitment, impact en risico. Naar aanleiding van de risico's die je hebt gezien, neem je maatregelen om de risico’s te reduceren – bijvoorbeeld de mogelijkheid tot discriminatie die je wilt uitsluiten – en dan ga je terug naar de tekentafel. Als je eenmaal een systeem hebt gebouwd dat overeenkomt met je doelstellingen en waar de ongewenste effecten zijn uitgehaald, dan probeer je op empirische wijze effecten te meten. Dit gaat om signalen uit de werkomgeving en niet alleen om gegevens op basis van een model. Als je eenmaal toestemming hebt om het systeem uit te rollen, dan is dat vervolgens onderworpen aan continu toezicht. Aan incidenten dient acuut opvolging te worden gegeven.”
De voordelen van AI en data zijn evident. Zo leerde de Noorse schadeverzekeraar hoe hij concurrerender verzekeringen kon aanbieden, omdat hij risico’s beter leerde inschatten door AI en data en sneller kon bijsturen. Alexander: “Een expert vertelde mij dat in Noorwegen na de coronacrisis de populariteit van elektrische auto’s een enorme vlucht had genomen. Voor de pandemie werd een Tesla Model S als een sportauto gezien, maar na verloop van tijd zag de verzekeraar dat gebruikers zuinig en veilig reden omdat snel optrekken veel vergt van de accu. De initiële inschatting over de toekomstige schade aan die auto’s bleek dus enorm mee te vallen. En die inzichten dragen ver: aanvankelijk dachten verzekeraars dat bijvoorbeeld zwarte BMW 4 Series een hoog risico op schade hadden, maar nu de i4 is geïntroduceerd – een elektrische auto – wordt die auto anders ingeschaald. De verzekeraar schetst nu een ander risicoprofiel.”
Weten dat je iets niet weet
Frank: “Dit soort informatie komt grotendeels uit de cloud en is natuurlijk waardevol, maar de Data Act heeft daar wel iets over te zeggen. Voor verzekeraars biedt dit mogelijkheden om preciezer ‘true risk’ in te schatten, wat het weer mogelijk maakt om aan productdifferentiatie te doen. Maar de gebruikers bepalen of ze data willen delen op basis van de regelgeving. Wat nu als de meesten bereid zijn data te delen en een klein deel wil dat niet? Hoe denken we over die groep mensen die weigert de data te delen? Vergeet niet: in de AI Act staat dat je moet onderzoeken of er een kans is dat je systeem ‘biased’ is wat betreft bepaalde data.
Frank: “Interessant hoe hierop gereageerd moet worden, zeker vanuit de regelgeving gedacht. Jos, wat moet je als verzekeraar doen?”
Jos: “Het is bijzonder ingewikkeld om statistiek te bouwen op incomplete datasets. We zien dat verzekeraars autoverzekeringen nu nog vrij traditioneel beprijzen en dat zij de extra data die zij krijgen – bijvoorbeeld data uit de auto – eigenlijk alleen gebruiken voor een premie op- of afslag. Ik weet wel dat verzekeraars lobbyen voor toegang tot meer autodata. Die data en de toegang daartoe worden steeds belangrijker.”
Frank: “Dit raakt aan een van de kernproblemen van AI. Hoe weet je dat je alle data hebt om echte-wereld-problemen mee te kunnen oplossen? Wanneer zijn je data representatief? Dit is ook gerelateerd aan dat eerste ethische aspect dat ik eerder noemde: wil je wel AI gebruiken als je weet dat je data niet compleet zijn, niet volledig representatief zijn? Dat vraagt om een zorgvuldige afweging.
Jos: “Als we denken aan locatiedata vraagt dat ook voorzichtigheid. Wat nu als een postcode een proxy is voor een etnische groep? Hoe ga je daarmee om?”
Frank: “Dat is ook weer een afweging; als AI een uitkomst geeft die gevoelig ligt, die discriminerend is, moet je je afvragen of je wel AI moet inzetten.” Hoewel AI en data neutraal lijken, gaat zelden de uitdrukking op: de cijfers liegen niet. Het is dus goed om enerzijds voortvarend te werk te gaan met AI-governance en anderzijds dit te doen tegen de achtergrond van een robuust ethisch framework.
Kortom: Aandacht voor data-ethiek en AI-governance is nodig, het belang van goede ethiek en governance groeit met het gebruik ervan. Het inzetten van concrete pilots helpt om de juiste en specifieke inzichten te krijgen. Er is geen eenduidige implementatieformule, maar het gesprek over dilemma’s is nodig om afwegingen en keuzes te maken.