• Sander van der Meijs, Associate Director |
  • Frank van Praat, Partner |

Het enorme potentieel van AI-oplossingen zal alleen tot ontplooiing kunnen komen als de inzet ervan vergezeld gaat van een deugdelijke risicobeheersing. Want als AI niet veilig, betrouwbaar en ethisch verantwoord functioneert, brengt de nieuwe technologie uw organisatie meer schade toe dan ze goed doet. 

Artificial Intelligence (AI) staat weer volop in de schijnwerpers sinds de publieke introductie van ChatGPT in 2022 en de hausse aan publiciteit die daarop volgde. Even leek het alsof het nog maar een paar maanden zou duren voordat half Nederland werkloos zou zijn door dit AI-model dat uitgebreid, razendsnel, en ook nog in grammaticaal redelijke taal antwoord kan geven 'op al uw vragen'. Een paar weken later bleek het wel weer mee te vallen - of tegen, misschien. Kritisch en intensief gebruik van het model bracht nogal wat nadelen aan het licht: onnauwkeurige en soms onjuiste informatie, en vooringenomenheid dan wel discriminatie. Bovendien zijn er mogelijkheden tot manipulatie. De informatie die in vragen aan ChatGPT wordt prijsgegeven, kan door het model ook weer worden gebruikt in antwoorden op andere, volgende vragen.  

Deze risico's van generatieve AI waren natuurlijk niet onbekend. Dit type oplossingen is in staat tekst, beeld en video te produceren, gesprekken te voeren, informatie te onttrekken en code te schrijven op grond van miljarden en miljarden ingevoerde gegevens, en op grond van de lessen die het systeem trekt uit het combineren van grote hoeveelheden van die gegevens met elkaar. Het proces is daarmee zo complex, dat de manier waarop het systeem tot uitkomsten komt, niet meer is uit te leggen door een mens.

Wat als ik vervolgens op een uitkomst stuit, waarvan ik op grond van mijn beperkte kennis zeker weet dat die fout is? Kan ik er dan wel op vertrouwen dat een volgende uitkomst - over een mij onbekend onderwerp - wél juist is? Een uitleg over de totstandkoming van die uitkomst is er in ieder geval niet.

Verzekeraars zien heel goed waar de potentiële kracht ligt van AI-oplossingen. Data-analyse is altijd al een succesfactor geweest voor de sector en technologieën die nóg grotere hoeveelheden data nóg sneller kunnen verzamelen, verwerken en analyseren zullen altijd op gezonde belangstelling kunnen rekenen. Gebaseerd op die data-analyse worden risico's inzichtelijker en dat kan van belang zijn voor productontwikkeling, prijsstelling en marktsegmentatie. Ook de toepassing van AI bij schadebeoordeling - met beeldherkenningstechnieken bijvoorbeeld - en bij fraudedetectie zijn al lang niet meer denkbeeldig. Tot slot kan AI ook in de klantreis worden ingezet. Chatbots en spraakherkenning bijvoorbeeld kunnen de klantreis vervolmaken.

Het enorme potentieel van AI is dus geen geheim, net zo min als het gegeven dat dit potentieel zich razendsnel ontwikkelt. De risico’s kwamen hierboven ook al aan bod en het is duidelijk dat de kaders rondom de inzet van AI zijn nog volop in ontwikkeling zijn. De vraag onder welke voorwaarden AI-oplossingen veilig, betrouwbaar en ethisch verantwoord te ontwerpen zijn, te bouwen en te implementeren zal de komende jaren onderwerp zijn van het publieke debat.

Effectieve inzet van AI vereist daarmee wellicht meer dan op het eerste gezicht lijkt, zeker omdat het veld dus volop in beweging zal zijn komende jaren. De uitdaging zal zijn het vinden van een goede balans tussen wat AI de klant en de business oplevert, de impact op de organisatie (op mensen, op de integratie in systeemlandschap, et cetera), de kaders van wet- en regelgeving en de eigen keuzes ten aanzien van thema’s zoals solidariteit en toegankelijkheid.  Het bepalen van deze balans vraagt om een stevige samenwerking tussen disciplines en heldere guidelines.

Volgens KPMG is het vinden van deze balans het centrale thema rond AI. Met het oog daarop hebben wij al onze expertise op het gebied van AI en data-analyse gebundeld in een samenwerkingsverband: Lighthouse. Aangesloten op het internationale netwerk van KPMG werken de specialisten in Lighthouse nauw samen op gebied van strategie, digitalisering en risicobeheersing. Daarmee doen we recht aan de complexiteit die met het verantwoorde gebruik van AI gegeven is, zowel wat betreft technologie, wat betreft compliance als wat betreft interne organisatie en risicobeheersing. Ons werkgebied omvat het hele scala van AI-strategie tot het realiseren van concrete use cases.

Er is overigens geen enkele reden om u te laten ontmoedigen door die complexiteit. Wij twijfelen er niet aan dat AI-oplossingen een stevige bijdrage kunnen leveren aan het succes van verzekeraars. Maar we willen wel een minstens zo stevig pleidooi houden dat daarbij oog moet zijn voor de risico's. Oog voor de uitlegbaarheid, voor de transparantie, voor de eerlijkheid van AI-toepassingen bijvoorbeeld. Alleen onder die voorwaarde kan het vertrouwen in AI toenemen.

Bent u benieuwd hoe KPMG u kan helpen de juiste balans te vinden om volop én op verantwoorde wijze AI-oplossingen in te richten? Neemt u dan vooral contact op met ons.