KPMG Nederland voegt AI Assurance toe aan haar Responsible AI-aanbod en ondersteunt organisaties daarmee met onafhankelijke controles van de AI-systemen, algoritmen en data-analyses die zij inzetten en aanbieden. Met haar Responsible AI-diensten helpt KPMG bedrijven al langer om AI verantwoord te gebruiken, met oog voor transparantie, ethiek en betrouwbaarheid. 

De maatschappelijke roep om meer toezicht en AI-regelgeving neemt (wereldwijd) toe. Uit KPMG-onderzoek blijkt dat Nederlanders hun vertrouwen in AI een 5,3 geven. Het vertrouwen blijft dus steken op een onvoldoende en ligt daarmee lager dan het wereldwijde gemiddelde. Nieuwe wet- en regelgeving, zoals de Europese AI Act, maakt het bovendien noodzakelijk dat bedrijven verantwoording afleggen over hun inzet van AI. Met AI Assurance draagt KPMG bij aan het verkleinen van die vertrouwenskloof. 

Van jaarrekening naar AI-systeem

Frank van Praat, Partner Responsible AI bij KPMG:  “Met onze assurance-diensten helpen we organisaties om grip te houden op hun AI-toepassingen. Denk aan het voorkomen van discriminatie, het beschermen van dataprivacy en het voldoen aan regelgeving. Zo bouwen we samen aan vertrouwen in technologie. Waar wij organisaties al decennialang zekerheid geven over hun cijfers, doen we dat nu ook voor AI-systemen.”

AI wordt steeds vaker ingezet in dagelijkse bedrijfsvoering, van klantcontact tot procesmanagement en besluitvorming. De potentiële impact van AI-falen neemt navenant toe. Incidenten door onbedoelde vooroordelen, privacyproblemen en onvoorziene fouten. Dit kan reputatieschade en omzetderving als gevolg hebben. Daarmee neemt ook de behoefte aan transparantie en verantwoording over de inzet van AI toe. AI Assurance op basis van KPMG’s Trusted AI Framework biedt organisaties kansen om te werken aan vertrouwen en aantoonbare compliance met wet- en regelgeving. Onderdelen van KPMG’s Responisble AI dienstverlening zijn:

•      AI Assurance: Zorgen voor goede, onafhankelijke controlemechanismen aanwezig zijn om verantwoording te waarborgen en transparante en ethische AI-praktijken te bevorderen.

•      AI Governance: Begeleiden bij het ontwerpen, invoeren en monitoren van AI-systemen, met aandacht voor wet- en regelgeving.

•      Gap-analyses en voorbereidingsscans: Evalueren van bestaande AI-systemen en het uitvoeren van technische checks, zoals robuustheidstests om kwetsbaarheden te identificeren.

Hiermee bouwt KPMG voort op haar jarenlange geschiedenis en ervaring in het bieden van ondersteuning en onafhankelijk inzicht in het AI-domein. In 2019 ontwikkelde KPMG al een raamwerk voor de Gemeente Amsterdam met relevante maatregelen om AI verantwoord te gebruiken. Sindsdien heeft de dienstverlening zich in hoog tempo doorontwikkeld. Daarbij zijn ook relevante wetten en richtlijnen als de AI Act, ISO42001 en het NIST AI Risk Management Framework in de methoden en technieken geïntegreerd. Dit stelt KPMG in staat een onafhankelijk oordeel af te geven in het AI-domein op basis van erkende en herkenbare standaarden.

Bestuurders en toezichthouders krijgen steeds vaker de vraag hoe zij zekerheid bieden over het gebruik van AI. “AI vraagt om afspraken, toezicht en transparantie,” zegt Van Praat. “Wij helpen organisaties daar invulling aan te geven zodat ze verantwoord kunnen blijven innoveren.” 

Onze organisatie