In het vorig artikel hebben we het gehad over de IT General Controls (ITGC) en het belang van goede beheersingsmaatregelen om algoritmes conform hun doel te laten functioneren. Ook bespraken we het belang van een goede inventarisatie voor inzicht in de algoritmes binnen uw organisatie. Dit inzicht, gecombineerd met beheersingsmaatregelen en ITGC’s helpen u bij het beheersen van risico’s omtrent algoritmes. Het beheersen van risico’s is echter iets anders dan het bieden van transparantie over het gebruik van data en algoritmes.
Waarom transparant zijn over algoritmes?
In het dagelijks leven gebruiken we legio technologieën waarvan we geen idee hebben hoe deze ‘onder de motorkap’ functioneren. Mensen doen bijvoorbeeld geen opleiding voertuigtechniek voordat ze in een auto stappen. De wens of noodzaak tot meer inzicht in technologie blijkt in het geval van gevestigde en bestaande technologie niet of weinig te bestaan. Bij opkomende technologie zoals algoritmes is transparantie juist een belangrijk thema in de discussie rondom veilige, eerlijke en beheerste algoritmes. Zo luidt bijvoorbeeld een van de aanbevelingen van de Algemene Rekenkamer in haar rapport Aandacht voor Algoritmes: “Geef de burgers inzicht in de toepassing van het algoritme en geef aan waar zij terecht kunnen als ze vragen hebben”. Ook in vrijwel ieder kader voor verantwoordelijke en ethische algoritmes is transparantie een kernprincipe, zoals bijvoorbeeld in het Ethisch Kader voor datagedreven besluitvorming van het Verbond van verzekeraars en de Ethische Richtsnoeren voor betrouwbare AI van de EU high level expert group.
Als persoonlijke data wordt verwerkt in algoritmes is transparantie hierover een vereiste vanuit de AVG. De Rekenkamer merkt echter op dat formeel voldoen aan de eisen van de AVG de burger niet voldoende zicht geeft op de algoritmes die hen raken. Dit roept de vraag op wat dan wel onder voldoende inzicht of transparantie kan worden verstaan.
Transparantie is geen doel op zichzelf
Een veel voorkomende reflex van organisaties is om transparantie te verschaffen door informatie over het gebruik van data en algoritmes in algemene bewoordingen op te nemen in een privacy statement. Dit geeft een individu geen inzicht in hoe een uitkomst in zijn of haar specifieke situatie kan worden verklaard. Het vermeende ‘black-box’ karakter van bepaalde algoritmes, zoals neurale netwerken, kan ervoor zorgen dat organisaties ervoor kiezen specifieke algoritmes te vermijden. Dit is echter alleen nodig als een detailleerde uitleg van individuele output vereist is. Als een algoritme is gericht op het optimaliseren van processen in plaats van personen, is zo’n gedetailleerde uitleg niet altijd nodig. Ook kan door middel van transparantie over werkwijze, aannames en rapportage over de betrouwbaarheid, heel goed verantwoording worden afgelegd over black-box algoritmes.
Bovenstaande voorbeelden laten zien dat transparantie zelden een doel op zichzelf is. Het doel dat transparantie dient voor een organisatie is bepalend voor hoe deze moet worden ingevuld:
Het black-box karakter van algoritmes zorgt voor een behoefte om de relatie tussen input en output van het algoritme te doorgronden, om tijdens het ontwikkelproces de betrouwbaarheid van algoritmes te kunnen toetsen. Om dit te bewerkstelligen zijn onder de noemer Explainable AI technische oplossingen ontwikkeld.
Met name wanneer een algoritme leidt tot besluiten met impact op de (rechts)positie van mensen is belangrijk dat deze besluiten voldoende onderbouwd worden, vanuit juridische vereisten of vanuit de beginselen van behoorlijk bestuur.
Publiekelijk uitdragen hoe wordt omgegaan met data en algoritmes is een manier om te laten zien dat de wet gevolgd wordt maar ook om inzicht te geven in hoe de organisatie afwegingen maakt ten aanzien van maatschappelijke waarden.
Wees doelgroepgericht transparant
Om praktisch en effectief invulling te geven aan transparantie moet naast het doel ook de doelgroep en haar informatiebehoefte centraal staan. De ontwikkelaar zal vragen naar een gedetailleerde technische omschrijving van de gebruikte gegevens en de manier waarop deze worden gewogen in de uitkomst. Een leek daarentegen zal in voor hem of haar begrijpelijke taal willen weten hoe de uitkomst in zijn of haar specifieke geval verklaard kan worden en welke andere eigenschappen tot een andere uitkomst hadden geleid. Als het doel is om de burger of klant te overtuigen van de technische werking van een algoritme in meer algemene zin, kan een evaluatie door derde partijen een methode zijn. Maar ook uitleg over het ontwikkelproces en manier van betrouwbaarheid meten is een manier om dit te bewerkstelligen. Volledige technische transparantie door middel van open source ontwikkeling schiet in dit geval waarschijnlijk zijn doel voorbij, omdat inhoudelijke expertise nodig is om dit te begrijpen.
Transparantie als bouwblok in de weg naar betrouwbare algoritmes
Transparantie is een hot topic in de discussie over algoritmes. Wanneer het wordt ingezet op de juiste manier kan het een belangrijke bijdrage leveren aan de betrouwbare en rechtmatige toepassing van algoritmes. Daarbij is het belangrijk dat de vorm van transparantie is afgestemd op het doel dat beoogd wordt en dat het begrijpelijk is voor de doelgroep. Transparantie is niet de oplossing op zichzelf, maar een belangrijk bouwblok in het stelsel van maatregelen dat nodig is om betrouwbare algoritmes te ontwikkelen en te gebruiken. Transparantie is niet voor niet voor niets een van de pijlers in vrijwel ieder ethisch kader voor algoritmes. In ons volgende blog gaan we nader in op de ethische vraagstukken rondom het gebruik van algoritmes.
Wilt u meer informatie over dit onderwerp of over onze AI-services? Neem dan contact op met Frank van Praat, director Trusted Analytics.
Auteurs van dit artikel zijn Ylja Remmits, senior consultant Trusted Analytics en Leon de Beer, senior manager Trusted Analytics.