Wanneer incidenten rond jongeren en AI de media halen, zoals recente berichtgeving over een chatbot die gevaarlijk advies gaf, slaat de angst snel toe. Verhalen over psychoses, suïcidale gedachten of ontspoorde gesprekken maken begrijpelijk veel los. Maar achter die schrik zit een bredere ontwikkeling die we niet kunnen negeren. Jongeren wenden zich op grote schaal tot AI voor steun en advies. Volgens de Nationale AI Vertrouwensmonitor van KPMG gebruikt inmiddels twintig procent van de achttien tot vierendertigjarige AI-gebruikers voor vragen over hun mentale gezondheid.

Voor Marc van Meel, Responsible AI Lead bij KPMG, is dat percentage geen verrassing. “De drempel is laag. AI is altijd dichtbij op je telefoon en er zit geen schaamte of wachttijd aan vast”,  zegt hij. Jongeren leven bovendien in een tijd van verandering waarin onzekerheden zich opstapelen. De wooncrisis, economische druk, klimaatstress en de naweeën van de COVID-19 jaren vormen samen een mentale belasting die niet eenvoudig weg te relativeren is. “De helft van de Nederlandse jongeren overweegt zelfs te emigreren. Dat zegt iets over hoe groot hun zorgen zijn.”

AI als eerste aanspreekpunt

Deze nieuwe wereld maakt helder waarom jongeren een laagdrempelig kanaal zoeken. Voor vragen of twijfels kan AI een veilige eerste stap lijken. Tot voor kort leidde die zoektocht naar online fora, uiteenlopende blogs en losse meningen waar jongeren zelf doorheen moesten filteren. “Voor dit soort vragen vonden jongeren vooral algemene adviezen”, zegt Marc. “Met AI krijgen ze voor het eerst snel en kant-en-klare antwoorden op specifieke vragen. Voor veel mensen is AI dan ook het nieuwe Google geworden. En bij veelvoorkomende vragen, waar veel informatie over bestaat, zijn de antwoordelijk vaak nog redelijk tot goed betrouwbaar ook!”

Daarbij helpt AI jongeren om onderwerpen bespreekbaar te maken waar nog steeds een taboe op rust. Ook dat is niet onbelangrijk. Zeker nu de jeugdzorg aangeeft dat het aantal jongeren met lichte problematiek niet meer goed te verwerken is en wachttijden oplopen. “Wellicht kan AI, mits goed ingericht, juist daar een positieve rol spelen”, zegt Marc. “Niet als vervanging van hulpverlening, maar als eerstelijns ondersteuning zodat jongeren niet in stilte blijven zitten.”

Van ‘Computer Says No’ naar ‘AI Says Yes’

Toch is er een grens waar AI niet overheen kan. Veel jongeren ervaren een AI chatbot als begripvol en empathisch, maar die indruk is misleidend. “Wat de achterliggende taalmodellen doen is simpelweg voorspellen wat de meest waarschijnlijke volgende woorden zijn. Dat voelt menselijk, maar het ís het niet”, licht Marc toe.

Juist dat is een risico. Want mentale ondersteuning vraagt niet alleen om warmte, maar soms ook om begrenzing, confrontatie of een duidelijk ‘nee’. Chatbots bieden echter vooral bevestiging en meebewegen, omdat ze zo ontworpen zijn. “Taalmodellen zijn getraind om bevredigende antwoorden te geven en met je mee te praten”, zegt Marc. “Een deel van alle output is bovendien niet betrouwbaar. Dat noemen we hallucinaties. In combinatie met het menselijk ontwerp, zoals de chatinterface en de typeanimatie, lijkt het alsof je spreekt met een intelligent iemand die jou begrijpt, maar dat is niet zo.”

Marc verwijst naar de psycholoog Carl Jung, die onderscheid maakte tussen archetypen. “Jung schreef dat de meeste groei ligt in wat we juist vermijden. Chatbots vertegenwoordigen het moederarchetype: mild, bevestigend, niet-oordelend. Maar ontwikkeling vraagt soms om het vaderarchetype: grenzen, confrontatie, duidelijkheid. Dat ga je niet krijgen van een chatbot. Daarom blijft hulp van een professional onmisbaar.”

Privacyrisico’s: nog steeds actueel

Naast de inhoudelijke beperkingen is privacy een belangrijke zorg. Veel systemen draaien op Amerikaanse of Chinese servers en het is onduidelijk wat er met gesprekken gebeurt. “We weten eerlijk gezegd niet precies wat ermee gebeurt, en daarin schuilt het probleem”, zegt Marc. “Hoogstwaarschijnlijk wordt de data gebruikt om nieuwe modellen te trainen.”
Dat is in strijd met de verwachting die veel gebruikers hebben.

Daar komt bij dat de VS in het kader van de AVG, de Europese privacy wetgeving, niet als veilig derde land wordt beschouwd. Persoonsgegevens kunnen daar onder omstandigheden worden gedeeld met de Amerikaanse autoriteiten. En het risico strekt zich ook uit naar de werkvloer. “Bij AI-gebruik vervagen de grenzen tussen privé en zakelijk steeds meer”, zegt Marc. “Een medewerker weet, wanneer hij thuis mondeling iets deelt, precies wat er met die informatie gebeurt. Maar wat als een medewerker via een chatbot deelt dat een onderhandeling is vastgelopen of dat zijn leidinggevende niet functioneert? Dan komt die informatie mogelijk op een buitenlandse server terecht. Het nieuwe datalekrisico voor organisaties is dus niet de phishingmail, maar de AI-vrienden van medewerkers!”

Techniek ontwikkelt snel, maar onze omgang ermee blijft achter

Terwijl het publieke debat vooral focust op risico’s en incidenten, ontwikkelt de technologie zelf razendsnel door. Grote generalistische modellen maken plaats voor kleinere gespecialiseerde AI-agents die zijn ontworpen voor specifieke taken en toegang hebben tot kwalitatieve data. “Daarnaast zien we dat reinforcementmethoden worden toegepast en dat modellen met elkaar gaan concurreren”, zegt Marc. “Dat alles moet het hallucinatiepercentage verlagen en het vertrouwen vergroten.”

Daardoor is het niet ondenkbaar dat er binnen afzienbare tijd modellen ontstaan die wél geschikt zijn voor eerstelijns mentale ondersteuning, mits ze goed ontworpen en verantwoord ingezet worden.

Werken aan AI-geletterdheid

Maar zelfs de beste techniek heeft beperkte waarde zonder kennis aan de gebruikerskant. “We moeten als maatschappij fors investeren in AI-geletterdheid, zowel privé als op werk”, benadrukt Marc. “Ouders, scholen, bedrijven en instanties moeten zorgen dat mensen begrijpen wat AI kan, wat het níet kan en wanneer je terug moet vallen op professionals. Als je van jongs af aan weet hoe deze systemen werken, kun je geïnformeerde keuzes maken. Ook wanneer het gaat over je mentale gezondheid.”

De kernvraag

De vraag is dus niet of AI een zegen of een vloek is. De eerlijkere vraag is of wij als samenleving – individuen én organisaties – voldoende zijn toegerust om deze technologie verantwoord te gebruiken. AI is geen hype; het is diep verweven geraakt in hoe we leven, leren, werken en antwoorden zoeken. Dat brengt kansen, maar ook risico’s. Het is onze gezamenlijke taak om te zorgen dat die zoektocht veilig en bewust gebeurt. Dat vraagt om duidelijke kaders, AI-geletterdheid en verantwoordelijkheid op alle niveaus: van ouders en scholen tot bedrijven en overheden.