Acht AI-gerelateerde cyberdreigingen voor 2024
In de komende jaren zullen AI-gedreven technologieën een cruciale rol spelen in zowel cyberaanvallen als verdediging. Cybercriminelen maken dankbaar gebruik van deze nieuwe technologieën, wat leidt tot nieuwe en verhoogde risico’s. Deze blog beschrijft acht belangrijke AI-gerelateerde cyberdreigingen voor 2024 en welke stappen organisaties kunnen nemen om zich daartegen te beschermen.
1) AI-gedreven phishing aanvallen
In 2024 zullen cybercriminelen dankzij generatieve AI zoals FraudGPT een enorm voordeel hebben bij het lanceren van geavanceerde en gepersonaliseerde spear-phishingaanvallen. Door enorme hoeveelheden gegevens over individuen te analyseren, kunnen AI-algoritmen overtuigende en op maat gemaakte phishing-e-mails en smishing-teksten maken en zelfs beantwoorden. Dit verhoogt het succespercentage van cyberaanvallen aanzienlijk. Aanvallers kunnen e-mails in verschillende talen automatiseren, informatie van openbare sites zoals LinkedIn schrapen en grootschalige, sterk gepersonaliseerde social engineering-aanvallen creëren. Zodra dreigingsactoren toegang hebben tot een e-mailaccount, kunnen ze met behulp van AI automatisch belangrijke contacten, gesprekken en bijlagen doorzoeken en bijgewerkte documenten met malware terugsturen. Dit maakt het voor gebruikers bijna onmogelijk om kwaadaardige actoren te identificeren.
Aanbevolen beschermende maatregelen:
- Train medewerkers regelmatig om geavanceerde phishing-aanvallen te herkennen en meldingsprocedures te volgen.
- Implementeer AI-gebaseerde e-mailbeveiligingsoplossingen die verdachte activiteiten kunnen detecteren en blokkeren.
- Gebruik multifactor-authenticatie (MFA) om een extra beveiligingslaag toe te voegen.
2) Deepfakes en Social Engineering
Deepfake-technologie gebruikt AI om zeer realistische valse video's en audio te creëren. Cybercriminelen gebruiken deze technologie steeds vaker voor social engineering-aanvallen, zoals CEO-fraude, om vertrouwelijke informatie te verkrijgen, financiële transacties te manipuleren of processen te verstoren.
Aanbevolen beschermende maatregelen:
- Investeer in geavanceerde detectietools die AI gebruiken om deepfakes te herkennen.
- Train medewerkers om waakzaam te zijn voor ongebruikelijke communicatie en verifieer gevoelige verzoeken via meerdere kanalen.
- Implementeer strikte verificatieprocedures voor financiële transacties en vertrouwelijke communicatie.
Lees mijn artikel over voice-cloning:link.
3) Desinformatie-as-a-service
Eenvoudig toegankelijke tools voor het creëren van deepfakes en voice-cloning leiden tot een toename van desinformatiecampagnes. Deze campagnes zijn gericht op het beïnvloeden van de publieke opinie en het beschadigen van reputaties. Door de ontwikkeling in AI is het nu zo goedkoop en eenvoudig om desinformatie te maken, dat het bijna onmogelijk wordt om echt van nep te onderscheiden. Desinformatiecampagnes kunnen aanzienlijke reputatieschade en financiële verliezen veroorzaken.
Aanbevolen beschermende maatregelen:
- Monitor sociale media en andere online platforms voor valse informatie over uw bedrijf.
- Gebruik AI-tools om de verspreiding van desinformatie te detecteren en tegen te gaan.
- Werk samen met PR- en juridische teams om snel te reageren op desinformatie.
4) CAPTCHA-brekende AI-technieken (prompt-injectie)
Nieuwe functionaliteiten in generatieve AI-tools, zoals de mogelijkheid in ChatGPT om afbeeldingen te lezen, leiden tot prompt-injectie-aanvallen. Hierbij voert de tool instructies uit een afbeelding uit in plaats van die van de eindgebruiker. Deze functionaliteit kan ook worden gebruikt om CAPTCHA-codebeveiligingen te omzeilen.
Aanbevolen beschermende maatregelen:
- Implementeer CAPTCHA-methoden die moeilijker te breken zijn door AI, zoals die welke gebruikersinteracties vereisen (bijv. slepen en neerzetten) of contextuele vragen stellen die menselijke interpretatie vereisen.
5) Ontwikkeling van exploit-code
Hackers gebruiken ChatGPT en andere AI-tools om geavanceerde kwaadaardige code en malware te ontwikkelen die detectie door traditionele antivirussoftware ontwijkt. Dit kan zonder ervaring in programmeren of technische kennis. Ook zullen er meer kwaadaardige alternatieven voor ChatGPT ontstaan, zoals FraudGPT en WormGPT. AI-tools maken het voor kwaadwillenden gemakkelijker om complexe malware en exploits te ontwikkelen.
Aanbevolen beschermende maatregelen:
- Monitor voortdurend op nieuwe en opkomende bedreigingen die AI gebruiken om exploit-code te creëren.
- Investeer in AI-gedreven beveiligingsoplossingen die anomalieën kunnen detecteren en reageren op verdachte activiteiten.
- Voer regelmatige penetratietests en beveiligingsaudits uit om kwetsbaarheden te identificeren en te verhelpen.
6) “Hallucinations” van AI
Wanneer AI onjuiste informatie verschaft, wordt dit 'hallucinaties' genoemd. Dit kan tot risico’s leiden wanneer ontwikkelaars AI-tools gebruiken die fictieve softwarebibliotheken verzinnen. Kwaadwillenden kunnen ervoor zorgen dat deze bibliotheken daadwerkelijk bestaan, maar dan met schadelijke functies. De ontwikkelaar downloadt vervolgens de door AI aanbevolen kwaadaardige bibliotheek.
Een beveiligingsonderzoeker ontdekte onlangs dat chatbots verwezen naar een niet-bestaand Python-pakket met de naam "huggingface-cli". link Hij besloot een leeg pakket met deze naam online te plaatsen en merkte dat het binnen drie maanden meer dan 35.000 keer werd gedownload.
Aanbevolen beschermende maatregelen:
- Gebruik betrouwbare bronnen voor het downloaden van repositories en controleer de integriteit van de bestanden.
- Controleer details in de pakketrepository zorgvuldig, zoals publicatiedatum, commits, maintainers, de community en het aantal downloads.
7) AI gestuurde botnets
AI-gestuurde botnets kunnen langere tijd aanvallen uitvoeren en in realtime gemakkelijk hun strategieën aanpassen. Ze zijn in staat om hun aanvallen te verfijnen en te verbeteren zonder menselijke tussenkomst. Door de snelheid waarmee ze zich kunnen ontwikkelen, zijn ze moeilijker te detecteren en te bestrijden dan traditionele botnets. Een ander gevaarlijk aspect van AI-gestuurde botnets is hun vermogen om menselijk gedrag na te bootsen. Dit maakt het voor traditionele beveiligingssystemen uiterst moeilijk om deze bots van legitieme gebruikers te onderscheiden.
Aanbevolen beschermende maatregelen:
- Investeer in geavanceerde beveiligingssystemen die gebruikmaken van AI en machine learning om bedreigingen te detecteren en te neutraliseren.
8) Chatbot manipulatie
Veel organisaties integreren grote taalmodellen (LLM's) in hun chatbots om de klantenservice en het gebruikersgemak te verbeteren. Dit brengt echter het risico met zich mee dat hackers deze slimme chatbots misbruiken om toegang te krijgen tot gegevens die voorheen ontoegankelijk waren. Hackers kunnen gerichte prompts gebruiken om chatbots te misleiden en hun controles te omzeilen, waardoor gevoelige informatie wordt vrijgegeven en datalekken ontstaan.
Aanbevolen beschermende maatregelen:
- Zorg ervoor dat de chatbot geen toegang heeft tot informatie die niet openbaar gedeeld mag worden. Gebruik filters en beperkingen om te voorkomen dat de chatbot op prompts reageert die gevoelige informatie kunnen ontlokken.
- Voer regelmatige penetratietesten uit op uw chatbot-implementaties om potentiële zwaktes en kwetsbaarheden te identificeren en te verhelpen.
Conclusie
De opkomst van AI in het cyberdreigingslandschap biedt zowel uitdagingen als kansen voor bedrijven. Door zich bewust te zijn van de nieuwste trends en proactieve maatregelen te nemen, kunnen organisaties zich beter beschermen tegen de geavanceerde aanvallen van morgen. Het is van cruciaal belang om te investeren in zowel technologie als training om een robuuste en adaptieve beveiligingsstrategie te ontwikkelen.
Ontdek meer
Contact
Deze blog is geschreven door Matthieu Paques. Het team is te bereiken via de blue hat hacker mailbox:NL-FMBlueHatHackers@kpmg.nl.
Schrijf je in voor onze nieuwsbrief
Wij houden je op de hoogte per e-mail. Geef hier je voorkeuren door.