AI in Cybersecurity: Een dubbelzijdig zwaard

In dit stuk hebben we het over de dubbele rol van kunstmatige intelligentie (AI) in de informatiebeveiliging.
Enerzijds kan AI worden ingezet als een verdedigingsmiddel om bedreigingen te detecteren, te analyseren en te neutraliseren.
Anderzijds wordt AI steeds vaker gebruikt als een aanvalsmiddel om beveiligingssystemen te omzeilen, kwetsbaarheden te exploiteren en geavanceerde cyberaanvallen uit te voeren. We bespreken hier de huidige mogelijkheden, potentiele voordelen en realistische nadelen.
Verder zijn er natuurlijk nog een hoop andere use cases, dus misschien is het meer een werpster in plaats van een zwaard, maar bear with me.
AI als Aanvalsmiddel
Cybercriminelen gebruiken AI om geavanceerdere en effectievere aanvallen uit te voeren, dit gebeurt al op grote schaal en heeft zowel grote voordelen als nadelen voor een aanvaller. We bespreken er hier een aantal van, maar houd in het achterhoofd dat er per voor- of na-deel in sommige gevallen een boek aan te wijden zou kunnen zijn. Verder zijn er weinig groepen aanvallers die beschikbaar zijn voor een diepgaand interview, dus hou rekening met een opervlakkige beschouwing van hun werkzaamheden.
Geautomatiseerde Kwetsbaarheidsscanning
AI kan worden gebruikt om automatisch kwetsbaarheden in systemen en applicaties te scannen en te exploiteren op een grote schaal. Dit kan leiden tot:
- Snellere identificatie van kwetsbaarheden: AI kan kwetsbaarheden sneller identificeren dan handmatige methoden.
- Gerichte aanvallen: AI kan kwetsbaarheden gebruiken om gerichte aanvallen uit te voeren op specifieke systemen of gebruikers.
- Zero-day exploits: AI kan worden gebruikt om zero-day exploits te ontdekken, ontwikkelen en te gebruiken, waardoor systemen kwetsbaar zijn voordat er patches beschikbaar zijn.
Phishing en Social Engineering
AI kan worden gebruikt om phishing-aanvallen, spear-phishing en social engineering-campagnes te automatiseren en te personaliseren, waardoor ze effectiever worden. Dit kan leiden tot:
- Meer overtuigende phishing en spear-phishing -e-mails: AI kan phishing-e-mails genereren die er authentieker uitzien en moeilijker te detecteren zijn.
- Gepersonaliseerde social engineering-aanvallen: AI kan informatie verzamelen over individuele gebruikers en deze gebruiken om gepersonaliseerde social engineering-aanvallen uit te voeren.
- Deepfakes: AI kan deepfakes genereren, realistische maar valse video’s en audio-opnamen, om mensen te misleiden en te manipuleren. Momenteel vrij populair op het politieke spectrum.
Malware-ontwikkeling
AI kan worden gebruikt om malware te ontwikkelen die moeilijker te detecteren en te analyseren is. Dit kan leiden tot:
- Polymorfe malware: AI kan malware genereren die voortdurend van vorm verandert om detectie te voorkomen.
- Adversarial attacks: AI kan malware genereren die specifiek is ontworpen om AI-gebaseerde beveiligingssystemen te omzeilen.
- Autonome malware: AI kan malware genereren die autonoom kan opereren en zich kan verspreiden zonder menselijke tussenkomst.
Voordelen van AI in de Aanval
De inzet van AI in de aanval biedt cybercriminelen verschillende voordelen:
- Verhoogde efficiëntie: AI kan aanvallen automatiseren en versnellen.
- Verbeterde effectiviteit: AI kan aanvallen personaliseren en moeilijker te detecteren maken.
- Schaalbaarheid: AI kan aanvallen op grote schaal uitvoeren.
- Verminderde risico’s: AI kan aanvallen uitvoeren zonder menselijke tussenkomst, waardoor het risico op ontdekking wordt verminderd.
Nadelen van AI in de aanval
AI heeft ook nadelen voor cybercriminelen, en het zal voor weinigen een verassing zijn dat de nadelen voort komen uit de algemeen bekende zwakke punten van AI.
- Onvoorspelbaar en onbetrouwbaar: AI reageert nog altijd onvoorspelbaar en is niet altijd betrouwbaar. Zo komt het vaak genoeg voor dat modellen hallucineren, acties baseren op onbetrouwbare data of instructies onjuist intepreteren. Daarnaast komt het voor dat AI ronduit liegt.
- Slecht bestendig tegen tegenaanvallen: Modellen kunnen om de tuin geleid worden, beinvloed worden of verstoord worden. Verdedigers kunnen dit inzetten. Dit is een interessant onderwerp, en iets waar we in een later artikel op terug komen. Een paar voorbeelden zijn het ‘poison the well’ principe – waar trainingsdata voor aanvallende AI wordt vergiftigd met slechte data, of het inzetten van ‘ counterprompts’ om een aanval-operatie tot stilstand te brengen.
- Data afhankelijkheid: AI modellen hebben grote hoeveelheden, hoge kwaliteit data nodig om te trainen op bepaalde omgevingen, applicaties en typen architectuur. Wanneer deze data niet voldoende aanwezig is kunnen de resultaten minimaal zijn.
- Kosten, onderhoud en herleidbaarheid: Aanvallers kunnen natuurlijk gebruik maken van openbare modellen. Dit creert echter een groot risico op detectie, herleidbaarheid en daarnaast zijn openbare modellen niet gratis. Ook mogelijk is om zelf een model te trainen en te hosten, maar dit brengt kosten aan onderhoud, hosting en training met zich mee.
- Controleerbaarheid: Er zijn meerdere skills nodig om AI effectief in te zetten, zoals prompt engineering en machine learning operations. Vervolgens kan een AI model zorgen voor ruis in inhoud, doelwitten en irrelevante acties. Hierdoor kunnen AI aanvallen makkelijker gedetecteerd worden en kunnen de verkeerde doelwitten geraakt worden. Dit kan op zijn beurt weer zorgen voor tegenaanvallen en een acceleratie van contramaatregelen.
AI als Verdedigingsmiddel
AI biedt aanzienlijke voordelen voor het verbeteren van de informatiebeveiliging. De capaciteit van AI om grote hoeveelheden data te analyseren, patronen te herkennen en afwijkend gedrag te identificeren, maakt het een waardevol hulpmiddel voor het detecteren en voorkomen van cyberaanvallen.
Bedreigingsdetectie en -analyse
Traditionele beveiligingssystemen, gebaseerd op handmatige analyse en vooraf gedefinieerde regels, hebben moeite om gelijke tred te houden met de complexiteit en snelheid van moderne cyberaanvallen. AI kan deze beperkingen overwinnen door:
- Anomaliedetectie: AI-algoritmen kunnen leren wat normaal netwerkverkeer en gebruikersgedrag is en vervolgens afwijkingen identificeren die kunnen wijzen op een aanval.
- Adverserial Defense: AI tools kunnen ontworpen worden specifiek om AI aanvallen te voorkomen. Denk hierbij aan counterprompts en actief uitvoeren van “poison the well” – oftewel het vergiftigen van de beschikbare informatie voor een vijandige AI.
- Malware-analyse: AI kan malware-samples analyseren en classificeren op basis van hun gedrag en codekenmerken, zelfs als de malware nieuw of gemodificeerd is.
- Loganalyse: AI kan grote hoeveelheden loggegevens analyseren om verdachte activiteiten te identificeren die anders onopgemerkt zouden blijven.
- Voorspellende analyse: AI kan historische gegevens gebruiken om toekomstige bedreigingen te voorspellen en proactieve maatregelen te nemen om deze te voorkomen.
Geautomatiseerde Respons
Naast het detecteren van bedreigingen kan AI ook worden gebruikt om automatisch te reageren op incidenten, waardoor de reactietijd wordt verkort en de impact van een aanval wordt geminimaliseerd. Voorbeelden hiervan zijn:
- Automatische quarantaine: AI kan automatisch geïnfecteerde systemen in quarantaine plaatsen om verdere verspreiding van malware te voorkomen.
- Firewall-configuratie: AI kan firewalls automatisch configureren om verdacht verkeer te blokkeren.
- Patch-management: AI kan kwetsbaarheden identificeren en automatisch patches implementeren om deze te verhelpen.
- Gebruikersauthenticatie: AI kan biometrische gegevens en gedragspatronen gebruiken om gebruikers te authenticeren en ongeautoriseerde toegang te voorkomen.
Voordelen van AI in de Verdediging
De inzet van AI in de informatiebeveiliging biedt verschillende voordelen:
- Verbeterde detectie van bedreigingen: AI kan bedreigingen detecteren die traditionele beveiligingssystemen missen.
- Snellere reactietijd: AI kan automatisch reageren op incidenten, waardoor de reactietijd wordt verkort.
- Verminderde werklast voor beveiligingsprofessionals: AI kan repetitieve taken automatiseren, waardoor beveiligingsprofessionals zich kunnen concentreren op complexere taken.
- Verbeterde efficiëntie: AI kan de efficiëntie van beveiligingssystemen verbeteren door resources te optimaliseren en processen te automatiseren.
- Schaalbaarheid: AI-oplossingen kunnen gemakkelijk worden geschaald om aan de groeiende behoeften van een organisatie te voldoen.
Nadelen van AI in verdediging
Daartegenover zijn er ook nadelen voor het gebruik van AI tools in de verdediging. En net als in de aanval zijn ze herleidbaar naar de algemeen bekende zwakke punten van hedendaagse AI modellen.
- Onvoorspelbaar en onbetrouwbaar: Precies hetzelfde probleem als dat men heeft in het gebruik van AI in de aanval, en eigenlijk dus een eigenschap van AI in het algemeen, – AI hallucineert, is niet altijd betrouwbaar of compleet en liegt in sommige gevallen.
- Onbewezen en prijzig: Veel AI tools zijn nieuw, nog onbewezen maar brengen wel kosten met zich mee. Afhankelijk van de tool kunnen deze kosten lager zijn dan wat men daarvoor deed, maar het tegenovergestelde is ook zeker mogelijk. Zo kunnen AI tools morgen outdated zijn, onbetrouwbaar blijken of uitgebreide integratiewerkzaamheden vereisen.
- Slecht bestendig tegen aanvallen: Evenals aanvallende modellen hebben verdedigende modellen last van (nieuwe) manieren om om de tuin geleid te worden, beinvloed te worden of verstoord te worden. Denk hier aan prompt injection of AI jailbreaking methoden.
- Vereiste kennis en expertise: AI modellen vereisen kennis en expertise die nog niet breed te vinden is. Prompt engineering en Machine Learning Ops staan nog in de kinderschoenen. Hierdoor kunnen verkeerde opdrachten of configuratie vaker voorkomen.
De Wapenwedloop
De ontwikkeling van AI in zowel de verdediging als de aanval creëert een wapenwedloop. Naarmate de verdediging sterker wordt, worden de aanvallen geavanceerder en vice versa. Om deze wapenwedloop niet te verliezen, is het essentieel voor organisaties om;
- Te investeren in AI-onderzoek en de opleiding van werknemers: Organisaties zouden er goed aan doen om te investeren in onderzoek en ontwikkeling van AI-gebaseerde beveiligingsoplossingen om niet achter te raken in de race. Hier is kennis en expertise voor nodig die mogelijk nog niet voldoende aanwezig is binnen de organisatie.
- Samen te werken en informatie te delen: Organisaties zouden kunnen samenwerken en informatie delen over nieuwe bedreigingen en beveiligingsmaatregelen.
- Ethische overwegingen in acht te nemen: Het is belangrijk om ethische overwegingen in acht te nemen bij de ontwikkeling en inzet van AI in de informatiebeveiliging.
- Bewustzijn te creëren: Gebruikers moeten zich bewust zijn van de risico’s van AI-gebaseerde aanvallen en hoe ze deze kunnen herkennen en voorkomen.
- Regelgeving te ontwikkelen: Overheden moeten regelgeving ontwikkelen om het gebruik van AI in cyberaanvallen te reguleren. Organisaties doen er goed aan op de hoogte te blijven van regelgeving en kaders die momenteel worden ontwikkeld om goed bij te blijven.