Blog

Waarom AI mensen in cybersecurity niet snel vervangt

Close-up van een geavanceerde robot en een mens die elkaar aankijken, wat de balans tussen AI en mens benadrukt.

AI groeit razendsnel, maar kan het echt alles?

De opkomst van kunstmatige intelligentie (AI) heeft de afgelopen jaren een revolutie teweeggebracht in hoe we werken, communiceren en onze dagelijkse taken uitvoeren. Van chatbots die direct antwoorden geven op al je vragen tot geavanceerde AI-systemen die medische diagnoses ondersteunen; de mogelijkheden lijken eindeloos. Met de opkomst van AI zijn tal van (werk)processen efficiënter geworden – en het einde van de AI-ontwikkeling lijkt nog niet in zicht. Toch is het belangrijk om te beseffen dat, ondanks de duizelingwekkende ontwikkelingen, AI nog steeds vele beperkingen kent. De technologie is indrukwekkend, maar er zijn nog altijd genoeg dingen die AI niet kan doen — althans, niet op de manier waarop wij mensen dat kunnen.

AI (chatbots): IQ vs EQ

Hoewel AI in staat is om ingewikkelde analyses uit te voeren, code te schrijven, voorspellingen te doen en zelfs creatief werk te genereren, blijft het in andere gebieden beperkt. De belangrijkste beperking van AI zit hem in het feit dat het (nog) niet in staat is tot zelfreflectie of het ervaren van emoties zoals een mens dat kan. Het mist het vermogen om (emotionele) context te begrijpen op de manier waarop mensen dat doen. Neem het plaatje hieronder uit een boek van Randall Munroe

Een stickfigure-tekening in XKCD-stijl van een kind die een lasso vastheeft. Het kind heeft een vaas met bloemen omgestoten terwijl een ouder persoon toekijkt. Wanneer je aan een mens vraagt wat er in dit plaatje is gebeurd, zal diegene snel de conclusie trekken dat in het meest waarschijnlijke scenario het kind tijdens het spelen van cowboy de vaas heeft omgegooid. Hier heb je echter menselijk inschattingsvermogen en gevoel voor context voor nodig. Wanneer we dezelfde vraag aan een AI chatbot stellen, krijgen we namelijk het volgende antwoord:


Een screenshot van een gesprek waarin iemand aan ChatGPT vraagt om uitleg over een tekening in XKCD-stijl. De uitleg beschrijft een situatie met een kat, een lasso en de omgevallen vaas met bloemen.

De chatbot legt niet de link tussen de lasso en de cowboyhoed en denkt in plaats daarvan dat het om een hondenriem gaat. Het begrijpt ook niet dat het waarschijnlijk is dat het kind cowboy aan het spelen was – wat vaak gepaard gaat met het zwaaien van de lasso – en daarmee hoofdverdachte is voor het omstoten van de vaas. 

Met andere woorden: AI mag dan wel qua IQ kunnen meten met mensen, maar kent geen EQ (emotionele intelligentie). Zo kan een AI dan wel teksten lezen of afbeeldingen interpreteren, maar begrijpt het niet écht wat het ziet en mist het de onderliggende betekenis, nuances en emoties die mensen normaal gesproken uit teksten of afbeeldingen halen. 

Daarnaast kan AI geen niet moreel of ethisch oordelen zoals mensen dat doen. Een AI kan objectief data verwerken en patronen herkennen, maar het is niet in staat om de ethische implicaties van bepaalde keuzes in een menselijke context te begrijpen. Dit is cruciaal voor situaties waarin beslissingen niet alleen gebaseerd moeten zijn op feiten, maar ook op waarden en morele overwegingen.

Wat kan AI (nog) niet in de wereld van security awareness?

Als we nu de brug naar ons vakgebied slaan en nadenken over AI in de context van cybersecurity, wordt het duidelijk dat AI niet de volledige oplossing biedt voor alle uitdagingen waar organisaties mee te maken hebben. Cybersecurity is een complex en dynamisch vakgebied en bevat belangrijke gebieden waar AI nog steeds tekortschiet:

  1. Menselijke intuïtie en ervaring
    AI kan wellicht phishing-aanvallen identificeren op basis van patroonherkenning en het analyseren van verdachte links, maar het is niet in staat om de subtiele psychologische trucs en manipulatie die vaak bij social engineering komen kijken volledig te begrijpen. Het kan dus moeilijk zijn voor AI om te anticiperen op nieuwe, innovatieve manieren van menselijke manipulatie die niet in bestaande data zijn opgenomen.

  2. Contextueel begrip van bedreigingen
    AI mist de capaciteit om de bredere context van een bedreiging te begrijpen. Terwijl AI getraind kan worden om bepaalde soorten aanvallen of patronen te herkennen, kan het niet volledig begrijpen waarom een aanval zich in een specifieke situatie voordoet, of welke impact deze kan hebben op de bedrijfsvoering op lange termijn. Dit betekent dat AI vaak niet in staat is om de dynamische (en vaak onvoorspelbare) aard van security bedreigingen volledig te doorzien. Hier is de inschatting van securityprofessionals nog altijd voor nodig.

  3. Ethiek en besluitvorming
    Bij cybersecurity komen soms ethische dilemma’s kijken. Het bekendste voorbeeld is de eeuwige discussie over de afweging tussen veiligheid en het waarborgen van privacy. AI is niet uitgerust om dit soort morele beslissingen te nemen. Het kan weliswaar helpen bij het automatiseren van taken en het reageren op incidenten, maar het mist de flexibiliteit om complexe ethische keuzes te maken die soms nodig zijn in de wereld van cybersecurity.

  4. Proactief handelen en anticiperen
    AI is goed in het reageren op bekende dreigingen en het detecteren van verdachte patronen. Het ontbreekt echter aan vooruitziendheid en de mogelijkheid om te anticiperen op nieuwe dreigingen, wat betekent dat menselijke experts altijd een belangrijke rol zullen spelen in het ontwikkelen van proactieve strategieën. AI kan niet volledig voorspellen hoe dreigingen zich in de toekomst zullen ontwikkelen, vooral als ze onverwacht of ongewoon zijn.
Meer over AI

Lees hoe AI voor nieuwe leerervaringen zorgt

Foto van Nordin van den Hoogen, Program Manager bij Behaav.

De symbiose van mens en machine

De opkomst van AI biedt enorme voordelen op het gebied van automatisering en efficiëntie. Tegelijkertijd moeten we ons realiseren dat AI, hoe geavanceerd ook, niet alles van ons kan overnemen. De menselijke factor blijft essentieel, vooral wanneer het gaat om complexe besluitvorming, het begrijpen van context en het anticiperen op nieuwe dreigingen. In de wereld van cybersecurity blijft dus het behouden van een gezonde balans tussen AI en menselijke experts de sleutel tot het creëren van een veilige digitale omgeving. Zo kunnen we optimaal gebruikmaken van de kracht van AI zónder onze eigen intuïtie, gevoel voor context en ethische overwegingen te verliezen.

AI is een krachtig hulpmiddel in cybersecurity, maar heeft beperkingen. Het kan patronen herkennen, maar geen morele beslissingen nemen. Lees waarom cybersecurity een vakgebied blijft waar menselijke expertise essentieel is.