
Het is een fascinerende tijd om mee te maken, als je kijkt naar de technologische vooruitgang en de belofte die dat met zich meebrengt. De afgelopen 25 jaar groeide de informatietechnologiesector explosief, wat de globalisering nog verder versneld heeft. Die ontwikkeling werd vooral aangedreven door internet en mobiele technologie.
Sinds 2017 zijn de ontwikkelingen op het gebied van Artificial Intelligence (AI) in een stroomversnelling geraakt. Doorbraken zoals de transformer-architectuur voor neurale netwerken hebben geleid tot generative pre-trained transformer (GPT) modellen, en daarmee tot generatieve AI (GenAI) toepassingen zoals ChatGPT. Sindsdien kijkt de wereld gefascineerd toe. Er wordt massaal geïnvesteerd in deze ‘magische’ technologie en naar verwachting loopt de totale besteding vanaf 2025 op tot meer dan 200 miljard dollar in vijf jaar.
Het tempo bijhouden is soms vermoeiend, maar ook ontzettend spannend. We werken daarom aan een reeks blogs die we publiceren onder het overkoepelende thema AI. Deze eerste blog is opgedeeld in twee delen. In dit eerste deel blikken we terug op wat we hierover deelden in de Security Navigator 2025. In het tweede deel kijken we op hoofdlijnen naar de mogelijke impact van AI op wereldwijde productiviteitsgroei. Lees hier deel twee.
Heb je de Security Navigator 2025 al gelezen, dan kun je de terugblik gerust overslaan.
In het hoofdstuk “Research: Artificial Intelligence – What’s All the Fuss” uit de Security Navigator 2025 schetsen we een globaal beeld van de impact van AI op cybersecurity, zowel verdedigend als aanvallend. Daarbij kijken we niet alleen naar de technische kant, maar ook naar de bredere gevolgen voor bedrijven en de samenleving.
De mens heeft altijd geprofiteerd van het maken van tools, en GenAI lijkt onze capaciteiten flink te gaan versterken – in positieve én negatieve zin. In het artikel uit de Security Navigator 2025 stellen we dat nieuwe technologieën vaak een asymmetrische impact hebben op security. In het begin profiteren aanvallers meestal het meest. Niet omdat cybersecurity tekortschiet, maar omdat nieuwe technologie zich eerst richt op functionaliteit en adoptie. Veiligheid komt vaak pas later in beeld.
We zien nu al dat aanvallers met overheidsbanden LLM’s inzetten voor dubieuze praktijken zoals social engineering of contentanalyse. Deze technieken hebben inmiddels ook hun weg gevonden naar de cybercrimewereld. Criminelen gebruiken real-time deepfake video en stemtechnologie om slachtoffers te misleiden.
Maar GenAI biedt ook kansen voor bescherming en beveiliging. In hetzelfde artikel uit de Security Navigator 2025 verkennen we het scenario waarin een groep LLM’s samenwerkt om kwetsbaarheden te analyseren en zelf patches te bouwen om systemen te beschermen tegen misbruik. Dit idee is niet nieuw – denk aan initiatieven zoals de DARPA awards of de DARPA AI Cyber Challenge – maar het laat wel zien hoe deze technologie kan bijdragen aan het bouwen van veilige software. Hopelijk is dit soort toepassingen beschikbaar vóór kwaadwillenden ermee aan de haal gaan. De Security Navigator 2025 zegt hierover het volgende:
“De gedachte dat tegenstanders dit soort activiteiten vaker of makkelijker kunnen uitvoeren is zorgelijk, maar vraagt niet per se om een fundamentele verandering van onze securitypraktijken of -technologie.”
Vasthouden aan goede industrienormen – zoals grondige risicoanalyses, threat management en kwetsbaarheden goed beheren – blijft essentieel. Alleen moet het tempo mee omhoog. De reactiesnelheid moet gelijk opgaan met de ontwikkelingen. Oftewel: vuur bestrijd je met vuur. De AI-wapenwedloop is begonnen.
De meeste grote bedrijven staan te popelen om AI toe te passen. Die gretigheid wordt vooral gevoed door de belofte van meer efficiëntie, het ontdekken van nieuwe kansen én de behoefte om relevant te blijven tussen alle marketingclaims van concurrenten die strooien met ‘AI-powered’ slogans.
Maar de hype rond vroege AI-adoptie is allesbehalve goedkoop. Grote organisaties met een volwassen IT-inkoopproces zijn doorgaans beter in staat om AI-gedreven software-as-a-service (SaaS) in te passen. Toch blijft het delen van gevoelige of bedrijfseigen data met een externe GenAI-aanbieder een serieuze risicofactor. Bedrijven die onvoldoende zicht hebben op compliance of regelgeving rondom dit soort oplossingen, kunnen daar later de gevolgen van ondervinden.
Aan de andere kant hebben organisaties met bestaande commerciële afspraken met grote cloudproviders zoals GCP, AWS of Azure juist een sterkere businesscase om met AI aan de slag te gaan. De uitdaging zit ‘m dan vooral in het correct labelen en classificeren van data, zodat toegang beperkt blijft tot wie het écht nodig heeft.
Ook maatschappelijke verantwoordelijkheid en duurzaamheidsdoelstellingen maken GenAI-adoptie soms ingewikkeld. Deze technologie staat bekend om z’n hoge energieverbruik. Bedrijven doen er dus goed aan om ook hun CO₂-voetafdruk in de gaten te houden, want die kan flink toenemen door het gebruik van GenAI.
Bij nieuwe technologie moeten we altijd stilstaan bij de mogelijke keerzijde. Dat gaat niet alleen om kwaadwillende toepassingen, maar ook om onvoorziene neveneffecten van het gebruik van LLM’s of het bouwen van deze modellen. In de Security Navigator 2025 maken we onderscheid tussen twee groepen: ‘consumenten’ en ‘producenten’ van LLM’s. Een consument gebruikt een LLM, terwijl een producent verantwoordelijk is voor het ontwikkelen ervan.
Voor gebruikers van LLM’s zien we een aantal risico’s:
datalekken;
hallucinerende antwoorden;
schending van intellectuele eigendomsrechten.
Aan de kant van de producenten of aanbieders van LLM’s spelen ook risico’s, zoals:
diefstal van het model;
manipulatie van het model (bijvoorbeeld om het richting een bepaalde bias te sturen of prestaties te verslechteren);
sabotage of verstoring van het model;
juridische aansprakelijkheid door misleidende, ongepaste of onrechtmatige output.
We verwachten dat er in de toekomst steeds nieuwe dreigingen opduiken voor zowel gebruikers als ontwikkelaars van LLM’s. De technologie van aanbieders is complex en wordt alleen maar complexer, met een steeds grotere attack surface als gevolg. Dat maakt deze modellen aantrekkelijk doelwit. Een succesvolle aanval kan een flinke ‘buit’ opleveren voor kwaadwillenden.
Veel aanvallen zullen vermoedelijk niet eens specifiek op LLM’s gericht zijn, maar lijken op klassieke aanvallen op webapplicaties. Omdat systemen vaak gekoppeld zijn aan interne datasets én verbonden zijn met het internet, ontstaat een complex dreigingslandschap waarin je goed je weg moet vinden.
De uitdaging bij GenAI is het ontwikkelen van systemen die betrouwbaar zijn en enige vorm van zekerheid bieden. Security speelt daarbij een rol, maar vormt niet het fundament. De basis moet solide zijn, anders is elk beschermingsmechanisme gedoemd te falen. We onderscheiden vier categorieën die te maken krijgen met bredere, mogelijk negatieve effecten:
Data privacy en datasoevereiniteit
Bedrijven zullen blijven worstelen met uitdagingen op het gebied van privacy en datasoevereiniteit. GenAI-systemen hebben steeds meer data nodig om te blijven leren en verbeteren, wat deze uitdagingen vergroot.
Afhankelijkheid van platformaanbieders
Ontwerpers van systemen moeten bewust keuzes maken om te voorkomen dat ze te sterk afhankelijk worden van één LLM-platform of cloudprovider (vendor lock-in).
Adoptie-moeheid
De druk om AI te omarmen neemt toe. Bedrijven voelen zich genoodzaakt om AI in te zetten om relevant te blijven. Aandeelhouders verwachten van het bestuur dat zij productiviteitswinst aantonen via AI. Bestuurders zullen hun koers moeten verleggen van een reactieve naar een strategische aanpak, waarin uitgaven worden afgewogen tegen de langetermijndoelen van de organisatie.
LLM’s versnellen social engineering
Aanvallers kunnen sneller en efficiënter overtuigende content maken om slachtoffers te misleiden. Het is nog onduidelijk of GenAI-content écht effectiever is, maar criminelen verfijnen hun gebruik van deze tools continu.
Globalisering van dreigingen
Met GenAI kunnen aanvallers zich richten op doelwitten die anders buiten bereik zouden liggen door taal- of cultuurverschillen. GenAI kan niet alleen vertalen, maar ook toon, structuur en omgangstaal aanpassen voor meer impact.
Versnelling van bestaande dreigingen
Een van de beloftes van GenAI is productiviteitswinst. Dat betekent dat ook minder technische aanvallers plots op een hoger niveau kunnen opereren, bijvoorbeeld door geautomatiseerd nieuwe skills aan te leren of taken uit te voeren.
Risico’s van data-aggregatie
Het verzamelen en bewaren van grote hoeveelheden data brengt grote beveiligingsrisico’s met zich mee. Deze datastores vormen een aantrekkelijk doelwit voor aanvallers.
AI als aanvalsmiddel
Aanvallers kunnen LLM’s gebruiken die online zijn verbonden en deze manipuleren om kwaadaardige handelingen voor hen uit te voeren. Dit creëert een nieuwe laag waarop dreigingen zich blijven ontwikkelen.
Privacy en persoonlijke informatie
LLM’s worden inmiddels geïntegreerd in sociale media, messaging apps, productiviteitstools, klantenservices en contentplatforms. Hierdoor wordt steeds meer persoonlijke data verzameld en gebruikt voor training en verbetering.
Auteursrecht en fair use
Content van het internet wordt gebruikt om AI-modellen te trainen zonder toestemming of compensatie voor de makers, terwijl de aanbieders er commercieel van profiteren.
Afnemende kwaliteit van content
De kwaliteit van onderzoek, journalistiek en creatief werk kan achteruitgaan. Het wordt cruciaal om gegenereerde content te markeren, zodat gebruikers weten hoe betrouwbaar en ethisch het tot stand is gekomen.
Fouten als permanente digitale waarheid
Fouten die LLM’s maken in gegenereerde code, rapporten of juridische documenten kunnen online blijven circuleren. In volgende iteraties kunnen deze onjuistheden onbedoeld opnieuw worden opgenomen, waardoor desinformatie wordt bestendigd.
Culturele en geopolitieke invloed van techreuzen
AI-modellen reflecteren de waarden en voorkeuren van de bedrijven die ze bouwen. Dat kan leiden tot bias en onevenredige invloed op culturele of geopolitieke schaal.
Misbruik van deepfakes
LLM’s maken het makkelijker om deepfake-beelden of -video’s te maken en die in te zetten om mensen te pesten, te intimideren of in diskrediet te brengen. Dat kan leiden tot een nieuwe vorm van online intimidatie, pesten en publieke vernedering.
Nieuwe technologieën die op internet zijn gebouwd, worden meestal ondersteund door of verpakt in lagen code en systemen die breed zijn omarmd. Dat betekent dat ‘nieuwe platforms’ vaak te maken krijgen met bekende kwetsbaarheden, veroorzaakt door ontwerp- of implementatiefouten in bestaande technologie.
Een solide securitybasis bouwen vraagt om expertise én vastberadenheid. Systemen moeten vanaf het begin ontworpen zijn met vertrouwelijkheid, integriteit en beschikbaarheid in het achterhoofd. Dat vereist zorgvuldige afwegingen bij het opzetten van de architectuur, de implementatie, uitrol én het doorlopend beheer – allemaal volgens veilige best practices.
Het is aan het senior management, inclusief de CISO, om ervoor te zorgen dat medewerkers alleen toegang hebben tot LLM-diensten die voldoen aan de geldende compliance- en regelgevingseisen voor veilig en verantwoord gebruik. Dit betekent onder andere:
medewerkers opleiden en trainen om LLM-oplossingen kritisch te beoordelen op kansen én risico’s, zodat ze passende keuzes maken en voorzichtig te werk gaan
het risico op datalekken verkleinen door te investeren in assurance-programma’s en technologieën die zowel opzettelijke als onbedoelde blootstelling van gevoelige informatie beperken
databeveiliging prioriteit geven: het correct labelen en classificeren van informatie binnen de organisatie wordt cruciaal om LLM-mogelijkheden te begrenzen op basis van de rol van de gebruiker
LLM’s zijn complexe wiskundige en statistische modellen die input analyseren en op basis daarvan voorspellen wat de volgende output moet zijn. Het vermogen van LLM’s om natuurlijke taal te ‘begrijpen’ en passende antwoorden te genereren, lijkt bijna magisch. De meeste GenAI-platforms hebben speciale veiligheidsmechanismen – ook wel alignment policies genoemd – die bedoeld zijn om te voorkomen dat een LLM schadelijke, misleidende of ongepaste content genereert.
Toch hebben zowel onderzoekers als aanvallers een techniek ontdekt die deze beschermlagen kan omzeilen: prompt injections. Met zo’n injectie kun je een LLM ‘jailbreaken’. De sessie is dan in staat om output te genereren die de makers nooit hadden bedoeld, of om buitensporig veel resources te verbruiken. Dat onderstreept hoe onvoorspelbaar het gedrag van een LLM kan zijn.
Prompt injection is geen nieuw fenomeen. Ontwikkelaars van LLM’s werken actief aan tegenmaatregelen om dit soort omzeilingen te voorkomen. Denk aan aanvallen via contextwissels, obfuscatie, denial-of-service of multimodale input die het model ‘in de war’ brengen.
Verdedigingsstrategieën tegen dit soort aanvallen zijn onder andere:
Beperken van de grootte van responses
Handmatige tussenkomst bij gevoelige acties
Bijhouden van de acties van het LLM
Regelmatige updates
Beveiligingstests
Wil je hier dieper in duiken? Bekijk dan het hoofdstuk “Tricking the AI: How to outsmart LLMs by using their ability to ‘think’” in de Security Navigator 2025.
Het kunnen herkennen van een zwak signaal in een zee van ruis en iets afwijkends eruit filteren is van grote waarde in de wereld van cybersecurity. Applicatie- en securitylogs zitten vaak vol met patronen die AI-modellen – die hongerig zijn naar data – kunnen gebruiken.
Aanvallers maken gebruik van tools die juist proberen op te gaan in de massa en daardoor verdwijnen in de ruis. Sommige van die tools zijn zogenoemde command and control (C2) frameworks. Die bieden een uitgebreide set aan mogelijkheden, gebouwd op een robuuste en flexibele architectuur. Binnen zo’n framework wordt vaak een signaal gebruikt dat ‘beaconing’ wordt genoemd – een soort digitale hartslag tussen de heimelijke software op het geïnfecteerde systeem en het commandocentrum van de aanvaller. Slimme aanvallers verbergen deze C2-beacons door het netwerkverkeer via eerder gecompromitteerde legitieme websites te laten verlopen. Daardoor wordt het voor mensen extra lastig om verdachte activiteit op te merken in grote hoeveelheden data.
AI-modellen zijn juist ontworpen om afwijkend netwerkverkeer te herkennen, bijvoorbeeld door te kijken naar herhalende verzoeken of patronen die afwijken van het normale verkeer. Alles wat niet past binnen het vertrouwde baselinegedrag valt op. Die geautomatiseerde detectie wordt gecombineerd met snelle respons, waardoor de tijd die een aanvaller ongemerkt in een systeem kan blijven (dwell time) flink wordt verkort.
Wil je hier meer over weten? Lees dan het hoofdstuk “Enhancing Beaconing Detection with AI-driven proxy log analysis” in de Security Navigator 2025.
Artificial Intelligence (AI) is een onderwerp dat z’n weg zal vinden naar veel meer gesprekken dan we ooit hadden gedacht. Onze terugblik op het AI-hoofdstuk in de Security Navigator 2025 vormt het startpunt voor veel toekomstige discussies. Het veilig en verantwoord inzetten van AI blijft een uitdaging, zeker met aanvallers die voortdurend in de schaduw opereren. Nieuwe technologieën die razendsnel nieuwe functies lanceren, geven aanvallers vaak in eerste instantie een voorsprong – terwijl de rest van de wereld nog bezig is om de echte impact te begrijpen.
Gelukkig werkt AI ook in het voordeel van wie het goed gebruikt. Het kan een krachtige multiplier zijn bij het opsporen van verdachte of kwaadaardige activiteiten.
Artificial Intelligence (AI)
AI refers to the simulation of human intelligence in machines, enabling them to perform tasks that typically require human intelligence, such as decision-making and problem-solving. AI is the broadest concept in this field, encompassing various technologies and methodologies, including Machine Learning (ML) and Deep Learning.
Machine Learning (ML)
ML is a subset of AI that focuses on developing algorithms and statistical models that allow machines to learn from and make predictions or decisions based on data. ML is a specific approach within AI, emphasizing data-driven learning and improvement over time.
Deep Learning (DL)
Deep Learning is a specialized subset of ML that uses neural networks with multiple layers to analyze and interpret complex data patterns. This advanced form of ML is particularly effective for tasks such as image and speech recognition, making it a crucial component of many AI applications.
Large Language Model (LLM)
LLMs are a type of AI model designed to understand and generate human-like text by being trained on extensive text datasets. These models are a specific application of Deep Learning, focusing on natural language processing tasks, and are integral to many modern AI-driven language applications.
Generative AI (GenAI)
GenAI refers to AI systems capable of creating new content, such as text, images, or music, based on the data they have been trained on. This technology often leverages LLMs and other Deep Learning techniques to produce original and creative outputs, showcasing the advanced capabilities of AI in content generation.