

De snelle opkomst van kunstmatige intelligentie (AI) en generatieve AI (GenAI) verandert het landschap van cybersecurity. IT-managers en technische professionals staan voor nieuwe uitdagingen én kansen. In deze blogserie van Orange Cyberdefense duiken we in de impact van AI op cybersecurity. In dit eerste deel blikken we terug op de inzichten uit Security Navigator 2025 en bespreken we hoe GenAI zowel aanvallers als verdedigers in cybersecurity beïnvloedt.
AI verandert het speelveld van cybersecurity. In het hoofdstuk “Artificial Intelligence: What’s All the Fuss” uit Security Navigator 2025 wordt duidelijk dat GenAI zowel defensief als offensief ingezet kan worden. Nieuwe technologieën geven aanvallers vaak een voorsprong: functionaliteit en adoptie gaan voor veiligheid. Overheden en cybercriminelen gebruiken GenAI al voor social engineering, deepfakes en voice spoofing. Maar AI kan ook helpen bij het detecteren van kwetsbaarheden en het ontwikkelen van patches. De sleutel? Snelheid en voorbereiding.
“Dat tegenstanders AI vaker of gemakkelijker kunnen inzetten is zorgwekkend, maar vereist geen fundamentele verandering in onze securitypraktijken.”
Bedrijven willen AI inzetten voor efficiëntie, innovatie en concurrentiekracht. Maar de adoptie brengt uitdagingen met zich mee:
AI-adoptie vraagt om strategische keuzes, niet alleen technische integratie.
De opkomst van Large Language Models (LLM’s) brengt nieuwe risico’s met zich mee – niet alleen door kwaadwillend gebruik, maar ook door onbedoelde neveneffecten. In Security Navigator 2025 onderscheiden we twee groepen: gebruikers en ontwikkelaars van LLM’s. Beide kampen met unieke uitdagingen:
Voor gebruikers:
Voor ontwikkelaars:
Zakelijke risico’s
Dataprivacy en soevereiniteit: AI vraagt om meer data, wat compliance-uitdagingen vergroot
Afhankelijkheid van platforms: vendor lock-in ligt op de loer
Adoptie-moeheid: druk om AI te implementeren kan leiden tot overhaaste keuzes
Technische risico’s
Versnelling van social engineering
Globalisering van dreigingen
Automatisering van aanvallen
Datahoarding en aggregatie-risico’s
AI als aanvalsmiddel via internettoegang
Maatschappelijke risico’s
Privacyverlies via sociale media en apps
Auteursrecht en eerlijke compensatie
Kwaliteitsverlies in content en onderzoek
Culturele en geopolitieke beïnvloeding
Deepfakes en online intimidatie
Nieuwe AI-platforms zijn gebouwd op bestaande technologie en dus kwetsbaar voor bekende fouten. Een veilige basis begint bij:
De CISO speelt hierin een sleutelrol: zorg voor veilige, compliant toegang tot AI-tools.
LLM’s lijken slim, maar zijn voorspellende modellen. Ze kunnen worden misleid via zogeheten ‘prompt injections’ – slimme trucs om de ingebouwde veiligheidsmaatregelen te omzeilen. Dit kan leiden tot:
Beveiligingsmaatregelen zijn onder andere:
Cyberaanvallen worden steeds subtieler. AI helpt om afwijkend gedrag te herkennen in grote hoeveelheden netwerkverkeer. Denk aan:
AI-modellen kunnen patronen herkennen die voor mensen onzichtbaar zijn. Door snelle detectie en reactie wordt de ‘dwell time’ van aanvallers drastisch verkort.
AI en cybersecurity zijn onlosmakelijk met elkaar verbonden. GenAI biedt krachtige tools voor innovatie, maar vergroot ook het risico op aanvallen. In dit eerste deel van onze blogserie hebben we de belangrijkste inzichten uit Security Navigator 2025 samengevat. De boodschap is helder: wie AI strategisch en veilig inzet, kan cybersecurity versterken en voorbereid zijn op de dreigingen van morgen.
Lees ook deel 2 van deze blogserie over GenAI en productiviteit.