Select your country

Not finding what you are looking for, select your country from our regional selector:

Zoeken

AI en cybersecurity: risico’s, kansen en GenAI in balans

Introductie

De snelle opkomst van kunstmatige intelligentie (AI) en generatieve AI (GenAI) verandert het landschap van cybersecurity. IT-managers en technische professionals staan voor nieuwe uitdagingen én kansen. In deze blogserie van Orange Cyberdefense duiken we in de impact van AI op cybersecurity. In dit eerste deel blikken we terug op de inzichten uit Security Navigator 2025 en bespreken we hoe GenAI zowel aanvallers als verdedigers in cybersecurity beïnvloedt.

AI en cybersecurity in Security Navigator 2025

AI verandert het speelveld van cybersecurity. In het hoofdstuk “Artificial Intelligence: What’s All the Fuss” uit Security Navigator 2025 wordt duidelijk dat GenAI zowel defensief als offensief ingezet kan worden. Nieuwe technologieën geven aanvallers vaak een voorsprong: functionaliteit en adoptie gaan voor veiligheid. Overheden en cybercriminelen gebruiken GenAI al voor social engineering, deepfakes en voice spoofing. Maar AI kan ook helpen bij het detecteren van kwetsbaarheden en het ontwikkelen van patches. De sleutel? Snelheid en voorbereiding.

“Dat tegenstanders AI vaker of gemakkelijker kunnen inzetten is zorgwekkend, maar vereist geen fundamentele verandering in onze securitypraktijken.”

AI-adoptie: GenAI als kans én risico voor bedrijven

Bedrijven willen AI inzetten voor efficiëntie, innovatie en concurrentiekracht. Maar de adoptie brengt uitdagingen met zich mee:

  • Compliance en dataveiligheid: gevoelige informatie delen met GenAI-diensten vraagt om strikte controle
  • Cloudcontracten: bestaande afspraken met GCP, AWS of Azure maken integratie eenvoudiger
  • Energieverbruik: GenAI is energie-intensief en kan de CO₂-voetafdruk vergroten

AI-adoptie vraagt om strategische keuzes, niet alleen technische integratie.

Nieuwe dreigingen door LLM’s in cybersecurity

De opkomst van Large Language Models (LLM’s) brengt nieuwe risico’s met zich mee – niet alleen door kwaadwillend gebruik, maar ook door onbedoelde neveneffecten. In Security Navigator 2025 onderscheiden we twee groepen: gebruikers en ontwikkelaars van LLM’s. Beide kampen met unieke uitdagingen:

Voor gebruikers:

  • Datalekken door onzorgvuldig gebruik
  • Hallucinaties: AI die foutieve of verzonnen informatie geeft
  • Schending van auteursrechten

Voor ontwikkelaars:

  • Diefstal of manipulatie van het model
  • Juridische aansprakelijkheid bij misleidende of ongepaste output
  • Verlies van controle over modelgedrag

Brede impact van AI op business, techniek en maatschappij

Zakelijke risico’s

  • Dataprivacy en soevereiniteit: AI vraagt om meer data, wat compliance-uitdagingen vergroot

  • Afhankelijkheid van platforms: vendor lock-in ligt op de loer

  • Adoptie-moeheid: druk om AI te implementeren kan leiden tot overhaaste keuzes

Technische risico’s

  • Versnelling van social engineering

  • Globalisering van dreigingen

  • Automatisering van aanvallen

  • Datahoarding en aggregatie-risico’s

  • AI als aanvalsmiddel via internettoegang

Maatschappelijke risico’s

  • Privacyverlies via sociale media en apps

  • Auteursrecht en eerlijke compensatie

  • Kwaliteitsverlies in content en onderzoek

  • Culturele en geopolitieke beïnvloeding

  • Deepfakes en online intimidatie

AI veilig inzetten: cybersecurity begint bij de basis

Nieuwe AI-platforms zijn gebouwd op bestaande technologie en dus kwetsbaar voor bekende fouten. Een veilige basis begint bij:

  • Security by design: vertrouwelijkheid, integriteit en beschikbaarheid vanaf de start
  • Toegangsbeheer: LLM’s beperken op basis van rol en dataclassificatie
  • Training en bewustwording: medewerkers leren risico’s herkennen
  • Assuranceprogramma’s: om datalekken te voorkomen

De CISO speelt hierin een sleutelrol: zorg voor veilige, compliant toegang tot AI-tools.

Prompt injections: hoe aanvallers GenAI misbruiken

LLM’s lijken slim, maar zijn voorspellende modellen. Ze kunnen worden misleid via zogeheten ‘prompt injections’ – slimme trucs om de ingebouwde veiligheidsmaatregelen te omzeilen. Dit kan leiden tot:

  • Ongewenste of schadelijke output
  • Overmatig gebruik van resources
  • Onvoorspelbaar gedrag

Beveiligingsmaatregelen zijn onder andere:

  1. Beperk de output
  2. Laat gevoelige acties goedkeuren door mensen
  3. Monitor AI-gedrag
  4. Update regelmatig
  5. Test op kwetsbaarheden

AI-gedreven detectie: sneller aanvallen herkennen

Cyberaanvallen worden steeds subtieler. AI helpt om afwijkend gedrag te herkennen in grote hoeveelheden netwerkverkeer. Denk aan:

  • Command & Control (C2)-verkeer dat zich verstopt achter legitieme websites
  • Beaconing: regelmatige signalen tussen malware en commandocentrum

AI-modellen kunnen patronen herkennen die voor mensen onzichtbaar zijn. Door snelle detectie en reactie wordt de ‘dwell time’ van aanvallers drastisch verkort.

Samenvatting: AI en cybersecurity in balans brengen

AI en cybersecurity zijn onlosmakelijk met elkaar verbonden. GenAI biedt krachtige tools voor innovatie, maar vergroot ook het risico op aanvallen. In dit eerste deel van onze blogserie hebben we de belangrijkste inzichten uit Security Navigator 2025 samengevat. De boodschap is helder: wie AI strategisch en veilig inzet, kan cybersecurity versterken en voorbereid zijn op de dreigingen van morgen.

Lees ook deel 2 van deze blogserie over GenAI en productiviteit.

Incident Response Hotline

Facing cyber incidents right now?

Contact our 24/7/365 world wide service incident response hotline.

Tel: +31 184 78 81 11