
11 februari 2025
Generatieve AI ontwikkelt zich razendsnel en zet het voorspellen, monitoren en aanpakken van cyberdreigingen op scherp. Vivien Mura, CTO van Orange Cyberdefense, deelt zijn visie op de actuele en toekomstige risico’s van het illegaal inzetten van AI-technologie en -toepassingen.
Het overgrote deel van alle cyberaanvallen begint nog altijd met social engineering, meestal via nepmails of frauduleuze websites. Tot nu toe was de beste verdediging tegen phishing om mensen bewust te maken van de risico’s en te trainen in het herkennen van verdachte signalen. Denk aan rare links, spelfouten, pixelige logo’s of verzoeken om bankgegevens. Pas daarna kwamen de technische maatregelen.
Maar met de opkomst van generatieve AI verandert dat beeld snel. AI maakt het mogelijk om ogenschijnlijk vlekkeloze content te produceren. Zo goed, dat zelfs oplettende mensen erin kunnen trappen. Wat ons de komende maanden en jaren te wachten staat, gaat veel verder dan de trucs die we nu nog relatief makkelijk kunnen ontmaskeren. Nepcontent is allang niet meer alleen tekst. Het is “multimodaal”: AI kan ook stemgeluid, beelden en video manipuleren. Generatieve AI versnelt de productie van geavanceerde multimediacontent én verlaagt tegelijkertijd de kosten.
Op dit moment zijn er nog grenzen: overtuigende nep-audio of -video zonder haperingen vraagt om geavanceerde modellen met flinke rekenkracht. In veel demonstraties zie je nog vertragingen of glitches die argwaan kunnen wekken. Maar het is een kwestie van tijd voordat die drempel verdwijnt, en ook minder geavanceerde tools echt overtuigend worden.
De AI-markt verandert razendsnel. Elke twee à drie maanden verschijnt er een nieuwe generatieve AI-tool die de vorige weer overtreft. Daardoor is de innovatietijd vrijwel tot nul gereduceerd. Het is dan ook zeer waarschijnlijk dat kwaadwillenden binnenkort met minimale technische kennis en tegen lage kosten geavanceerde aanvallen kunnen uitvoeren. Bewustwording alleen is dan niet meer genoeg. Zelfs experts zullen moeite krijgen om echt van nep te onderscheiden.
Dat vormt een stevige uitdaging voor de cybersecuritysector. We zullen andere manieren moeten vinden om dit soort misbruik op te sporen en tegen te gaan. We staan aan de vooravond van een paradigmaverschuiving. In dat licht wordt het ontwikkelen van effectieve tegenmaatregelen tegen deepfakes en deepvoice-misbruik een van de belangrijkste security-uitdagingen van deze tijd. Innovatie is noodzakelijk, en snel ook.
Dit type cyberaanval is niet met één technologische oplossing op te lossen. Het vraagt om een combinatie van slimme tegenmaatregelen. Daarom volgen we de markt op de voet. We signaleren, testen en vergelijken continu nieuwe oplossingen om te bepalen welke echt werken en relevant zijn. Het doel van Orange Cyberdefense is om deze oplossingen te combineren, te integreren en beschikbaar te maken voor onze klanten. Zo bieden we een concrete en passende manier om geavanceerde frauduleuze content te detecteren.
De opkomst en brede beschikbaarheid van LLM-platformen vergroot het aanvalsoppervlak en brengt nieuwe kwetsbaarheden met zich mee. Wij verwachten dan ook dat cybercriminelen steeds meer interesse zullen krijgen in het hacken van AI-oplossingen. Waarom? Omdat die AI-oplossingen direct communiceren met informatiesystemen, en daarmee een aantrekkelijk doelwit vormen voor toegang tot grote hoeveelheden data.
Stel je even voor dat je in de schoenen staat van een aanvaller. Voorheen lag de focus op bekende kwetsbaarheden binnen IT- of netwerkinfrastructuren. Maar AI-oplossingen zijn vaak gekoppeld aan complete ecosystemen van systemen. Zodra aanvallers ontdekken dat ze sneller en makkelijker toegang krijgen tot waardevolle data via een kwetsbaarheid in een AI-platform dan via een traditionele firewall, zullen ze hun strategie aanpassen.
Voor cybersecurity betekent dit dat we nieuwe manieren moeten vinden om deze AI-gerelateerde kwetsbaarheden te herkennen en te beveiligen, voordat ze worden misbruikt.
AI-platforms zijn in de kern ecosystemen waarin hardware- en softwarelagen samenkomen – en die kunnen kwetsbaar zijn. Net als bij andere software- of clouddiensten geldt: als cybersecurity niet vanaf het begin is geïntegreerd in het ontwikkeltraject, ontstaan er risico’s.
Een eerste risico is wat we inmiddels “Shadow AI” noemen. Dat verwijst naar het ongeautoriseerd gebruik van AI-tools binnen een organisatie, vergelijkbaar met het concept van Shadow IT. Denk bijvoorbeeld aan een medewerker die een publieke chatbot inzet voor werkdoeleinden. Daarmee bestaat het risico dat gevoelige documenten of bedrijfsdata buiten de veilige omgeving van de organisatie terechtkomen. Daarom adviseren we organisaties om te kiezen voor veilige, gecontroleerde AI-oplossingen. We zien dat de eerste detectietools voor Shadow AI al op de markt verschijnen, en we nemen deze nu mee in ons eigen aanbod richting klanten.
Daarnaast ontstaan er nieuwe aanvalsvormen die nu nog vooral in proof-of-concept-fase zitten. Een bekend voorbeeld is prompt injection, waarbij een aanvaller een AI-model manipuleert met slimme input. Hierdoor kan de AI zijn eigen beveiligingsbeleid omzeilen en ongewenste of gevoelige informatie prijsgeven, buiten de bedoelingen van de ontwikkelaars of de CISO om.
Een andere techniek richt zich op het veroorzaken van een denial of service, door de AI simpelweg te overbelasten met input. De tool crasht of reageert niet meer. Als het bijvoorbeeld gaat om een virtuele assistent die continu beschikbaar moet zijn, kan dit direct operationele impact hebben.
AI zal steeds dieper verweven raken met ons digitale, persoonlijke en professionele leven. Daarmee wordt het ook een toegangspoort tot een breed scala aan data en diensten, van administratie tot zorg, van onderwijs tot e-commerce. Als een AI-dienst uitvalt of wordt misbruikt, kan dat grote gevolgen hebben.
We zien dat virtuele assistenten steeds vaker de primaire toegangspoort vormen tot klantcontact en verkoop. Als zo’n systeem uitvalt door een aanval, kan dat de bedrijfsvoering van een organisatie ernstig verstoren.
Een ander risico is dat kwaadwillenden proberen om gevoelige informatie uit een AI-systeem te trekken. Bijvoorbeeld doordat gegevens onvoldoende gescheiden zijn. Stel dat iemand aan een AI-app vraagt naar het salaris van de CEO, en prompt het volledige loonstrookje gepresenteerd krijgt.
Dan is er nog het risico van zogenoemde model theft. Een AI-model bevat een enorme hoeveelheid data en kennis – van intellectueel eigendom en auteursrechtelijk materiaal tot persoonlijke of medische gegevens en bedrijfsgevoelige informatie.
Grote partijen die vooroplopen in de AI-ontwikkeling geven aan dat de toekomst niet alleen draait om grote modellen (LLMs), maar ook om kleinere modellen die zijn getraind op heel specifieke dataverzamelingen. Dat sluit aan bij de trend rond Agentic AI: systemen die zijn gebouwd voor specifieke taken, gevoed met specialistische – soms vertrouwelijke – data.
Cybercriminelen zullen proberen dit soort AI-modellen te bemachtigen of uit te buiten. De buit kan uiteenlopen van telefoonnummers en IBAN’s die op de dark web verkocht worden, tot strategische informatie in het kader van staats- of bedrijfsspionage.
Zodra een aanvaller toegang krijgt tot een AI-model, kan hij in één klap een enorme hoeveelheid waardevolle, vertrouwelijke informatie buitmaken – van een bedrijf, een instelling of zelfs een overheid.
In de komende vijf jaar moeten we bijzonder waakzaam blijven voor de manier waarop AI-modellen in staat zijn om offensieve scenario’s te automatiseren, plannen en uitvoeren. De mate van automatisering in ons digitale dagelijks leven zal naar verwachting sterk toenemen. Die technologische vooruitgang biedt kansen, maar kan ook worden ingezet voor onrechtmatige doeleinden.
De huidige stand van AI reikt nog niet zover, maar we moeten alert zijn op wat binnenkort wél mogelijk wordt. Denk aan het volledig geautomatiseerd:
Kortom: het opzetten van een echt aanvalsscenario dat AI zelfstandig uitvoert of daarin actief ondersteunt. Daar zijn we nog niet, want de planningscapaciteiten van AI zijn op dit moment nog behoorlijk beperkt. Maar dat zou zomaar kunnen veranderen.
We zien een duidelijke trend richting hybride cyberaanvallen: een mix van klassieke cyberaanvallen en informatietactieken. Het is overduidelijk dat de partijen die zich hiermee bezighouden vaak gelinkt zijn aan staten en erop uit zijn om het digitale speelveld van organisaties, overheden en bedrijven te ontwrichten. Het doel is maximale destabilisatie, het beïnvloeden van meningen, het creëren van ruis en het aanwakkeren van crises.
Die ontwikkeling heeft meerdere oorzaken. Enerzijds is er de geopolitieke realiteit: een wereldwijde, multipolaire crisis met brandhaarden zoals de oorlog in Oekraïne, het Israëlisch-Palestijns conflict en het economische conflict tussen de VS en China. Dergelijke spanningen moedigen staten of criminele netwerken aan om dit soort tactieken in te zetten.
Anderzijds speelt de brede beschikbaarheid van generatieve AI een rol. Tools om geloofwaardige nepcontent te maken zijn nagenoeg gratis en steeds eenvoudiger in gebruik. Desinformatie, manipulatie, nepnieuws – het zijn middelen geworden om een crisis te versterken en een doelwit te verzwakken.
In het kader van cyberafpersing, ofwel Cy-X, zien we dat het al voldoende kan zijn om een organisatie te laten denken dat ze slachtoffer is van een aanval – zoals een datalek of ransomware – om grote schade aan te richten. Alleen al die perceptie kan ertoe leiden dat een bedrijf zich genoodzaakt voelt om publiek te reageren via social media en pers, partners gerust te stellen en tegelijkertijd intern te onderzoeken of er écht iets is gebeurd.
In zo’n situatie moet een organisatie allereerst vaststellen of de dreiging daadwerkelijk is. Dat onderzoek en de validatie ervan kosten tijd, vaak een week of langer. Ondertussen moet het bedrijf op twee fronten reageren: technisch, met de cybersecurityteams, en communicatief, via het informatiemanagement.
In Engelstalige landen, zoals het Verenigd Koninkrijk, wordt digitale veiligheid al langer gezien als een combinatie van zowel de bescherming van informatiesystemen als van informatie zelf. In Frankrijk en in veel andere landen zijn die twee domeinen tot nu toe strikt gescheiden: cybersecurity aan de ene kant, crisiscommunicatie aan de andere. De vraag is of die scheiding nog houdbaar is. Wellicht moeten we ons beleid herzien, met de juiste waarborgen om misbruik te voorkomen.