
16 november 2023
Orange Cyberdefense Live 2023 benadrukt de urgentie van crisisbeheersing bij cyberaanvallen
AI en machine learning bieden cybercriminelen nieuwe manieren om organisaties het leven zuur te maken. Gelukkig is AI niet alleen een aanvalswapen, maar ook een troef voor een sterkere cybersecurity. Dit zijn de kansen, de risico’s en de grootste dreigingen van deze technologie: the good, the bad & the ugly.
AI kan helpen om cyberaanvallen te voorkomen en te detecteren, door gebruik te maken van geavanceerde algoritmen en machinelearning technieken. AI kan bijvoorbeeld gebruikmaken van datasets om afwijkende patronen te ontdekken in grote hoeveelheden netwerkverkeer.
Logt een gebruiker altijd in rond 09:00 ‘s ochtends vanuit Utrecht? Dan kan een systeem een inlogpoging van die gebruiker vanuit Zuid-Afrika midden in de nacht als verdacht herkennen.
AI kan een waardevolle bondgenoot zijn voor de schaarse securityprofessionals. Het kan namelijk veelvoorkomende securitytaken automatiseren die anders veel handmatig werk vereisen. Denk bijvoorbeeld niet alleen aan het detecteren en blokkeren van verdachte activiteiten, maar bijvoorbeeld ook aan het analyseren van grote hoeveelheden data, het identificeren en patchen van kwetsbaarheden, of het genereren van rapporten en aanbevelingen.
Met AI als ‘rechterhand’ krijgen securityprofessionals de handen vrij voor complexere en strategische uitdagingen. Bijvoorbeeld voor het ontwerp van een solide beveiligingsbeleid. Zo kan AI een oplossing bieden voor het groeiend tekort aan securitytalent.
ChatGPT groeit met zo’n 200.000 nieuwe gebruikers per dag als kool, zo schetst Jan Aril Sigvartsen, Senior Executive Advisor bij Orange Cyberdefense tijdens OCD Live 2023. Die gebruikers zijn niet allemaal van goede wil. Hackers gebruiken deze tool voor het genereren van kwaadaardige code. Denk bijvoorbeeld aan scripts die kwetsbaarheden in systemen misbruiken. Programmeervaardigheden zijn voor dat soort aanvallen daarmee niet meer noodzakelijk.
AI verlaagt niet alleen de aanvalsdrempel, maar kan in verkeerde handen een cyberaanval ook kracht bijzetten. Hackers kunnen met AI bijvoorbeeld geavanceerde malware ontwikkelen die zichzelf kan aanpassen aan de beveiligingsmaatregelen van het doelwit. Generatieve AI kan phishingmails op maat opstellen, die inspelen op de interesses of situatie van de ontvanger.
AI kan ook de schaal waarop aanvallen plaatsvinden vergroten, waarschuwt Sigvartsen. Met behulp van cloudtechnologie is de benodigde rekenkracht voor AI-gedreven aanvallen in ieder geval in theorie vrijwel oneindig schaalbaar. Met die rekenkracht kan geavanceerde AI-malware bijvoorbeeld alle kwetsbaarheden van alle applicaties in een organisatie tegelijkertijd proberen te misbruiken. Of via een ‘brute force-aanval’ een wachtwoordbeveiliging omzeilen.
AI kan ten slotte realistische vervalsingen creëren waarmee hackers biometrische authenticatie zoals gezichts- of stemherkenning kunnen omzeilen. Onderschat ook niet de risico’s van deepfakes. Hackers kunnen gemanipuleerd filmpjes of geluidsfragmenten inzetten waarin bijvoorbeeld een leidinggevende zogenaamd een betalingsverzoek doet naar een rekeningnummer dat op naam van cybercriminelen staat.
Steeds meer organisaties omarmen machinelearning, een vorm van AI die zichzelf steeds verder kan verbeteren op basis van trainingsdata. Bijvoorbeeld voor het verbeteren van beslissingsprocessen, of zelfs om besluitvorming volledig te automatiseren. De potentiële inzetgebieden zijn veelzijdig: van het optimaliseren van voorraden in een warenhuis tot automatische werving en selectie voor vacatures.
Wanneer hackers die trainingsdata manipuleren, kan dat ernstige gevolgen hebben. Stel dat een hacker toegang krijgt tot de trainingsdata van een werving- en selectietool. De hacker kan dan de data zo aanpassen dat het model een voorkeur ontwikkelt voor kandidaten die bepaalde kenmerken hebben, zoals leeftijd, geslacht, etniciteit of opleidingsniveau. Zo kan de hacker proberen om zichzelf of iemand anders een voordeel te geven bij de sollicitatie, of juist bepaalde groepen benadelen of uitsluiten. Dit kan leiden tot discriminatie, ongelijkheid en reputatieschade voor de organisatie die het model gebruikt.
Het klinkt misschien wat onheilspellend, maar AI kan volgens Sigvartsen ook leiden tot nieuwe vormen van cyberoorlogvoering. Denk bijvoorbeeld aan het gebruik van AI om valse informatie te verspreiden, om systemen te hacken, kritieke infrastructuur aan te vallen of zelfs om wapens te besturen. Deze vormen van cyberaanvallen kunnen de stabiliteit, veiligheid en democratie van landen ondermijnen, en kunnen zelfs geopolitieke crises aanwakkeren.
AI is here to stay en heeft zeker gevolgen voor cybersecurity. En die gevolgen zijn niet alleen maar positief. Volgens Sigvartsen kunnen organisaties de volgende concrete stappen zetten om de risico’s te beperken:
Een solide securitystrategie begint in de boardroom, op businessniveau. De business moet hierbij de vraag durven stellen in welke mate AI van invloed is op de security. Maak je als organisatie bijvoorbeeld al zelf gebruik van AI-systemen, en in welke mate ligt het risico van beïnvloeding daarvan op de loer? Ben je wellicht actief in een branche die bepaalde risico’s met zich meebrengt?
Organisaties zijn nog altijd voor 20 tot 40 procent afhankelijk van legacy IT. Die verouderde systemen vormen een enorm risico. Deze krijgen immers geen securityupdates meer, en zijn daardoor enorm gevoelig voor AI-gedreven aanvallen die deze kwetsbaarheid steeds beter herkennen en misbruiken. Vervang deze systemen zo snel mogelijk door moderne alternatieven.
AI-aanvallen nemen in schaal toe. Dat betekent dat ook je security snel moet kunnen opschalen. Maak hiervoor gebruik van schaalbare securitysystemen die zich snel kunnen aanpassen aan veranderende behoeften en bedreigingen.
De vijand maakt gebruik van AI, dus moet jij het ook doen. Maak waar mogelijk gebruik van de positieve eigenschappen van AI in je cybersecuritystrategie.
Het is een bekend Engels gezegde: fail fast, fail often. Dat geldt zeker voor de security van je organisatie. Experimenteer met de mogelijkheden die AI biedt voor je cyberverdediging. Een ding is duidelijk: steek je kop niet in het zand. Want dan laat je belangrijke cybersecuritykansen liggen en stel je jouw organisatie bloot aan onnodige risico’s.
Wij helpen organisaties al 25 jaar met het versterken van hun securityomgeving. Daarbij maken we waar mogelijk gebruik van AI. Wil je weten wat Orange Cyberdefense voor je kan betekenen in de strijd tegen AI-risico’s? Neem gerust vrijblijvend contact met ons op, we denken graag met je mee.