Belgische organisaties zetten in op innovatie, maar maken zich ook zorgen over nieuwe AI-gebaseerde cyberdreigingen

16 september 2025

Uit onderzoek van Trend Micro blijkt dat orga­ni­sa­ties arti­fi­ciële intel­li­gentie (AI) vaker imple­men­teren in hun cyber­se­cu­ri­ty­s­tra­te­gieën, maar dat velen zich ook zorgen maken over het groeiende aanvals­op­per­vlak en het intro­du­ceren van nieuwe cyberrisico’s.

Rachel Jin, Chief Enter­prise Platform Officer bij Trend: “AI heeft een enorm poten­tieel om cyber­be­vei­li­ging te versterken: van het sneller iden­ti­fi­ceren van anoma­lieën tot het auto­ma­ti­seren van tijd­ro­vende taken. Maar aanval­lers zetten AI net zo graag in voor hun eigen doel­einden. Dat creëert een snel veran­de­rend drei­gings­land­schap. Ons onderzoek en onze prak­tijk­tests maken duidelijk dat bevei­li­ging vanaf het begin in AI-systemen moet worden ingebouwd. Er staat simpelweg te veel op het spel om dit als bijzaak te beschouwen.”

Volgens het onderzoek gebruikt 71% van de Belgische orga­ni­sa­ties AI-tools in hun cyber­se­cu­ri­ty­s­tra­tegie. Nog eens 22% onder­zoekt actief de imple­men­tatie ervan. Bijna alle respon­denten (91%) staan open voor het gebruik van AI in welke vorm dan ook. 42% vertrouwt er al op voor essen­tiële processen, zoals geau­to­ma­ti­seerde asset discovery, risi­co­pri­o­ri­te­ring en anoma­lie­de­tectie. Verbe­teren van trai­ningen en bewustwordingsprogramma’s voor werk­ne­mers worden door 49% van de Belgische orga­ni­sa­ties gezien als toppri­o­ri­teiten voor het versterken van hun cyber­se­cu­rity in de komende twaalf maanden.

Het gebruik van AI in de cyber­se­cu­ri­ty­s­tra­tegie brengt echter ook risico’s met zich mee. 86% van de Belgische orga­ni­sa­ties verwacht dat ze in de komende drie tot vijf jaar door de inzet van AI vaker bloot­ge­steld zullen worden aan cyberrisico’s. Meer dan de helft verwacht een toename in de hoeveel­heid en complexi­teit van AI-aanvallen. Hierdoor zullen orga­ni­sa­ties hun bestaande cyber­se­cu­ri­ty­s­tra­te­gieën moeten hervormen.

De belang­rijkste risico’s volgens Belgische orga­ni­sa­ties zijn:

  • AI-gestuurde phishing- of social engineering-aanvallen;
  • Het bloot­stellen van gevoelige gegevens;
  • Gebrek aan trans­pa­rantie over hoe gegevens worden verwerkt en opge­slagen door AI-systemen;
  • De moge­lijk­heid dat bedrijfs­eigen gegevens worden misbruikt door onbe­trouw­bare modellen;
  • Toenemend aantal endpoints en API’s om te monitoren

Toename van AI-gebaseerde dreigingen

De toename van AI-geba­seerde cyberrisico’s was duidelijk zichtbaar tijdens het Pwn2Own-evenement van Trend in Berlijn. Dit jaar werd voor het eerst de AI-categorie geïn­tro­du­ceerd. De resul­taten spreken voor zich: twaalf inzen­dingen waren gericht op vier belang­rijke AI-frame­works: NVIDIA Triton Inference Server, Chroma, Redis en NVIDIA Container Toolkit. In sommige gevallen was slechts één bug nodig voor een succes­volle inbreuk. In totaal zijn er zeven unieke zero-day-kwets­baar­heden in AI-frame­works ontdekt.

Naarmate AI steeds meer geïn­te­greerd geraakt in IT-omge­vingen, wordt het cruciaal om het veran­de­rende risi­co­land­schap proactief te evalueren en groot­scha­lige bevei­li­gings­prak­tijken te imple­men­teren in elke fase van AI-implementatie.

Lees hier het volledige rapport.

Pin It on Pinterest

Share This