Hangt onze veiligheid af van een AI-strijd?

12 maart 2026

Van het slagveld tot het data­center: arti­fi­ciële intel­li­gentie (AI) wordt steeds bepa­lender voor de uitkomst van conflicten. AI vindt inmiddels zijn weg naar vrijwel alle sectoren, ook naar defensie. Recente gebeur­te­nissen tonen hoe snel die evolutie gaat. In zowel de oorlog in Oekraïne als in recente span­ningen in het Midden-Oosten spelen drones een steeds centra­lere rol in militaire stra­te­gieën. Wat vroeger scien­ce­fic­tion leek, komt steeds dichter bij de realiteit, met gevechten waarbij soldaten worden onder­steund door robots en drones die zelf­standig of in zwermen opereren. In toekom­stige conflicten zal AI naar verwach­ting een nog grotere rol spelen en mogelijk de manier waarop oorlog wordt gevoerd ingrij­pend veranderen.

Toename in omvang en diversiteit

In tegen­stel­ling tot discri­mi­ne­rende of voor­spel­lende AI, die gericht is op het clas­si­fi­ceren of voor­spellen van nieuwe data, kan gene­ra­tieve AI (GenAI) volledig nieuwe content creëren, zoals tekst en afbeel­dingen. Volgens onderzoek van Acerta, gebruikt maar liefst 1 op de 3 onder­ne­mingen (34,5%) met meer dan 10 werk­ne­mers minstens één AI-tech­no­logie in zijn bedrijfs­voe­ring. Dat is een toename van zo’n 40% in verge­lij­king met amper een jaar geleden, én een stijging van maar liefst 150% in verge­lij­king met twee jaar geleden.

GenAI kan bovendien compu­ter­code schrijven. Daardoor wordt soft­wa­re­ont­wik­ke­ling toegan­ke­lijker voor een bredere groep mensen. Dat brengt ook risico’s met zich mee: het aantal kwets­baar­heden dat aanval­lers kunnen misbruiken kan toenemen, net als de diver­si­teit aan mogelijke aanvallen. Bovendien kan GenAI veel sneller code genereren dan mense­lijke program­meurs. Dit verkort de tijd tussen het publi­ceren van een nieuwe kwets­baar­heid en het verschijnen van malware die daarvan misbruik maakt steeds korter.

AI verandert zelfs de verken­nings­fase van cyber­cri­mi­na­li­teit (het iden­ti­fi­ceren van poten­tiële slacht­of­fers en het in kaart brengen van hun netwerken). Door AI kunnen aanval­lers sneller, op grotere schaal en nauw­keu­riger onderzoek doen naar mogelijke slacht­of­fers voordat ze een aanval lanceren.

Intelligente, geautomatiseerde cyberbeveiliging – is dat voldoende?

AI wordt uiteraard niet alleen door cyber­cri­mi­nelen gebruikt. Ontwik­ke­laars zetten AI ook in om bugs en kwets­baar­heden sneller op te sporen en bevei­li­gings­lekken te verhelpen, bijvoor­beeld in open-sour­ce­com­po­nenten en andere software van derden.

Daarom maken steeds meer cyber­se­cu­ri­ty­op­los­singen, waaronder die van Fortinet, gebruik van AI om kwets­baar­heden sneller op te sporen en prio­ri­teiten te bepalen bij het verhelpen ervan. Tege­lij­ker­tijd kunnen bevei­li­gings­teams, die al zwaar onder druk staan door het tekort aan speci­a­listen, profi­teren van AI-gestuurde auto­ma­ti­se­ring. AI helpt hen de enorme hoeveel­heid bevei­li­gings­data te analy­seren die ontstaat door het groeiende aantal verbonden apparaten en appli­ca­ties, en kan bij verdachte acti­vi­teiten auto­ma­tisch een gepaste reactie starten.

Toch schuilt er nog een ander, hache­lijker probleem onder de opper­vlakte. Wanneer patches voor bekende kwets­baar­heden beschik­baar zijn, moeten orga­ni­sa­ties die ook effectief instal­leren. De term “N‑day-kwets­baar­heid” verwijst naar het aantal dagen (N) tussen het moment dat een kwets­baar­heid gepu­bli­ceerd wordt en er een patch is uitge­bracht. In de praktijk worden patches echter vaak niet tijdig – of soms helemaal niet – toegepast, waardoor systemen onnodig lang kwetsbaar blijven. Voor aanval­lers is het dan vaak niet nodig om nieuwe zero-day-exploits te ontwik­kelen wanneer bestaande kwets­baar­heden nog niet zijn opgelost. AI kan orga­ni­sa­ties helpen bij het beheer van kwets­baar­heden en bij geau­to­ma­ti­seerd patch­be­heer, maar momenteel maken nog te weinig orga­ni­sa­ties daar optimaal gebruik van.

De weg vooruit

AI gaat de wereld voorgoed veran­deren. Daarom is het essen­tieel dat de autonomie en auto­ma­ti­se­ring op het digitale slagveld geop­ti­ma­li­seerd worden met sterke, adaptieve cyber­se­cu­rity. Maar alleen door samen­wer­king tussen het bedrijfs­leven, overheden en andere openbare instan­ties kan de omvang en complexi­teit van het huidige AI-gestuurde drei­gings­land­schap effectief worden aangepakt.

Dit betekent dat partners moeten worden gekozen met een bewezen staat van dienst op het gebied van AI (zowel GenAI als discriminerende/​voorspellende AI) en die zich inzetten voor “Secure by Design”, het idee dat sterke bevei­li­ging een integraal onderdeel moet zijn van de volledige levens­cy­clus van IT-producten en ‑diensten.

Pin It on Pinterest

Share This