Van het slagveld tot het datacenter: artificiële intelligentie (AI) wordt steeds bepalender voor de uitkomst van conflicten. AI vindt inmiddels zijn weg naar vrijwel alle sectoren, ook naar defensie. Recente gebeurtenissen tonen hoe snel die evolutie gaat. In zowel de oorlog in Oekraïne als in recente spanningen in het Midden-Oosten spelen drones een steeds centralere rol in militaire strategieën. Wat vroeger sciencefiction leek, komt steeds dichter bij de realiteit, met gevechten waarbij soldaten worden ondersteund door robots en drones die zelfstandig of in zwermen opereren. In toekomstige conflicten zal AI naar verwachting een nog grotere rol spelen en mogelijk de manier waarop oorlog wordt gevoerd ingrijpend veranderen.
Toename in omvang en diversiteit
In tegenstelling tot discriminerende of voorspellende AI, die gericht is op het classificeren of voorspellen van nieuwe data, kan generatieve AI (GenAI) volledig nieuwe content creëren, zoals tekst en afbeeldingen. Volgens onderzoek van Acerta, gebruikt maar liefst 1 op de 3 ondernemingen (34,5%) met meer dan 10 werknemers minstens één AI-technologie in zijn bedrijfsvoering. Dat is een toename van zo’n 40% in vergelijking met amper een jaar geleden, én een stijging van maar liefst 150% in vergelijking met twee jaar geleden.
GenAI kan bovendien computercode schrijven. Daardoor wordt softwareontwikkeling toegankelijker voor een bredere groep mensen. Dat brengt ook risico’s met zich mee: het aantal kwetsbaarheden dat aanvallers kunnen misbruiken kan toenemen, net als de diversiteit aan mogelijke aanvallen. Bovendien kan GenAI veel sneller code genereren dan menselijke programmeurs. Dit verkort de tijd tussen het publiceren van een nieuwe kwetsbaarheid en het verschijnen van malware die daarvan misbruik maakt steeds korter.
AI verandert zelfs de verkenningsfase van cybercriminaliteit (het identificeren van potentiële slachtoffers en het in kaart brengen van hun netwerken). Door AI kunnen aanvallers sneller, op grotere schaal en nauwkeuriger onderzoek doen naar mogelijke slachtoffers voordat ze een aanval lanceren.
Intelligente, geautomatiseerde cyberbeveiliging – is dat voldoende?
AI wordt uiteraard niet alleen door cybercriminelen gebruikt. Ontwikkelaars zetten AI ook in om bugs en kwetsbaarheden sneller op te sporen en beveiligingslekken te verhelpen, bijvoorbeeld in open-sourcecomponenten en andere software van derden.
Daarom maken steeds meer cybersecurityoplossingen, waaronder die van Fortinet, gebruik van AI om kwetsbaarheden sneller op te sporen en prioriteiten te bepalen bij het verhelpen ervan. Tegelijkertijd kunnen beveiligingsteams, die al zwaar onder druk staan door het tekort aan specialisten, profiteren van AI-gestuurde automatisering. AI helpt hen de enorme hoeveelheid beveiligingsdata te analyseren die ontstaat door het groeiende aantal verbonden apparaten en applicaties, en kan bij verdachte activiteiten automatisch een gepaste reactie starten.
Toch schuilt er nog een ander, hachelijker probleem onder de oppervlakte. Wanneer patches voor bekende kwetsbaarheden beschikbaar zijn, moeten organisaties die ook effectief installeren. De term “N‑day-kwetsbaarheid” verwijst naar het aantal dagen (N) tussen het moment dat een kwetsbaarheid gepubliceerd wordt en er een patch is uitgebracht. In de praktijk worden patches echter vaak niet tijdig – of soms helemaal niet – toegepast, waardoor systemen onnodig lang kwetsbaar blijven. Voor aanvallers is het dan vaak niet nodig om nieuwe zero-day-exploits te ontwikkelen wanneer bestaande kwetsbaarheden nog niet zijn opgelost. AI kan organisaties helpen bij het beheer van kwetsbaarheden en bij geautomatiseerd patchbeheer, maar momenteel maken nog te weinig organisaties daar optimaal gebruik van.
De weg vooruit
AI gaat de wereld voorgoed veranderen. Daarom is het essentieel dat de autonomie en automatisering op het digitale slagveld geoptimaliseerd worden met sterke, adaptieve cybersecurity. Maar alleen door samenwerking tussen het bedrijfsleven, overheden en andere openbare instanties kan de omvang en complexiteit van het huidige AI-gestuurde dreigingslandschap effectief worden aangepakt.
Dit betekent dat partners moeten worden gekozen met een bewezen staat van dienst op het gebied van AI (zowel GenAI als discriminerende/voorspellende AI) en die zich inzetten voor “Secure by Design”, het idee dat sterke beveiliging een integraal onderdeel moet zijn van de volledige levenscyclus van IT-producten en ‑diensten.

