De balans tussen beschermende regelgeving en de snelheid van AI-innovatie

11 december 2025

AI verandert momenteel vrijwel elk aspect van het tech­no­lo­gie­land­schap. Deze trans­for­matie is nergens ingrij­pender of drin­gender dan bij cyber­se­cu­rity. AI staat vandaag centraal, zowel aan de kant van aanval­lers als van verde­di­gers, en versnelt de wapen­wed­loop tussen cyber­cri­mi­nelen en de orga­ni­sa­ties die hen proberen tegen te houden. Doordat de ontwik­ke­lingen elkaar razend­snel opvolgen, wordt inno­va­tie­ver­mogen een cruciale factor om de nationale veilig­heid en de concur­ren­tie­kracht te beschermen.

Het is daarom bemoe­di­gend om te zien dat regel­ge­vende instan­ties, zoals recen­te­lijk de EU, stappen onder­nemen om hun strenge beleid ten aanzien van AI aan te passen. Krachtige bescher­mings­maat­re­gelen moeten blijven bestaan, maar het is net zo belang­rijk om innovatie mogelijk te maken die onze veilig­heid helpt waar­borgen. Daarbij moet worden gezorgd dat de ‘vangrails’ die het publiek beschermen niet de tech­no­lo­gieën aantasten die hen verdedigen.

AI ontwikkelt zich snel, wet- en regelgeving van oudsher niet

Een van de grootste uitda­gingen voor beleids­ma­kers is dat de AI-ontwik­ke­lingen zeer snel gaan, maar dat wet- en regel­ge­ving dit tempo niet bij kan houden. Daarbij geldt bovendien dat als wet- en regel­ge­ving erin slaagt om een inhaal­slag te maken, aanval­lers zich zelden – eigenlijk nooit – aan de regels houden.

Er is tien­tallen jaren aan bewijs die deze claim onder­steunt. Zo proberen overheden over de hele wereld de drugs­handel te reguleren en te bestrijden. Criminele orga­ni­sa­ties gaan echter gewoon door met hun prak­tijken omdat ze zich niks van de regels aantrekken. Cyber­cri­mi­nelen en door staten gesteunde aanval­lers gedragen zich niet anders. Ze houden zich niet aan ethische kaders, tijde­lijke verboden of inter­na­ti­o­nale overeenkomsten. 

Dit betekent echter niet dat AI verder moet ontwik­keld worden zonder enige vorm van toezicht. Toen gene­ti­sche modi­fi­catie praktisch mogelijk werd, hebben de VS het gebruik ervan gere­gu­leerd om medische door­braken mogelijk te maken en tege­lij­ker­tijd het risico op misbruik te beperken. Dezelfde balans is nu ook nodig: sterke bescher­mings­maat­re­gelen, duide­lijke stan­daarden en ethische kaders die innovatie mogelijk maken en tege­lij­ker­tijd misbruik tegengaan. We mogen er niet van uitgaan dat die bescher­mings­maat­re­gelen de drei­gingen echt zullen terug­dringen. Net daarom is het cruciaal dat de innovatie aan defen­sieve kant niet vertraagt.

De cyberwapenwedloop is nucleair geworden

Cyber­se­cu­rity is altijd al een wapen­wed­loop geweest, maar AI heeft de snelheid en omvang van die wapen­wed­loop funda­men­teel veranderd. AI-bedrijf Anthropic meldde onlangs het eerste gedo­cu­men­teerde geval van een groot­scha­lige cyber­aanval die groten­deels via AI werd uitge­voerd. Hierbij gebruikten cyber­cri­mi­nelen AI niet alleen als ‘denkhulp’, maar ook om de cyber­aanval zelf te orkestreren.

Met de modellen die vandaag beschik­baar zijn kunnen aanval­lers in hoog tempo kwets­baar­heden opsporen, geavan­ceerde en sterk geper­so­na­li­seerde phishing-aanvallen genereren, volledige digitale ecosys­temen auto­ma­tisch in kaart brengen en openbare data misbruiken om bood­schappen te creëren die nauwe­lijks nog te onder­scheiden zijn van legitieme communicatie.

Verde­di­gers kunnen AI natuur­lijk ook inzetten om detectie, corre­latie, triage en respons aanzien­lijk te verbe­teren. Moderne cloud-cyber­se­cu­ri­ty­plat­forms combi­neren AI steeds vaker met groot­scha­lige data­ver­wer­king om enorme hoeveel­heden secu­ri­ty­tele­me­trie van endpoints, netwerken, iden­ti­teiten en cloud­wor­kloads te verwerken en te analy­seren. Hierbij is het belang­rijk dat de AI-modellen zo veel mogelijk worden getraind met echte opera­ti­o­nele tele­me­trie i.p.v. synthe­ti­sche samples. Zo kunnen teams snel en nauw­keurig afwij­kingen iden­ti­fi­ceren, events in verschil­lende omge­vingen met elkaar corre­leren en auto­ma­tisch bepalen wat hun directe aandacht vereist. In de praktijk fungeert AI als een ‘force multi­plier’ voor Security Opera­tions Centers (SOC) door een snellere analyse, slimme prio­ri­te­ring en een nauw­keu­ri­gere respons­ac­ties mogelijk te maken.

Het belang­rijkste is dat beide zijden in sneltempo voor­uit­gaan. Maar zodra AI-innovatie wordt afgeremd of ingeperkt – hoe goed bedoeld ook – komen cyber­se­cu­rity-teams op achter­stand te staan, terwijl aanval­lers gewoon verder versnellen. AI-innovatie beperken via regel­ge­ving is dus geen neutrale ingreep, maar werkt ongewild in het voordeel van de aanval­lers.De koers­wij­zi­ging van de 

EU is belangrijk

Dit maakt de recente voor­stellen van de EU zo noemens­waardig. Europa heeft tradi­ti­o­neel gezien een strenge tech­no­lo­gie­re­gu­le­ring. Zo is de Algemene Veror­de­ning Gegevensbescherming(AVG)wereldwijd een voorbeeld geworden voor de bescher­ming van privacy en belooft de AI Act hetzelfde te doen voor AI-tech­no­logie. In een recent voorstel wil de Europese Commissie de AVG-beper­kingen vereen­vou­digen, bureau­cratie vermin­deren en elementen van de AI Act versoe­pelen. Het voorstel laat zien dat Europese regel­ge­vers zich reali­seren dat over­re­gu­le­ring innovatie kan belem­meren. Europa heeft juist deze innovatie nodig om wereld­wijd te kunnen concur­reren én om veilig te blijven. 

Natuur­lijk laat de EU de bescher­mings­maat­re­gelen niet los: privacy en grond­rechten blijven een centraal uitgangs­punt. Tegelijk erkent Europa dat toegang tot data essen­tieel is voor het trainen van veilige en doel­tref­fende AI-modellen, dat veilig­heids­maat­re­gelen praktisch en werkbaar moeten blijven, dat bedrijven nood hebben aan duide­lijk­heid en flexi­bi­li­teit om te kunnen innoveren en dat Europa niet het risico mag lopen dat tegen­stan­ders sneller voor­uit­gang boeken.

Dit is geen dere­gu­le­ring. Dit is moder­ni­se­ring. Het is precies die houding die toelaat om AI verant­woord te ontwik­kelen zonder aan veilig­heid in te boeten.

Balans tussen veiligheid en innovatie met de snelheid van data

Om zich effectief te kunnen verde­digen tegen AI-gere­la­teerde drei­gingen, moeten overheden en leiders van tech­no­lo­gie­be­drijven zich aanpassen aan het tempo van AI-ontwik­ke­lingen. Regel­ge­ving kan alleen effectief blijven als deze even snel mee ontwik­kelt. Beleidma­kers en bedrijven die markt­lei­ders zijn moeten samen­werken om ervoor te zorgen dat bescher­mings­maat­re­gelen gelijke tred houden met innovatie. Als aanval­lers opereren met de snelheid van data, moeten verde­di­gers en het beleid dat hen onder­steunt dat ook. 

Beleids­ma­kers moeten burgers blijven beschermen, privacy waar­borgen en ethische normen handhaven. Maar ze moeten ook een simpele waarheid onder ogen zien: veilig­heid vereist innovatie en innovatie kan niet floreren als deze wordt belemmerd door verou­derde of te traag evolu­e­rende regel­ge­ving. De verschui­ving binnen Europa is een veel­be­lo­vend teken dat regel­ge­vers dit begrijpen. Nu is het moment voor overheden, tech­no­lo­gie­le­ve­ran­ciers en security-leiders om samen te werken en AI zo te ontwik­kelen dat voor­uit­gang en veilig­heid hand in hand blijven gaan.

Pin It on Pinterest

Share This