De nieuwste dreiging voor organisaties komt niet van de mens, maar van de algoritmes die ze inzetten. Anders dan AI-systemen die vooral informatie genereren of aanbevelingen doen, kunnen AI-agents zelfstandig acties uitvoeren in bedrijfsapplicaties. Zonder scherp toezicht en specifieke beveiliging leiden fouten of misbruik direct tot datalekken en operationele verstoringen. Orange Cyberdefense waarschuwt dan ook dat de snelle opkomst van AI-agents een nieuwe ‘insider threat’ creëert.
AI-agents kunnen organisaties veel werk uit handen nemen door autonoom informatie op te halen, te combineren en taken uit te voeren. De beveiliging van deze systemen loopt echter vaak achter op de snelheid van de implementatie. Orange Cyberdefense identificeert vier nieuwe risico’s:
1. Ongecontroleerde toegang tot systemen
AI-agents hebben vaak toegang tot meer informatie dan strikt nodig is voor het uitvoeren van hun taken. Ze maken daarbij geen onderscheid tussen relevante data en gevoelige informatie die niet voor de specifieke taak bedoeld is. Waar een medewerker zich nog afvraagt of het verstandig is om salarisgegevens te mailen naar de marketingafdeling, mist een AI-agent dit morele kompas. Hierdoor kan bedrijfsgevoelige informatie onbedoeld worden verwerkt of gedeeld.
2. Verkeerde of misleidende input
Waar een medewerker kritische vragen kan stellen bij een ‘vreemde opdracht’, handelt een agent blindelings op basis van de informatie die hij ontvangt (e‑mails, documenten, queries). Als deze input onvolledig of kwaadaardig is, kan de agent besluiten om extra data op te halen, veiligheidsprotocollen te omzeilen of data op de verkeerde plek te publiceren. De agent wordt in feite ‘verkeerd aangestuurd’ door de data zelf.
3. Autonome kettingreactie van fouten
AI-agents werken met een snelheid die menselijke controle lastig maakt. Daardoor kan een fout in een vroege stap ongemerkt doorwerken in een keten van autonome acties en zich ontwikkelen tot een groter incident.
4. Onmogelijkheid tot reconstructie
Bij een menselijke insider is doorgaans te achterhalen waarom een bepaalde beslissing is genomen. Bij AI-agents is die logica vaak minder transparant en moeilijker te reconstrueren. Daardoor zijn incidenten moeilijker te onderzoeken en is het lastiger om te bepalen waar het misging en hoe een organisatie dit in de toekomst voorkomt.
Bestaande securityprincipes consequenter toepassen
Volgens Matthijs van der Wel-ter Weel, Strategic Advisor bij Orange Cyberdefense, vraagt de inzet van AI-agents niet om compleet nieuwe securityprincipes. Wel vraagt het om een veel consequentere toepassing van bestaande principes zoals least privilege, zero trust, logging en monitoring, aangevuld met duidelijke en onafhankelijke vangrails.
“Waar organisaties voor medewerkers en traditionele systemen vaak al duidelijke kaders hebben, gebeurt de inzet van AI-agents in de praktijk nog te vaak ad hoc. Juist daar ontstaat risico.” Van der Wel-ter Weel geeft deze drie aandachtspunten als belangrijk aan:
- Geef iedere AI-agent een duidelijke identiteit, rol en afbakening
Organisaties werken al langer met uitgangspunten als least privilege, zero trust en duidelijke taakafbakening: geef mensen en systemen alleen toegang tot wat nodig is, onder de juiste voorwaarden en voor een duidelijk doel. Een AI-agent vormt daarop in wezen geen uitzondering.
Deze principes worden bij AI-agents in de praktijk nog niet altijd even consequent toegepast. Organisaties experimenteren vaak snel met nieuwe agentfunctionaliteit, zonder scherp vast te leggen welke taak een agent precies heeft, welke data daarvoor nodig zijn en binnen welke grenzen die mag handelen. Daardoor ontstaat het risico dat een agent meer toegang of handelingsruimte krijgt dan nodig is.
- Zorg dat beslissingen van AI-agents herleidbaar zijn
Voor AI-agents is het niet genoeg om alleen vast te leggen welke acties zijn uitgevoerd. In veel organisaties registreren logging- en SIEM-systemen al wat een systeem doet, maar daarmee is nog niet duidelijk waarom een agent tot een bepaalde actie of beslissing kwam.
Juist dat maakt AI-agents risicovoller. Wanneer een agent gevoelige informatie deelt of op basis van verkeerde input een fout besluit neemt, moet een bedrijf kunnen reconstrueren welke input, bronnen en context daarbij een rol speelden.
Dat vraagt om meer dan traditionele logging. Niet alleen de uitgevoerde actie moet zichtbaar zijn, maar ook de afweging daarachter. Alleen met dat niveau van herleidbaarheid kunnen organisaties incidenten goed onderzoeken, verantwoordelijkheid vaststellen en maatregelen nemen om dezelfde fout niet opnieuw te laten ontstaan.
- Richt waar nodig realtime controle en menselijke tussenkomst in
Omdat AI-agents autonoom en op hoge snelheid handelen, is vooraf bepalen wat zij mogen doen niet altijd voldoende. Organisaties moeten daarom ook tijdens de uitvoering grenzen kunnen stellen aan acties met een grote impact op de operatie, de financiën of compliance.
Denk bijvoorbeeld aan het delen van gevoelige informatie, het aanpassen van rechten, het wijzigen van systemen of het starten van externe communicatie. Voor dit soort handelingen moet duidelijk zijn wanneer een extra controle, goedkeuring of menselijke tussenkomst nodig is.
De vraag is niet alleen of een agent toegang heeft, maar ook of een actie op dat moment verantwoord is. Zo voorkom je dat een AI-agent binnen zijn rechten tóch schade veroorzaakt.
“Veel organisaties experimenteren al met AI-agents, maar hebben nog onvoldoende zicht op hun rechten, hun gedrag en hun impact”, zegt Van der Wel-ter Weel. “Het risico is dat bedrijven deze systemen niet alleen te snel invoeren, maar ook dat ze deze zonder duidelijke afbakening, toezicht en verantwoording inzetten. Zo kan AI-agent-sprawl ontstaan: een wildgroei aan agents zonder centraal overzicht, duidelijke grenzen of eigenaarschap.”
Van der Wel-ter Weel roept organisaties op om nu beleid te ontwikkelen voor de inzet van AI-agents, inclusief training, bewustwording, governance en een centraal overzicht van de toepassingen, verantwoordelijkheden en risico’s. Dat beleid moet verdergaan dan techniek alleen: het raakt ook ethiek, compliance en leiderschap. “Wie bestaande security- en governanceprincipes nu ook consequent toepast op AI-agents, voorkomt dat snelheid en gemak de overhand krijgen op controle.”

