AI-apps zoals chatbots en AI-agenten bevatten vaak ernstige beveiligingsrisico’s en datalekken. Klassieke codescantechnieken zijn daarvoor noodzakelijk, maar niet voldoende. Taalmodellen zijn namelijk onvoorspelbaar. Om dat gat te dichten lanceren Gentse ondernemers Enoki, een securitystartup die met een autonome AI-hacker agent elke AI-applicatie op maat test.
België is binnen Europa een koploper in AI-adoptie. Bij grote ondernemingen zet drie op de vier AI actief in op de werkvloer (Acerta, 2026). Terwijl twee jaar geleden chatbots en simpele AI-functies nog de norm waren, draaien autonome AI-agenten vandaag in productie: systemen die taalmodellen koppelen aan databanken, code en externe diensten. Die snelle evolutie creëert echter een securityprobleem. Vaak blijken die toepassingen namelijk bijzonder kwetsbaar en zijn ze niet op de klassieke manier af te schermen.
Onvoorspelbaar

Het gerenomeerde UK AI Security Institute registreerde in 2026 al meer dan 700 AI-incidenten, een vervijfvoudiging tegenover een jaar eerder (The Guardian, 2026). Gartner voorspelt dat tegen 2028 één op de vier enterprise GenAI-applicaties minstens vijf beveiligingsincidenten per jaar zal meemaken (Gartner, 2026). In maart dit jaar lekte een interne AI-chatbot van McKinsey bijvoorbeeld klantgegevens na een gerichte aanval. Een AI-agent van Meta deelde rond dezelfde periode dan weer interne data op een ontwikkelaarsforum.
Uit gesprekken met developers, CISO’s en AI-leads bij een honderdtal scale-ups komt telkens hetzelfde knelpunt naar boven: er is geen schaalbare manier om AI-agenten grondig te testen op veiligheid en robuustheid. “Statische codescans vinden kwetsbaarheden in code. Alleen zit in AI-apps het risico niet zozeer in de code maar in het gedrag van het taalmodel zelf, en dat gedrag is onvoorspelbaar,” vertelt Sander Noels, medeoprichter van Enoki. “Een AI-agent kan met één slim geformuleerde instructie data lekken, tools misbruiken of acties uitvoeren die nergens geprogrammeerd staan. Nochtans verplicht de EU AI Act high-risk AI-systemen om aantoonbaar weerbaar te zijn tegen manipulatie en aanvallen.”
Autonome hacker agent
Vanuit die vaststelling bouwde Enoki een platform dat het model zelf test, niet alleen de code. AI-applicaties worden onderworpen aan honderden autonoom gegenereerde aanvallen, van promptinjectie tot datadiefstal.
Het platform van Enoki werkt via drie modules. De eerste (pre-deployment testing) test AI-apps nog voor ze live gaan. De tweede (runtime protection) bewaakt de applicatie in productie: elke input en output wordt gescand op kwetsbaarheden. De derde (compliance & inventory) brengt alle AI-oplossingen binnen een bedrijf in kaart en mapt de risico’s tegenover regelgeving zoals de EU AI Act, NIST AI RMF of ISO 42001.
“Een klantenservicebot kan hooguit verkeerde antwoorden geven. Een AI-agent die namens de klant betalingen uitvoert, contracten leest of code schrijft, kan echte schade aanrichten,” gaat Noels verder. “Enoki is gebouwd voor de nieuwe generatie: AI-agenten die via gestandaardiseerde koppelingen rechtstreeks tools, databanken en externe diensten aansturen. Net daar wordt het aanvalsoppervlak exponentieel groter.”
Markt van 86 miljard
Enoki wordt geleid door Audrey Stampaert, voormalig medeoprichtster van HR-scaleup Mbrella, Joachim Roelants, eerder actief bij Fortino Capital en startupstudio StarApps, en Sander Noels, postdoctorerend onderzoeker in AI en data-analyse aan de UGent. De startup haalt momenteel zijn eerste designpartners aan boord en bereidt een kapitaalronde voor.
“De AI-cybersecuritymarkt groeit naar verwachting tot 86 miljard euro tegen 2030. Bedrijven experimenteren volop met AI-toepassingen, maar zijn zich vaak onvoldoende bewust van de bijhorende risico’s. We richten ons op Europese B2B-SaaS-bedrijven en grote ondernemingen die zelf LLM-gebaseerde AI-agenten bouwen: klantendienstbots, financiële assistenten, HR-tools, code-assistenten. Voor die bedrijven telt snelheid naar de markt. Eén veiligheidsincident kan echter reputatieschade en operationele chaos veroorzaken die alle winst van een nieuwe functionaliteit meteen onderuit haalt. Enoki bouwt de beveiligingsinfrastructuur voor het tijdperk van AI-agents,” besluit Stampaert.
