Nieuwe Gentse startup Enoki beveiligt AI-apps met slimme hacker agent

5 mei 2026

AI-apps zoals chatbots en AI-agenten bevatten vaak ernstige beveiligingsrisico’s en data­lekken. Klassieke codescan­tech­nieken zijn daarvoor nood­za­ke­lijk, maar niet voldoende. Taal­mo­dellen zijn namelijk onvoor­spel­baar. Om dat gat te dichten lanceren Gentse onder­ne­mers Enoki, een secu­ri­ty­startup die met een autonome AI-hacker agent elke AI-appli­catie op maat test.

België is binnen Europa een koploper in AI-adoptie. Bij grote onder­ne­mingen zet drie op de vier AI actief in op de werkvloer (Acerta, 2026). Terwijl twee jaar geleden chatbots en simpele AI-functies nog de norm waren, draaien autonome AI-agenten vandaag in productie: systemen die taal­mo­dellen koppelen aan data­banken, code en externe diensten. Die snelle evolutie creëert echter een secu­ri­ty­pro­bleem. Vaak blijken die toepas­singen namelijk bijzonder kwetsbaar en zijn ze niet op de klassieke manier af te schermen.

Onvoorspelbaar

Het gere­no­meerde UK AI Security Institute regi­streerde in 2026 al meer dan 700 AI-inci­denten, een vervijf­vou­di­ging tegenover een jaar eerder (The Guardian, 2026). Gartner voorspelt dat tegen 2028 één op de vier enter­prise GenAI-appli­ca­ties minstens vijf bevei­li­gings­in­ci­denten per jaar zal meemaken (Gartner, 2026). In maart dit jaar lekte een interne AI-chatbot van McKinsey bijvoor­beeld klant­ge­ge­vens na een gerichte aanval. Een AI-agent van Meta deelde rond dezelfde periode dan weer interne data op een ontwikkelaarsforum.

Uit gesprekken met devel­o­pers, CISO’s en AI-leads bij een honderdtal scale-ups komt telkens hetzelfde knelpunt naar boven: er is geen schaal­bare manier om AI-agenten grondig te testen op veilig­heid en robuust­heid. “Statische codescans vinden kwets­baar­heden in code. Alleen zit in AI-apps het risico niet zozeer in de code maar in het gedrag van het taalmodel zelf, en dat gedrag is onvoor­spel­baar,” vertelt Sander Noels, mede­op­richter van Enoki. “Een AI-agent kan met één slim gefor­mu­leerde instructie data lekken, tools misbruiken of acties uitvoeren die nergens gepro­gram­meerd staan. Nochtans verplicht de EU AI Act high-risk AI-systemen om aantoon­baar weerbaar te zijn tegen mani­pu­latie en aanvallen.”

Autonome hacker agent

Vanuit die vast­stel­ling bouwde Enoki een platform dat het model zelf test, niet alleen de code. AI-appli­ca­ties worden onder­worpen aan honderden autonoom gege­ne­reerde aanvallen, van promp­t­in­jectie tot datadiefstal.

Het platform van Enoki werkt via drie modules. De eerste (pre-deploy­ment testing) test AI-apps nog voor ze live gaan. De tweede (runtime protec­tion) bewaakt de appli­catie in productie: elke input en output wordt gescand op kwets­baar­heden. De derde (compli­ance & inventory) brengt alle AI-oplos­singen binnen een bedrijf in kaart en mapt de risico’s tegenover regel­ge­ving zoals de EU AI Act, NIST AI RMF of ISO 42001.

“Een klan­ten­ser­vi­cebot kan hooguit verkeerde antwoorden geven. Een AI-agent die namens de klant beta­lingen uitvoert, contracten leest of code schrijft, kan echte schade aanrichten,” gaat Noels verder. “Enoki is gebouwd voor de nieuwe generatie: AI-agenten die via gestan­daar­di­seerde koppe­lingen recht­streeks tools, data­banken en externe diensten aansturen. Net daar wordt het aanvals­op­per­vlak expo­nen­tieel groter.”

Markt van 86 miljard

Enoki wordt geleid door Audrey Stampaert, voormalig mede­op­richt­ster van HR-scaleup Mbrella, Joachim Roelants, eerder actief bij Fortino Capital en star­tup­studio StarApps, en Sander Noels, post­doc­to­re­rend onder­zoeker in AI en data-analyse aan de UGent. De startup haalt momenteel zijn eerste design­part­ners aan boord en bereidt een kapi­taal­ronde voor.

“De AI-cyber­se­cu­ri­ty­markt groeit naar verwach­ting tot 86 miljard euro tegen 2030. Bedrijven expe­ri­men­teren volop met AI-toepas­singen, maar zijn zich vaak onvol­doende bewust van de bijho­rende risico’s. We richten ons op Europese B2B-SaaS-bedrijven en grote onder­ne­mingen die zelf LLM-geba­seerde AI-agenten bouwen: klan­ten­dienst­bots, finan­ciële assis­tenten, HR-tools, code-assis­tenten. Voor die bedrijven telt snelheid naar de markt. Eén veilig­heids­in­ci­dent kan echter repu­ta­tie­schade en opera­ti­o­nele chaos veroor­zaken die alle winst van een nieuwe func­ti­o­na­li­teit meteen onderuit haalt. Enoki bouwt de bevei­li­gings­in­fra­struc­tuur voor het tijdperk van AI-agents,” besluit Stampaert.

Pin It on Pinterest

Share This