Van snelle AI-demo naar robuuste realiteit: waarom overheids- en enterprise software meer vraagt dan ‘vibe coding’

20 januari 2026

Wie begin 2026 een tech­no­logie-event bezoekt, kent het beeld. Een ontwik­ke­laar toont hoe in amper twintig minuten een appli­catie ontstaat met behulp van gene­ra­tieve AI. De demo oogt indruk­wek­kend, het publiek applau­dis­seert en de CIO ziet vooral snelheid en effi­ci­ëntie. Toch zit het probleem niet in wat wordt getoond, maar in wat buiten beeld blijft.

Wat je niet ziet, zijn de momenten waarop exact dezelfde prompt een ander resultaat oplevert. De uitzon­de­ringen die een appli­catie doen vastlopen. De kwets­baar­heid die pas maanden later opduikt. Of het ontbreken van een audit trail wanneer een toezicht­houder daarom vraagt. Dat is de keerzijde van wat vandaag vaak “vibe coding” wordt genoemd.

AI-expert Andrej Karpathy omschrijft dit als de March of Nines. Met AI is het relatief eenvoudig om iets te bouwen dat in 90% van de gevallen correct werkt. Dat kan op een namiddag. Maar voor overheids- en enter­pri­se­sys­temen is 90% onvol­doende. Waar een webshop­sto­ring vooral omzet kost, kan onvoor­spel­baar gedrag in een over­heids­sys­teem betekenen dat een burger onterecht geen uitkering krijgt of een onder­nemer een vergun­ning misloopt.

Daarom ligt de lat hier op 99,9% betrouw­baar­heid of hoger. En precies die stap van “meestal goed” naar “altijd correct” vraagt evenveel inspan­ning als alles daarvoor. Wat voor een startup een proof-of-concept is, wordt in de publieke sector en bij grote onder­ne­mingen al snel een kritieke toepas­sing die niet mag falen.

Waarom ‘waarschijnlijk correct’ niet volstaat

De kern van het probleem zit in de manier waarop gene­ra­tieve AI werkt. Het systeem analy­seert patronen in grote hoeveel­heden data en voorspelt wat “waar­schijn­lijk de juiste code” is. Dat levert snelheid op, maar “waar­schijn­lijk correct” is proble­ma­tisch wanneer het gaat over loon­ver­wer­king, vergun­ningen of patiëntgegevens.

In missie­kri­tieke omge­vingen moet hetzelfde scenario altijd tot exact hetzelfde resultaat leiden. Geen variatie, geen inter­pre­tatie. Zeker in de Belgische publieke en finan­ciële sector is die voor­spel­baar­heid geen luxe, maar een vereiste. Kaders zoals de Baseline Infor­ma­tie­be­vei­li­ging Overheid (BIO), deAlgemene Veror­de­ning Gege­vens­be­scher­ming (AVG)en archi­tec­tu­rale richt­lijnen zoals deVlaamse Refe­rentie Archi­tec­tuur (VRA)en het federale BE-GovEA-raamwerk (Belgian Govern­ment Enter­prise Archi­tec­ture)zijn bindend.

Zodra een systeem zelfs maar 1% variatie intro­du­ceert, ontstaat een volledig audit- en beleids­ri­sico. Europese regel­ge­ving zoals de Digital Opera­ti­onal Resi­lience Act (DORA) vereist volledige traceer­baar­heid en contro­leer­baar­heid van IT-systemen. Het is moeilijk uit te leggen aan een auditor dat een AI-systeem “meestal” de juiste toegangs­rechten toekent. Bovendien zijn over­heids­or­ga­ni­sa­ties verplicht om risi­co­volle algo­ritmes te regi­streren, wat bij onge­con­tro­leerde AI-code vrijwel onmo­ge­lijk is.

AI heeft kaders nodig

Betekent dit dat AI geen plaats heeft in overheids- of enter­prise soft­wa­re­ont­wik­ke­ling? Inte­gen­deel. Maar het vraagt een andere bena­de­ring. AI is geen vervan­ging voor ervaren ontwik­ke­laars; het is een versneller binnen duide­lijke grenzen.

Low-code platforms spelen daarin een sleu­telrol. Niet als hype, maar als nood­za­ke­lijke infra­struc­tuur. Ze bieden een archi­tec­tu­raal kader waarin AI kan werken zonder funda­men­tele regels te schenden. In plaats van AI vrij code te laten impro­vi­seren, wordt gewerkt met vooraf gede­fi­ni­eerde en geteste compo­nenten. AI combi­neert die bouw­stenen, maar kan niet buiten de lijntjes kleuren.

De verge­lij­king met LEGO is treffend: de vrijheid om te bouwen is groot, maar de blokken liggen vast. Een AI kan geen onbe­vei­ligde database-connectie aanmaken als het platform dat niet toelaat. Ontwik­kel­teams focussen op busi­nes­slo­gica en processen, terwijl het platform de tech­ni­sche complexi­teit afhandelt.

Begrijpelijkheid telt mee

Naast betrouw­baar­heid is begrij­pe­lijk­heid cruciaal. Wanneer een AI duizenden regels code genereert, kan die technisch correct zijn, maar ondoor­zichtig voor beleids­me­de­wer­kers, compli­ance officers of zelfs collega-ontwik­ke­laars. En wanneer later aanpas­singen nodig zijn, wordt het risico groter.

Visuele ontwik­ke­ling maakt logica inzich­te­lijk via modellen en flows die voor alle betrok­kenen leesbaar zijn. Beleids­me­de­wer­kers zien hoe beslis­singen tot stand komen, compli­ance kan controles uitvoeren en archi­tecten beoor­delen inte­gra­ties. AI onder­steunt met snelheid en sugges­ties, maar mensen behouden de regie.

Eerst ontwerpen, dan bouwen

Een belang­rijke verschui­ving is de timing van AI-gebruik. Door AI al in de ontwerp­fase te gebruiken, kunnen scenario’s worden verkend vóór er code bestaat. Het gesprek verschuift van “kunnen we dit bouwen?” naar “is dit exact wat we bedoelen?”. De uitein­de­lijke keuzes blijven bij mensen; AI onder­steunt binnen afge­sproken kaders.

Wat dit betekent voor organisaties

De vraag is niet of AI missie­kri­tieke soft­wa­re­ont­wik­ke­ling verandert. Dat gebeurt al. De vraag is of orga­ni­sa­ties dat poten­tieel kan benutten zonder de controle te verliezen. Zeker voor Belgische overheden en grote onder­ne­mingen geldt: hoe zet je AI in zonder BIO, AVG, VRA, BE-GovEA of DORA te schenden?

Uitein­de­lijk draait het niet om hoeveel regels code AI kan schrijven, maar om hoeveel daarvan morgen nog correct werkt, begrij­pe­lijk is en voldoet aan wet- en regel­ge­ving. Dat is het deel dat demo’s zelden tonen, maar precies daar wordt het verschil gemaakt in overheids- en enterprise-IT.

Pin It on Pinterest

Share This