De echte uitdaging van AI zit niet in technologie, maar in governance

24 maart 2026

Een speech vol verzonnen Einstein-citaten. Een rapport van miljoenen euro’s dat vol staat met fouten en onbe­staande bronnen. De voor­beelden stapelen zich op en illu­streren één iets: wie gene­ra­tieve AI blind vertrouwt, valt vroeg of laat door de mand. AI blijft immers hallu­ci­neren, en het onder­scheid tussen correcte infor­matie en onzin is soms flinterdun.

Terwijl orga­ni­sa­ties AI massaal omarmen, blijft de cruciale vraag vaak onbe­ant­woord: wie bewaakt het correcte en veilige gebruik ervan? Logi­scher­wijs kijkt iedereen naar IT. Maar net daar wringt het schoentje. Volgens het rapport Inside ITSM 2026 ervaart een derde van de IT-profes­si­o­nals nu al een hoge werkdruk. Hoe neem je dan nog AI-moni­to­ring erbij?

AI sluipt overal binnen

In heel wat bedrijven groeit het AI-gebruik sneller dan de interne struc­turen kunnen volgen. Marke­ting­teams genereren content, commer­ciële diensten laten offertes analy­seren en HR screent cv’s via auto­ma­ti­sche systemen. Dat enthou­si­asme is begrij­pe­lijk, maar het gebeurt lang niet altijd in overleg met IT of binnen afge­sproken veiligheidskaders.

Zonder degelijke controle ontstaat een gevaar­lijke cocktail:

  • foutieve of mislei­dende outputs,
  • beslis­singen op basis van incor­recte data,
  • tools die toegang krijgen tot systemen waarvoor ze niet bedoeld zijn.

Continu toezicht is dus geen luxe, maar noodzaak. Wie checkt of de gege­ne­reerde output klopt? Wie bewaakt dat data op een veilige manier gebruikt wordt? Wie garan­deert dat AI-toepas­singen enkel toegang hebben tot de juiste bronnen?

In veel orga­ni­sa­ties bestaat daar vandaag simpelweg geen antwoord op.

Waarom IT onmisbaar is in deze rol

AI vraagt om meer dan wat basis­kennis over tech­no­logie. Het vereist inzicht in processen, data­stromen en de manier waarop de orga­ni­satie beslis­singen neemt. Denk aan iets eenvou­digs zoals een chatbot op de IT-helpdesk. Zonder koppeling met bepaalde systemen blijft die steken bij stan­daardad­vies. Met de juiste inte­gra­ties kan hij echter concrete oplos­singen bieden op basis van actuele systeeminfo.

Vergelijk het met de intro­ductie van Microsoft Teams. Ook daar zorgde IT voor confi­gu­ratie, inte­gra­ties en gover­nance. Alleen is het bij AI nog complexer. Modellen evolueren razend­snel en brengen nieuwe risico’s mee. Daarom volstaat een eenmalige imple­men­tatie niet maar moet er permanent toezicht zijn.

Waarom uitbesteden of negeren geen duurzame opties zijn

Veel IT-teams hebben vandaag nauwe­lijks adem­ruimte. Bijna de helft besteedt het grootste deel van hun tijd aan opera­ti­o­neel brandjes blussen en komen amper toe aan preven­tief werk. Slechts een derde voelt zich gewapend voor de toekomst.

In zo’n context lijkt het verlei­de­lijk om AI-gover­nance uit te besteden of door een andere afdeling te laten beheren. Maar dat brengt nieuwe problemen met zich mee:

  • verlies van controle over bedrijfsdata,
  • moni­to­ring door mensen zonder tech­ni­sche bagage,
  • gebrek aan struc­tu­rele opvolging,
  • grotere kwets­baar­heid voor foute of ongepaste AI-output.

AI-gebruik vraagt dus om een andere aanpak én om duide­lijke keuzes.

Vijf keuzes die organisaties vandaag moeten maken

  1. Maak ruimte in de IT-agenda: opera­ti­o­na­li­se­ring auto­ma­ti­seren, bepaalde taken schrappen of uitbe­steden, er moet tijd worden vrij­ge­maakt om AI degelijk te beheren.
  2. Investeer in kennis­op­bouw: cursussen en trai­ningen zijn nood­za­ke­lijk, maar ook externe expertise helpt IT-teams om zowel tech­ni­sche risico’s als orga­ni­sa­to­ri­sche valkuilen te begrijpen.
  3. Herbekijk rollen en verant­woor­de­lijk­heden: een AI-officer, verge­lijk­baar met een security officer, kan fulltime instaan voor gover­nance en kwali­teits­con­trole. Of misschien moeten interne rollen herschikt worden.
  4. Werk orga­ni­sa­tie­breed: IT moet de verbin­dende factor zijn die afde­lingen samen­brengt rond één coherent AI-beleid. Zo vermijd je dat elke dienst op zijn eiland experimenteert.
  5. Toon de meer­waarde: regelmatig terug­kop­pelen over wat goed toezicht oplevert zorgt ervoor dat AI-gover­nance niet als kost wordt gezien, maar als stra­te­gi­sche investering.

Hallucinaties verdwijnen niet, maar risico’s wel

AI zal altijd hallu­ci­neren. Dat is geen bug, maar een eigen­schap van het systeem. Net daarom is toezicht geen keuze maar een plicht. De grootste uitdaging voor IT blijft tijds­ge­brek, maar orga­ni­sa­ties die hier nu werk van maken, geven IT de positie die ze nodig heeft om de AI-transitie veilig en gecon­tro­leerd te begeleiden.

Want als zelfs Einstein woorden in de mond gelegd worden die hij nooit uitsprak, dan is het duidelijk: goede gover­nance is geen over­bo­dige luxe, het is pure noodzaak.

Pin It on Pinterest

Share This