Trend Micro: inconsistentie in gegenereerde AI-resultaten vormen groeiend risico voor organisaties

22 januari 2026

Uit onderzoek van Trend Micro blijkt dat AI-systemen signi­fi­cant verschil­lende resul­taten kunnen genereren, afhan­ke­lijk van geogra­fi­sche locatie, taal, model­ont­werp en inge­bouwde contro­le­me­cha­nismen. Deze incon­sis­ten­ties kunnen vertrouwen onder­mijnen, niet aansluiten bij lokale regel­ge­ving of culturele normen en dus leiden tot kostbare zakelijke gevolgen.

Onder­zoe­kers van Trend Micro hebben bijna 100 AI-modellen getest met meer dan 800 gerichte prompts. Deze prompts zijn ontworpen om voor­oor­delen, politiek en cultureel bewust­zijn, geofen­cing-gedrag, signalen van gege­vens­soe­ve­rei­ni­teit en contex­tuele beper­kingen te beoor­delen. De onder­zoe­kers voerden expe­ri­menten herhaal­de­lijk uit om te meten hoe de resul­taten in de loop van de tijd en op verschil­lende locaties veran­derden. Bij dit onderzoek zijn meer dan 60 miljoen invoer­to­kens en meer dan 500 miljoen uitvoer­to­kens geanalyseerd.

De bevin­dingen tonen aan dat identieke prompts verschil­lende antwoorden kunnen opleveren in verschil­lende regio’s en modellen, en zelfs kunnen variëren bij herhaalde inter­ac­ties met hetzelfde systeem. In politiek gevoelige scenario’s, zoals rondom betwiste gebieden of nationale iden­ti­teit, vertoonden de modellen duide­lijke regionale verschillen. In andere tests leverden de modellen incon­sis­tente of verou­derde resul­taten op in gebieden die juist precisie vereisen, zoals finan­ciële bere­ke­ningen en tijd­ge­voe­lige informatie.

“Veel orga­ni­sa­ties gaan ervan uit dat AI zich gedraagt als tradi­ti­o­nele software, waarbij dezelfde input dezelfde output oplevert”, aldus Robert McArdle, Director of Cyber­se­cu­rity Research bij Trend Micro. “Ons onderzoek toont aan dat deze aanname niet klopt. Lokale taal­mo­dellen kunnen hun antwoorden aanpassen op basis van regio, taal en bevei­li­gings­maat­re­gelen en per inter­actie verschil­lende antwoorden geven. Wanneer AI-outputs direct worden gebruikt in klant­tra­jecten of zakelijke beslis­singen, lopen met name inter­na­ti­o­nale orga­ni­sa­ties het risico om de controle over hun merkiden­ti­teit, compli­ance en culturele afstem­ming te verliezen.”

Wanneer orga­ni­sa­ties AI inter­na­ti­o­naal inzetten, moeten hun AI-gestuurde diensten binnen verschil­lende juri­di­sche kaders, politieke gevoe­lig­heden en maat­schap­pe­lijke verwach­tingen werken. Daarnaast roepen deze resul­taten zorgen op over AI-imple­men­tatie in de publieke sector. In deze sector kan door AI gege­ne­reerde output gezien worden als officiële richtlijn. Het gebruik van niet-gelo­ka­li­seerde AI-modellen kan dan uitda­gingen op het gebied van soeve­rei­ni­teit en toegan­ke­lijk­heid met zich meebrengen.

“AI moet niet worden behandeld als een plug-and-play produc­ti­vi­teitstool”, voegt Robert McArdle toe. “Orga­ni­sa­ties moeten AI benaderen als een afhan­ke­lijk­heid met een hoog risico. Er moet sprake zijn van duide­lijke gover­nance, gede­fi­ni­eerde verant­woor­de­lijk­heid en mense­lijke veri­fi­catie voor alle output. Dat betekent ook dat er trans­pa­rantie moet worden geëist van de AI-leve­ran­cier over hoe modellen zich gedragen, op welke data ze zijn gebaseerd en welke bevei­li­gings­me­cha­nismen worden toegepast. AI kan absoluut innovatie en effi­ci­ëntie stimu­leren, maar alleen als het wordt ingezet met een duidelijk begrip van zijn beper­kingen en met controles die weer­spie­gelen hoe deze systemen zich in de praktijk gedragen.”

Download hier het volledige rapport ‘Risks of Unmanaged AI Reliance: Evalu­a­ting Regional Biases, Geofen­cing, Data Sove­reignty, and Censor­ship in LLM Models’

Pin It on Pinterest

Share This