Studie: Vertrouwen in generatieve AI neemt wereldwijd sterk toe, ondanks gebrek aan voorzorgsmaatregelen

30 september 2025

SAS heeft vandaag nieuwe onder­zoeks­re­sul­taten bekend­ge­maakt over het gebruik, de impact en de betrouw­baar­heid van AI. Uit het IDC Data and AI Impact Report: The Trust Impe­ra­tive, uitge­voerd in opdracht van SAS, blijkt dat IT- en topma­na­gers meer vertrouwen hebben in gene­ra­tieve AI dan in elke andere vorm van AI.

Het wereld­wijde onderzoek over het gebruik en de toepas­sing van AI toont ook aan dat slechts 40% van de orga­ni­sa­ties inves­teert om de betrouw­baar­heid van AI-systemen te verze­keren met maat­re­gelen op het vlak van gover­nance, uitleg­baar­heid en ethiek. Nochtans hebben bedrijven die prio­ri­teit geven aan betrouw­bare AI, 60% meer kans om de ROI van AI-projecten te verdub­belen. De orga­ni­sa­ties die de minste inves­te­ringen in betrouw­bare AI-systemen rappor­teerden, beschouwen, para­doxaal genoeg, gene­ra­tieve AI (zoals ChatGPT) als 200% betrouw­baarder dan tradi­ti­o­nele AI (zoals machine learning), Nochtans is die tradi­ti­o­nele AI de meest geves­tigde, betrouw­bare en uitleg­bare vorm van AI.

“Er komt een tegen­strij­dig­heid naar voren uit ons onderzoek. Algemeen bekende AI-systemen met mens­ach­tige inter­actie lijken namelijk het meest vertrouwen in te boezemen, ongeacht hun werke­lijke betrouw­baar­heid of nauw­keu­rig­heid”, zegt Kathy Lange, Research Director AI & Auto­ma­tion Practice bij IDC. “Als AI-providers, profes­si­o­nals en private gebrui­kers moeten we ons de vraag stellen: gene­ra­tieve AI geniet wel vertrouwen, maar zijn de systemen ook altijd betrouw­baar? En passen leiders de nodige voorzorgs- en gover­nan­ce­maat­re­gelen toe voor deze nieuwe technologie?”

Lees hier het volledige onderzoeksrapport.

Het onderzoek is gebaseerd op een wereld­wijde enquête bij 2375 personen uit Noord-Amerika, Zuid-Amerika, Europa, het Midden-Oosten, Afrika, Azië-Pacific. De deel­ne­mers waren even­wichtig verdeeld over IT-profes­si­o­nals en topma­na­gers, voor perspec­tieven uit zowel tech­no­lo­gi­sche als zakelijke functies.

Opkomende AI-technologieën boezemen meer vertrouwen in

Algemeen bleek uit de studie dat opkomende tech­no­lo­gieën zoals gene­ra­tieve AI en agentic AI meer vertrouwen genieten dan langer bestaande vormen van AI. Zowat de helft van de respon­denten (48%) gaf aan gene­ra­tieve AI ‘volledig te vertrouwen’. Voor agentic AI was dat 33%. Tradi­ti­o­nele vormen van AI boezemen het minst vertrouwen in: slechts één op de vijf (18%) gaf aan ze volledig te vertrouwen.

Hoewel ze veel vertrouwen hebben in gene­ra­tieve en agentic AI, maakten de deel­ne­mers zich zorgen over data privacy (62%), trans­pa­rantie en verklaar­baar­heid (57%) en het ethische gebruik van de tech­no­logie (56%).

Onder­tussen neemt het vertrouwen in quantum AI snel toe, hoewel de tech­no­logie voor de meeste gebruik­stoe­pas­singen nog niet volledig beschik­baar is. Bijna een derde van de wereld­wijde besluit­vor­mers gaf aan vertrouwd te zijn met quantum AI, en 26% heeft het volste vertrouwen in de tech­no­logie, hoewel de reële toepas­singen nog in de kinder­schoenen staan.

Ontoereikende AI-vangrails verzwakken de impact van AI … en de ROI

De studie wijst op een snelle toename van het AI-gebruik, zeker van gene­ra­tieve AI, dat tradi­ti­o­nele AI snel heeft ingehaald wat betreft zicht­baar­heid en gebruik (81% vs. 66%). Dat heeft geleid tot nieuwe risico’s en ethische vraagtekens.

De IDC-onder­zoe­kers stelden bij orga­ni­sa­ties in alle regio’s een discre­pantie vast tussen de geper­ci­pi­eerde en de werke­lijke betrouw­baar­heid van de tech­no­logie. Hoewel volgens de studie bijna acht op de tien orga­ni­sa­ties (78%) aangeven AI volledig te vertrouwen, heeft slechts 40% geïn­ves­teerd om de systemen aantoon­baar betrouw­baar te maken met voor­zorgs­maat­re­gelen op het vlak van gover­nance, verklaar­baar­heid en ethische waar­borgen.

Het onderzoek wijst ook op de lage prio­ri­teit voor maat­re­gelen om de betrouw­baar­heid te verze­keren bij het opera­ti­o­na­li­seren van AI-projecten. Slechts 2% van de respon­denten plaatste de ontwik­ke­ling van een gover­nan­ce­kader voor AI bij de drie belang­rijkste prio­ri­teiten en minder dan 10% gaf aan een beleid voor verant­woord AI-gebruik uit te werken. Minder aandacht voor betrouw­baar­heids­maat­re­gelen kan er echter toe leiden dat de AI-inves­te­ringen van diezelfde bedrijven later niet maximaal renderen.

De onder­zoe­kers deelden de respon­denten in in leiders en volgers op het vlak van betrouw­bare AI. Leiders inves­teerden het meest in prak­tijken, tech­no­lo­gieën en gover­nance frame­works om hun AI-systemen betrouw­baar te maken – en lijken daar ook de vruchten van te plukken. Diezelfde leiders in betrouw­bare AI hadden namelijk 1,6 keer meer kans op een dubbel of nog groter inves­te­rings­ren­de­ment van hun AI-projecten.

Gebrek aan sterke datafundamenten en governance staan AI in de weg

Naarmate AI-systemen autonomer worden en meer geïn­te­greerd raken in kritieke processen, worden ook de data­fun­da­menten belang­rijker. De kwaliteit, diver­si­teit en gover­nance van de data hebben een recht­streekse invloed op de AI-resul­taten. Slimme data­stra­te­gieën zijn dan ook essen­tieel om voordelen te verwe­zen­lijken (bv. ROI, produc­ti­vi­teits­toe­name) en de risico’s te beperken.

Tijdens het onderzoek werden drie belang­rijke hinder­palen vast­ge­steld voor succes­volle AI-imple­men­ta­ties: een zwakke data-infra­struc­tuur, ontoe­rei­kende gover­nance en een gebrek aan AI-vaar­dig­heden. Volgens bijna de helft (49%) van de bedrijven vormden een niet-gecen­tra­li­seerde data-infra­struc­tuur of niet-geop­ti­ma­li­seerde clouddata de belang­rijkste hinder­paal. Daarna volgden onvol­doende processen voor datago­ver­nance (44%) en een gebrek aan gespe­ci­a­li­seerde mede­wer­kers binnen de onder­ne­ming (41%).

Wat het beheer betreft van de data die gebruikt wordt voor AI-imple­men­ta­ties, was het belang­rijkste probleem volgens de respon­denten de toegang tot relevante data­bronnen (58%). Andere grote uitda­gingen waren data­pri­vacy- en compli­an­ce­pro­blemen (49%) en de data­kwa­li­teit (46%).

“Het vertrouwen in AI is van cruciaal belang voor de samen­le­ving, bedrijven en werk­ne­mers”, zegt Bryan Harris, Chief Tech­no­logy Officer van SAS. “Hiertoe moet de AI-sector de succes­graad van de imple­men­ta­ties verhogen, moeten mensen AI-resul­taten met een kritische blik bekijken en moet het mana­ge­ment werk­ne­mers de kracht van AI in handen geven.”

Pin It on Pinterest

Share This