Wanneer resul­taten van large language modellen (LLM’s) met valse of mislei­dende infor­matie toch als feiten worden gepre­sen­teerd, spreken we van een arti­fi­cial intel­li­gence-hallu­ci­natie. Hoewel dit in eerste instantie proble­ma­tisch lijkt, kunnen deze...