Vijf onverwachte voordelen van AI-hallucinaties

8 augustus 2024

Wanneer resul­taten van large language modellen (LLM’s) met valse of mislei­dende infor­matie toch als feiten worden gepre­sen­teerd, spreken we van een arti­fi­cial intel­li­gence-hallu­ci­natie. Hoewel dit in eerste instantie proble­ma­tisch lijkt, kunnen deze AI-hallu­ci­na­ties ook voordelen met zich meebrengen, zoals waar­de­volle inzichten en innovaties. 

Wanneer is er sprake van een AI-hallucinatie?

Er is sprake van een AI-hallu­ci­natie als een AI-systeem een uitvoer genereert die niet over­een­komt met de werke­lijk­heid – het is incon­sis­tent, onjuist of onzinnig gezien de invoer. Bijvoor­beeld; je vraagt een AI-afbeel­dings­ge­ne­rator om een foto van een hond. Vervol­gens krijg je een rare verza­me­ling van dierlijke onder­delen. Dat is dan een hallu­ci­natie. Of als je een taalmodel een vraag stelt en het genereert vol vertrouwen een onjuist of onsa­men­han­gend antwoord, dan is dat ook een hallucinatie.

Hallu­ci­na­ties variëren van subtiele onnauw­keu­rig­heden tot wilde fanta­sieën en ze zijn een grote zorg geworden voor veel mensen die overwegen AI in te zetten binnen hun orga­ni­satie. Maar je kan het ook anders bekijken, en de zoge­naamde AL-hallu­ci­na­ties niet als nadeel zien, maar als voordeel. 

1. Opval­lende creativiteit

AI-systemen zijn niet hetzelfde als tradi­ti­o­nele software. In software is er een lineaire, voor­spel­bare relatie tussen input en output. De ontwik­ke­laar heeft de volledige controle. AI-systemen, met name neurale netwerken, hebben daar­en­tegen een meer ondoor­zich­tige en complexe relatie tussen inputs en outputs. De ontwik­ke­laar traint het model en defi­ni­eert de high-level archi­tec­tuur, maar de speci­fieke manieren waarop het model leert van het trai­nings­proces zijn vaak onverklaarbaar.

Zelfs experts zijn soms niet in staat om precies uit te leggen waarom een neuraal netwerk een bepaalde beslis­sing heeft genomen of een bepaalde output heeft geleverd. Er is een black box-element, waarbij het model zijn eigen repre­sen­ta­ties leert die niet altijd netjes over­een­komen met mense­lijke concepten. Dit is waar AI lijkt op mense­lijke crea­ti­vi­teit. Net als de hersenen is een neuraal netwerk een inge­wik­keld, gelaagd systeem dat tot nieuwe en verras­sende resul­taten kan komen door een complex samenspel van aange­leerde patronen. Het is niet-lineair en wordt niet altijd volledig begrepen.

Als een AI hallu­ci­neert, vertoont hij crea­ti­vi­teit en lateraal denken dat tot voor kort als puur menselijk werd beschouwd. Het legt onver­wachte verbanden, treedt buiten de gebaande  paden op een manier die tot verras­sende inzichten kan leiden. Deze verschui­ving van lineaire, voor­spel­bare software naar niet-lineaire, onvoor­spel­bare AI is een inte­res­sante stap. Het daagt ons begrip van crea­ti­vi­teit en intel­li­gentie uit. Het sugge­reert dat deze eigen­schappen misschien niet zo exclusief menselijk zijn als we dachten. We staan aan de vooravond van een nieuw tijdperk, waarin de grens tussen mense­lijke en machinale crea­ti­vi­teit vervaagt. En dat is echt inspirerend.

2. Gelukkig toeval

De realiteit van weten­schap­pe­lijke ontdek­kingen is vaak toevallig. Peni­cil­line werd bij toeval ontdekt toen Alexander Fleming merkte dat een vervuild petri­schaaltje een bacte­rie­do­dende schimmel bevatte. De magnetron werd uitge­vonden nadat Percy Spencer merkte dat een radar magnetron een choco­la­de­reep in zijn zak deed smelten. 

Het ‘hallu­ci­na­tie­pro­bleem’ van AI zorgt voor soort­ge­lijke ‘gelukkige onge­lukken’ en weten­schap­pe­lijke inzichten. Onder­zoe­kers van Stanford Medicine en McMaster Univer­sity creëerden een AI-model genaamd SyntheMol, dat razend­snel poten­tiële medi­cijn­struc­turen en recepten gene­reerde. De hallu­ci­na­ties van het model maakten het mogelijk om onbekende chemische ruimtes te verkennen, wat resul­teerde in geheel nieuwe verbin­dingen. Zes van deze verbin­dingen bleken effectief tegen een resis­tente bacte­rie­stam, en twee ervan gingen door naar dier­proeven. Deze inno­va­tieve aanpak zou kunnen helpen bij het ontdekken van behan­de­lingen voor andere anti­bi­o­tica-resis­tente infecties en ziekten zoals hartziekten.

Oftewel, door verras­sende verbanden te leggen, helpt AI ons los te komen van lineair denken en opent het nieuwe wegen voor innovatie. Bij het ontwik­kelen van deze systemen moeten we het poten­tieel van hallu­ci­na­ties omarmen als een bron van creatief inzicht en vooruitgang.

3. AI verbe­te­ringen

AI-hallu­ci­na­ties kunnen ons ook helpen verborgen uitda­gingen te iden­ti­fi­ceren en aan te pakken. Denk aan afwij­kingen of bias in AI-systemen. Als een AI conse­quent hallu­ci­neert op een manier die stereo­typen of voor­oor­delen weer­spie­gelt, waar­schuwt dit ontwik­ke­laars voor deze voor­oor­delen in de trai­nings­ge­ge­vens of mode­l­ar­chi­tec­tuur. Dit zet aan tot inspan­ningen om deze voor­oor­delen te iden­ti­fi­ceren en te beperken, wat leidt tot meer recht­vaar­dige AI-systemen. Zie hallu­ci­na­ties als een kanarie in de kolenmijn, die waar­schuwt voor problemen voordat ze diep­ge­wor­teld raken.

Ze kunnen ook hiaten of kwali­teits­pro­blemen in trai­nings­ge­ge­vens aan het licht brengen. Als een AI vaak hallu­ci­neert over bepaalde onder­werpen, kan dit erop wijzen dat de trai­nings­ge­ge­vens op deze gebieden tekort­schieten. Dit leidt tot inspan­ningen om uitge­brei­dere gegevens te verza­melen, waardoor de pres­ta­ties van de AI verbe­teren. Hallu­ci­na­ties nodigen ons uit om de inner­lijke werking van AI te onder­zoeken, om in de zwarte doos te kijken en inzichten te verwerven.

4. Hallu­ci­na­ties en kwaliteitscontrole

Hallu­ci­na­ties herin­neren ons eraan dat AI niet onfeil­baar is en dat we niet zomaar de controle uit handen kunnen geven en foutloze resul­taten kunnen verwachten. In plaats daarvan onder­strepen hallu­ci­na­ties de noodzaak voor mensen om met AI samen te werken en er niet alleen op te vertrouwen.

Dit betekent dat we in elke fase goed moeten opletten. Bij het invoeren van gegevens moeten we rekening houden met mogelijke verte­ke­ningen of hiaten. Door onge­brui­ke­lijke reacties op te merken, de oorsprong ervan te achter­halen en ze te corri­geren, verfijnen en verbe­teren we de pres­ta­ties van de AI. Verant­woord AI-gebruik betekent verant­woor­de­lijk­heid nemen voor toezicht en correctie. Het betekent de output van de AI in twijfel trekken, dieper graven als iets niet lijkt te kloppen en de resul­taten voort­du­rend verge­lijken met echte gegevens en mense­lijke expertise. Een AI hallu­ci­natie is dus eigenlijk een ingebouwd mecha­nisme voor kwali­teits­con­trole en voort­du­rende verbetering.

5. Leren omgaan met AI

Door hallu­ci­na­ties te monitoren en te onder­zoeken, ontdekken we patronen in waar en hoe ze zich voordoen. Op deze manier dient een gedis­ci­pli­neerde bena­de­ring van hallu­ci­na­ties als een route­kaart die de meest veel­be­lo­vende wegen voor AI-ontwik­ke­ling en ‑toepas­sing markeert. Maar het reali­seren van dit poten­tieel vereist meer dan alleen tech­ni­sche verfij­ningen. Het vereist een focus op training en verandermanagement.

Nu AI-tools steeds geavan­ceerder worden, moeten we mensen ook de vaar­dig­heden bijbrengen om er verant­woor­de­lijk en effectief mee om te gaan. Dit betekent inves­teren in training die niet alleen betrek­king heeft op mechanica, maar ook op kritische denk­vaar­dig­heden om de output te inter­pre­teren en erop te reageren.

Het betekent ook proactief omgaan met veran­de­ringen, anti­ci­peren op orga­ni­sa­to­ri­sche en psycho­lo­gi­sche belem­me­ringen en deze aanpakken. Dit kan betekenen dat je werk­stromen moet hero­ver­wegen, rollen opnieuw moet defi­ni­ëren en onder­steu­ning moet bieden om mensen te helpen zich aan te passen aan een snel veran­de­rende wereld. Door ons te richten op deze mense­lijke elementen – training, cultuur en veran­der­ma­na­ge­ment – creëren we een omgeving waarin de gedis­ci­pli­neerde, geza­men­lijke bena­de­ring van AI-hallu­ci­na­ties gedijt. We stellen mensen in staat om actieve partners te worden bij het vormgeven van de toekomst van arti­fi­cial intel­li­gence. Dat is niet alleen een mooi streven, maar ook nood­za­ke­lijk voor een nuttig en veilig gebruik van AI.

Pin It on Pinterest

Share This