Als we willen dat AI inclusief is, hebben we een inclusieve samenleving nodig! 

10 november 2023

Of het nu gaat om ChatGPT of een ‘foto’ van de paus in een modieuze jas, het is tegen­woordig moeilijk om kunst­ma­tige intel­li­gentie te negeren. Ondanks een groeiend aantal positieve verhalen, trekt de tech­no­logie ook de nodige critici. Een van de bezwaren tegen AI is dat de tech­no­logie niet inclusief is. Maar waarom is het dat niet? En wat kunnen we eraan doen?

Om te beginnen een voorbeeld om het gebrek aan inclu­si­vi­teit van AI te illu­streren: als je een AI vraagt om een afbeel­ding te maken van een vrouw te paard, zal het waar­schijn­lijk een blanke of Azia­ti­sche vrouw met lang haar zijn. Dat is niet verwon­der­lijk, want de meest voor­ko­mende afbeel­dingen van vrouwen te paard op internet zien er zo uit. 

Hoewel dit gebrek aan inclu­si­vi­teit relatief onschuldig is, kan de relatieve objec­ti­vi­teit van kunst­ma­tige intel­li­gentie soms het grote publiek beledigen. In 2015 cate­go­ri­seerde het algoritme van Google Foto’s een gekleurde gebruiker als een ‘gorilla’, wat de gebreken bloot­legde van een systeem dat even complex als delicaat is. 

Een aantal van dit soort voor­oor­delen kan worden waar­ge­nomen in de verzoeken aan AI’s, die onver­mij­de­lijk mense­lijke voor­oor­delen over gender­ge­lijk­heid, racisme, handicap enz. weerspiegelen. 

Een ander veel­zeg­gend voorbeeld: als AI een foto van een vis laat zien, zal de tech­no­logie de vis waar­schijn­lijk niet als zodanig herkennen, tenzij er ook vingers zichtbaar zijn op de foto. Dit komt omdat er online veel foto’s staan van mensen die een vis vast­houden. De online wereld is echter het enige refe­ren­tie­kader waarover AI beschikt en helaas is deze wereld niet zo inclusief als we zouden willen. Het is aan ons, de mensen die het internet hebben gemaakt, om van AI een inclusief hulp­middel te maken. Waarom zijn we verbaasd dat AI niet inclusief is, terwijl onze samen­le­ving zo weinig inclusief is? 

AI is een kind dat alles moet leren

AI is tenslotte net een kind: het imiteert ons gedrag en doet wat wij zeggen dat het moet doen. Als een klein kind iets doet wat niet mag, geven we vaak de ouders de schuld omdat ze hun kind niet goed hebben opgevoed. Hoe is het mogelijk dat we bij AI niet onszelf de schuld geven, maar de tech­no­logie? We kunnen niet van deze tech­no­logie verwachten dat ze weet wat ze doet, alleen maar omdat we haar ‘intel­li­gent’ noemen. We moeten eerst in de spiegel kijken, want wij hebben het gemaakt. 

Omdat de grens tussen de gelij­kenis mens/​machine vervaagt, ontstaat er een bijna onver­an­der­lijke over­dracht van mense­lijke emoti­o­nele naboot­sing naar compu­ter­net­werken, verge­lijk­baar met neurale netwerken. AI is voor ontwik­ke­laars wat Fran­ken­stein was voor zijn schepper: een autonome entiteit met moge­lijk­heden gemo­del­leerd naar een min of meer stabiele database, gepro­gram­meerd om het gedrag van zijn model te reproduceren. 

Op deze manier, en door gebruik te maken van de huidige denk­wijzen en de gevolgen daarvan voor het fysieke universum om ons heen, kunnen we het gebrek aan diversiteit/​inclusie van deze AI’s, dat vaak wordt bekri­ti­seerd, beter begrijpen. Professor Sasha Luccioni heeft ook gewezen op het lage percen­tage vrouwen onder ontwik­ke­laars op wereld­wijde schaal, wat de inte­gratie van onbewuste voor­oor­delen in algo­ritmen kan vergemakkelijken. 

Laten we beginnen met een beetje neutraliteit

Het internet en het nieuws zitten vol extremen. Een gematigde mening is minder inte­res­sant om te lezen. AI is daarom alleen bekend met extremen en heeft nog nauwe­lijks kennis gemaakt met inter­net­neu­tra­li­teit. Onze taak is daarom om het web te vullen met genu­an­ceerde infor­matie, zodat de AI ook deze tussen­zone leert kennen en herkennen.

Dit betekent dat we vanaf nul moeten beginnen en moeten leren om een echt gesprek te voeren met anderen, zowel offline als online. Alleen op deze manier kunnen de uitersten worden samen­ge­bracht in een neutraler grijs gebied, waar de AI zich vervol­gens mee moet voeden. ChatGPT is immers ontworpen om gesprekken te voeren en is gebaseerd op waar­schijn­lijk­heden. Maar het wordt vaak gebruikt als een infor­ma­tie­hulp­middel, ook al heeft de tech­no­logie daar nog niet de juiste middelen voor. Dit is natuur­lijk waarom we wiskunde nodig hebben. We weten allemaal dat 1 + 1 = 2 en dat dit het enige mogelijke antwoord is, wat iemand anders ook zegt.

De werke­lijk­heid is veel complexer, met meerdere dimensies van inter­pre­tatie en consensus tussen ‘denkende’ enti­teiten, en het is nu nodig om het begrip nuance in algo­ritmen te intro­du­ceren om alle aspecten van een zoek­op­dracht te begrijpen. 

Geloof niet alles wat AI je vertelt 

Dus voordat we AI om infor­matie vragen, moeten we kritisch en zorg­vuldig nadenken over de infor­matie die we aan AI geven. Te beginnen met de infor­matie die we online zetten en vervol­gens de vragen die we aan de tech­no­logie stellen. AI is immers niet “de heilige waarheid” en zal soms onjuiste resul­taten geven, of resul­taten die niet bij ons passen, simpelweg omdat onze eigen denkwijze niet wordt bevestigd.

Wat je ook denkt over AI en hoe je het ook benadert, het is altijd belang­rijk om in gedachten te houden dat de leercurve van AI lang duurt. Een meer inclu­sieve versie van AI begint immers met een meer inclu­sieve versie van onszelf. 

In de afgelopen tien jaar zijn we getuige geweest van de razend­snelle opkomst van kunst­ma­tige intel­li­gentie, die steeds krach­tiger en inno­va­tiever wordt naarmate het de moge­lijk­heden van de digitale sfeer ontwik­kelt. De komst van programma’s als ChatGPT op een toch al zeer geavan­ceerde markt is echter niet alleen synoniem met welvaart. Deze uitvin­dingen leiden tot nieuwe vragen en nieuwe angsten, die soms terug te voeren zijn op systeem­fouten. In de nabije toekomst, wanneer deze AI’s alom­te­gen­woordig zullen worden, lijkt het nood­za­ke­lijk om de mazen die kunnen worden waar­ge­nomen te dichten om de modellen te perfec­ti­o­neren en onder andere de ethisch gevoelige fouten die menselijk gedrag weer­spie­gelen te verminderen.

Pin It on Pinterest

Share This