Of het nu gaat om ChatGPT of een ‘foto’ van de paus in een modieuze jas, het is tegenwoordig moeilijk om kunstmatige intelligentie te negeren. Ondanks een groeiend aantal positieve verhalen, trekt de technologie ook de nodige critici. Een van de bezwaren tegen AI is dat de technologie niet inclusief is. Maar waarom is het dat niet? En wat kunnen we eraan doen?
Om te beginnen een voorbeeld om het gebrek aan inclusiviteit van AI te illustreren: als je een AI vraagt om een afbeelding te maken van een vrouw te paard, zal het waarschijnlijk een blanke of Aziatische vrouw met lang haar zijn. Dat is niet verwonderlijk, want de meest voorkomende afbeeldingen van vrouwen te paard op internet zien er zo uit.
Hoewel dit gebrek aan inclusiviteit relatief onschuldig is, kan de relatieve objectiviteit van kunstmatige intelligentie soms het grote publiek beledigen. In 2015 categoriseerde het algoritme van Google Foto’s een gekleurde gebruiker als een ‘gorilla’, wat de gebreken blootlegde van een systeem dat even complex als delicaat is.
Een aantal van dit soort vooroordelen kan worden waargenomen in de verzoeken aan AI’s, die onvermijdelijk menselijke vooroordelen over gendergelijkheid, racisme, handicap enz. weerspiegelen.
Een ander veelzeggend voorbeeld: als AI een foto van een vis laat zien, zal de technologie de vis waarschijnlijk niet als zodanig herkennen, tenzij er ook vingers zichtbaar zijn op de foto. Dit komt omdat er online veel foto’s staan van mensen die een vis vasthouden. De online wereld is echter het enige referentiekader waarover AI beschikt en helaas is deze wereld niet zo inclusief als we zouden willen. Het is aan ons, de mensen die het internet hebben gemaakt, om van AI een inclusief hulpmiddel te maken. Waarom zijn we verbaasd dat AI niet inclusief is, terwijl onze samenleving zo weinig inclusief is?
AI is een kind dat alles moet leren
AI is tenslotte net een kind: het imiteert ons gedrag en doet wat wij zeggen dat het moet doen. Als een klein kind iets doet wat niet mag, geven we vaak de ouders de schuld omdat ze hun kind niet goed hebben opgevoed. Hoe is het mogelijk dat we bij AI niet onszelf de schuld geven, maar de technologie? We kunnen niet van deze technologie verwachten dat ze weet wat ze doet, alleen maar omdat we haar ‘intelligent’ noemen. We moeten eerst in de spiegel kijken, want wij hebben het gemaakt.
Omdat de grens tussen de gelijkenis mens/machine vervaagt, ontstaat er een bijna onveranderlijke overdracht van menselijke emotionele nabootsing naar computernetwerken, vergelijkbaar met neurale netwerken. AI is voor ontwikkelaars wat Frankenstein was voor zijn schepper: een autonome entiteit met mogelijkheden gemodelleerd naar een min of meer stabiele database, geprogrammeerd om het gedrag van zijn model te reproduceren.
Op deze manier, en door gebruik te maken van de huidige denkwijzen en de gevolgen daarvan voor het fysieke universum om ons heen, kunnen we het gebrek aan diversiteit/inclusie van deze AI’s, dat vaak wordt bekritiseerd, beter begrijpen. Professor Sasha Luccioni heeft ook gewezen op het lage percentage vrouwen onder ontwikkelaars op wereldwijde schaal, wat de integratie van onbewuste vooroordelen in algoritmen kan vergemakkelijken.
Laten we beginnen met een beetje neutraliteit
Het internet en het nieuws zitten vol extremen. Een gematigde mening is minder interessant om te lezen. AI is daarom alleen bekend met extremen en heeft nog nauwelijks kennis gemaakt met internetneutraliteit. Onze taak is daarom om het web te vullen met genuanceerde informatie, zodat de AI ook deze tussenzone leert kennen en herkennen.
Dit betekent dat we vanaf nul moeten beginnen en moeten leren om een echt gesprek te voeren met anderen, zowel offline als online. Alleen op deze manier kunnen de uitersten worden samengebracht in een neutraler grijs gebied, waar de AI zich vervolgens mee moet voeden. ChatGPT is immers ontworpen om gesprekken te voeren en is gebaseerd op waarschijnlijkheden. Maar het wordt vaak gebruikt als een informatiehulpmiddel, ook al heeft de technologie daar nog niet de juiste middelen voor. Dit is natuurlijk waarom we wiskunde nodig hebben. We weten allemaal dat 1 + 1 = 2 en dat dit het enige mogelijke antwoord is, wat iemand anders ook zegt.
De werkelijkheid is veel complexer, met meerdere dimensies van interpretatie en consensus tussen ‘denkende’ entiteiten, en het is nu nodig om het begrip nuance in algoritmen te introduceren om alle aspecten van een zoekopdracht te begrijpen.
Geloof niet alles wat AI je vertelt
Dus voordat we AI om informatie vragen, moeten we kritisch en zorgvuldig nadenken over de informatie die we aan AI geven. Te beginnen met de informatie die we online zetten en vervolgens de vragen die we aan de technologie stellen. AI is immers niet “de heilige waarheid” en zal soms onjuiste resultaten geven, of resultaten die niet bij ons passen, simpelweg omdat onze eigen denkwijze niet wordt bevestigd.
Wat je ook denkt over AI en hoe je het ook benadert, het is altijd belangrijk om in gedachten te houden dat de leercurve van AI lang duurt. Een meer inclusieve versie van AI begint immers met een meer inclusieve versie van onszelf.
In de afgelopen tien jaar zijn we getuige geweest van de razendsnelle opkomst van kunstmatige intelligentie, die steeds krachtiger en innovatiever wordt naarmate het de mogelijkheden van de digitale sfeer ontwikkelt. De komst van programma’s als ChatGPT op een toch al zeer geavanceerde markt is echter niet alleen synoniem met welvaart. Deze uitvindingen leiden tot nieuwe vragen en nieuwe angsten, die soms terug te voeren zijn op systeemfouten. In de nabije toekomst, wanneer deze AI’s alomtegenwoordig zullen worden, lijkt het noodzakelijk om de mazen die kunnen worden waargenomen te dichten om de modellen te perfectioneren en onder andere de ethisch gevoelige fouten die menselijk gedrag weerspiegelen te verminderen.