Verkenning van de ethische dimensies en dilemma’s van GenAI – deel 2

23 mei 2024

Naarmate het gebruik van Gene­ra­tive AI (GenAI) toeneemt, neemt ook de bezorgd­heid over mogelijk misbruik toe. Dit heeft geleid tot de roep om speci­fieke wet- en regel­ge­vings­ka­ders om een verant­woorde en duurzame ontwik­ke­ling van GenAI te stimuleren. 

De Europese Commissie was een van de eersten die actie ondernam en publi­ceerde in 2019 haar “Ethical Guide­lines for Trust­worthy AI”. Deze richt­lijnen bena­drukken het belang van AI-systemen die voldoen aan wetten, zich houden aan ethische principes en technisch en sociaal robuust zijn. Er worden zeven funda­men­tele vereisten geïden­ti­fi­ceerd, die we in dit bericht kort beschrijven. 

Menselijk Agentschap en Toezicht

Er is algemene over­een­stem­ming over het feit dat elk AI-systeem mensen mondiger moet maken, hun rechten moet respec­teren en menselijk toezicht mogelijk moet maken. GenAI stelt ons in dit opzicht echter voor unieke uitdagingen.

Ethische richt­lijnen voor betrouw­bare AI: Vereisten

GenAI kan bijvoor­beeld “filter­bub­bels” creëren die de bloot­stel­ling van gebrui­kers aan verschil­lende perspec­tieven beperken en zo de moge­lijk­heid van menselijk toezicht beperken. Bovendien kan GenAI worden gebruikt voor kwaad­aar­dige mani­pu­latie door emoti­o­nele kwets­baar­heden uit te buiten om beslis­singen te beïn­vloeden of mense­lijke reacties na te bootsen, wat verwar­ring en zelfs mislei­ding kan veroorzaken. 

Toegepast op sociale netwerken kunnen de augmen­ta­tieve vaar­dig­heden van GenAI gebrui­kers misleiden, wat leidt tot een vertekend beeld van de werke­lijk­heid en verhoogde sociale druk. 

Om de juiste balans te vinden tussen het immense poten­tieel van GenAI en de behoefte aan mense­lijke tussen­komst en toezicht, is voort­du­rend toezicht, onderzoek en de ontwik­ke­ling van hulp­mid­delen en beleid nodig die de autonomie van gebrui­kers bevor­deren en mogelijke negatieve gevolgen beperken.

Technische robuustheid en veiligheid

De toene­mende geavan­ceerd­heid van GenAI roept vragen op over de veilig­heid en betrouw­baar­heid ervan.  Een zeer actuele angst is dat GenAI bijdraagt aan de versprei­ding van desin­for­matie en nepnieuws, waardoor de publieke opinie wordt beïnvloed en het vertrouwen in instel­lingen mogelijk wordt onder­mijnd.  Het creëren van over­tui­gende maar gema­ni­pu­leerde valse beelden van hoog­ge­plaatste personen, deepfakes genoemd, is een van de grootste zorgen rond GenAI, omdat ze kunnen worden gebruikt voor politieke propa­ganda of om personen of orga­ni­sa­ties in diskre­diet te brengen. 

Voort­du­rend onderzoek naar de kwets­baar­heden van AI-systemen en de ontwik­ke­ling van robuuste tegen­maat­re­gelen zullen helpen om de poten­tiële schade door nepnieuws en deepfakes te beperken. Nauwe samen­wer­king tussen overheden, tech­no­lo­gie­be­drijven en cyber­be­vei­li­gings­des­kun­digen zal hierbij van cruciaal belang zijn om ervoor te zorgen dat de tech­ni­sche robuust­heid en veilig­heids­pro­blemen van GenAI adequaat worden aangepakt.

Privacy en gegevensbeheer

GenAI-modellen worden getraind op enorme datasets, waaronder persoon­lijke en auteurs­rech­te­lijk beschermde infor­matie, meestal afkomstig van het openbare internet.  Het trainen van AI op auteurs­rech­te­lijk beschermde gegevens zonder toestem­ming kan leiden tot schending van het auteurs­recht en de moge­lijk­heid dat AI-gege­ne­reerde inhoud sterk lijkt op bestaande werken roept vragen op over origi­na­li­teit en schending van het auteursrecht.

Ethische GenAI-ontwik­ke­ling moet gepaard gaan met duide­lijke prak­tijken voor gege­vens­be­heer, waaronder een strikt beleid voor het verza­melen, opslaan en gebruiken van gegevens. Daarnaast is het essen­tieel om de ondui­de­lijk­heden rond auteurs­recht en eigendom van door AI gege­ne­reerde inhoud aan te pakken om een eerlijke omgeving te creëren die aan de wet voldoet.

Transparantie

GenAI-modellen worden vaak gezien als “zwarte dozen”, zonder trans­pa­rantie in hun besluit­vor­mings­pro­cessen. Deze ondoor­zich­tig­heid roept zorgen op over eerlijk­heid, contro­leer­baar­heid en betrouw­baar­heid, omdat het voor gebrui­kers en zelfs ontwik­ke­laars moeilijk kan zijn om te begrijpen hoe deze modellen tot hun conclu­sies komen.

Om de interne werking van deze “zwarte dozen” trans­pa­ranter te maken, moeten er methoden worden ontwik­keld om de output van GenAI-modellen te inter­pre­teren en te verklaren. Deze methoden kunnen bestaan uit het visu­a­li­seren van de interne werking van het model, het analy­seren van de geleerde repre­sen­ta­ties en het testen van de output tegen echte gegevens. 

Diversiteit, non-discriminatie en eerlijkheid

Een bijzonder contro­ver­siële kwestie die is ontstaan door het toene­mende gebruik van GenAI heeft betrek­king op de kwaliteit en diver­si­teit van de trai­nings­ge­ge­vens.  Er zijn gevallen bekend van GenAI-modellen die werken met persoon­lijke gegevens of afbeel­dingen die seksuele of raciale stereo­typen versterken of bepaalde groepen ondervertegenwoordigen. 

Het aanpakken van deze verte­ke­ningen vereist een zorg­vuldig ontwerp, voort­du­rende evaluatie en verant­woorde selectie van trainingsgegevens.

Het is onver­mij­de­lijk dat GenAI ook kan worden misbruikt door slechte actoren om aanstoot­ge­vende inhoud te genereren, waaronder discri­mi­ne­rende of geweld­da­dige afbeel­dingen en teksten, neppor­no­grafie en terro­ris­ti­sche propa­ganda. Een nepbeeld, waar­schijn­lijk gege­ne­reerd met behulp van AI-tools, dat zogenaamd een grote explosie bij het Pentagon liet zien, werd onlangs op grote schaal verspreid op sociale media en beïn­vloedde kort­stondig de finan­ciële markten. 

Het waar­borgen van diver­si­teit, non-discri­mi­natie en eerlijk­heid in GenAI-toepas­singen is niet alleen een ethische noodzaak, maar ook cruciaal voor het bouwen van inclu­sieve en recht­vaar­dige AI-systemen.

Maatschappelijk en ecologisch welzijn

Gezien de opwinding en vaak verbazing die GenAI teweeg­brengt, is het gemak­ke­lijk om een aantal minder welkome gevolgen van de snelle invoering van deze tech­no­logie voor het milieu en de samen­le­ving als geheel over het hoofd te zien.

GenAI-systemen vereisen aanzien­lijke reken­kracht en er wordt geschat dat een ChatGPT-zoek­op­dracht 3–30 keer meer elek­tri­ci­teit verbruikt dan een tradi­ti­o­nele Google-zoek­op­dracht.  De verwachte groei in GenAI zal dus gepaard moeten gaan met een geza­men­lijke verschui­ving naar het gebruik van hernieuw­bare ener­gie­bronnen om de data­cen­ters die dit soort toepas­singen hosten van stroom te voorzien, wil de tech­no­logie de klimaat­crisis niet verergeren.

Een andere uitdaging die mogelijk gevolgen heeft voor alle mense­lijke werk­ne­mers is hoe GenAI de aard van het werk zal veran­deren. Economen debat­teren al een aantal jaar over de impact die robots en AI zouden kunnen hebben op sommige banen, met name banen met repe­ti­tieve taken die het gemak­ke­lijkst te auto­ma­ti­seren zijn.

Om deze ethische impli­ca­ties aan te pakken is een meer­vou­dige aanpak nodig, met inspan­ningen om de ener­gie­voet­af­druk van AI-systemen te vermin­deren en initi­a­tieven om de beroeps­be­vol­king om te scholen en bij te scholen voor het veran­de­rende banenlandschap.

Verantwoordingsplicht

Naarmate de toepas­sing van GenAI toeneemt, is er een duide­lijke en dringende behoefte aan betere, precie­zere regel­ge­ving om het probleem van verant­woor­ding aan te pakken. 

De algo­ritmes die GenAI-systemen aansturen, creëren soms “hallu­ci­na­ties” die nergens op slaan of waarvan kan worden aange­toond dat ze onjuist zijn. Een recent geval betrof een team advocaten in de VS die zich niet reali­seerden dat ChatGPT de citaten en citaten had verzonnen die ze gebruikten in een rechtszaak. 

Het inte­greren van menselijk toezicht in GenAI-systemen is niet alleen essen­tieel om hallu­ci­na­ties te detec­teren, maar ook om ethische besluit­vor­ming te garan­deren, mogelijke voor­oor­delen te vermin­deren en acties die onzinnig lijken aan te vechten. 

In een volgende blogpost indeze serie bekijken we hoe één bepaald stuk wetgeving, de AI-wet van de EU, de hierboven genoemde kwesties probeert aan te pakken.

Pin It on Pinterest

Share This