‘Teamwerk met AI vereist betere afstemming met diverse wetenschappelijke disciplines’

27 augustus 2024

In haar oratie op 30 augustus stelt hoog­le­raar Computa­ti­onal Cognitive Science Marie Šafář Postma de vraag hoe AI en de mens beter op elkaar kunnen afstemmen om samen te werken. AI concur­reert op veel vlakken met de mense­lijke intel­li­gentie en bereikt mogelijk het niveau van zelf­be­wust­zijn. Veel mensen zien dat als een bedrei­ging. Voor beter teamwerk kunnen computa­ti­o­nele cogni­tieve weten­schap, maar ook de mens­we­ten­schappen zoals antro­po­logie, politieke weten­schappen, filosofie, commu­ni­ca­tie­we­ten­schappen en recht, meer op AI gerichte vaar­dig­heden ontwikkelen.

Computa­ti­o­nele cogni­tieve weten­schap is een vakgebied dat AI combi­neert met cogni­tieve weten­schappen om het menselijk denken te model­leren. Deze inter­dis­ci­pli­naire bena­de­ring heeft geleid tot aanzien­lijke voor­uit­gangen in het begrip van hersen­func­ties en hun impact op menselijk gedrag. Onderzoek aan de Tilburg Univer­sity verkent bijvoor­beeld hoe AI de analyse van hersen­ge­ge­vens kan verbe­teren, met toepas­singen in onderwijs, gezond­heid en veiligheid.

Definitie van bewustzijn

Marie Šafář Postma

De inau­gu­rele lezing van Šafář Postma benadrukt hoe AI in toene­mende mate mense­lijke capa­ci­teiten versterkt. In vakge­bieden zoals radio­logie kan AI subti­li­teiten detec­teren die mense­lijke cognitie misschien mist, wat leidt tot supe­ri­eure resul­taten wanneer AI en mensen samen­werken. Dit roept echter ethische en juri­di­sche vragen op over verant­woor­de­lijk­heid in mens-AI teams, vooral in situaties van leven en dood. Šafář Postma gaat in op het concept van bewust­zijn en benadrukt de complexi­teit en de moei­lijk­heid om het weten­schap­pe­lijk te defi­ni­ëren. Ze stelt dat bewust­zijn misschien geen taal vereist en mogelijk verband houdt met basis biolo­gi­sche functies zoals home­o­stase. Ze vraagt zich af of AI, uitgerust met interne toestanden en zelf­mo­ni­to­ring, een vorm van bewust­zijn zou kunnen ontwik­kelen en daarmee ook verant­woor­de­lijk­heid voor gevolgen van eigen handelen.

Šafář Postma bespreekt het gebruik van AI in cogni­tieve oorlogs­voe­ring, waarbij AI-algo­ritmen worden toegepast om de publieke opinie te beïn­vloeden en demo­cra­ti­sche struc­turen te desta­bi­li­seren. Door online gedrag te analy­seren, kan AI berichten op maat maken die de aandacht trekken en emoties beïn­vloeden, zoals te zien was tijdens verkie­zingen in verschil­lende landen. De lezing roept vragen op over hoe AI kan worden gebruikt om te beschermen tegen cogni­tieve mani­pu­latie en of AI een morele verplich­ting heeft om de waarheid te spreken.

Mini drones

Een ander voorbeeld van inter­dis­ci­pli­naire samen­wer­king is het door Postma geleide en door NWO gefi­nan­cierde onderzoek STEADFAST naar het creëren van teams van mensen en mini drones met de optie om de drones autonoom te laten handelen. De drones opereren in gevaar­lijke omstan­dig­heden zoals natuur­rampen en oorlogs­si­tu­a­ties waar mense­lijke reacties onvol­doende snel zijn om beslis­singen te maken met als doel bijvoor­beeld mens en dier te redden. Onder­zocht en ontwik­keld vanuit mens­we­ten­schap wordt onder meer hoe de operator reageert in stress­si­tu­a­ties, hoe de beslis­singen worden genomen en wie daarbij de juri­di­sche eind­ver­ant­woor­de­lijk­heid heeft. 

Postma stelt dat de belang­rijkste waarde van AI-onderzoek erin schuilt dat het ons een dieper begrip biedt van wie we zijn, voorbij de beper­kingen die ons menselijk brein ons biedt. Het brengt risico’s met zich mee, maar biedt ook de moge­lijk­heid te commu­ni­ceren met wat anders ontoe­gan­ke­lijk zou blijven.

Prof. Postma is per 1 augustus 2023 benoemd op de leerstoel Computa­ti­onal Cognitive Science van de Tilburg School of Huma­ni­ties and Digital Sciences.

Pin It on Pinterest

Share This