TU/​e gaat ‘black box’ van voorspellende modellen visualiseren

18 april 2018

De modellen die toekom­stige gebeur­te­nissen kunnen voor­spellen zijn vaak zo complex dat bijna niemand meer begrijpt hoe een bepaald advies tot stand komt. Dat zorgt voor steeds meer twijfel bij betrok­kenen over de uitkom­sten. Om meer inzicht te krijgen in de totstand­ko­ming van een voor­spel­ling gaat de Tech­ni­sche Univer­si­teit Eindhoven (TU/​e) letter­lijk in beeld brengen wat er gebeurt in zo’n model. Hoog­le­raar Visu­a­li­satie Jack van Wijk gaat dat doen met een TOP-subsidie van NWO van bijna € 700.000,-.

De Technische Universiteit EindhovenVoor­spel­lende modellen maken gebruik van algo­ritmes die gebeur­te­nissen uit het verleden analy­seren om toekom­stige gebeur­te­nissen te voor­spellen. Deze modellen worden steeds meer en voor een breed scala aan toepas­singen gebruikt door het bedrijfs­leven, de industrie, overheid, gezond­heids­zorg en het onderwijs. Voor­beelden hiervan zijn het voor­spellen van benodigd onderhoud aan machines, het opsporen van fraude, de toeken­ning van krediet­ver­le­ning en het bepalen van de medische behan­de­ling met de hoogste slagingskans.

Inzicht in complexe modellen

Beslis­singen en adviezen op basis van voor­spel­lende modellen kunnen een grote invloed hebben op het leven van de betrok­kenen. De laatste jaren worden er echter door de weten­schap­pe­lijke wereld, maar ook door de overheid en samen­le­ving meer en meer vraag­te­kens gezet bij de inzet van derge­lijke methoden. Vaak zijn de modellen namelijk zo complex, dat niemand meer kan begrijpen hoe een advies tot stand is gekomen. Van Wijk: “Als het gaat om een aanbe­ve­ling voor een film, dan vinden we dit prima. Maar als het gaat om een zware medische ingreep, het afwijzen van een hypotheek of het sturen van een heli­kopter naar een verdacht schip, dan zullen weinig mensen dat blin­de­lings accep­teren en navolgen.” Daarnaast kunnen de auto­ma­tisch gege­ne­reerde modellen ook leiden tot onge­wenste negatieve neven­ef­fecten zoals discri­mi­natie, bijvoor­beeld wanneer beslis­singen zijn gebaseerd op onjuiste of verte­kende gegevens.

Om deze reden gaat Van Wijk met de TOP-subsidie van NWO nieuwe methoden en tech­nieken ontwik­kelen waarmee inzich­te­lijk gemaakt wordt welke keuzes en infor­matie hebben geleid tot een bepaalde aanbe­ve­ling van een auto­ma­tisch beslis­model. Bijvoor­beeld welke infor­matie is gebruikt, of deze correct is, welke aspecten als meest relevant gezien worden, welke aspecten elkaar beïn­vloeden, waarom in twee bijna dezelfde gevallen toch verschil­lende aanbe­ve­lingen gedaan worden, en wat de zekerheid is van een aanbeveling.

Gebruikers centraal

Dit inzicht is van belang voor verschil­lende betrok­kenen; ontwik­ke­laars kunnen er toekom­stige beslis­mo­dellen mee verbe­teren en domein­ex­perts kunnen beoor­delen of plau­si­bele keuzes gemaakt zijn. Maar centraal in het onderzoek staan de personen waar de modellen beslis­singen over nemen. Het streven is om tools te ontwik­kelen waarmee zij intuïtief en eenvoudig door een beslis­model kunnen navigeren, gebruik­ma­kend van inter­ac­tieve visu­a­li­satie. Zo kunnen zij zelf beoor­delen of het advies van het model eerlijk was en inzicht krijgen in hoe zij ervoor kunnen zorgen dat het model een volgende keer een andere beslis­sing neemt.

Samenwerking

Visu­a­li­satie staat centraal in het voorstel, maar voor het slagen is samen­wer­king met experts op het gebied van data analyse, mens-machine inter­actie en psycho­logie cruciaal. Het voorstel is voort­ge­komen uit samen­wer­king in het kader van JADS, de Jhero­nimus Academy of Data Science. Het onderzoek zal worden uitge­voerd door drie promo­vendi, begeleid door een team van onder­zoe­kers met verschil­lende achtergronden.

Pin It on Pinterest

Share This