Een machine learning-model dat we niet begrijpen of kunnen uitleggen, heeft eigenlijk niet veel waarde. Je weet immers niet waarom het bepaalde keuzes heeft gemaakt, dus ook niet of de uitkomsten wel betrouwbaar zijn. Maar hoe kunnen we dit van een machine verwachten als we onze eigen besluiten eigenlijk ook niet kunnen uitleggen? Daarover sprak Joop Snijder, Head of Research Center AI, in de podcast De Dataloog. “Als ik over explainable AI spreek of schrijf, dan krijg ik vaak vragen als: Hoe uitlegbaar zijn beslissingen eigenlijk als mensen ze nemen? Weten we altijd van onszelf waarom we iets vinden en besluiten?”, aldus Joop.
Hoe uitlegbaar zijn menselijke besluiten?
Menselijke beslissingen
Mensen nemen elke dag honderden kleine en grote, belangrijke en minder belangrijke beslissingen. En hoewel we ernaar streven om rationele besluiten te nemen, die zijn gebaseerd op logica en feiten, data en logische redeneringen, is de werkelijkheid vaak anders. Joop: “De invloed van irrationele of emotionele factoren in besluitvorming is echt niet te onderschatten. Het nemen van beslissingen is eigenlijk een complex proces, waarbij we continu balanceren tussen ratio en emotie.”
Rationele besluitvorming is een model dat ervan uitgaat dat mensen optimaal handelen binnen de grenzen van de beschikbare informatie en consistent streven naar het maximaliseren van hun welzijn of winst. Dat begint met het identificeren van het probleem, vervolgens verzamelen we informatie, evalueren we alternatieven en kiezen daaruit (op basis van rationele argumenten) de beste optie.
Joop: “Een kernaspect van rationele besluitvorming is het concept dat we ‘bounded rationality’ noemen. Mensen streven wel naar rationaliteit, maar onze cognitieve capaciteiten zijn beperkt. We kunnen nu eenmaal niet alle mogelijke informatie en alternatieven verwerken. Dat herken je misschien ook uit de dagelijkse praktijk; je zoekt naar genoeg informatie om een beslissing te nemen die goed genoeg is. Je weet niet honderd procent zeker of je alle mitsen en maren hebt overwogen, maar dat kan niet altijd. Dat heet ‘satisficing’; het kiezen van een optie die goed genoeg is, in plaats van optimaal.”
Hoe belangrijker de beslissing, hoe rationeler je deze vaak benadert. “Het wel of niet kopen van een huis is een groot besluit dat je onderbouwt met veel onderzoek, informatie, gesprekken, afwegingen. Of je huismerk hagelslag koopt of toch een A-merk, dat is een beslissing die je kunt nemen op basis van satisficing; het is niet heel erg als je een besluit maakt dat uiteindelijk toch niet optimaal bleek te zijn.”
Emotionele besluitvorming
Een andere factor die ervoor zorgt dat onze beslissingen niet altijd rationeel zijn, is het feit dat onze emoties een rol spelen. “We hebben allemaal te maken met emotionele besluitvorming”, aldus Joop. “Beslissingen worden vaak beïnvloed door gevoelens, stemmingen of andere niet-logische factoren. Emoties kunnen onze perceptie van feiten kleuren, leiden tot vertekeningen in ons oordeel en ons duwen naar beslissingen die niet noodzakelijk in ons beste belang zijn.”
Een voorbeeld van emotionele besluitvorming is de ‘confirmation bias’, die zorgt ervoor dat we informatie zoeken die onze bestaande overtuigingen bevestigt. Ook hebben we soms te maken met ‘loss aversion’ waardoor we meer gemotiveerd zijn om verliezen te vermijden dan om gelijkwaardige winsten te behalen.
Transparantie in menselijke beslissingen
Joop: “Je ziet dus dat we vaak beslissingen nemen die niet volledig rationeel of volledig emotioneel zijn, maar een mengsel van beide. Emoties kunnen ons oordeel vertroebelen en ons leiden naar ondoordachte beslissingen. En dat is heel begrijpelijk; emoties spelen een cruciale rol in de initiële besluitvorming omdat ze snel en efficiënt onze aandacht kunnen richten op iets dat belangrijk is of voelt, gebaseerd op onze eerdere ervaringen en waarden.”
Besluiten door een ML model
Hoe verhoudt zich dat tot de beslissingen die een machine neemt? Deze heeft geen emoties, dus die kunnen geen rol spelen. Maar zijn de beslissingen binnen machine learning soms ook ‘goed genoeg’ in plaats van helemaal doordacht?
Joop: “Een machine learning-model is een benadering van de werkelijkheid en heeft daardoor ook niet alle informatie ter beschikking. Ook kan een model vaak maar één uitkomst maximaliseren; denk aan het optimaliseren van klantbehoud of het indelen van e-mails in de juiste categorie. Machine learning kan wel gebruik maken van grote hoeveelheden informatie: honderden of zelfs duizenden variabelen.”
Machine learning heeft dus ook zo zijn beperkingen. “Het belangrijkste daarbij is dat we ons realiseren dat we zelf de keuze hebben hoe we deze technologie inrichten”, aldus Joop. “Als we besluitvorming gaan modelleren en mogelijk automatiseren, dan hebben we een duidelijke keuze: willen we dat de keuzes uitlegbaar zijn, of vinden we dat niet zo belangrijk? Ook al is een beslissing van een model misschien suboptimaal, net als bij mensen; het is des te belangrijker om te zien hoe het model een besluit neemt, hoe het redeneert. Zeker als het gaat om besluiten die belangrijk zijn, wil je wel een uitleg krijgen welke informatie is gebruikt en hoe die heeft geleid tot de beslissing. Alleen zo kunnen we mogelijke fouten opsporen, vooroordelen vinden en hebben we dus een mogelijkheid om een uitkomst op betrouwbaarheid te controleren.”
Kortom: een machine neemt zelden een optimale beslissing op basis van alle beschikbare informatie – net als mensen. Dat is een reden waarom het belangrijk is om onder de motorkap te kunnen kijken van een machine learning-model en te zien hoe een beslissing daadwerkelijk tot stand is gekomen.