12-5-2021 door Joop Snijder, gepubliceerd op BI Platform
Steeds meer organisaties introduceren kunstmatige intelligentie (AI) en machine learning in hun bedrijfsvoering. Deze introductie levert veel voordelen op. Bijvoorbeeld taken kunnen sneller en efficiënter worden uitgevoerd, AI ondersteunt besluitvorming door processen slimmer te maken en het helpt bij het verminderen van fouten.
Toch levert de introductie van kunstmatige intelligentie ook nieuwe uitdagingen op. Een daarvan is het vertrouwen van de uitkomsten van een AI-model.
Waarom is zo’n uitleg zo belangrijk? Als het gaat om voorspellende modellen, moet je een afweging maken: wil je gewoon weten wat er wordt voorspeld? Bijvoorbeeld de kans dat een klant zal vertrekken of hoe effectief een medicijn zal zijn voor een patiënt. Of wil je weten waarom de voorspelling is gedaan en eventueel inleveren op de voorspellende prestatie voor een uitleg?
Zelf geloof ik dat ieder AI-model uitleg nodig heeft ongeacht het belang of de juridische afweging. Sterker nog ik vind dat er geen AI-model meer in het publieke domein mag komen, zonder dat deze uitlegt hoe de conclusie tot stand is gekomen.
Gartner stelt dat in 2023 al het personeel dat wordt ingehuurd voor AI-ontwikkeling en trainingswerk, deskundig moet zijn in Responsible AI, waar Explainable AI onderdeel van is.