Bij veel geavanceerde AI-modellen zie je niet hoe ze beslissingen nemen. Het lijkt een black box. Input gaat erin, output komt eruit. Maar wat er precies gebeurt, is volstrekt onduidelijk. Interpreteerbare AI is noodzakelijk om een black box-model open te breken en maakt modellen wel uitlegbaar. Hierdoor krijgen de modellen meer waarde.
Wij vinden dat uitlegbaarheid en interpreteerbaarheid leidend moeten zijn. Niet alleen de nauwkeurigheid van een model. In dit artikel kijken we naar waarom dit zo is, welke rollen daarbij belangrijk zijn, wat de voor- en nadelen zijn en wat belangrijk is als je hiermee start.