AI-modellen die je niet kunt vertrouwen? Tijd voor actie!

Bij veel geavanceerde AI-modellen zie je niet hoe ze beslissingen nemen. Het lijkt een black box. Input gaat erin, output komt eruit. Maar wat er precies gebeurt, is volstrekt onduidelijk. Interpreteerbare AI is noodzakelijk om een black box-model open te breken en maakt modellen wel uitlegbaar. Hierdoor krijgen de modellen meer waarde.

Wij vinden dat uitlegbaarheid en interpreteerbaarheid leidend moeten zijn. Niet alleen de nauwkeurigheid van een model. In dit artikel kijken we naar waarom dit zo is, welke rollen daarbij belangrijk zijn, wat de voor- en nadelen zijn en wat belangrijk is als je hiermee start.

Verschillende type AI-modellen

Naast black box-modellen, bestaan er ook van nature uitlegbare modellen. Een beslisboom bijvoorbeeld. Bij elk knooppunt zie je de gemaakte afweging. Dit noemen we een white box-model. Je kunt alles volgen. En dan is er ook nog een tussenvorm, het glass box-model. Dit model is tot op zekere hoogte te begrijpen; het is als het ware een imitatie van een black box-model dat een poging doet om te beredeneren welke keuzes zijn gemaakt, en waarom. Kun je er zeker van zijn dat de uitleg klopt? Nee. Is het beter dan een black box? Zeker.

In dit artikel ligt de focus op interpreteerbare modellen, omdat deze dus de meeste inzicht bieden en je, als je het ons vraagt, hier altijd naar moet streven.

Waarom is interpreteerbare AI belangrijk?

Er zijn een aantal redenen waarom het zo belangrijk is dat AI-modellen uitlegbaar en interpreteerbaar zijn:

  • Het geeft vertrouwen in het model. Als een model precies uitlegt waarom het beslissingen neemt, kun je controleren of het klopt.
  • Het biedt context voor actie. Stel, een model voorspelt welke klanten hun verzekering gaan opzeggen, dan wil je niet alleen weten welke klanten dat zijn, maar vooral waarom ze gaan opzeggen. Zo kun je gericht actie ondernemen.
  • Het helpt bij het voorkomen van discriminatie. Als een model niet transparant is over zijn manier van beslissen, kan het discrimineren. Dat voorkom je alleen met meer uitlegbaarheid.

Uitlegbaarheid van AI is dus cruciaal voor een goede, veilige en verantwoorde toepassing.

Zelf aan de slag met interpreteerbare AI

Je ontkomt er als organisatie dus niet aan om met interpreteerbare AI aan de slag te gaan. Hoe begin je? En welke zaken zijn belangrijk om in het oog te houden? Maak een AI-beleid en leg in dat beleid vast: kies eerst voor white box-modellen, dan glass box, en pas als laatste black box. Zo wordt uitlegbaarheid de standaard.

  • Maak beleid voor welke soort oplossingen je interpreteerbare modellen eist.
  • Als de performance tegenvalt, combineer dan met technieken om black box-modellen te analyseren.
  • Bereid je voor op de nieuwe AI-wetgeving. Die vereist voor veel toepassingen een vorm van uitlegbaarheid. Voorkom zo problemen.
  • Onderzoek tools en technieken om modellen uitlegbaar te maken. Maak je developers hiermee bekend.
  • Accepteer dat meer uitlegbaarheid soms ten koste gaat van performance. Maar bedenk: de business value zal op termijn groter zijn.

Rollen bij de ontwikkeling van interpreteerbare AI

Bij de ontwikkeling van een uitlegbaar model zijn verschillende rollen betrokken. Hieronder staan een aantal veel voorkomende rollen:

  • Data scientists bouwen de modellen. Ze passen technieken toe voor meer uitlegbaarheid. Ze moeten optimaal scoren op zowel performance als uitlegbaarheid.
  • Data engineers maken de data klaar en bouwen pipelines. Ze snappen waar de data vandaan komt en hoe die tot stand komt. Zo voorkomen ze problemen als data leakage.
  • Business owners kennen het domein en de toepassingen. Met hen samenwerken helpt data scientists controleren of modellen op de juiste basis beslissen.
  • Klanten en eindgebruikers ervaren de impact van de modellen. Voor hen is uitleg cruciaal. Zo begrijpen ze waarom bepaalde beslissingen genomen worden.
  • Risk-afdelingen beoordelen de risico’s van de modellen. Transparantie hierover is voor hen erg belangrijk. Zo kunnen ze de risico’s goed inschatten.

Bouwen aan betere modellen en een betere toekomst

Interpreteerbare AI is essentieel voor AI die je organisaties vooruithelpt. De black box openbreken door modellen uitlegbaar te maken is cruciaal. Het bouwt vertrouwen op. Het geeft de juiste context voor actie. En het voorkomt discriminatie.

Hoewel meer uitlegbaarheid complex kan zijn en meer inspanning vergt, is het vooral een kans. De maatschappelijke en economische voordelen op termijn zijn enorm. AI wordt zo transparanter en eerlijker.

Organisaties doen er dus verstandig aan zo snel mogelijk over te stappen op interpreteerbare AI. Leg vast dat uitlegbaarheid voorop staat. Bereid je voor op nieuwe wetgeving. En zie de ontwikkeling van begrijpelijke modellen als investering in verantwoorde AI.

Met interpreteerbare AI bouwen we aan betere modellen en creëren daardoor meer business value, en we bouwen ook aan een betere toekomst.

Wat zijn de voor- en nadelen van interpreteerbare AI?

Voordelen

  • Meer vertrouwen in modellen door inzicht in beslissingen
  • Betere context voor acties dankzij uitleg factoren
  • Voorkomen van discriminatie en bias door transparantie
  • Grotere adoptie en acceptatie van AI
  • Voldoen aan regels rondom uitlegbaarheid

Nadelen

  • Kan meer tijd kosten om uitlegbaar model te bouwen
  • Uitlegbare modellen kunnen iets minder nauwkeurig zijn
  • Meer complexiteit door meerdere doelen in modelontwikkeling
  • De bestaande ervaring is vaak vooral met blackbox-modellen