Neem contact op

Podcast: Business vooruit met IT

Aflevering 4 – Het belang van explainable AI

Podcast: Business vooruit met IT

Aflevering 4 – Het belang van explainable AI

Hoe meer organisaties AI inzetten, hoe belangrijker explainable AI wordt

Wat is explainable AI? Hoe werkt het? En moet je bij elk AI experiment gebruikmaken van explainable AI? Met Joop Snijder, Head of Research AI bij Info Support, praten we over alle veelgestelde vragen rondom het thema ‘Explainable AI’.

Wat is explainable AI?

Explainable AI gaat over het uitleggen van de resultaten en conclusies van AI modellen. Je gebruikt explainable AI om te achterhalen hoe een model zijn regels leert en tot bepaalde conclusies komt.
Met explainable AI maak je de beslissingen van artificial intelligence transparant voor menselijke experts.
Veel AI modellen behoren tot de zogenaamde ‘black box’ modellen. Dat zijn modellen waar je niet in kan kijken, en waar je dus niet van weet waar hij zijn conclusies op baseert. Met explainable AI achterhaal je op basis waarvan black box modellen hun beslissingen nemen.’

Hoe werkt het?

‘Een artificial intelligence model train je. Die geef je data, en daar destilleert het model vervolgens regels uit. Op basis van die regels kan het model voorspellingen doen en conclusies trekken. Wat je met explainable AI bijvoorbeeld doet, is een onderdeel van de input die je het model geeft aanpassen. Door steeds een ander onderdeel van de input aan te passen, krijg je inzicht in welke input de meeste impact op de voorspelling heeft.’

Voorbeeld van explainable AI

In dit voorbeeld hebben we een model bedacht dat de huizenprijs kan voorspellen op basis van input. Denk aan de oppervlakte van het huis, het postcodegebied, hoe dicht het huis bij een school ligt en meer van dat soort gegevens. Wat we met explainable AI kunnen doen, is de input veranderen. Wat gebeurt er met de huizenprijs als we het postcodegebied veranderen? Of als het huis toch verder van de school ligt?

Op die manier komen we erachter welke input de grootste impact heeft op de prijs van het huis.

Moet je bij elk AI experiment gebruik maken van explainable AI?

‘De privacywet geeft gebruikers het recht op een menselijke blik bij automatische besluiten die over hen gaan en die gevolgen voor ze hebben. Als jouw model geen persoonlijke gegevens gebruikt, dan ben je nergens toe verplicht.

De Europese Unie is bezig met een nieuwe, strengere regelgeving. Als het aan mij lag, zou er geen artificial intelligence model in het publieke domein mogen komen, zonder dat daar uitleg bij aanwezig is.’

Explainable AI hoort bij een volwassen en professionele manier van AI ontwikkelen.

Joop Snijder, Head of Research AI bij Info Support

Wat is de maturity van explainable AI in Nederland op dit moment?

‘Sectorbreed wordt explainable AI nog te weinig toegepast. Dit komt vaak door kennisgebrek. De uitleg die je op dit moment krijgt, is complex en technisch. Om die te kunnen snappen, moet je vrij diepgaande kennis hebben. Maar explainable AI is niet iets ‘nieuws’. We gebruiken deze term al sinds de jaren 80.

De laatste jaren zie je dat de noodzaak steeds verder doordringt. Ook wordt het steeds duidelijker waarom we het nodig hebben. En hoe meer organisaties AI inzetten, hoe belangrijker explainable AI wordt.’

Whitepaper: Explainable AI

In de whitepaper Explainable AI gaat Joop Snijder verder in op 4 redenen om aan de slag te gaan met explainable AI:

  • Wet- en regelgeving
  • Vertrouwen in de uitkomsten
  • Vinden van fouten
  • Ontdekken van kennis

Hoe zie je de toekomst voor je?

‘Er gaat de komende jaren veel gebeuren. De mogelijke wetgeving gaat daar een enorme boost aan geven. De kans is groot dat deze ervoor zorgt dat bedrijven verplicht met explainable AI aan de slag moeten gaan. Hetzelfde gebeurde al eerder toen we de privacywetgeving kregen. Er komt druk vanuit de publieke opinie en mensen verwachten uitleg over hoe een model tot zijn voorspelling komt. Over 5 jaar is explainable AI onderdeel van iedere AI workflow. Zelfs als modellen mensen niet raken en helemaal niks met privacy te maken hebben, wil de data scientist weten of zijn gemaakte model de juiste conclusies trekt.

De uitleg die explainable AI geeft, heb je nodig om het vertrouwen van je gebruikers te winnen. Als je dit over 5 jaar niet inzet, dan word je waarschijnlijk gezien als een onprofessionele AI expert.’

Over 5 jaar is explainable AI onderdeel van iedere AI workflow.

Joop Snijder, Head of Research AI bij Info Support

Hoe ga je als organisatie aan de slag met explainable AI?

‘Gewoon starten! Begin met kennis opbouwen en lees je in over explainable AI. Zoek naar expertise om je heen. Dat is uiteindelijk het allerbelangrijkst. Explainable AI hoort bij een volwassen en professionele manier van AI ontwikkelen. Je kan vanaf de start van een experiment met explainable AI aan de slag gaan, maar ook met terugwerkende kracht. Als je start en je hebt nog niks, is het voordeel dat je in het ontwerpproces al nadenkt wat het doel is en wat je ermee wil bereiken. Je kan dan rekening houden met de keuzes van de algoritmes. Met een al bestaand model is dat een stukje lastiger. Maar je kan altijd wel nadenken over voor wie je explainable AI wilt inzetten en met welke technieken.’