Wat is verklaarbare AI?

Verklaarbare AI wordt ook wel uitlegbare AI genoemd of in het Engels Explainable AI (XAI). Verklaarbare AI is, kort gezegd, een concept waarbij de beslissingen van Artificial Intelligence transparant worden gemaakt voor menselijke experts. Dit in tegenstelling tot ‘black box’-systemen.

AI-systemen optimaliseren hun gedrag om te voldoen aan een wiskundig gespecificeerd doel gekozen door de ontwikkelaar, zoals bijvoorbeeld “maximaliseer de nauwkeurigheid van de beoordeling hoe positief filmrecensies zijn in de testdataset”. De AI kan nuttige algemene regels uit de testset leren, zoals “beoordelingen met het woord ‘verschrikkelijk’” zijn waarschijnlijk negatief. Het kan echter ook ongewenste regels leren, zoals “beoordelingen met ‘Daniel Day-Lewis ‘zijn meestal positief”.

Een mens kan regels in een XAI controleren om een idee te krijgen hoe waarschijnlijk het is dat het systeem leert.

Probleem met verklaarbare AI

De uitleg van de beslissing is nog zo technisch, dat deze alleen geschikt is voor experts. Daarnaast is de meeste uitleg nog zo uitgebreid dat er een risico is op een overvloed aan informatie. Hierdoor zie je als expert door de bomen het bos niet meer. Op dit moment wordt er veel onderzoek gedaan naar zowel het terugdringen van deze ‘information overload’ als het beter uitlegbaar krijgen van de beslissingen voor gebruikers.