Je zou denken dat het debacle van een toeslagenaffaire, de macht van Big Tech, het probleem van nepnieuws en cybersecurity voldoende is om een minister van Digitale Zaken te introduceren. Maar vergeleken met de echte problemen zijn deze punten peanuts. Kijk maar eens naar wat Mark Rutte zei op het World Economic Forum in 2020. “[…] om precisielandbouw te kunnen hebben met een kleinere CO2-voetafdruk dan nu, autonoom rijden, en de energietransitie zelf. Op al deze gebieden hebben we kunstmatige intelligentie nodig. Ik geloof dat dit een meer en grotere transformatie is dan de uitvinding van internet zelf.”
Kunstmatige intelligentie: Minister van Digitale Zaken, nu of nooit!
Verandering die zich artificial intelligence met zich meebrengt
Rutte heeft het dus over de klimaatcrisis en daarmee in het verlengde de bouwcrisis, de gigantische operatie van de energietransitie en autonome systemen, zoals robots, auto’s, etc. die in onze levens gaan komen. Dus thema’s die de aankomende decennia ons leven blijvend beïnvloeden. Waarbij Rutte zegt dat de verandering nog groter zal zijn dan die van de introductie van internet. Dan is het toch logisch om daar een ministerie voor op te richten?
En dan de (wat mij betreft terechte) claim dat kunstmatige intelligentie zorgt voor een grotere transformatie dan internet. De afgelopen drie decennia heeft internet ons leven op de kop gezet. Waarbij opvalt hoe weinig visie, beleid en sturing op deze thema’s is te bespeuren. Natuurlijk wordt nu gekeken naar verdienmodellen van internetgiganten door onder andere D66 en is er aandacht voor cybersecurity. Die aandacht is niet alleen rijkelijk laat, er is niemand in de afgelopen regeringen die daar verantwoordelijkheid voor heeft gedragen en genomen.
Daarom kunnen we toch niet weer vier jaar wachten op een volgende formatie? Bij het formeren van een nieuw kabinet zijn de politieke partijen aan ons verplicht om het land te leiden in de verandering die kunstmatige intelligentie met zich meebrengt. Nu of nooit: een minister van Digitale Zaken, het liefst met gedegen technische achtergrond.
In Europa is er wel aandacht voor digitale zaken, waaronder kunstmatige intelligentie. Zo heeft Eurocommissaris Margrethe Vestager als verantwoordelijkheden het bepalen van de strategische richting van de politieke prioriteit “Europe Fit for the Digital Age”. En coördinatie van de werkzaamheden voor een Europese datastrategie en voor een Europese benadering van kunstmatige intelligentie, met inbegrip van de menselijke en ethische implicaties ervan. Daarnaast is het Europees Parlement op dit moment aan het werk om ervoor te zorgen dat de EU voorbereid is op de wettelijke en ethische aspecten van de ontwikkeling van kunstmatige intelligentie.
Door de verplichting voor het aantonen van de veiligheid van algoritmen, bevorder je niet alleen de transparantie en voorkom je vroegtijdig ongewenste effectenJoop Snijder - Head of Research Center AI
Heft in eigen handen
Ondanks deze Europese plannen moet Nederland zich verplicht voelen om het heft in eigen hand te nemen, zolang deze Europese initiatieven niet leiden tot de gewenste uitkomsten. We kunnen prima Europese wetgeving combineren met landelijke instanties, net zoals bij de Europese privacywetgeving, waarbij de Autoriteit Persoonsgegevens de landelijke waakhond is.
Daarom ben ik voor het landelijk oprichten van instituten en instanties voor beleid, controle en toezicht. Zo kunnen we bijvoorbeeld eisen dat de veiligheid van een getraind algoritme moet worden aangetoond voordat deze in de publieke ruimte wordt toegepast. Net zoals we dat met nieuwe medicijnen doen. Gedegen onderzoek aangevuld met een transparantierapportage moet aantonen dat een getraind model niet schadelijk is voor de samenleving, maar ook voor individuen. Waar dat wel zo is, moet de rapportage aangeven welke bijwerkingen kunnen optreden, net als bij medicijnen. Daar wordt aangeven wat de kans is op een bijwerking en wat deze bijwerking is. Zo staat in de bijsluiter van paracetamol bijvoorbeeld dat bij 1 op 1000 gebruikers allergische reacties ontstaan. Een gelijksoortige bijsluiter moet er ook komen voor nieuwe getrainde algoritmen. Wat is de kans op negatieve bijwerkingen en wat zijn de mogelijke effecten. Op basis hiervan kan dan besloten worden of we de bijwerkingen accepteren of niet.
Echter, kan bij een algoritme net als bij medicijnen op langer termijn onvoorziene ongewenste effecten ontstaan. Hiervoor is een Lareb voor algoritmen nodig. Je hebt net als bij medicijnen een bijwerkingen- en kenniscentrum nodig, maar dan voor algoritmen. Bij deze instantie kunnen burgers melding maken van ongewenste effecten van algoritmen.
Landelijk oprichten van instituten
Ondanks deze Europese plannen moet Nederland zich verplicht voelen om het heft in eigen hand te nemen, zolang deze Europese initiatieven niet leiden tot de gewenste uitkomsten. We kunnen prima Europese wetgeving combineren met landelijke instanties, net zoals bij de Europese privacywetgeving, waarbij de Autoriteit Persoonsgegevens de landelijke waakhond is.
Daarom ben ik voor het landelijk oprichten van instituten en instanties voor beleid, controle en toezicht. Zo kunnen we bijvoorbeeld eisen dat de veiligheid van een getraind algoritme moet worden aangetoond voordat deze in de publieke ruimte wordt toegepast. Net zoals we dat met nieuwe medicijnen doen. Gedegen onderzoek aangevuld met een transparantierapportage moet aantonen dat een getraind model niet schadelijk is voor de samenleving, maar ook voor individuen. Waar dat wel zo is, moet de rapportage aangeven welke bijwerkingen kunnen optreden, net als bij medicijnen. Daar wordt aangeven wat de kans is op een bijwerking en wat deze bijwerking is. Zo staat in de bijsluiter van paracetamol bijvoorbeeld dat bij 1 op 1000 gebruikers allergische reacties ontstaan. Een gelijksoortige bijsluiter moet er ook komen voor nieuwe getrainde algoritmen. Wat is de kans op negatieve bijwerkingen en wat zijn de mogelijke effecten. Op basis hiervan kan dan besloten worden of we de bijwerkingen accepteren of niet.
Echter, kan bij een algoritme net als bij medicijnen op langer termijn onvoorziene ongewenste effecten ontstaan. Hiervoor is een Lareb voor algoritmen nodig. Je hebt net als bij medicijnen een bijwerkingen- en kenniscentrum nodig, maar dan voor algoritmen. Bij deze instantie kunnen burgers melding maken van ongewenste effecten van algoritmen.
Tegenargumenten Ministerie van Digitale Zaken
Tegenargumenten om dit Ministerie van Digitale Zaken op te richten zullen er ook zijn. Steeds wordt het argument van het remmen van innovatie gebruikt. Dat is een gevaar, maar het is geen zwart-wit verhaal. Het gaat erom hoe je laat innovatie bijdragen aan een gezonde samenleving. Marietje Schaake, internationaal beleidsdirecteur Cyber Policy Institute, Stanford University, stelt verhelderend dat de bescherming van onze democratie altijd boven innovatie gaat. Op deze manier kunnen innovatie en de bescherming van de democratie samengaan, zonder een gevoelsmatige rem.
Door het aanstellen van een Minister van Digitale Zaken krijg je onvermijdelijk dat het onderwerp gepolitiseerd wordt. Waarbij de kans op onvoldoende kennis van de materie een risico is, omdat de stoeltjes nu eenmaal verdeeld moeten worden tussen de coalitiepartijen. Ondanks dat politisering is niet uit te sluiten, pleit ik er toch voor om te beginnen en te leren.
De twee grootste partijen van ons land, VVD en D66 erkennen dat kunstmatige intelligentie langdurige invloed heeft op onze samenleving. Dan moeten ze elkaar in deze formatie kunnen vinden in het aanstellen van een Minister van Digitale Zaken. En als ze doorpakken voegen ze direct een Staatssecretaris van Kunstmatige Intelligentie aan toe. We zijn dan niet de eerste in de wereld die een dergelijke officiële functie toevoegen aan het landsbestuur. In 2017 hebben de Verenigde Arabische Emiraten al een Minister van Kunstmatige Intelligentie aangesteld. Maar als eerste Europees land kunnen we wel een signaal afgeven aan Europa en de rest van de wereld, dat dit onderwerp van het grootste belang is. Het zou weer eens onze voortrekkersrol als natie verstevigen, maar bovenal onszelf helpen onze toekomst vorm te geven binnen onze democratische waarden.