Voor de overheid ligt het gebruik van kunstmatige intelligentie ingewikkelder dan voor bedrijven. Hoogleraar bestuurskunde Bram Klievink, verbonden aan het Leiden-Delft-Erasmus Centre for BOLD Cities, legt de knelpunten bloot en zoekt oplossingen.
'Als Amazon jou de helft van de keren een oninteressant boek aanraadt om te kopen, is er niets aan de hand. Bij de overheid kan een tiende procent fouten al erg zijn, bijvoorbeeld bij het identificeren van fraudeurs', illustreert Bram Klievink. Verder hoeft een bedrijf binnen de grenzen van de wet simpelweg te testen welk algoritme de meeste winst oplevert. 'Een overheid heeft een veel complexere maatschappelijke agenda.'
Schrijnend voorbeeld: begin 2020 veegde de rechter het Systeem Risico Indicatie (SyRI) van tafel, het was in gebruik sinds 2014. Dit overheidsinstrument moest fraude met toeslagen en uitkeringen voorkomen middels gegevenskoppeling en patroonherkenning. Het systeem maakte risicoprofielen op basis van onder meer gegevens over boetes, naleving en onderwijs. Hoewel je gegevens anoniem versleuteld waren tot je eruit rolde als mogelijke fraudeur, vond de rechter de inbreuk op het privéleven te groot.
Beleid met data uit sociale media
Het SyRI-debacle laat zien dat de overheid best wat kan, maar meer gebonden is dan, pak 'm beet, Facebook. Promovendus Simon Vydra onderzoekt − begeleid door Klievink − of data uit sociale media bruikbaar zijn om effecten in kaart te brengen van beleid dat is gericht op jonge ouders. Technische mogelijkheden zijn er zat: 'Je kunt sentimentanalyse doen en daarmee bijvoorbeeld proberen draagvlak voor beleid in te schatten.'
Kleine keuzes en afwegingen kunnen onverwachte gevolgen hebben'
Klievink: 'Als je zo'n techniek inzet, maak je altijd keuzes. Je moet veel parameters afstellen. Bij een analysesysteem gebaseerd op Twitter-data bijvoorbeeld, moet je instellen wanneer je systeem een twitteraar als een mens of als een bot identificeert. Doe je dat bij tien of bij honderd tweets per dag? En hoeveel gespreksonderwerpen onderscheid je in je topic model? Worden het vijf grote, maar algemene onderwerpen, of kies je een fijnmazig model met twintig specifiekere onderwerpen? Zelfs kleine keuzes en afwegingen, kunnen onverwachte of onbedoelde gevolgen hebben voor hoe de uitkomsten worden gebruikt. Die keuzes zijn nooit neutraal, maar we kunnen ze niet vermijden.'
Besluitvormers en technici
Dilemma's rond afwegingen blijven vaak verborgen, omdat beleidsmakers en de technische makers van het systeem elkaars taal niet spreken. 'De AI-expert heeft vaak technische en methodologische expertise, maar lang niet altijd de inhoudelijke expertise om de consequenties te overzien van de gemaakte keuzes. De beleidsmaker weet vaak niet aan welke knoppen de technicus kan draaien, hoe ze precies staan afgesteld en wat dat betekent voor de uitkomsten.' De samenwerking tussen mensen uit diverse disciplines die aan publieke AI-projecten werken kan daarom niet nauw genoeg zijn, aldus Klievink.
Lees meer interviews in het Cyber Security Kennisdossier
Artificial Intelligence in Zuid Holland
Met drie topuniversiteiten en twee universitaire medische centra is Zuid-Holland een hotspot voor de nieuwste ontwikkelingen op het gebied van kunstmatige intelligentie. Daarbij staat de mens voorop. Hoe draagt AI bij aan ons welzijn, de welvaart, een leefbare wereld voor iedereen?
Bekijk hier het kennisdossier Artificial Intelligence