AI- & algoritmerisico’s nemen toe, nationaal deltaplan nodig

Thema's:
Coördinatie toezicht algoritmes & AI
Algoritmes uitgelegd

De risico’s van artificiële intelligentie (AI) en algoritmes nemen verder toe, onder meer door de opkomst van generatieve AI.  Zoals het risico op verspreiding van desinformatie, maar ook op privacy-overtredingen en discriminatie. De toenemende inzet en technologische innovaties gaan op dit moment sneller dan we als samenleving zulke risico’s kunnen herkennen en aanpakken via bijvoorbeeld regelgeving en toezicht. 

De Autoriteit Persoonsgegevens (AP) waarschuwt daarom in de tweede editie van de 'Rapportage AI- & algoritmerisico’s Nederland' dat er meer en beter zicht en grip moet komen op deze risico’s. En pleit voor een deltaplan waarin onder meer menselijke regie, veilige applicaties en systemen en eisen aan organisaties samenkomen. 

Ook moet er geïnvesteerd worden in de maatschappelijke educatie over en het bewustzijn van algoritmes en AI bij jong en oud. Het moet voor mensen duidelijk zijn welke rol algoritmes en AI spelen in hun leven en hoe ze daar grip op krijgen en houden. Bijvoorbeeld bij de inzet van algoritmes in het onderwijs en op de werkvloer.

Incidenten schaden het vertrouwen

Aleid Wolfsen, voorzitter AP: “Hoe meer AI en algoritmes worden ingezet in de samenleving, hoe meer incidenten plaatsvinden. Bijvoorbeeld mensen die foute adviezen krijgen van chatbots, gezichtsherkenningssystemen die minder goed werken voor mensen van kleur of mensen die een lawine aan parkeerboetes krijgen van de gemeente omdat scanauto’s niet correct ingezet worden.”

“We weten ook dat veel risico’s en incidenten nog onder de radar blijven. De inzet van AI en algoritmes kan bijdragen aan duurzame welvaart en welzijn. En het is mogelijk om dit op zo’n manier te doen dat grondrechten goed beschermd zijn. Maar incidenten schaden wel het vertrouwen. Daarom zijn goede regelgeving en robuust toezicht noodzakelijke voorwaarden.” 

Menselijke regie als uitgangspunt

De AP stelt voor om een deltaplan beheersing algoritmes en AI voor 2030 op te stellen. Dit zorgt ervoor dat bedrijven, de overheid en burgers samen toewerken naar een samenleving waarin we algoritmes en AI verantwoord gebruiken. Met meetbare doelstellingen en afspraken per jaar. Implementatie van regelgeving, zoals de Europese AI Act (AI-verordening), is daar onderdeel van. 

Daarmee kunnen we welvaart, welzijn en stabiliteit stapsgewijs verbeteren en tegelijkertijd grondrechten en publieke waarden beter beschermen. Menselijke regie is daarbij een belangrijk uitgangspunt. Die regie werkt alleen als mensen zich beter bewust zijn van de werking en risico’s van algoritmes en AI. Dit ondersteunt niet alleen de veiligheid van individuele AI-systemen, maar bevordert ook de ontwikkeling van veilige en betrouwbare toepassingen.

Meer begrip en kennis nodig

Vrijwel iedereen komt nu of in de nabije toekomst veelvuldig in aanraking met algoritmes en AI. Dit betekent niet dat iedereen over dezelfde kennis hoeft te beschikken. 

Docenten of artsen moeten bijvoorbeeld weten hoe zij een algoritme kunnen beoordelen of inzetten. Mensen moeten weten wat de inzet van een algoritme in hun werkomgeving voor hen betekent en hoe ze zich daartegen kunnen verweren. Bestuurders van organisaties moeten adequate kennis bezitten om de risico’s, effecten en mogelijkheden voor beheersing te kunnen overzien en beoordelen voordat zij een besluit over de inzet nemen. 

Er moet structureel geïnvesteerd worden in begrip en kennis om als samenleving om te kunnen gaan met de inzet van algoritmes en AI.

Generatieve AI: grote risico’s vragen om passend toezicht

In korte tijd is het gebruik van generatieve AI diep doorgedrongen in de Nederlandse samenleving. Met generatieve AI is het mogelijk om teksten, beelden en geluidsfragmenten te genereren. 

De opkomst van generatieve AI leidt tot nieuwe gebruiksrisico’s en systeemrisico’s. Desinformatie, manipulatie en discriminatie zijn risico’s die om aandacht vragen.  

De Europese AI-verordening gaat zorgen dat er vanaf 2025 passend en proactief toezicht komt op ‘foundation models’ en organisaties die deze modellen ontwikkelen.

Toezicht op de AI-verordening

In Nederland bereiden toezichthouders zich gezamenlijk voor op de AI-verordening, waarover onlangs een politiek akkoord is bereikt. Beheersing van algoritmes en AI vraagt echter om meer inspanning dan het opzetten van toezicht alleen. Het is belangrijk dat ook bedrijven en organisaties zelf werken aan beheersing, toezicht en controle om tot betrouwbare en veilige inzet van algoritmes en AI te komen.

""

Lees ook

Bekijk alle actualiteit