Risico's generatieve AI

Het gebruik van generatieve AI is in 2023 diep doorgedrongen in de Nederlandse samenleving. Die toename komt doordat de ‘foundation models’ waarop generatieve AI-tools zijn gebaseerd, steeds beter en gemakkelijker werken. 

Op deze pagina

Met generatieve AI is het mogelijk om nieuwe teksten, beelden en geluiden te genereren door het systeem een specifieke instructie te geven, ook wel ‘prompt’ genoemd. Voorbeelden van generatieve AI zijn Chat GPT, Bing AI en Midjourney.

Uitdagingen en risico’s 

Bij het gebruik van generatieve AI spelen vragen over de rechtmatigheid ervan. Dat komt onder andere doordat de gebruikte modellen worden getrained met enorme hoeveelheden ‘gescrapete’ data, waar ook persoonsgegevens in kunnen zitten. Ook nieuwe gebruiksrisico’s en de machtspositie van bigtechbedrijven zijn aandachtspunten. Een paar voorbeelden van uitdagingen en risico’s uit de Rapportage AI & algoritmerisico’s Nederland (RAN) van de AP, editie najaar 2023: 

  • Veel landen zien het risico dat generatieve AI op grote schaal kan worden ingezet voor het verspreiden van desinformatie en manipulatie. 
  • Generatieve AI modellen geven antwoorden op basis van een bepaalde kansberekening. Vaak krijgt de gebruiker geen inzicht in onzekerheidsmarges, de alternatieve antwoorden die mogelijk zijn en de bronnen waarop de uitkomst is gebaseerd. Hierdoor kunnen personen en organisaties de uitkomst vaak niet goed op waarde schatten. Dit verhoogt het risico op verkeerde conclusies en acties. En dat kan weer leiden tot discriminatie en willekeur in het handelen van een persoon of organisatie.
  • We signaleren risico’s voor privacyrechten. Want wat als een generatief systeem bijvoorbeeld een bepaald citaat in verband brengt met de verkeerde persoon? Ook zien we risico’s voor  intellectuele eigendomsrechten: mag een model bijvoorbeeld zomaar de stem van een popartiest gebruiken om een nieuw geluidsbestand te genereren? 
  • Wanneer je een generatief AI-systeem (onbewust) traint met data waar onevenwichtige voorbeelden van groepen in zitten, dan kan dit vooroordelen van mensen versterken. Zij krijgen immers vaker de ‘overgerepresenteerde’ groepen te zien. Zo kunnen door AI gegenereerde beelden onevenredig vaak artsen als man tonen, en verplegers onevenredig vaak als vrouw.  
  • In de markt zien we dat de ontwikkeling van generatieve foundation models bij een klein aantal partijen is geconcentreerd. Op dit moment zijn het namelijk vooral de bigtechbedrijven die het geld ervoor hebben. Hierdoor krijgen nieuwe aanbieders weinig kans en krijgen bigtechbedrijven nog meer macht. 

Wat is er nodig? 

Het is van belang om verder te werken aan de concretisering van het Europese toezicht op foundation models en de organisaties die deze modellen ontwikkelen. De AI-verordening biedt hiervoor de basis. Ook is transparantie voor de gebruiker van essentieel belang. Gebruikers moeten weten of ze met een mens of systeem te maken hebben en de uitkomst op waarde kunnen schatten. 

Meer weten over de in kaart gebrachte risico’s van generatieve AI? Lees dan hoofdstuk 2 van de RAN (editie najaar 2023)

Meer weten?

Benieuwd naar de volledige informatie over dit onderwerp? Bekijk hoofdstuk 2 van de Rapportage AI- & algoritmerisico’s Nederland (RAN), editie najaar 2023. De AP publiceert de RAN 2 keer per jaar en licht op de website enkele belangrijke risico’s uit.