Vergroot contrast

Privacyblog Aleid Wolfsen: 'Computer says no' is niet genoeg

Als burger pluk ik dagelijks de vruchten van de moderne techniek. Zo liep ik twee weken geleden door Rome, een stad waar ik zonder technologie hopeloos zou verdwalen. Dankzij het algoritme van mijn kaartenapp vond ik toch moeiteloos de weg van het Colosseum naar het restaurant in de Via Urbana waar ik met mijn partner had afgesproken. Als organisatie heeft u misschien ook al het gemak ontdekt van algoritmes. Maar heeft u ook de keerzijde in het vizier?

Het automatiseren van gegevensverwerkingen gaat pijlsnel en dat brengt onze maatschappij veel. Neem bijvoorbeeld machine learning: de technologie waarbij een systeem zelf gegevens analyseert, daarvan leert en vervolgens voorspellingen kan doen. Algoritmes sporen bijvoorbeeld slokdarmkanker al sneller op dan een dokter en zijn al in staat om ernstige complicaties bij geboortes te voorkomen, zo las ik vorige maand nog. Ook fraude kan er efficiënter mee worden opgespoord. Zelfs gedrag voorspellen gaat steeds beter. Maar, hier komt het gevaar: wie de glimmende medaille van de vooruitgang durft om te draaien, ziet het complete verhaal. Want ‘wat geweldig dat dit kan’ en ‘bloedlink wat hier gebeurt’ komen hier akelig dicht bij elkaar.

Uitsluiting en discriminatie

Steeds meer publieke en private organisaties maken gebruik van algoritmische systemen om mensen in een profiel te plaatsen. Om zo te bepalen welke ‘behandeling’ zij krijgen. Bijvoorbeeld wel of geen hypotheek, wel of niet ergens klant of medewerker mogen worden of wel of geen korting op een verzekering. U begrijpt, wanneer u dit als organisatie niet volgens de beginselen van de AVG – rechtmatig, behoorlijk en transparant - doet, het risico bestaat dat u (onbewust) bijdraagt aan het uitsluiten en discrimineren van mensen. Daarom is ‘algoritmes’ ook een van onze focusgebieden de komende jaren. 

Noodzakelijk?

Realiseert u zich dus dat de keuze om algoritmes te gebruiken om persoonsgegevens te verwerken een bijzonder grote verantwoordelijkheid met zich meebrengt. Kijk kritisch naar voorstellen van collega’s om deze technologie in te zetten, bijvoorbeeld om bepaalde werkprocessen te versnellen. Zorg dat u kunt verantwoorden dat de automatisch verwerkte gegevens echt rechtmatig en – als onderdeel daarvan - noodzakelijk zijn om uw doel te bereiken. En dat u niet onnodig inbreuk maakt op de privacy van mensen.

Verantwoordingsplicht

Maakt u al gebruik van algoritmes? Zorg dan dat deze technologie geen black box voor u is. Laat u zich bij twijfel door de knappe koppen in uw organisatie haarfijn uitleggen welke persoonsgegevens uw algoritme gebruikt en hoe deze leiden tot goed onderbouwde conclusies over mensen. Dit geldt extra sterk voor bestuurders en leidinggevenden. Zorg dat u van de hoed en de rand weet. De verantwoordingsplicht van de Algemene verordening gegevensbescherming (AVG) helpt u op weg om dit in kaart te brengen en de risico’s te verminderen.

Grip op persoonsgegevens

Zorg ook dat u als verwerkingsverantwoordelijke de controle houdt op de verbanden die het algoritme legt. Bijvoorbeeld door ervoor te zorgen dat ook echte mensen meekijken in het proces. Neem geen genoegen met ‘computer says no’. Want uw klanten, burgers en patiënten mogen van u verwachten dat u transparant bent over de werking van uw algoritme. Zodat ook zij grip houden op hun persoonsgegevens en zich tegen een voor hun nadelige beslissing van uw systeem kunnen verdedigen.

Voor alle organisaties die nu vrezen dat zij hun vernieuwende ideeën aan de kant moeten zetten, heb ik goed nieuws: zolang u privacy opneemt in uw businessmodel, vindt u altijd de weg naar Rome.

In onze visiestuk ‘Toezicht op AI en algoritmes’ vindt u meer informatie en tips.

> Lees meer privacyblogs