Jason (30) werd uitgesloten door een algoritme

Thema's:
Algoritmes uitgelegd
Algoritmes, AI en de AVG

Zoals veel mensen was ik een tijdje geleden op zoek naar een huurwoning. Best een uitdaging, om iets te vinden op de juiste plek en voor de juiste prijs. Gelukkig zag ik in de nieuwsbrief van een grote vastgoedbeheerder regelmatig iets leuks voorbijkomen dat in mijn budget paste.

Ik kreeg het gevoel dat er iets niet klopte

Ik maakte een profiel aan, moest veel persoonlijke gegevens invullen, en drukte bij een leuke woning altijd snel op de knop om een bezichtiging aan te vragen. En dan… hoorde ik dus nooit iets.

Ik snap dat er veel geïnteresseerden zullen zijn, maar dit was wel extreem. Een vriend reageerde bij deze vastgoedbeheerder namelijk ook weleens op woningen in onze stad, en die heeft toch een aantal keer een open huis kunnen bezoeken. Na maanden proberen kreeg ik eerlijk gezegd het gevoel dat er iets niet klopte.                                             

Dat vermoeden werd nog sterker toen ik in het nieuws iets zag over verhuurbedrijven die potentiële huurders ‘screenen’ of op een bepaalde manier selecteren. Ik kon daar niet echt iets over vinden op de website van de vastgoedbeheerder.

Ik heb het bedrijf gebeld, en ik kreeg als antwoord dat ik niet aan de eisen zou voldoen. Dat begreep ik niet. Blijkbaar kwam mijn aanvraag steeds op de stapel ‘afgewezen’. Maar waarom? Dat kon het bedrijf me niet vertellen.  

Door een foutje viel ik steeds buiten de boot. Dat viel niemand op

Een collega zei dat ik misschien een inzageverzoek kon doen om meer te weten te komen. Online vond ik een voorbeeldbrief om naar het verhuurbedrijf te sturen met als tip om te vragen of er bij het bedrijf sprake was van ‘geautomatiseerde besluitvorming’. Oftewel: of er misschien door een computer iets werd beslist, waardoor ik geen woningen aangeboden kreeg.

Ik kreeg gelukkig vrij snel een reactie. Ze gaven aan dat mijn gegevens werden verwerkt met een speciale software die potentiële huurders indeelde op basis van hun gegevens. Daar zat waarschijnlijk een foutje in, waardoor mijn inkomen niet op de juiste manier werd meegerekend. Daardoor viel ik steeds buiten de boot. En omdat de eerste selectie van kandidaten door de computer werd gedaan, viel dat bij het bedrijf niemand op. En ik kon dat zelf natuurlijk ook niet zien.

Je hebt geen idee wat op welke manier meeweegt

Wie weet hoeveel mensen er nog meer steeds onterecht zijn afgewezen! Ze zouden de aanmeldingen zelf ook moeten bekijken, in plaats van alles aan de software over te laten. Zeker omdat je als woningzoeker zo veel gegevens moet aanleveren om alleen maar in aanmerking te komen voor een bezichtiging: van je burgerlijke staat en arbeidscontract tot aan je huisdieren en je spaargeld. En je hebt geen idee wat op welke manier meeweegt in de beslissing van het algoritme.

Ik heb van het bedrijf geen antwoord gekregen op de vraag of ze hun werkwijze willen aanpassen. Ik overweeg daarom alsnog een klacht in te dienen bij de Autoriteit Persoonsgegevens.

Zo’n algoritme kan voor een bedrijf heel handig zijn, dat snap ik best. Maar ik heb er echt last van gehad. Het was niet eerlijk. Uiteindelijk heb ik gelukkig via een andere verhuurder een huis gevonden. Toch heb ik er een vervelend gevoel aan overgehouden. En ik vraag me nu bij andere dingen ook af: heb ik door een foutje ineens een stempel waar ik niet van afweet?

Wist u dat…

  • U recht heeft op een ‘menselijke blik’ als een organisatie een besluit over u neemt?
  • U bij een organisatie een inzageverzoek kunt doen? Tip: gebruik een voorbeeldbrief.
  • Veel organisaties een interne privacytoezichthouder hebben? Zoek op de website van de organisatie naar de contactgegevens van de functionaris gegevensbescherming (FG) of ‘privacy officer’.
  • U als organisatie niet zomaar een algoritme mag gebruiken om besluiten te nemen? Voer eerst een data protection impact assessment (DPIA) uit.
  • U als organisatie mensen goed moet informeren over hoe u hun gegevens verwerkt? Wees transparant. U moet het vermelden in uw privacyverklaring als u geautomatiseerde besluitvorming gebruikt. En hoe u dan besluiten neemt.
  • Overheden hun algoritmes kunnen (en in de toekomst: moeten) registreren in het algoritmeregister?

* De privacyverhalen op deze website zijn gebaseerd op meldingen bij de Autoriteit Persoonsgegevens. Vanwege de privacy van de betrokkenen zijn de persoonsgegevens en sommige omstandigheden veranderd. Voor de beelden bij deze verhalen maken we gebruik van modellen (stockfotografie).

Man met warme trui en sokken thuis op de bank met laptop en telefoon

Waarom is het beschermen van persoonsgegevens zo belangrijk? Deze mensen vertellen wat hun overkwam.

Meer privacyverhalen