Hoe een Rotterdams algoritme jonge, alleenstaande moeders discrimineerde

“Ik benadruk dat er geen sprake is geweest van discriminatie bij het gebruik van algoritmes in de gemeente Rotterdam”, zei wethouder Richard Moti in 2021 tegen de gemeenteraad. Maar het ‘risico-inschattingsmodel’ voor de opsporing van bijstandsfraude selecteerde wel degelijk een specifieke groep mensen voor de controle van de bijstandsuitkering, ontdekten Vers Beton, OPEN Rotterdam en Lighthouse Reports.

Imane kan zich de precieze datum van de brief niet meer herinneren. Het was vlak na een medische ingreep, ruim twee jaar geleden: een uitnodiging voor een heronderzoek van de gemeente Rotterdam om te kijken of ze terecht een bijstandsuitkering ontving. Eigenlijk was Imane niet sterk genoeg om naar de afspraak te komen. Maar ze had al zo veel gedoe gehad over de bijstand dat afzeggen geen optie was.

Spreekkamer
Het gesprek bij de afdeling Werk & Inkomen duurde een uur. Ze had haar bankafschriften uitgeprint, ook die van haar kinderen waren opgevraagd. Kopieën van paspoorten, het huurcontract, de ingevulde vragenlijst over vermogen in het buitenland – ze overhandigde alles aan de man in de spreekkamer. “De man van de gemeente praatte heel hard, iedereen genoot ervan mee. Moet de beveiliger weten wat er bij mij speelt?” Ze schaamde zich dat ze was opgeroepen.

Risicoscore
Imane (vanwege privacy een fictieve naam) is één van de vijf vrouwen die Vers Beton samen met Lighthouse Reports spraken over deze heronderzoeken bij de gemeente Rotterdam. Ze behoort tot de groep met een hoge score in het ‘risico-inschattingsmodel’: ze is een alleenstaande moeder van meerdere kinderen en leeft met een bijstandsuitkering op de armoedegrens. Het model berekent een ‘risicoscore’: een inschatting van hoe groot de kans is dat iemands bijstandsuitkering niet klopt. Dit algoritme gebruikte Rotterdam van 2018 tot 2021 om mogelijke bijstandsfraude op te sporen.

Kritisch rapport
Rotterdam loopt met het gebruik van dit machine learning algoritme, dat ze zelf liet ontwikkelen, voorop. Niet alleen in Nederland, maar in heel Europa, bleek uit ons onderzoek in meer dan honderd Europese steden. Bij deze algorimes wordt kunstmatige intelligentie gebruikt om voorspellingen te doen. Na een kritisch rapport van de Rotterdamse Rekenkamer stopte de gemeente in 2021 echter met het gebruik van het risico-inschattingsmodel.

Taalvaardigheid
We ontdekten dat vrouwen, bijstandsontvangers met kinderen, mensen die jong of heel oud zijn, samenwonen en financiële of verslavingsproblemen hebben, een grotere kans maakten om door het algoritme te worden geselecteerd. Had een bijstandsontvanger één of meer van bovenstaande eigenschappen, bijvoorbeeld in het geval van een alleenstaande bijstandsmoeder met financiële problemen, dan steeg volgens het algoritme de kans dat de bijstandsuitkering onrechtmatig zou zijn. Ook eigenschappen die samenhangen met het beheersen van de Nederlandse taal, het behalen van de taaltoets of het spreken van een tweede taal waren van invloed. Hoe minder de taalvaardigheid in het Nederlands, hoe hoger

In totaal krijgen rond de 30 duizend Rotterdammers een bijstandsuitkering, van wie ruim drieduizend in deze periode door het algoritme werden geselecteerd voor een heronderzoek.

Lees het hele verhaal van Romy van Dijk en Saskia Klaassen op Vers Beton.

Deze productie werd mogelijk dankzij steun van het Stimuleringsfonds voor de Journalistiek. Dit is een samenwerking tussen Vers Beton, OPEN Rotterdam en Lighthouse Reports, met medewerking van Wired, Argos en Follow The Money.

Illustraties door Lucia Lenders