Algoritmes om bijstandsfraude op te sporen van de baan: ‘Kunnen transparantie niet garanderen’

Er komt voorlopig geen nieuw algoritme voor het opsporen van bijstandsfraude door de gemeente. Dat maakt wethouder Tim Versnel bekend. Het gebruik van het vorige algoritme is in 2021 gestopt. Na onderzoek van OPEN Rotterdam, Vers Beton en Lighthouse Reports bleek dat er veel mis was met het vorige algoritme.

Zo liet het onderzoek zien dat het algoritme discrimineerde. Het Rotterdamse algoritme pikte mensen eruit op basis van persoonseigenschappen zoals geslacht, gezondheid en financiële omstandigheden. Dat zorgde ervoor dat er tussen 2018 en 2021 voornamelijk jonge vrouwen met schulden en een of meer kinderen zijn uitgenodigd voor een heronderzoek. Ook geeft bijvoorbeeld een slechte taalvaardigheid een hogere kans op zo’n uitnodiging.

In deze video wordt het algoritme uitgelegd.

Bezwaren en vragen
Ondanks de resultaten van het onderzoek, dat zelfs zorgde voor vragen in het Europees Parlement, bleef de gemeente Rotterdam bezig met onderzoek naar het ontwikkelen van een nieuw algoritme. Tot nu. Wethouder Tim Versnel kondigde op zaterdag 1 juli aan dat de gemeente de ontwikkeling van een nieuw algoritme volledig stopzet. Hij geeft aan dat het met de huidige wetgeving rondom privacy niet mogelijk is om een algoritme te maken dat transparant is en niet discrimineert.

De aankondiging van Tim Versnel volgt zeer kort op een brief die de gemeente op 20 juni heeft ontvangen van de Autoriteit Persoonsgegevens (APV). In de brief wordt de gemeente gesommeerd binnen twee maanden via een eigen onderzoek aan te tonen wat de mogelijke financiële of emotionele schade is die Rotterdammers hebben ondervonden van het gebruik van het algoritme. Ook vraagt de APV wanneer en op welke manier de gemeente Rotterdammers gaat informeren over het algoritme en welke lessen ze hebben geleerd uit het gebruik ervan.