ROTTERDAM- Het werken met algoritmen om bijstandsfraude op te sporen in Rotterdam staat objectieve en onvooringenomen dienstverlening in de weg, meent GroenLinks (GL). De partij komt met schriftelijke vragen voor het stadsbestuur nu de partij heeft begrepen dat wordt gewerkt aan een nieuw algoritme waarin geen variabelen gebruikt worden waaruit leeftijd, geslacht of nationaliteit afgeleid kunnen worden. Dit omdat is gebleken dat het eerder gebruikte risico-inschattingsmodel nooit vrij kon blijven van vooringenomenheid of schijn daarvan, maar volgens GL is werken met algoritmes altijd enorm risicovol. Larissa Vlieger: ‘Er wordt voorspeld op basis van historische gegevens. Dit zal altijd een zichzelf bevestigend patroon opleveren.’
De partij wil van het gemeentebestuur onder meer weten hoe het gebruik van risicoprofielen en ‘voorspelling’ van fraude of toekomstige fraude door middel van een algoritme valt te verenigen met mensenrechten als het recht op privacy, het recht op non-discriminatie en het recht op gelijke behandeling.
Wethouder Tim Versnel (VVD) laat weten dat op dit moment wordt onderzocht, op basis van alle geleerde lessen, hoe men een nieuw risico-inschattingsmodel kan ontwikkelen dat aan de vereisten van deze tijd voldoet. Versnel: ‘Zoals u weet, is het gebruik van het risico- inschattingsmodel in 2021 stopgezet. Het college heeft daarover destijds ook uitvoerig met de gemeenteraad gesproken.’
De vorige gemeenteraad is meermaals geïnformeerd over het risico-inschattingsmodel dat in de periode 2018-2021 werd gebruikt voor het selecteren van mensen voor heronderzoeken.
Wilt u ook een eerlijk stemadvies? Doe dan De Echte Stemwijzer! De stellingen zijn gekoppeld aan het stemgedrag van de partijen op ingediende moties in de Tweede Kamer. Aan het einde krijgt u een resultaat op basis van het gedrag van de partijen in de Tweede Kamer en niet op basis van wat er in het partijprogramma beloofd wordt.
De echte stemwijzer vindt u HIER.