Geschatte leestijd - 3 minuten
Afgelopen weken was er veel te doen om het algoritme van de Belastingdienst, dat fraude moest opspeuren. In de nasleep van de zogenoemde Bulgarenfraude, zocht de Belastingdienst ook op of een burger een tweede nationaliteit heeft. Gevolg: erg schrijnende gevallen, een staatssecretaris die mogelijk aftreedt en een deuk in het vertrouwen in de politiek, belastingdienst en technologie. Terwijl het echt wel anders kan.
>> Luister hier naar de podcast Digitaal Vermogen
Algoritmes: hoe het niet moet
Pieter Klein beschrijft op RTL.nl goed hoe het fout ging: “Weet u nog, de onjuiste en onbehoorlijke stopzetting van toeslagen van kinderopvang van ruim 300 ouders in 2014? Niets fout gedaan. Jarenlang kapot geprocedeerd door de Belastingdienst. Baan kwijt. Echtscheiding. In grote financiële problemen komen omdat ook andere jaren werden teruggevorderd: tienduizenden euro’s.”
Waren het criminelen? Nee, het gaat om honderden goedwillende ouders. Met bijna allemaal, zo valt op, een tweede nationaliteit. Omdat het algoritme zo was ingesteld. De nasleep van de affaire is ook allesbehalve netjes. “Relevante informatie werd stelselmatig achtergehouden voor rechters en voor de Tweede Kamer. Pas na een reeks onthullingen begon staatssecretaris Snel in juni in te zien dat het in deze zaak grondig mis is, dat de kern van onze rechtsstaat in het geding is, en dat hijzelf ook te lang leed aan ‘tunnelvisie’. En dat sommige ambtenaren intern al in 2015 waarschuwden.”
Continue monitoring nodig
Dat is precies waar het mis is gegaan bij de Belastingdienst: de algoritmes zijn niet continue gemonitord en bijgesteld. (Uiteraard kan je ook vraagtekens zetten bij de povere communicatie nadat dit schandaal aan het licht kwam). Je vindt immers waar je naar zoekt. Zoek je vanaf dat moment zijn burgers schuldig – tot het tegendeel bewezen is. Merk op: uit de rapportages die Trouw en RTL Nieuws inzagen blijkt helemaal geen bewijs voor fraude.
Algoritmes hebben een lerend karakter. Door gegevens te verzamelen en te analyseren, leert een algoritme. Hiervoor is het wel nodig dat het door menselijke handelingen wordt bijgesteld. Met andere woorden: het altijd gelukkige huwelijk van ICT en de overheid heeft weer een mooie vrucht geworpen: een Belastingdienst die met algoritmes zoekt naar frauderende burgers, maar daarbij nalaat om algoritmes te monitoren. Zonde, want zo ontstaat er onnodig wantrouwen tegen algoritmes.
Angst is onterecht
De angst voor algoritmes is onterecht. In Algoritmes aan de macht legt Hannah Fry waarom algoritmes uitkomst bieden voor menselijke problemen. Algoritmes en kunstmatige intelligentie hebben immers geen last van een slecht humeur en maken geen onnodige fouten als ze herhalend werk doen. Opmerkelijk: we vergeven fouten van algoritmes minder snel dan die van mensen. En dat geldt ook als de fouten van algoritmes groter zijn dan onze eigen fouten.
Fry legt goed uit hoe algoritmes werken en welke rol ze in de maatschappij gaan spelen. Haar voorlopige conclusie? We moeten begrijpen hoe algoritmes werken en op tijd aan de bel trekken als ze niet goed functioneren. En juist in een tijdperk van algoritmes, zijn menselijke waarden (zoals empathie en rechtvaardigheidsgevoel) veel belangrijker. Met die eigenschappen kan je, ook als Belastingdienst, het verschil maken.
Check dan wekelijks deze playlist
Check ook
Wil je liever een paperback?
→ Bestel via de site
→ Bestel via BOL.com
→ Bestel via Bruna
→ Bestel via Managementboek
ook verkrijgbaar bij
ook digitaal te lezen bij
Andere relevante uitgaven
Liever een gratis eBook? Check ook vanAnaloognaarDigitaal.nu en EDMendedigitalewereld.nl
