Achtergrond: Amsterdam maakt algoritmes openbaar

Geschatte leestijd - 4 minuten
Algoritmes spelen een steeds grotere rol in ons dagelijks leven. Om ervoor te zorgen dat voor meer mensen inzicht krijgen in de keuzes die worden gemaakt op basis van kunstmatige intelligentie, maakt Amsterdam (samen met Helsinki) nu zijn algoritmes openbaar.
Amsterdam zet in op transparantie
“Algoritmes zijn onlosmakelijk verbonden met ons dagelijks leven en worden steeds belangrijker voor onze stad”, vertelt de Amsterdamse wethouder Touria Meliani tijdens het Next Generation Internet Summit. “Maar ze zijn lastig te begrijpen. Als stad vinden we dat iedereen het recht heeft om te weten welke algoritmes worden gebruikt en hoe ze werken. Daarom ben ik ontzettend trots op dit register.”
Op algoritmeregister.amsterdam.nl vind je de algoritmes van de gemeente. Hier staat ook een heldere uitleg van de keuze van de gemeente: “Een algoritme is een vooraf bepaalde set regels of stappen die door de computer gevolgd worden. Per algoritme vindt u eerst algemene informatie over de bedoeling en werking van het algoritme. Daarna vindt u meer gedetailleerde technische informatie. Door feedback te geven helpen kunt u ons helpen om de algoritmes die we gebruiken beter, eerlijker en verantwoorder te maken.”
Transparantie nodig
Ibo van de Poel, Anthoni van Leeuwenhoek-hoogleraar in de ethiek van technologie en hoofd van het departement Values, Technology & Innovation bij TBM is voorstander van meer transparantie rondom het gebruik van algoritmes. “In de Verenigde Staten worden zelflerende algoritmen (zoals het COMPAS algoritme) gebruikt om de kans op recidive bij veroordeelden te berekenen. Die kans speelt een rol bij de bepaling van de strafmaat. Van deze software wordt gezegd dat er een raciale bias in zit. Hoe het programma precies werkt komt men niet te weten, want het is intellectueel eigendom van een bedrijf. “Dat bedrijf wil de code niet openbaren.
“Hierdoor is het dus mogelijk dat je in de VS een strafmaat opgelegd krijgt op basis van een redenering die je nooit precies te weten zult krijgen. Zelflerende algoritmen zijn nog vaak een soort black box. Je kunt de code natuurlijk nagaan (als deze tenminste niet geheim gehouden wordt). Maar wat zo’n ding per saldo doet is vaak niet inzichtelijk. Moeten we dat willen? Meer transparantie in de werking van de algoritmen is wenselijk. Het probleem is dat als je eist dat het volledig transparant is, dat het algoritme dan minder efficiënt kan leren. Je moet daarin een afweging maken.”
Kunstmatige intelligentie niets zonder menselijk oordeel
Algoritmen hebben de schijn van objectiviteit. Toch zal kunstmatige intelligentie naar het zich laat aanzien nooit echt onafhankelijk en objectief worden. Daar zien drie redenen voor:
- Trainingsdata is keuze van de mens. Kunstmatige intelligentie leert op basis van data. Op basis van welke data er geleerd wordt, is een keuze van de mens. Peter Werkhoven, wetenschappelijk directeur van TNO, zegt het volgende in de Volkskrant: ‘Het begint met heel goed nadenken over je trainingsdata: zijn die schoon, zijn ze compleet, zijn ze waardenvrij?’ Daar wringt de schoen vaak: het vergaren van schone, complete en waardenvrije data is nog echt een uitdaging. En ben je niet erg optimistisch als je denkt dat de menselijke geest iets waardenvrijs kan bedenken?
- Doelstelling is een menselijke keuze. Met data alleen heeft kunstmatige intelligentie nog niet voldoende brandstof om te leren. Het systeem moet een doel hebben. Het kiezen van zo’n doelstelling (misdaad voorkomen door patronen te herkennen) is een keuze die door mensen gemaakt moet worden.
- Er is geen universele ethiek. De TNO-directeur zegt het volgende over ethische afwegingen. ‘En we moeten onze ethische uitgangspunten expliciet en afweegbaar maken voor de systemen.’ Ik heb slecht nieuws voor Werkhoven: er zijn geen universele, ethische, kaders. Er komt nooit een zelflerend algoritme waarin iedereen zich kan vinden.
Conclusie
Kunstmatige intelligentie is nog steeds afhankelijk van het menselijk oordeel. In dat opzicht doet de angst voor kunstmatige intelligentie denken aan die voor datagebruik of de digitale assistent. Laten we concluderen dat de angst voor kunstmatige intelligentie voorlopig overdreven is, maar het zaak is deze te vrijwaren van vooroordelen. Transparantie is dus geboden om de technologie toekomstbestendig te maken. In dat opzicht doet de gemeente Amsterdam er goed aan algoritmes openbaar te maken.
Bekijk alle afleveringen van Live On Stage
Geen KO oplopen tijdens de coronacrisis? Kijk naar Live On Stage!
+ Er zijn geen reacties
Voeg toe