Achtergrond: Kunstmatige Intelligentie blijft voorlopig subjectief

Geschatte leestijd - 5 minuten
Recent sprak ik Sanne Kanis, auteur van De Bubbel. In deze roman geeft Kanis een indruk hoe het er echt aan toegaat bij een snelgroeiende tech-startup. De auteur (die eerder bij Booking.com en Spotify werkte) deelt in dit stuk haar visie op Kunstmatige Intelligentie (AI). Dat zijn slimme algoritmes die problemen voor ons oplossen en de belofte hebben objectief te zijn. Een tipje van de sluier: AI blijft subjectief, dus voorzichtigheid is geboden.
>> Luister hier naar de podcast van Digitaal Vermogen
Denken over algoritmes beperkt
“Wat er momenteel ontbreekt in het denken over algoritmes, is het gebrek aan principes, proces en controle. Een goed algoritme zou moeten voldoen aan alle wetten en regulatie, moeten voldoen aan ethische grondslagen en eerlijk (inclusief) en transparant moeten zijn. Momenteel worden algoritmes ontwikkeld door product of development teams”, vertelt Kanis.
“De vraag is hier, kan je van een 25-jarige product owner of developer verwachten dat hij rekening houdt met alle neveneffecten van een algoritme die in de praktijk naar boven komen? Nee. Dat kan je niet verwachten, dus je zou daar met een veel breder team aan moeten werken, en zorgen dat er ook ethici, filosofen en juristen meekijken. Iedereen heeft vooroordelen, omdat een mens eenmaal hardwired is, en degene die een algoritme bouwt, ook. Die verschijnen dan onbewust in een algoritme. En wat voor menselijke communicatie geldt, geldt ook in programmeren: als je iemand een opdracht geeft, en er zijn hiaten, dan gaat diegenen zelf ook de lege vakjes invullen.”
Oplossing voor betere algoritmes
“Een goed proces, principes en controle om algoritmes te bouwen moeten worden afgesproken. We moeten met elkaar afspreken dat we streven naar eerlijke, transparante, ethische algoritmes. Je zou kunnen denken aan een controle die nu gebeurt op boekhouden, dit zou ook voor AI moeten gelden. Er zijn teveel nadelen als het onnauwkeurig of onzorgvuldig gebeurt. Idealiter is er een onafhankelijke commissie of overheidsorgaan die meekijkt en dit op Europees niveau regelt. Algoritmes gaan immers over landsgrenzen. Als de overheid hier zelf niet mee komt, dan moeten we dit gat zelf opvullen.
Een bedrijf heeft er baat bij als een algoritme inclusief is, en is de kans op negatieve gevolgen (litigation bijvoorbeeld) zijn groot als het aan het licht komt als dit niet zo is. Zo ontwikkelde Apple ooit een versie van een iPhone die bijna ongeschikt was voor linkshandigen. Het apparaat was ontwikkeld en getest door rechtshandigen. Dan laat je dus een grote groep potentiële klanten liggen, dus er is ook een grote incentive voor bedrijven om hier een groot team mee te laten kijken in de testfase.
Educatie moet verder een rol spelen. Ethiek als vak moet onderdeel worden van het curriculum. Dat gebeurt nu al op Stanford bij tech-opleidingen, omdat de nood in Silicon Valley prangend is, maar dit moet wereldwijd een standaard worden. En ook al eerder, we investeren als samenleving veel in academies voor coderen en programmeur-opleidingen, maar parallel hieraan zouden we ook dit gat van ‘ethisch ontwerpen’ moeten opvullen.

AI niet objectief
Is AI objectief? Dat lijkt me een pittige uitspraak, maar een mooi streven. AI is vrijwel altijd subjectief omdat er een of meerdere vooroordelen in zitten van de persoon of teamleden die de input leveren. Wat we als maatschappij goed en slecht vinden, kan ook verschillen van een individu. Malcolm Gladwell schreef hier onlangs iets relevants over. In een podcast van The Guardian vertelde hij, naar aanleiding van zijn nieuwe boek ‘Talking to Strangers’, over het menselijke vooroordeel. Hij deelt een experiment uit de Verenigde Staten waarin rechters wedijveren met robots. Rechters in New York moeten soms tientallen danwel honderden zaken per dag wegwerken. In een korte tijd beslissen ze of ze de verdachte vrijlaten en terug laten komen voor een uitgebreider proces, of opsluiten omdat ze een ogenblikkelijk gevaar kunnen vormen voor de maatschappij.
In dit experiment werden meer dan honderdduizenden zaken behandeld door een rechter en een AI-robot. Het verschil tussen het beoordelingsvermogen van robot en mens bleek vrij aanzienlijk. Als de computer hetzelfde aantal beklaagden zou vrijlaten als de rechters, zouden de beklaagden van de computer een vierde minder misdaden begaan in de toekomst. De voorspelling van de robotrechter was in dit geval dus aanzienlijk accurater. Onbewust neemt de rechter niet-rationele zaken mee, zoals non-verbale communicatie. Iemand die lacht in de rechtszaal of ongeduldig schuifelt op zijn stoel zal wel wat te verbergen hebben. Dit wordt door een relatief homogene groep van rechters, onbewust of bewust, in de uitspraak meegenomen.
Verandering zal niet vlot gaan
Op korte termijn verwacht Kanis geen verandering, tenzij er omzetwinst- of verlies of hoge litigation procedures mee gemoeid zijn. “Dat zijn nu eenmaal de drivers van een tech-business. Als er geen intrinsieke motivatie is vanuit de top om dit te veranderen, dan verwacht ik niet dat het geagendeerd wordt. Maar op lange termijn hopelijk wel. De ethiek-klassen op Stanford zijn een goed begin, en de corona-periode dwingt techbedrijven om kritischer te kijken naar beslissingen en morele afwegingen te maken. Er staat een vergrootglas op de techies. Dat voelen ze.
De discussie rondom BlackLivesMatter zal zich hopelijk ook gaan uitbreiden tot het verminderen van racisme en vooroordelen binnen technologische oplossingen. Ethisch profileren – de case bij de Belastingdienst die onlangs boven water kwam – was een gevolg van selectieregel die ingebouwd was in het systeem. Een soort ‘Computer Says No’ principe, waar heel binair naar een probleem wordt gekeken. Door dit incident begrijpen we als maatschappij nu hopelijk beter de gevolgen wat er fout kan gaan, als er niet holistisch wordt gekeken naar algoritmes en ingeschat wordt wat dit voor korte en lange termijn consequenties kan helpen.
Verder lezen
Ben je door dit interview benieuwd geraakt naar kunstmatige intelligentie? Lees dan ook de volgende artikelen:
- Achtergrond: Algoritme Belastingdienst bewijst lerend karakter
- Achtergrond: 4 must-reads over algoritmes
- Achtergrond: 4 must-reads over Kunstmatige Intelligentie (AI)
- Achtergrond: kunstmatige intelligentie is niks zonder menselijk oordeel
Kijk ook
Luister nu naar Live On Stage met Folkert Tempelman, Denis Doeland en Igor Beuker.
en kijk verder …
Check ook




+ Er zijn geen reacties
Voeg toe