Als het op nieuwe technologieën aankomt, zijn er twee soorten mensen: de techno-optimisten en de techno-pessimisten.

Ik ben een techno-optimist. Ik geloof dat technologie ons helpt om ons werk en leven beter en makkelijker te maken. En dat het ons kan helpen om de grote problemen in de wereld aan te pakken (helaas hebben we die problemen overigens grotendeels zelf gecreëerd, vaak met ‘hulp’ van technologie).

Technologie op zichzelf is niet positief of negatief. Hoe wij deze technologieën toepassen, bepaalt of de impact op onszelf en de wereld om ons heen positief of negatief is. Als we er de juiste dingen mee doen, dan kan het ons op vele fronten kan helpen.

Met patroonherkenning en voorspellingen kunnen we bijvoorbeeld betere diagnoses stellen en ziektes tijdig bestrijden. Of extreme weerssituaties voorspellen, waardoor overheden en inwoners tijdig actie kunnen ondernemen.

Maar Artificial Intelligence (AI) is nu nog geen volwassen technologie. Er gaat dus nogal eens iets mis. Vier voorbeelden van grote mislukkingen in de afgelopen jaren:

1)     Amazon-algoritme houdt meer van mannen dan van vrouwen (2018)

In de periode 2014-2017 gebruikte de Human Resources-afdeling van Amazon AI om cv’s te screenen en kandidaten aan te bevelen. Het algoritme was getraind met cv’s uit de voorgaande 10 jaar, waarin Amazon veel technisch personeel aannam. Dat technisch personeel bestond veelal uit mannen. Hieruit maakte het systeem op dat mannelijke kandidaten meer geschikt waren dan vrouwelijke kandidaten. Amazon heeft in 2018 verklaard de software niet meer in dezelfde vorm in gebruik te hebben.

2)     Chinese miljardaire geïdentificeerd als iemand die door rood liep (2018)

De foto van Mingzhu Dong, China’s meest succesvolle zakenvrouw, zat in een reclame op de zijkant van een bus. Toen het stoplicht op groen ging en de bus ging rijden, pikten de camera’s haar gezicht op en werd zij geïdentificeerd als iemand die het rode voetgangerslicht negeerde en de straat overstak.

Haar foto werd afgebeeld op een groot scherm, waar ze werd afgeschilderd als roekeloos overstekende voetganger. Vandaag de dag hebben AI-systemen nog veel moeite om een levend mens te onderscheiden van een foto van een mens.

3)     Dodelijk ongeluk met Uber zelfrijdende auto (2018)

Er is veel techniek voor nodig om een zelfrijdende auto te laten functioneren. Camera’s signaleren lijnen op de weg, stoplichten en verkeersborden. Radars meten de snelheid en richting van objecten. LIDAR brengt de omgeving van de auto in kaart.

Alle gegevens worden gecombineerd in een soort 3D-model van de omgeving van de auto, en met behulp van Machine Learning leert het systeem steeds beter om een voetganger, fietser, automobilist en andere objecten te identificeren. Een voorspellingsalgoritme voorspelt hoe objecten in de omgeving zich zullen gaan bewegen. En weer een ander algoritme bepaalt hoe de auto zich moet gedragen en moet reageren op veranderende objecten in de directe omgeving.

Geen wonder dat er tijdens het trainen van deze algoritmes nog wel eens iets misgaat. Op 23 maart 2018 vindt het eerste – en tot op heden enige – dodelijke ongeluk plaats: een vrouw verschijnt plotseling uit het donker en wordt dodelijk geraakt door een zelfrijdende Volvo van Uber.

Het onderzoek toont aan dat de auto moeite had om de vrouw, die naast haar fiets liep in donkere kleding zonder verlichting, te identificeren als een voetganger. Het systeem vertrouwt in testmodus nog op het ingrijpen van de menselijke bestuurder, wat in dit geval niet gebeurd is.

Het ongeluk kreeg zeer veel media-aandacht en riep veel testen met zelfrijdende auto’s een halt toe. Toch geloven experts dat zelfrijdende voertuigen in de toekomst zeer veel mensenlevens zullen sparen.

4)     Microsoft-chatbot werd binnen 24 uur een racist (2016)

In maart 2016 lanceerde Microsoft haar chatbot ‘Tay’ op Twitter. Trollen (internetgebruikers die met opzet berichten plaatsen om negatieve emoties op te roepen) stuurden de chatbot massaal racistische en seksistische berichten.

Tay leerde hiervan en begon op haar beurt racistische en seksistische tweets te sturen. Microsoft haalde de chatbot na 16 uur offline en bood publiekelijk excuses aan. Inmiddels heeft Microsoft haar politiek-correcte zusje gelanceerd, genaamd Zo.

AI-fouten voorkomen met de juiste data

Er zijn ongetwijfeld nog veel meer gevallen waar het misging (of misgaat), die nooit de media halen of waarvan de ontwikkelaar en gebruikers niet eens weten dat het misgaat. Een van de grote uitdagingen is het trainen van algoritmes met de juiste data. Want als de data gekleurd is, dan zal het algoritme dat ook worden.