“Onderzoekers bij Facebook waren geschokt toen een A.I.-experiment uit de hand dreigde te lopen. De wetenschappers voelden zich genoodzaakt om de stekker uit twee robots te trekken nadat deze stiekem een geheime taal hadden ontwikkeld.” De kans is groot dat u dit verhaal vorig jaar voorbij hebt zien komen. Een soortgelijk bericht werd massaal gedeeld en deed even later ook de rondte in een versie waarbij Facebook was vervangen door Google.
Het verhaal berust echter op lariekoek. Wie terug gaat naar de bron kan lezen dat de onderzoekers helemaal niet zo ongerust waren. Het ging om een doodnormale chatbot (zoals Facebook er zoveel heeft) die ze probeerden te laten onderhandelen. De bot moest zelf bepalen hoeveel hoeden, ballen of boeken hij bereid was te ruilen in een chat-conversatie. Om hem sneller te laten leren, lieten ze de bot oefenen met een andere chatbot. Wat de onderzoekers echter hadden nagelaten was programmeren dat de bots in normale volzinnen moesten praten. Nu ging de onderhandeling als volgt.
Alice: “Ik wil boek-boek-boek en hoed-hoed”. Bob: “Dat is goed maar dan wil ik bal-bal-bal-bal-bal.” Alice: “Deal!”
Lekker efficiënt, toch? Maar deze manier van converseren was voor de onderzoekers niet bruikbaar. Het was immers de bedoeling dat Alice en Bob ook met echte mensen zouden kunnen praten. Dus –zo concludeerden de onderzoekers- was dit experiment mislukt. Laten we het op een andere manier proberen.
Dat is echter niet wat de journalisten en twitteraars in dit bericht zagen. De doemscenario’s werden weer opgepoetst en rijkelijk geïllustreerd met foto’s van de Terminator het wereldwijde web opgeslingerd. De rectificatie waarin de wetenschappers een genuanceerd verhaal vertelden en zelfs het onderzoek volledig publiceerden, kreeg nauwelijks aandacht.
Een dergelijke trend doet zich nu ook voor rondom algoritmen. Onheilspellend wordt gewaarschuwd dat algoritmen de baas over ons willen spelen. En dat is een slechte zaak, want ze zijn heel ‘oneerlijk’. Ook weer lariekoek! Algoritmen hebben geen eigen wil. Ze zijn al jaren onderdeel van het dagelijks leven. Zonder algoritmen zou TomTom de weg niet kunnen vinden naar uw huis. Stoplichten zouden niet werken. Uw rekenmachine zou niet eens 1 + 1 kunnen uitrekenen. Toch heb ik nog nooit nieuwsberichten gelezen als: Calculator rekent ‘s-nachts stiekem eigen sommen uit. Of: Stoplicht zet bewust alle lichten op groen.
Algoritmen zijn niet de vijand
We moeten oppassen met antropomorfisme. Door algoritmen menselijke eigenschappen toe te dichten, lijkt het of een deel van de verantwoordelijkheid ook naar de machines verschuift. Algoritmen zijn niet de vijand. Ze zijn geavanceerd gereedschap in de handen van mensen zoals u en ik.
Dus ja, er schuilt gevaar in geautomatiseerde besluiten. We moeten voorkomen dat menselijke waarden geplet worden tussen de digitale walsen. Maar de ‘bias’ die we algoritmen kwalijk nemen is niets anders dan een optelsom van onze eigen historische vooroordelen en voorkeuren. Het is als boos worden op een spiegel omdat je haar niet goed zit.
De uitdaging van de komende jaren is nu om systemen te ontwerpen die onze eigen onvolmaaktheden neutraliseren. Wie zich daarvoor inzet krijgt van Alice en Bob een dikke like. Deal!