Kunnen onderzeeërs zwemmen?

“De vraag of computers kunnen denken is niet interessanter dan de vraag of onderzeeërs kunnen zwemmen.” Aldus de fameuze computerwetenschapper Edsger Dijkstra. Anderen vinden het blijkbaar toch interessant genoeg: er is momenteel behoorlijk veel aandacht voor de vraag wat AI nu eigenlijk doet. Kun je dat “denken” noemen? Of kun je op zijn minst vinden dat AI iets “begrijpt” of kan “redeneren”? De term Kunstmatige Intelligentie zelf is soms ook controversieel: het is helemaal niet intelligent! Als het kunstmatig is, is het niet intelligent, en als het intelligent is, is het niet kunstmatig. De woorden die we gebruiken doen er toe.

Een machine die een mens nadoet?!

Hij wilde ermee illustreren dat het vraagstuk niet zo interessant is, maar de vergelijking van Edsger Dijkstra zette mij wel aan het denken. Natúúrlijk kunnen onderzeeërs niet zwemmen! Ze váren, dat is iets heel anders. Zwemmen doe je met zwembewegingen, dat is wat anders dan een schroef die ronddraait.

Totdat ik me realiseerde: maar vliegtuigen dan? Die ‘vliegen’ met behulp van motoren en draaiende assen, dus net zoals onderzeeërs ‘zwemmen’. Voor dit type vliegen hebben we geen ander woord bedacht. We hadden het net zo goed ‘varen’ kunnen noemen. Dat blijkt wel uit woorden als ‘luchtvaart’ en ‘luchthaven’. Je gaat ook ‘aan boord’ van een vliegtuig.

Nu komen fysieke activiteiten als zwemmen en vliegen nog niet zo dichtbij, maar als het over denken gaat, komen er vragen.

Is de nobele sport schaken niet hét voorbeeld van menselijke creativiteit, karakter en denkkracht? Dat dachten we, totdat de schaakcomputer Deep Blue de wereldkampioen schaken kon verslaan. Wat te denken van lezen, schrijven en het hebben van een geheugen? We praten al tientallen jaren over computers in dit soort termen. Alsof het mensen zijn.

Kortom, dat machines iets menselijks zouden kunnen (na)doen is voer voor discussie. Maar laten we eerst eens naar het omgekeerde kijken: dat mensen juist vergeleken worden met activiteiten van machines. In welke termen praten we over zoiets abstracts als de menselijke geest?

Een mens die met een machine vergeleken wordt

In de oudheid werd kennis als licht gezien en onwetendheid als duisternis. “Er gaat me een lichtje op”. En Plato zag de ziel als een wagenmenner met twee paarden, een rationeel en een irrationeel deel, die de rede moest besturen

Later werden er ingewikkelde mechanische dingen als klokken uitgevonden. Descartes zag het brein als een klokwerk dat logisch redeneert. Toch een slimme man, die Descartes – er zat zeker geen schroefje bij hem los. Ook een uitspraak als “van slag zijn” geeft aan dat we dat beeld nog steeds af en toe nuttig vinden.

Met de komst van de stoommachine kwam er echt vaart in de machinemetaforen. Ook tegenwoordig zeggen we dat iemand “stoom moet afblazen” als “de stoom uit zijn oren” komt. Als je niet goed “op stoom komt” is er altijd wel iemand anders die “met stoom en kokend water” het werk weer in beweging kan zetten.

De elektromechanische apparaten die daarna kwamen leidden tot uitspraken als “ik heb even kortsluiting in mijn hoofd”, en als het heel ernstig is gaan mensen “op tilt”. Dit is een manier van spreken die uit de wereld van de flipperkasten komt, als beveiliging tegen valsspelen door optillen van het apparaat.

De werking van de computer gaf nog wat metaforen. “Ik moet dit even verwerken”, of “Zal ik je even updaten?”. Wat je wel minder hoort is dat mensen hun harde schijf even moeten wissen.

We hebben er dus kennelijk niet zo heel veel moeite mee om ons eigen denkproces soms als een machine te zien. Maar om een machine menselijke kenmerken toe te dichten, dat is andere koek!

Een machine met menselijk begrip?

Er zijn onderzoekers die vinden dat taalmodellen daadwerkelijk een model van onze (denk)wereld kunnen maken. De nieuwste ontwikkeling is om een model van onze hele wereld te maken, niet alleen van onze taal: wereldmodellen. Dat is nogal megalomaan, maar voor woordbetekenissen komen de bekende taalmodellen al behoorlijk ver. Met de techniek die we ‘word embeddings’ noemen, zijn in staat om concepten op zo’n manier vast te leggen dat daar in veel gevallen behoorlijk logische resultaten uit komen. (Wat zo’n word embedding is, heb ik in deze blog uitgelegd.)

Andere onderzoekers bestrijden dit.  Een bekend gedachte-experiment is de Chinese Kamer: een proefpersoon (die geen Chinees kent) zit in een afgesloten kamer en heeft beschikking over pen, papier en een dik boek met instructies. Via de brievenbus worden berichten in het Chinees bezorgd. In het dikke boek staat precies hoe gereageerd moet worden op welke karakters. Het is een heel dik boek: elke denkbare vraag wordt erin behandeld, inclusief vervolgvragen. De proefpersoon kan hiermee in het Chinees reageren op de berichten, zonder zelf ook maar het flauwste idee te hebben waar het over gaat. Als het instructieboek maar dik genoeg is (lees: als het Large Language Model maar groot genoeg is) dan kan het voor een buitenstaander lijken alsof deze de proefpersoon Chinees begrijpt – maar dat is niet het geval.

Een bekend kritisch volger van de AI hype, Emily Bender, heeft dit experiment nog wat aangescherpt en stelt dat begrip alleen mogelijk is als je ook ervaring hebt met de dingen waarover je praat. Het voorbeeld uit haar betoog: als je nooit een kokosnoot of een katapult gezien hebt, begrijp je ook niet wat een kokosnoot-katapult is.

Hier is weer van alles tegenin te brengen, en het is leuk om te zien dat deze discussie al eeuwenoud gevoerd wordt. Voer voor academici, maar hoe zit dat in onze dagelijkse samenleving?

Een consument die in verwarring is …

Ik heb AI al vaker vergeleken met voedsel: de AI Act vergeleken met regels over voedselveiligheid, en het gebruik van GenAI als het niet zelf maken van je eigen eten. Ook over de woorden die we gebruiken is er een mooie parallel: de uitbanning van vleesachtige woorden voor vleesvervangers. De officiële reden is dat de consument in verwarring zou raken, maar enig lobbywerk zal er ook wel aan te pas gekomen zijn.

Is het denkbaar dat er een vergelijkbare lobby vanuit Big Tech komt, om ervoor te zorgen dat hun AI-modellen ook echt officieel mogen ‘denken’? Het is een veeg teken dat veel grotere LLM’s inmiddels een ‘thinking mode’ hebben. Gelukkig is er de AI Act die verplicht stelt dat een aanbieder van AI er expliciet bij moet aangeven dat een gebruiker met een machine aan het chatten is en niet met een mens. In dit geval is de reden dat de ‘consument anders in verwarring zou raken’ wel een goede reden.

… dat is gevaarlijk

Het is natuurlijk niet goed voor ons ego als een verzameling silicium, metaal en plastic hetzelfde doet als wijzelf. Als ons ego het enige probleem was dan viel het nog wel mee. Een consument die in verwarring is klinkt misschien óók als iets wat nog wel meevalt, maar kan erg nare consequenties hebben. Denk aan chatbots die mensen met psychiatrische problemen naar de mond praten en ze aanzetten tot dramatische acties.

Het risico op vermenselijken van computers is reëel. Bij de allereerste chatbot, ELIZA, was het al zo dat de gebruikers het idee hadden dat ze heel erg persoonlijke gesprekken hadden. Mensen hebben nu eenmaal de neiging om ook in willekeurige beelden gezichten of andere dingen te herkennen: pareidolie heet dat. Aanbieders van chatbots lijken aan te moedigen dat hun gebruikers menselijke trekjes kunnen herkennen. Ze rusten hun diensten soms met een ‘persoonlijkheid’ uit en bepalen het gedrag van hun dienst in een ‘soul document’.

Een ander risico is onbetrouwbaarheid (meer daarover in een andere blog). Daar hebben we óók een menselijke term voor bedacht: hallucineren. Het is jammer dat die term gekozen is. Hallucineren is namelijk waarneming zonder zintuigelijke prikkeling en dat is hier niet aan de hand. Een veel betere term is confabuleren: dingen bedenken die logisch lijken maar het helemaal niet zijn. Onwaarheden vertellen zonder opzet is een bekend kenmerk van sommige vormen van dementie. Het is wel erg lastig dat AI taalmodellen zo overtuigend kunnen zijn als ze confabuleren. Nu zijn mensen ook niet altijd even geloofwaardig, maar de meeste onbetrouwbare mensen zijn lang niet zo overtuigend.

Niemand windt zich erover op dat onderzeeërs varen en niet zwemmen. Het maakt ook niet zo heel veel uit. Of een computer echt denkt, maakt ook niet zoveel uit. Maar consumenten die écht in verwarring raken, dat moeten we niet willen.

Posted in

Plaats een reactie