Geletterdheid als weerwoord tegen AI-magie

Zo rond 2018 is de eerste groep kinderen geboren die hebben leren lezen en schrijven in een wereld waarin ChatGPT al bestond. Voor hun is een chatbot waarschijnlijk iets heel gewoons. Bij een klein aantal zal er verbazing zijn “hoe kan dat eigenlijk?”: die gaan dan later AI studeren. Maar de anderen maken gewoon gebruik van die chatbots.

Iets wat al bestaat als je bezig bent op te groeien neem je als gegeven. De rest van je omgeving is totaal niet verbaasd. Veel kinderen zullen wel eens vragen “waarom komt de zon elke dag op?” maar bij weinigen is de verbazing zó groot dat ze later astronoom worden.

Je groeit dus op met een technologie of een ander verschijnsel wat al bestaat – je leert hoe het werkt omdat je ziet hoe anderen ermee omgaan. Je bouwt zo een intuïtief begrip op over dat verschijnsel. Dat wordt ook wel een ‘mentaal model’ genoemd. Dat hoeft niet een technisch correct model te zijn: van de zon is ook eeuwen lang gedacht dat die om de aarde draait in plaats van andersom.  Maar het hielp wel om het fenomeen te begrijpen.

Het idee van technologiegeneraties gaat er vanuit dat een nieuwe technologie met vallen en opstaan door de maatschappij wordt omarmd, waarna de jongeren die de technologie van het begin af aan hebben meegemaakt, er op een redelijk natuurlijke en effectieve manier mee omgaan.

De digitale vaardigheden van de leeftijdsgroep 16-24 zijn net zo hoog als die van 25-34, daarna geldt: hoe ouder, hoe minder digitaal vaardig. Kennelijk was de digitale wereld in 2023 gestabiliseerd, toen Eurostat het onderzoek deed: de allerjongste generatie was niet meer vaardiger dan de één-na-jongste generatie. Die laatste groep is ouder, maar heeft toch dezelfde hoge digitale vaardigheid; ze zijn dus rond 1990 geboren en zij waren dus beginnenden pubers toen internet ‘ontplofte’ met social media. Zij worden meestal ‘digital natives’ genoemd, ter onderscheid van de oudere ‘digital immigrants’. Dat er twee generaties met dezelfde hoge vaardigheden zijn, doet vermoeden dat het internet niet echt heel erg veranderd is in die tijd. Toevallig is 2023 wel het jaar dat ChatGPT is gelanceerd!

Als er iets heel nieuws tevoorschijn komt gaat het anders. Dan heeft iedereen dezelfde vragen waar het vandaan komt, welke betekenis het heeft en hoe het werkt. Mensen die het antwoord menen te hebben leggen dit dan uit. Wetenschappers doen dit, en vroeger waren dit profeten. Kometen die aan de hemel verschenen werden dat als het einde der tijden gezien.

De manier waarop jongeren zo’n mentaal model ontwikkelen lijkt op hoe kinderen hun moedertaal leren: door observeren, proberen en vrijwel zonder uitleg. Het op latere leeftijd leren van een nieuwe taal gaat meestal heel anders: grammaticaregels leren, woordenlijstjes stampen en met veel begeleiding. Inderdaad: dat is het verschil tussen data-gedreven AI-systemen en kennisregel-gedreven AI-systemen, zoals in mijn vorige blog beschreven. We kennen misschien de PC cursussen nog wel die onze (groot)ouders volgden toen in de jaren 80-90 veel “PC Privé” projecten werden gestart. Eerst de handleiding lezen!

Mentale modellen en geletterdheid

Er is de laatste tijd aandacht voor ‘AI geletterdheid’. Ook de AI Verordening van de Europese Commissie vereist dat wie met AI werkt, ook een basisbegrip moet hebben van wat AI wel kan en wat AI niet kan. Geletterdheid is een term die wel eens wordt begrepen als alleen kunnen lezen en schrijven. Maar dat is niet voldoende: bij lezen moet je ook kunnen begrijpen wat er staat en bij schrijven moet je toch wel een enigszins logisch en begrijpelijk verhaal kunnen opzetten.

Geletterdheid gaat dus verder dan de buitenkant. AI-geletterdheid is nog niet zo goed omschreven, maar wat mij betreft is het hebben van een goed mentaal model van AI daarin één van de belangrijkste dingen. In het onderzoek naar gebruiksgemak (vooral van apps en webpagina’s) is het belang van een mental model allang breed erkend. Ze moeten bijvoorbeeld op eerdere en vergelijkbare ervaringen zijn gebaseerd en de gebruiker helpen om te voorspellen wat er gaat gebeuren. Een winkelwagen icoon (waar je bestellingen in terechtkomen) of een vergrootglas (voor zoeken) zijn daar voorbeelden van. Metaforen uit de fysieke wereld helpen daarbij. Daarom is het ‘opslaan’ icoon jarenlang een floppydisk geweest. Pas toen jongeren bij het zien van een echte fysieke floppydisk opmerkten “hey, dat is een 3D-geprint ikoontje!” werd het tijd om dat te veranderen.

De manier waarop een stuk technologie gepresenteerd wordt kan dus helpen om het mental model te ondersteunen.

Bij chatbots gaat dit mis. Ze zijn getraind om menselijk te klinken, overtuigend en redelijk te zijn.  Het mentale model ‘dit is een computer die in een datacentrum in de polder staat’ wordt daarmee onmogelijk gemaakt – en mensen gaan een persoonlijke band ontwikkelen. Het helpt al helemaal niet dat er woorden worden gebruikt die chatbots nog menselijker maken: over denken heb ik al eens eerder geschreven, maar wat te denken van ‘persoonlijkheid’ of ‘ziel’? Er wordt wel beweerd dat het Pentagon de AI-chatbot van Anthropic (Claude) als een ‘supply chain risk’ beschouwde omdat deze een ziel zou hebben, en ook een grondwet – die natuurlijk niet de Amerikaanse grondwet was.

Hoe intimiderend de technologie ook mag lijken, voor literacy is het belangrijk dat er geen angst is om op zijn minst een keer onder de motorkap te hebben gekeken. De bestuurders van de allereerste auto’s moesten zelf een halve werkplaatsmonteur zijn (ze hadden ook een gereedschapskist aan boord), maar dat is niet meer nodig. Zelfs de meest niet-technische bestuurder weet dat de benzinetank (of accu) leeg kan raken en dat je dan moet tanken (of laden), dat banden lek kunnen gaan en de ruitenwisservloeistof soms bijgevuld moet worden.

Mentale modellen voor AI – wat zouden die moeten inhouden?

AI is heel abstract. Alles zit achter een schermpje verstopt en wat erachter zit kun je niet zien. Het opbouwen van een mentaal model van internet was al lastig (“mijn google doet het niet” als de wifi eruit ligt) maar voor AI is nog een slagje moeilijker. Daarom is een mentaal model hier zo belangrijk. Het is fijn als het ook technisch enigszins klopt maar het belangrijkste is dat het je ook helpt te snappen wat er gebeurt.

Een voorbeeld. Je leest wel eens dat een LLM een opgevoerde voorspelmachine voor woorden is. Technisch gezien is dat wel te verdedigen, maar het draagt maar beperkt bij aan het begrip van wat een LLM wel of niet kan. Een auto is een serie gecontroleerde ontploffingen op vier wielen, en schaken is het verplaatsen van stukken hout over een bord met 64 vlakjes.

Je kunt een beeld ook té simpel maken.

Anderzijds: magisch denken helpt ook totaal niet. De science fiction schrijver Arthur C Clarke zei al “Elke voldoend geavanceerde technologie ziet eruit als magie”. Larry Tesler vulde dat in 1970 in voor AI:  “AI is wat nog niet gedaan is”. (En, zo voegde Benedict Evans toe, als het wel gedaan is, dan blijkt het gewoon software te zijn.)

Vandaar deze serie blogs over AI, waarbij ik steeds een vergelijking trek met technologie of andere verschijnselen die we al jaren kennen. Vaak zijn er verrassend veel punten waarbij de analogie goed genoeg klopt om hanteerbaar te zijn. Dat maakt het inzichtelijk voor iemand die AI geletterd wil worden en ook makkelijker te begrijpen.

Ik heb een volledig overzicht van alle analogieën die ik tot nu toe heb gevonden bij elkaar gezet. Daarin is te zien dat het op de één of andere manier nuttig blijkt om parallellen te trekken met auto’s en alles wat daarmee samenhangt. Een andere analogie (waarvan ik verwacht dat ik er binnenkort nog wel dieper op in kan gaan) is alles wat met voedsel te maken heeft. Soms zijn analogieën uit de topografie nuttig, of historische vergelijkingen.

Het belang van geletterdheid

Geletterdheid is niet alleen belangrijk als je soepel met een nieuwe technologie wilt kunnen omgaan. Het helpt ook enorm om te voorkomen dat je overmatig veel of juist te weinig vertrouwen hebt: vertrouwen op AI is gevaarlijk, niet vertrouwen ook. Het helpt om beter te kunnen bedenken of iets wel echt is, zoals bij nepnieuws of de technieken die cybercriminelen gebruiken om je geld afhandig te maken. En het helpt om de juiste soort AI te kiezen: AI is niet één ding, maar een heel wagenpark.

Leren doet iedereen met vallen en opstaan, en Silicon Valley vertaalt dat als “move fast and break things”. Bij krachtige technologie als AI vind ik dat niet zo’n goed idee. Die gigantische focus op snelheid is bedrijfseconomisch misschien wel begrijpelijk, maar die snelheid helpt zeker niet voor het opbouwen van een goed mentaal model. Ik hoop maar dat we later op deze periode kunnen terugkijken zoals we op de periode van de internetbubble kunnen terugkijken: als je er middenin zit gaat alles supersnel en is de hele wereld verwarrend, maar achteraf, een paar jaar later, zijn al die mentale modellen wel zo’n beetje ontwikkeld en kunnen we ons vrolijk op een nieuwe hype gaan storten.

Posted in

Plaats een reactie