Per ongeluk bewust
Google engineer Blake Lemoine was ervan overtuigd dat LaMDA (Language Model for Dialog Applications) zelfbewust was geworden. Ik moet bekennen dat ik toen ik het las meteen dacht ‘nee dat is het niet’, nog voordat ik ook maar iets van de feiten van de zaak wist. En terecht.
Dat klinkt wellicht een beetje vreemd, maar ik zal proberen uit te leggen waarom het dat niet is. LaMDA is een systeem wat is getraind om patronen in taal te herkennen en vervolgens woorden aan te vullen (zoals bij autopredict), of het antwoord op gestelde vragen te vinden (zoals bij bijvoorbeeld Google’s zoekfunctie). Wat er achter de schermen gebeurt is dat in enorme bakken data wordt gekeken: is deze vraag (of ééntje die daar op lijkt) al eens eerder gesteld? En zo ja, wat voor antwoorden werden toen gegeven? Daar zitten heel wat slimme techniekjes bij: zo worden woorden wiskundig gerepresenteerd zodat makkelijk kan worden gekeken welke woorden dichtbij het woord wat je zoekt zitten, zo wordt er een gewicht toegekend aan de bron zodat het antwoord wat een arts geeft op de vraag ‘ik heb jeuk aan mijn linkerbal, betekent dat dat ik doodga?’ wat zwaarder meeweegt dan de meute Facebook-moeders die die vraag met ‘ja’ en ‘smeer hem in met verguisde tijgerpenis’ beantwoorden, enzovoorts.
Dat is natuurlijk best wel gaaf, maar zelfbewust is het niet bepaald. Het idee dat een taalgenerator per ongeluk zelfbewustzijn opbouwt (een opgave waar wetenschappers zich al decennia onsuccesvol over buigen) is een flinke belediging voor de complexiteit van zelfbewustzijn, en een enorme overschatting van het redeneervermogen van een dergelijk algoritme. Het is een typisch menselijk dingetje om onze manier van denken en redeneren op allerlei (vaak eenvoudige of stompzinnige) andere dingen te plakken. Als een algoritme een patroon nadoet (door bijvoorbeeld menselijke gesprekken te immiteren) gaan we er al snel vanuit dat het op dezelfde manier als wij (namelijk: begrip en redeneren) tot die antwoorden komt, terwijl dat helemaal niet het geval hoeft te zijn.
Maar dus nog even voor de duidelijkheid: niets hiervan maakt LaMDA zelfbewust. Het algoritme is in de kern niet meer dan een patroonvergelijker: kan ik het patroon in de vraag matchen met een patroon in mijn dataset. Het is zich nergens van bewust, en om te zeggen dat het redeneert over de keuzes die het maakt is het aardig oprekken van wat we onder beredeneren verstaan. De claim dat per ongeluk zelfbewustzijn zou zijn gecreëerd uit een tekstgenerator zou niet serieus moeten worden genomen, en zou bij de allereerste navraag bij iemand met ook maar half verstand van zaken al in de prullenbak moeten belanden. Laten we het daar nu dan ook achterlaten.