ChatGPT, Schrijf een goede titel voor dit stuk
Dit artikel werd oorspronkelijk gepubliceerd op 10 december 2022.
De laatste tijd heeft ChatGPT veel aandacht gekregen als een nieuwe vorm van kunstmatige intelligentie. ChatGPT is een taalmodel dat is getraind om natuurlijke taal te begrijpen en te genereren, wat betekent dat het in staat is om op een menselijke manier te communiceren. Dit maakt het een interessante technologie voor een breed scala aan toepassingen, van chatbots tot assistenten voor het automatiseren van klantenservice.
Omdat ik te lui was zelf een opening te schrijven voor deze column, heb ik het maar door ChatGPT laten doen [editors note: ondertussen begint iedereen en z’n hond stukjes over ChatGPT zo, maar ik wil duidelijk maken dat toen ik het deed het echt nog heel cool en nieuw was. Echt.]. Zoals het zelf al zegt, ChatGPT genereert teksten en kan op aanvraag stukjes schrijven: van programmeerfuncties tot verhalen in de stijl van Mart Smeets. En de resultaten zijn gewoon best wel vet. Goed, bij sommige vragen komt de bias van de data waar het algoritme van leert nog wat bovendrijven:
Daarnaast is het filosofisch ook nog niet ijzersterk, maar dat betekent niet dat het niet heel coole en indrukwekkende dingen kan doen.
Maar hoe dan Maarten?
Hoe werkt ChatGPT nou eigenlijk? Zoals bijna alle algoritmes was er vooral heel veel data nodig om ChatGPT te trainen. En ook zoals bij bijna alle algoritmes gaat het uiteindelijk om pattern-matching, oftewel patroonherkenning. Het algoritme gaat kijken of het relevante stukken kan vinden die de oplossing op de gestelde vraag kunnen samenstellen, en presenteert deze vervolgens op een menselijke manier. Dat begint dus bij de vraag zelf: kan het algoritme afleiden wat je nou precies bedoelt? Ergens is dit niet heel veel anders dan het begrijpen van een Google-opdracht, alleen is de zoekopdracht als een echte vraag verwoord in plaats van losse zoekwoordjes.
Daarna komt het presenteren van het antwoord op de vraag. Waar je met een Google-opdracht misschien op de site komt waar het antwoord te vinden zou kunnen zijn, is ChatGPT de overijverige assistent die er daadwerkelijk voor je induikt. Dus in plaats dat je op StackOverflow in de reactie op het vierde comment het stukje programmeercode vindt dat je nodig had, kan je het aan ChatGPT vragen en die geeft het je gewoon direct terug! En het werkt precies zo als je het algoritme vraagt een relaas te schrijven waarom coltrui-dragende mannen in strafkampen horen. Het zoekt naar relevante stukken (relazen, stukken over (col)truien, stukken waar iemand schrijft dat mensen in strafkampen horen) en combineert die tot het antwoord. En dat doet het ook nog eens vergezeld van een menselijk ogend stuk conversatie eromheen. Dat laatste is onder andere bewerkstelligd door Reinforcement Learning from Human Feedback. Door te kijken naar menselijke voorbeelden (waarbij de vraagsteller en de antwoordgever beide mensen waren) leerde het model hoe zo’n antwoord er ongeveer uit moet zien. Supertof toch?
Je gaat weer een kniesoor zijn, of niet Maarten?
Nou, een beetje. Want zoals ik al beschreef: het is echt wel heel erg tof om te zien hoe goed ChatGPT werkt. Hoe eenvoudig je dingen kan opzoeken, hoe leuk je ermee kan spelen. Maar, er zit altijd een harige vieze ‘maar’ om de hoek. Allereerst: het is veel minder slim dan mensen denken dat het is. ChatGPT is, zoals ik hierboven al beschreef, een superslimme zoekfunctie met wat glazuur. En dat klinkt neerbuigender dan ik het bedoel, want een geglazuurde superslimme zoekfunctie ís heel erg cool. Maar dat is wel wat het is: patroonherkenning en matchen, en het resultaat oppoetsen tot een menselijke conversatie. Het denkt niet na over wat het zegt, het beredeneert niet over wat het zegt, het weet niet wat het zegt. En belangrijk: het controleert niet of het klopt wat het zegt. Het kan dus vol zelfvertrouwen complete (echt klinkende) onzin teruggeven. Het algoritme vindt relevante teksten en geeft die, al dan niet in een ander jasje gegoten, terug. Als je het alleen maar traint op Teletubby-teksten zou elk antwoord overgoten zijn met Uh-Ohs en LALA’s.
Maar dat is niet het eind van mijn zurigheid. Er loeren immers nog andere gevaren en maren om andere hoeken. Want niet elk gebruik van ChatGPT is even ethisch. Wat als studenten bestaande teksten door middel van ChatGPT in een ander jasje gieten en zo inleveren bij hun docenten? Gaat de huidige plagiaatdetectie dat opmerken? Wat als je ChatGPT vraagt een gedicht te schrijven in de stijl van jouw favoriete dichter, over jouw favoriete onderwerp? Het algoritme heeft geleerd van het harde werk van die dichter, maar die krijgt vervolgens niets van de credits. En nou was het altijd al zo dat de meeste complottheorieën qua complexiteit door een aap met een typmachine in elkaar zouden kunnen worden geflanst, maar met algoritmes als ChatGPT is nepnieuws genereren al helemaal een peulenschil. Zoals bij elk stukje veelbelovende technologie is er ook een schaduwzijde waar we goed bij stil moeten staan.
Is het dan weer allemaal stom?
Nee, het is best wel te gek. Maar we moeten wel goed beseffen wat deze nieuwe technologie wel en niet kan. Wat het wel en niet betekent, en hoe we zorgen dat het niet (teveel) misbruikt wordt. Zoals er hard wordt gewerkt aan algoritmes die door algoritmes-gegenereerde plaatjes en kunst kunnen herkennen, lijkt het me ook goed om een zelfde soort detectie te ontwikkelen voor tekst. Ook wordt het steeds duidelijker dat we echt wat moeten gaan bedenken omtrent het eigenaarschap van bepaalde data. Mag een algoritme trainen op jouw teksten, jouw foto’s en schilderijen zonder dat jij daar iets van inspraak in hebt of er iets voor terug ziet?
De potentie van AI is enorm, en daarom is de verantwoordelijkheid die ermee gemoeid gaat precies even groot.