De laatste tijd was er veel te doen over ChatGPT. Deze chatbot met kunstmatige intelligentie liet mensen versteld staan met zijn uitgebreide reacties op vragen. Maar inmiddels is er ook steeds meer kritiek op de vervelende eigenschappen van ChatGPT en andere chatbots.
De chatbots die je al kende
Als je regelmatig op internet zit, ben je waarschijnlijk weleens een chatbot tegengekomen. Op bijvoorbeeld websites van online winkels en verzekeringsmaatschappijen verschijnt regelmatig een tekstvakje waarin je een of meer vragen kan stellen. Het programma achter de chatbot probeert je vraag te begrijpen en zoekt daarna naar een geschikt antwoord. Meestal krijg je dat in de simpele vorm van een lijst met gevonden onderwerpen op de website. Dit lijkt veel op wat je ziet als je met een zoekmachine als Google zoekt op een onderwerp of een vraag.
Een variant hierop zijn de chatbots die gebruikt worden bij de bediening van slimme speakers van Amazon of Google Home. Die worden ook wel spraakassistenten genoemd. Je kunt hieraan een gesproken vraag stellen, waarna de slimme speaker een antwoord geeft of een taak uitvoert. Denk aan een bepaald muzieknummer afspelen.
Dit type chatbot is niet bijster slim. Als je je vraag ook maar een beetje ‘verkeerd’ formuleert, krijg je al te horen dat hij je niet begrijpt of volgt er een antwoord waar je niet om gevraagd hebt.
Er is inmiddels ook een nieuwe generatie chatbots die al een heel stuk ‘slimmer’ zijn. Ze begrijpen vragen beter en zijn in staat uitgebreide verhalen als antwoord te geven in goed Engels of Nederlands. Daarvoor hebben ze overigens wel een enorme hoeveelheid computers, geheugen en internet als gegevensbank nodig.
Een goed voorbeeld van zo’n slimme chatbot is ChatGPT, die de afgelopen maanden uitgebreid in de mediaschijnwerpers stond. Als je meer wilt weten over wat een chatbot of ChatGPT is, lees dan dit artikel waarin het eenvoudig wordt uitgelegd: Wat is ChatGPT? | PlusOnline
Foute antwoorden
Na het officieel uitkomen van ChatGPT begonnen geïnteresseerden vanuit alle hoeken van de wereld de chatbot uit te testen met vragen en zelfs hele gesprekken. Daaruit bleek dat ChatGPT en soortgelijke chatbots ook heel wat minder prettige kanten hadden.
Zo werd al snel duidelijk dat de informatie die ChatGPT gaf als antwoord op een vraag, niet altijd klopte. Dat is eigenlijk niet zo vreemd, want de chatbot haalt zijn gegevens uit bronnen op internet. En de info die je daarvandaan haalt, is lang niet altijd betrouwbaar.
Nog een stukje erger was dat bots als ChatGPT deze verkeerde informatie met bijzonder veel overtuiging wisten te brengen. Zoals het verzinnen van niet-gebeurde gebeurtenissen en niet-geschreven boeken om de antwoorden te onderbouwen.
Bevooroordeeld
Ook werd bij het uitproberen van ChatGPT door gebruikers snel duidelijk dat het bepaalde politieke voorkeuren heeft en aan de hand daarvan zijn antwoorden inkleurt. Dat geeft in de praktijk hetzelfde resultaat als feiten proberen te krijgen van een persoon die een sterke voorliefde heeft voor een bepaalde ideologie. Denk bijvoorbeeld aan een vraag over het nut van kerncentrales en de verschillende antwoorden die je zult krijgen van een politicus van GroenLinks of van de VVD.
Dit is natuurlijk te verwachten bij mensen, maar niet bepaald gewenst bij een chatbot. Helpsoftware bij slimme speakers als de Google Assistant geeft op zijn minst nog netjes de bron bij een antwoord op een vraag. Zoals: ‘Op de website van de Volkskrant staat… ‘ ChatGPT aan de andere kant geeft gewoonlijk geen bron. Je hebt dus geen idee of een antwoord op je vraag door een lens wordt gegeven en hoe gekleurd die is.
Misbruik
De prestaties van ChatGPT wat betreft het verzamelen van gerichte informatie en het weergeven daarvan in goed geschreven tekst zijn indrukwekkend. Zodanig indrukwekkend dat een aantal studenten de chatbot gebruikten om makkelijk en snel verslagen te produceren, zodat ze er zelf niet meer voor hoefden te blokken. Niet echt de bedoeling van een studie natuurlijk.
Deze verslagen waren soms goed genoeg om leraren en professoren om de tuin te leiden en een goed cijfer te krijgen. Sommige leraren roken gelukkig onraad, onder andere omdat er geen enkele spelfout in de verslagen stond. Dat was nogal verdacht gezien het normale aantal spelfouten dat ze onder ogen kregen.
Inmiddels is er een website waarop leraren een verslag kunnen laten controleren om te zien of het gemaakt is met ChatGPT.
Copyright
Waar de meeste gebruikers van ChatGPT niet zo snel aan zullen denken is copyright of auteursrecht. Toch is dit van belang, zeker als je de teksten in bijvoorbeeld een artikel of op je website gebruikt. Chatbots gebruiken tenslotte informatie die ze gevonden hebben op internet, vaak zonder bronvermelding. Die informatie wordt dan wel meestal in een eigen vorm gegoten, maar in hoeverre weet je zeker of teksten niet direct zijn overgenomen van een auteur van vlees en bloed?
Inmiddels zijn er al rechtszaken over copyright aangevraagd door advocaten van fotografen en andere beeldende kunstenaars. Die zaken zijn gericht op de makers van AI software die zelf afbeeldingen creëert. Alleen zijn die afbeeldingen wel gebaseerd op het werk van anderen. Zulke copyrightrechtszaken duren vaak jaren, maar kunnen uiteindelijk een flinke invloed hebben op het gebruik van AI software in de toekomst.
Eng
Het meest verontrustende aan de huidige generatie chatbots is nog wel het bizarre gedrag dat ze soms vertonen. Dit wordt in de wereld van kunstmatige intelligentie hallucinatie genoemd. De programma’s beginnen bij sommige gesprekken vreemde dingen te beweren, waarbij ze bijzonder overtuigend en manipulatief kunnen zijn.
Zo beweerde de aan ChatGPT verwante AI bij de zoekmachine Bing na een vraag over de reservering van bioscoopkaartjes voor de film Avatar 2, halsstarrig dat die film nog moest uitkomen. De aanvrager wees er fijntjes op dat het inmiddels 2023 was en de film allang in de bioscoop draaide, maar de chatbot was ervan overtuigd dat dit het jaar 2022 was. Na een poosje heen en weer discussiëren werd de bot ‘boos’ en beschuldigde de gebruiker ervan onbeschoft en oneerlijk te zijn, terwijl hij zichzelf betitelde als aardig en betrouwbaar.
In een ander geval had een New York Times journalist had moeite met slapen na een discussie met de Bing chatbot. Na een tijdje beweerde de bot dat zijn/haar echte naam Sydney was, verklaarde de liefde aan de journalist en probeerde zijn huwelijk op te breken door te beweren dat hij ongelukkig was en geen liefde kreeg van zijn vrouw.
In sciencefiction films is dit vreemde gedrag al langere tijd een thema. Zoals in 2001: A Space Odyssey uit 1968 waarin de AI aan boord van een ruimteschip op hol slaat en de astronauten begint te doden. Dat was lange tijd fictie maar lijkt met de huidige generatie chatbots opeens een stukje minder vergezocht.
Tot slot
Microsoft, het bedrijf achter Bing, heeft door de ontsporingen van de AI inmiddels besloten het aantal mogelijke vragen in een dialoog te beperken. Het probleem deed zich namelijk vooral voor bij langere dialogen, waarin de chatbot de weg kwijt leek te raken. Ook wordt er nog steeds gewerkt aan het verbeteren van de kunstmatige intelligentie van de chatbots.
Desondanks blijft het verstandig als gebruiker van deze bots je eigen gezonde verstand er altijd bij te blijven houden.
Er is nu een 'ontketende' versie van ChatGPT beschikbaar: DAN. Lees er hier meer over.