1. Home
  2. Science Stories
  3. Waarom ChatGPT slechte sinterklaasgedichten schrijft
Leestijd: 5 min.
Delen

Waarom ChatGPT slechte sinterklaasgedichten schrijft

Stel je voor: Sinterklaasavond. Je tikt zenuwachtig op je telefoon en vraagt ChatGPT nog snel even om een gedicht. Het resultaat is… ehm, tja… Niet om over naar huis te schrijven. Waarom kunnen AI-modellen zoals ChatGPT vaak niet goed rijmen? Thijs van Ede, AI-onderzoeker van de Universiteit Twente, weet wel waarom en geeft uitleg over AI en rijmen.

Foto van Kees Wesselink - Schram
Kees Wesselink - Schram
Sinterklaasdecoratie met schoen, snoepgoed naast sinterklaasgedicht waar AI-taalmodellen zoals ChatGPT moeite mee hebben.

Rijmen doe je niet op letters, maar op klanken. Iets dat AI-modellen maar moeilijk vinden. Je pakt een woord, luistert naar de laatste lettergreep, en zoekt iets met dezelfde klank. Bijvoorbeeld: jaar → -aar → haar, daar, maar.
Dat werkt prima zolang geschreven letters en uitspraak netjes overeenkomen. Problemen ontstaan wanneer lettergrepen gelijk lijken maar anders klinken.

Een mooi voorbeeld: “Ik was in een gulle bui, dus hier zijn wat pennen voor in je etui.” Op papier lijkt het mooi, maar hardop klinkt het nergens naar. Dat heet oogrijm: leuk voor een flauwe grap, nutteloos in een gedicht. En voor een computer die alleen tekst ziet? Een drama. AI en taalmodellen begrijpen klanken niet.

De menselijke aanpak van Mick’s rijmwoordenboek

Toch bestaat er software die wel kan rijmen: Mick’s rijmwoordenboek. Hoe dat werkt? “Eigenlijk is het een soort crowdsourcing”, legt Van Ede uit. “Mick heeft, waarschijnlijk met hulp van vele andere mini-dichters, handmatig van woorden gemarkeerd hoe het rijmen ging.” Zo ontstaat een enorme database vol echte rijmparen. Dat werkt goed, want het rijmwoordenboek hoeft de woorden niet in een kloppende zin te zetten. Dat doe je zelf.

Waarom ChatGPT niet kan rijmen

ChatGPT werkt heel anders. Het AI-taalmodel heeft geen rijmwoordenboek en kijkt niet naar klanken. Het voorspelt simpelweg het meest logische volgende stukje tekst. Daarvoor knipt het je zin in kleine brokjes (tokens) en laat die door een transformermodel lopen: een systeem dat voorspelt hoe teksten meestal verdergaan.

Handig bij zinnen als “To be or not to… be”. Maar bij “Sinterklaas zat te denken, wat hij jou zou…” kiest ChatGPT vooral woorden die het al duizenden keren heeft gezien. Niet per se de rijmende. Zo blijft het soms steken op een anticlimax als: “Sinterklaas zat te denken, wat hij jou zou… zeggen?”

Kan ChatGPT beter worden in rijmen?

Zeker. Grote taalmodellen leren door betere data en feedback. Hoe meer voorbeelden van echt goed gerijmde gedichten, hoe beter het gaat. “Een paar jaar geleden was er geen rijm te bekennen,” zegt Van Ede. “Nu zal je af en toe een acceptabel sinterklaasgedicht herkennen.”

Een andere optie: modellen koppelen aan externe databases. Als je nu ChatGPT vraagt om het weerbericht stuurt het een verzoek aan een database (een query) met het actuele weer. Die data geeft ChatGPT een mooie opmaak en zo krijg je toch kloppende informatie.

Stel je een “rhyming query” voor naar een echt rijmwoordenboek (zoals die van Mick) om rijmwoorden te checken. Of naar een fonetische database. In zo’n database worden de klanken van woorden opgeslagen. Dan kan een model wel controleren of klanken matchen.

Hoe AI hackers te slim af kan zijn

Begrijpen hoe AI-modellen met taal omgaan, helpt ook bij cyberveiligheid. Als universitair docent AI & Security onderzoekt Dr.ir. Thijs van Ede hoe slimme taalmodellen beveiligingslekken kunnen opsporen: plekken waar hackers kunnen binnendringen of waar systemen zich vreemd gedragen. Grote taalmodellen herkennen patronen in enorme hoeveelheden informatie, en die kracht gebruikt Van Ede om digitale systemen veiliger te maken. Hard nodig, want cyberaanvallen worden steeds slimmer, sneller en moeilijker te detecteren.

Kom studeren aan de Universiteit Twente

Vond je dit een boeiend artikel? Dan vind je deze studie(s) misschien ook interessant.

Gerelateerde verhalen