AI beter laten redeneren? Probeer Chain-of-Thought prompting

AI beter laten redeneren? Probeer Chain-of-Thought prompting

Grote AI-taalmodellen zijn goed in taken zoals het schrijven van teksten en vertalingen, maar hebben moeite met complexe problemen zoals rekenen en logische redenering. Dit komt doordat ze niet van nature stap voor stap denken. In dit artikel vertel ik hoe jij zelf de modellen wél stap voor stap kan laten denken.

We hebben lang gedacht dat AI-modellen simpelweg beter moesten worden door méér data en méér rekenkracht toe te voegen. Maar ondanks enorme sprongen in taalbegrip, bleven modellen worstelen met complexe redeneringen, zoals wiskunde of logische puzzels. Ze gaven vaak antwoorden die klonken alsof ze klopten, maar bij nadere inspectie complete onzin waren.

De keten van het denken

Dit veranderde toen onderzoekers een slimme truc ontdekten: Chain-of-Thought (CoT) prompting. In plaats van het model direct een antwoord te laten geven, voegden ze simpelweg een zinnetje toe: “Laten we dit stap voor stap oplossen.” Opeens begon AI de problemen wél logisch te ontleden en nauwkeurigere antwoorden te geven.

Eerder schreef ik over de Chinese uitdager van GPT, Llama en Gemini: DeepSeek. CoT werd in mijn optiek recent een hype toen DeepSeek liet zien hoe krachtig CoT-prompting kan zijn. Dit omdat het model standaard getraind is om deze manier van redeneren toe te passen.

Hierdoor werd het voor iedereen makkelijker om AI’s écht te laten ‘nadenken’ in plaats van alleen maar een gok te laten doen. CoT-prompting wordt nu gezien als een van de meest effectieve manieren om AI-modellen slimmer en betrouwbaarder te maken. Of het nu gaat om wiskunde, klantenservice of bedrijfsanalyses: AI kan eindelijk écht redeneren, en dat allemaal dankzij een simpele maar geniale prompting-techniek.

De kunst van het aansturen van AI

We hebben inmiddels verschillende typen prompting zien ontstaan.

Zero-shot prompting

Hierbij geef je het model een opdracht zonder voorbeelden. Dit is handig voor eenvoudige taken, maar minder geschikt voor complexe problemen.

Voorbeeld: “Schrijf een gedicht over AI.” Het model genereert een gedicht zonder verdere uitleg.

Few-shot prompting

Bij few-shot prompting geef je enkele voorbeelden om het model te helpen de structuur van een taak beter te begrijpen. Dit is nuttig voor meer gestructureerde taken, zoals samenvattingen of tekstvertalingen.

Voorbeeld: “Hier zijn twee samenvattingen van artikelen. Gebruik deze stijl om het volgende artikel samen te vatten.”

Active prompting

Bij active prompting evalueer je de output van het model en geef je feedback, zodat het zich kan aanpassen en verbeteren. Ik ben soms wel een uur bezig met een dergelijk gesprek te voeren.

Voorbeeld: “Dit antwoord is niet precies genoeg. Geef een gedetailleerdere uitleg en herformuleer de conclusie.”

Hoe kan je zelf Chain-of-Thought prompting gebruiken?

De afgelopen tijd heb ik veel geëxperimenteerd met het gebruik van CoT. Deze tips werken erg goed bij mij:

1. Gebruik een stapsgewijze prompt

Voeg “Laten we stap voor stap nadenken” toe aan je prompt om het model aan te moedigen logisch te redeneren.

Voorbeeld: “Wat is de wortel van 144? Laten we dit stap voor stap oplossen.”

2. Geef een goed voorbeeld

Laat het model leren van een zorgvuldig uitgewerkte redenering.

Voorbeeld: “Dit is hoe je een budgetanalyse maakt: eerst tel je alle inkomsten, daarna trek je de uitgaven af…”

3. Laat het model meerdere antwoorden genereren

Vergelijk de antwoorden en kies het meest consistente antwoord.

Voorbeeld: “Geef drie verschillende manieren om deze tekst samen te vatten en kies de beste.”

4. Gebruik active prompting

Geef feedback en laat het model de fout corrigeren.

Voorbeeld: “Je hebt de derde stap overgeslagen. Probeer het opnieuw en voeg die stap toe.”

Niet alle modellen werken goed met Chain-of-Thought prompting

Niet alle modellen werken goed met CoT heb ik gemerkt. Onderzoek toont ook aan dat CoT-prompting het beste werkt met grote taalmodellen (100+ miljard parameters) zoals GPT-4, en DeepSeek. Kleinere modellen hebben moeite met lange, logische denkstappen.

Een aantal andere zaken die in mijn optiek belangrijk zijn in het CoT-gebruik:

  • Zelf-consistentie: het model meerdere keren hetzelfde probleem laten oplossen en het meest logische antwoord kiezen. Dit helpt fouten verminderen en zorgt voor betrouwbaardere antwoorden.
  • Robuustheid: CoT prompting werkt goed, ongeacht de schrijfstijl van de voorbeelden. Dit betekent dat je niet perfect geformuleerde voorbeelden hoeft te geven.
  • Gevoeligheid voor prompts: Een slecht geformuleerde prompt kan ervoor zorgen dat CoT niet goed werkt. Zorg ervoor dat je duidelijke instructies geeft en de vraag helder is.
  • Coherentie: De denkstappen moeten logisch op elkaar volgen. Als een tussenstap ontbreekt of verkeerd is, leidt dat tot fouten in de uiteindelijke conclusie.

Chain-of-Thought prompting is in mijn optiek echt grensverleggend voor AI. Ik merk echt dat het de output heel sterk verbetert. Met de juiste prompts en het juiste gebruik, stel je AI in staat om beter na te denken, meer accurate antwoorden te geven en complexe problemen op te lossen.

Begin met eenvoudige taken en voeg stap voor stap redenering toe. Je zult merken dat AI niet alleen slimmer reageert, maar ook inzichten geeft die anders verborgen blijven. Heb je nog een aanvullende tip? Deel hem hieronder in de reacties!

Blog