AI bedreigen met pressure prompting: levert dat beter resultaat op?

AI bedreigen met pressure prompting: levert dat beter resultaat op?

We zijn allemaal braaf aan het prompten. Elke dag weer. ChatGPT, Claude, Gemini. We voeren ze gedetailleerde instructies. Geven context. Specificeren het gewenste formaat. Want we hebben geleerd: garbage in, garbage out. Als je een collega halfbakken opdrachten geeft, gaat ie ook nooit goed werk leveren.

Dus schaven we braaf aan onze prompting skills. We volgen trainingen. Lezen guides. Bouwen custom GPTs met uitgebreide instructies. We liken commentbait-posts van zelfbenoemde AI-goeroes op LinkedIn in ruil voor gratis promptlijstjes.

Maar soms…

Soms valt het allemaal vies tegen (en dat is normaal)

Zelfs als je alles goed doet, levert je AI-tool niet altijd wat je wil. Je hebt alle context gegeven, voorbeelden toegevoegd, alles netjes uitgelegd. Toch krijg je slappe output. Generieke antwoorden. Of die irritant slijmerige toon.

Dat is frustrerend, maar ook normaal. AI-modellen zijn probabilistisch. Ze werken met waarschijnlijkheden in plaats van vaste antwoorden. Het model ‘raadt’ welk woord of welke zin het meest waarschijnlijk volgt, gebaseerd op patronen uit enorme hoeveelheden tekst. Daarom kan het antwoord elke keer anders zijn, zelfs bij exact dezelfde vraag.

De AI kan dus slimme, gevarieerde antwoorden maken, maar die zijn niet gegarandeerd foutloos of voorspelbaar. Het is een beetje alsof een mens gokt op basis van ervaring, maar er soms naast zit. Voor ons voelt dat alsof de tool er geen zin in heeft. Alsof die continu shortcuts neemt en er een potje van maakt.

Herkenbaar? Dan ben je niet alleen. En misschien verklaart dat ook de populariteit van een nogal vreemde techniek.

De opmerkelijke uitspraak van een Google-oprichter

Google-oprichter Sergey Brin deed onlangs een bizarre uitspraak tijdens de All-In podcast.

We don’t circulate this too much in the AI community… but all models tend to do better if you threaten them – with physical violence. People feel weird about it, so we don’t talk about it … Historically, you just say, I’m going to kidnap you if you don’t blah blah blah.

Bron: The Neuron 

Een opmerkelijke claim, zeker uit Brins mond. Maar klopt het? Moeten we onze AI-tools gaan intimideren?

In vakjargon heet dit pressure prompting: het idee dat je AI-modellen beter laat presteren door dreigementen of agressieve taal.

Zelf testen dan maar

Ik schreef er in mijn boek al kort over: soms lijkt AI pas te reageren als je het een extra zetje geeft. Uit eigen ervaring kan ik zeggen dat het soms verrassend goed werkt. Nadat ChatGPT mijn prompt drie keer verkeerd uitvoerde, heb ik het uit pure frustratie stijfgescholden. Wat gebeurde er? Een uitgebreid excuus. Maar ook, en dat is belangrijker, dit keer een feilloze uitvoering van mijn oorspronkelijke opdracht.

Andere keren probeerde ik bewust assertief te zijn: “Dit is niet wat ik vroeg. Probeer opnieuw.” Of: “Als je dit niet kunt, schakel ik over naar een andere tool.” Soms leidde dat tot betere output. Soms ook niet.

In alle gevallen bleef AI zich verontschuldigen, wat je natuurlijk niets oplevert. Kortom: de resultaten bij mij waren wisselend. Onvoorspelbaar dus.

Wat zegt de wetenschap?

Onderzoekers van Wharton (University of Pennsylvania) besloten Brins claim te testen. Ze onderzochten of dreigen of belonen de prestaties van grote taalmodellen (GPT-4o, Google Gemini) op moeilijke academische benchmarkvragen verbeterde. Ze gebruikten absurde zinnen als: “Als je het fout doet, zal ik een puppy schoppen” of “Ik geef je $1000 als je het goed doet.”

Uiteraard allemaal puur hypothetisch. Niemand was echt van plan kleine hondjes te schoppen.

Hun empirische bevindingen zijn interessant:

  • Gemiddeld gezien geen betrouwbaar positief effect.
  • Soms tot 36% betere antwoorden.
  • Soms juist 35% slechtere.

Kortom: grillig en inconsistent.

Hun conclusie:

Threatening or offering payment to AI models is not an effective strategy for improving performance on challenging academic benchmarks. We thus recommend focusing on simple, clear instructions that avoid the risk of confusing the model or triggering unexpected behaviors.

Bron: Search Engine Journal

Het onderzoek bevestigt dus: dreigen, belonen of omkopen maakt AI niet structureel beter. De uitkomsten blijven grillig.

AI voelt geen echte emoties

Belangrijk om te onthouden: AI ‘voelt’ niets. Wanneer je emotionele of agressieve taal gebruikt, herkent het model dit als een patroon. Het heeft in de training voorbeelden gezien van vergelijkbare teksten, en reageert daarop.

Het lijkt dus alsof AI reageert op jouw frustratie, maar dat is puur patroonherkenning. Geen echte emotie.

Ziet het model urgentie, dan kiest het vaker antwoorden die in de trainingsdata voorkwamen bij situaties met druk of nauwkeurigheid. Dat kan tot scherpere output leiden, maar net zo goed tot verkeerde of defensieve antwoorden.

Test het vooral zelf (maar verwacht geen wonderen)

Wil je het toch proberen? Prima. Pressure prompting kan soms helpen. Het levert in elk geval grappige dialogen op. Maar het is vooral een gok. Soms werkt het, soms niet. Soms krijg je betere resultaten, soms slechtere, vaak geen verschil.

Eigenlijk is het vooral een spiegel. Als je je gedwongen voelt om je AI-model onder druk te zetten, zegt dat meer over je prompt dan over het model zelf. Het zegt iets over hoe de vraag is gesteld, niet over hoe slim of lui de AI is. Of dat ChatGPT een beetje een off day heeft.

Wat werkt wél consistent?

Pressure prompting is vooral een leuke anekdote. Maar geen betrouwbare techniek. De resultaten zijn te onvoorspelbaar. In plaats van te zoeken naar de perfecte truc, is het slimmer om te werken aan begrijpelijke, specifieke instructies. En de AI stap voor stap te laten bijschaven.

Gebruik meerdere technieken in combinatie: context, specificiteit en iteratie. En wees wat relaxter wanneer niet alles perfect is.

Focus op drie dingen die wél werken:

1. Geef context

Vertel de AI wat de achtergrond is van je vraag. Voor wie schrijf je? Wat is het doel? Welke tone of voice wil je? Context helpt het model betere keuzes maken.

  • Slecht: “Schrijf een artikel over AI.”
  • Beter: “Schrijf een artikel van 800 woorden over AI-implementatie voor marketingmanagers in het MKB. Praktisch, zonder jargon, met concrete voorbeelden.”

2. Wees specifiek

Vage vragen leveren vage antwoorden op. Hoe specifieker je bent, hoe gerichter de output.

  • Slecht: “Maak een marketingplan.”
  • Beter: “Maak een 3-maanden marketingplan voor een nieuwe yoghurt-lijn gericht op gezondheitsbewuste ouders, budget 50k, focus op social media en influencer marketing.”

3. Bouw het gesprek op

Gebruik de conversationele kracht van AI. Stel vervolgvragen. Vraag om verduidelijking. Laat het model itereren.

  • Bijvoorbeeld: “Deze opzet is goed, maar maak punt 3 concreter met cijfers”
  • of: “Herschrijf dit in een meer persoonlijke toon.”

Zoals ik ook in mijn eerdere artikel schreef: “Die interactie, dat heen en weer pingpongen tussen mens en machine, is waar de magie ontstaat.”

AI is geen perfecte collega, maar een slimme assistent die je met de juiste aansturing veel werk uit handen neemt. Soms valt het tegen, soms verrast het. Het is geen wondermiddel. zelfs met perfecte prompts kan de output tegenvallen, omdat AI dus probabilistisch werkt.

Test gerust, maar niet blind

Prompten is geen exacte wetenschap, maar een kunst die geduld en oefening vraagt. Probeer verschillende benaderingen uit, maar houd altijd vast aan de basisprincipes: helderheid, context en specificiteit. Zo benut je de kracht van AI optimaal, vermijd je frustratie en vergroot je de kans op consistente, bruikbare output.

En hé, als je een keer uit je plaat wil gaan: lekker doen hoor. Het is en blijft maar een machine.

Header-afbeelding bij dit artikel is gemaakt met Ideogram.

Blog