Wat is een hallucinatie (in het kort)?
- Definitie: AI presenteert onjuiste of niet-bestaande โfeitenโ alsof ze waar zijn.
- Waarom gebeurt het? Het model voorspelt woorden op basis van patronen; โklinkt waarschijnlijkโ wint soms van โis verifieerbaarโ.
- Wanneer extra risico? Lange, samengestelde vragen; weinig context; zelden voorkomende feiten; juridische/medische claims; datums/bedragen/titels.
CoVe in 30 seconden
CoVe geeft de AI tijd, structuur en afstand om haar eigen antwoord te checken.
- Baseline: laat eerst een normaal, beknopt antwoord geven.
- Checkvragen: laat de AI gerichte verificatievragen formuleren over haar eigen claims.
- Onafhankelijk controleren: laat die checkvragen los van het oorspronkelijke antwoord beantwoorden.
- Herzien: laat een gecorrigeerde, samengevatte versie teruggeven met alleen wat overeind blijft.
Optioneel: bronverwijzingen, confidence-scores en expliciete โwat heb ik aangepast en waaromโ.
Het geheim zit โm in stap 3: factoriseer de controle. Dus niet โklopt mijn antwoord?โ, maar per claim een concrete check.
Wanneer gebruik je CoVe?
- Feitelijke content: jaartallen, definities, regels (bijv. Telecommunicatiewet/cookies).
- Research & samenvattingen: marktdata, vergelijkingen, productfeatures.
- Operationeel: prijzen, voorwaarden, datums, adressen, certificeringen.
- Code & techniek: API-namen, functie-signatures, compatibiliteit.
Niet nodig voor: pure creatie (concepting, tone-of-voice), of als je al primaire bronnen naast je hebtโdan volstaat normale bronvermelding.
Snelstart: 2 kant-en-klare CoVe-prompts
1) Basis CoVe (algemeen)
Beantwoord mijn vraag met Chain-of-Verification:
1) Geef een kort baseline-antwoord.
2) Genereer 5 verificatievragen over concrete claims in je antwoord.
3) Beantwoord elke verificatievraag onafhankelijk van het baseline-antwoord.
4) Geef een herzien, gecorrigeerd antwoord (max 8 zinnen).
5) Noem wat je hebt aangepast t.o.v. het baseline-antwoord.
Mijn vraag: [JE VRAAG HIER]
2) Gefactoriseerde CoVe + bronnen
Gebruik gefactoriseerde Chain-of-Verification:
1) Baseline: bullets met max 6 claims.
2) Voor elke claim: formuliseer 1 verificatievraag.
3) Beantwoord elke verificatievraag onafhankelijk. Geef per antwoord:
- Bronverwijzing (titel + korte beschrijving of linkplaceholder)
- Confidence 0โ1
4) Herbouw de bullets met alleen geverifieerde claims (noteer dropped/gewijzigde punten).
5) Sluit af met een korte disclaimer.
Onderwerp: [BIJVOORBEELD: โBelangrijkste wijzigingen in cookie-regels NL/EU (praktisch voor mkb-coaches)โ]
Praktische voorbeelden
1) Artikel/kennisbank (SEO)
- Vraag: โVat de nieuwe regels rond [onderwerp] samen.โ
- CoVe-twist: claims opdelen (definitie, vanaf-datum, uitzonderingen, boetes); per claim checkvraag; daarna herzien + korte bronnoot.
2) Salespagina (coachingprogramma)
- Vraag: โSchrijf benefits + bewijs.โ
- CoVe-twist: elke belofte krijgt een checkvraag (โIs er publiek bewijs/case/bron?โ). Wat niet te staven is โ herformuleren naar waarschijnlijk gevolg i.p.v. garantie.
3) Technische vergelijking (plugins/tools)
- Vraag: โVergelijk tool A vs B op features.โ
- CoVe-twist: per feature een definieerbare check (bestaat het? sinds wanneer? beperkingen?). Daarna een tabel met alleen geverifieerde punten.
Best practices (die รฉcht verschil maken)
- Schrijf checkvragen die meetbaar zijn. Dus โWanneer is X uitgebracht?โ i.p.v. โKlopt X?โ
- Verplicht onafhankelijkheid. Zeg expliciet: โBeantwoord verificatievragen zonder naar je baseline te kijken.โ
- Beperk de scope. 5โ7 claims per ronde is beter dan 20 halfbakken checks.
- Vraag om aanpassingslog. โWelke claims heb je aangepast of gedropt, en waarom?โ
- Gebruik confidence-scores. Zo zie je waar je nog menselijke validatie nodig hebt.
Veelgemaakte fouten (en hoe je ze voorkomt)
- Ja/nee-checkvragen. Maak ze open en feitelijk (wie/wat/wanneer/hoeveel).
- Te brede baseline. Hou het kortโanders check je lucht.
- Verificatie die leunt op dezelfde fout. Dwing factorisering: elke claim krijgt een eigen mini-check.
- Bronloos vertrouwen. Vraag minstens om titel + korte bronbeschrijving of een linkplaceholder.
- Verkeerde verwachtingen. CoVe vermindert fouten aanzienlijk, maar vervangt geen menselijk review bij high-stakes content (juridisch/financieel/medisch).
Mini-workflow voor je team (copy/paste in je proces)
- Briefing: wat zijn de 5โ7 claims die mรณรฉten kloppen?
- AI-run 1: baseline + verificatievragen + factorized checks + herziening.
- Menselijke check: alleen de lage confidence en kritieke claims nalopen.
- AI-run 2 (kort): herformuleer twijfelpunten of drop ze.
- Publiceren + changelog: noteer wat je aangepast hebt en waarom (transparantie = vertrouwen).
Snelle CoVe-prompts voor op je bureaublad
CoVe-Lite (snelle sanity check)
Geef eerst je antwoord (โค6 bullets). Maak daarna 4 verificatievragen over je eigen claims.
Beantwoord die onafhankelijk en pas je antwoord aan op basis van wat overeind blijft.
Noteer 1โ2 punten die je gewijzigd hebt.
CoVe-Strict (voor facts & cijfers)
1) Baseline (โค120 woorden).
2) 6 verificatievragen (wie/wat/wanneer/hoeveel), geen ja/nee.
3) Onafhankelijke antwoorden met confidence 0โ1 + bronplaceholder.
4) Herziening: alleen geverifieerde info blijft staan. Markeer gedropte claims.
TL;DR
- Hallucinaties ondermijnen vertrouwen omdat je niet weet welke stukken fout zijn.
- Chain-of-Verification laat AI eerst antwoorden, daarna per claim vragen formuleren en onafhankelijk checken, en pas dรกn herzien.
- Resultaat: minder onzin, meer betrouwbaarheid. Zonder creativiteit te verliezen.
- Maak het meetbaar: factoriseer, vraag om bronnen en confidence, houd het kort.