Stel je voor. Maandagochtend. Een senior consultant loopt de directiekamer binnen. Veertig slides, een duur pak, een stem die klinkt alsof hij de wijsheid in pacht heeft. Zijn advies is gebaseerd op “best practices van toonaangevende organisaties”. Niemand vraagt welke organisaties. Niemand vraagt hoe “toonaangevend” is gemeten. Niemand vraagt of wat werkt voor een Amerikaans techbedrijf ook maar iets te maken heeft met een middelgroot Nederlands logistiek bedrijf. Het voorstel wordt goedgekeurd. Drie maanden later weet niemand meer wie het had aanbevolen. Zes maanden later wordt het project stilletjes begraven.
Je herkent dit tafereel. Iedereen herkent het. Niet omdat de mensen in die kamer dom waren. Maar omdat de bullshit zo was verpakt dat het voelde als inzicht. En dat is een gedragsdesignprobleem.
Kritisch denken is het vermogen om claims, argumenten en bewijs te evalueren door de cognitieve biases en sociale druk te herkennen die het menselijk oordeelsvermogen vertekenen. In gedragsontwerp betekent kritisch denken dat je begrijpt hoe Systeem 1-shortcuts bullshit overtuigend maken — en dat je besluitprocessen ontwerpt die compenseren voor die mentale sluiproutes. Het gaat er niet om de slimste persoon in de kamer te zijn. Het gaat erom de moeilijkste persoon te zijn om voor de gek te houden.
Waarom is bullshit zo overtuigend?
De filosoof Harry Frankfurt maakte een nuttig onderscheid tussen liegen en bullshitten. Een leugenaar kent de waarheid en zegt bewust het tegenovergestelde. Een bullshitter geeft helemaal niets om de waarheid. Het doel is niet om je te misleiden over een specifiek feit. Het doel is om indruk te maken, om gezaghebbend te klinken, om je te laten knikken zonder al te diep na te denken. En precies daarom is bullshit gevaarlijker dan leugens. Leugens kun je factchecken. Bullshit opereert onder de drempel waar mensen de moeite nemen om te checken.
Bullshit werkt omdat het dezelfde cognitieve biases exploiteert die onze voorouders hielpen te overleven. Je brein draait het grootste deel van de tijd op Systeem 1: de snelle, automatische, energiebesparende modus die informatie verwerkt via shortcuts in plaats van zorgvuldige analyse. Die shortcuts — heuristieken — zijn efficiënt, maar ze zijn ook hackbaar.
Authority bias zorgt ervoor dat je de persoon met de indrukwekkende titel, het dure pak of het podium op het congres vertrouwt. Je brein redeneert: als die persoon die positie heeft bereikt, moet die wel weten waar die het over heeft. Die shortcut was nuttig in kleine stamgemeenschappen. In moderne organisaties betekent het dat de luidste stem in de kamer vaak wint, ongeacht het bewijs.
Sociale bewijskracht vertelt je dat als iedereen in de vergadering het eens lijkt te zijn, het voorstel wel goed moet zijn. Je scant gezichten. Niemand kijkt ongemakkelijk. Dus je houdt ook je mond. Zo marcheren hele organisaties richting besluiten waar eigenlijk niemand privaat in geloofde. Het is ook hoe de financiële crisis van 2008 zich ontvouwde: laag na laag van professionals die ervan uitgingen dat iemand anders de controle had gedaan.
De confidence heuristic is de gevaarlijkste van allemaal. We verwarren systematisch zelfvertrouwen met competentie. Wanneer iemand zijn mening met zekerheid presenteert, interpreteert je Systeem 1 die zekerheid als bewijs. De neurowetenschap is helder: een zelfverzekerde presentatie activeert beloningscentra in het brein van de luisteraar. Het voelt letterlijk goed om iets met overtuiging te horen. En dat gevoel overheerst je analytisch vermogen.
Bullshit slaagt niet omdat mensen dom zijn. Het slaagt omdat ons brein geprogrammeerd is om zelfverzekerde eenvoud te belonen boven zorgvuldige complexiteit.
Zeven regels om bullshit te herkennen
Deze regels gaan niet over de cynische scepticus worden die elke vergadering torpedeert. Ze gaan over het opbouwen van mentale gewoontes die je besluitvorming beschermen tegen de meest voorkomende vormen van professionele bullshit.
1. Verwar resultaten niet met goed oordeelsvermogen
Een bedrijf lanceert een campagne en de verkoop stijgt. Het marketingteam claimt de eer. Maar de verkoop was misschien sowieso gestegen — door seizoensinvloeden, een blunder van de concurrent, of tientallen andere factoren die niemand heeft gemeten. Outcome bias is de neiging om de kwaliteit van een besluit te beoordelen op basis van het resultaat in plaats van de kwaliteit van de redenering erachter.
De enige manier om een resultaat betrouwbaar toe te schrijven aan een specifieke actie is via een gerandomiseerd gecontroleerd experiment. Toen Uber dit testte door tweederde van hun digitale advertentiebudget uit te zetten, ontdekten ze dat het vrijwel geen verschil maakte voor hun installatiecijfers. Ze hadden meer dan honderd miljoen dollar per jaar uitgegeven aan reclame die niets deed. Ze kwamen er pas achter omdat ze de discipline hadden om een echte test te doen in plaats van het verhaal te vertrouwen dat hun dashboards hen vertelden.
Vuistregel: als iemand beweert dat zijn actie een resultaat heeft veroorzaakt, vraag dan wat er zou zijn gebeurd zonder die actie. Als diegene niet met bewijs kan antwoorden, vertelt hij je een verhaal, geen bevinding.
2. Verwar redelijk niet met rationeel
De meest effectieve bullshit klinkt niet buitensporig. Het klinkt redelijk. Het volgt een logische structuur. Het gebruikt woorden als “daarom” en “duidelijk” en “de data wijst uit”. Maar redelijk klinken is een retorische vaardigheid, geen analytische.
Je Systeem 1 verwerkt de flow van een argument in plaats van de inhoud. Als de spreker vloeiend klinkt en de redenering soepel aanvoelt, archiveert je brein het als “waarschijnlijk waar” en gaat verder. Dit is waarom oplichters zelden over hun woorden struikelen en waarom de gevaarlijkste consultants de meest welbespraakte zijn.
De oplossing: vraag altijd een tweede, onafhankelijke mening bij belangrijke besluiten. En cruciaal — deel de eerste mening niet met de tweede bron. Op het moment dat je zegt “een collega suggereerde X, wat denk jij?” heb je hun oordeel verankerd. Geef ze het kale probleem en laat ze tot hun eigen conclusie komen.
3. Val vaagheid meedogenloos aan
Vaagheid is de zuurstof van bullshit. Als een strateeg zegt “dit initiatief zal de klantbetrokkenheid significant verbeteren”, heeft hij niets gezegd. Wat betekent “significant”? Verbeteren met hoeveel? Gemeten hoe? Over welke periode?
Vage voorspellingen zijn onweerlegbaar. Als ze niet uitkomen, kan de voorspeller altijd zeggen “wacht maar af” of “het was erger geweest zonder”. Philip Tetlock’s onderzoek naar voorspellingen van experts toonde aan dat de beroemdste pundits minder nauwkeurig waren dan simpele statistische modellen — juist omdat ze handelden in vage, grootse proclamaties in plaats van specifieke, toetsbare voorspellingen.
Wanneer iemand een claim maakt, dring aan op precisie. Wat precies gaat er gebeuren? Wanneer? Hoe weten we het? Als ze deze vragen niet kunnen beantwoorden, doen ze geen voorspelling. Ze voeren zelfvertrouwen op.
4. Verdacht altijd confirmation bias
Het businessmodel van veel consultancybureaus is het leveren van uitgebreide rechtvaardigingen voor besluiten die al genomen zijn. Benjamin Franklin noemde dit Franklin’s Gambit: het proces van redenen vinden voor wat je al van plan was te doen. Kahneman zou het confirmation bias noemen: de neiging om alleen bewijs te zoeken dat je bestaande overtuigingen bevestigt.
Dit is geen oneerlijkheid. Zo werkt het brein. Zodra je een hypothese hebt gevormd, filtert je Systeem 1 automatisch binnenkomende informatie om die hypothese te bevestigen. Tegenbewijs wordt afgewaardeerd. Ondersteunend bewijs wordt versterkt. Je merkt niet dat het gebeurt.
Het tegengif is structureel. Sommige investeringsfirma’s gebruiken red team-oefeningen: ze wijzen een team aan waarvan de expliciete taak is om de case voor een voorgestelde deal te vernietigen. Het red team wordt beloond voor het vinden van fatale gebreken, niet voor behulpzaam zijn. Dit creëert een dwangmechanisme dat de natuurlijke neiging tegengaat om verliefd te worden op je eigen ideeën.
5. Check of er skin in the game is
Wanneer iemand een handelswijze aanbeveelt, vraag jezelf af: wat gebeurt er met diegene als dit misgaat? Een consultant die hoe dan ook betaald krijgt, heeft geen skin in the game. Een adviseur die commissie verdient op het product dat hij aanbeveelt, heeft verkeerd uitgelijnde prikkels. Een pundit die gedurfde voorspellingen doet op televisie heeft geen consequenties als die voorspellingen niet uitkomen.
Skin in the game is de meest betrouwbare indicator of iemand oprecht vertrouwen heeft in zijn aanbeveling of alleen maar zelfvertrouwen opvoert voor persoonlijk gewin. Als diegene groot kan winnen maar niets kan verliezen, is zijn oordeel structureel aangetast — zelfs als hij zich er niet van bewust is.
De praktische test: zou deze persoon zijn eigen geld inzetten op zijn aanbeveling? Zou hij een boeteclausule accepteren als het mislukt? Zo niet, behandel zijn zelfvertrouwen dan als een signaal van prikkels, niet van inzicht.
6. Verwacht Goodhart’s Law overal
Goodhart’s Law stelt: wanneer een maatstaf een doel wordt, houdt het op een goede maatstaf te zijn. Op het moment dat je een bonus koppelt aan een KPI, gaan mensen optimaliseren voor de KPI in plaats van het resultaat dat de KPI hoorde te meten.
Neem de Net Promoter Score. Bedrijven gebruiken het als proxy voor klanttevredenheid. Maar zodra NPS een target wordt, gaan teams ermee sjoemelen: alleen tevreden klanten bevragen, de vraag timen op piekmomenten van tevredenheid, ontevreden klanten ontmoedigen om te reageren. Het cijfer stijgt. De klantervaring blijft gelijk of wordt slechter. Maar het dashboard ziet er prachtig uit.
Dit patroon zit overal. Politieagenten met arrestatiedoelen gaan mensen lastigvallen voor kleine overtredingen. Universiteiten die gerankt worden op onderzoeksoutput bezuinigen op onderwijs. Ziekenhuizen die gemeten worden op wachttijden herdefiniëren gangen als “behandelruimtes”. Telkens wanneer je een metric tegenkomt die wordt gebruikt om een besluit te rechtvaardigen, vraag: wie beheert deze metric, en welke prikkel heeft diegene om het er goed uit te laten zien?
7. Reken altijd op statusangst bij elk besluit
De meeste slechte besluiten in organisaties worden niet veroorzaakt door domheid of kwade opzet. Ze worden veroorzaakt door statusangst: de angst om de schuld te krijgen, dom over te komen, of een ongeschreven norm te schenden. Rory Sutherland verwoordde het perfect: het is veel makkelijker om ontslagen te worden voor onlogisch zijn dan voor fantasieloos zijn.
Dit betekent dat in elke vergadering de veiligste optie een oneerlijk voordeel heeft. Niet omdat het de beste optie is, maar omdat niemand de schuld krijgt als de veilige optie mislukt. “We kozen voor de marktleider” is een acceptabel excuus. “We probeerden iets anders” niet.
Wanneer je een aanbeveling evalueert, denk na over de krachten die het gedrag van de aanbeveler vormgeven. Gebruik het Influence Framework om hun pains, gains, gewoontes en angsten in kaart te brengen. Waarvoor worden ze afgerekend? Wie moeten ze overtuigen? Wat is het persoonlijke nadeel van ongelijk hebben? Pas als je het sociale web rond de besluitvormer begrijpt, kun je beoordelen of hun aanbeveling oprechte analyse weerspiegelt of zelfbehoud.
Waarom slimme mensen in bullshit trappen
Er is een geruststellende aanname dat intelligentie je beschermt tegen bullshit. Dat doet het niet. In veel gevallen maakt intelligentie je juist kwetsbaarder.
Het Dunning-Kruger effect laat zien dat mensen die het minst weten over een onderwerp het meest overtuigd zijn van hun mening erover. Ze missen de kennis die nodig is om de grenzen van hun kennis te herkennen. Ondertussen neigen echte experts naar meer onzekerheid, meer voorbehouden, meer “het hangt ervan af”. In een wereld die zelfvertrouwen beloont, spreekt de persoon die het minst weet het luidst.
Maar het Dunning-Kruger effect is maar de helft van het verhaal. Slimme mensen hebben een andere kwetsbaarheid: ze zijn uitzonderlijk goed in het construeren van rationalisaties achteraf voor overtuigingen die ze al hebben. Een briljant brein is briljant in het vinden van bewijs voor wat het al heeft besloten. Dit wordt soms de intelligentieval genoemd: hoe slimmer je bent, hoe geavanceerder je zelfbedrog wordt.
Onderzoek in de gedragswetenschappen heeft consequent aangetoond dat cognitief vermogen geen voorspeller is van weerstand tegen cognitieve biases. Mensen met een hoog IQ zijn even vatbaar voor confirmation bias, ankereffecten en gemotiveerd redeneren als iedereen. Soms meer, omdat hun verbale vaardigheid hen in staat stelt overtuigendere argumenten te construeren voor verkeerde posities.
Het probleem met de wereld is dat de dommen bomzeker zijn en de intelligenten vol twijfel zitten. — Bertrand Russell
Daarom is kritisch denken geen persoonlijkheidseigenschap. Het is een praktijk — een set bewuste gewoontes en structuren die compenseren voor de ingebouwde gebreken van het menselijk denkvermogen. Je kunt je er niet uit denken. Je moet je eruit ontwerpen.
Kritisch denken in de praktijk: vergaderingen, pitches en strategie
De regels kennen is één ding. Ze toepassen in het heetst van een echte vergadering, pitch of strategiesessie is iets anders. Zo ziet kritisch denken er in de praktijk uit.
In vergaderingen gedijt bullshit in de kloof tussen wat er wordt gezegd en wat er wordt getoetst. Het tegenmiddel is simpele vragen. Als een collega zegt “onderzoek wijst uit dat...”, vraag welk onderzoek. Als een leverancier zegt “bedrijven zoals het uwe zien doorgaans...”, vraag om concreet te zijn. Welke bedrijven? Wat was de vergelijking? Wat was de periode? Die vragen zijn niet agressief. Ze zijn de minimale bewijsstandaard die elk professioneel besluit verdient.
In pitches, let op de confidence heuristic in actie. Hoe gelikter de presentatie, hoe minder rigoureus het denkwerk vaak is. Echt sterke voorstellen kunnen het zich veroorloven om ingetogen te zijn, omdat ze op bewijs steunen in plaats van op performance. Als iemand hard zijn best doet om je te imponeren, vraag jezelf af waarvoor diegene compenseert.
In strategie, eis falsifieerbare claims. Een strategie die niet kan falen is geen strategie — het is een verlanglijstje. Vraag: wat zou waar moeten zijn om deze strategie te laten werken? Wat zouden we over zes maanden kunnen waarnemen dat ons vertelt dat het niet werkt? Als de strateeg de voorwaarden voor falen niet kan verwoorden, heeft hij niet het denkwerk gedaan. Hij heeft het verhaaltje gedaan.
Bij het aannemen van mensen, pas op voor de narratieve fout. Kandidaten die een meeslepend verhaal vertellen over hun carrière zijn niet per definitie betere presteerders. Ze zijn betere verhalenvertellers. Gestructureerde interviews met gestandaardiseerde vragen zijn aantoonbaar betere voorspellers van werkprestaties dan ongestructureerde gesprekken — juist omdat ze de ruimte verkleinen waarbinnen bullshit kan opereren.
Hoe bouw je een bullshit-resistente cultuur?
Individueel kritisch denken is noodzakelijk maar onvoldoende. Als je organisatie mensen straft voor het uitdagen van de status quo, maakt geen enkele hoeveelheid persoonlijke scepsis verschil. Het bouwen van een bullshit-resistente cultuur vereist structurele interventies.
Normaliseer tegenspraak. De gevaarlijkste zin in elke organisatie is “we zijn het allemaal eens”. Als iedereen direct instemt, betekent het óf dat het voorstel oprecht briljant is, óf dat niemand zich veilig genoeg voelt om het oneens te zijn. Het tweede scenario komt veel vaker voor. Benoem een advocaat van de duivel bij elk groot besluit. Niet informeel, maar als een expliciete rol met expliciete toestemming om uit te dagen.
Doe pre-mortems. Voordat je een project lanceert, voer een pre-mortem uit: stel je voor dat het project spectaculair is mislukt. Werk nu achterwaarts. Wat ging er mis? Deze techniek, ontwikkeld door psycholoog Gary Klein, exploiteert hetzelfde inbeeldingsvermogen dat hindsight bias zo krachtig maakt — maar past het toe vóór het besluit in plaats van erna. Het geeft mensen toestemming om twijfels te uiten die ze anders zouden onderdrukken.
Beloon het bijstellen, niet de voorspelling. In de meeste organisaties wordt van mening veranderen gezien als zwakte. Maar in werkelijkheid is het bijstellen van je overtuigingen op basis van nieuw bewijs de belangrijkste indicator van goed oordeelsvermogen. Philip Tetlock’s onderzoek naar superforecasters toonde aan dat de beste voorspellers niet degenen waren die de stoerste initiële voorspellingen deden. Het waren degenen die het vaakst en nauwkeurigst bijstelden wanneer er nieuwe informatie binnenkwam.
Eis bewijs, geen anekdotes. Eén levendig succesverhaal valideert geen strategie. Eén boze klant invalideert geen product. Het meervoud van anekdote is geen data. Creëer een norm waarbij claims onderbouwd moeten worden met systematisch bewijs, niet met uitgekozen voorbeelden. En maak die verwachting expliciet — niet als aanval op de presentator, maar als kwaliteitsstandaard voor de besluiten die je samen neemt.
Let op perverse prikkels. Elke KPI, elke bonusstructuur, elke rapportagemetric creëert prikkels voor bullshit. Als je salesteam wordt afgerekend op omzet en niet op klantbehoud, gaan ze te veel beloven om deals te sluiten. Als je marketingteam wordt gemeten op leads en niet op leadkwaliteit, optimaliseren ze voor volume. Breng de prikkels in kaart. En vraag dan: waar beloont deze structuur er goed uitzien boven goed zijn?
Veelgestelde vragen
Wat is kritisch denken op de werkvloer?
Kritisch denken op de werkvloer is het vermogen om claims, argumenten en voorstellen te beoordelen door verder te kijken dan zelfvertrouwen, autoriteit en sociale bewijskracht. Het betekent vragen om bewijs, aannames toetsen en de cognitieve biases herkennen die slechte ideeën overtuigend laten klinken. Het gaat niet om negatief of cynisch zijn — het gaat om besluiten nemen op basis van bewijs in plaats van overtuigingskracht.
Waarom trappen slimme mensen in bullshit?
Intelligentie beschermt niet tegen bullshit. Slimme mensen zijn vaak juist beter in het construeren van ingewikkelde rechtvaardigingen voor overtuigingen die ze al hebben. Het Dunning-Kruger effect laat zien dat de minst competente mensen het meest zelfverzekerd zijn, terwijl echte experts meer twijfel uiten. Gecombineerd met authority bias en sociale bewijskracht ontstaan omgevingen waarin zelfverzekerde onzin consequent wint van zorgvuldige analyse.
Hoe herken je bullshit in een vergadering?
Let op deze signalen: vage claims die niet te weerleggen zijn, zelfverzekerde voorspellingen zonder concrete tijdlijnen of metrics, argumenten die alleen met anekdotes worden onderbouwd in plaats van data, weerstand tegen het concreet maken van claims, en jargon dat wordt gebruikt om te verhullen in plaats van te verhelderen. Het sterkste signaal is wanneer iemand defensief wordt in plaats van nieuwsgierig als je doorvraagt.
Wat is Goodhart’s Law en waarom is het belangrijk voor besluitvorming?
Goodhart’s Law stelt dat wanneer een maatstaf een doel wordt, het ophoudt een goede maatstaf te zijn. In de praktijk: als je bonussen koppelt aan een KPI zoals Net Promoter Score, gaan mensen de metric manipuleren in plaats van de onderliggende realiteit te verbeteren. Dit is cruciaal voor besluitvorming omdat de cijfers waarop je vertrouwt mogelijk zijn geoptimaliseerd voor de schijn in plaats van voor de waarheid.
Hoe bouw je een cultuur van kritisch denken in je organisatie?
Begin met het belonen van mensen die aannames uitdagen in plaats van hen te straffen. Voer red team-oefeningen in waarbij iemand de opdracht krijgt om de zwakke plekken in een voorstel te vinden. Eis dat alle grote besluiten een pre-mortem bevatten: stel je voor dat het besluit is mislukt en werk dan terug om te achterhalen waarom. Maak het veilig om “ik weet het niet” te zeggen en normaliseer het uitdrukken van onzekerheid in kansen in plaats van valse zekerheden.
Conclusie
Bullshit is geen communicatieprobleem. Het is een gedragsdesignprobleem. Dezelfde Systeem 1-shortcuts die je helpen door het dagelijks leven te navigeren — authority bias, sociale bewijskracht, de confidence heuristic — zijn precies de mechanismes die bullshit ongehinderd door directiekamers, strategiesessies en sollicitatiegesprekken laten passeren.
Kritisch denken betekent niet de scepticus worden die alles uitdaagt. Het betekent de gewoontes en structuren bouwen die compenseren voor de bekende zwakheden van het menselijk denkvermogen. Toets resultaten aan tegenfeitelijke scenario’s. Eis precisie boven vaagheid. Zoek onafhankelijke meningen. Check prikkels. En bovenal: creëer omgevingen waarin het uitdagen van slechte ideeën wordt beloond, niet bestraft.
Wil je leren hoe je gedragswetenschap inzet om je denken en de besluitvorming van je team aan te scherpen? In de Behavioural Design Fundamentals Course leer je het SUE Influence Framework toepassen om te begrijpen wat gedrag drijft — inclusief het gedrag van mensen die je bullshit proberen te verkopen. Beoordeeld met een 9,7 door 10.000+ alumni uit 45 landen.
PS
Bij SUE hebben we als missie om de superkracht van gedragspsychologie in te zetten om mensen te helpen betere keuzes te maken. Het grootste obstakel voor betere keuzes is niet een gebrek aan informatie. Het is de overvloed aan zelfverzekerd klinkende onzin die zorgvuldig nadenken verdringt. De zeven regels in dit artikel maken je niet immuun voor bullshit — niemand is dat. Maar ze maken je aanzienlijk moeilijker om voor de gek te houden. En in een wereld die zwemt in bullshit is dat een concurrentievoordeel.