Het debunkinghandboek

15 minuten
Leestijd:
Mythes ontkrachten valt niet mee. Tenzij je de grootste zorg in acht neemt, kan elke poging om desinformatie te ontkrachten haar ongewild versterken. Om dit averechts effect te vermijden, moet een debunking aan drie voorwaarden voldoen. De weerlegging moet, ten eerste, focussen op kernfeiten in plaats van op de mythe zelf, om te voorkomen dat de onjuiste informatie vertrouwder gaat klinken. Ten tweede moet elke vermelding van een mythe voorafgegaan worden door de expliciete waarschuwing dat de erop volgende informatie vals is. Tot slot moet de weerlegging een alternatieve verklaring bevatten voor belangrijke elementen in de oorspronkelijke desinformatie.

Van een democratische samenleving verwachten we dat ze haar besluitvorming baseert op accurate informatie. Over veel thema’s kan desinformatie echter stevig postvatten onder de bevolking, zeker als er gevestigde belangen in het spel zijn.1, 2 De invloed van desinformatie beperken is een moeilijke en complexe uitdaging.

Een veel voorkomende misvatting over mythes is dat je hun invloed ongedaan kunt maken door mensen meer informatie te verschaffen. Die benadering, die bekendstaat als het informatiedeficitmodel, veronderstelt dat publieke misvattingen veroorzaakt worden door een gebrek aan kennis. Het model slaat de bal echter mis. Mensen verwerken informatie immers niet zoals een harde schijf gegevens downloadt.

Het weerleggen van verkeerde informatie impliceert omgaan met complexe cognitieve processen. Om succesvol kennis over te brengen moet je begrijpen hoe mensen informatie verwerken, hoe ze hun bestaande kennis aanpassen en hoe wereldbeelden ons vermogen tot rationeel denken beïnvloeden. Het is niet alleen wat mensen denken dat telt, maar ook hoe ze denken.

Vooreerst een verduidelijking van wat we bedoelen met desinformatie: de term verwijst naar alle informatie die mensen verworven hebben en die onjuist blijkt, ongeacht waarom en hoe ze verworven werd. Onze belangstelling gaat naar de cognitieve processen die bepalen hoe mensen omgaan met correcties van informatie waaraan ze geloof hechten. Als je te weten komt dat iets wat je gelooft verkeerd is, hoe stel je dan je kennis bij? 

Eens mensen verkeerde informatie ontvangen hebben, is het heel moeilijk om de invloed ervan ongedaan te maken. Dit werd aangetoond door een experiment uit 1994, waarin proefpersonen verkeerde informatie kregen over een fictieve magazijnbrand, waarop een rechtzetting volgde van bepaalde foutieve delen van het verhaal.3 Hoewel de proefpersonen zich de rechtzetting herinnerden en haar accepteerden, bleef de onjuiste informatie nawerken bij het beantwoorden van vragen over het verhaal.

Kan de invloed van verkeerde informatie volledig geëlimineerd worden? De ondervinding leert dat, hoe krachtig en herhaaldelijk de verkeerde informatie ook gecorrigeerd wordt, bijvoorbeeld door de rechtzetting steeds opnieuw te herhalen, de invloed ervan toch merkbaar blijft.4

Het is niet alleen wat mensen denken dat telt, maar ook hoe ze denken.

Er is nog een extra complicatie. Niet alleen is verkeerde informatie moeilijk uit te wissen, maar het ontkrachten van mythes kan ze ook versterken. Er zijn al verschillende averechtse effecten waargenomen door de mythes vertrouwder te maken5, 6, door te veel argumenten te geven of door bewijsmateriaal aan te reiken dat iemands wereldbeeld bedreigt.8

Het laatste wat je wil bij het debunken van desinformatie is de zaak nog erger te maken. Dit handboek heeft een specifieke focus:  het wil praktische tips verstrekken om verkeerde informatie effectief te debunken en de verschillende averechtse effecten te voorkomen. Om dit te bereiken moet je de relevante cognitieve processen begrijpen. We leggen wat interessant psychologisch onderzoek voor en eindigen met een voorbeeld van een effectieve weerlegging van een bekende mythe.

 

Voorbeeld van het debunken van een klimaatmythe

  • Zon en klimaat vertonen een tegengestelde trend.
    • Kernfeit benadrukt in de kop
  • Tijdens de afgelopen decennia van opwarming van de aarde vertoonde de zon een lichte neiging tot afkoelen. Zon en klimaat vertonen een tegengestelde trend. Dit deed een aantal wetenschappers onafhankelijk van elkaar besluiten dat de zon niet de oorzaak kan zijn van de recente opwarming van de aarde.
    • Kernfeiten bekrachtigd in de aanvangstekst
  • Een van de meest frequente en hardnekkige klimaatmythes is dat de zon de oorzaak is van de opwarming van de aarde.
    • De mythe
  • Die mythe gaat selectief om met gegevens (kersenplukken). Ze focust op vroegere perioden toen de zon en het klimaat dezelfde trend vertoonden, maar negeert de voorbije decennia, waarin beide een tegengestelde trend vertonen.
    • Uitleggen hoe de mythe misleidt (alternatieve verklaring, zie verder)

 

Het averechts effect door vertrouwdheid

Om een mythe te debunken moet je ze vermelden, want hoe weet het publiek anders waarover je het hebt? Dit zorgt echter voor meer vertrouwdheid met de mythe, wat de kans vergroot dat ze als waar geaccepteerd wordt. Betekent dit dat het debunken van een mythe haar eigenlijk versterkt?

Om dit mogelijk averechts effect te testen, werd mensen een brochure getoond die veel voorkomende mythes over griepvaccins ontkrachtte.5 Daarna werd hun gevraagd om de mythes te scheiden van de feiten. Onmiddellijk na het lezen van de brochure konden de proefpersonen de mythes met succes identificeren. Dertig minuten na het lezen ervan scoorden sommigen echter daadwerkelijk slechter. Het debunken versterkte de mythes.

Het averechts effect is dus reëel. De drijvende kracht erachter is het feit dat vertrouwdheid de kans verhoogt dat informatie als juist wordt aanvaard. Onmiddellijk na het lezen van de brochure herinnerden de proefpersonen zich de details die de mythe ontmaskerden en konden ze de mythes met succes identificeren. Maar naarmate de tijd verstreek, vervaagde de herinnering aan de details en herinnerde men zich alleen nog de mythe, zonder het ‘label’ dat ze als vals kenmerkte. Dit effect is vooral sterk bij oudere volwassenen, omdat hun herinneringen kwetsbaarder zijn voor het vergeten van details.

Hoe vermijd je het averechts effect door vertrouwdheid? Het beste is om de mythe niet te vermelden terwijl je haar corrigeert. Om desinformatie te weerleggen, concentreer je je het best op de feiten die je wil overbrengen.

De mythe niet vernoemen is soms geen praktische optie. Leg in dit geval de nadruk op de feiten. Wat je vooral niet moet doen, is de mythe in grote, vette letters vermelden. Beperk je tot het communiceren van het kernfeit in de kop. Je debunking moet beginnen met de nadruk op de feiten, niet op de mythe. Je bedoeling is om de vertrouwdheid met de feiten te verhogen.

Averechts effect door overdosis

Een principe dat wetenschapscommunicatoren vaak niet volgen, is ervoor te zorgen dat hun informatie eenvoudig te verwerken is. Dit betekent: eenvoudig te lezen, eenvoudig te begrijpen en beknopt. Gemakkelijk te verwerken informatie wordt sneller voor waar aanzien.7 Alleen al het verbeteren van het kleurcontrast van een gedrukt lettertype, zodat de leesbaarheid verhoogt, maakt dat mensen een bewering eerder als waar zullen aanvaarden.9

Velen denken dat, hoe meer tegenargumenten je aandraagt, hoe succesvoller je de mythe onderuit zal halen. Het omgekeerde blijkt echter ook het geval. Soms is minder meer. Drie argumenten kunnen succesvoller zijn in het verminderen van misvattingen dan twaalf argumenten, die als uiteindelijk effect kunnen hebben dat ze het oorspronkelijke denkbeeld versterken.7

Het averechts effect door overdosis treedt op omdat de verwerking van een groot aantal argumenten meer inspanning kost dan als je er maar een paar moet overwegen. Een eenvoudige mythe is cognitief aantrekkelijker dan een complexe rechtzetting.

De oplossing is om je argumentatie beperkt, toegankelijk en vlot leesbaar te houden. Gebruik daartoe elk beschikbaar hulpmiddel. Gebruik eenvoudige taal en korte zinnen, en werk met onderverdelingen en paragrafen. Vermijd dramatisch taalgebruik en denigrerende opmerkingen die mensen vervreemden. Blijf bij de feiten. Eindig met een sterke en eenvoudige boodschap die mensen zullen onthouden en doortwitteren, zoals ‘97 van de 100 klimaatwetenschappers zijn het erover eens dat de mens de oorzaak is van de klimaatopwarming’ of ‘onderzoek toont aan dat vaccins tegen bof, mazelen en rode hond veilig zijn.’ Gebruik waar mogelijk beeldmateriaal ter illustratie van je punten.

Wetenschappers hanteerden lang het informatiedeficietmodel, dat stelt dat mensen foutieve opvattingen aanhangen omdat ze niet over alle informatie beschikken. Maar te veel informatie kan averechts werken. Hou je in plaats daarvan aan het KISS-principe: ‘Keep It Simple, Stupid!’

Het averechts effect van het wereldbeeld

Het derde en misschien wel krachtigste averechtse effect treedt op bij thema’s die verband houden met het wereldbeeld en de culturele identiteit van mensen. Door de impact van verschillende cognitieve processen verwerken we informatie onbewust op een selectieve manier. Bij degenen met diepgewortelde opvattingen kan een confrontatie met tegenargumenten hun mening versterken.

Een cognitief proces dat hiertoe bijdraagt is het bevestigingsvooroordeel, waarbij mensen selectief op zoek gaan naar informatie die hun opvatting bevestigt. In één experiment kregen mensen informatie over controversiële onderwerpen, zoals wapencontrole of positieve discriminatie. Bij elk stukje informatie werd de bron ervan vermeld, om duidelijk aan te geven of de informatie pro of contra zou zijn (bijvoorbeeld de National Rifle Association vs Burgers Tegen Handwapens). Hoewel hun opgedragen was om onpartijdig te zijn, kozen mensen voor die bronnen die strookten met hun ideeën. De studie wees uit dat zelfs wanneer mensen een evenwichtig geheel van feiten voorgeschoteld krijgen, ze hun bestaande denkbeelden versterken door te focussen op informatie waarmee ze het al eens zijn. De polarisatie was het grootst bij degenen met een sterke vooringenomenheid.10

Wat gebeurt er als je dat keuze-element wegneemt en iemand confronteert met argumenten die indruisen tegen diens wereldbeeld? Dan schiet het weerleggingsvooroordeel in actie, de keerzijde van het bevestigingsvooroordeel. Dit is als mensen de lat aanzienlijk hoger leggen voor tegenargumenten en veel tijd en denkwerk besteden aan het bedenken van argumenten daartegen.8

Dit werd duidelijk toen Republikeinen die geloofden in de betrokkenheid van Saddam Hoessein bij de terreuraanslagen van 9/11, bewijzen kregen dat er geen verband was tussen de twee, waaronder een uitspraak van president George Bush.11 Slechts 2% van de deelnemers veranderde van mening (hoewel 14% interessant genoeg ontkende te geloven in een verband). De overgrote meerderheid hield vast aan de koppeling tussen Irak en 9/11, daarbij een hele reeks argumenten gebruikend om de bewijzen van tafel te vegen. De meest voorkomende reactie was bekrachtiging van de eigen opvattingen - zich ondersteunende feiten voor de geest halen, terwijl conflicterende feiten werden genegeerd. Dat resulteerde in het versterken van hun foutieve overtuigingen.

Als feiten iemand niet van zijn denkbeelden kunnen afbrengen en ze soms zelfs versterken, hoe kunnen we het effect van desinformatie dan verminderen? Er zijn twee bronnen van hoop.

Ten eerste is het averechts effect van het wereldbeeld het sterkst bij degenen die al vastzitten in hun denkbeelden. Je hebt dus meer kans om desinformatie te corrigeren bij mensen die niet zo stellig zijn in hun opvattingen. Dit suggereert dat pogingen gericht moeten zijn op de onbesliste meerderheid, eerder dan op de vastgeroeste minderheid.

Ten tweede kun je boodschappen presenteren op een manier die de gebruikelijke psychologische weerstand vermindert. Als je wereldbeeldbedreigende berichten bijvoorbeeld koppelt aan zelfbevestiging, zullen mensen de informatie pro en contra evenwichtiger beoordelen.12, 13 Zelfbevestiging bereik je door mensen te vragen om kort iets te schrijven over een moment waarop zij zich goed voelden omdat ze iets waardevols hadden gedaan. Ze staan dan meer open voor boodschappen die hun wereldbeeld bedreigen. Het zelfbevestigingseffect is interessant genoeg het sterkst bij degenen wier ideologie van hoofdbelang was voor hun gevoel van eigenwaarde.

Een andere manier om informatie aanvaardbaarder te maken, is door haar zodanig voor te stellen dat ze iemands wereldbeeld minder bedreigt. Republikeinen zullen bijvoorbeeld eenzelfde financiële bijdrage eerder aanvaarden als ‘koolstofdividend‘ dan als een ‘belasting’, terwijl de precieze formulering weinig effect heeft op Democraten of Onafhankelijken, omdat hun waarden door het woord ‘belasting’14 niet uitgedaagd worden.

Zelfbevestiging en formulering betekenen niet dat je mensen manipuleert. Ze geven de feiten alleen een eerlijke kans.

De leemte vullen met een alternatieve verklaring

Ervan uitgaand dat je de verschillende averechtse effecten succesvol omzeilt, wat is dan de meest effectieve manier om een mythe te ontkrachten? Eens verkeerde informatie zich in iemands geest vastzet, is ze erg moeilijk te verwijderen. Dat is zelfs het geval wanneer mensen zich een rechtzetting herinneren en haar aanvaarden.

Dit werd aangetoond in een experiment waarbij mensen een fictief verslag van een magazijnbrand te lezen kregen.15,16,3 Het verslag maakte gewag van verf- en gasblikken en van explosies. Later in het verhaal werd verduidelijkt dat er geen verf of gas aanwezig waren in het magazijn. Zelfs wanneer mensen deze rechtzetting onthielden en haar aanvaardden, vermeldden ze de verf- en gasblikken nog steeds bij vragen over de brand. Als hun werd gevraagd waarom ze dachten dat er zoveel rook was, weten ze dat vaak aan de olieverf, hoewel ze net hadden erkend dat die er niet was. 

Als mensen verkeerde informatie horen, bouwen ze een mentaal model op met de mythe als verklaring. Als de mythe ontkracht wordt, ontstaat er een leemte in hun mentaal model. In de context van zo’n dilemma prefereren velen een verkeerd model boven een onvolledig model. Bij gebrek aan een betere verklaring kiezen ze voor de verkeerde verklaring.17

Als bij het magazijnbrandexperiment een alternatieve verklaring met aanstekervloeistof en brandversneller werd gegeven, waren de proefpersonen minder geneigd om de verf- en gasblikken te vermelden bij vragen over de brand. De meest effectieve manier om het effect van verkeerde informatie te verminderen, is een juiste alternatieve verklaring voor de gebeurtenissen te bieden.

Deze strategie wordt extra duidelijk geïllustreerd bij fictieve moordzaken. Het beschuldigen van een alternatieve verdachte verminderde het aantal schulduitspraken van de deelnemers die optraden als juryleden sterk, vergeleken met een pleidooi dat alleen verklaarde waarom de verdachte onschuldig was.18

Opdat een alternatief aanvaard wordt, moet het aannemelijk zijn en alle aspecten van het gebeuren verklaren.19,15 Als je een mythe ontmaskert, creëer je een leemte in iemands denken, en die moet je vullen. Eén zo’n leemte is de vraag waarom de mythe verkeerd is. Je kunt ze vullen door de retorische technieken te onthullen die gebruikt worden om te desinformeren. Een handig overzicht van veelgebruikte technieken om de wetenschappelijke consensus te ontkennen, vind je in het online beschikbare artikel ‘Denialism: What Is It and How Should Scientists Respond?’20 De lijst van technieken omvat kersenplukken, samenzweringstheorieën en nepexperts.

 

Wanneer je een mythe ontmaskert, creëer je een leemte in iemands denken. 
Om effectief te zijn, moet je ontmaskermethode die leemte vullen.

Een ander alternatief verhaal is uitleggen waarom de desinformant de mythe propageerde. Argwaan wekken over de bron van de desinformatie vermindert de invloed ervan aantoonbaar.21,22

Een ander kernaspect van een effectieve weerlegging is het gebruik van een expliciete waarschuwing (‘kijk uit, je wordt misleid’) voor je de mythe vermeldt. Door met verschillende manieren van weerleggen te experimenteren, weten we dat de meest effectieve combinatie een alternatieve verklaring en een expliciete waarschuwing is.17

Grafieken zijn ook een belangrijk onderdeel van de gereedschapskist van de debunker.  Ze zijn significant effectiever dan tekst. Als mensen een weerlegging lezen die botst met hun overtuigingen, grijpen ze dubbelzinnigheden aan om een alternatieve interpretatie te construeren. Grafieken geven meer duidelijkheid en minder mogelijkheid tot misinterpretatie.Toen zelfverklaarde Republikeinen ondervraagd werden over hun geloof in de opwarming van de aarde, aanvaardde een aanzienlijk groter aantal de opwarming als hun een grafiek van de temperatuurtrends werd getoond, vergeleken met zij die een schriftelijke beschrijving kregen.13

Een andere studie wees uit dat, als zij datapunten over de oppervlaktetemperatuur te zien kregen, proefpersonen foutloos een opwarmingstrend ontwaarden, ongeacht hun ideeën over de wereldwijde opwarming.23 Als je inhoud visueel kan worden uitgedrukt, kies dan altijd voor een grafiek bij het debunken.

Anatomie van effectief debunken 

Als we alles nog eens opsommen, vereist een effectief debunken:

  • Kernfeiten: een weerlegging moet nadruk leggen op de feiten, niet op de mythe. Presenteer alleen belangrijke feiten om het averechts effect door overdosis te voorkomen;
  • Expliciete waarschuwingen: voor je een mythe ter sprake brengt, moeten tekst of visuele aanwijzingen waarschuwen dat de erop volgende informatie onjuist is;
  • Alternatieve verklaring: eventuele leemtes achtergelaten door het debunken moeten worden gevuld. Dit kan je bereiken door een alternatieve verklaring waarom de mythe verkeerd is en, optioneel, door uit te leggen waarom de desinformanten de mythe promoten;
  • Grafieken: kernfeiten moeten zo mogelijk grafisch worden weergegeven.

 

OPMERKING: Het boek is gratis beschikbaar op http://www.skepticalscience.com. Link naar download.

Bibliografie

  • 1. Jacques, P. J., & Dunlap, R. E. (2008). The organisation of denial: Conservative think tanks and environmental skepticism. Environmental Politics, 17, 349-385.
  • 2.  Oreskes, N., & Conway, E. M. (2010). Merchants of doubt. Bloomsbury Publishing. 
  • 3. Johnson, H. M., & Seifert, C. M. (1994). Sources of the continued influence effect: When discredited information in memory affects later inferences. Journal of Experimental Psychology: Learning, Memory, and Cognition, 20 (6), 1420-1436.
  • 4. Ecker, U. K., Lewandowsky, S., Swire, B., & Chang, D. (2011). Correcting false information in memory: Manipulating the strength of misinformation encoding and its retraction. Psychonomic Bulletin & Review, 18, 570-578.
  • 5. Skurnik, I., Yoon, C., Park, D., & Schwarz, N. (2005). How warnings about false claims become recommendations. Journal of Consumer Research, 31, 713-724.
  • 6. Weaver, K., Garcia, S. M., Schwarz, N., & Miller, D. T. (2007). Inferring the popularity of an opinion from its familiarity: A repetitive voice sounds like a chorus. Journal of Personality and Social Psychology, 92, 821-833. 
  • 7. Schwarz, N., Sanna, L., Skurnik, I., & Yoon, C. (2007). Metacognitive experiences and the intricacies of setting people straight: Implications for debiasing and public information campaigns. Advances in Experimental Social Psychology, 39, 127-161.
  • 8. Nyhan, B., & Reifle, J. (2010). When Corrections Fail: The Persistence of Political Misperceptions. Political Behavior, 32, 303-330.
  • 9. Reber, R., Schwarz, N. (1999). Effects of Perceptual Fluency on Judgments of Truth, Consciousness and Cognition, 8, 338-3426. 
  • 10. Taber, C. S., & Lodge, M. (2006). Motivated skepticism in the evaluation of political beliefs. American Journal of Political Science, 50, 755–69.
  • 11. Prasad, M., Perrin, A. J., Bezila, K., Hoffman, S. G., Kindleberger, K., Manturuk, K., et al. (2009). “There Must Be a Reason’’: Osama, Saddam, and Inferred Justification.Sociological Inquiry, 79, 142-162.
  • 12. Cohen, G. L., Sherman, D. K., Bastardi, A., Hsu, L., & McGoey, M. (2007). Bridging the Partisan Divide: Self-Affirmation Reduces Ideological Closed-Mindedness and Inflexibility in Negotiation. Personality & Soc. Psych., 93, 415-430.
  • 13. Nyhan, B., & Reifle, J. (2011). Opening the Political Mind? The effects of self-affirmation and graphical information on factual misperceptions. In press.
  • 14. Hardisty, D. J., Johnson, E. J. & Weber, E. U. (2010). A Dirty Word or a Dirty World?: Attribute Framing, Political Affiliation, and Query Theory, Psychological Science, 21, 86-92
  • 15. Seifert, C. M. (2002). The continued influence of misinformation in memory: What makes a correction effective? The Psychology of Learning and Motivation, 41, 265-292.
  • 16. Wilkes, A. L.; Leatherbarrow, M. (1988). Editing episodic memory following the identificationof error, The Quarterly Journal of Experimental Psychology A: Human Experimental Psychology, 40A, 361-387. 
  • 17. Ecker, U. K., Lewandowsky, S., & Tang, D. T. (2011). Explicit warnings reduce but do not eliminate the continued influence of misinformation. Memory & Cognition, 38, 1087-1100.
  • 18. Tenney, E. R., Cleary, H. M., & Spellman, B. A. (2009). Unpacking the doubt in “Beyond a reasonable doubt:” Plausible alternative stories increase not guilty verdicts. Basic and Applied Social Psychology, 31, 1-8.
  • 19. Rapp, D. N., & Kendeou, P. (2007). Revising what readers know: Updating text representations during narrative comprehension. Memory & Cognition, 35, 2019-2032.
  • 20. Diethelm, P., & McKee, M. (2009). Denialism: what is it and how should scientists respond? European Journal of Public Health, 19, 2-4.
  • 21. Lewandowsky, S., Stritzke, W. G., Oberauer, K., & Morales, M. (2005). Memory for fact, fiction and misinformation: The Iraq War 2003. Psychological Science, 16, 190-195.
  • 22. Lewandowsky, S., & Stritzke, W. G. K., Oberauer, K., & Morales, M. (2009). Misinformation and the ‘War on Terror’: When memory turns fiction into fact. In W. G. K. Stritzke, S. Lewandowsky, D. Denemark, J. Clare, & F. Morgan (Eds.), Terrorism and torture: An interdisciplinary perspective (pp. 179-203). Cambridge, UK: Cambridge University Press. 
  • 23. Lewandowsky, S. (2011). Popular consensus: Climate change set to continue. Psychological Science, 22, 460-463.

Geschreven door:
John Cook, Global Change Institute, University of Queensland
Stephan Lewandowsky, School of Psychology, University of Western Australia

Voor het eerst gepubliceerd in november 2011.
Versie 2 gepubliceerd op 23 januari 2012.

Vertaling door Rik Delaet, Jozef Van Giel
Voor meer informatie, zie http://sks.to/debunk

Publicatiedatum
08-10-2012