Überzeugungen statt Fakten

Warum hält sich der Glaube an vererbte Rudelstellungen trotz wissenschaftlich belegter Unsinnigkeit?

Der Versuch einer Erklärung (angelehnt an einem Text von Marko Kovic, mit freundlicher Genehmigung).

Formale Logikfehler

Formale Logik ist jener Teil der Logik, bei dem es nicht darum geht, ob das, was behauptet wird, inhaltlich wahr ist. Stattdessen geht es ausschließlich um die Frage, ob eine Schlussfolgerung aus den gegebenen Prämissen ableitbar ist. Im Kontext der sogenannten „vererbte Rudelstellung nach Karl Werner“ ist formale Logik wohl nicht zentral, denn die strittigen Punkte betreffen in aller Regel inhaltliche Fragen und die Art und Weise, wie diese geklärt und interpretiert werden können. Dennoch können auch formale Logikfehler von Bedeutung sein: Wenn Argumente vorgetragen werden, welche formal unzulässig sind, erschwert das die inhaltliche Diskussion.

Ein formaler Fehlschluss, welcher bisweilen von Befürwortern der vererbten Rudelstellung vorgetragen wird, hat folgende Form (die inhaltliche Wahrheit der Prämissen interessiert an dieser Stelle nicht):

Hund A lebt im „Fehlbesatz“.
Hund A hat das Problem X.
Also verursacht „Fehlbesatz“ das Problem X.

Diese Schlussfolgerung sieht zwar – ungeachtet des inhaltlichen Wahrheitsgehaltes der ersten Prämisse – auf den ersten Blick plausibel aus. Wenn Hund A im „Fehlbesatz“ lebt und das Problem X hat, dann hat offenbar der Fehlbesatz das Problem X verursacht. Das ist aber ein Trugschluss, denn X kann völlig andere Ursachen haben. Eine formal korrekte Schlussfolgerung dagegen wäre die folgende Umkehrung:

Hund B lebt im „Fehlbesatz“.
Hund B hat nicht das Problem X.
Also verursacht „Fehlbesatz“ nicht das Problem X.

Der Unterschied zwischen einem formal falschen und einem formal korrekten Argument ist oft nicht einfach zu erkennen. Die Natur solcher Fehlschlüsse wird aber deutlich, wenn wir das Beispiel abändern:

Wenn ich Fieber habe, schwitze ich.
Ich schwitze.
Also habe ich Fieber.

Es ist möglich, dass diese Schlussfolgerung korrekt ist: Wenn ich schwitze, kann ich Fieber haben. Allerdings kann ich auch schwitzen, weil ich mich gerade körperlich anstrenge oder weil es ein heißer Sommertag ist. Bei diesem formalen Fehlschluss folgt die Schlussfolgerung also nicht zwingend aus den Prämissen, sondern es gibt beliebig viele andere mögliche Schlussfolgerungen – das ist die Natur dieses formalen Fehlschlusses.

Ankerheuristik («Anchoring»-Effekt)

Wir haben alle den subjektiven Eindruck, in der Lage zu sein, neutral und objektiv Informationen aufzunehmen und dadurch unseren Wissensstand zu aktualisieren und, wenn angebracht, unsere Meinungen und Einstellungen anzupassen. Dieser Eindruck täuscht: Wir tendieren dazu, bestimmten Informationen mehr Glaubwürdigkeit und Relevanz zuzusprechen als anderen. Das Kriterium ist dabei nicht etwa die objektive Qualität der Informationen, sondern — viel banaler — die Chronologie der Informationen. Ein bestimmter Effekt sticht dabei heraus: Wir halten besonders an jenen Informationen fest, welche wir als erste erhalten haben. Dieser Denkfehler wird «Ankerheuristik» genannt und gehört zu den besser untersuchten kognitiven Verzerrungen.

Der Mechanismus der Ankerheuristik bei Vertretern der vererbten Rudelstellung gründet im Umstand, dass wir alle im Allgemeinen nicht wirklich viel von Gruppenverhalten bei Caniden; speziell Hunden, wissen sondern dieses mehr oder weniger routiniert akzeptieren. Wenn nun Individuen zum ersten Mal aktiv in Kontakt mit Informationen rund um Gruppenverhalten von Hunden kommen, besteht mit nicht geringer Wahrscheinlichkeit die Option, dass diese ersten Informationen unwissenschaftliche Thesen zu Gruppenverhalten beinhalten oder sogar ausschliesslich daraus bestehen. Der Erstkontakt mit dem Thema der vererbten Rudelstellungen findet meist auf zwei Wegen statt. Freunde und Bekannte, die selber Sympathisanten vererbter Rudelstellung sind, sprechen die Thematik oft bilateral an. Andererseits spielt das Internet im Falle der „vererbten Rudelstellung“ sogar eine zentrale Rolle: Online finden sich Quellen, wo faktisch falsche Behauptungen rund um vererbte Rudelstellungen gemacht werden. Solche Fehlinformationen wurden sogar durch Sendungen im öffentlich-rechtlichen Rundfunk; in diesem Fall das ZDF, verbreitet.

Die Ankerheuristik ist ein allgemeiner Denkfehler, von dem wir alle betroffen sind, und wie bei allen Denkfehlern ist einige Anstrengung von Nöten, um ihn zu überwinden. Eine präventive Maßnahme wäre die aktivere Verbreitung sachlich-wissenschaftlicher Informationen über canides Sozialverhalten – wenn wir um die Ankerheuristik wissen, ist es sinnvoll, die Wahrscheinlichkeit zu erhöhen, dass die erste Information, welche wahrgenommen wird, eine wissenschaftlich-sachliche ist.

Bestätigungsfehler («Confirmation Bias»)

Idealerweise würden wir immer sehr neutral und sachlich prüfen, ob unsere Ideen, unsere Hypothesen, durch die verfügbaren Informationen und Daten gestützt werden oder nicht. Im Alltag würde uns ein solches Vorgehen aber überfordern oder zumindest einiges an Anstrengung kosten. Darum tendieren wir zu einem verzerrten Kurzschluss-Verfahren: Jene Ideen und Hypothesen, welche wir schon im Kopf haben, wollen wir automatisch eher als bestätigt sehen; auch, wenn die Informations- und Datenlage dagegen sprechen – wir üben uns fast permanent in einem sogenannten Bestätigungsfehler.

Es ist einfach nachzuvollziehen, warum der Bestätigungsfehler bei Befürwortern der vererbten Rudelstellung relevant ist: Diese Haltung ist meistens keine spontane Einstellung, sondern beruht auf einer verhältnismäßig hohen zeitlichen, kognitiven und auch finanziellen Investition. Eine Idee, in welche viel Ressourcen investiert werden, wird dadurch entsprechend anfällig für den Bestätigungsfehler. Zum Bestätigungsfehler kommen auch noch zwei weitere Phänomene. Einerseits haben wir das Bedürfnis, sogenannte «kognitive Dissonanzen» zu tilgen: Ideen, die zu einander im Widerspruch stehen, bereiten uns Unbehagen, und dieses Unbehagen wollen wir aus der Welt schaffen. Das Tilgen der kognitiven Dissonanzen erfolgt dabei nicht immer rational. Wir bedienen uns stattdessen beispielsweise des Mechanismus des «motivierten Denkens»: Es fällt uns deutlich leichter, das, woran wir glauben wollen, bestätigt zu sehen, als alternative Erklärungen in ernsthafte Erwägung zu ziehen.

Der Bestätigungsfehler ist insgesamt also ein gewichtiges Problem: Je intensiver die Begeisterung für vererbte Rudelstellungen bei einer Person, desto unwahrscheinlicher ist es, dass die betreffende Person für rationale Argumente aufnahmefähig ist.

Anekdotisches Denken

Befürworter der vererbten Rudelstellungen lehnen Argumente, welche auf Daten rekurrieren, nicht prinzipiell ab. Im Gegenteil: Tendenziell investieren sie viel Zeit in die Suche nach und die Interpretation von Daten, z.B. zur genetischen Nachweisbarkeit der Rudelstellungen. Das Problem ist, dass RudelstellungsBefürworter dabei recht oberflächlich vorgehen und ihre Daten nicht systematisch selektieren. (Entsprechende Hintergrundinformationen finden sich auf unserem Blog.)

Die Art und Weise, wie Daten erhoben werden, ist nicht immer gleich valide und gleich reliabel. Manchmal zeigen die erhobenen Daten nicht das, was sie eigentlich zeigen sollen. Wenn wir die Uhrzeit erfahren wollen und dafür auf ein Thermometer schauen, werden die Daten nicht das zeigen, was uns eigentlich interessiert. Manchmal ist auch die Methode, um Daten zu erheben, unzuverlässig. Wenn wir die Uhrzeit erfahren wollen und dafür auf eine defekte Uhr schauen, erhalten wir zwei Mal am Tag korrekte Daten, aber ansonsten nur falsche; eine defekte Uhr ist nicht sehr zuverlässig.
Befürworter vererbter Rudelstellungen verlassen sich auf Daten mit extrem niedriger Validität und Reliabilität – sie verlassen sich auf Anekdoten. Anekdoten, also Einzelereignisse, sind ein sehr gut formbares Material, aus welchem sich ein Narrativ nach dem eigenen Gusto stricken lässt. In Kombination mit den Punkten formaler Logikfehler und Bestätigungsfehler können Einzelfälle in der eigenen Interpretation immer genau das aufzeigen, was aufgezeigt werden soll.

Anekdotisches Denken ist vermutlich kein universaler Denkfehler, denn generell scheinen wir statistischen Daten mehr Glaubwürdigkeit als anekdotischen Daten zu schenken. In Fragen rund um das Verhalten von Hunden ist dieser Effekt aber offenbar ein umgekehrter, so auch bei vererbten Rudelstellungen. Die Kraft der Anekdote in Fragen von canidem Verhalten ist derart stark, dass es sogar (für sich genommen sehr problematische) Tendenzen gibt, sämtliche Verhaltensweisen eines Hundes inklusive Erkrankungen mit Hilfe der vererbten Rudelstellung zu erklären.

Illusorische Korrelation

Im vorhergehenden Absatz wurde die Problematik der Anekdoten erwähnt. Anekdoten verleiten uns dazu, kausale Zusammenhänge zu sehen, wo lediglich Korrelationen zu finden sind – Ereignisse treten miteinander oder nacheinander auf. Diese Problematik wird durch einen weiteren Denkfehler ergänzt: In Tat und Wahrheit bilden wir uns oft nur ein, es gebe die vermeintlichen Korrelationen.

Illusorische Korrelationen spielen auch bei Befürwortern der vererbten Rudelstellungen eine Rolle. Wenn die Überzeugung sehr ausgeprägt und das anekdotische Denken stark verinnerlicht ist, hat der Bestätigungsfehler freie Bahn. Vermeintliche Korrelationen werden dann überall dort wahrgenommen, wo die eigene Einstellung bestätigt wird – der eigenen Einstellung zuwiderlaufende Zusammenhänge werden dagegen systematisch ausgeblendet.

Verzerrte Realitätswahrnehmung

«Realität» ist ein Begriff, den wir im Alltag explizit oder implizit oft verwenden. Rein objektiv gesehen bezeichnet Realität etwas, was keine Illusion ist und nicht von Wünschen oder Überzeugungen eines einzelnen abhängt.

Insbesondere der sogenannte wissenschaftliche Realismus ist hier interessant, da sich die These einer vererbten Rudelstellung als “wissenschaftliche” Erkenntnis, zumindest aber als revolutionäre Erkenntnis, verbreiten möchte.

Der wissenschaftliche Realismus ist eine realistische Position in der Erkenntnis- und Wissenschaftstheorie, die besagt, dass eine erkennbare Wirklichkeit existiert, die unabhängig vom menschlichen Denken ist, und dass die Bestätigung einer wissenschaftlichen Theorie die Annahme begründet, dass diese Wirklichkeit so aussieht, wie diese Theorie das aussagt. Insbesondere betrifft dies den Anspruch, dass die Entitäten, über die eine bestätigte Theorie spricht, objektiv existieren.

Wir sind aber subjektiv sehr weit entfernt von einer solchen trockenen Realitätswahrnehmung. Wir sind keine neutralen Rechenmaschinen, die die ganze Fülle möglicher Theorien und Daten objektiv zu berechnen versuchen. Wir nehmen die Welt einerseits über unseren begrenzten und fehleranfälligen Sinnesapparat wahr, und andererseits über den kommunikativen Austausch mit anderen Menschen und die Rezeption von Massenmedien. Das führt dazu, dass wir unsre Realitäten praktisch immer fehleinschätzen; jene, die wir überschätzen, überschätzen wir, weil sie im Zuge unserer sozialen Wahrnehmung einen Prozess der Verstärkung durchmachen.

Verfechter vererbter Rudelstellungen erleben eine bestimmte subjektive und soziale Realität, in welcher dieser Verstärkungsprozess die vermeintlichen Vorteile einer verbesserten Rudelstruktur bzw. die Risiken der sogenannten Unstruktur betrifft. Soziale Strukturen innerhalb von Canidenverbänden sind jedoch – wie auch auf unsrem Blog sowie jeder gängigen ethologischen Fachliteratur nachzulesen – dynamisch und keineswegs vererbt. Anekdoten scheinen die Wahrnehmung der Lehre von vererbten Rudelstellungen als plausibel und richtig stärker zu beeinflussen als Statistiken.

Dunning-Kruger-Effekt

Wir alle haben Hobbys, Freizeitbeschäftigungen, mehr oder minder flüchtige Interessen. Das sind in der Regel Dinge und Bereiche, in denen wir uns einerseits ein bisschen besser auskennen als Leute, die damit gar nichts zu tun haben. Andererseits haben wir aber auch keine wirklich vertiefte Expertise – irrationalerweise neigen wir aber dazu, uns einzubilden, dass unsere Expertise umfangreicher ist, als sie in Tat und Wahrheit ist.

Dieser Denkfehler trägt den Namen «Dunning-Kruger-Effekt» nach den zwei Autoren, welche diese verzerrte Selbsteinschätzung beschrieben haben. In Anbetracht der vorhergehenden Punkte ist einfach nachzuvollziehen, warum der Dunning-Kruger-Effekt bei Verfechtern von vererbter Rudelstellung ein relevanter Faktor ist. Sie investieren in der Regel nicht unerhebliche kognitive und sonstige Ressourcen in das Thema „vererbte Rudelstellung“. In Kombination mit anderen Denk- und Logikfehlern kann diese intensive Zuwendung zum Thema zu der Selbsteinschätzung verleiten, die eigene Kompetenz bei der Thematik sei sehr hoch, obwohl das objektive Wissen und die objektiven Argumente von weniger hoher Güte sind.

Verschwörungstheorien

Anekdoten wie die berühmten „Tagebücher“ auf der großteils nicht öffentlichen Website bilden gute Narrative, die die Befürwortung vererbter Rudelstellungen befeuern. Diese Narrative bestehen nicht nur aus einer Menge individueller Leidensgeschichten, die zu einer von vererbter Rudelstellung überzeugten Haltung motivieren. All die individuellen Anekdoten und Ängste werden zu einer grossen Geschichte verwoben.Kritik an der Lehre vererbter Rudelstellungen wird nicht nur abgelehnt, weil die vorgeschlagenen Alternativen als Erklärungsmodell zu kompliziert sind oder weil sich die Verfechter in ihren Glaubenssätzen angegriffen fühlen. Vielmehr werden hinter der Kritik oft Verschwörungen vermutet, wie z.B. eine fiskale Interessensgemeinschaft konservativer Hundetrainer, Nichtanerkennung einer „revolutionären“ Theorie, persönliche Konflikte mit Fr. Ertel oder anderen Vertretern der „vererbten Rudelstellung“. Einen ersten Eindruck der Gedankenwelt und Sichtweise der Befürworter liefert auch ein Einblick in die Kommentare auf unserem Blog.

Verschwörungstheorien sind Erklärungen für schlimme, schockierende Ereignisse. Für diese Ereignisse sollen boshafte, ruchlose und schier unendlich mächtige Personen oder Organisationen verantwortlich zeichnen, die bemüht sind, ihre Untaten zu verdecken.

Verschwörungstheorien haben in erster Linie den Zweck, Erklärungen für Ereignisse zu liefern. Sie haben aber auch eine wichtige indirekte Funktion: Jene, die die Verschwörung erkannt haben, gehören zu den «Guten», «Eingeweihten» – und die Gegenseite, die korrupten und kriminellen, skrupellosen und unmoralischen Eliten, sind die «Bösen». Verschwörungstheorien decken damit ein fundamentales Bedürfnis ab: Sie stiften über Gruppenzugehörigkeit Identität, und diese Identität besteht zu grossen Teilen in der Abgrenzung von anderen Gruppen, die als schlecht angesehen werden. Dieser Abgrenzungsmechanismus zwischen Gruppen kann soweit gehen, dass über Gefühle wie Abscheu, Wut, Hass und dergleichen den Mitgliedern der anderen Gruppe oder Gruppen ein Stück weit ihre Menschlichkeit abgesprochen wird.

Zurück zur Natur («Appeal to nature»)

Unser aller Alltag ist durch die Errungenschaften von Wissenschaft, oder allgemeiner, durch die Früchte zivilisatorischen Fortschritts geprägt. Die Meisten von uns begrüßen die meisten dieser Früchte der Moderne, denn gegen Dinge wie technologischen Fortschritt sträubt sich im Grunde niemand. Aber dieser zeitgenössische Lebensstil weckt auch bestimmte Sehnsüchte: Wir fragen uns, ob es gut ist, dass wir so wenig Bezug haben zu jenem Teil der Welt, der noch frei von menschlichem Einfluss ist. Wir haben also gewisse Bedenken, den Bezug zur Natur zu verlieren.

«Natur» mit uns Menschen bzw. mit unserer Gesellschaft zu kontrastieren, ist auf einer gewissen Ebene unschlüssig. Wir Menschen sind Tiere, die über evolutionäre Vorgänge entstanden sind, so, wie alle anderen Lebewesen auf der Erde auch. In diesem Sinne sind wir natürlich Teil der Natur und jedes menschliche Handeln ist «natürlich». Trotzdem kann unterschieden werden zwischen jenem Teil der Welt, welcher ohne menschliches Zutun zustandegekommen ist, und unseren menschlichen Handlungen sowie ihren Folgen. Hier schwingt zumindest auf narrativer Ebene durchaus ein gewisser Antagonismus mit: Wir Menschen sind die einzige Spezies, die prinzipiell in der Lage ist, bewusst alles Leben auf dem Planeten zu beenden. Es ist darum nachvollziehbar, dass wir uns intuitiv fragen, ob das, was wir Menschen machen, kompatibel mit der Natur ist, und dass wir uns danach sehnen, unser Leben in Einklang mit der Natur zu leben.

Intuition und Sehnsucht sind aber nicht immer die besten Helfer. Unser zwiespältiges Verhältnis zur Natur kann einerseits durchaus Triebfeder für sinnvolle Überlegungen sein, wie zum Beispiel die Frage, wie wir unsere kollektive Existenz nachhaltig gestalten können. Andererseits kann unser zwiespältiges Verhältnis zur Natur auch zu irrationalen Schlussfolgerungen führen. Der Spitzenplatz dieser irrationalen Schlussfolgerungen ist die Annahme, dass etwas automatisch dann besser und wünschenswerter ist, wenn es natürlich ist.

Alles, was wir über die Welt wissen, deutet klar in eine Richtung: Hinter der Natur, oder allgemeiner, hinter dem Universum steht kein «Telos», kein in irgendeiner Art vorbestimmtes oder gesteuertes grosses Ziel. Das Universum ist uns Menschen in keiner Art wohlgesinnt, wie es auch allen anderen Dingen innerhalb des Universums in keiner Art wohlgesinnt ist. Das bedeutet nicht, dass alles Natürliche schlecht ist – aber es bedeutet genauso wenig, dass jeder aktive Einfluss auf natürliche Vorgänge schlecht wäre. Dieser bedeutende Fehlschluss, dass etwas schlecht ist, weil es unnatürlich sei, ist ein zentraler Bestandteil der Argumentation Pro vererbte Rudelstellung.

Wer den Fehlschluss zieht, dass etwas gut sein muss, nur, weil es natürlich ist, kommt nicht umhin, der Natur ein solches prinzipielles Wohlwollen zu unterstellen, und damit «die Natur» mit der Eigenschaft eines handelnden Akteurs zu versehen.

Zu Alledem kommt, dass die Lehre vererbter Rudelstellungen sich zwar den Anstrich der Natürlichkeit und Naturverbundenheit gibt, dies jedoch allen wissenschaftlichen Erkenntnissen zu tatsächlich natürlichem Canidenverhalten und der Vererbungslehre widerspricht. Es wird also nicht nur der Fehlschluss gezogen, Natur sei prinzipiell besser als menschlicher Einfluss, sondern die suggerierte Natur ist sogar nur eine Vermeintliche.

Top

Quellen
www.skeptiker.ch (18.02.2015), vorallem vielen Dank an Marko Kovic
Furnham, A., & Boo, H. C. (2011). A literature review of the anchoring effect. The Journal of Socio-Economics, 40(1), 35–42. doi:10.1016/j.socec.2010.10.008 [↑]
Strack, F., & Mussweiler, T. (1997). Explaining the enigmatic anchoring effect: Mechanisms of selective accessibility. Journal of Personality and Social Psychology, 73(3), 437–446. doi:10.1037/0022-3514.73.3.437 [↑]
Tversky, A., & Kahneman, D. (1974). Judgment under Uncertainty: Heuristics and Biases. Science, 185(4157), 1124–1131. doi:10.1126/science.185.4157.1124 [↑]
Wright, W. F., & Anderson, U. (1989). Effects of situation familiarity and financial incentives on use of the anchoring and adjustment heuristic for probability assessment. Organizational Behavior and Human Decision Processes, 44(1), 68–82. doi:10.1016/0749-5978(89)90035-6 [↑]
Lord, C. G., Ross, L., & Lepper, M. R. (1979). Biased assimilation and attitude polarization: The effects of prior theories on subsequently considered evidence. Journal of Personality and Social Psychology, 37(11), 2098–2109. doi:10.1037/0022-3514.37.11.2098 [↑]
Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 175–220. doi:10.1037/1089-2680.2.2.175 [↑]
Festinger, L. (1962). A Theory of Cognitive Dissonance. Stanford University Press. [↑]
Kunda, Z. (1990). The case for motivated reasoning. Psychological Bulletin, 108(3), 480–498. doi:10.1037/0033-2909.108.3.480 [↑]
http://www.skeptiker…tisches-denken/ [↑]
Allen, M., & Preiss, R. W. (1997). Comparing the persuasiveness of narrative and statistical evidence using meta-analysis. Communication Research Reports, 14(2), 125–131. [↑]
Hornikx, J. (2005). A review of experimental research on the relative persuasiveness of anecdotal, statistical, causal, and expert evidence. Studies in Communication Sciences, 5(1), 205–216. [↑]
Winterbottom, A., Bekker, H. L., Conner, M., & Mooney, A. (2008). Does narrative information bias individual’s decision making? A systematic review. Social Science & Medicine, 67(12), 2079–2088. doi:10.1016/j.socscimed.2008.09.037 [↑]
De Wit, J. B. F., Das, E., & Vet, R. (2008). What works best: Objective statistics or a personal testimonial? An assessment of the persuasive effects of different types of message evidence on risk perception. Health Psychology, 27(1), 110–115. doi:10.1037/0278-6133.27.1.110 [↑]
Hinyard, L. J., & Kreuter, M. W. (2007). Using Narrative Communication as a Tool for Health Behavior Change: A Conceptual, Theoretical, and Empirical Overview. Health Education & Behavior, 34(5), 777–792. doi:10.1177/1090198106291963 [↑]
Hamilton, D. L., & Gifford, R. K. (1976). Illusory correlation in interpersonal perception: A cognitive basis of stereotypic judgments. Journal of Experimental Social Psychology, 12(4), 392–407. doi:10.1016/S0022-1031(76)80006-6 [↑]
Kahneman, D., & Tversky, A. (1996). On the reality of cognitive illusions. Psychological Review, 103(3), 582–591; discusion 592–596. [↑]
Kasperson, R. E., Renn, O., Slovic, P., Brown, H. S., Emel, J., Goble, R., … Ratick, S. (1988). The Social Amplification of Risk: A Conceptual Framework. Risk Analysis, 8(2), 177–187. doi:10.1111/j.1539-6924.1988.tb01168.x [↑]
Kruger, J., & Dunning, D. (1999). Unskilled and unaware of it: how difficulties in recognizing one’s own incompetence lead to inflated self-assessments. Journal of Personality and Social Psychology, 77(6), 1121–1134. [↑]
Goertzel, T. (2010). Conspiracy theories in science. EMBO Reports, 11(7), 493–499. doi:10.1038/embor.2010.84 [↑]
Lewandowsky, S., Gignac, G. E., & Oberauer, K. (2013). The Role of Conspiracist Ideation and Worldviews in Predicting Rejection of Science. PLoS ONE, 8(10), e75637. doi:10.1371/journal.pone.0075637 [↑]
Keeley, B. L. (1999). Of Conspiracy Theories. The Journal of Philosophy, 96(3), 109–126. doi:10.2307/2564659 [↑]
Baumeister, R. F., & Leary, M. R. (1995). The need to belong: Desire for interpersonal attachments as a fundamental human motivation. Psychological Bulletin, 117(3), 497–529. doi:10.1037/0033-2909.117.3.497 [↑]
Brewer, M. B. (1999). The Psychology of Prejudice: Ingroup Love and Outgroup Hate? Journal of Social Issues, 55(3), 429–444. doi:10.1111/0022-4537.00126 [↑]
Hewstone, M., Rubin, M., & Willis, H. (2002). Intergroup Bias. Annual Review of Psychology, 53(1), 575–604. doi:10.1146/annurev.psych.53.100901.135109 [↑]
Perdue, C. W., Dovidio, J. F., Gurtman, M. B., & Tyler, R. B. (1990). Us and them: Social categorization and the process of intergroup bias. Journal of Personality and Social Psychology, 59(3), 475–486. doi:10.1037/0022-3514.59.3.475 [↑]
Buckels, E. E., & Trapnell, P. D. (2013). Disgust facilitates outgroup dehumanization. Group Processes & Intergroup Relations, 16(6), 771–780. doi:10.1177/1368430212471738 [↑]
Paladino, M.-P., & Vaes, J. (2009). Ours is human: On the pervasiveness of infra-humanization in intergroup relations. British Journal of Social Psychology, 48(2), 237–251. doi:10.1348/014466608X322882 [↑]
Vaes, J., Leyens, J.-P., Paola Paladino, M., & Pires Miranda, M. (2012). We are human, they are not: Driving forces behind outgroup dehumanisation and the humanisation of the ingroup. European Review of Social Psychology, 23(1), 64–106. doi:10.1080/10463283.2012.665250 [↑]

5 Gedanken zu „Überzeugungen statt Fakten

  1. Malo

    Danke für diesen hervorragenden Artikel. Er zeigt präzise und anschaulich die psychologischen Mechanismen, die bei RS ganz besonders zum Tragen kommen.
    Vielleicht hält man ja damit den einen oder anderen „RS-Neueinsteiger“ ab ….

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.