Wir sind der Meinung, dass wir bewusst entscheiden und die Parameter, die für die Entscheidungsfindung vorliegen, wohlüberlegt berücksichtigen könnten. Wir treffen täglich Entscheidungen, lösen Probleme und bilden uns Urteile.
Optimale Grundlage wären die Kenntnis aller Informationen, die es zu dem Umstand gibt, und das Wissen um die höchste statistische Wahrscheinlichkeit für die Antwort oder das Urteil.
Es stehen jedoch nicht alle Informationen zur Verfügung und wir kennen auch häufig nicht die höchste Wahrscheinlichkeit – vielmehr arbeiten wir mit den in dem Moment zur Verfügung stehenden Informationen, mit erlernten Erfahrungen (das Ergebnis von sozialen Konstruktionsprozessen[1]) und Heuristiken.[2]
Heuristiken sind Faustregeln, die uns helfen, komplexe Probleme zu lösen, vor allem wenn wir nicht lange überlegen können und nicht alle Informationen zur Verfügung stehen.[3] Wenn wir also „unter Unsicherheit“ entscheiden, handeln und urteilen müssen. Dadurch können kognitive Verzerrungen, Denkfehler, entstehen, die unsere Entscheidungen und Handlungen unbewusst beeinflussen und die auch unsere Urteile z.B. über uns selbst und andere, verzerren.[4]
Eine kognitive Verzerrung wird auch Bias genannt.[5]
Dieser Beitrag beleuchtet eine Auswahl an kognitiven Verzerrungen.
Wir sehen, was wir sehen wollen – Confirmation Bias
Folgende Frage wird gestellt: 3, 6, 9 … wie lautet die nächste Zahl in der Reihe und welche Regel verbirgt sich dahinter? Unsere Antwort lautet vermutlich: die nächste Zahl ist 12 und die Regel lautet „immer plus drei“.
Antwort: Ja, die genannte Zahl (12) ist eine richtige Lösung, die Regel aber falsch. So wäre 10 auch eine richtige Lösung, weil die Regel lautet, dass die nächste Zahl (lediglich) höher sein muss als die vorherige.
Die Lösung schien auf der Hand zu liegen und es wurde nicht weiter nachgedacht. Das Problem war schnell geklärt. Andere Lösungsansätze wurden nicht mehr verfolgt. Wir unterliegen hier dem Confirmation Bias und haben Disconfirming Evidences (gegenteilige Beweise) ignoriert.
Jeder Mensch hat eine innere Landkarte und ein Weltbild. Wenn wir eine Meinung haben, dann tendieren wir dazu, Informationen so zu interpretieren, dass diese bestätigt wird. Widersprüchliche Aussagen werden ignoriert und schnell vergessen. Der Confirmation Bias hilft uns, Informationen zu filtern und einzuordnen und auch das eigene Selbstwertgefühl zu erhalten. Welche Risiken der Bias verbirgt, kann man an dem Zahlenrätsel erkennen. Wir ignorieren dadurch Risiken, wenn wir sie nicht beachten und wir ignorieren bessere oder sogar richtige Lösungen. Ein Grundsatz beim wissenschaftlichen Arbeiten ist nicht, Beweise für eine Theorie zu finden, sondern dagegen.[6]
Sunk Cost Falley oder die Angst vor Verlusten
Man treibt eine Sache weiter voran, in die man schon viel investiert hat, die bisher noch keinen oder nur geringen Erfolg hatte und auch ungewisse Erfolgsaussichten hat. Je mehr Geld man z.B. in die Reparatur eines alten Autos investiert, desto schwerer fällt es, einen Schlussstrich zu ziehen und das Auto abzustoßen. Der unwiederbringliche Verlust wird in weiteren Entscheidungen berücksichtigt.[7] „Den Verlust macht man erst, wenn man ihn realisiert.“ Eine Erklärung wurde in der Prospect Theory von Kahneman&Tversky gegeben, wo über Experimente gezeigt werden konnte, dass die Angst vor Verlusten höher wiegt als die Freude über Gewinne.[8]
Framing Effekt
Unter Framing versteht man die Beeinflussung einer Reaktion durch die Art der entscheidungs- bzw. urteilsrelevanten Informationsbeschreibung oder -präsentation. Eine Speise, die mit der Werbung „Kein Fett“ beschrieben wird, verkauft sich evtl. besser als unter dem Slogan „besteht aus Zucker und Wasser“.
Problembeschreibungen, die formal äquivalent sind, also deren Konsequenzen identisch sind, aber deren Optionen unterschiedlich beschrieben sind, können dadurch zu unterschiedlichen Reaktionen führen.[9] Beispielhaft ist die Asian-Disease-Aufgabe von Kahneman&Tversky, die nachgelesen werden kann unter der Internetadresse in der hier folgenden Fußnote.[10]
Kognitive Verzerrungen wirken auch auf die Einschätzung unserer selbst und anderer Personen.
Der Overconfidence Bias beschreibt die Selbstüberschätzung der eigenen Fähigkeiten und Kenntnisse. Er lässt uns glauben, dass wir eine starke Einflussmöglichkeit durch unser Verhalten auf die Zukunft haben. Wir sind der Ansicht, wir könnten Vorhersagen treffen, die überdurchschnittlich oft eintreffen, was aber leider nicht der Fall ist.[11] Mehr Wissen oder Kompetenz scheint einen Mensch eher vor diesem Bias zu schützen. Auch scheint es, dass je höher die Unsicherheit in einer Situation ist, desto stärker sich Overconfidence zeigt.[12]
Der Halo Effekt beschreibt, wie ein Mensch andere durch die Zuweisung einzelner Attribute insgesamt nach diesem Eindruck beurteilt. Hat ein Lehrer von einem Schüler eine Arbeit schon mehrfach mit sehr gut bewertet, dann ist es wahrscheinlich, dass weitere Arbeiten entsprechend gut beurteilt werden. Benimmt sich eine Person in einer Situation sehr nett, kann es passieren, dass man den Gesamtcharakter ebenfalls als sehr gut bewertet, ohne die anderen Eigenschaften zu kennen.[13]
Beim Attributionsfehler hingegen schließt man aus dem Verhalten einer Person auf seine Persönlichkeitsmerkmale: „Er benimmt sich so, weil er eben ein aggressiver Mensch ist“. Man vergisst dabei die Situation, in der sich der Mensch befindet, in die Beurteilung einzubeziehen. Müsste man hingegen das eigene Verhalten erklären, dann nimmt man sehr wohl die Situation als Grund heran.[14] Dies könnte daran liegen, dass die Interpretation von situativen Faktoren für einen Beobachter kognitiv schwerer ist, als die Zuschreibung des Verhaltens auf persönliche Eigenschaften.[15]
Hier kommt auch der Self Serving Bias ins Spiel. Er weist Erfolge den eigenen Fähigkeiten zu, während Misserfolge der Situation geschuldet sind. Das dient zur Aufrechterhaltung des Selbstwerts; z.B. wird eine sehr gute Leistung in einem Test der Intelligenz zugewiesen, während eine schlechte Leistung eher durch die Situation erklärt wird: „Ich habe eben zu wenig gelernt“ oder „Leider habe ich erst einen Tag vorher angefangen zu lernen“.[16]
Fazit
Eigene Entscheidungen zu reflektieren, wenn wir uns der Existenz der kognitiven Verzerrungen bewusst sind, und erkennen, wie sie uns beeinflussen, ist ein Schritt um besser zu verstehen, warum wir und unsere Umwelt so handeln, wie sie handeln. Das Bewusstsein, dass uns nicht alle Informationen zur Verfügung stehen und die Beachtung der statistischen Wahrscheinlichkeit kann uns ein bisschen objektiver machen. Entscheidungen oder Vorgehensweisen unserer Mitmenschen können besser verständlich sein. Eventuell können Handlungsweisen an den entsprechenden Stellen in die gewünschte Richtung gelenkt werden.
Fußnoten
[1] Betsch T., Funke J., Plessner H.: S.5
[2] Vgl. Betsch T., Funke J., Plessner H.: S.2
[3] Vgl. Pfister H., Jungermann H., Fischer K.: S.132f.
[4] Vgl. Pfister H., Jungermann H., Fischer K.: S.133
[5] Vgl. Wirtz M.A. (Hrsg.) – Definition Bias (Abruf 22.8.2019)
[6] Vgl. Baumgärtner, B: S. 216, Knöner S.: S.37
[7] Vgl. Kirchler, E., Stark, J.: Sunk-cost effect (Abruf 16.9.2019)
[8] Vgl. Kirchler, E., Stark, J.: Verlustaversion (Abruf 16.9.2019)
[9] Vgl. Pfister H.: Jungermann H., Fischer K.: S.196
[10] Vgl. Schulze J.: S.30 (Dokumentenseite) (Abruf 17.9.2019)
[11] Vgl. Rascher S.: S.26f.
[12] Vgl. Bank M, Kottke N.: S. 5 (Abruf 07.7.2019)
[13] Vgl. Rosenzweig, P.: S.72ff.
[14] Vgl. Yussefi S.: S.76f.
[15] Vgl. Jonas K., Stroebe W., Hewstone M. (Hrsg.): S.90f.
[16] Vgl. Wirtz M.A. (Hrsg.) – Self-serving bias. (Abruf am 13.8.2019)
Abbildungen
Titelbild: https://pixabay.com/de/vectors/w%C3%BCrfel-escher-farbverlauf-mc-escher-1293954/
Literaturverzeichnis
Betsch T., Funke J., Plessner H.: Denken – Urteilen, Entscheiden, Problemlösen, Springer-Verlag, Berlin Heidelberg, 2011.
Jonas K., Stroebe W., Hewstone M. (Hrsg.): Sozialpsychologie, 6. Auflage, Springer Verlag, Berlin Heidelberg, 2014.
Knöner, S.: Cognitive Biase beim Umgang mit Daten im Biologieunterricht, Springer Fachmedien, Wiesbaden, 2017.
Mayerl, J.: Kognitive Grundlagen sozialen Verhaltens, VS Verlag für Sozialwissenschaften, Wiesbaden, 2009.
Pfister H.: Jungermann H., Fischer K.: Die Psychologie der Entscheidung, 4. Auflage, Springer Verlag, Berlin Heidelberg, 2017.
Rascher S.: Just culture in Organisationen, Springer Fachmedien, Wiesbaden, 2019.
Rosenzweig P.: Der Halo Effekt, Gabal Verlag GmbH, Offenbach, 2008.
Yuseffi S.: Interkulturelle Attributionskompetenz, Rainer Hampp Verlag, München und Mering, 2011.
Internetquellen
Bank M., Kottke N.: Die Auswirkungen von Overconfidence auf die Rationalität von Entscheidungen, Abruf am 07.07.2019, verfügbar unter https://www.uibk.ac.at/economics/bbl/bbl-papiere_wise_04-05/kottke
Baumgärtner, B.: Models of Opinion Dynamics and Mill-Style Arguments for Opinion Diversity, Abruf am 07.07.2019, verfügbar unter https://www.wiso-net.de/document/SSOA__56473
Kirchler, E. , Stark, J.: Sunk-cost effect. In M. A. Wirtz (Hrsg.), Dorsch – Lexikon der Psychologie. Abruf am 16.09.2019, von https://m.portal.hogrefe.com/dorsch/sunk-cost-effect/
Kirchler, E. , Stark, J.: Verlustaversion. In M. A. Wirtz (Hrsg.), Dorsch – Lexikon der Psychologie. Abruf am 16.09.2019, von https://portal-hogrefe-com.ub-proxy.fernuni-hagen.de/dorsch/verlustaversion/
Schulze J.: Wie Sprache unsere Entscheidungen beeinflussen kann. Abgerufen am 17.9.2019, von https://www.uni-bamberg.de/fileadmin/uni/fakultaeten/split_lehrstuehle/deutsche_sprachwissenschaft/PDF/Schulze/Schulze_Wie_Sprache_unsere_Entscheidungen_beeinflussen_kann_published.pdf
Wirtz M. A.(Hrsg.): Definition Bias, In M. A. Wirtz (Hrsg.), Dorsch – Lexikon der Psychologie. Abruf am 22.08.2019, von https://m.portal.hogrefe.com/dorsch/bias/
Wirtz M.A. (Hrsg.): Self Serving Bias, In M. A. Wirtz (Hrsg.), Dorsch – Lexikon der Psychologie. Abruf am 22.08.2019, von https://portal.hogrefe.com/dorsch/self-serving-bias/