Wie passiert gerade eigentlich die Welt?

Die Welt ist nicht immer einfach, sie ist mit Sicherheit nicht schwarz-weiß, und oft genug gibt es keine einfachen Erklärungen: Du weißt nicht, was du nicht weißt. Elf Minuten Lesezeit, vom 20. Mai 2020.

Wenn Phrasen wie „Fake News“, „Verschwörungstheorien“ und „Meinungsfreiheit“ den öffentlichen Diskurs beherrschen und die sonderlichsten Reaktionen hervorrufen, ist es mehr als sonst an der Zeit, dass du dir darüber kritisch Gedanken machst, was genau eigentlich passiert, wie das passiert, und vor allem dass du dich selbst reflektierst und dir überlegst, was du tun kannst.

Deshalb gibt es hier für dich eine kleine Übersicht von zusammengefassten wichtigen Konzepten, Trugschlüssen und kognitiven Verzerrungen, die aktuell ganz besonders die Welt in Kontext setzen, und die Qualität deines Denkens, der Ausgabe davon und letztlich dein Handeln beeinflussen können.

Ankereffekt

Wir werden — unabhängig von unserer tatsächlichen Expertise — von (bewusst) erwähnten Zahlenwerten in unserer Entscheidungsfindung beeinflusst, ohne dass wir uns dieses Einflusses bewusst sind, und selbst, wenn diese Zahlen irrelevant sind.

Beispiel: Wenn einem Immobilienmakler ein Preis für eine Immobilie genannt wird, orientiert sich der Immobilienmakler in der eigenen Preisgestaltung daran.

Apophänie

Wir zwingen unsere Vorstellungen den Anordnungen von Daten auf, und sehen Muster, wo es gar keine Muster gibt. Wahrscheinlich würden wir einen echten Zufall nicht erkennen, wenn er uns begegnet. (Siehe auch: „Prädiktive Kodierung“, „Narrative Verzerrung“.)

Attributionsfehler

Wir neigen dazu, die guten Taten unserer Verbündeten ihrem Charakter zuzusprechen, und die schlechten Taten den Umständen. Bei unseren Gegnern ist es genau andersherum: Die guten Taten sprechen wir den Umständen zu, die schlechten dem Charakter.

Availability Cascade

Wenn ein neues Konzept — besonders solche, die einen komplexen Sachverhalt in einfacher Manier erklären können — in eine Sammlung kollektiver Konzepte gebracht wird, reagieren wir darauf und verstärken es. Dadurch wird es noch bekannter, was wiederum andere Menschen dazu bringt, darauf zu reagieren und es weiter zu verstärken. So wird eine Kettenreaktion in Gang gesetzt: Individuen eignen sich das neue Konzept an, weil es sich andere Menschen in dem Netzwerk ebenfalls angeeignet haben.

Belief-Bias

Argumente, die wir normalerweise als idiotisch abstempeln würden, erscheinen auf einmal völlig logisch, wenn sie zu Schlussfolgerungen führen, denen wir zustimmen. Wir beurteilen die Stärke eines Argumentes nicht danach, wie sehr es eine Schlussfolgerung unterstützt, sondern wie sehr wir die Schlussfolgerung unterstützen.

Benfordsches Gesetz

Je niedriger der zahlenmäßige Wert einer Ziffernsequenz an einer Stelle einer Zahl ist, desto wahrscheinlicher ist ihr Auftreten innerhalb eines Datensatzes.

Beispiel: Zahlen mit der Anfangsziffer 1 treten in etwa 6,6-mal so häufig auf wie Zahlen mit der Anfangsziffer 9.

Bestätigungsfehler

Wir neigen dazu, Informationen so auszuwählen und zu interpretieren, dass diese unsere eigenen Erwartungen bestätigen. (Verwandt: Kognitive Dissonanz.)

Beispiel: Wenn du dir ein bestimmtes silbernes Auto gekauft hast, wirst du es überall sehen; wenn du dir die teuren neuen Kopfhörer gekauft hast, wirst du nur noch Testberichte lesen, die dich in deiner Entscheidung bestätigen.

Bias blind spot

Wir neigen dazu zu glauben, dass wir selbst völlig frei, oder wenigstens freier, von Beeinflussungen sind und kognitive Verzerrungen nur auf andere zutreffen.

Concept Creep

Da gesellschaftliche Probleme (in der westlichen Welt), wie Rassismus oder sexuelle Belästigung, tatsächlich abnehmen, reagieren wir darauf, in dem wir die Definition davon erweitern, und dadurch die Illusion erschaffen, dass diese Probleme schlimmer werden.

Dunning-Kruger-Effekt

Das Bewusstsein über die Grenzen der Kognition / des Denkens erfordert ein Können in Metakognition, dem Denken über das Denken.

Beispiel: Wenn du dumm bist, macht es dich zu dumm zu begreifen, wie dumm du bist.

Emergenz

Wenn viele einfache Dinge miteinander interagieren, kann dadurch in der Summe etwas größeres entstehen / eine Qualität haben, zu dem diese Dinge selbst nicht fähig sind / die sie selbst nicht haben.

Beispiel: Aktienhändler, die den Aktienmarkt bilden; Neuronen, die das Gedächtnis bilden; mathematische Regeln, die „lebende“ Muster ergeben.

Enantiodromie

Etwas von Überfluss in einer Sache kann das Gegenteil beflügeln.

Beispiel: Eine Gesellschaft, die zu liberal ist, wird eine gewisse Toleranz gegenüber einem Gewaltherrscher entwickeln, der die Gesellschaft schließlich „de-liberalisiert.“

Ergodizität

Ein Beispiel für ein ergodisches System ist das Würfeln: Ob ein Würfel 1000-mal hintereinander gewürfelt wird, oder 1000 Würfel auf einmal gewürfelt werden, liefert sowohl zeitlich als auch in der Schar statistisch denselben Mittelwert für die Augenzahl. (Das liegt daran, dass die gleichzeitigen Würfe alle in leicht verschiedenen Zuständen sind und daher auch ein Mittel über den Zustandsraum abgeben.)

Ein Beispiel für ein nicht-ergodisches System ist der Münzwurf: Ausgehend vom ersten Wurf wird entweder die konstante Folge für Kopf „1, 1, 1, …“ oder sonst die konstante Folge „0, 0, 0, …“ genommen. Die Scharmittel sind hier 1/2 — die Zeitmittel jedoch 1 oder 0 (mit einer Wahrscheinlichkeit von 0.5). In einem nicht-ergodischen System ist das individuelle Ergebnis über die Zeit hinweg nicht das durchschnittliche Ergebnis der Schar; das Ergebnis hängt von einem vorherigen Ergebnis ab.

Die meisten behandeln nicht-ergodische Systeme, als seien sie ergodisch, das heißt, sie erwarten und verwechseln den zeitlichen Mittelwert mit dem Scharwert.

Daraus ergeben sich interessante Fragen wie: Ist eine Gesellschaft bezüglich der momentanen Einkommen ein ergodisches System? Wenn man das Einkommen eines Individuums über einen sehr langen Zeitraum verfolgt, erhält man dann das mittlere Einkommen aller Individuen zu einem Zeitpunkt?

Extremistische Phasenübergänge

Extremistische Bewegungen können sich wie in Aggregatzuständen bewegen: feste Körper (Diktaturen), flüssige Körper (Aufstände), und gasförmige Körper (Verschwörungstheorien). Wenn sie unter Druck gesetzt werden, verhalten sie sich entsprechend und gehen von fest zu flüssig zu gasförmig. Andersherum, wenn sie „in Ruhe gelassen werden“, verhält es sich ebenso, von gasförmig zu flüssig zu fest.

Focusing Illusion

Nichts ist in Wirklichkeit so wichtig wie wir denken während wir darüber nachdenken. (Siehe auch: „Ankereffekt“.)

Beispiel: Sich über etwas Sorgen zu machen lässt die Sache, über die wir uns Sorgen machen, schlimmer erscheinen, als sie wirklich ist.

Goodharts Gesetz

In dem Augenblick, in dem ein Maß ein Ziel wird, hört es auf, ein Maß zu sein.

Beispiel: Britische Kolonialherrscher hatten in Indien versucht, die Population der Schlangen zu kontrollieren. Den Fortschritt maßen sie anhand von getöteten Schlangen, indem sie Geld für Schlangenkadaver anboten. Die Bevölkerung ging darauf ein, in dem sie Schlangen züchhteten und töteten.

Halo-Effekt

Wenn wir eine angenehme/favorisierte Eigenschaft in einem anderen Menschen sehen, nehmen wir an, dass dieser Mensch auch andere solche Eigenschaften hat. Das Gegenteil gilt ebenfalls.

Beispiel: Menschen, die wir für schön halten, werden wir auch oft für intelligent halten.

Kausale Reduktion

Dinge passieren selten nur aus einem Grund. Meistens sind sie das Ergebnis von mehreren Dingen, die einander direkt oder indirekt beeinflussen. Unser Gehirn kann allerdings nur selten solche komplexen Arrangements verarbeiten, weshalb wir dazu neigen, die Ergebnisse einer einzelnen Sache zuzuschreiben, und so das Netz von Kausalitäten zu einer bloßen Verkettung von Ereignissen reduzieren.

Kulturelles Parasitentum

Eine Ideologie ist wie ein Parasit im Kopf, der das Verhalten ihrer Wirte verändert, so dass sie ihn auf andere übertragen. Eine erfolgreiche Ideologie — die, von denen wir hören —, ist nicht geschaffen, um wahr zu sein, sondern so beschaffen, sich möglichst einfach übermitteln und glauben zu lassen. Je größer die Dichotomie als Grundlage, je schwarz-weiß, desto leichter.

Kumulative Fehler

Fehler häufen sich nicht nur rund um einen Fehler, sie stapeln und vermehren sich darauf. Glaubenssätze sind auf Glaubenssätzen gebaut, so dass ein falscher Gedanke sich lawinenartig in eine wahnhafte Weltsicht verwandelt.

Beispiel: Wenn irgendwo im Netz etwas Falsches gepostet wird, fügt sich dem schnell mehr hinzu, bis so letztlich Fake News entstehen. In unserer vernetzten Welt sind kumulative Fehler die Norm.

Law of the Instrument

Menschen, die mit einem Werkzeug gut vertraut sind, neigen dazu, dieses Werkzeug auch dann zu benutzen, wenn ein anderes besser geeignet wäre. Dem liegt oft der Denkfehler zugrunde, dass eine Vorgehensweise, die in der Vergangenheit zum Erfolg geführt hat, auch in allen anderen Fällen künftig zum Erfolg führen wird.

Lesbarkeit von komplexen natürlichen Systemen

Wenn wir ein komplexes natürliches System sehen, und es unordentlich aussieht, nehmen wir an, dass es auch ungeordnet sein muss. Durch das Aufzwingen einer eigenen Ordnung um es „lesbar“ zu machen werden allerdings essenzielle Komponenten, die wir nicht verstanden haben, entfernt, die das System so zum kollabieren bringen.

Limited Hangout

Für gewöhnlich eine Taktik von Journalisten und Politikern, bei der eine spannende/interessante/faszinierende Information veröffentlicht wird, die die Neugier befriedigt, und der Entdeckung von schlimmeren/schlechteren Informationen vorbeugt.

Beispiel: Ein Politiker, der beschuldigt wird, Kokain konsumiert zu haben, gibt dann vielleicht zu während der Universität Cannabis konsumiert zu haben.

Loki’s Wager

Loki’s Wager ist das unvernünftige Beharren darauf, dass ein Konzept nicht definiert und daher auch nicht diskutiert werden kann.

Beispiel: „Gottes Wege sind unergründlich“ („God of the Gaps“).

Matthäus-Effekt

Vorteile erzeugen Vorteile, die zu sozialen, ökonomischen und kulturellen Oligopolen führen.

Beispiel: Je mehr Geld du hast, desto leichter ist es, noch mehr Geld zu verdienen; je mehr Anerkennung du als Wissenschaftler für eine Entdeckung erhältst, desto mehr Anerkennung wirst du für zukünftige Entdeckungen erhalten.

Narrative Verzerrung

Die Narrative Verzerrung ist das nachträgliche Erschaffen einer Erzählung, um einem Ereignis einen plausiblen Grund zu verleihen.

Beispiel: Wenn ein Drogenabhängiger Selbstmord begeht, gehen wir davon aus, dass die Angewohnheit des Drogenkonsums in den Suizid getrieben hat, selbst wenn es das nicht tat. (Siehe auch: „Apophänie“, „Pareidolie“.)

Nirvana-Fehlschluss

Ein Nirvana-Fehlschluss liegt dann vor, wenn wir etwas ablehnen, weil es sich unvorteilhaft mit einer Idee vergleicht, die in der Wirklichkeit allerdings unerreichbar ist.

Beispiel: Kapitalismus verteufeln auf Grund der Überlegenheit eines erdachten Sozialismus.

Out-group Homogeneity

Wir neigen dazu, Menschen, die nicht zu unserer „Gruppe“ dazugehören, als „alles dieselben“ zu betrachten, während wir uns innerhalb der Gruppe als divers betrachten.

Pareidolie

Wir sehen überall Muster und Formen, wo gar keine sind — ganz besonders Gesichter.

Pareto-Prinzip

80 % des Ergebnisses können mit 20 % des Aufwandes erreicht werden. Es gilt der Umkehrschluss: die verbleibenden 20 % werden mit 80 % des Aufwandes erreicht.

Bemerkenswert ist das Pareto-Prinzip an anderen Stellen: 80 % des Reichtums wird von 20 % der Menschen gehalten, 80 % der Verbrechen wird von 20 % der Straftäter begangen, 80 % aller Computerfehler stammen aus 20 % der Fehler, 80 % von Verkaufserlösen stammen aus 20 % der Produkte etc.

Peter-Prinzip

Beschäftigte neigen in einer Hierarchie dazu, solange aufzusteigen, bis sie letztlich inkompetent sind.

Die erste Ableitung: Nach einer gewissen Zeit wird jede Position von Mitarbeitern besetzt, die unfähig sind ihre Aufgabe zu erfüllen.

Peter-Pan-Syndrom

Mit dem Peter-Pan-Syndrom werden Menschen beschrieben, die nicht fähig sind daran zu glauben, dass sie älter sind und/oder sich nicht so benehmen, wie es für gewöhnlich mit erwachsenen Menschen assoziiert wird, wie zum Beispiel dem Übernehmen von Verantwortung. (Verwandt: Dorian-Gray-Syndrom.)

Pluralistische Ignoranz

Pluralistische Ignoranz ist ein Phänomen, bei der eine Gruppe mit einer Norm mitgeht, obwohl die Mitglieder der Gruppe diese Norm insgeheim hassen, weil sie fälschlicherweise davon ausgehen, dass die anderen Mitgliedern ihr zustimmen.

Beispiel: die meisten Parteien.

Prädiktive Kodierung

Es gibt keine Bewegung auf dem Bildschirm — unser Gehirn erfindet sie. Es gibt keine Pausen zwischen gesprochenen Wörtern — unser Gehirn fügt sie hinzu. Die menschliche Wahrnehmung ist wie die Textvorschläge im Handy: das Unbekannte durch das Erwartete ersetzen. (Siehe auch: „Apophänie“.)

Reaktanz

Wenn wir in etwas eingeschränkt werden, oder dazu gedrängt werden, etwas zu tun, dann neigen wir dazu, unsere ursprüngliche Handlung zu verstärken.

Beispiel: Wenn wir das Gefühl haben, in unserer Meinungsbekundung eingeschränkt zu werden, oder dazu gedrängt werden, eine andere anzunehmen, dann reagieren wir meist dadurch darauf, dass wir unsere Meinung weiter verfestigen.

Russell’s Conjugation

Synonyme können positive oder negative Assoziationen hervorrufen, ohne dabei die grundlegende Bedeutung eines Wortes zu ändern. (Das ist die Grundlage für viele Meinungsverschiebungen im Journalismus.)

Beispiel: Ich bin „willensstark“, er ist „eigensinnig“, du bist „dickköpfig.“

Shifting Baseline

Wir werden blind gegenüber den Dingen, die uns vertraut sind. Da sich die Welt ständig verändert, und wir uns immer daran gewöhnen, können wir auch blind gegenüber Katastrophen werden, die langsam auf uns zurollen.

Beispiel: Sagt der Frosch zum Fisch, „Wie ist das Wasser?“. Darauf antwortet der Fisch, „Was ist Wasser?“

Simpson-Paradoxon

In gruppierten Daten kann ein Trend auftreten, der aber verschwinden kann, wenn diese Gruppen kombiniert werden.

Streetlight Effect

Wir beziehen unsere Informationen von dort, wo es am leichtesten ist, sie zu beziehen. Kumulativ kann das ein ganzes Feld verzerren und mitunter zur Verstärkung führen.

Beispiel: Ein Großteil von Forschungen benutzt nur die erste Seite von Suchmaschinen-Ergebnissen, egal wie korrekt sie sind. (Siehe auch: „Kumulative Fehler“, „Survivorship Bias“, „Unbekanntes Unwissen“.)

Subpersonality

Wir nutzen unterschiedliche mentale Prozesse in unterschiedlichen Situationen, so dass wir nicht eine einzige Persönlichkeit sind, sondern eine Ansammlung verschiedener Persönlichkeiten, die den Körper entsprechend der Situation steuern.

Beispiel: Es gibt ein „Büro-Du“, ein „Online-Du“, ein „Liebhaber-Du“ etc.

Survivorship Bias

Wir neigen dazu, Ereignisse, die eine Sichtbarkeitschwelle überschreiten, überzubetonen.

Beispiel: Unser Verständnis von Serienmördern beruht auf denen, die wir gefasst haben; Nachrichten sind nur Nachrichten, wenn sie die Ausnahmen statt der Regel sind, da wir sie aber sehen, behandeln wir sie, als ob sie die Regel wären. (Siehe auch: „Unbekanntes Unwissen“.)

Tocqueville-Paradoxon

Wenn die Lebensstandards einer Gesellschaft steigen, dann wachsen die Erwartungen der Bevölkerung an die Gesellschaft mit ihr. Irgendwann wird die Erwartungshaltung das Wachstum der Lebensstandards überholen, was letztlich zu Unzufriedenheit führt, und manchmal zu populistischem Aufbegehren.

Unbekanntes Unwissen

Es gibt bekanntes Wissen. Das sind Dinge, von denen wir wissen, dass wir sie wissen. Es gibt bekanntes Unwissen. Das bedeutet, es gibt Dinge, von denen wir wissen, dass wir sie nicht wissen. Aber es gibt auch unbekanntes Unwissen. Das sind Dinge, von denen wir nicht wissen, dass wir sie nicht wissen. (Siehe auch: „Survivorship Bias“.)

Woozle-Effekt

Alternativ: „Beweis durch Zitation.“ Ein Artikel behauptet etwas ohne Beweis, und wird dann durch einen weiteren Artikel zitiert, der wiederum zitiert wird, und so weiter, bis die Reihe/Menge der Zitationen den Eindruck erweckt, dass es für die Behauptung Beweise gibt, obwohl in Wirklichkeit alle Artikel dieselbe, eine unbestätigte Quelle zitieren.

Mehr in: Persönlichkeitsentwicklung

Alle Artikel