Reine Technologielösung nicht ausreichend

Der technische Fortschritt alleine wird die Klimakrise nicht lösen, wie Versuche mit dem Klimasimulations-Tool En-ROADS zeigen. Darüber hinaus steht natürlich auch nicht fest, ob die angenommenen (positiv wirkenden) technologischen Entwicklungen überhaupt eintreten. Nur in Kombination mit regulatorischen und verhaltensbasierten Änderungen lässt sich das Zwei-Grad-Ziel des Paris-Abkommens voraussichtlich erreichen.

En-ROADS ist ein auf einem System-Dynamics-Modell basierendes Simulationsprogramm, welches in jedem Internet-Browser läuft. Es ist anhand der wesentlich detaillierteren Klimamodelle kalibriert und nähert deren Ergebnisse gut an. Mit En-ROADS lassen sich Auswirkungen verschiedener Maßnahmen und Entwicklungen auf die globale Durchschnittstemperatur ausprobieren. Im vorliegenden Fall (Link zum Szenario) habe ich getestet, wie sich starke positive Fortschritte im Bereich Technologie auf die Zielerreichung auswirken, nämlich zum Ende des Jahrhunderts die durchschnittliche globale Erwärmung auf unter 2 Grad Celsius zu begrenzen, wie es das Pariser Abkommen vorsieht.

Szenario nur Technologiefortschritt

Konkret wurden im hier getesteten Szenario nur solche Maßnahmen gegenüber den Standardwerten verändert, die überwiegend technischen Fortschritt widerspiegeln und keine (oder nur geringe) Änderungen regulatorischer, z.B. Steuern/Subventionen, oder verhaltensbasierter Art, z.B. Fleischkonsum, mit sich bringen. Um die Wirksamkeit dieser Maßnahmen eher zu überschätzen, wurden sie dabei alle mit maximalem positivem Effekt berücksichtigt. Aber auch in diesem Fall steigt die globale Durchschnittstemperatur um 2,4 Grad Celsius an. Diese Steigerung ist aber natürlich trotzdem geringer, als wenn keine solcher Maßnahmen wirksam würden, wobei sich in der Simulation dann eine Temperatursteigerung um 3,3 Grad Celsius ergibt.

Durch die stark gestiegene Energie-Effizienz im Transport, bei Gebäuden und in der Industrie nimmt die Nachfrage nach Energie insgesamt ab, was sich positiv auf die zu erwartende Temperatursteigerung auswirkt. Ebenso vermindert ein starker Einsatz von technischer Kohlendioxid-Entnahme aus der Atmosphäre die zu erwartende Erhöhung der Temperatur um 0,3 Grad Celsius. Wie man an der Verteilung der primären Energieerzeugung nach unterschiedlichen Quellen sieht, sind aber insbesondere der vermehrte Einsatz von Kernenergie und die, sehr hypothetische, Nutzung einer weiteren Null-Emissions-Energiequelle (z.B. Kernfusion) weniger wirksam. Dies liegt an den einerseits langen Aufbauzeiten entsprechender Kapazitäten und andererseits an den Kostenvorteilen der bisherigen fossilen, aber auch erneuerbarer Energiequellen.

Bei Kostenvergleichen: Dynamik berücksichtigen!

In einer bspw. auf LinkedIn weit verbreiteten Anzeige kommuniziert die Initiative Neue Soziale Marktwirtschaft (INSM), dass es 13 mal sinnvoller (weil kostengünstiger) sei, Co2-Zertifikate zu kaufen, anstelle das Geld in Wärmepumpen für die Gebäudeheizung zu stecken. Das hört sich natürlich im ersten Moment sehr überzeugend an (ich gehe davon aus, dass die angegebenen Daten stimmen und habe sie nicht überprüft). Die Aussage wurde aber bereits aus verschiedener Sicht kritisiert, z.B. weil dadurch die Abhängigkeit von fossilen Energieträgern (und insbesondere deren Lieferanten) nicht verringert wird. Hier will ich mich daher darauf beschränken, dass diese plumpe (weil statische) Gegenüberstellung keinerlei dynamische Perspektive einnimmt. Insbesondere werden nicht berücksichtigt:

  1. Änderung der Kosten (und damit des Verhältnisses der Kosten) über die Zeit: einerseits wird der Preis für CO2-Zertifikate steigen (genau so ist das Instrument ja gedacht und regulatorisch ausgestaltet), andererseits wird der Preis für Wärmepumpen durch Erfahrungskurveneffekte sehr wahrscheinlich mit ihrer Verbreitung fallen, wie es beispielsweise bei Photovoltaik festzustellen ist.
  2. Laufende und zusätzliche Kosten: dynamische Investitionsrechnungen in der Betriebswirtschaftslehre berücksichtigen generell Zahlungsströme über die Zeit, d.h. inklusive laufender Kosten bspw. für den Strom der Wärmepumpen. Zunächst sieht es dann so aus, als ob das Verhältnis noch stärker zugunsten des Zertifikatskaufes spräche. Allerdings bemerkt man schnell, dass ein dann auftretender Kostenfaktor überhaupt nicht erwähnt wird: auch für die konventionellen Heizung fallen natürlich Brennstoffkosten an. Dass diese in Zukunft ansteigen können und werden, ist fast schon eine Trivialität.
  3. Marktdynamiken auf dem Zertifikatemarkt: CO2-Zertifikate führen nur dann zu einer tatsächlichen Verminderung der Kohlendioxid-Emissionen, wenn die Verschmutzungsrechte eben nicht genutzt werden. Man müsste also einen Weiterverkauf verbieten, um tatsächliche Umwelteffekte zu erzielen.
  4. Langfristige Konsequenzen bei immer weniger Zertifikaten („Endgame“): was passiert, wenn die Anzahl CO2-Zertifikate immer geringer wird und dadurch keine weiteren Umwelteffekte mehr zu erzielen sind? Dann kommt es weiterhin zu den negativen Auswirkungen der konventionellen Heizungen, weil diese ja nicht getauscht wurden (von den dann evtl. auftretenden hohen Kosten für die Besitzer ganz zu schweigen, siehe 2.).

Mittels Simulation ließen sich natürlich konkretere, quantitative Szenarien dieser Effekte durchspielen. Behält man jedoch grundsätzlich die dynamischen Auswirkungen im Blick, zeigt sich auch so schon die (bewusst oder unbewusst) irreleitende Aussage der Anzeige.

Interpretationshilfen für eine 50 Jahre alte Studie

Anschließend an meinen letzten Beitrag zur Rezeption der Limits-to-Growth-Studie (1972) in einem populären Podcast, hier nochmals eine Zusammenstellung der aus meiner Sicht wichtigsten Interpretationshilfen. Wenn man es genau betrachtet, sind diese auch nicht eigentlich nur auf die Limits-to-Growth-Studie beschränkt, sondern sind in dieser oder ähnlicher Form bei vielen Studien mit Modellierungs- und Simulationshintergrund hilfreich. Es geht mir daher im Folgenden gar nicht in erster Linie um eine inhaltliche Detail-Diskussion der Annahmen und Ergebnisse der Studie, sondern um deren besseres Verständnis aus methodologischer Sicht.

Hier meine Top-8 der wichtigsten Interpretationshilfen:

  1. Insgesamt werden 12 Szenarien behandelt und nicht alle sind katastrophal: das tolle an der Szenarioanalyse ist ja gerade, dass man Bedingungen für unterschiedliche Ergebnisse identifizieren kann — es endet also nicht immer katastrophal und die Simulationen geben Hinweise darauf, wie „gute“ Zukünfte zu erreichen sind.
  2. Zeithorizont der Szenarien ist 2100; eklatante Folgen zeigen sich oft erst ab 2030: es handelt sich um sehr langfristige Szenarien, in denen oft die wichtigsten Folgen heute (2022) noch gar nicht eingetreten sind und die daher auf dieser Basis auch nicht als „falsch“ eingestuft werden können.
  3. Die Dynamik in den Simulationen entsteht endogen; es sind keine Entwicklungen vorgegebenen: in den Simulationsmodellen stecken natürlich Annahmen über Zusammenhänge zwischen Variablen, aber nicht das Resultat wenn sich diese Variablen über längere Zeiträume fortentwickeln.
  4. Einfache, fast schon triviale Struktur der grundsätzlichen Dynamik: die Grundstruktur entspricht dem Systemarchetypen Limits-to-Growth, der letztlich nur aus zwei Rückkopplungsschleifen besteht (die Realität ist natürlich viel komplexer, aber zum Grundverständnis reicht der Archetyp).
  5. Präzision vs. Akkuratheit: einerseits ist ein präziseres Modell (= mit höherer Auflösungsschärfe) nicht notwendiger Weise akkurater (d.h. reflektiert die Realität besser); andererseits zwingen präzise Angaben im Modell aber zur kritischen Reflexion bzgl. des vorhandenen Wissens.
  6. Mikro- vs. Makromodellierung: langfristige Makromodelle („Weltmodelle“) sind oft robuster als kurzfristige Mikromodelle, weswegen eine langfristige globale Klimaprognose genauer sein kann als eine mehrtägige Wetterprognose einer bestimmten Region.
  7. Quantitative Szenarien waren das Ziel der Limits-to-Growth-Studie, nicht die genaue Vorhersage zu erwartender Entwicklung: das ist ja die Quintessenz der Szenariotechnik — aufgrund von Unsicherheit sind Prognosen immer falsch und trotzdem können wir, richtig verstanden, etwas von ihnen lernen.
  8. Kassandra-Paradox: Verhaltensänderung führen zu Abweichung des beobachteten vom simulierten Systemverhalten in den Szenarien; also gerade dadurch, dass wir die Katastrophe verhindern, bewirken wir, dass die entsprechenden Szenarien „falsch“ werden.

Diese Punkte habe ich auch in ähnlicher Form auf der Jahrestagung der Vereinigung für Ökologische Ökonomie am 21.10.2022 in Stuttgart zur Diskussion gestellt.

Größler beim VÖÖ-Vortrag

Fehlinterpretationen der Limits-to-Growth-Studie

In ihrem 59. Podcast vom 14.10.2022 sprechen Lanz und Precht über die Studie zu den Grenzen des Wachstums von 1972 (auch „Club-of-Rome-Studie“ genannt). Die Kernaussage des Berichts haben sie dabei wohl verstanden (31:33), nämlich dass unendliches Wachstum nicht auf endlichen Ressourcen basieren kann. Viele ihrer Anmerkungen zeigen jedoch, dass sie die Methode Modellierung/Simulation zum Erkenntnisgewinn nicht wirklich begreifen oder es sich im Gespräch ein wenig zu einfach machen (und ja, natürlich darf jede Forschungsmethode kritisiert werden). Nachfolgend eine Auswahl von kritisch zu sehenden Bemerkungen aus dem Podcast (hier nur paraphrasiert):

08:33 „in ein paar Jahrzehnten gibt es keinen Tropfen Öl mehr“: Öl ist keine Variable im Modell

09:12 „man hat den Status-Quo einfach in die Zukunft fortgeschrieben“: nein, auf aggregierten Niveau findet sich schon technischer Fortschritt im Modell; außerdem werden Zeitreihen nicht extrapoliert, sondern das Systemverhalten ergibt sich aus dem dynamischen Zusammenspiel von kausal verbundenen Variablen

11:47 „wenn die Vorhersagen eingetroffen wären“: bzgl. der Szenarien mit negativen Folgen zeigen sich diese in der Simulaton i.d.R. erst in der zweiten Hälfte des 21. Jahrhunderts, wir wissen jetzt also noch gar nicht schlussendlich, ob sie eintreten werden

12:50 „spätestens um 2100 sei eine Katastrophe unvermeidbar“: nein, diese ergibt sich ja gerade nicht in allen Szenarien, wenn menschliches Handeln die Ressourcenbeschränktheit berücksichtigt

07:45 „man könne die Zukunft mathematisch berechnen“ & 15:32 „Vorsicht vor mathematischen Prognosen“: über die Zukunft wird immer nachgedacht und Schätzungen darüber, wie sie wohl wird, fließen in alle Entscheidungsprozesse ein; wenn dies mathematisch geschieht, lässt es sich zumindest inter-subjektiv überprüfen; intuitive Schätzungen bleiben dagegen oft intransparent und unpräzise

14:26 „Bevölkerungswachstum einfach nach oben gerechnet“: eben nicht, Bevölkerung ist eine Variable im Modell, die in vielfältiger Weise von anderen Modellvariablen abhängt, z.B. auch von der wirtschaftlichen Lage

PS: Wie man differenzierter auch in populärwissenschaftlichen Medien mit der Limits-to-Growth-Studie umgeht, zeigt beispielsweise Ulrike Hermann in „Das Ende des Kapitalismus“ (2022), insbesondere S. 187ff. Durchaus kritisch zeigt sie Schwächen auf, hat aber offensichtlich grundsätzlich verstanden, worum es den Autoren damals ging (nämlich eben nicht um eine Punktvorhersage).

Paradoxe Trägheit beim Entscheiden

In ihrer Spiegel-Kolumne stellt Samira El Ouassil die Frage, ob die späte Reaktion der Politik auf das absehbare und vorhergesagte Ansteigen der Covid-Infektionszahlen im Herbst 2021 auf Unehrlichkeit oder Inkompetenz beruht. Sie zitiert Politiker, die „von der Dynamik überrascht waren“, obwohl die Simulationen der Epidemiologen ziemlich korrekt das tatsächliche Verhalten abgebildet haben (manche leugneten gar die Existenz dieser wissenschaftlichen Vorhersagen). Sie endet mit ihrer Fassungslosigkeit angesichts des Unvorbereitet-Seins des Staates gegenüber einer gut verstandenen Entwicklung.

Der Grund für diese nicht stattgefundene Vorbereitung auf die pandemische Entwicklung in der kälteren Jahreszeit liegt m.E. aber zwischen den Extremen Lüge und Dummheit. Wissenschaftliche Untersuchungen zeigen in der Tat, dass Menschen Probleme damit haben, dynamisch komplexe Systeme zu verstehen und zu steuern. So wurde u.a. gezeigt, dass

  • Rückkopplungen
  • Natur und Dauer von Verzögerungen
  • nicht-lineares, insbesondere exponentielles Verhalten
  • das Zusammenspiel von Bestands- und Flussgrößen

dazu führen, dass Entscheider in die Irre geleitet werden. Der Vorwurf der Inkompetenz ist daher naheliegend, allerdings kann man kaum davon ausgehen, dass politische Entscheider hier besonders schlecht performen. Im Gegenteil, es handelt sich wohl eher um eine relativ gut ausgebildete, erfahrene Gruppe von Personen, die darüber hinaus prinzipiell aus der Vergangenheit zu lernen im Stande ist.

War es daher Unehrlichkeit, d.h. ein bewusstes Ignorieren der Fakten und Handeln wider besseres Wissen? Wohl eher auch das nicht. Stattdessen schlage ich vor, hier von „paradoxer Trägheit“ zu sprechen, die es den Entscheidern erlaubt, Wissen zu ignorieren, ohne bewusst die Unwahrheit zu sagen. Diese Trägheit führt dann in Verbindung mit gesellschaftlichen Rahmenbedingungen (Bsp: die anstehende Bundestagswahl) dazu, dass eigentliche klare Aussagen der Wissenschaft ignoriert und Entscheidungen einfach nicht getroffen werden.

Die angesprochene Trägheit ist „paradox“, da

  • der Sachverhalt in den Grundzügen eigentlich klar ist (dynamische Parameter der Pandemie, Kapazität des Gesundheitssystems);
  • auch die grundsätzlichen Handlungsalternativen bekannt sind (z.B. Lockdowns, Impfungen, Testungen);
  • Nicht-Handeln eindeutig keine gute Option ist (wie die Szenarien gezeigt haben);
  • trotzdem der Eindruck emsiger Aktivität verbreitet wird, diese aber eher „Nebenkriegsschauplätze“ betrifft (Bsp.: Impfstatus eines einzelnen Fußballers).

In der Hoffnung, dass trotz Warnungen der Wissenschaft schon alles gut gehen würde (weil es momentan ja noch OK ist = Stand im Sommer 2021), lässt sich die dynamische Komplexität der Situation so nutzen, um einfach nichts (bzw. nichts zielführendes) zu tun. M.E. betrifft die paradoxe Trägheit aber nicht nur Politiker: der sich nur langsam wandelnde Umgang der Gesellschaft mit der Klimakrise lässt sich leider auch durch dieses Phänomen erklären (siehe auch Parmenidis Fallacy).

Lehren aus den Wahlprogrammen zur Bundestagswahl 2021

Das DIW Econ hat die Wahlprogramme der großen Parteien für die Bundestagswahl 2021 daraufhin untersucht, inwiefern diese die Erreichung der Klimaziele ermöglichen (im Wesentlichen im Paris Agreement festgelegt). Die Aussagen in den Programmen zum Klimaschutz wurden dabei acht Kategorien (fünf Wirtschaftsbereiche und drei übergreifende Sachgebiete) zugeordnet und dann deren Wirksamkeit zur Erreichung der Ziele eingeschätzt. Ich habe bisher wenig methodische Kritik an dem Vorgehen gefunden, obwohl die Umsetzung verbaler Aussagen in Punktwerte natürlich nicht völlig unproblematisch ist. Aus den Ergebnissen der Studie (siehe Abbildung als Zusammenfassung) lassen sich einige Erkenntnisse und sich aufdrängende Fragen ableiten.

Wahlprogramme bzgl. Klimaziele
Inwieweit erreichen die Wahlprogramme der Parteien die Klimaziele des Paris-Vertrags?
  1. Entgegen oft kolportierter Stammtischmeinung sind nicht alle Parteien gleich. Wenn einer Person bei der Wahl Klimaschutz wichtig ist, kann er/sie die Parteien danach priorisieren.
  2. Selbst die Partei mit dem größten absehbaren Zielerreichungsgrad (Bündnis 90/Die Grünen) verfasst ein Programm, das nicht mit den selbst-gesteckten Zielen in Einklang steht. Insofern besteht die Wahl dann doch nur darin, die beste aus allen sub-optimalen Lösungen zu wählen.
  3. Die Problematik, dass weitreichende Ziele formuliert werden, deren Erreichungspfad aber unkonkret bleibt, ist ein bekanntes Phänomen der Strategieliteratur. Rumelt (2011, 36) schreibt: “Bad strategy is long on goals and short on policy or action.” Das Setzen von Zielen ist also nur ein Teil einer Strategie; der zweite, ebenso notwendige Teil ist die Angabe möglichst konkreter Aktivitäten, wie die Ziele erreicht werden können (sonst bleiben die Ziele im besten Fall eine Vision).
  4. Werden Ziele gesetzt, die mit den vereinbarten Aktivitäten offensichtlich nicht erreicht werden können, besteht die Gefahr der „Eroding Goals“ (ein Systemarchetyp nach Senge, 1990): die Ziele werden dann einfach eben weniger herausfordernd formuliert und schon sind wir der Zielerreichung näher, ohne uns tatsächlich mehr anstrengen zu müssen.
  5. Was sagt es über uns als Gesellschaft aus, dass keine der Parteien vollständig wirksame Maßnahmen formulieren? Ist die Kluft zwischen Intention („wir sollten mehr für den Klimaschutz tun“) und Handeln („wir tun tatsächlich mehr für den Klimaschutz“) immer noch so ausgeprägt, dass sich mit angemessenen Vorschlägen keine Wahlen gewinnen lassen (Intentions-Verhaltens-Lücke)? Oder unterschätzen die Parteien hier den Realismus der Bevölkerung, die durchaus mit gut begründeten Maßnahmen zum Klimaschutz umgehen könnte?
  6. Liegt der Fokus bei allen Diskussionen zum Klimaschutz immer noch nur auf den vermeintlichen negativen Folgen, den damit verbundenen Kosten? Dann besteht weiterhin die Aufforderung, die Risiken von nicht ausreichenden Maßnahmen (höhere Kosten der Folgen der Klimakrise gegenüber Prävention, insbesondere die überproportionale Steigerung der Kosten, je später mit Maßnahmen begonnen wird) und den Mehrwert von Klimaschutz („multi-solving“: z.B. weniger Krankheit/Tote durch geringere Luftverschmutzung, weniger Platzverbrauch in Städten durch evtl. weniger Autos, geringere Abhängigkeit von zweifelhaften Regimen) in der öffentlichen Diskussion klarer herauszustellen.

Nach Leugnung nun Verzögerung

Die Existenz des menschengemachten Klimawandels lässt sich aufgrund valider theoretischer Modelle und umfassender empirischer Daten kaum noch leugnen. Anstelle seiner Leugnung tritt daher mehr und mehr die Taktik der Verzögerung von notwendigen Maßnahmen, was eine Minimierung des eigenen Aufwands und ein Abwälzen auf andere beinhaltet.

In ihrem Artikel „Discourses of Climate Delay“ (Lamb WF et al., 2020: Discourses of climate delay. Global Sustainability 3, e17, 1–5) teilen Lamb und Kollegen die Narrative der Klimawandelverzögerung in vier Klassen ein:

  1. Verschieben der Verantwortlichkeit: es sind, je nachdem, die Kunden, die Chinesen, die Großkonzerne, die Amerikaner, die Boomer, oder wer auch immer, der Schuld ist am Klimawandel, und die sollen sich gefälligst auch darum kümmern…
  2. Konzentration auf Lösungen ohne fundamentale Veränderungen: Freiwilligkeit ist Trumpf — Regeln sind böse; Kernfusion wird uns retten…
  3. Fokus auf Nachteile von Klimaschutz-Maßnahmen: Maßnahmen gingen notwendiger Weise immer auf Kosten sozial Schwacher oder noch nicht weit entwickelter Länder…
  4. Verneinen von Einflussmöglichkeiten: Menschen verändern sich nicht, daher kann es keine Lösung geben; es ist eh‘ zu spät…

Nachfolgende Abbildung (S. 2) aus ihrem Aufsatz fasst die Diskussion gut und mit den Original-Begriffen im Englischen zusammen.

Klimawandelverzögerung

Systemrelevanz des Journalismus und seine fünf Defizite

In einem Gastbeitrag diskutieren Klaus Meier und Vinzenz Wyss u.a. die Systemrelevanz des Journalismus. Implizit wird dabei auch das Argument aufgegriffen, das hier schon verwendet wurde: journalistische Beiträge sind eben nicht nur pure Reflektion einer Wirklichkeit, sondern beinflussen diese auch.

Darüber hinaus listen sie in fünf Punkten Defizite auf, die sich in der aktuellen Berichterstattung zur Corona-Pandemie erkennen ließen:

  1. Mangelhafter Umgang mit Zahlen: Zahlengläubigkeit, falsche Interpretation
  2. Konzentration auf Einzelfälle statt Strukturen
  3. Intransparenz bezüglich der Informationsgrundlage von Meldungen
  4. Thematisch und meinungsmäßig verengte Berichterstattung
  5. Erschaffung von (in diesem Fall) Virologen als Medienstars

Kurz gefasst: Journalisten bräuchten eigentlich eine Ausbildung in Wissenschaftstheorie und -methodik.

„Persönliche“ Systemgrenze und Impfverhalten

In der lokalen Tageszeitung (SüdhessenMorgen, 08.01.2021) wurden Personen danach befragt, ob sie sich impfen lassen wollen oder nicht. Wenn man alle moralischen Erwägungen außen vor lässt, erscheint es mir so, dass diejenigen, die sich impfen lassen wollen, eine weitere persönliche Systemgrenze ziehen, als die, die sich eher nicht oder erst später impfen lassen wollen.

Zwei Aussagen zur Impfbereitschaft
3 Aussagen zur Impfbereitschaft

Die Antwortenden 1, 2 und 4 geben als Gründe dafür an, sich (vorerst) nicht impfen zu lassen, da sie für sich Impfreaktionen oder Nebenwirkungen erwarten bzw. vermeiden wollen. Das für sie relevante System sind also sie selbst. Die Antwortenden 3 und 5 beziehen sich in ihren Gründen, weswegen sie sich impfen lassen wollen, auf den Schutz auch anderer Menschen. Sie wählen also eine weitere Systemgrenze für ihre Entscheidung. Je nach gewählter Systemgrenze sind beide darauf resultierenden Entscheidungen rational.

Hier könnte ein Ansatz liegen, um persönliche Entscheidungen aus systemischer Sicht zu verstehen, ohne vorschnell moralische Urteile fällen zu müssen.

NB: Es ist mir klar, dass die Fallzahl sehr klein ist (n=5) und die Aussagen eventuell von der Zeitung auch noch redigiert wurden.

Rückkopplung zwischen Aufmerksamkeit und Mobilisierung

In seinem Buch „Zumutungen“ (Kursbuch Edition, 2020) beschreibt Peter Strohschneider eine einfache, selbstverstärkende Rückkopplungsschleife (S. 74): je größer die mediale Aufmerksamkeit für einen Politiker, desto stärker die Mobilisierung seiner Anhänger, woraus wieder mehr mediale Aufmerksamkeit folgt. Strohschneider zitiert auch Philip Manow (2020), der von „Polarisierung […] als Geschäftsmodell“ (S. 100) gesprochen hat, wohl auch, weil dieser Feedback für sich gesehen, zu immer stärkerem Wachstum der beiden Phänomene führt. Dieses Wachstum geht wohl mit stärkerer Extreme und Polarisierung einher. Hier das sehr einfache Kausalitätendiagramm:

Rückkopplung zwischen Aufmerksamkeit und Mobilisierung