Avec Exploring Economics, nous renforçons une science économique plurielle et des approches économiques alternatives.
Malheureusement, nous manquons d'argent.
Avec une petite contribution, tu peux aider Exploring Economics à rester en ligne. Merci!
Nous sommes une organisation à but non lucratif enregistrée | Compte bancaire: Netzwerk Plurale Ökonomik e.V. DE91 4306 0967 6037 9737 00 GENODEM1GLS | Mentions légales
Autor: Hannes Vetter
Review: Anonym
Dies ist ein Essay aus der Schreibwerkstatt "Varietes of Mainstream Economics?", veröffentlicht am 18. Dezember 2019.
Abstract
In diesem Paper werden ausgewählte neoklassische Makromodelle speziell mit Blick auf die Bewertung von Umwelt ausgewertet. Diese Evaluation zeigt, dass es zwar eine nicht zu verachtende Variation der Annahmen gibt, es jedoch auch Grundannahmen gibt, die nicht variiert werden, sodass sich entscheidende gemeinsame Elemente herauskristallisieren. Selbst unter der Berücksichtigung von komplexen Einflussgrößen, wie bei Arbeiten von Nordhaus und Stern, steht am Ende der neoklassischen Modellierung eine Nutzenfunktion, die alles in einem Wohlfahrtsbegriff zusammenführt, wobei hinter dieser neoklassischen Methodik die Wohlfahrtsökonomik steht.
Durch diese Zusammenführung aller zu bewertenden Größen über eine abschließende Nutzenfunktion kann am Ende ein verhältnismäßig klares Ergebnis herausgelesen werden. Dieser Sachverhalt, der teilweise auch als Ökonomisierung bezeichnet wird, kann als Vorteil gewertet werden, da so Ergebnisse seitens der Politik vergleichsweise leicht aufgegriffen werden können. Allerdings kann die Höhe der erreichten Wohlfahrt Klarheit suggerieren, die aufgrund von zahlreichen Modellannahmen nicht zu begründen ist. Darüber hinaus liegen in diesem Modellaufbau sehr relevante normative Annahmen in einzelnen Parametern verborgen. Problematisch daran ist, dass von Entscheidungsträger*innen nicht zu erwarten ist, dass die Rolle von auch nur den zentralen Annahmen der ökonomischen Modelle richtig eingeordnet wird, was für eine angemessene Bewertung der Ergebnisse erforderlich wäre.
Deshalb stellt sich die Frage, welche andere Verfahren zur Bewertung von Umwelt in Betracht zu ziehen sind. Insbesondere in der Ökologischen Makroökonomik existieren Alternativen, die es wert sind, breiter diskutiert zu werden. Die Frage, wie das Zusammenspiel zwischen Gesellschaft, Politik und Wissenschaft im Kontext dieses Themas ist und sein sollte, wird durch dieses Paper abschließend nur angerissen. Es scheint jedoch zentral, normative Annahmen makroökonomischer Modelle transparenter zu machen und vielleicht sogar grundlegend andere Bewertungsprozesse zu etablieren.
1. Einleitung
Das Thema Umwelt und insbesondere Klimaschutz scheint in der Mitte der Gesellschaft angekommen zu sein. Kohleausstieg, Klimawandel, Fridays for Future und weltweite Klimastreiks sind dabei nur einige Schlagworte, die fast täglich in den Zeitungen zu lesen sind. Erfreulicherweise hat die Bedeutung von Umwelt in den letzten Jahren auch in der Makroökonomik erheblich an Bedeutung gewonnen.
Da der Erhalt der Umwelt einem normativen Anspruch entspringt, stellt sich deshalb die Frage, welche Rolle Umwelt in makroökonomischen Modellen spielt und wie sie bewertet wird.
Die Art und Weise der Berücksichtigung und Bewertung von Umwelt ist entscheidend für die Implikationen aus den Modellierungen, die dann häufig in Politikberatung münden. Makromodelle sind schnell komplex und dadurch für politische Entscheider*innen ohne entsprechenden Hintergrund schwer zugänglich. Daher ist es hochrelevant, auf welche Weise Umwelt in die Modelle integriert wird, wie sie bewertet wird und wie ersichtlich diese Bewertungen für Außenstehende sind. Das Zusammenspiel dieser Fragen wird in diesem Paper thematisiert.
Dabei gilt es hervorzuheben, dass Bewertungen an sich nicht zwangsläufig schlecht sind oder immer zu vermeiden wären. Im Gegenteil, wann immer etwas auf einer Skala zwischen gut und schlecht eingeordnet werden soll, sind Bewertungen notwendig. Das bedeutet, dass früher oder später Bewertungen unumgänglich sind, um Umwelt mit Produktion und dem darauf abzielenden Konsum in Relation zu setzen. Wer Bewertungen vornimmt und welche Art von Bewertungen schließlich gemacht werden, bleibt dennoch ausschlaggebend dafür, zu welchen Schlüssen man kommt, und hat Einfluss darauf, wie Politik letztlich entscheidet.
Im Folgenden werden zunächst ausgewählte neoklassische Modelle in Bezug auf die Bewertung von Umwelt analysiert werden. Daran anschließend werden zum Kontrast einzelne Alternativen angesprochen und Unterschiede diskutiert. Durch eine grobe Skizzierung von alternativen Vorgehensweisen wird abschließend auf die Frage gezielt, wie gelingende politikberatende Wissenschaft im Kontext von makroökonomischen Modellen mit Umweltelementen aussehen könnte.
Allgemein gültige Aussagen können aufgrund der großen Zahl von unterschiedlichen Modellen nicht gemacht werden. Die ausgewählten Modelle sind jedoch sehr relevant bzw. waren es zur Zeit ihrer Veröffentlichung, sodass auf diese Weise dennoch ein guter Eindruck in die betrachtete Modellklasse gewonnen werden kann.
2. Neoklassik
2.1 Auswahl der Modelle
In diesem Kapitel werden zunächst neoklassische Modelle ohne sogenannter Mikrofundierung untersucht. Allgemein sind Modelle ohne Mikrofundierung als einfache und eher historisch bedeutende Modelle der Neoklassik anzusehen. Der Vollständigkeit halber wird dennoch zunächst ein Modell ohne diesen sogenannten homo oeconomicus in den Blick genommen, nämlich das Solow-Modell.
Für die heutige Neoklassik die sogenannte Mikrofundierung von makroökonomischen Modellen jedoch der Standard und daher wesentlich relevanter[1]. Darauffolgend werden deshalb verschiedene derartige Modelle detaillierter erläutert. Weil es hier eine fast unzählbare Kombination von Varianten von Modellen und der Art der Implementierung von Umwelt (Abatement, Ressourcen, Klimawandel) gibt, handelt es sich hier zwar um eine möglichst repräsentative, aber dennoch exemplarische Auswahl. Den Varianten Abatement, endliche Ressourcen und Klimawandel wird dabei jeweils beispielhaft Rechnung getragen.
Im Nachfolgenden werden anwendungsorientierte makroökonomische Modelle betrachtet; um genau zu sein Integrated Assessment Models (IAMs), was komplexe Modelle sind, die Aspekte aus mehreren Disziplinen integrieren und insbesondere für die Klimawandelfolgenforschung breitere Aufmerksamkeit erfuhren. Konkret verbinden sie umweltwissenschaftliche und ökonomische Modelle. Größere Bekanntheit haben sie durch die Sachstandsberichte des IPCC ab 1988 erlangt, worin sie ein zentraler Bestandteil sind (zuletzt IPCC 2014, fünfter Sachstandsbericht).
In dieser Kategorie werden beispielhaft das DICE-Modell von Nordhaus und die Modellierung aus dem Stern-Review, die auf das weniger bekannte PAGE2002-Modell aufbaut[2], in den Blick genommen. Diese unterscheiden sich zwar im Einzelnen in ihrer Methodik, aber auch sie weisen große theoretische Nähe zu den bisher betrachteten Modellen auf. Die Komplexität dieser Modelle würde eine ausführliche Abhandlung benötigen und bleibt deshalb nur schlaglichtartig. Der Bewertungsprozess von Umwelt kommt hier einer langen Kette von Annahmen gleich. Trotz wichtiger umweltwissenschaftlicher Bewertungen bleibt der Fokus auf dem ökonomischen Teil des Modells.
2.2 Modelle ohne Mikrofundierung
Das Solow-Modell ist ein 1956 entwickeltes Modell, das grundlegend für die neoklassische Wachstumstheorie ist und Ausgangspunkt vieler weiterer Entwicklungen war (Acemoglu 2009). Erst viel später kam durch die Hinzunahme von Umweltverschmutzung die Berücksichtigung der Umwelt ins Spiel. Durch Umweltverschmutzung ändert sich an der Logik des Modells allerdings wenig: Es wird ein optimaler Wachstumspfad ermittelt, ob unter der Berücksichtigung von Umweltverschmutzung oder nicht.
Der Begriff Abatement meint eine Minderung der Verschmutzung und ist mit der Frage verbunden, wie viel Reduktion optimal ist. Ausschlaggebend für die Entscheidung für das optimale Ausmaß der Verschmutzung sind mehrere Dinge: Zunächst gibt es Faktoren, die in dieser Modellwelt als gegeben (exogen) betrachtet werden. Dazu zählen technologische Annahmen wie die Effektivität von Maßnahmen und auch die Annahme, wie viel Verschmutzung der Ausgangspunkt ist. Wie die Größe des ursprünglich angenommenen Umweltproblems ist, ist somit nicht Teil des Modells, sondern eine Annahme. Dennoch steckt auch hier eine grundlegende Wertentscheidung dahinter, die nicht unproblematisch ist, da sie den Ausgang über den optimalen Wachstumspfad wesentlich bestimmt. Ökonom*innen weisen normative Bewertungen und so auch die Bewertung von Umwelt häufig von sich, das Ausmaß des Umweltproblems vorab festzulegen ist jedoch auch eine normative Annahme.
Auf diesen Annahmen aufbauend, sind weitere Strukturen im Modell ausschlaggebend für die Bewertung von Umwelt. So kann in dieser Modellwelt entschieden werden, wie viel von dem produzierten Output in Abatement investiert werden soll. Diese Quote (Abatement/Output) kann damit als der ausschlaggebende Faktor bezeichnet werden, wie Umwelt in Relation zum restlichen Wirtschaften bewertet wird.
Ein weiteres grundlegendes Wachstumsmodell mit Umweltverschmutzung, das keine individuelle Nutzenmaximiererin aufweist, ist das AK-Modell (Acemoglu 2009; Romer 1996). Das Bild ist jedoch ähnlich. Das Ergebnis ist wie beim obigen Green Solow-Modell, dass auch hier die Relation von Investition in Abatement zum gesamten Output, die wesentliche normative Entscheidung darstellt. Diese Festlegung ist unabhängig von allen anderen Faktoren (exogen), weshalb es auch hier möglich wäre, die ethische Entscheidung über die Bewertung der Umwelt, zumindest theoretisch, unabhängig von anderen Modellzusammenhängen zu treffen ist.
2.3 Modelle mit Mikrofundierung
In der Folge des Anstoßes durch den „The Limits of Growth“-Berichts entstanden in den 1970er Jahren viele Modelle, die endliche Ressourcen in die Makroökonomik implementiert haben (Meadows u. a. 1972). Stellvertretend für die neoklassische Modellierung dieser Kategorie wird hier das Dasgupta-Heal-Solow-Stiglitz Model in den Blick genommen (Dasgupta und Heal 1974; Solow 1974; Stiglitz 1974).
Dieses Modell erweitert das Standard Neoclassical Growth-Modell, auch als Ramsey-Cass-Koopmans-Modell bekannt (Romer 1996), um einen weiteren Inputfaktor, nämlich Ressourcen. Entscheidend ist, dass diese Ressourcen nicht erneuerbar und endlich sind und dementsprechend im Laufe der Zeit aufgebraucht werden. Diese Ressourcen sind mit den anderen Inputfaktoren substituierbar. Das heißt, dass bspw. ein niedrigerer Einsatz von Ressourcen durch einen erhöhten Einsatz von Arbeit oder Kapital zu kompensieren sind.
Dieses Modell steht damit im Rahmen dieses Papers stellvertretend für Modelle, die Umwelt über endliche Ressourcen berücksichtigen. Es gäbe aber auch zahlreiche mikrofundierte Modelle, die Umwelt über Verschmutzung berücksichtigen.
Das Standard Neoclassical Growth-Modell ist dem erwähnten Solow-Modell sehr ähnlich. Wesentlicher Unterschied ist die zusätzliche Integration eines nutzenmaximierenden Individuums, dem sogenannten homo oeconomicus. Die Optimierung besteht demnach von nun an darin, den Nutzen bzw. die Wohlfahrt der Individuen bzw. eines repräsentativen Individuums zu maximieren. Dadurch kann für die restliche Ökonomie (darunter auch die Verschmutzung von Umwelt), ein optimaler Pfad bestimmt werden. Entscheidend ist für dieses Individuum letztendlich der Konsum. Umweltfaktoren sind in dem Sinne relevant, dass sie den Konsum des Individuums reduzieren können. Das heißt, trotz Umwelt wird nach wie vor ein einziges (abstraktes) Gut konsumiert.
Die Wertentscheidungen sind auf verschiedenen Ebenen: Zunächst gibt es umweltwissenschaftliche Annahmen wie stark der Verbrauch von endlichen Ressourcen die Produktion beeinflusst, das heißt, wie bedeutend endliche Ressourcen für die Produktion von Gütern sind und wie stark sie substituierbar sind.
Das Individuum ist hier noch nicht am Erhalt von Natur an sich interessiert, sondern will lediglich möglichst nachhaltig das produzierte Gut konsumieren. Die spezifischen Präferenzen, wann, welcher Konsum zu welchem Nutzen führt, sind normative Entscheidungen, die folglich auch Umwelt bewerten.
Die normative Annahme, dass die gesellschaftliche Wohlfahrt über die Nutzenfunktion maximiert werden soll, hat sich in der Ökonomik etabliert. Bei dieser Nutzenfunktion sind in der vorliegenden Form zwei Parameter entscheidend. Der eine Parameter bestimmt die Form der Nutzenfunktion („theta“ oder „etha“). Die Nutzenfunktion hat einen abnehmenden Grenznutzen, was heißt, dass jede weitere Einheit Konsum weniger Nutzen bringt als die vorherige. Theta bestimmt die Krümmung dieser Nutzenfunktion, das heißt, wie stark abnehmend der Grenznutzen ist. Je stärker die Nutzenfunktion gekrümmt ist, desto mehr gilt dieser Zusammenhang, was heißt, dass desto weniger Nutzen eine zusätzliche Konsumeinheit bringt. Was technisch klingen kann, ist für intertemporale Entscheidungen sehr bedeutend: Je größer die Krümmung, desto mehr wird versucht, den Konsum zu glätten, was bedeutet, dass mehr gespart wird, um vom Nutzen in zukünftigen Perioden etwas zu haben.
Theoretisch könnte methodisch bzw. methodologisch so vorgegangen werden, dass die Präferenzen, die als gegeben und nicht veränderbar angenommen werden, anhand von Verhaltensweisen von Menschen an Märkten geschätzt werden. Obwohl sie sehr entscheidend ist, bleibt die Annahme über die Form der Nutzenfunktion in der Regel ohne Realitätsabgleich.
Der andere Parameter ist die „Zeitpräferenz“ (oft „delta“ oder „rho“), der ausdrückt, wie stark der in der Zukunft zu erwartende Konsum abgewertet wird (was nicht mit dem Zins zu verwechseln ist). Die Abwertung kann unterschiedlich begründet werden, etwa dass man nicht genau weiß, was kommen wird, und deshalb die besser einzuschätzende Gegenwart höher bewertet. Sie kann auch als Wahrscheinlichkeit, dass man bzw. die Menschheit sterben wird, legitimiert werden. Ganz generell ist es auch denkbar, dass neue allgemeine Bewertungen der Welt aufkommen, sodass das Wertesystem und damit die Nutzenfunktion überholt sein könnte. Es gibt also Gründe, warum man für zukünftige Jahre nicht den gleichen Wertmaßstab anlegt, inwieweit diese allerdings auch angemessen sind, wird sehr kontrovers diskutiert.
Diese zwei eher unscheinbaren Parameter der generellen Nutzenfunktion bestimmen damit auf unscheinbare und indirekte Art und Weise ganz wesentlich die Bewertung der Umwelt mit. Ein solches Ergebnis wird später auch für die anwendungsorientierten Modelle festzustellen sein. Festzustellen ist also, dass nicht nur die Menge der Ressourcen eine relevante Annahme ist, sondern auch, wie Ressourcen durch die Faktoren Arbeit und Kapital substituiert werden können und welche Nutzenfunktion am Ende nachgeschaltet ist.
Es ist wichtig, sich klar zu machen, dass zusätzlich auch immer das, was nicht bewertet wird, eine implizite Wertentscheidung ist. In diesem Modell bedeutet es, dass Umwelt nur über Ressourcen berücksichtigt wird. Was Fragen des Klimawandels, der Verschmutzung, der Naturzerstörung etc. angeht, ist damit indirekt als nicht entscheidend bewertet, zumindest nicht für den Kontext, für den das Modell gedacht ist.
Problematisch daran, Umwelt nur als endliche Ressourcen einzubeziehen, die dann auch nur zur Produktion von Gütern verwendet werden und keinen Wert an sich haben, ist, dass dadurch Umweltprobleme mit den Präferenzen der Menschen nichts zu tun haben. Die einzige Möglichkeit für das Individuum, Umwelt zu schonen, wäre schlicht weniger zu produzieren und konsumieren. Genau das widerspricht aber der Zielfunktion, die sagt, dass mehr Konsum besser ist. Um die Wohlfahrt innerhalb dieser Modellwelt längerfristig aufrechtzuerhalten, wäre es dagegen hilfreich, mehr endliche Ressourcen zu haben, sodass eine modellkonsistente Empfehlung ist nach weiteren, endlichen Rohstoffen zu suchen. Technologische Verbesserungen wäre eine andere Möglichkeit: Ressourcen könnten stärker substituierbar gemacht werden, sodass weniger Ressourcen pro Produktionseinheit benötigt werden. Das Konsumverhalten der Menschen in einer dem Modell entsprechenden Gesellschaft wird insofern nicht hinterfragt. Würde man es tun, hätte man einen Konflikt zur Annahme über die Präferenzen, die über die Nutzenfunktion abgebildet werden.
2.4 Anwendungsorientierte Klima-Modelle: Stern und Nordhaus
2.4.1 Das PAGE-Modell aus dem Stern-Review
Zwar können sowohl Stern als auch Nordhaus als Advokaten des Klimaschutzes gesehen werden. Beide versuchen mithilfe eines umfangreichen Ansatzes, realitätsnahe Politikberatungen zu ermöglichen. Im Ausmaß ihrer Empfehlungen unterscheiden sie sich dennoch erheblich. Stern empfiehlt sofortige und deutliche Reduktionen der TGH-Emissionen, wohingegen Nordhaus diese Ansicht eher kritisch bewertet und deutlich gemäßigtere Empfehlungen macht. Ein differenzierter Blick auf beide Analysevorgehen lohnt sich deshalb.
Der neoklassische Ansatz von Stern baut auf einem typischen und deshalb als neoklassisches Standard-Modell bezeichnetes Grundgerüst auf (Stern 2007). Die Vorgehensweise von Stern ist, dass die Schäden und die Kosten der Vermeidung gegeneinander aufgerechnet werden, um so den optimalen Pfad zu finden. Beide Größen (Schäden und Vermeidungskosten) werden in Relation zum BIP berechnet, so werden etwa Schäden in BIP-Verlust ausgedrückt werden. Hierbei werden auch nicht-marktliche Güter durch die Schadensfunktion berücksichtigt. Klimawandelschäden in monetären Größen auszudrücken ist Stern zufolge wichtig zur Modellierung. Um die Bandbreite der möglichen Wohlfahrtsauswirkungen berechnen zu können, wurde das PAGE-Modell eingesetzt.
Knapp zusammengefasst geht Stern in zwei Schritte vor. Er berechnet zunächst die Höhe der Klimaschäden in einem Business-as-usual-Szenario und kommt dabei kommt zu einer Bandbreite von möglichen Schäden in Höhe von rund 5-35% des BIPs. Daraufhin schätzt Stern, was es kosten würde, die Treibhausgaskonzentration auf 450-550 ppm CO2e in der Atmosphäre zu beschränken (Stern 2007, xvi). Sein Ergebnis ist, dass die Investition eines Prozents des globalen BIPs die THG-Konzentrationen auf dieses Niveau begrenzen könnten.
Klimaschäden werden auf vielfältige Weisen berücksichtigt und umweltwissenschaftliche Erkenntnisse werden berücksichtigt. Allerdings bleiben an vielen Stellen Annahmen, für die keinerlei Begründungen genannt werden – so etwa bei der funktionalen Form der Schadensfunktion. Die negativen Effekte (Schäden) werden als Verlust von Einkommen umgesetzt, wofür BIP in Einkommen konvertiert wird (Stern 2007, 181).
Zur Bewertung der Einkommen wird auf „Standardwerkzeuge der Wohlfahrtsökonomik“ zurückgegriffen, so Stern. Darauf wird später vertieft eingegangen.
Generell zu begrüßen ist, dass Stern betont, dass ethischen Entscheidungen offenzulegen sind. Auf die Ambivalent dieser Aussage wird aber noch zu sprechen zu kommen sein, da es wichtige Wertentscheidungen gibt, die nicht leicht erkennbar sind. Etwa bei der Zeitpräferenz oder der Krümmung der Nutzenfunktion scheint es unrealistisch, dass diese Größen von Menschen aus der Politik ohne entsprechenden Hintergrund, richtig eingeordnet werden können.
Insgesamt ist Sterns Methode sehr umfassend und bringt neue Elemente in die makroökonomische Modellierung ein. Bei vorangehenden IAMs aus dem zweiten Sachstandsbericht des IPCC (1996) oder bei Tol (2002) kritisiert Stern, dass sie die Schadenshöhe insgesamt systematisch unterschätzen (so sind etwa Extremwettereignisse etwa bei Tol nicht vollumfänglich berücksichtigt).
Insofern wird der Stern-Review vielseitig gewürdigt. Eine Reihe von angesehenen Ökonomen billigen ihn (so etwa Robert Solow, James Mirrlees, Amartya Sen und Joseph Stiglitz[3]). Es gibt aber eine Kontroverse, was an Stellungnahmen von renommierten Umweltökonomen wie Nordhaus oder Tol deutlich wird („There is a whole range of very basic economics mistakes“, Tol in einem Interview im BBC (Radio 4) am 26.01.2007). Auch deshalb lohnt sich der Blick auf das IAM von Nordhaus als Kritiker des Stern-Reviews.
2.4.2 Das DICE-Modell von Nordhaus
Erste Arbeiten von Nordhaus (Nordhaus 1994, Nordhaus/Yang 1996) liegen deutlich vor der Veröffentlichung des Stern-Review (2007). Zugleich gibt es bis zum heutigen Tag andauernde Weiterentwicklungen (siehe u.a. W. Nordhaus und Sztorc 2013; W. Nordhaus 2014; 2018), wodurch eine große Kontinuität festzuhalten ist.
Das DICE-Modell hat als Grundgerüst ebenfalls das Standard Neoclassical Growth Model. Es wird vor allem durch drei Funktionen erweitert: Umweltschäden (durch Klimawandel) werden durch eine Schadensfunktion, die von der Temperaturprognose abhängig ist, berücksichtigt. Damit hebt es sich von den Modellen ab, die zu ähnlichen Zeiten entwickelt wurden. Außerdem gibt es eine Minderungsfunktion, die die Kosten für eine Minderung des Temperaturanstiegs berechnet. Schließlich gibt es eine Funktion, die die Auswirkungen der Wirtschaft (mit der Bezugsgröße BIP) auf die THG-Emissionen und somit auf die Temperaturerhöhung beschreibt.
Die social costs of carbon (SCC) werden in den Modellen (sowohl von Stern als auch von Nordhaus) als Schattenpreis auf THG-Emissionen eingeführt. Nordhaus definiert die SCC als den marginalen Schaden der Emissionen (W. Nordhaus 2014, 274). Sie sollen umfänglichere Kosten (die „wirklichen“ Kosten) für Treibhausgase abbilden.
Gemäß der zugrundeliegenden Wohlfahrtsökonomik sind die Maßnahmen deshalb genau dann optimal, wenn sich die SCC und der Preis für THG-Emissionen entsprechen. Liegt der Preis für THG darunter, so sind in ihm nicht alle externen Kosten internalisiert und man sollte ihn im Sinne der Internalisierung der Kosten anheben.
Dies kann nur eine Kurzbeschreibung für die ebenfalls komplexe Modellierung inkl. der Implementierung von Umwelt bzw. von Klima von Nordhaus stehen. Im Rahmen dieses Textes kann eine ausführliche Modellbeschreibung nicht erfolgen. Dennoch werden nachfolgend über die Unterschiede von Stern und Nordhaus noch weitere Aspekte erklärt.
2.4.3 Diskussion Nordhaus und Stern Auswahl der Modelle
Es gibt unterschiedliche Ebenen, auf denen Annahmen getroffen werden und die verglichen werden können. Zunächst sind deskriptive von normativen Prämissen zu unterscheiden. Explizit normative Annahmen sind z.B. solche, die die nicht am Markt gehandelten Güter bewerten (im Folgenden nicht-marktliche Güter). Wie Dinge überhaupt bewertet werden sollen und wie sie in Relation zu bepreisten Gütern am Markt stehen, ist eine vieldiskutierte Frage. Die Grenze zu deskriptiven Annahmen wird teilweise unterschiedlich gezogen. So wird zum Beispiel die Zeitpräferenzrate bei Stern als normativ betrachtet, dahingegen will Nordhaus sie aus empirischen Größen herleiten und betrachtet sie insofern als nicht normativ. Im Folgenden ist sie als normativ eingeordnet.
Bei den deskriptiven Annahmen können drei Kategorien unterschieden werden: sozio-ökologische Annahmen, klimatologische Annahmen und sozio-ökonomische Annahmen (Pissarskoi 2012; 2016).
Diese Kategorien helfen, sich über Gemeinsamkeiten und Unterschiede klarer zu werden. Die aufwendigen Modelle könnten in ihren zahlreichen Facetten ausführlich verglichen werden (vgl. Smith 2011; Etienne u. a. 2012). Auf die ersten beiden Kategorien (sozio-ökologische Annahmen, klimatologische Annahmen) soll hier nur knapp eingegangen werden. Obwohl gerade diese direkt mit Umwelt in Zusammenhang stehen, wird nicht der Versuch unternommen, die unterschiedlichen komplexen Modellaufbauten in dieser Hinsicht zu vergleichen. Auf die sozio-ökonomischen Annahmen wird jedoch ausführlicher eingegangen. Bei diesen ist nicht unmittelbar erkennbar, was sie mit Umwelt zu tun haben, aber – wie sich herausstellt – haben sie großen Einfluss auf die Bewertungen von Umwelt. Sie sind, wie erwähnt, teilweise an der Schnittstelle zu normativen Annahmen bzw. sie sind als normative Annahmen einzuordnen.
Klimatologische Annahmen
Die klimatologischen Annahmen bilden eine der drei Kategorien der deskriptiven Annahmen. Sie bestimmen, wie die Auswirkungen der THG auf klimatische Systeme sind. Dabei handelt es sich um naturwissenschaftliche Zusammenhänge, die mit ökonomischen Modellierungen zunächst nichts zu tun haben.
Dieser Teil der Annahmen erfordert am meisten naturwissenschaftliches Verständnis und ist am weitesten von ökonomischer Theorie entfernt, was nicht bedeutet, dass er unwichtig wäre, wohl aber, dass er von einem Ökonomen schwer beurteilt werden kann und in diesem Text nicht weiter abgehandelt wird.
Sozio-ökologischen Annahmen
Zu den sozio-ökologischen Annahmen ist zentral die Schadensfunktion zu nennen. Diese Schadensfunktion beschreibt Auswirkungen aus der ökologischen Sphäre auf die Ökonomie. Kritik an ihr wird aus unterschiedlichen Richtungen geübt. Sie kann in ihrer funktionalen Form kritisiert werden, da es keine Begründung dafür gibt, dass es genau diese Form sein muss (Ackerman u. a. 2009; Pindyck 2017). Ackerman et al. (2009) haben die Schätzungen anhand des PAGE-Modells von Stern reproduziert. Weil sie die Datenbasis, die den Schäden zugrunde liegt, erheblich anders einschätzen und die Schäden durch eine Erhöhung der Temperatur anders bewerten, haben sie Parameter in der Modellierung geändert und kommen durch den Klimawandel auf Schäden, die drei- bis über viermal so hoch sind (viermal so hoch bei erhöhten Katastrophenrisiken).
Auch bei Nordhaus‘ DICE-Modell wird die Schadensfunktion grundlegend kritisiert (Pindyck 2017). Die Annahme, dass es einen quadratischen Zusammenhang zwischen Temperaturanstieg gibt, wirft genauso Fragen nach guten Begründungen auf wie einzelne Parameter in der Schadensfunktion („pi“), die die Bandbreite der Ergebnisse schon teilweise vordefinieren (Pindyck 2017, 5). Extreme Situationen werden hier implizit ausgeschlossen.
Keen nimmt die funktionale Form der Schadensfunktion von Nordhaus‘ DICE in den Blick und argumentiert, dass sie nicht haltbar bzw. nicht plausibel zu begründen sei (Keen 2019). Die Schadensfunktion wird zwar auf Grundlage von empirischen Daten modelliert, ist aber ein Polynom zweiten Grades und damit stetig. Es wird also angenommen, dass es keine Tipping Points gibt, an denen die Auswirkungen der Temperaturerhöhungen auf das Ausmaß des Schadens sprunghaft ansteigt. Die Existenz genau dieser Tipping Points sei jedoch naturwissenschaftlich belegt. Darüber hinaus stellt Keen die Form der Schadensfunktion aus einem weiteren Grund in Frage. Nordhaus begründet durch seine Modellierungen schlussendlich einen Pfad von 4-5 Grad Temperaturerhöhung, doch die Schadensfunktion beruht nur auf Schätzungen, die lediglich bis zu einem Anstieg von 3 Grad vorliegen – alles Weitere ist eine Extrapolation. Das heißt, Nordhaus begründet implizit einen Pfad, der nicht ausreichend durch naturwissenschaftliche Schätzungen belegt ist.
Diese zwei Kritikpunkte von Keen verdeutlichen exemplarisch, dass es allein auf Ebene der Implementierung der Beziehungen zur Umwelt viele Annahmen gibt, die mitunter sehr kritisch betrachtet werden.
Zwar werden insgesamt hauptsächlich Nutzeneffekte durch Veränderungen an Märkten berücksichtigt, aber sowohl bei Nordhaus las auch bei Stern gibt es auch nicht-marktliche Bereiche. Im DICE etwa stiften auch Gesundheit und Erholungsleistungen Nutzen, während Lebensverluste negativ berücksichtigt werden. Negative Folgen des Klimawandels werden teilweise also auch hierüber berücksichtigt.
Zusammenfassend kann gesagt werden, dass die Schadensfunktionen auf teilweise sehr umfangreiche und aufwendige Art und Weise erstellt wurden. Die Methoden von Stern und Nordhaus unterscheiden sich deutlich erkennbar, was auch ein Grund ist, wieso sich die Bewertung von Umwelt und schließlich die Höhe der SCC wesentlich unterscheiden. Der Umgang mit Umwelt wird jedoch abschließend indirekt auch durch die Nutzenfunktionen bestimmt, weshalb diese sozio-ökonomischen Annahmen von besonderer Bedeutung zu sein scheinen.
Sozio-ökonomische Annahmen
Für die Modellierung der Auswirkungen auf die Volkswirtschaft sind zahlreiche sozio-ökonomische Annahmen vonnöten, auf die kurz eingegangen wird. Von diesen Annahmen werden bei weitem nicht alle begründet; einige wären es wert zu hinterfragen. Insbesondere auf die Nutzenfunktion und ihre normativen Aspekte werden in den Blick genommen.
Die Nutzenfunktion reagiert sehr sensitiv auf eine Veränderung von Parametern, über deren Höhe man sich streiten kann. Sie ist auch deshalb sehr interessant, weil sie bei Stern und Nordhaus strukturell vergleichbar aufgebaut sind, aber die Größen der Parameter unterscheiden sich deutlich. Zwei bzw. drei Parameter sind besonders bedeutend (Anthoff, Tol, und Yohe 2009b): die Zeitpräferenzrate (bzw. die PTP-Rate, pure rate of time preference, in Modellen oft griechisch „delta“ oder „rho“) sowie die Konsumelastizität als ein Parameter der Risikoaversion (in Modellen oft griechisch „alpha“, „tetha“ oder auch „etha“). Auf diese zwei Parameter wird ausführlicher eingegangen. An dieser Stelle könnte als dritte sehr relevante Größe jedoch zusätzlich die Wachstumsrate des Konsum hinzugenommen werden (Anthoff, Tol, und Yohe 2009a).
Die Zeitpräferenzrate tauchte bereits ähnlich in den Modellen zuvor auf, die auf dem Standard-Neoclassical-Growth-Modell aufbauen, und hat insofern auch eine lange Tradition in der Ökonomik. Zusammen mit einem weiteren Teil, bildet er die sog. social discount-Rate (SDR), im Folgenden Diskontrate genannt[4]. Hinter der Höhe der Zeitpräferenzrate steht eine ethische Frage, die in Anbetracht der nicht abreißenden Debatte darüber, nicht abschließend zu klären ist.
Der zweite Parameter ist die „elasticity of the marginal utility of consumption“. Diese Elastizität des Grenznutzens des Konsums oder kurz die Konsumelastizität ist ein Maß für die relative Risikoaversion (RRA) und bestimmt somit das gewünschte Maß für die Ungleichheit über die Zeit. Diese Elastizität ist ein zentraler Parameter der Nutzenfunktion und hat drei Rollen, weshalb sie sehr wichtig ist: Konsumglättung über die Zeit, Risikoaversion und Ungleichheitsaversion (Anthoff, Tol, und Yohe 2009a).
Ähnlich wie in den Modellen zuvor gilt: Je stärker versucht wird, Konsum über die Zeit zu glätten, desto mehr Bedeutung kommt der Zukunft zu und desto mehr Wert wird auf die Umwelt gelegt.
Diese scheinbar rein technische Annahme beeinflusst das Endergebnis stark und ist damit eine normative Annahme. Die Elastizitätsrate bestimmt, wie ausgeprägt der Wunsch ist, dass heute so viel wie morgen konsumiert werden kann. Somit wird durch sie bestimmt, wie groß die Bereitschaft zum Sparen (Konsumverzicht heute) ist, damit später mehr konsumiert werden kann. Wie stark daher an „morgen“ gedacht wird, liegt deshalb wesentlich an dieser Elastizitätsrate.
Es gibt erhebliche Unterschiede zwischen Stern und Nordhaus. Bei Stern ist die Konsumelastizität 1%, während sie bei Nordhaus (im DICE-2013R-Modell) 1,45% beträgt (vgl. Stern 2007, 185; W. Nordhaus und Sztorc 2013, 38).
Die Zeitpräferenzraten von Stern und Nordhaus unterscheiden sich ebenfalls deutlich: Bei Stern liegt sie bei 0,1% (Stern 2007, 185). Bei Nordhaus lag teilweise bei 3% (dynamisch und von 3% abnehmend im DICE98 Modell; mit fester Höhe von 3% in Modellen davor (W. D. Nordhaus und Boyer 1999)). Später liegt die Zeitpräferenzrate in Höhe von 1,5% (im DICE2013R Modell, W. Nordhaus 2014), was immer noch das 15-fache gegenüber Stern ist.
Nordhaus kalibriert die Parameter aus der Nutzenfunktion mithilfe von Marktdaten (W. Nordhaus 2007, 202). Er nimmt an, dass der return of capital (r) der Diskontrate entspricht. Die Diskontrate ist eine Gleichung im Modell, sodass ein Abgleich stattfinden kann.[5] Auf diese Weise legitimiert Nordhaus die Parameter der Zeitpräferenz und der Elastizität des Konsums. Da diese am Markt beobachteten Größen schwanken, schwankt bei Nordhaus auch die Diskontrate im Zeitverlauf (W. Nordhaus 2014). Gäbe es also eine hohe Präferenz für die Zukunft, würde diese am Markt abgebildet werden, so die Annahme. Da jedoch nicht übermäßig viel gespart wird, leiten Autoren wie Arrow oder eben Nordhaus eine deutlich von Null verschiedene Diskontrate her. Das bedeutet, dass aus wirtschaftlichen Indikatoren, hergeleitet wird, dass die Präferenzen für die Zukunft nicht hoch sind.
Stern lehnt dieses Vorgehen ab. Er hält die genannten Parameter für Wertenscheidungen in Bezug auf intergenerationelle Gerechtigkeit, welche es offen zu diskutieren gilt. So sieht er selbst etwa keine guten Gründe, warum die Zeitpräferenzrate deutlich von null verschieden sein sollte. Den geringen Wert von 0,1%, den er ansetzt, begründet er mit der Wahrscheinlichkeit, dass die Menschheit ausstirbt[6]. Die sich bei Stern ergebende Diskontrate ist mit 1,4% deshalb wesentlich kleiner als bei Nordhaus und deckt sich nicht mit den am Markt zu beobachtenden, langfristigen return of capital (W. Nordhaus 2007, 202).
Die Empirie nimmt damit zumindest vermeintlich Nordhaus die normative Entscheidung über die Zeitpräferenzrate. Nordhaus und Sztorc argumentieren, dass ihr Modell nicht notwendigerweise eine normative Interpretation habe, sondern es viel mehr einen Algorithmus darstelle, der dabei hilft, ein effizientes Ergebnis zu finden (Nordhaus und Sztorc 2013, 22). Diese Einschätzung kann jedoch kritisiert werden, da es auch eine normative Frage ist, was als effizientes Ergebnis definiert wird. Darüber hinaus ist auch die Entscheidung, sich auf Präferenzbeobachtungen zu beziehen ebenfalls eine implizit normative Entscheidung. Stern fordert die Offenlegung dieser Bewertungen und argumentiert selbst, dass die Höhe der Diskontrate aus ethischen Gründen kaum höher als null sein dürfe. Differenziertere Begründungen dafür sind allerdings bei ihm nicht zu finden, sodass auch an dieser Begründung Kritik geübt werden kann.
In jedem Fall ist das Zustandekommen der zwei Parameter (Zeitpräferenz und Konsumelastizität) von hoher Bedeutung für die unterschiedlichen Gesamtbewertungen von Umwelt. Nordhaus‘ Einschätzung zufolge stammen die Unterscheide von ihm zu Stern fast vollständig von der Methode, die Diskontrate zu bestimmen (W. Nordhaus 2007, 202).
Um die Auswirkungen kleiner Veränderungen dieser Werte einschätzen zu können, machen Anthoff, Tol und Yohe eine Sensitivitätsanalyse (Anthoff, Tol, und Yohe 2009b). Mithilfe des IAM FUND variieren sie die Werte der Zeitpräferenz und der Konsumelastizität bzw. der Risikoaversion (jeweils zwischen 0 und 3%) und kommen zu dem Ergebnis, dass alle Werte zwischen 0 und 120.000 $/tCO2e für die SCC herauskommen können. Auch wenn Stern und Nordhaus ein anderes Modell zugrunde legen, macht diese Analyse sehr deutlich, wie sensitiv die SCC auf kleine Veränderungen reagieren können.
Unterschiede gemessen an den SCC
Die unterschiedlichen Ergebnisse von Stern und Nordhaus wundern vor dem Hintergrund der unterschiedlichen Parameter der Nutzenfunktion nicht. Nach Stern ist eine Treibhausgas-Konzentration von 450-550 ppm CO2e im Jahr 2050 in Bezug auf die Maximierung der intertemporalen Wohlfahrt optimal. Über Kostenberechnungen suggeriert Nordhaus dagegen, dass ein wesentlich höheres Level an Treibhausgasen in der Atmosphäre akzeptabel wäre. Eine langfristige Stabilisierung auf einem Level von 700 ppm CO2e mit damit verbundenen Kosten von ca. 20 Billionen US-Dollar werden als tolerierbar eingeschätzt (W. D. Nordhaus 2008).
Die Unterschiede von Stern und Nordhaus werden auch an den SCC sichtbar. Nach neueren Berechnungen von Nordhaus (mithilfe des DICE2013R) belaufen sich die SCC auf 18,6 US-Dollar pro Tonne CO2e im Jahr 2015, gemessen in den Preisen von 2005, und wachsten 3% pro Jahr bis 2015 (W. Nordhaus 2014). Das impliziert für das Jahr 2050 bei Nordhaus SCC in Höhe von 53,1 US-Dollar (Preise von 2005); dem gegenüber stehen SCC teilweise von mehr als 300 US-Dollar pro Tonne CO2e im Stern-Review (Anthoff, Tol, und Yohe 2009a; Tol 2005). Die große Bedeutung der Diskontraten in Bezug auf die Höhe der SCC ist dabei weitgehend anerkannt (Anthoff, Tol, und Yohe 2009a; W. Nordhaus 2014).[7]
Gemeinsamkeiten
Trotz teilweiser großer Unterschiede (sogar gerade bei den nur kurz erwähnten klimatologischen und sozio-ökologischen Annahmen) und erheblicher Differenzen in den Ergebnissen, gibt es methodologisch dennoch große Ähnlichkeiten. Grob zusammengefasst lässt sich sagen: Der Output beeinflusst die Höhe der Emissionen. Emissionen beeinflussen dann wiederum die Höhe der zu erwartenden Temperatur, während die Temperatur dann wiederum Einfluss auf den volkswirtschaftlichen Schaden nimmt.
Unter Berücksichtigung dieser marktlichen und nicht-marktlichen Wohlfahrtsaspekte wird der optimale Pfad für Konsum und Investitionen berechnet. Daraus leitet sich u.a. die Höhe der optimalen SCC ab.
Was bei Nordhaus und Stern letztendlich das Ziel bleibt, ist ein hoher, stabiler und idealerweise steigender Konsum, was ein Teil des Outputs (BIP) ist[8].
Umwelt interessiert nur, insofern es den Nutzen und – die geringen nicht-marktlichen Effekte ausgenommen – das BIP für höheren Konsum nicht beeinträchtigt. Umwelt wird zwar aufwendig modelliert, abschließend bestimmt dann aber die sensitive Nutzenfunktion das Ergebnis des optimalen Konsumpfades sehr wesentlich.
2.5 Diskussion Neoklassik
Obwohl die betrachteten neoklassischen Modelle teilweise sehr unterschiedlich sind, gibt es doch grundlegende methodologische Gemeinsamkeiten in der Vorgehensweise. In allen Fällen handelt es sich auch um methodologischen Individualismus, was bedeutet, dass individuelles Handeln die Grundlage für das Verhalten von Gruppen ist. Den Präferenzen bzw. Wünschen der Individuen wird durch die Nutzenfunktionen Rechnung getragen, wobei ein abstraktes Gut konsumiert wird, bei dem gilt, dass mehr Konsum besser ist als weniger Konsum.
Es gibt ein lang lebendes Individuum, welches stellvertretend für Staaten bzw. Regionen stehen kann und möglichst viel konsumieren möchte. Da es ungeduldig ist, will es lieber heute als morgen konsumieren. Dahingehend unterscheiden sich alle Modelle mit Mikrofundierung sowie die Modelle von Stern und Nordhaus methodologisch wenig, auch wenn Ausmaß und Begründung dieser Ungeduld sehr unterschiedlich sind.
Ein Vorteil der beobachteten Ökonomisierung von Umweltparametern ist der, dass man ein präzises Ergebnis erhält, in welcher Höhe sich Investitionen zur Vermeidung des Klimawandels lohnen. Wenn die Höhe der SCC dann höher oder sogar wesentlich höher als die derzeitige Höhe für THG ist, dann kann eine solche Aussage eine klare Botschaft für politische Entscheider*innen darstellen. Diese hohe „Anwendbarkeit“ beruht jedoch auf einer Vorgehensweise, die kritisch zu beleuchten ist.
Es irritiert sehr, dass Unterschiede in klimatologischen und sozio-ökonomischen Annahmen wenig ausmachen, während sich der Hauptunterschied für die unterschiedlichen SCC, so Pindyck, in der Höhe der Parameter in den Nutzenfunktionen liegt. Seine Kritik an der Sinn- und Zweckhaftigkeit dieser Modelle ist daher entsprechend hart (Pindyck 2017, 9): „The point here is that there is hardly any need for a model; decide on the discount rate and you pretty much have an estimate oft he SCC. The model ist almost a distraction.“
Gerade aus ökologisch-ökonomischer Sicht gibt es deutliche Kritik an der angeführten neoklassischen Vorgehensweise und an Ansätzen, die einer Cost-Benefit-Analyse (CBA, gleichbedeutend: Kosten-Nutzen-Analyse) ähneln. Auf diese Kritik, insb. von Spash (2007), wird im Folgenden eingegangen, um daraufhin alternative Vorgehensweisen ins Feld zu führen. Spash bezieht sich dabei auf Stern, viele Kritikpunkte sind jedoch in ähnlicher Form auch bei Nordhaus anzubringen.
Im Stern-Review wird an vielen Stellen eine widersprüchliche Diskrepanz zwischen Anspruch und tatsächlichem Vorgehen offenbar (Spash 2007, 706ff).
So wird auf die Problemfelder starke Unsicherheit, Inkommensurabilität, plurale Wertsysteme, ethische Fragestellungen, Verteilungseffekte, Armut sowie das Zusammenspiel verschiedener Generationen aufmerksam gemacht, in der darauffolgenden Arbeit, inkl. der Modellierung, aber unbearbeitet belassen.
Zwar distanziert sich Stern von der Methode der Cost-Benefit-Analyse (Stern 2007, 298), da dieser Ansatz nur für kleine, nicht aber für große (globale) Auswirkungen angemessen sei, reduziert dann allerdings seine Analyse auf eine ökonomische Schadensrechnung, die er den Kosten von Handeln im Sinne des Klimaschutzes gegenüberstellt: Ein Schaden von 5-20% des globalen BIP ist zu erwarten. Die „schlimmsten Auswirkungen“ könnten jedoch durch die Investition von nur ca. 1% des globalen BIP vermieden werden (Stern 2007, vi). Damit kommt er einer CBA de facto zumindest sehr nahe. Spash kritisiert dieses Vorgehen ganz grundsätzlich.
Klima- oder Umweltschäden werden z.B. durch Schadensfunktionen integriert. Ob der Vergleich von Kosten und Nutzen durch Grenzkosten bzw. -nutzen stattfindet, ist dabei nicht entscheidend als viel mehr, dass alle Effekte, die letztlich berücksichtigt werden, in monetäre Einheiten gebracht werden, so Spash.
Das Zusammenführen aller Faktoren, auf eine einzige Vergleichsgröße in der Nutzenfunktion, ist ein wesentliches Element des neoklassischen Ansatzes. Dies ermöglicht es, am Ende eine Lösung zu exponieren. Formulierungen wie „optimale Maßnahmen“, „optimale Höhe der Emission“ oder „optimaler Pfad“ sind in der neoklassischen Modellierung häufig und liegen darin begründet.
Eine Kernkritik daran kann mit Inkommensurabilität, das heißt der Unvergleichbarkeit von Werten, beschrieben werden. Stern scheint zwar diese Unvergleichbarkeit von Werten zu akzeptieren, wie etwa das Leben von Menschen nicht mit dem Einkommen bzw. Konsum vergleichbar ist (Stern 2007, 145). Schließlich wendet er jedoch ein quantitatives Modell an, das auf utilitaristischen Werten beruht (Spash 2007, 708). Zwar berücksichtigt Stern mehrere Szenarien, die neben Auswirkungen auf das BIP auch nicht-marktliche Auswirkungen (z.B. Gesundheit) erhöhte Risiken für Klimakatastrophen berücksichtigt. Jedoch werden nicht in allen die Auswirkungen jenseits des Marktes berücksichtigt. Schließlich ist auch zu kritisieren, dass am Ende auch bei der Berücksichtigung von Auswirkungen abseits des Marktes dennoch alles auf eine Skala runtergebrochen und wird somit inkommensurablen Werten nicht gerecht.
Es geht nicht nur um Stern und Nordhaus, sondern zahlreiche ökonomische Untersuchungen zum Klimawandel setzen den Verlust von Leben mit BIP-Größen gleich, so Spash (2007, 710). Da Ungleichheit, aufgrund der fehlenden intratemporalen Unterscheidung, nicht berücksichtigt wird, können negative Effekte wie Tote in Indien oder China auch allein durch aufwendige Freizeitbeschäftigungen in Hochlohnländern kompensiert werden.
Faktisch nimmt Stern auch an, dass Gesundheit, Umwelt und Einkommen bzw. Konsum kommensurabel sind, was so viel bedeuten würde wie, dass Konsum alles verbessern und kompensieren kann. Unerwähnt bleiben ethische Bedenken und die Tatsache, dass selbst dem utilitaristischen Ansatz ein moralisches Wertesystem zugrunde liegt (Spash 2007, 709). Damit ist der Bericht in seinen Ergebnissen, Spashs Einschätzung zufolge, nicht weniger willkürlich als vorherige globale CBAs in Bezug auf THG.
Zum Verständnis der neoklassischen Vorgehensweise hilft es die theoretischen Hintergründe in den Blick zu nehmen. Nordhaus‘ und Sterns Vorgehen ist methodologisch in der Wohlfahrtstheorie vom Anfang des 20. Jahrhunderts zu verorten (vgl. Stern 2007, 60). Stern zeigt ein Bewusstsein über grundsätzliche CBA-Kritik, beherzigt diese aber nicht (Spash 2007, 709). Statt differenzierte ethische Überlegungen offen zu legen, um sie einer gesellschaftlichen Debatte öffnen zu können, läuft das ethische Urteil auch in diesen neoklassischen Ansätzen, dass es vorrangig um effiziente Wohlfahrtsmaximierung im Sinne der Wohlfahrtsökonomik geht.
2.6 Fazit Neoklassik
Politikempfehlungen auf Basis neoklassischer Modelle können sehr konkret in der Höhe der Ausgaben, die getätigt werden sollen (wie etwa bei Stern oder Nordhaus), basieren aber gleichzeitig auf normativen Modellkomponenten, die als Grundannahmen indirekt das Ergebnis bestimmen. Neben den diskutierten kritischen Aspekten, insbesondere in Bezug auf die Nutzenfunktion, scheinen viele Annahmen, ad-hoc-Annahmen bzw. nicht begründet zu sein oder beruhen teilweise auf der alleinigen Einschätzung derjenigen Person, die das Modell entwickelt hat. Zahlreiche Annahmen haben normative Konsequenzen, sodass von werturteilsfreier Modellierung nicht zu sprechen ist. Ob angemessen mit dieser Normativität umgegangen wird, ist in Frage zu stellen.
Mit „tackling climate change is the pro-growth strategy“ macht Stern deutlich, dass er im Hinterkopf eine Wachstumsstrategie verfolgt (Stern 2007, 191). Es ist als großes Manko zu verzeichnen, dass die Steigerung des BIP als Zielgröße unreflektiert bleibt. Wirtschaftswachstum steht damit als präanalytische Annahme vor Sterns aufwendiger Modellierung.
Optimale Klimapfade sind an die Höhe des Konsums und damit weiterhin wesentlich an Output bzw. das BIP geknüpft. Ein gutes Ergebnis sorgt für möglichst viel Konsum und hält gleichzeitig die Ausgaben aufgrund der Schäden durch Klimawandel oder Umweltzerstörung möglichst gering. Implizit liegt folglich eine BIP-Orientierung zugrunde. Im Hinblick auf die wachstumskritische Literatur ist das erstaunlich. Auch aus diesem Grund ist die Art und Weise der Optimierung neoklassischer Ansätze aus Ökologisch-ökonomischer Perspektive kritisch einzuordnen.
Es ist zwar sinnvoll, BIP mit in den Blick zu nehmen, weil gesamtökonomische Entwicklungen damit verbunden sind und etwa unkontrollierte Rezessionen vermieden werden wollen. Doch ein derartiger Fokus auf den Output wird in der ökologischen Ökonomik kritisch gesehen.
Hieran wird ebenso deutlich, wie BIP-Kritik und Inkommensurabilität zusammenhängen. Modellierungen, die alles auf eine (monetäre) Skala runterbrechen, wollen die Verbesserung der Verhältnisse durch die Erhöhung genau diesen Rechenwertes erreichen. Die Reduktion auf eine Größe legt sofort nahe, dass man diese auch erhöhen will. Andersrum gesagt: Kennt man keine andere, hat man wenig Anlass, nicht das Ziel von monistischem Wachstum zu verfolgen. Erst wenn mehrere, unvergleichbare Größen zugelassen sind, ist eine Besserung nicht immer mit einem Mehr gleichzusetzen. Mehrere Zielgrößen müssen dann miteinander ausgehandelt werden, wobei die Stagnation von einzelnen Größen, wie etwa dem BIP, aus gesamtgesellschaftlicher Sicht durchaus optimal sein können.
Aus diesen Gründen sieht Spash als die Hauptbotschaft der neoklassischen Modellierungen alla Stern eine Rechtfertigung von Politiken zugunsten von Wachstum, sodass Lösungen nahegelegt werden, die mit ein bisschen mehr Handeln und technologischen Fortschritt zu erreichen wären (Spash 2007, 712).
3. Ökologisch-Ökonomische Perspektiven
Im Rahmen der Ökologischen Ökonomik gibt es eine zunehmende Anzahl von alternativen Ansätzen. Diese sind in der Regel nicht neoklassisch einzuordnen, wenn sie auch teilweise neoklassische Elemente enthalten – der Übergang zu alternativen makroökonomischen Modellen, die Bezug auf Umwelt nehmen, ist fließend.
Es wird nicht der Versuch unternommen, die Heterogenität abseits des Mainstreams abzubilden, sondern es soll auf eine alternative Linie in Bezug auf die angesprochene Problematik aufgezeigt werden.
Inkommensurabilität oder Ökonomisierung
Gran (2017) entwickelt das WoW-Modell (Wirtschaft ohne Wachstum) aufbauend auf das LowGrow-Modell von Victor (2007; 2008; 2012). Der Modellrahmen beider Ansätze ist, neben ein paar neoklassischen Elementen, vor allem post-keynesianisch und durch Grundprinzipien der Ökologischen Ökonomik geprägt.
Das in der Ökologischen Ökonomik grundlegende Prinzip der Inkommensurabilität soll hieran nochmal verdeutlicht werden. Denn ein entscheidender Unterschied gegenüber dem DICE oder Stern-Modell in Bezug auf die Bewertung der Umwelt ist, dass ökologische Kennzahlen berücksichtigt werden, diese aber nicht durch eine Nutzenfunktion integriert werden. Das heißt, Energieverbrauch bzw. -produktivität, Treibhausgasemissionen und dem ökologischen Fußabdruck (und bei Victor Forstbestand (2007)) stehen als Ergebnisse in den verschiedenen Szenarien zur Verfügung, sie werden aber nicht zusammen mit anderen Größen in der Nutzenfunktion abschließend bewertet.
Teilweise werden auch soziale Indikatoren implementiert. Das Modell von Victor und Rosenbluth (2007) etwa modelliert den HPI (human poverty index) und liefert somit ein weiteres Beispiel für Inkommensurabilität.
Teilweise werden diese sozialen und ökologischen Größen zwar auch bewertet (man denke an Energiepreise, die Energieverbrauch und damit indirekt THG bewerten). Dies geschieht aber nicht, um den einen optimalen Pfad zu finden, sondern um eine Simulation der Wirtschaft zu ermöglichen. Das heißt, es geht um das Erstellen von möglichst realitätsnahen Szenarien, die über die Variation von Annahmen einem Wenn-Dann-Argumentationsmuster folgen.
Umwelt und andere Faktoren werden daher im Modell nicht abschließend bewertet. Stattdessen werden die Entwicklungen möglichst in ihrer Vielschichtigkeit dargestellt, sodass die Bewertung darauf aufbauend durch Politik und Gesellschaft stattfinden kann.
Das heißt, dieser Ansatz bietet mehr Transparenz. Entscheider*innen aus dem politischen Prozess müssen somit ihre Wertvorstellungen selbst einbringen. Er bringt im Gegenzug allerdings eine höhere Komplexität mit sich und verlangt von den Verantwortlichen teilweise, Entwicklungen von einer Vielzahl von Indikatoren bewerten zu können. Dem gegenüber steht der Ansatz, der alles auf eine Variable reduziert und normative Vorentscheidungen trifft. Dies ist nur scheinbar einfacher für Entscheider*innen, da diese dann die Stellen des Modells verstehen müssten, an denen diese normativen Elemente einfließen. Es ist allerdings zu bezweifeln, dass sie sich über das Menschbild im Klaren sind, welches Ausgangspunkt der hier beschriebenen ökonomischen Modellierungen ist.
Victor bewegt sich methodologisch im Rahmen einer Szenarien-Simulation und -Analyse (Victor 2012, 212) und distanziert sich unter Bezugnahme auf Spash explizit von Optimierungspfaden bzw. von Cost-Benefit-Analyse (Victor 2012, 207). Er stellt darüber hinaus die Messung des Erfolgs von Klimaschutzmaßnahmen durch Veränderungen im BIP in Frage, da ein solches Vorgehen blind macht für Maßnahmen zur Erreichung der Klimaziele, die Nullwachstum oder sogar Schrumpfung benötigen.
Transparenz und Rückkopplungen
D’Alesandro et al. (2018) gehen mit ihrem Eurogreen-Modell methodologisch ähnlich vor. Dieses Modell, das einen postkeynesianischen Kern hat und verschiedene Elemente heterodoxer Modellierung (unter anderem System-Dynamics) heranzieht, soll ganz gezielt eine Alternative zu „orthodoxen“ Ansätzen zum Klimawandel darstellen. Auch hier wird, ähnlich wie bei Gran und Victor, nicht ein optimaler Pfad vorgegeben, sondern es werden mehrere Varianten verglichen, sodass die Trade-Offs der einzelnen Maßnahmen deutlich werden (D’Alessandro u. a. 2018, 17). Bei diesem Projekt ist herauszuheben, dass es ein online-Tool gibt, das von allen frei zugänglich bedient werden kann. Somit können eigens kreierte Szenarien modelliert werden und es kann sich leicht ein Bild über die möglichen Wirkzusammenhänge verschafft werden. Auch das ist ein kleiner Baustein, der die alternative Herangehensweise verdeutlicht.
Bei der Bewertung sind verschiedene Stufen zu unterscheiden. Die Ablehnung einer solchen Nutzenfunktion bedeutet nicht, dass Bewertungen wie etwa durch Rückkopplungen von Klima bzw. Umwelt auf die ökonomische Sphäre fehlen müssen. Bei D’Alesandro et al. (2018) zum Beispiel ist es dennoch so, dass genau diese Auswirkungen von Umweltveränderungen (Treibhausgasemissionen, Gesamtprimärenergieangebot (TPES) und Energieintensität) auf die Ökonomie fehlen, was durchaus kritisch gesehen werden kann. In methodologisch ähnlichem Fahrwasser ist auch die Arbeit von von Naqvi und Stockhammer (2018) zu verstehen. Auch bei dieser Arbeit ist eine Rückkopplung der integrierten THG auf die Ökonomie nicht vorhanden. Ihre Begründung zeigt, dass nicht aufgrund der Inkommensurabilität diese Implementierung nicht vorgenommen wurde, sondern sie aus Komplexitätsgründen nicht erfolgte (Naqvi und Stockhammer 2018, 16). Gar keine Rückkopplung von THG zur Ökonomie sind besonders für die Fälle problematisch, wenn es eine starke Erhöhung von Treibhausgasen gibt, da dann, Einflüsse vom Klima auf die Wirtschaft sehr wahrscheinlich sind. Dabei gibt es aber die Hoffnung, dass sich Politik für einen solchen Pfad ohnehin nicht entscheiden würde. Relevanter ist es zu diskutieren, welche Bedeutung es hat, dass auch kleinere Mengen an THG-Emissionen keine Rückkopplung von Umweltschäden zur Ökonomie haben.
Inzwischen gibt es eine nicht mehr kleine und deutlich wachsende Anzahl von Arbeiten mit ähnlicher Methodologie, die an dieser Stelle genannt werden könnten. Beispielhaft kann auf Caverzasi und Godin (2014), Jackson (2016), Cordier et al. (2017) oder Dafermos et al. (2017) verwiesen werden.
Postkeynesianismus und Ökologische Ökonomik
Die genannten Modelle haben alle post-keynesianische Anteile. Als ein fruchtbares Zusammenspiel für eine zur Neoklassik alternative Methodologie hat sich die Kombination von post-keynesianischen Elementen mit Prinzipien aus der Ökologischen Ökonomik erwiesen. Post-keynesianische Ökonomik ist aus mehreren Gründen gut mit der Ökologischen Ökonomik vereinbar (Kronenberg 2010; Fontana und Sawyer 2016). In Bezug auf das Konsument*innenverhalten ist insbesondere zu nennen, dass in beiden Theorieschulen das Verhalten vorrangig von Gewohnheiten bestimmt ist (Kronenberg 2010, 1491). Was wünschenswerte wirtschaftliche Entwicklungen sind, hängt deshalb nicht nur von der Höhe des Konsums bzw. der Nutzenfunktion ab; andere Faktoren müssen sowieso hinzugezogen werden. Der grundsätzlichen Kritik der Ökologischen Ökonomik an der eindimensionalen Nutzenfunktion, wird in der Post-keynesianischen Ökonomik insofern auch teilweise geteilt. Eine weitere Gemeinsamkeit der Ökologischen und der Post-keynesianischen Ökonomik ist die Kritik an der abstrakten Produktionsfunktion. Im Postkeynesianismus wird teilweise sogar das Konzept des aggregierten Kapitalbegriffs abgelehnt, sodass die stattdessen genutzten multisektoralen Differenzierungen der Produktion gute Anknüpfungspunkte für Ressourcenverbräuche einzelner Branchen zu implementieren.
Ökologische Ökonomik ist mehr als Pluralität, Inkommensurabilität und die Kritik an der Fokussierung am Wachstum und geht weit darüber hinaus, was hier skizziert wurde. Doch gerade die Werte, die als kontrovers, plural und potentiell inkommensurabel angesehen werden, sind Ausgangspunkt von Vielem. Sie sind z.B. auch eine Begründung für die in der Ökologischen Ökonomik geforderten Zusammenarbeit der Wissenschaft mit Stakeholdern, da so wirklich verschiedene Perspektiven und Bewertungsmaßstäbe zum Tragen kommen (Transdisziplinarität).
Zum Hintergrund: Wissenschaftsverständnis, Ideologie und Ziele
Unter der methodischen Oberfläche gibt es in der Ökologischen Ökonomik ein post-normales Wissenschaftsverständnisses, das sich positivistischem Wissenschaftsverständnis abgrenzt, bei dem es um die Suche nach der einen Wahrheit geht und davon ausgegangen wird, dass es bei diesem Erkenntnisprozess immer nur ein stetes Fortschreiten gibt. In der Ökologischen Ökonomik steht die Lösung konkreter identifizierter Probleme im Vordergrund. Aufgrund von hoher Komplexität in den Beziehungen von Menschen, ökologischen und ökonomischen Systemen, spielt Unsicherheit eine große Rolle, weshalb auch das Vorsichtsprinzip zentral ist.
Kritischer Realismus könnte ein für die Ökologische Ökonomik geeignetes Wissenschaftsverständnis sein (Collier 1994), welches auch, wenn vielleicht auch unbewusst, teilweise seitens der Pluralen Ökonomik vertreten wird (Dimmelmeier, Hafele, und Theine 2019).
Ein Vergleich der Ideologien bzw. Ziele von Neoklassik und Ökologischer Ökonomik machen ein paar Unterschiede verständlicher. Das Ziel in der Neoklassik ist die Maximierung der Wohlfahrt (Quaas und Quaas 2010). Bei diesem Wohlfahrtsbegriff wird in anwendungsbezogenen Arbeiten typischerweise auf das BIP zurückgegriffen. Im Modell ist die Grundlage das Individuum, das stets nach mehr Konsum strebt. Theoretisch kann diese Wohlfahrt dann auch umfänglicher sein und so zum Beispiel Umweltbedingungen enthalten. Genauso kann Nachhaltigkeit in der Art berücksichtigt werden, dass die Präferenzen so sind, dass die intertemporale Wohlfahrt möglichst hoch ist (vgl. Dasgupta und Heal 1974). Dennoch läuft es über die Maximierung der Wohlfahrt. In der Ökologischen Ökonomik dagegen wird das Pferd von der anderen Seite aufgezogen. Ihr Ziel bzw. ihre Ideologie ist Nachhaltigkeit (Quaas und Quaas 2010). Im Detail wird der Begriff der Nachhaltigkeit unterschiedlich mit Leben gefüllt, wobei neben ökologische, in der Regel auch soziale Dimensionen Berücksichtigung finden. Festzuhalten ist, dass so vielschichtig die Ökologie und das Soziale ist, so facettenreich entsprechend auch die Indikatoren für Nachhaltigkeit sein müssen, um Trade-Offs und Co-Benefits zumindest in Ansätzen berücksichtigen zu können.
4. Ausblick
Die beschriebenen Probleme bei der Integration von Umwelt in ökonomische Modelle, eröffnet die Frage, wie ökonomische Modellierungen überhaupt fruchtbar sein können bzw. wie das Zusammenspiel von ökonomischen Modellierungen einerseits und Politik und Gesellschaft andererseits idealerweise aussehen sollte.
Wie müssen Modellierungen konzipiert sein, damit sie unter den gegebenen Unsicherheiten eine fundierte Bewertung durch Politik und Gesellschaft ermöglichen? Wenn der größte Einfluss auf die finale Bewertung der Umwelt durch den Parameter der Zeitpräferenz stattfindet, müssten Politiker*innen die Höhe genau dieses Parameters diskutieren. Zwar findet eine solche Diskussion in wissenschaftlichen Kreisen statt, aber es kann von Politiker*innen, die nicht zufällig genau einen solchen Hintergrund haben, nicht erwartet werden, dass sie die Komplexität dieser Modelle hinreichend verstehen, um dann einzelne Parameter bestimmen zu können.
Für den richtigen Umgang von Modellierungen in diesem Prozess soll abschließend auf drei unterschiedliche Vorschläge eingegangen werden.
Als Reaktion auf die angesprochene Komplexität kann Pindyck (2017) verstanden werden, der ein vereinfachtes Verfahren vorschlägt: Man soll sich auf katastrophale Entwicklungen konzentrieren und nur diese modellieren. Seine Begründung ist, dass sich darüber leichter ein Konsens herstellen lasse, da die Vermeidung derart ungünstiger Ereignisse offensichtlich wünschenswert sein. Insofern würden die zentralen normativen Entscheidungen auch hier von Wissenschaftler*innen getroffen werden. Dies würde aber unter einem einfacheren, transparenteren Verfahren geschehen, bei dem leichter ein großer Konsens hergestellt werden kann (‚avoiding the tails‘). Auch wenn bei diesem vereinfachten Weg, potenziell mehr Einigkeit bestehen könnte, bleiben die beschriebenen Probleme in ihrer Form erhalten, wozu auch die normativen Entscheidungen durch die Nutzenbewertungen zählen.
Andere Vorschlage befürworten ganz prinzipiell an der Zuständigkeitsaufteilung von Wissenschaft und Politik festzuhalten: Wissenschaft bereitet so wertfrei wie möglich Zusammenhänge auf, sodass dann Politik und Gesellschaft die normativen Fragen entscheiden können, um die gewünschten Wege auf der Basis von wissenschaftlichen Ergebnissen einschlagen zu können. Durch den Ansatz von Pissarskoi (2016, 43) könnte eine derartige Aufgabenteilung gewährleisten werden. Dieser sieht vor, die normativen Annahmen aus der Modellierung möglichst raus zu halten und verschiedene mögliche Entwicklungen differenziert darzustellen. Auswirkungen, die keine Marktpreise haben, müssen dann separat angegeben werden (etwa die Anzahl von Toten). Dadurch könnten die normativen Elemente leicht identifiziert und von Politik bewertet werden. Mit Blick auf Inkommensurabilität skizziert dieses Vorgehen vielleicht sogar die Line, die durch die genannten alternativen Modellierungen dargelegt wurde.
Edenhofer und Jakob (2017, 114ff). beschreiben drei unterschiedliche Varianten der wissenschaftlichen Politikberatung im Kontext der Klimamodelle des IPCC, die sich nacheinander entwickelten. Bei allen geht es um die Arbeitsteilung zwischen Wissenschaft und Politik.
Den dritten Ansatz favorisieren sie selbst: Als pragmatisch-aufgeklärtes Modell beschreiben sie einen iterativen Prozess, der Politik, Gesellschaft und Wissenschaft über eine Mehrwege-Kommunikation in einen systematischen Dialog bringt. Ziele können dabei revidiert werden oder andere Lösungswege debattiert werden, wenn Ziele nicht ohne die angesprochenen Zielkonflikte zu erreichen sind. Insofern geht es auch um die Entwicklung mehrerer Pfade, sodass Politik und Gesellschaft auf Basis der wissenschaftlichen Erkenntnisse Entscheidungen treffen können. Die Wissenschaft sei aber bislang für eine derartige „Kartographierung des Geländes“, die aus dem gesamten Lösungsraum geeignete Pfade vorauswählt, unzureichend gerüstet, sodass sie Hoffnungen in den nächsten und sechsten Sachstandsbericht (voraussichtlich 2022) setzen.
Aufgrund der geschilderten Komplexität sollte es Einigkeit darüber geben, dass durch die ökonomische Modellierung von Umweltproblemen Entscheider*innen nicht eine Präzision von Wissen vorgetäuscht werden darf, die nicht vorhanden ist. Stattdessen kommt es darauf an, Wege zu finden, die ein gelingendes Zusammenspiel von umweltwissenschaftlichen Zusammenhängen, ökonomischer Simulation und gesellschaftlichen Wertentscheidungen ermöglichen. Ob nun der neoklassische Modellrahmen am besten dafür geeignet ist, ist zumindest diskussionswürdig.
5. Literatur
Acemoglu, D. 2009. Introduction to modern economic growth. New Jersey: Princeton University Press.
Ackerman, Frank, Elizabeth A Stanton, Chris Hope, und Stephane Alberth. 2009. «Did the Stern Review underestimate US and global climate damages?» Energy Policy 37 (7): 2717–2721.
Anthoff, David, Richard SJ Tol, und Gary W Yohe. 2009a. «Discounting for Climate Change». Economics: The Open-Access, Open-Assessment E-Journal 3 (24): 1–22.
———. 2009b. «Risk aversion, time preference, and the social cost of carbon». Environmental Research Letters 4 (2): 024002.
Caverzasi, Eugenio, und Antoine Godin. 2014. «Post-Keynesian stock-flow-consistent modelling: a survey». Cambridge Journal of Economics 39 (1): 157–187.
Collier, Andrew. 1994. «Critical realism: an introduction to Roy Bhaskar’s philosophy».
Cordier, Mateo, Takuro Uehara, Jeffrey Weih, und Bertrand Hamaide. 2017. «An input-output economic model integrated within a system dynamics ecological model: Feedback loop methodology applied to fish nursery restoration». Ecological economics 140: 46–57.
Dafermos, Yannis, Maria Nikolaidi, und Giorgos Galanis. 2017. «A stock-flow-fund ecological macroeconomic model». Ecological Economics 131: 191–207.
D’Alessandro, Simone, Kristofer Dittmer, Tiziano Distefano, und André Cieplinski. 2018. EUROGREEN Model of Job Creation in a Post-Growth Economy. Greens | EFA.
Dasgupta, Partha, und Geoffrey Heal. 1974. «The optimal depletion of exhaustible resources». The review of economic studies 41: 3–28.
Dimmelmeier, Andreas, Jakob Hafele, und Hendrik Theine. 2019. «Die Daten sind nun einmal die Daten». In Perspektiven einer pluralen Ökonomik, 25–41. Springer.
Edenhofer, Ottmar, und Michael Jakob. 2017. Klimapolitik: Ziele, Konflikte, Lösungen. Originalausgabe. C.H. Beck Wissen. München: Verlag C.H. Beck.
Etienne, Espagne, Baptiste Perrissin Fabert, Antonin Pottier, Franck Nadaud, und Patrice Dumas. 2012. «Disentangling the Stern/Nordhaus controversy: beyond the discounting clash».
Fontana, Giuseppe, und Malcolm Sawyer. 2016. «Towards post-Keynesian ecological macroeconomics». Ecological Economics 121: 186–195.
Gran, C. 2017. Perspektiven einer Wirtschaft ohne Wachstum: Adaption des kanadischen Modells LowGrow an die deutsche Wirtschaft. Marburg: Metropolis-Verl.
IPCC. 1996. «IPCC Second Assessment - Climate Change 1995. A Report of the intergovernmental panel on climate change». Full Report. Geneva.
———. 2014. «Klimaänderung 2014: Synthesebericht. Beitrag der Arbeitsgruppen I, II und III zum Fünften Sachstandsbericht des Zwischenstaatlichen Ausschusses für Klimaänderungen (IPCC) [Hauptautoren, R.K. Pachauri und L.A. Meyer (Hrsg.)]». Genf, Schweiz.
Jackson, Tim. 2016. Prosperity without growth: foundations for the economy of tomorrow. Routledge.
Keen, Steve. 2019. «The Cost of Climate Change». Http://evonomics.com/steve-keen-nordhaus-climate-change-economics/ 14.07.2019. evonomics.
Kronenberg, Tobias. 2010. «Finding common ground between ecological economics and post-Keynesian economics». Ecological economics 69 (7): 1488–1494.
Meadows, Donella H, Dennis L Meadows, Jorgen Randers, und William W Behrens. 1972. «The limits to growth». New York 102: 27.
Naqvi, Asjad, und Engelbert Stockhammer. 2018. «Directed technological change in a post-Keynesian ecological macromodel». Ecological Economics 154: 168–188.
Nordhaus, William. 2007. «Critical assumptions in the Stern review on climate change». Science 317 (5835): 201–202.
———. 2014. «Estimates of the social cost of carbon: concepts and results from the DICE-2013R model and alternative approaches». Journal of the Association of Environmental and Resource Economists 1 (1/2): 273–312.
———. 2018. «Evolution of modeling of the economics of global warming: Changes in the DICE model, 1992–2017». Climatic change 148 (4): 623–640.
Nordhaus, William D. 2008. «A Question of Balance: Weighing the Options on Global Warming Policies Yale University Press». New Haven, CT.
Nordhaus, William D, und Joseph Boyer. 1999. «Roll the DICE again: the economics of global warming». Draft Version 28: 1999.
Nordhaus, William, und Paul Sztorc. 2013. «DICE 2013R: Introduction and user’s manual». retrieved November.
Pindyck, Robert S. 2017. «The use and misuse of models for climate policy». Review of Environmental Economics and Policy 11 (1): 100–114.
Pissarskoi, Eugen. 2012. «Wohlfahrt und Klimawandel». Dissertation. Berlin: Freie Universität.
———. 2016. «Kompass in einem magnetisierten Umfeld?» Ökologisches Wirtschaften-Fachzeitschrift 31 (4): 39–44.
Quaas, Friedrun, und Georg Quaas. 2010. «„Der Identitätswandel des Volkswirtes “». Powision Identität, 54–56.
Romer, David. 1996. «Advanced Macroeconomics. McMGrawMHill Companies». Inc. Singapore.
Smith, Kathryn. 2011. Discounting, risk and uncertainty in economic appraisals of climate change policy: comparing Nordhaus, Garnaut and Stern. Department of Climate Change and Energy Efficiency.
Solow, Robert M. 1974. «Intergenerational equity and exhaustible resources». The review of economic studies 41: 29–45.
Spash, Clive L. 2007. «The economics of climate change impacts à la Stern: Novel and nuanced or rhetorically restricted?» Ecological Economics 63 (4): 706–713.
Stern, Nicholas. 2007. The economics of climate change: the Stern review. cambridge University press.
Stiglitz, Joseph. 1974. «Growth with exhaustible natural resources: efficient and optimal growth paths». The review of economic studies 41: 123–137.
Tol, Richard SJ. 2002. «Estimates of the damage costs of climate change. Part 1: Benchmark estimates». Environmental and resource Economics 21 (1): 47–73.
———. 2005. «The marginal damage costs of carbon dioxide emissions: an assessment of the uncertainties». Energy policy 33 (16): 2064–2074.
Victor, Peter A. 2008. Managing without growth: Slower by design, not disaster. Cheltenham: Edward Elgar.
Victor, Peter A. 2012. «Growth, degrowth and climate change: A scenario analysis». Ecological economics 84: 206–212.
Victor, Peter A, und Gideon Rosenbluth. 2007. «Managing without growth». Ecological Economics 61 (2–3): 492–504.
[1] Mikrofundierung schließt dabei nicht die Kalibrierung von Makroaparametern aus, sondern meint viel mehr, dass es eine explizite Nutzenfunktion im Modell gibt, die stellvertretend für ein repräsentatives Individuum steht, das seine Wohlfahrt (oder auch Nutzen) maximieren möchte.
[2] Kemfert (2002) differenziert IAMs von anderen ökonomischen Modellen, die Klima berücksichtigen. Demnach bestehen IAMs aus Teilmodellen, die aus unterschiedlichen Disziplinen stammen, während andere Modelle Klimawandel weniger komplex durch stilisierte Beziehungen abbilden. Im Gegenzug ist es ein hoch aggregiertes Vorgehen, das die sektorale Aufgliederung meist IAMs vermissen lässt. IAMs müssen nicht zwangsläufig neoklassische Optimierungsmodelle sein, sind es aber sehr häufig (vgl. Kemfert 2002).
[3] „Responses to the Stern Review“ aus dem Nationalarchiv der UK: https://webarchive.nationalarchives.gov.uk/+/http://www.hm-treasury.gov.uk/d/20061028_Quotes-7.pdf
[4] Die Zeitpräferenzrate wird teilweise auch als Diskontrate bezeichnet (vgl. Anthoff, Tol, und Yohe 2009a). In diesem Paper wird jedoch unter der Diskontrate die SDR verstanden.
[5] Die Diskontrate kann als Summe der Zeitpräferenz und dem Produkt der Wachstumsrate des Konsums und der Konsumelastizität berechnet werden (vgl. Anthoff, Tol, und Yohe 2009b, 2).
[6] Wobei diese Interpretation dieses Parameters der Zeitpräferenz konzeptionell kritisiert wird („conceptually muddled“, (Anthoff, Tol, und Yohe 2009a, 2).
[7] Bemerkenswert ist in diesem Zusammenhang außerdem, dass Nordhaus in einem Paper vor dem Paris Agreement (2015) die wissenschaftliche Grundlage des 2-Grad-Ziels anzweifelt (W. Nordhaus 2014). Zwei Parameter sind ihm zufolge ausschlaggebend, wie der Pfad des Zwei-Grad-Ziels (fälschlicherweise) zu begründen wäre. Zum einen müsste man von einer wesentlich niedrigeren Diskontrate ausgehen. Zum anderen müsste die Schadenfunktion höhere Schäden annehmen als „standard models“ (W. Nordhaus 2014, 285).
[8] Konsum darf an dieser Stelle nicht mit der allgemein-sprachlichen Bedeutung verwechselt werden. Dieser Konsum beinhaltet neben klassischen Gütern auch die nicht-ökonomischen Güter, die bereits erwähnt wurden.