Quelle: van Treeck, Till, and Janina Urban. Wirtschaft neu denken: Blinde Flecken in der Lehrbuchökonomie. iRights Media, 2016. Das Buch kann hier bestellt werden: http://irights-media.de/publikationen/wirtschaft-neu-denken/.
Rezensierte Bücher:
Pindyck, R.S./Rubinfeld, D.L. (2013): Mikroökonomie, 8. Auflage, München: Pearson, 1013 Seiten. Im Folgenden zitiert als PR. (Abb: Pearson)
Schumann, J./Meyer, U./Ströbele, W. (2011): Grundzüge der Mikroökonomischen Theorie, 9. Auflage, Berlin: Springer, 559 Seiten. Im Folgenden zitiert als SMS. (Abb: Springer-Verlag Berlin-Heidelberg)
Varian, H.R. (2011): Grundzüge der Mikroökonomik, 8. Auflage, München: Oldenbourg, 892 Seiten. Im Folgenden zitiert als HVa. (Abb: De Gruyter Oldenbourg; Abb. zeigt die 9. Auflage)
Varian, H.R. (2014): Intermediate Microeconomics, 9. Auflage, New York: W.W. Norton & Company, 832 Seiten. Im Folgenden zitiert als HVb. (Abb: W.W. Norton & Company)
Ein zentrales Element der neoklassischen Mikroökonomie, mit der sich alle Mikroökonomiestudierenden – mit Widerwillen oder mit Begeisterung – befasst haben, ist die Methode von Lagrange. Als phantastisches Werkzeug zur Optimierung unter Nebenbedingungen kombiniert der Ansatz die mit Multiplikatoren gewichteten Restriktionsterme mit der Optimierungsfunktion. Allerdings: Werden sie eigentlich addiert oder subtrahiert? Oder ist das vielleicht ganz egal? Das könnte man zumindest meinen, wenn man sich die drei Mikroökonomielehrbücher von Varian, Pindyck/Rubinfeld und Schumann et al. anschaut. An der einen Stelle in einem Text wird es so, an der anderen Stelle im anderen Buch wieder anders gehandhabt. Nein, es ist nicht direkt ein Fehler, es ist eher eine stillschweigende Auslassung. In allen drei Texten werden die Nebenbedingungen als exakte Bedingungen, nicht als Grenzwerte gesetzt: Es soll nicht etwa höchstens das Budget ausgegeben werden, es soll genau das Budget – nicht mehr, nicht weniger – ausgegeben werden. Bei standardannahmekonformen Maximierungs- und Minimierungsproblemen darf man das grundsätzlich machen, da die Zielfunktion in allen Dimensionen strikt monoton steigt (oder fällt) und das Problem nur eine Restriktion hat; der Grundmethode aber entspricht es nicht. Das ist schade, da die Erweiterung auf Nebenbedingungen mit Grenzwerten dann anders funktioniert, nicht aus der präsentierten Methode erschließbar ist und dies methodisch an neoklassischer Optimierung interessierte Leser_innen eher verwirrt als leitet. Bedauerlicherweise handelt es sich um ein Muster, das die gesamte Landschaft neoklassischer Mikroökonomielehrbücher durchzieht.
Die Physik des Sozialen
Es ist ein alter Traum der neoklassischen Volkswirtschaftslehre, eine Physik des Sozialen zu begründen, exakt, wissenschaftlich, berechenbar, mit einem wohldefinierten und allgemein akzeptierten Methodenkanon und beweisbaren Ergebnissen. Im Gegensatz zu den Naturwissenschaften beruht all dies in der Ökonomik jedoch nicht auf Empirie, sondern auf Gedankenexperimenten und Annahmen, deren Implausibilität allgemein bekannt ist und die trotzdem weiter verwendet werden. Würde man den Kontext der Annahmen und die Grenzen der Methoden sauber und kritisch diskutieren und auch alternative Ansätze berücksichtigen, wäre all das kein Problem – man arbeitet eben mit den nicht-perfekten Methoden, die zur Verfügung stehen. Allerdings würde das nicht mehr exakt, naturwissenschaftlich, beweisbar aussehen.
Nirgends ist das so offensichtlich wie in der Lehre. Die neoklassische Mikroökonomik wird als abgeschlossene, konsistente Modellwelt präsentiert, zu der es keine Alternative gibt. Methoden und Theoreme werden besprochen, als handle es sich um Naturgesetze. Auf den historischen Kontext wird üblicherweise ganz verzichtet. Wieso sollte man sich Gedanken über die Entstehungsgeschichte eines bewiesenen Theorems und einer alternativlos-optimalen Methode machen? Wir wissen doch alles über die Mikroökonomie! Es wird nichts mehr Neues geben!
Entsprechend präsentieren auch die drei vorliegenden Lehrbücher – Hal Varians „Intermediate Microeconomics“ (2014) (deutsche Fassung „Grundzüge der Mikroökonomik“, 2009), Pindyck/Rubinfelds (2013) „Mikroökonomie“ und Schumann et al. (2011) „Grundzüge der mikroökonomischen Theorie“ – der geneigten Leserschaft einen überwiegend homogenen Methodenkanon und überwiegend identische Grundkonzepte. An die Haushaltstheorie mit Präferenzen, Nutzenfunktionen, Indifferenzkurven und Budgetrestriktion schließt sich die Herleitung der Nachfragekurve mit offenbarten Präferenzen an. Angereichert mit einigen weiteren Details fahren die Texte mit Produktionsfaktoren, der Angebotsfunktion, dem Marktgleichgewicht, Profiten, Kosten, Monopol- und Oligopolmodellen fort, um schließlich auf Sonderfälle einzugehen, in denen die neoklassischen Ansätze ausnahmsweise nicht gälten. Im Kontext der Haushaltstheorie wird dabei zunächst die Optimierung unter Nebenbedingungen gemäß der Methode von Lagrange am Beispiel der Nutzenoptimierung mit Budgetrestriktion eingeführt. Die Methode wird im Kontext der Kostenminimierung in der Produktionstheorie analog und mathematisch identisch wieder aufgegriffen. Bei der Profitmaximierung – auch im Kontext der Monopol- und Oligopoltheorie – wird dagegen auf einfache Extremwertbestimmung, das heißt auf Maximierung/Minimierung ohne Nebenbedingungen zurückgegriffen. Die Methoden werden nicht zueinander in Beziehung gesetzt.
Zwischen Varian und Pindyck/Rubinfeld variiert die Reihenfolge der behandelten Themen leicht; beide Lehrbücher legen jedoch großen Wert auf anschauliche Beispiele. Die Darstellung auch komplexerer mathematischer Konzepte wie der Optimierung bleibt weitgehend verbal und grafisch; das mathematisch-formale Verfahren wird jeweils in kurzen Kapitelanhängen eingeführt. Nicht so Schumann et al.: Hier erfolgt die gesamte Darstellung der neoklassischen Mikroökonomik nach einem verbalen Einführungskapitel formal-algebraisch. Mit Beispielen gehen die Autoren sparsam um; im Vergleich zu den beiden anderen Texten scheint es sich an die fortgeschrittene (aber nicht zu fortgeschrittene) Leserschaft zu richten. Im Gegensatz zu Varian und Pindyck/Rubinfeld gehen Schuman et al. stellenweise auch auf Ungleichgewichtszustände und -dynamiken ein, die einen Blick auf die Welt jenseits der unerreichten und unerreichbaren optimalen Gleichgewichtszustände zulassen.
Der Homo oeconomicus beim Einkaufen
In der Einführung neoklassischer Optimierung ist insbesondere Varian (und in geringerem Ausmaß Pindyck/Rubinfeld) bemerkenswert vorsichtig und gründlich. Während langsam, Stück für Stück, Budgetgeraden, Präferenzen, Indifferenz, Indifferenzkurven, Nutzen und nutzenoptimale Entscheidungen eingeführt werden, werden sowohl die Annahmen als auch mögliche Annahmeverletzungen wie nichtkonvexe Präferenzen, Schlechtgüter, Sättigung, Randlösungen und multiple Optima erläutert (HVa/HVb, Kapitel 2–5; PR, Kapitel 3–4). Auch lässt Varian es sich in der englischen Originalausgabe nicht nehmen, einen Witz über kinky tastes, geknickte Indifferenzkurven, zu machen (Kapitel 5.1). Die deutsche Übersetzung tendiert dazu, einiges der Gründlichkeit der Originalversion zu verlieren; ein interessantes Detail ist beispielsweise die deutsche Übersetzung von „well-behaved preferences“ – neoklassisch-annahmegerechte Präferenzen – als „Präferenzen im Normalfall“. Schumann et al. fassen sich deutlich kürzer; sie beginnen, ohne Umschweife über theoretische Annahmeverletzungen, unmittelbar nach der Einleitung in Kapitel 1.B mit der formalen Charakterisierung der neoklassischen Haushaltstheorie.
Im radikalen Kontrast dazu steht, wie die grundsätzliche Relevanz der Optimierung motiviert wird: Varian erklärt Optimierung und Gleichgewicht frei heraus zu den Grundprinzipien der Ökonomie (HVa/HVb, S. 3) (der Beitrag von Claudius Gräbner in diesem Band untersucht den Aspekt der Gleichgewichtsannahme näher). Er führt an, dass Optimierung „fast tautologisch“ sei und nicht-optimierende Vorgehensweise außerhalb des Feldes ökonomischen Verhaltens liege. Na, dann muss sich die Ökonomik ja um reale Menschen nicht kümmern, die nicht routiniert unendlich-dimensionale Optimierungsprobleme lösen! Ungleichgewicht hingegen sei im Nachgang von Veränderungen vorstellbar, könne das System auch dauerhaft destabilisieren, aber das passiere „gewöhnlich“ nicht. Zur Begründung führt er Preisstabilität im Immobilienmarkt an. Moment einmal! War es nicht eben jener Immobilienmarkt, der die verheerende globale Wirtschaftskrise 2007 ausgelöst hat? Ist das nicht in Kalifornien passiert, genau da wo Hal Varian lebt, arbeitet und lehrt? Wo ist er die ganze Zeit gewesen?
Pindyck/Rubinfeld und Schumann et al. sind in diesem Punkt weniger gewagt: Sie verzichten auf wilde Thesen und führen die Optimierung als aus Knappheit resultierende Notwendigkeit ein (PR, S. 27–28; SMS, S. 6 ff.). Wenn Ressourcen grundsätzlich begrenzt, Bedürfnisse und Bedarf aber unbegrenzt sind, wenn es außerdem eine Vielzahl von Input- und Outputdimensionen gibt, dann führt dies zu Trade-offs zwischen der Bedienung und Befriedigung der unterschiedlichen Bedarfe und Bedürfnisse. Wollen wir – gesamtgesellschaftlich und global – mehr Freizeit haben, so müssen wir auf einige unserer Konsumgewohnheiten verzichten. Wollen wir mehr Fahrzeuge bauen, so werden uns die dafür benötigten Ressourcen (kurzfristig in jedem Fall) an anderer Stelle fehlen. Soweit so gut.1 Nun wäre nur noch zu zeigen, dass dieses Allokationsproblem in der Praxis mit Optimierung gelöst wird. An dieser Stelle folgen jedoch – in allen drei Lehrbüchern – nur Implikationen und mehr oder minder explizite Annahmen. An einigen Stellen – insbesondere bei Pindyck/Rubinfeld – wird das reichlich mit Praxisbeispielen unterfüttert, aber das Optimierungsverhalten wird auch da stets als Annahme vorausgesetzt.
An dieser Stelle ist es sinnvoll, die bekannten Kritikpunkte an stillschweigenden Annahmen wie dieser kurz zu rekapitulieren. Die vorliegenden Optimierungsprobleme sind von nahezu skurril geringer Dimensionalität; jedes neoklassische Modell, das seinen eigenen Anspruch ernst nimmt, müsste mit einer massiv größeren Zahl von Gütern – nicht zwei oder einer Handvoll – arbeiten. Darüber hinaus müsste intertemporal optimiert werden und zwar nicht nur über zwei Perioden, sondern über einen unbestimmten Zeithorizont mit unendlich dichten Perioden. Beginnend mit Frank Ramsey in den 1920er Jahren und dann in der makroökonomischen „Real Business Cycle“-Theorie und in „Dynamic Stochastic General Equilibrium“-Modellen wurden solche Modelle implementiert (siehe den Beitrag von Sebastian Dullien in diesem Band). Dass ein Individuum diese jedoch berechnen kann, dass die Modelle also die Realität wiederspiegeln, ist ausgeschlossen. Stattdessen deutet vieles darauf hin, dass Menschen über Heuristiken entscheiden, niemals über die für eine perfekte Optimierung notwendigen Informationen verfügen und auch nicht bis ins Detail optimieren (Simon 1955; Kahneman/Tversky 1973). Ferner führen Externalitäten und in der Realität auftretende steigende Skalenerträge (siehe das Beispiel zur digitalen Ökonomie unten) dazu, dass eindeutige stabile Optima nur im Ausnahmefall existieren (Sraffa 1926). Dies wurde durch das Sonnenschein-Mantel-Debreu-Theorem in den 1970er Jahren noch einmal unterstrichen – unabhängig davon, dass das Theorem dafür gefeiert wurde, bewiesen zu haben, dass perfekte Optima überhaupt grundsätzlich existieren können (Kirman 1989).
Die digitale Ökonomie und das stabile Optimum
Ein besonderer – aber auch besonders relevanter – Aspekt, auch im Kontext der genannten Kritik real steigender Skalenerträge (siehe den Beitrag von Hansjörg Herr in diesem Band), ist die Entstehung der modernen Informationstechnologie, der digitalen Ökonomie: Giganten der Branche beherrschen die Austauschprozesse, die Technologien und die Standards; viele Dienstleistungen und Produkte scheinen kostenlos zur Verfügung gestellt zu werden; woher die Gewinne der beteiligten Unternehmen stammen, bleibt den laienhaften Beobachter_innen verborgen. Nichts aus der klassischen Lehre der neoklassischen Ökonomie scheint zu gelten.
Während man sicher sein darf, dass die Gigant_innen der Branche tatsächlich Gewinne erwirtschaften – über Werbung und vor allem über Datamining – treten hier Phänomene auf, die den neoklassischen Annahmen besonders eklatant zuwiderlaufen. Produkte und Technologien unterliegen Netzwerkexternalitäten – der Gebrauchswert steigt mit der Gesamtzahl der Nutzer_innen; die Zahlungsbereitschaft steigt daher auch. Es entsteht ein positives Feedback, was bereits großen Konkurrent_innen überproportionale Marktmacht und überproportionale Wachstumschancen gibt. Was folgt daraus strategisch? Unternehmen müssen früh auftreten und schnell wachsen, koste es was es wolle, selbst wenn sie die ersten Hundert, Tausend oder Millionen Nutzer_innen kaufen müssen – Profite können sie später machen. Wenigstens dasjenige Unternehmen, das sich durchsetzt – bei allen anderen bleiben die Investor_innen auf viel heißer Luft und wenig Substanz sitzen.
Es ist deutlich, dass Modelle von Optimierung und Gleichgewicht in diesem Kontext wegen der inhärent destabilisierenden Eigenschaften des Prozesses nicht zielführend sind. Was man den beiden Lehrbüchern von Varian (Kapitel 36) und Pindyck/Rubinfeld (Kapitel 4.5) zugutehalten muss, ist, dass sie dennoch wenigstens kurz auf diese Zusammenhänge eingehen. Sie erscheinen hier allerdings zusammen mit einigen weiteren vermeintlichen Sonderfällen (wie Institutionen, öffentliche Güter, asymmetrische Information), bei denen die Annahmen und Befunde der Standardmodelle nicht in dieser Form gelten. Die Bedeutung, die Netzwerkexternalitäten und anderen nicht neoklassisch-annahmekonformen Aspekten in der Realität zukommt, ist den Texten in keiner Weise zu entnehmen.
Kompliziertes zu einfach darstellen: Methodik der Optimierung
Nehmen wir, wie man es als heterodoxe/r Ökonom_in gewohnt ist, die neoklassischen Annahmen vorläufig hin. Vergessen wir unsere Kritik an den gigantischen Listen starker Annahmen und auch unseren Unglauben gegenüber dem Konstrukt des wundertätigen universellen Maximierers, der alles weiß und unendlichdimensionale Probleme im Handumdrehen löst. Wir haben wohldefinierte Maximierungs- und Minimierungsprobleme; nun wollen wir die Optima errechnen.
Über die Herangehensweise kann man in allen drei berücksichtigten Lehrbüchern im Kontext der Haushaltstheorie lesen (SMS, Kapitel 1.B.3.b; PR, Anhang zu Kapitel 4; HVa/HVb, Anhang zu Kapitel 5). Wir bilden, so erfahren wir, aus Zielfunktion u(x1,x2) und Budgetrestriktion p1 x1 + p2 x2 – m = 0 eine Lagrangefunktion L(x1,x2,λ ) = u(x1,x2 ) - λ (p1 x1 + p2 x2– m), erhalten sodann durch partielles Differenzieren und Nullsetzen der Ableitungen die Bedingungen erster Ordnung,
∂L/∂xi = ∂u/∂xi + λpi = 0 und ∂L/∂λ = p1x1 + p2x2 - m = 0.
Die Bedingungen erster Ordnung bilden ein durch einfache Algebra lösbares Gleichungssystem. Soweit so gut. Aber warum funktioniert das überhaupt auf diese Weise? Was genau ist das Besondere an Lagrangeoptimierung? Und welche Rolle spielt λ?
Die Lagrangemethodik erzwingt stets eine Lösung auf der Restriktion – dafür sorgt die dritte Bedingung erster Ordnung ∂L/∂λ = 0. Was aber, wenn das tatsächliche Nutzenmaximum unterhalb der Budgetgerade liegt – ein Fall der in den Lehrbüchern freilich durch die Annahme von „well-behaved“ Präferenzen ausgeschlossen ist? Trotzdem sollte die Frage, was dann passiert – unter dem Aspekt, dass jedes einzelne der Lehrbücher zu Recht unmittelbar vor der Einführung der Optimierung unter Nebenbedingungen den (nun ausgeschlossenen) Fall der Randlösung anspricht – zulässig sein. Lagrangeoptimierung lässt diesen Fall zu. Hierzu muss der λ-Wert auf der Restriktion untersucht werden: Ist er negativ, so handelt es sich nicht um einen Optimumpunkt (Kuhn-Tucker-Bedingungen). λ steht für den Schattenpreis der Restriktion und gibt an, auf wie viel Nutzen wir verzichten würden, um eine marginale Lockerung der Restriktion, eine marginale Verschiebung der Lösung senkrecht zur Restriktion, zu erreichen. Um in diesem Teil allerdings korrekt zu bleiben, muss bei Restriktionen mit Grenzwert („höchstens das Budget“, nicht „genau das Budget“) das richtige Vorzeichen für die Einbindung der Restriktion in die Lagrangefunktion gewählt werden. Bei Maximierungen mit Nebenbedingung der Form f (x1,x2 ) ≥ 0 (jede Restriktion kann entsprechend umgestellt werden) wird sie addiert, bei Minimierungen mit Nebenbedingungen dieser Form subtrahiert.
Da alle drei Lehrbücher auf diese umfassende Erläuterung der Methode verzichten, gelingt es ihnen auch nicht, die drei diskutierten Arten von Optimierung konsistent darzustellen. Während die Funktion des Lagrangeansatzes bei Nutzenmaximierungen bei gegebenen Kosten und bei Kostenminimierungen bei gegebenem Nutzen- oder Produktionszielwert nicht erläutert wird und daher von einem Hauch Mysterium umgeben bleibt, wird für Profitmaximierungen eine andere Methode verwendet, die wiederum nicht zum Lagrangeansatz in Beziehung gesetzt wird.
Es bleibt anzumerken, dass die Lagrangemethodik ihren Ursprung nicht in der Ökonomik hat. Sie wurde in der Frühzeit der neoklassischen Theorie – Ende des 19., Anfang des 20. Jahrhunderts – aus der klassischen Mechanik in der Physik übernommen. Nichts war besser geeignet, die Naturwissenschaftlichkeit der Ökonomik zu unterstreichen. Freilich passt ihre Interpretation auch besser zu physikalischen als zu ökonomischen Systemen. In der Physik handelt es sich um eine dynamische Gleichung, die nicht nur statische Gleichgewichte, sondern Entwicklungspfade hin zum Gleichgewicht bestimmen kann. Bei der Übertragung in die Ökonomik mussten die dynamischen Terme mangels sinnvoller Interpretation fallen gelassen (als stets definiert) werden.
Warum optimieren?
Was bleibt von der optimierenden neoklassischen Gleichgewichtsmikroökonomik, wenn man die implizierte Universalität der getroffenen Annahmen wegnimmt? Eine realistische Sichtweise auf die Ökonomie würde genau dies erfordern. Die Methodik als abstraktes Konstrukt wäre davon nicht betroffen; Optimierung in der Logistik und Produktionsplanung bliebe vollkommen korrekt. Die Methodik bliebe auch in der Ökonomik unverletzt, aber sie wäre dann beschränkt auf eine Gruppe von Sonderfällen, die sich fast nie mit Gegebenheiten der ökonomischen Realität treffen. Sie bliebe ein Gedankenexperiment, relevant im historischen Kontext der neoklassischen Tradition und als Vergleichsfall für die Vielzahl realistischerer Modelle, etwa agentenbasierter Modelle, die von größerer Komplexität und von größeren Schwierigkeiten in der Berechnung geprägt wären. Freilich sollte weder die historische Signifikanz noch der Wert eines solchen Benchmark-Modells unterschätzt werden.
Literatur
Kirman, A. (1989): The Intrinsic Limits of Modern Economic Theory: The Emperor Has No Clothes. In: Economic Journal 99, S. 126–39.
Simon, H. A. (1955): A behavioral model of rational choice. In: The Quarterly Journal of Economics 69, Nr. 1, S. 99–118.
Sraffa, P. (1926): The laws of returns under competitive conditions. In: The Economic Journal 36, Nr. 144, S. 535–550.
Tversky, A./Kahneman, D. (1972): Subjective probability: A judgment of representativeness. In: Cognitive Psychology 3, S. 430–454.
1Der Grund dafür ist, dass ein System ein nicht-stabiles Gleichgewicht bei dem kleinsten Schock sofort wieder verlassen wird.
Gehe zu: Die Rolle des Optimierungskonzepts in den Standardlehrwerken der Mikroökonomik