Fortsetzung:

Über die Steuern als Faktor des Wachstums und der Beschäftigung

In dem neoliberalen Paradigma werden die Steuern nur als rein unproduktive Ausgaben betrachtet. Erwähnen wir nur die altbekannten Vorwürfe: Die Steuergelder würden zur Unterstützung der sozialen Schmarotzer dienen, durch korrupte Staatsbürokraten veruntreut und für den Kauf von Wählerstimmen durch Politiker verschwendet. Daraus wird schlussgefolgert: Wenn die Steuern gesenkt werden, bleiben diese dem Unternehmer zur Verfügung, der natürlich nichts anderes im Sinne hat, als sie schnellstmöglich zu investieren, um damit Arbeitsplätze zu schaffen. Da fragt man immer wieder erstaunt, warum der Unternehmer etwa nicht in Versuchung kommen sollte, sich durch Steuersenkungen ein luxuriöses Leben zu machen oder etwa Wirtschaftswissenschaftler, Wirtschaftsprofessoren und Journalisten sich bei ihm prostituieren zu lassen und Politiker zu korrumpieren? Nein, das geht gar nicht. Dessen sind sich die Neoliberalen ganz sicher. So wie bei Lohnsenkungen können die Profite auch bei Steuersenkungen deshalb nicht steigen, weil es keinen Profit in der neoliberalen Theorie gibt. So einfach ist es.

Es kommen einem fast die Tränen bei so viel Aufopferung und Gütigkeit der Unternehmer. Wie sieht es aber mit den Tatschen aus? Nach der Theorie sollte die Wirtschaft in den Niedrigsteuerländer schneller wachsen als in den Hochsteuerländern. Schauen wir uns die europäischen Länder an. Zu den fünf mit den niedrigsten Steuerquoten gehören Griechenland, Deutschland, Spanien, Portugal und Niederlande. Zu den fünf mit den höchsten Steuerquoten gehören Dänemark, Schweden, Finnland, Belgien und Großbritannien. Ein Vergleich der Wirtschaftsentwicklung von 2000 bis 2006 zeigt, dass sich die Hochsteuerländer im BIP pro Kopf mit 15,4 % erheblich besser entwickelt haben als die Gruppe der Niedrigsteuer-Länder mit 11.2 %  

 

Aber all diese ökonomischen Ergebnisse sind sehr mager, verglichen mit denen aus den Jahrzehnten nach dem Zweiten Weltkrieg. Das waren die besten Zeiten des Kapitalismus, so dass man sehr berechtigt vom Goldenen Zeitalter sprechen konnte. Es waren die Jahrzehnte des schnellsten Wachstums und Produktivitätswachstums in der ganzen Geschichte des Kapitalismus. Und dies obwohl man den Kapitalisten nicht das Geld nachgeschmissen hat, wie in den letzten drei Jahrzehnten, damit sie angeblich investieren und die Arbeitsplätze schaffen, im Gegenteil. Die Reichen haben damals Steuern gezahlt wie niemals zuvor und trotzdem wurde so viel investiert wie nie. Das war nicht nur in Europa der Fall, sondern auch in den USA.

„Wirtschaftlich gesehen zeichnete sich die [damalige] US-Gesellschaft durch eine immer größer werdende Gleichheit aus. Im Jahr 1928 erhielt l Prozent der Verdiener 19 Prozent des gesamten Bruttoeinkommens. Bis zum Jahr 1950 war dieser Anteil auf 7 Prozent zurückgegangen. Die Nettoeinkommen glichen sich sogar noch stärker an. Unter dem republikanischen Präsidenten Eisenhower lag der Höchststeuersatz für Spitzenverdiener bei 91 Prozent. Dieser Steuersatz sank unter dem demokratischen Präsidenten Kennedy auf immer noch beachtliche 78 Prozent. Hohe Steuern schienen sich nicht nachteilig auf die Wirtschaft auszuwirken, die rasch wuchs, während die Produktivität immer weiter zunahm.“ ... >

Seit Ronald Reagan wurde behauptetet, Steuersenkungen für die Reichen würden sämtliche Gebrechen der Wirtschaft kurieren. Das durch die Steuersenkungen angekurbelte Wachstum würde Vorteile bringen, die zu allen „herabsickern“ würden - the „trickle down“ theory -, aber wie es Joseph Stiglitz, ein US-amerikanischer Wirtschaftswissenschaftler und Nobelpreisträger (2001) feststellt:

„Die Steuersenkungen sollten Anreize zum Sparen setzen, doch sind die Haushaltsersparnisse in den USA auf null abgesunken. Sie sollten Beschäftigungsanreize geben, doch ist die Erwerbsquote niedriger als in den 1990er Jahren.“ ... >

Und wie sieht es mit den Steuern aus, wenn man deutlich längere geschichtliche Perioden vergleicht? Man kann sich schon denken wie: Schlecht - sehr schlecht für die neoliberale Theorie! Eine Gegenüberstellung der allgemein bekannten und von keinem seriösen Ökonomen bestrittenen Daten aus dem 19. und 20. Jahrhunderts räumt alle Zweifel aus. 

„Man kann, zum Beispiel, schnell übereinkommen, daß im Amerika des 19. Jahrhunderts Steuerquote, Wirtschaftsregulierung und Lebensstandard vergleichsweise niedrig waren, während im 20. Jahrhundert Lebensstandard, Steuern und Regulierung relativ hoch waren.“ ... >

Dies ist keine Aussage von jemanden, der der neoliberalen Theorie etwas aufs Auge drücken will, sondern von Hans-Hermann Hoppe, der heute zu den glühendsten Verehrern des großen österreichischen Meisters des Neoliberalismus Mises zählt. Man kann schon ahnen, dass er dieses Zugeständnis nicht deshalb macht, um es dabei zu belassen. Es ist für ihn nur ein Anlauf zu einem argumentativen Gegenschlag, den er polemisch eindrucksvoll als eine rhetorische Frage ausführt:

„War jedoch im 20. Jahrhundert der Lebensstandard höher wegen der höheren Steuern und Regulierungen oder trotz der höheren Steuern und Regulierungen, d. h., würde der Lebensstandard noch höher sein, wären Steuern und Regulierungen so niedrig geblieben wie während des 19. Jahrhunderts?“

So wie es bei rhetorischen Fragen immer der Fall ist, bedürfen sie keiner Antwort oder sie werden als schon längst beantwortet betrachtet. Das Letzte ist diesmal der Fall, so dass aus dieser inszenierten Frage nur die Schlussfolgerung folgen kann, dass der empirisch unbestrittene Zusammenhang ...

„ ... lediglich zufällig ist. Die Fakten geben keine Antwort auf diese Fragen, und alle statistischen Manipulationen der Daten können an dieser Tatsache nichts ändern.“

Zum Schluss wird sogar Manipulation von Daten unterstellt, die aber am Anfang noch als unbedenklich gelten sollten. Na ja, was soll man sonst von den Menschen dieses Schlages erwarten? Mit einer Manipulation haben wir es in der Tat zu tun, aber nicht durch ein „Schrauben“ an den Tatsachen, sondern an der Theorie. Es ist eine Manipulation, für die das neoliberale Gleichgewichtsmodell deshalb immer zur Verfügung steht, weil es - wie bereits angedeutet - nicht mit konkreten (zählbaren oder messbaren) Daten arbeitet. Es lohnt sich, diese Manipulation auch deshalb näher anzuschauen, weil sie zugleich ein vortreffliches Beispiel dafür ist, wie die Mathematik einem durchtriebenen Intellektuellen hilft, sich vor den Tatsachen zu schützen, mögen sie sich auch noch so widerspenstig und hartnäckig gegen seine Doktrin stemmen. Ein bisschen mathematische Kenntnisse brauchen wir dazu, aber nicht viel.
 

Wir haben uns in dem vorigen Beitrag deshalb etwas genauer mit den Unterschieden zwischen den mathematischen Modellen der Naturwissenschaften und der neoliberalen Theorie beschäftigt, weil sich mit diesem Hintergrund viel einfacher verstehen lässt, wie die neoliberalen Modelle die Tatsachen bekämpfen. Dort wurde gesagt, dass sich alle Ausgangvariablen (x-Variablen) der naturwissenschaftlichen Modelle immer auf konkrete (abgezählte oder gemessene) Werte beziehen, aus denen sich die Werte der restlichen Variablen (y-Variablen) genau berechnen lassen, die sich - zumindest einige von ihnen - auf bestimmte, nachträglich empirisch genau nachprüfbare Daten beziehen. Für das Referenzmodell von Walras gilt das nicht. Bei ihm gibt es keine konkreten Werte, welche die Ökonomen bestimmten Variablen zuweisen würden, um dann die Werte der restlichen Variablen zu errechnen. Was den neoliberalen „Wissenschaftler“ interessiert, sind nur die allgemeinen mathematischen Eigenschaften des Modells, also solche Eigenschaften, die er immer von dem reinen Mathematiker erfahren kann. Zu solchen mathematischen Eigenschaften des Modell des allgemeinen Gleichgewichts gehören unter anderen auch die Aussagen, in welche Richtung sich die Werte einer Variablen oder einer Gruppe von Variablen ändern würden, wenn die Werte einer anderen Variable oder einer Gruppe von Variablen steigen oder fallen. So gilt in diesem Modell, dass jede Steuersenkung zu mehr Wachstum führt und umgekehrt. Dies lässt sich übersichtlich in einem Koordinatensystem darstellen. Wird die Steuerquote auf der horizontalen und die Wachstumsrate auf der vertikalen Koordinatenachse dargestellt, der Zusammenhang zwischen ihnen wird eine monoton fallende Linie oder Kurve sein -A-B-C-.

   

Unterstreichen wir noch einmal, dass ein Fachmathematiker, der sich die Form der Gleichungen des Gleichgewichtsmodells anschaut, mit in der Mathematik üblichen Methoden genau nachweisen könnte, dass die Lösungen dieses Systems monoton fallende Kurven sein werden, in der Art wie die schwarzen Kurven in unserer linken Graphik. Am einfachsten wäre dies so zu prüfen, indem man den Gleichungen bestimmte Zahlen zuweist und dann die Steuersenkung simuliert. Könnten diese Zahlen auch reale Werte sein? Im Prinzip schon. Nehmen wir also an, man würde bei der Steuerquote a die Wachstumsrate A ausrechnen, die der tatsächlichen Wachstumsrate der modellierten Wirtschaft entsprechen würde. Hätten wir es mit einem mathematischen Modell in einer Naturwissenschaft zu tun, dann würde es als selbstverständlich gelten, dass bei einer veränderten Steuerquote das tatsächliche Wachstum dem entsprechen würde, was man schon ausgerechnet hätte (-A-B-C.). Sonst wären das ganze Modell und die Theorie, die hinter ihm steckt, falsch. Man würde dann dem Modell eventuell noch eine Galgenfrist gewähren, aber dann von ihm endgültig Abschied nehmen. Nicht aber in der Zunft der neoliberalen „Wissenschaftler“. Ihre Rettung des Modells bzw. der Theorie gelingt immer, und zwar auf folgende Weise.

Nehmen wir an, nach einer Steuererhöhung, also bei der Steuerquote b ist die Wachstumsrate entgegen aller Erwartungen nicht gefallen, sondern auf den Wert B’ gestiegen. Jetzt sagt der Gleichgewichtstheoretiker, die Umstände haben sich aber geändert. Ein Wirtschaftswissenschaftler sei doch kein Prophet, und zaubern kann er schon gar nicht - das müsse man doch verstehen können! Der Wirtschaftswissenschaftler könne aber zeigen, dass sein Modell bei den jetzt „völlig anderen Umständen“ genau das Ergebnis liefere, das den Tatsachen entspreche. Man sagt dazu, dass sich die Kurve nach oben verschoben hat (die erste gestrichelte Kurve). Und nach dieser gelungenen Verteidigung holt er zum Gegenschlag aus. Hätte man es bei den alten niedrigeren Steuerquote belassen, wäre die Wachstumsrate jetzt noch höher: sie würde den Wert B’’ ereichen. „Nun sieht man, was man davon hat, wenn man den Rat der Experten in den Wind schlägt!“

Hat man - trotz aller Ermahnungen und Beschwörungen der Experten - noch einmal die Steuern erhöht und das Ergebnis (C’) hat wieder einmal die Theorie Lügen gestraft, dann stellt man wieder eine neue Verschiebung der Kurve „durch unvorhersehbare Strukturänderungen“ fest, und die Theorie stimmt wieder. Und das Spiel kann man beliebig lange fortsetzen. Obwohl also die Tatsachen eindeutig zeigen, höhere Steuerrate bedeute höheres Wachstum (die rote Linie -A-B’-C’-), sei die gegensätzliche Aussage der Theorie nicht widerlegt, sondern bestätigt. Diese Erklärung hat auch der Zauberlehrling Hoppe im Sinne, die er dann noch eindrucksvoll in seine rhetorische Frage eingewickelt.

Auf dem rechten Diagramm haben wir zur Vervollständigung einen anderen Fall gezeigt. Hier besagt die Theorie: Wenn x steigt, dann steigt auch y. Die angeblichen zusätzlichen Faktoren - die nicht vorsehbar oder rein zufälliger (stochastischer) Natur sein könnten - verschieben diesmal die Linie nach unten, so dass die theoretische Aussage weiterhin richtig bleibt, auch wenn die tatsächlichen Ergebnisse das Gegenteil ergeben: die rote Linie -A-B’-C’- fällt anstatt zu steigen.

Man muss kein Mathematiker sein, um sich vorzustellen, wie universal dieses Muster für die Tatsachenmanipulation anwendbar ist. Das ist z.B. auch der Grund, warum die renommierten deutschen Ökonomen nicht das geringste Problem damit haben, zu behaupten, Mindestlöhne würden die Arbeitslosigkeit erhöhen. Nehmen wir an, die wiederaufgelegte große Koalition führte nach der Wahl die Mindestlöhne flächendeckend ein - weil sich die SPD doch nicht erlauben könnte, dass wirklich alle ihre Wahlversprechen zur Lüge werden - und die Arbeitslosigkeit fiele um 340 Tausend. Wir würden gleich hören, dass dies „ganz bestimmt“ an der Weltkonjunktur usw. läge. Ein Experte für Wirtschaftswachstum nach dem anderen würde ausrechnen, wie viele Beschäftigte mehr es gäbe, hätte man nur von den Mindestlöhnen lassen können. Einer würde sagen, es wären 120, der andere 160, der dritte 190, ... Tausend. Der Präsident des ifo Instituts Hans-Werner Sinn würde sich selbstverständlich von keinem überbieten lassen. Außerdem würde er noch viel präziser als alle anderen rechnen und auf stolze 271,3 Tausend „fahrlässig vernichtete Arbeitsplätze“ kommen.

Wie war es noch einmal, man habe in der Wirtschaftswissenschaft so wenig Möglichkeiten Experimente zu machen? Wozu brauchen eigentlich solche Dummköpfe und Scharlatane noch Experimente! Um jetzt nur bei diesem einen Beispiel zu bleiben, beim Mindestlohn: Wie viele unserer näheren und weiteren Nachbarn - sogar die USA - haben das „Experiment“ durchgeführt und keine Beschäftigungsnachteile festgestellt? Ach ja - sie haben sie nur nicht bemerkt bzw. verstehen können! Ist doch klar.

Über die Verhaltensweise der Marktakteure

Wenn die Frage gestellt wird, ob die ökonomische Theorie überhaupt Annahmen über psychologische, anthropologische und moralische Merkmale des Menschen bedarf, ist es angebracht, mit Marx anzufangen. Kein wichtiger Ökonom hat nämlich diese Frage so eindeutig mit einem nein beantwortet. Hier blieb Marx als Ökonom seiner deutschen philosophischen Tradition treu, nach der sowohl die (empirischen) Tatsachen als auch der (empirische) Mensch nur eine Restgröße in einem Plan von Gott, der absoluten Vernunft oder der Natur ist. Marx steht natürlich für die letztgenannte Option. Was für ein Unterschied zu Smith, der das ganze Paradigma des Marktes aus einer Anthropologie und Morallehre ableitet, die auf konkreten Menschen fußen.

Es ist nicht das Bewusstsein der Menschen, das ihr Sein, sondern, umgekehrt ihr gesellschaftliches Sein, das ihr Bewusstsein bestimmt“, so der berühmte Satz von Marx. Das Bewusstsein ist also nur eine abgeleitete Größe, und es kann sich ändern, und zwar indem sich die Produktionsverhältnisse ändern, die ihrerseits die automatische und unausweichliche Folge der Entwicklung der Produktionskräfte sind. Weil man also das neue Bewusstsein sozusagen geschenkt bekommt, ist von dem Philosophen Marx später nur der Ökonom Marx übrig geblieben, der sich nur um die Produktionskräfte kümmert, die er auf die Akkumulation (die organische Zusammensetzung) des Kapitals zurückführt. Weil das Bewusstsein nach der proletarischen Revolution ein in jeder Hinsicht perfektes Bewusstsein sein wird - warum, das verrät uns Marx nicht - wird es mit dem neuen Menschen letztendlich möglich werden, all das zu verwirklichen, was sich eigentlich auch die ideologischen Gegner von Marx, heute nennen wir sie Neoliberalen, von Anfang an gewünscht haben: Den Staat und alle seine Institutionen wird man abschaffen und die Gestaltung des ganzen sozialen und ökonomischen Leben der uneingeschränkten Freiheit anvertrauen können. Nur in der Frage, ob das Reich der Freiheit die totale Abschaffung des Privatkapitals oder das Gegenteil, die bedingungslose Privatisierung voraussetzt, konnten sich Marx und die Neoliberalen nie einigen und sind folglich unversöhnliche Feinde geblieben.

Als nach der Revolution schnell klar geworden ist, dass es keinen neuen Menschen mit neuem Bewusstsein geben wird, fiel den Revolutionären nichts anderes ein, als den Staat so zu stärken und die Freiheit so zu beschränken, wie es nicht einmal im Kapitalismus der Fall war. Es ist aber vorstellbar, dass die hierarchisch gesteuerte Wirtschaft trotzdem ökonomisch die kapitalistische Marktwirtschaft überholt hätte, wenn es richtig wäre, dass sich durch das Sparen bzw. die Kapitalakkumulation die Produktivität der Wirtschaft beliebig erhöhen lässt. Dieser alte Fehler der ökonomischen Theorie, den Marx zur Triebkraft (modus operandi) der Geschichte hochstilisierte, hat schließlich den kommunistischen Ordnungen das Leben gekostet.

Wie unerfreulich es auch schein mag, alle Erfahrungen des letzten Jahrhunderts lehren uns also, dass die Geschichte und die Wirtschaft durch Menschen gemacht wird und kein automatisch laufender Prozess ist. Das bedeutet, dass jeder nächste theoretische Entwurf (Paradigma) für eine neue soziale und ökonomische Ordnung von empirisch belastbaren Annahmen über psychologische, anthropologische und moralische Eigenschaften des Menschen ausgehen muss. Der Spott über den Gutmenschen, den sich die Sozialisten und Marxisten unzählige Male anhören mussten, war zwar nicht immer ehrlich, aber er war in der Sache richtig. Hier können sich die Liberalen und die Konservativen bestätigt fühlen. Die Neoliberalen halten da ihr Gleichgewichtsmodell entgegen, das angeblich das Verhalten des Menschen richtig deute, weil man in ihm von der menschlichen Natur ausgehe, so wie diese schon immer gewesen sei und auch immer sein werde. Wir prüfen dies jetzt, nicht nur um die Wahrheit über das Gleichgewichtsmodell zu erfahren, sondern auch um herauszufinden, ob wir dieses Modell beim Entwurf der neuen ökonomischen Theorien und Paradigmen doch gebrauchen könnten.

Eine Teilantwort auf die Frage ob das Gleichgewichtsmodell das Verhalten des Menschen vollständig erfassen und erklären kann, hat uns schon unsere kurze Untersuchung der Spieltheorie geliefert: Das kann das Modell nicht.mehr Das Prinzip des Grenznutzens, das das Modell nutzt, bezieht sich nur auf die Befriedigung der Bedürfnisse; der Mensch ist aber ein rational handelndes Wesen, der als solches Strategien entwirft und nach ihnen handelt. Oder anders gesagt: Der Mensch ist nicht nur ein Nutzenmaximierer (homo oeconomicus), sondern auch strategischer Spieler (homo ludens). Eines schließt aber das andere nicht aus. Daraus folgt also noch nicht, dass die (Grenz-)Nutzenanalyse falsch sein müsste, sondern nur, dass sie nicht all das kann, was man sich ursprünglich von ihr erhoffte. Man könnte dann sagen, dem Gleichgewichtsmodell ist dasselbe widerfahren, was schon viele Theorien bei der Fortentwicklung der Wissenschaften erleben mussten: sie wurden nicht als falsch erklärt, sondern man hat nur den Bereich ihrer Gültigkeit beschränkt. So betrachtet ließe sich die (Grenz-)Nutzenanalyse als ein theoretischer Ansatz verstehen, mit dem sich das bedürfnisbedingte Verhalten deuten und erklären lässt. Aber kann sie wenigstens dies richtig tun? Wir prüfen es einfach.

Die Behandlung der menschlichen Bedürfnisse durch Ökonomen kann bestimmt nicht dieselbe sein, wie die durch Psychologen. Diese zwei Forschungsbereiche sind unterschiedlich. Den Psychologen wird die Befriedigung der Bedürfnisse im Sinne der Nutzenmaximierung bestimmt nicht interessieren. Die Frage ist aber, ob der Mensch so ein Nutzenmaximierer ist, wie es in der neoliberalen Theorie angenommen wird. Die Nutzenmaximierung als die Idee (oder These) stammt bekanntlich nicht von Walras, und auch nicht von Gossen (Gossensche Gesetze). Sie wurde schon von dem Begründer des klassischen Utilitarismus Jeremy Bentham (1748 - 1832) genutzt. In seinem Werk „Introduction to the Principles of Moral and Legislation“ (1780 bzw. 1789) beschreibt er das Prinzip der Nutzenmaximierung erstmals als solches. Die Menschen, so seine Auffassung. handelten gemäß dem, was sie für ihre eigenen „Interessen“ halten und verfolgten dabei ihr „Glück“. Dieses besteht darin, möglichst viel Freude (pleasure) zu haben und Leid (pain) möglichst zu vermeiden. Jede Handlung, die zum „Glückskalkül“ gehört, soll nach folgenden Merkmalen quantitativ bewertet werden: (1) die Intensität, (2) die Dauer, (3) die Gewissheit oder Ungewissheit, (4) die Nähe oder Ferne, (5) die Folgenträchtigkeit, (6) die Reinheit sowie (7) das Ausmaß einer Freude oder eines Leids.

Zum Glück gehört bei Bentham auch das Konsumieren. Welches von den aufgezählten Merkmalen würde er auf die Konsumgüter anwenden können? Nehmen wir als Beispiel den Konsum von Würstchen. Es klingt trivial, aber es stimmt, dass man die Würstchen so lange isst, wie sie einem schmecken - wie sie Freude (pleasure) bereiten. Nimmt diese Freude beim Essen ab? Wenn man z.B. mehrere Würstchen, eines nach dem andern isst, dann ist die Antwort ja. Wenn aber ein Würstchen am jedem dritten Tag gegessen wird - dies haben wir bereits als eine Möglichkeit schon erwähnt - lässt sich abnehmende Freude nicht feststellen. Für Bentham wäre es aber gleich, ob er zum „Glückskalkül“ gleiche Intensitäten zusammenzählen sollte oder immer kleinere. Für das Gleichgewichtsmodell würde der letzte Fall das System von Gleichungen unlösbar machen. Man müsste also alle Güter, bei denen sich die Konsumenten nicht nach dem Sättigungsprinzip verhalten, entfernen. Aber dieser Fall ist fast noch harmlos. Nehmen wir einen anderen.

Bentham war sich völlig im Klaren, dass der Erwerb eines Gutes nicht die gleiche Intensität an Freude bringt, wie die Intensität des Leidens durch dessen Verlust. Mit einer einfachen Graphik lässt sich dies genauer verdeutlichen.

Wenn man Güter gleicher Art erwirbt, weil jedes nächste Gut Freude bereitet, wird die gesamte Freude eine ansteigende Kurve ergeben. (Wenn man zugleich auch die Sättigung der Bedürfnisse berücksichtigt, steigt diese Kurve ebenfalls, aber immer langsamer.) Wir betrachten jetzt den Zuwachs an Freude oder Glück von M auf N, der entsteht, wenn der Besitz an Gütern sich von m auf n vergrößert. Was passiert aber mit dem Gesamtglück, wenn der Besitzer einen Verlust erleidet, so dass sein Besitz wieder auf den früheren Stand n zurückfällt?

Der Mensch ist bekanntlich ein schlechter Verlierer. Dies bezieht sich nicht nur auf irgendwelche kämpferischen Situationen mit ihren Niederlagen, sondern auch auf völlig harmlose Geschehnisse. Wer kann z.B. die Gesundheit richtig schätzen, solange er noch gesund ist? Bei unserer Darstellungsweise bedeutet es, dass sich beim Verlust der Punkt N nicht zurück zum Punkt M bewegt, sondern absinkt. Bentham meinte, dass das Leid viermal stärker als das Glück wirke, so dass dementsprechend die neue "Glückssumme" der Punkt M’ bestimmen würde. Auch diesmal wäre es für Bentham kein Problem, diese Änderung zu berücksichtigen: Er würde aus der ursprünglichen „Glückssumme“ einfach entsprechend mehr subtrahieren. Das Gleichgewichtsmodell würde dies aber nicht überleben können. Die infinitesimale Mathematik, auf der die ganze Grenznutzenanalyse beruht, funktioniert ausschließlich mit absolut reversiblen Vorgängen. Damit das Walrasche Gleichungssystem lösbar bleibt, müsste also der Punkt N bei seinem Rückgang unbedingt genau den gleichen Weg nehmen und auf die Position M zurück kommen. Eine in der Tat sehr unangenehme Situation für die ganze Theorie! Auch mit der Mathematik lässt sich nicht zaubern, wie es die Nichtmathematiker schon immer geahnt und die besten Mathematiker schon immer gewusst haben. Würde man bei der Nutzenmaximierung noch andere Umstände berücksichtigen, die Bentham mit seinen sieben Kriterien der Quantifizierung der Bedürfnisse zum Ausdruck brachte, wäre schon der Gedanke, die infinitesimale Mathematik von Walras würde mit solchen „Unlinearitäten“ zurecht kommen, absurd.

Was für ein Glück für die neoliberale Theorie! Wie bitte? Es sollte doch Unglück heißen! Nein, wie paradox es auch sein mag, es ist ein Glück für sie, weil sie sagen kann: Seht ihr, wie unendlich komplex die ökonomischen Phänomene sind! Dass man trotzdem schon „so große Fortschritte“ machen konnte, wobei „noch nicht alle Probleme gelöst sind“, müsste man dann doch zu schätzen wissen. Ja, die Mathematik des 18. Jahrhunderts, die zum Zweck Maschinen zu konstruieren entwickelt worden ist, kann mit den „Unlinearitäten“ des menschlichen Verhaltens nicht zurecht kommen. Nur, hätte man dies schon nicht von Anfang an wissen können? Es ist nichts einfacher, als die „Unlinearitäten“ zu beklagen und damit - zumindest indirekt - die Mathematik zur Verantwortung zu ziehen, warum die ökonomische Theorie nicht viel weiter sei.

Dass sich die ökonomische Theorie so billig rechtfertigen kann, liegt auch darin, dass es schon längst keine Kommunikation zwischen den Wirtschaftswissenschaften und den exakten Naturwissenschaften mehr gibt. Gäbe es diese Kommunikation, würden die Naturwissenschaftler ihren Kollegen „Wirtschaftswissenschaftler“ schnell erklären, dass es ein ziemlicher Unsinn ist, ihre Wissenschaften als sozusagen einfach („unterkomplex“) zu bezeichnen. Nehmen wir als Beispiel die „Unlinearitäten“. Da kann der Physiker jedem jeden Wunsch erfüllen. Aber der Physiker beklagt nicht sein bitteres Schicksal, mit den „Unlinearitäten“ leben zu müssen, sondern er versucht sie zu „linearisieren“, und wenn es gar nicht geht, dann denkt er sich eine andere Methode aus, mit der es vorwärts geht. Bleiben wir bei dem Fall, der mit der obigen Graphik verdeutlicht wird.

Das Phänomen, dass ein Prozess, wenn man in ihm einen Parameter ändert und dies wieder rückgängig macht, nicht in den vorherigen Zustand kommt, ist in den Naturwissenschaften schon längst ein alter Hut. Mann nennt es  Hysterese. Die Hysterese war für die Physiker des 18. Jahrhunderts in der Tat etwas, was jenseits jeder Vorstellungskraft lag. Die Welt der klassischen Physik ist absolut reversibel oder anders gesagt unhistorisch. Wenn ein Körper eine bestimmte Position zu einem anderen hat, ist es vollkommen gleich, wo der Körper früher war und auf welchem Wege er zu dieser Position gelangt ist. Aber das war das 18. und der Anfang des 19. Jahrhunderts. Im Elektromagnetismus etwa ist die Hysterese eine der üblichsten Angelegenheiten, die es überhaupt gibt. Trotzdem hat sich als möglich erwiesen, zahlreiche Typen von Elektromotoren zu konstruieren, die trotz der Hysterese zuverlässig in der ganzen Welt funktionieren und vieles mehr. Aber woher sollte jemand, der im Zeitalter der Kutsche und der Dampflok stecken geblieben ist, wissen, dass die Naturwissenschaften die absolut deterministische, kausale und reversible Welt schon längst hinter sich haben?

Auch in dem Nutzenmaximierungskonzept, als es noch „Glückskalkül“ hieß und eine recht primitive Mathematik benutzte, gab es kaum Probleme mit den „Unlinearitäten“. Die Probleme kamen, als die Arithmetik mit der großkalibrigen Mathematik der klassischen Physik aus dem 18. Jahrhundert ersetzt wurde. Das Ergebnis der neuen Mathematik war also, dass das Nutzenmaximierungskonzept, das schon bei Bentham als billig, einfallslos und stumpfsinnig galt, um noch eine deutliche Stufe billiger, einfallsloser und stumpfsinniger geworden ist. Und dies nur deshalb, um zu „beweisen“, dass die Preise der Seltenheit (Knappheit) entsprechen. Was für eine Leistung! Was für ein Fortschtritt!

Man kann an dieser Stelle daran erinnern, was einmal John Maurice Clark, der Sohn des führenden Vertreters und Entwicklers der angloamerikanischen Grenznutzen- und Grenzproduktivitätslehre (auch Cambridge-School benannt) sagte: „Jede allgemeine Verhaltenstheorie, die sich der Ökonom zu eigen macht, ist eine Angelegenheit der Psychologie, und jede spezielle Verhaltensannahme, die er verwendet, enthält psychologische Annahmen. Der Ökonom hat nur eine Wahl: Entweder er übernimmt seine Verhaltenstheorie von der Psychologie - dann kann er im Übrigen reiner Ökonom bleiben. Oder er verschmäht das Angebot der Psychologie - dann muss er seine eigene Psychologie produzieren, und das wird eine schlechte Psychologie sein.“ Und Clark hat Recht. So wie es Marx getan hat, es der Geschichte bzw. den Produktivkräften zu überlassen, die Psychologie (menschliche Natur) zu bestimmen, grenzt dicht an absolutem Unsinn. Zwar aus einem anderen Grund, aber nichts anderes lässt sich für die Neoliberalen sagen. Sie produzierten ihre eigene Psychologie, die folglich eine sehr schlechte Psychologie ist. Sie reicht für hypothetische Situationen, bei denen es nur elementare Bedürfnisse und Güter von irgendwo („himmlisches Manna“) gibt, die man nur tauschen und letztlich konsumieren kann. Dies war bei uns der Fall in dem Gefangenenlager - in unserem erklärenden Beispiel.

Was man im Rahmen des Gleichgewichtsmodells berücksichtigt, ist keine richtige Deutung der psychischen, anthropologischen und moralischen Verhaltensweise des Menschen, weil schon die Nutzenmaximierung allein eine viel kompliziertere Angelegenheit ist. Dies kann schon ausreichen, den homo oeconomicus abzulehnen. Es wäre aber übertrieben zu sagen, wie wir es von Gutmenschen, und zwar nicht nur aus den linken Lagern hören, der homo oeconomicus sei böse. Das ist er bestimmt nicht. Was könnte daran schlimm oder gar unmoralisch sein, wenn der Mensch bei knappem Einkommen die für ihn nützlichsten Güter kauft? Und wie sollte er überhaupt anders bei der Befriedigung seiner Bedürfnisse vorgehen, als dass er sich Prioritäten nach eigenem Gutdünken setzt? Das und nichts anderes ist die Nutzenmaximierung. So betrachtet ist der homo oeconomicus völlig harmlos. Man kann ihn eventuell als primitiv und hedonistisch gering schätzen, aber dass wäre schon ziemlich alles, was man ihm ernsthaft vorwerfen kann. Nebenbei gesagt, Bentham war unter anderem einer der wichtigsten Sozialreformer Englands im 19. Jahrhundert, ein Vordenker des modernen Wohlfahrtsstaats, der Demokratie, des Feminismus, des Rechtsstaats und der Pressefreiheit. Und auch nicht vergessen werden darf seine Vorstellung vom Egoismus. Nach ihm ist der „Egoismus das verabscheuungswürdigste Laster“, weil er „nicht darin besteht, dass man sein Leben nach seinen Wünschen lebt, sondern darin, dass man von anderen verlangt, dass sie so leben, wie man es wünscht“.

Es stimmt aber, dass die neoliberale Theorie durch ihr Gleichgewichtsmodell den homo oeconomicus zu dem Menschenfresser gemacht hat, der von dem sozialen Genozid nicht zurückschreckt. Aber dies hat seine Ursache nicht im Prinzip der Nutzenmaximierung im Bereich des Konsums, sondern es ist die Folge seiner Anwendung im Bereich der Produktion, wo der (Grenz-)Nutzen zur (Grenz-)Produktivität ummanipuliert wurde, um dadurch zum Substitutionsprinzip zu gelangen. Mit dem Substitutionsprinzip, das eine vorsätzliche ideologische Manipulation des Nutzenmaximierungsprinzips ist, lässt sich jede Entrechtung, Ausbeutung und Versklavung der Arbeitskräfte mit der ökonomischen Effizienz rechtfertigen. In dem falschen Bewusstsein der Richtigkeit dieses Prinzips wird der Mensch zur profitsüchtigen rücksichtlosen Bestie.

Damit ist auch unsere Frage beantwortet, ob wir das Gleichgewichtsmodell gebrauchen können, wenn wir an einem neuen ökonomischen Entwurf (Paradigma) arbeiten wollen, an einem, der sich den humanistischen und aufklärerischen Zielen vom Anfang der Moderne verpflichtet sieht, also dem, woran die Frühliberalen geglaubt haben. Nein, das Gleichgewichtsmodell und alles, was man aus ihm mit der Mathematik des 18. Jahrhunderts herausgeholt hat, ist wissenschaftlich unbrauchbar und ideologisch verhängnisvoll. Worauf wir nicht verzichten können, ist das Nutzenmaximierungsprinzip. Ohne dieses Prinzip kann man die Bestimmung der Bedürfnisse und ihrer Prioritäten nur einer Autorität überlassen, wie in den Planwirtschaften, was ökonomisch nicht besonders gut funktioniert und, was noch schlimmer ist, Gelüste nach totaler Steuerung der Wirtschaft und Gesellschaft weckt. Außerdem ist das Nutzenmaximierungsprinzip ein unverzichtbares Instrument zur Diagnose des Egoismus und zur Prüfung der praktischen Ergebnisse aller Gesetze, Maßnahmen und Regelungen.

„Ob die vorgeschlagenen institutionellen Reformen stabil sein können oder nicht, überprüft der Ökonom mit Hilfe eines „Testgeräts“, des Konstrukts homo oeconomicus: Es handelt sich dabei nicht um ein „Menschenbild“, sondern um ein theoretisches Konstrukt, das präzise auf die Asymmetrie zugunsten der Defektion in Dilemmastrukturen zugeschnitten ist. Wie man nur TÜF-geprüfte Autos in den Verkehr lässt, so kann der Ökonom nur homo-oeconimicus-geprüften Institutionen seinen Segen geben.“ ... >

So wie es schon Bentham wusste: „Die Moral ist nichts als die Regulierung des Egoismus.“

Zusammenfassung:

Wir haben nun der neoliberalen Theorie eine Chance gegeben, dass sie für ihre Deutung der Funktionsweise der Marktwirtschaft irgendwelche empirisch überzeugende Argumente vorlegt. Wir haben also von der neoliberalen Theorie nicht verlangt, dass sie quantitativ genaue empirische Prognosen liefert, also starke Vorhersagen. Wir wären zufrieden auch mit schwachen Vorhersagen, also mit systematisch und schlüssig vorgetragenen Aussagen, die etwa dem entsprechen, was man aus der Erfahrung kennt. Dies war wirklich eine außergewöhnliche Geste der Großzügigkeit von uns, die eine seriöse Wissenschaft nie brauchen würde und eigentlich nicht in Anspruch nehmen dürfte. In der juristischen Sprache könnte man sagen, wir hätten uns mit einem Indizienbeweis zufrieden gegeben, also mit einem solchen Beweis, bei dem das entscheidende Beweisstück (corpus delicti) fehlt, aber alle anderen Umstände dafür sprechen, dass sich etwas genauso wie vermutet und nicht anders ereignen musste. Aber nicht einmal so einen vagen Beweis ist die neoliberale Theorie im Stande zu liefern. Ihre Vertreter haben keine Ahnung von überhaupt etwas.

Was dem Ganzen noch sozusagen die Krone aufsetzt, ist die so oft beobachtete Praxis, dass man sich in der Zunft dieser hoch ausgebildeten Taugenichtse und Versager gerade dann am besten profiliert, wenn man geschickt ist, sich spitzfindige („analytisch strenge“) Erklärungen auszudenken, warum gerade das Gegenteil von dem auftreten musste, was man davor vorhergesagt hat. Man muss sich wirklich fragen, wie kann sich ein Mensch mit gesundem Menschenverstand und ruhigem Gewissen bei einer solchen Realitätsverweigerung als Wissenschaftler fühlen und nennen lassen. Womöglich deshalb, weil es sich um eine kognitive Unreife und eine gewisse Psychopathie handelt? Sollte man dem französischen Philosophen André Glucksmann glauben, dann ließe sich aus solchen Symptomen noch etwas viel schlimmeres vermuten: 

„Den Vollidioten erkennt man daran, daß er durch nichts aus der Fassung zu bringen ist. Er ist stets bereit, sich über das eine Meinung zu bilden, was er nicht versteht, und unfehlbar über das zu urteilen, was er nicht weiß. Seine Zwangsvorstellungen zu allgemeinen Prinzipien des Denkens erhebend, findet er in seinem Weltbild das wirksame Instrument, das ihm zur Allwissenheit verhilft. ...
Die Erfahrung kann ihm nichts anhaben, selbst wenn sie ihn zu widerlegen scheint, denn diese Widerlegungen sind ja auch zu interpretieren. Und wer soll dies tun? Wer, wenn nicht er? Die Idiotie ist ein höchstinstanzliches Gericht. In ihr findet die verunsicherte Dummheit ihre Daseinsbedingung, nämlich die sichere Ruhe.“ ... >

Wenn man bedenkt, dass sich diese Menschen auffällig und spitzenmäßig der Mathematik bedienen, von der jeder weiß, dass sie zum strengen Denken zwingt und dass sie in vielen Wissenschaften außerordentlich erfolgreich ist, scheint ihre kaum fassbare Erfolglosigkeit seltsam zu sein. Aber das klärt sich schnell, wenn man in Erwägung ziehen würde, dass sich die neoliberalen Ökonomen der mathematischen Modelle nicht deshalb bedienen, um mit der Realität besser zurecht zu kommen, sondern gegen sie. Ihre Modelle haben gar nicht die Aufgabe, welche die mathematischen Modelle in allen exakten Wissenschaften haben, die Tatsachen zu entdecken bzw. sie vorherzusagen, sondern sie sind nur intelligente Konstrukte, mit denen sich nichts als nur prahlen lässt. All ihren Theorien sind reine rhetorische Figuren, die sich bei den ideologischen Schlachten als gut brauchbar erwiesen haben. Rein wissenschaftlich betrachtet sind sie buchstäblich ein dummes Zeug.

Wir müssen gar nicht Mathematiker sein, um dies zu begreifen. Schon die elementaren Erkenntnisse über die Gleichungssysteme, die in den vorigen zwei Beiträgen kurz erläutert worden sind, reichen uns zu erkennen, dass die neoliberalen ökonomischen Mathematiker gar keine richtigen Mathematiker und Wissenschaftler sind, sondern dass sie nichts als eine Art von gehobener Stammeszauberei betreiben. Das ist unser nächstes Thema.

zu Teil 1 mehr

 
 
     
 
zu weiteren Beiträgen
werbung und    eBook