Loading...

Good ones don’t come by the score

Franz Rieder • Attac fractale, Fractale en march       (nicht lektorierter Rohentwurf)   (Last Update: 26.05.2019)

Der Ansatz einer fraktalen Geometrie der Märkte stellt die allseits verbreitete Hypothese der effizienten Märkte grundlegend in Frage. Und damit natürlich auch gleich jeden Ansatz eines Gleichgewichtes, der das Marktgeschehen, aus welchem Blickwinkel auch immer, sei es unter Angebot und Nachfrage oder unter rein montären Prozessen betrachtet. Momentum-Strategien ersetzen nun historische Trend- bzw. Kursverlaufsanalysen.

Zu bedenken sind auch bei Momentum-Strategien einige Grundannahmen, gegen die sich diese Strategie absetzt und ohne diese Gegensetzung auch dieser Ansatz nicht auskommt. Die Frage, ob diese Annahme, dass keine Strategie ohne ihren Gegenpart, erkenntnistheoretisch verallgemeinerbar ist, diskutieren wir zu einem späteren Zeitpunkt.

Niemand kann auf Dauer den Markt schlagen. Damit sind die Börsenindizees adressiert, die als Repräsentation von Märkten bzw. Marktsegmenten angesehen werden. Die Hypothese von den effizienten Märkten hat noch eine weitere Schlussfolgerung aus ihren empirisch stochastischen Analysen gezogen. Auf der Basis vollständiger Transparenz, also eines Handlungswettbewerbs auf der Grundlage, dass alle Marktteilnehmer prinzipiell auf der Basis gleicher Informationen handeln, wobei Insiderhandel natürlich ausgeschlossen ist, kann kein Marktteilnehmer einen signifikanten Vorteil, eine Überrendite erzielen.
Wenn also alle Informationen, die verfügbar sind, in den Kursen und ihren Verläufen bereits enthalten, sprich durch die Trader – und heute durch den Hochgeschwindigkeitshandel – verarbeitet sind, gibt es auf Dauer keinen informellen Wettbewerbsvorteil, allenfalls kurzfristig, also auch kein geringeres Risiko und somit auch im Ergebnis keinen signifikanten Renditevorteil.

Weiterhin gilt, dass die in den Kursen repräsentierte Wertentwicklungen in der Vergangenheit unabhängig von der gegenwärtigen und zukünftigen Entwicklung sind. Hier adressiert man den sog. „Schwarzen Schwan“, den statistischen Fall: n=1, oder den Zufall bzw. das Ereignis, welches sogar außerhalb jeder Form von Normalverteilung liegt. Als Beleg könnte man zahllose prominente Beispiele aus den beiden vergangegen Jahren benennen wie etwa Volkswagen, die Deutsche Bank, Air Berlin etc. Der Clou aber sind nicht die Beispiele oder deren Prominenz, sondern die Anzahl der „Schwarzen Schwäne“, die sich zu einem ganzen Schwarm an unvorhersehbaren „Einzelereignissen“ versammeln.

Darin liegt auch schon der Ansatz einer Erklärung eines Phänomens, welches sich konträr zur Markteffizienzhypothese behauptet, dass nämlich sich Börsenteilnehmer, und dies weltweit, an der Wertentwicklung der Vergangenheit orientieren und dies mit einigem Grund. Denn abseits der Effizienzhypothese konnte man feststellen, dass z.B. bei den sog. Value (Unter-)Indexen in der Vergangenheit gut performende Aktien eine solche auch in der Zukunft überdurchschnittlich erzielen.

Auf dem Boden dieser Beobachtung entwickelte sich der Momentum-Effekt zu einer der größten Herausforderungen der Theorie der Effizienten Märkte. Und dieser Effekt ist aus heutiger Sicht in nahezu allen großen Märkten über lange Zeiträume belegt und beinhaltet Aktienmärkte aber auch die Futuremärkte, die neben den Aktienindizes auch Währungen oder „Commodities“ abbilden.

Der beobachtete Effekt ist einfach zu messen. Hierbei werden in einer Rückschau die Renditen erfasst, welche durch nachfolgende Portfolio-Konstruktion anhand eines Marktes erzeugt werden:

  • Für jeden Monat werden die Renditen aller Aktien aus der Vergangenheit gemessen (z.B. 6 Monate oder 1 Jahr).

  • Die Aktientitel werden anhand der vergangenen Rendite sortiert.

  • Anhand eines vorgegebenen Decils (z.B. 10%) kauft man die obersten (10%) Aktien (long).

  • Analog werden die untersten (10%) Aktien leer-verkauft (short).

  • Der ganze Vorgang wird monatlich wiederholt.

Hierbei wird davon ausgegangen, dass Aktien, die gut gelaufen sind, weiterhin ihren „Schwung“ behalten (also Momentum haben) und analog Aktien mit negativen Renditen weiterhin an Performance verlieren. Man kann also von einem gewissen „Trending“ der Aktien ausgehen.
Die so gemessene Performance dokumentiert für lange Zeiträume und viele Märkte, dass diese Strategie erhebliche Überrenditen im Vergleich zu einer „Buy-and-Hold“-Strategie des zugrunde liegenden Markets erzeugen, also sowohl den Index wie die Strategie outperformt.

Anfänglich wurde theoretisch davon ausgegangen, dass die relative Sortierung der Aktien oder Assets untereinander der wichtige Einflussfaktor für diesen Effekt ist. Neuere Erkenntnisse zeigen, dass allein der zurückliegende Kursverlauf maßgeblich ist.1

Was also der französisch-US-amerikanische Mathematiker Benoît Mandelbrot herausgefunden hat, waren Skalierungsgesetze in Aktienzeitreihen. Damit griff er theoretisch die Grundlagen der Markteffizienzhypothese an und behauptete: Der Markt hat ein Gedächtnis, künftige Renditen sind abhängig von der Vergangenheit. Und gleichzeitig formulierte er eine Verstehens- und Herangehensweise an diese Verschränkung von Vergangenheit und Gegenwart bzw. Zukunft, die weder einer kausalen Logik noch dem Gesetz der Normalverteilung, also von Wahrscheinlichkeiten der großen Menge folgte; im Gegenteil. Es sind Fraktale, die den „Schwung“ repräsentieren, gleich welcher Zeiträume, gleich welcher Wertsysteme.



Attac fractale


Es war kein Zufall, dass französisches Blut in den Adern des ersten, ernst zu nehmenden Gegners gegen Konzepte wie Wirtschaftskreislauf und Quantitätstheorie pulsierte. Warum gerade Frankreich? Wir wissen es nicht, können nur vermuten. Diese Verknüpfung von polnischem, französischen und amerikanischen Denken und Persönlichkeit sowie einer extremen Lebensgeschichte in den Wirren, Schrecken und Ängsten der Zeit des deutschen Nationalsozialismus macht es hoch wahrscheinlich, dass man eher an den Rändern seiner Persönlichkeit eine gewisse Ähnlichkeit mit sich selbst findet als im Kern eine stabile Identität.

Mandelbrot fand heraus, dass die Preisschwankungen der Finanzmärkte nicht durch eine Normalverteilung, sondern durch eine Lévy-Verteilung beschrieben werden können, die theoretisch eine unendliche Varianz aufweist. Zum Beispiel zeigte er, dass die Baumwollpreise seit 1816 einer Lévy-Verteilung folgen und sich theoretisch in keiner entsprechen Gaußverteilung abbilden würden. Er war überzeugt, dass mithilfe einer adäquaten Mathematik Anwendungsprobleme aus den Gebieten der Informationstheorie und Wirtschaftswissenschaften besser darstellen und erklären lassen2 und dass eine Vielzahl von Problemen in diesen Gebieten von letztlich zwei zentralen Themen bestimmen lassen, der „fat tail Wahrhscheinlichkeitsverteilung“3 und der „selbstähnlichen Strukturen“4. Diese Strukturen oder Fraktale werden wir später im Zusammenhang mit dem Internet eingehender behandeln.5

Mandelbrots Theorie der fraktalen Märkte wird oft in enger Verbindung mit der sog. Mandelbrot-Menge erwähnt, was aber falsch ist. Denn die Mandelbrot-Menge ebenso wie die oft im gleichen Zusammenhang herangezogenen Julia-Mengen sind zwar selbstähnlich, nicht jedoch strikt selbstähnlich (s.u.). Strikte Selbstähnlichkeit impliziert Skaleninvarianz. Skaleninvarianz bzw. Skalenunabhängigkeit ist ein Begriff, der in der Mathematik, Teilchenphysik und der Statistischen Mechanik verwendet wird und der die Eigenschaft eines Zustands, Vorgangs, Verhältnisses oder einer Situation beschreibt, bei dem/der trotz Veränderung der Betrachtungsgrößen (Skalierung) die Eigenart oder Charakteristik inklusive seiner Eckwerte weitestgehend exakt gleich bleiben, so dass ein „selbstähnlicher“ Zustand gegeben ist, der meistens gewisse Universalitätseigenschaften zeigt.

Diese Ähnlichkeit mit sich selbst tritt in der Betrachtung von Börsenkursen ebenso hervor wie bei der neoklassischen Betrachtung des Phänomens der sog. „unfreiwilligen Arbeitslosigkeit“. Die Ableitungen solcher Phänomene können seit der Mandelbrotschen fraktalen „Mechanik“ nicht mehr aus mechanistischen Konzepten erfolgen, etwa aus einem Say’schen Theorem oder ähnlichen Marktmechanismen. Ja, man muss sogar so weit gehen und sagen, der (Begriff) Markt ist ein gänzlich illusorisches Phantasiegebilde der Ökonomik wie dann natürlich auch mechanisch sich darauf einstellende Effekte, also Markttrends.

Betrachtet man Trends aus einer Theorie der Fraktale, dann sieht man, dass Trends aus kleineren Trends zusammengesetzt sind, die wiederum aus noch kleineren Trends bestehen wie Märkte wiederum aus kleineren Märkten und diese wiederum aus fast infinitesimalen „Märkten“ bestehen. Skaleneffekte sind dann auch keine reinen Größeneffekte, sondern Effekte, die auf unterschiedlichen Detailebenen betrachtet, eine Selbstähnlichkeit innerhalb von Zeitreihen aufweisen.

Wenn also von fraktalen Märkten gesprochen wird, dann sind dies Märkte, die durch rekursive Trends aufgebaut sind, gleichsam wie autopoietische Systeme funktionieren.
Grundsätzlich wird eine fraktale Struktur dadurch erzeugt, daß eine im Grunde einfache ‚Formel‘ eine Vielzahl von Iterationen durchläuft und dabei Formen erzeugt, die in keiner Weise aus der zugrunde liegenden Formel ersichtlich sind, gleichwohl aber eine Selbstähnlichkeit mit sich selbst besitzen. Das entspricht etwa der Tatsache, dass das Grundmuster der Funktionsweise von Computern aus der Kombination von zwei Zuständen besteht wie allen, auch die hochkomplexesten Algorithmen und deren Rechenergebnisse.

In ähnlicher Weise kann man sich vorstellen, dass das vielfältige und ineinander verwobene Finanzgeflecht auf den internationalen Finanzmärkten durch einen einfachen Prozeß erzeugt wird, welcher durch vielfältige Reproduktion zu dem führt, was gegenwärtig zu den Verflechtungen auf den Finanzmärkten führt, deren Charakter mit der Modevokabel „komplex“ wie eben gesehen, nicht hinreichend beschrieben wird.

An dieser Stelle soll darauf hingewiesen werden, dass Fraktale zwar eine hohe Variabilität der Struktur sowie eine hohe Sensitivität gegenüber den Anfangsbedingungen aufweisen, ohne dass dadurch der einfache Charakter ihrer Entstehung irgendwie in Frage gestellt würde, haben wir doch auch eben dargelegt, dass Fraktale sich durch Skaleninvarianz generell auszeichnen.

Sie sind zum einen selbstähnlich in dem Sinne, dass sie beständig gleichartige Strukturen erzeugen. Zum anderen existiert bei Fraktalen so etwas wie eine Systemgrenze, wo Elemente, die bestimmte Schwellenwerte über oder unterschreiten nicht mehr zu der Fraktalbildung beitragen, weil sie entweder ins Unendliche verschwinden, oder implodieren.
Diese Eigenschaften sind die Grundlage für weite Teile des modernen Finanztradings, bei dem z.B. Mandelbrots „mathematische Sensitivität“ in die fraktale Modellvorstellung einer weltweiten Geldwirtschaft übertragen wird. Darin erblickt ein fraktaler Konstruktivismus die Szene der Geldwirtschaft aus einem Blickwinkel sich selbstähnlich wiederholender Strukturen von Implusion, sprich Konkursen und unfreiwilliger Arbeitslosigkeit sowie Explosion, sprich systemischer Hypertrophie als Überproduktion und Vollbeschäftigung vorgestellt.

Die Frage: ist Ökonomie ein System? muss also dahin gehend gestellt werden, dass die Vorgabe der Funktionsbedingungen definiert, ob ein Prozeß zu einem Teil eines fraktalen Gesamtsystems gehört oder nicht. Innerhalb also eines Prozesses der rekursiven Reproduktion der Funktionsbedingungen kommt die Ökonomie als ein intermediäres, also zeitlich iteratives Gesamtbild6 erst in Erscheinung.

So ist dann auch verständlicher, warum bislang die Probleme des durch Kreditgeld gesteuerten Kapitalismus nicht primär in der Frage bestehen, wie die Eigentumsordnung mit Produktionsmitteln verfährt, eine Fragestellung, die zu Marx Zeiten den Diskurs beherrscht hatte, sondern darin, wie eine Gesellschaft mit der Frage umgeht, was passieren soll, wenn sich Schuldverhältnisse als nicht bedienbar erweisen. Aus einer solchen Perspektive werden die Abstrusitäten, mit denen sich die ökonomische Weltpolitik beschäftigt eher erklärlich, als mit den klassische und neoklassischen, teils also recht altbackenen Konzepten wie Wirtschaftskreislauf und Quantitätstheorie.

Blickt man zurück auf die Entwicklung des Say’schen Theorems etwa durch David Ricardo, dann ist die Schlussfolgerung der klassischen Ökonomik, dass es eigentlich gar keine „Krise“ aus der Sicht eines Wirtschaftsprozesses als Waren- und Gütertauschwirtschaft geben kann, erklärlich. In einer Art sich selbst gleich bleibender Ordnung, in der die wirtschaftlich handelnden, aktiven Mitglieder nur insofern aktiv sind, als sie in Beziehung zu Tauschpartnern stehen, wo einer dem anderen dessen Bedürfnisse befriedigt und Geld, also der Preis für die Waren und Dienstleistungen eine „neutrale“, also zu vernachlässigende Position einnimmt, muss wirtschaftliche Depression etwas ganz und gar Fremdartiges außerhalb des Theoriegebäudes bleiben, weil es darin keinen systematischen Ort findet.

„Produkte werden immer von Produkten oder von Diensten gekauft. Geld ist lediglich der Vermittler, durch den der Tausch bewerkstelligt wird.“ Ricardo erkennt, dass die Unterscheidung zwischen Verkäufer und Käufer viel zu eng und mechanisch ist. Ein Käufer aber ist stets und zugleich ein Verkäufer wie umgekehrt, den reinen Verkäufer, der nichts kauft wie den reinen Käufer, der nichts verkauft, gibt es demnach nicht.7 Nicht nur, dass Ricardo damit aber sogleich das Kind mit dem Bade ausschüttet, nämlich die Differenz zwischen Arbeit und Kapitel bis zur Unkenntlichkeit verwischt, sieht er in Geld auch nichts anderes als einen marktbegleitenden Strom, ohne jede Bedeutung.



Fractale en march


Wie eine Gesellschaft alsof mit der Frage umgeht, was passieren soll, wenn sich Schuldverhältnisse als nicht bedienbar erweisen, haben wir bereits im Kontext der Finanzkrise 2007/8 angesprochen. Die Abstrusitäten einer engen, noch diskreten Kooperation zwischen Privatwirtschaft und Politik werden deutlich, sieht man auf die Anschlussoperationen etwa bei der italienischen Großbank Unicredit. Etwa fünfzehn Prozent der Erwerbsarbeitsstellen wurden ersatzlos gestrichen und dies mit einem semantisch blumigen Ausdruck „Transform 2019“ als Digitalisierungsstrategie belegt; andere wählten hierfür lieber martialische Strategietitel wie etwa „Projekt Star Wars“, was ehrlicher klingt, aber ebenso dumm ist.

War die „Größe der Bank“ eben jenes systemische Risiko in der italienischen wie europäischen Bankenlandschaft, so arbeitet man jetzt beherzt daran, mit Hilfe des italienischen Staates und der EU wieder zur alten Größe zurück zu finden, ja sogar darüber hinaus zu gelangen. Betriebswirtschaftliche Kategorien wie Kundenentwicklung, Multikanalangebote, Prozessoptimierung, Kosteneffizienz und ein diszipliniertes Risikomanagement stehen wieder und auf gleiche Weise im Zentrum der Unternehmensstrategie mit dem Ziel des quantitativen Wachstums durch Zukäufe, Fusionen und Beteiligungen.

Das wird dann als „organisches Wachstum“ hin zu einer paneuropäische Geschäftsbank kommuniziert. Kurzfristig soll eine Eigenkapitalrendite von neun Prozent erreicht werden, obwohl die Investoren aktuell die Großbank lediglich mit 0,8 Prozent ihres Buchwertes bewerten; das nennt man ambitioniert. Um so mehr, wenn man weiß, dass dieser Buchwert eine Profitabilität ausweist, die deutlich unter den Kapitalkosten liegt.
Hinzu kommt, dass die Geschichte der Bank wie Blei in ihren Adern pulsiert und sich ursprünglich auf 33 Mrd. € an faulen Krediten bezifferte, von denen laut Selbstauskunft bis Ende 2019 immerhin noch 17 Mrd. € in den Büchern stehen sollen. Der Abbau der faulen Kredite klingt schön, die Summe weniger. Faktisch ist die Bank pleite.

Aber was sind faule Kredite? Die dürfte es eigentlich, nicht einmal bei einem fehlerhaften Risikomanagement geben. Hier wurden schaufelweise Kredite an Kreditnehmer ausgeschüttet, vor denen selbst ein Bauchgefühl hätte rebellieren müssen. Wie in den USA bei den Hypothekenkrediten hat hier der italienische Staat sich das Wohlgefallen und die Stimmen seiner Bürger gekauft; die Bank und ihr Geld waren „neutral“, also bloß die Vermittlungsinstanz.

Gegen die neuen EU-Regeln zur höheren Sicherheitshinterlegung von Krediten mit Eigenkapital läuft die italienische Regierung nun natürlich Sturm, zumal sie, pleite bis zur Halskrause, kurzfristig auch noch 20 Mrd. € für die Rettung bzw. Liquiditätsversorgung angeschlagener Institute aufbringen muss. Das systemische Bankenrisiko, ausgelöst durch Monte dei Paschi und die beiden Veneto-Banken, belastet den italienischen Staat so sehr, dass auch nur die kleinste Zinserhöhung durch die EZB bzw. die leiseste Ankündigung, so zu tun aus dem Munde ihres vorstehenden CEO Dragi die Staatsinsolvenz zur Folge hätte.

Am anderen Ende der Skala gleichsam als Gegenpol der Eingangsbedingungen steht die EZB Politik der niedrigen Zinsen. Faule Kredite und unfreiwillige Arbeitslosigkeit konterkarieren nachhaltig und gegenläufig die Auffassung, dass Negativzinsen das Wirtschaftswachstum ankurbeln und die Kreditausfälle bei Banken minimieren.

Nach Keynes hängt die Quote der unfreiwilligen Arbeitslosigkeit direkt ab von der effektiven Nachfrage8. Arbeitslosigkeit resultiert dann aus einer unzureichenden effektiven Nachfrage, deren Skala (je höher bzw. je niedriger) auch die Beschäftigung resp. Arbeitslosenquote bestimmt.9
Schaut man weiter in die Entwicklung der Theorie der Beschäftigung und deren Krisen dann findet man eine bunte Palette von potenziell krisen-konstitutiven Gründen, deren Gemeinsames ein Ungleichgewichtsphänomen ist, immer bezogen auf marktgängige Messgrößen wie eben die effektive Nachfrage oder in einem anderen Fall die Entwicklung von Preisen.

In den neoklassischen Theorien10 werden äußere Gründe zitiert, die den Mechanismus von Preisanpassungen signifikant stören. Ganz oben auf der Skala der Gründe steht die Annahme von weitgehend inflexiblen Zinsen, gemeint sind Zinsen, die nach unten hin starre Grenzen haben. Durch diese Zinsgrenze wird nach neoklassischer Auffassung verhindert, dass die von den jeweiligen Zinssätzen abhängigen Investitionen, seien diese in den privaten Konsum oder in Realkapital auf Beschäftigung bremsend sich auswirken.
Der Vorschlag von Hicks, die Zinsen durch die Ausweitung der Geldmenge zu beeinflussen, haben sich allenfalls als eine Art Verpuffungseffekt verzeitigt, da eine erhöhte Liquiditätspräferenz direkt in die sog. Liquiitätsfalle führt. Es kommt zur vollkommenen Liquiditätspräferenz, also Umstrukturierung der Vermögenshaltung soweit wie möglich zugunsten der Geldhaltung, wie wir das in den letzten Jahren sehen durften. Zusätzliches Zentralbankgeld führt damit mitnichten zu einer Erhöhung der gesamtwirtschaftlichen Aktivitäten im Sinne von Investitionstätigkeiten im privaten Konsum- wie privatwirtschaftlichen Realkapitalsektor.

Nimmt man die Entwicklung der Konsumausgaben der privaten Haushalte in Italien in den letzten zehn Jahren, die eine leichte Steigerung beinhaltet ebenso zur Kenntnis wie die Arbeitslosenquote von über 11%, dann trifft kein einziges der klassischen wie neoklassischen Modelle zur Beschreibung der unfreiwilligen Arbeitslosigkeit zu. Lagen die Bruttoanlageinvestitionen in % des BIP in Italien im Jahr 2005 noch bei über 21% so sanken sie in 2017 auf niedrige 17%, was einem Rückgang um 20% entspricht, obwohl in den letzten Jahren die EZB mit ihrer massiven Geldpolitik eigentlich das Gegenteil bewirken wollte. Der ehemalige Fed-Ökonom Gauti Eggertson und Koautoren haben die Frage untersucht, ob Negativzinsen die Wirtschaft tatsächlich stützen.

Vor dem Hintergrund, dass „es () keinen Konsens über die Wirkung von Negativzinsen, weder empirisch noch theoretisch (gibt)“ , untersuchten sie den Euro-Raum als einen Sonderfall und zeigten, dass die Einlagenzinsen seit 2008 als Folge der Finanzkrise ungewöhnlich hoch und höher als der Leitzins lagen. Die Einlagenzinsen in Europa setzten ihren Abwärtstrend ab 2009, als der Leitzins kräftig auf nahe Null gesenkt wurde, bis heute fort, ohne die Nulllinie zu erreichen. In Deutschland allerdings, wo die Einlagenzinsen vorher deutlich niedriger waren als der Leitzins, kehrte sich das sofort um.

Eine weitere Kuriosität sind die Kreditzinsentwicklungen, die für die Übertragung der Geldpolitik auf die Wirtschaft erheblich wichtiger sind, als die Einlagenzinsen, wie wir mehrfach beschrieben haben. Nach Adam Riese sollten niedrige Einlagenzinsen ja das Konsumverhalten stimulieren, weil es wenig Sinn macht, Geld auf der Bank liegen zu lassen, ja sogar bei der reinen Geldaufbewahrung durch Niedrigzinsen und Inflation das Rsiko steigt, Geld sogar noch zu verlieren. Aber mitnichten; sogar der gegenläufige Effekt ist sichtbar. Manche Sparer sparen trotzdem um so mehr, um ihr Sparziel nicht aus den Augen zu verlieren. Ein gänzlich unvernünftiges Verhalten, selbstschädigend zudem.

Dem obersten Prinzip Hoffnung folgend, harren die Notenbanker darauf, dass mit sinkenden Leitzinsen auch die Kreditzinsen sinken und Unternehmen wie Bauherren leichter und billiger Kredit für Investitionen und klamme Haushalte Kredit für Konsum bekommen. Eggertson und Koautoren kommen zu dem vorsichtig formulierten Ergebnis, dass die Kreditzinsen jeweils „erhöht“ blieben, nachdem die Leitzinsen die Nulllinie durchbrochen hatten. Was sie festellen bzw. als hoch signifikant aus ihren Entwicklungsgrafiken vermuten, ist, dass sich die Einlagenzinsen der Banken von den Leitzinsen entkoppeln, je näher diese der Nulllinie kommen. Insgesamt betrachtet zeigt die Studie aber, dass die geldpolitischen Effekte sehr unterschiedlich in den einzelnen europäischen Volkswirtschaften ausfallen, in der Schweiz anders als in Italien oder in Deutschland.

Für die deutsche Situation ist die Studie mit dem Titel: „Lending under negative interest rates“11 erhellend, steigern Leitzinssenkungen der Notenbanken normalerweise die Gewinne der Privat- und Geschäftsbanken, weil deren Forderungen langfristiger sind als die Verbindlichkeiten. Wie wir bereits besprochen haben, schlagen Zinssenkungen schneller auf die Verbindlichkeiten aufgrund unterschiedlicher Duration von Forderungen und Verbindlichkeiten durch, gleichzeitig können Banken aber gerade deshalb auch wesentlich länger höhere Zinsen für ausgereichte Kredite einstreichen.
Warum sollten Banken ihr Kreditgeschäft durch neue Kreditausreichungen also schwächen? Warum sollten sie die prononcierte Eigenkapitalrendite und damit ihre Attraktivität für Finanzinvestoren herunterreden und letztlich die Renditen für die Investoren und Anteilseigentümer riskieren?

Wir haben gesehen, dass für Banken und deren Finanzinvestoren die Situation brenzlig wird, wenn die Einlagenzinsen auf einem bestimmten Niveau über Null festsitzen und Kreditzinsen sinken und somit sich auch die Durationsschere zuungunsten der Bank verkleinert. Gleichwohl die Geldpolitik der EZB europaweit Gültigkeit besitzt, ist, anders als in Deutschland, die Nullzinsgrenze bei den Einlagenzinsen in den anderen europäischen Ländern meist nicht erreicht. Dies im Verein mit der Tatsache, dass die volkswirtschaftlich schwächeren Lander, also jene, deren Handelsbilanz negativ ist und die also unter erheblichen Mittelabflüssen leiden, von den billigen Krediten, die die EZB an die Geschäftsbanken ausreicht, stark profitieren, führt schließlich dazu, dass die Kreditinstitute aus diesen Ländern weniger angewiesen sind auf Einleger und deshalb auch die Einlagenzinsen senken können.

Isoliert betrachtet macht also eine italienische Bank alles richtig, wenn sie die Renditen ihrer langlaufenden Forderungen genießt und sich weniger um das nun stetig unprofitablere Kreditgeschäft kümmert, gleichwohl die Notenbank ihr großzügig mit billigen Krediten hinterher läuft. Wem sollte sie auch diese Kreditofferten zugute kommen lassen, hat sie doch faule Kredite schon genug im Portfolio und nach der alten Bankerregel: schmeiße schlechtem Geld kein gutes hinter her, verharrt sie lieber in Schockstarre.

Schockstarre deshalb, weil wie im Falle der Unicredit auch nur leichteste Verschiebungen im Kreditportfolio einer Bank fürchten muss, die eigentlich bereits so hoch verschuldet war und heute noch ist, dass von einer verschleppten Insolvenz gesprochen werden müsste. So auch der italienische Staat, der in Europa Systemrelevanz beanspruchen darf, mehr als Griechenland, Portugal und Irland zusammen, und deshalb wohl weiter finanziert wird durch die EZB Geldpolitik und deren Anschlussportfolios, die Rettungsschirme und die mit Sicherheit demnächst folgenden Eurobonds.

Deutsche Kreditinstitute, die unter anderem wegen des deutschen Handelsbilanzüberschusses hohe Geldzuflüsse ausweisen, müssen auf ihre hohen Guthaben bei der Zentralbank Negativzinsen erdulden, die sie nicht an ihre Einlagenkunden weitergeben können. Das drückt auf die Rentabilität und provoziert die Aussage: „Wenn die Kreditvergabe der Banken von ihrer Profitabilität abhängt, dann wirken Negativzinsen sogar kontraproduktiv.“12

Negativzinsen scheinen also der Wirtschaft zu schaden, weil sie, entgegen aller volkswirtschaftlichen Vernunft, weniger Kredit bekommt, als intendiert. Ein Blick auf die Prämissen und Ableitungen sowie die funktionalen Relationen dieser „Vernunft“ scheint also mehr als angebracht.
Eggertson und Koautoren ziehen daher auch eine Linie zu den Finanzmärkten, weil sie vermuten, dass Geschäftsbanken mit abnehmender Profitabilität – wie etwa die Deutsche Bank – weniger erfolgreich dabei sind, an den Kapitalmärkten frisches Geld aufzunehmen und infolge dessen auch weniger leicht, willentlich oder nicht, Kredite vergeben können, ohne ihre für die Investoren so wichtige Eigenkapitalrendite auf einem attraktiven Niveau halten zu können.

Die Verbindung von finanzieller Lage der Geschäftsbanken und der gesamtwirtschaftlich Entwicklung innerhalb einer Volkswirtschaft wird nach wie vor von den europäischen Notenbankern ins Zentrum ihres Handelns und Denkens gestellt, owohl doch die Situation in Europa selbst geradezu auf eine Abkopplung bis hin zu konträren Effekten zwischen einzelnen Volkswirtschaften zustrebt. Scheint vordergründig die EZB Niedrigzinspolitik handelsbilanzschwachen Ländern zu helfen, wobei diese Hilfe aber nie den Kern des Problems trifft, sondern nur Zeit erkauft, in der nichts passiert, also weder die gesamtwirtschaftliche Lage sich fundamental verbessert noch sich dramatisch verschlechtert, so wirken dieselben geldpolitischen Maßnahmen und Mechanismen in Ländern mit hohem Bilanzüberschuss geradezu kontraproduktiv.
So erkennt man z.B. an den deutschen Aktienmärkten, dass die bei den Bank überaus schlechte Kreditsituation hier von besonderem Vorteil zu sein scheint, sind doch die Steigerungsraten der Indexe erfreulich und erheblich. Die Refinanzierung über die Börsen scheint jedenfalls Banken mehr und mehr überflüssig zu machen.

Häring beschreibt sehr schön den „Heiße Kartoffel Effekt“, der der Politik der Negativzinsen gleichsam parasitär in dieser Situation immanent zu sein scheint: „Denn der Kreditnehmer wird das Geld in der Regel an jemand überweisen, der sein Konto bei einer anderen Bank hat. Im Zuge der Abwicklung der Überweisung wandert das negativ verzinste Zentralbankguthaben zur Empfängerbank. Dieser Effekt, den die Bank von England Heiße-Kartoffel-Effekt nannte, kommt in den üblichen Modellen, die Ökonomen verwenden, allerdings nicht vor“. 13

Die Sichtweise auf das gleiche Phänomen des Niedrigzinses im Vergleich zwischen Unicredit und Deutscher Bank hätte bestimmt ein gerütteltes Maß an Karikatur volkswirtschaftlicher Lehrbücher parat.



Anmerkungen:

1 Siehe Webseite mandelbrod.de und
Benoît Mandelbrot: Die fraktale Geometrie der Natur. ISBN 3-7643-2646-8 sowie
Benoit Mandelbrot/Richard L. Hudson: The (mis)behavior of markets. A fractal view of risk, ruin and reward. Basic Books, New York 2004

2 Mandelbrot wandte seine Mathematik natürlich auch auf andere Gebiete an wie z.B. die Strömungsmechanik und die Kosmologie, wo er die "fraktale Verteilung der Sterne im Universum in Analagie zum sog. Cantor-Staub beschrieb.

3 In der Versicherungsmathematik verwendet man Heavy-tail- (oder auch Heavy-tailed-) Verteilungen zur Modellierung von Großschäden und Extremereignissen. Haftpflichtsparten bezeichnet man wegen ihrer langen Abwicklungsdauer auch als sogenannte Long-tail-Sparten. Dagegen sind Versicherungssparten wie die Kaskoversicherung, die Hausrat- oder Glasversicherung sogenannte Short-tail-Sparten. Die Abwicklung der Schäden in diesen Short-tail-Sparten ist im Allgemeinen kurz. In den Long-tail-Sparten sind Abwicklungsdauern über 40 Jahre keine Seltenheit.
Auch in der Finanzwirtschaft sind Heavy Tails von Bedeutung. So zeigten Benoit Mandelbrot und Eugene Fama, dass die Renditen von Aktien und anderen spekulativen Anlagen erheblich von der Normalverteilung abweichen und in der Regel heavy-tailed sind.
Siehe: Mandelbrot, B. (1963), The Variation of Certain Speculative Prices, in: Journal of Business, Vol. 36, No. 4, S. 394--419 und
Fama, E.F. (1965), The Behavior of Stock-Market Prices, in: Journal of Business, Vol. 38, No. 1, S. 34--105.

4 Von exakter (oder strikter) Selbstähnlichkeit ist die Rede, wenn bei unendlicher Vergrößerung des untersuchten Objekts immer wieder die ursprüngliche Struktur erhalten wird, ohne jemals eine elementare Feinstruktur zu erhalten. Exakte Selbstähnlichkeit ist praktisch nur bei mathematisch (z. B. durch ein iteriertes Funktionen-System) erzeugten Objekten zu finden.
Real existierende Beispiele wären z. B. die Verästelung von Blutgefäßen, Farnblättern oder Teilen eines Blumenkohls (das wird bei der Sorte Romanesco sehr deutlich), die in einfacher Vergrößerung dem Blumenkohlkopf sehr ähnlich sind. Bei realen Beispielen lässt sich die Vergrößerung selbstverständlich nicht bis ins Unendliche fortsetzen, wie es bei idealen Objekten der Fall wäre.
Auch beliebige Abbildungen der realen Welt weisen Selbstähnlichkeiten auf, die z. B. bei der fraktalen Bildkompression oder der fraktalen Tonkompression genutzt werden.
Die Rekurrenzen bezeichnen den Aufruf oder die Definition einer Funktion durch sich selbst, die demzufolge selbstähnlich sind.
Die Selbstähnlichkeit ist ein Phänomen, das oft in der Natur auftritt. Eine kennzeichnende Zahl für die immer wiederkehrende Selbstähnlichkeit ist der Goldene Schnitt.
In der Linguistik findet diese Form der Selbstähnlichkeit ihren theoretischen Ansatz im sog. "Zipfschen Gesetzt". Das Zipfsche Gesetz (nach George Kingsley Zipf, der dieses Gesetz in den 1930er Jahren aufstellte) ist ein Modell, mit dessen Hilfe man bei bestimmten Größen, die in eine Rangfolge gebracht werden, deren Wert aus ihrem Rang abschätzen kann. Häufige Verwendung findet das Gesetz in der Linguistik, speziell in der Korpuslinguistik und Quantitativen Linguistik, wo es zum Beispiel die Häufigkeit von Wörtern in einem Text zur Rangfolge in Beziehung setzt. Das Zipfsche Gesetz markierte den Beginn der Quantitativen Linguistik.
Ihm liegt ein Potenzgesetz zugrunde, das von der Pareto-Verteilung mathematisch beschrieben wird.(Wikipedia)

5 Internet
Das Internet ist ein riesiges Netzwerk mit emergenten Phänomenen wie selbstähnlicher Skalierung in den Burst-Mustern seines Datenverkehrs und skalenfreier Struktur in der Verbindungstopologie.
Siehe: W. Willinger, R. Govindan, S. Jamin, V. Paxson, S. Shenker: Scaling phenomena in the Internet. Critically examining criticality. in: Proceedings of the National Academy of Sciences of the United States of America (PNAS). Suppl 1. Washington 99.2002, (19. Febr.), 2573-2580. ISSN 0027-8424
Weblogs
Auch andere selbstlinkende Internet-Plattformen wie Weblogs zeigen einen bestimmten Zusammenhang: neue Weblogs linken bevorzugt - d.h. mit höherer Wahrscheinlichkeit - auf schon beliebte Weblogs und machen diese noch beliebter.
Siehe Power Laws, Weblogs, and Inequality
Dieser Verlinkungs-Algorithmus ist übrigens auch die Regel für die Erstellung eines skalenfreien Netzes.

6 Iteration in der Volks- bzw. Betriebswirtschaftslehre bezeichnet ein Verfahren zur schrittweisen Lösung einer Gleichung oder eines Gleichungssystems. Mithilfe einer ersten Näherungslösung werden weitere Näherungslösungen berechnet, wobei diese Folge von Näherungslösungen unter gewissen Voraussetzungen gegen einen Grenzwert geht, der die Lösung des Gleichungssystems darstellt. (Gabler)

7 D. Ricardo: Grundsätze der Politischen Ökonomie und der Besteuerung, Marburg: Metropolis, 1994, Kap. 21, S. 245-248

8 Effektive Nachfrage: auf Keynes zurückgehendes Konzept, nach dem zumindest kurzfristig das Niveau der gesamtwirtschaftlichen Produktion durch die Höhe der am Gütermarkt auftretenden aggregierten Nachfrage bestimmt wird. Zur Vermeidung unerwünschter Lagerbestandsänderungen produzieren die Unternehmen nur so viel, wie sie aufgrund der von ihnen erwarteten Nachfrage auch absetzen können. Dies setzt die genaue Kenntnis der effektiven Nachfrage voraus. Entsprechend passen sie die Höhe ihrer Arbeitsnachfrage an.

9 J.M. Keynes: a.a.O. Kap.3, S. 24

10 John Hicks, Franco Modigliani (1918-2002) und Paul Samuelson

11 Florian Heider, Farzad Saidi, and Glenn Schepens: Life Below Zero: Bank Lending Under Negative Policy Rates, April 13, 2017 PDF

12 G. Eggertsson, R. Juelsrud, E. Wold, Brown University, Norwegian Business School 2017: Are negative nominal interest rates expansionary? PDF.

13 In Handelsblatt print: Nr. 243 vom 18.12.2017 Seite 012



Foto: monika m. seibel www.photographie-web.de



zurück ...

weiter ...




Ihr Kommentar


Falls Sie Stellung nehmen, etwas ergänzen oder korrigieren möchten, können sie das hier gerne tun. Wir freuen uns über Ihre Nachricht.