Der Normenstreit
Franz Rieder • Technik – normativ? Vom Vorrang der Technischen Entwicklung (nicht lektorierter Rohentwurf) (Last Update: 01.06.2019)
Innerhalb der Wissenschaft der Ökonomie hat Technik bislang einen residualen Status. Sie steht lediglich unter einem Nutzenkalkül, innerhalb einer Zweck-Mittel-Relation als wichtiger, sogar wesentlicher Teil des ökonomischen Denkens, aber eben lediglich als ein Teil. Technik wird daher in der Ökonomik lediglich betrachtet als eine Investition, die sich auszahlt oder nicht. Nicht jeder technischen Neuerung wird sogleich aus dem Grund, dass sie eine Erneuerung darstellt, mit investivem Verhalten begegnet. Zumal neben dem investiven Risiko mit technischen Erneuerung nicht unerhebliche, personelle, organisatorische und strukturelle Veränderung sowohl mikro- wie makroökonomisch einhergehen. Die mikroökonomischen Prozesse, die oft unter dem Terminus: „Changemanangement“ zusammengefasst werden, sind mitunter aufwendiger und risikoreicher als die Prozesse, die mit technischen Erneuerungen verbunden sind und den Gesamtmarkt betreffen. Im Rahmen von Digitalisierung scheint sich dieses Verhältnis neuerdings anzugleichen.
Technische Entwicklung ist reversibel. Wir betrachten bis hierher nicht die irreversiblen Folgen Technischer Entwicklungen auf die Biosphäre und auch nicht den Teilbereich der Ökonomik, der sich damit beschäftigt, die Ökologie. Uns geht es darum festzuhalten, dass Wissen, welches mit der Technischen Entwicklung verbunden ist, sowohl als ein praktisches wie theoretisches Wissen sich verändert. Diese Veränderung kann total sein, also ein Vergessen. Dies betrifft ebenso die damit verbundenen praktischen Fähigkeiten. Viele Technische Entwicklungen ersetzen also teilweise bis total vorhandene praktische Kompetenzen und Zusammenhänge und wir kennen keinen Diskriminationspunkt, der vorheriges oder späteres Wissen wie Kompetenzen als eine höhere, bessere Form erkennen ließe.
Unstrittig, sowohl in der Ökonomik wie der Philosophie ist, dass Technik neue Erkenntnisse schafft und neue Ideen hervorbringt. Und diese Dimension der Technik wie die damit verbundenen Fähigkeiten des Umgangs mit Technik, sind reversibel. Wir müssen scharf unterscheiden zwischen dieser technik-immanenten Blickrichtung und einer Blickrichtung, die darüber hinausgeht und die Folgen der Technischen Entwicklung außerhalb mikro- und makroökonomischer Betrachtungen reflektiert. Diese technik-transzendierende Blickrichtung nimmt die Folgen der technischen Entwicklung in den Fokus mit der Natur und den sozialen sowie kulturellen Verhältnissen des menschlichen Daseins.
Es bliebe ein weiterer Umgang mit dem Thema Technische Entwicklung, der weder die ökonomische Blickrichtung immanent noch transzendierend befragt, sondern eine Technische Entwicklung innerhalb einer nicht-marktwirtschaftlichen Verfassung vorstellt. Das sei zur Vollständigkeit hier bereits vermerkt, wird uns aber erst viel später eingehender beschäftigen.
Immanent betrachtet wird Technik nicht verstanden. Weil Geld missverstanden wird. Und damit bleibt natürlich auch der Zusammenhang von Technik und Geld unverstanden. Geld ist für die meisten Menschen eine Gefühlssache. In es wird viel hineininterpretiert, seine Zusammenhänge und Wirkungen werden mystifiziert.; und wir sprechen dabei nicht nur über Laien mit starken Defiziten bei den Grundrechenarten, sondern auch über die sog. Finanzexperten, die sich auf vielen Ebenen und Berufen um „das goldnen Flies“ herum positionieren.
Dass Geld falsch gedacht wird, haben wir an verschiedensten Stellen schon herausgearbeitet. Was an dieser Stelle im Zusammenhang mit Technik noch fokussiert werden muss, ist die Tatsache, dass Geld in einer „Produktions- bzw. Produzentenwirtschaft“, die wir aus dem Verhältnis von Gläubiger-Schuldner-Beziehungen heraus beschrieben haben, zu einer Überproduktion von Geld führt. Laufend wird Geld (aus dem Nichts) geschaffen, zusätzlichen Geld, das Eigentümer, also Gesellschafter, Investoren, Anteilseigner, persönlich haftende Unternehmer etc. mit zusätzlicher Liquidität versorgt und Arbeitnehmer bzw. Beamte und Angestellte mit steigenden Löhnen und Gehältern.
Aus
den Gläubiger-Schuldner-Beziehungen, so sahen wir, entsteht eine
Geld- und Investitionsdynamik, die Gewinne entstehen lässt.
Binswanger verweist zurecht darauf, dass die Gewinne in einer
zeitlich asynchronen Art zwischen Angebot und Nachfrage entstehen,
weil die „Produktion
dem Verkauf der Güter vorausläuft und somit das früher
produzierte Angebot auf die Nachfrage von heute trifft.“Binswanger
(2015)1
Nun
muss man wissen, dass diese zeitlich spätere Nachfrage in den
meisten Fällen höher ausfallen kann, als die Kosten, die
zur Produktion, genau gesagt für den Aufbau von
Produktionskapazitäten, des zeitlich vorlaufenden Angebots
benötigt wurden, zumal das durch Kredite geschaffene Geld,
welches zur Produktion nötig war in der Regel einen geringeren
Sockel an Kapitalkosten bilanziell repräsentiert, als der
entsprechende Kostensockel und auch steuerlich günstiger
anfällt.
Wenn nun die Nachfrage höher ausfällt als vorkalkuliert, ergeben sich jene gewünschten, zusätzlichen Gewinnparameter wie Skaleneffekte oder geringer ausfallende Grenz- bzw. Differenzialkosten pro Ausgabeeinheit bzw. Stückpreis. Ist also die Nachfrage höher als die für die Produktion des Angebotes angefallenen Kosten, spricht man von Gewinn, eigentlich von Erlösen, die die Grundlage wirtschaftlichen Wachstums wiederum bilden. In den gängigen Wirtschaftstheorien wird im umgekehrten Fall, wenn also die Nachfrage sowohl quantitativ wie auch wertmäßig geringer ausfällt, von einer Krise gesprochen, einer Entwicklung hin zu geringerem Wohlstand und Wettbewerbsfähigkeit, signifikante Einschränkung des Entwicklungspotenzials, Liquiditätseinbußen, Konkurs und Arbeitslosigkeit.
Es
ist nicht schwer zu erkennen, dass die Erlöse keine festen
Größen sind, sondern eine Bandbreite haben, die es den
Unternehmen, den Produzenten erlaubt, sich Schwankungen zwischen
Angebot und Nachfrage durch höhere und niedrigere Erlöse
anzupassen. Natürlich gibt es weitere Anpassungsmechanismen in
den Bereichen Steuern und Abgaben, bilanzielle Möglichkeiten und
Anpassungen im Bereich der Beschäftigung. Wesentlich aber
bleibt, dass durch die zeitliche Asynchronie zwischen
Produktionskapazitäten und Nachfrage eine Krise möglich,
aber auch vermeidbar ist, da Mechanismen der Anpassung vorhanden
sind. Ebenso leicht ist zu erkennen, dass es auf dieser Grundlage
keine „Realproduktion“ geben kann, in der zeitlich genau
jene Menge an Waren und Dienstleistungen angeboten wie eben
nachgefragt werden. In einer Realproduktion2
wäre Geld bzw. die Geldmenge genau jene, die auf Angebots- und
Nachfrageseite nötig wäre, also für die Produktion und
die Konsumtion (inkl. Distribution, Steuern und Abgaben).
In einer
Produzentenwirtschaft kann so viel Geld erzeugt werden, wie
Unternehmen glauben und mit ihrer Produktion dafür zu sorgen,
dass die Bedürfnisse der Menschen, die durch Produkte,
Dienstleistungen und andere Warenformen, also ver- bzw. kaufbaren
Einheiten, befriedigbar bleiben.
Wir bewegen uns, sprechen wir vom Verhältnis zwischen Angebot und Nachfrage also in einem Näherungssystem, mathematisch ausgedrückt, in einer Differenzialrechnung, die der Wirtschaft eine größtmögliche Anpassungselastizität ermöglicht. Eine Philosophie, etwa vorgestellt als Technikphilosophie, findet allein schon bei dieser Form der immanenten Betrachtung eine Grenze ihrer normativen Annahmen und Aussagen. Sie unterschätzt die Dynamik der ökonomischen Innovationsfähigkeit zu oft und zu grundsätzlich. Ökonomisch betrachtet ist aber auch die marktwirtschaftliche Dynamik in entwickelten Industriegesellschaften begrenzt. Steht auch fast unbegrenzt Geld für Investitionen zur Verfügung, so bleibt das Märchen vom ewig sprudelnden Goldesel eben ein Märchen. Sind die technik-transzendierenden Grenzen wie etwa die Natur bzw. die Umweltwelt und Biosphären-Schäden nicht grenzenlos hinnehmbar, die Ressourcengrenzen, sowohl was die natürlichen wie humanen betrifft, nicht ignorierbar, so besteht eine weitere Begrenzung der marktwirtschaftlichen und also auch der Technischen Entwicklung, das ist das begrenzte Reservoir an wirtschaftlich brauchbaren Ideen im Verhältnis zum vorhandenen Kapital.
Es gibt wesentlich mehr Kapital als Ideen. Kapitalgeber, heute zurecht Risikokapitalgeber genannt, wenn es um neue Märkte und neue Ideen geht, geben Unsummen aus für Technische Entwicklungen, die teilweise kindlichen Charakter und noch weniger Bedeutung für die Wirtschaftsentwicklung haben. So eine geringe Renditechance wie im Bereich Risikokapital, hat es in der Geschichte der Ökonomie noch nicht gegeben. Daran ändern auch die sagenhaften Rediten bei den wenigen erfolgreichen, neuen Marktteilnehmern aus der sog. Plattform-Ökonomie der letzten zwanzig Jahre nichts. Aus den meisten Entrepreneurs, selbst mit dem sog. „Einhorn“-Status, wird nichts oder ein gerade noch lebensfähiger Rohrkrepierer. Neue Unternehmen heißt nicht wirklich zugleich auch neue Ideen, die geschäftsfähig sind.
Immanent betrachtet ist also das normative Element die unbedingte Aufrechterhaltung der bestehenden Dynamik der marktwirtschaftlichen Produktion. Das technische Pendant, welches den normativen Anspruch marktwirtschaftlicher Produktion theoretisch und praktisch umsetzt, ist die sog. Wissensökonomie. Sie leitet heute große Teile der Geldströme in die sog. Digitalwirtschaft bzw. in die Digitalisierung traditioneller Unternehmen und Branchen und prägt zugleich das Bild der bestehenden Ökonomie im Sinne des Changemanagements. In ihr werden Ideen, Erfindungen und Produkte wie Dienstleistungen entwickelt, die den Anschein von Innovationen haben. Unter dem Normativ ständiger Innovation und Transformation bestehender Geschäftsmodelle gilt ihre Konzentration auf rasant zunehmende Individualisierung ihrer Produkte und Dienstleistungen.
Eine der zur Zeit vielversprechendsten Innovationen, die Künstliche Intelligenz (KI), ist bereits fast siebzig Jahre alt, älter, als manch traditionelles Unternehmen überhaupt geworden ist. Die Geschichte der KI ist die Geschichte aufgebauschter Erwartungen, die regelmäßig enttäuscht wurden. Die ersten künstlichen Neuronen wurden bereits in den 1950er Jahren entwickelt, Forscher träumten vom „Elektronengehirn“. Doch es tat sich zunächst wenig. Mit der Erfindung des Mikrochips in den 1970er und der Explosion der Rechenkapazitäten ab den 1980er Jahren bauschten sich die Erwartungen wieder auf. Japan beispielsweise begann 1982 mit dem Projekt „Fifth Generation Computer Systems“. Es gilt heute als teurer Fehlschlag. Dann kam gewissermaßen ein KI-Winter, bis sie neuerdings zum wiederholten Male sich zu der Innovation schlechthin aufschwingt.
Und
der Streit geht weiter. „Da ist keine echte Intelligenz“,
zitiert die New York Times den KI-Forscher Michael I. Jordan. Jordan
ist Professor für Informatik an der University of Berkeley und
verfasste ein vielbeachtetes Essay zum Thema KI auf Medium.com, das
die teils hochgestochenen Erwartungen rund
um den KI-Hype dämpft. „Ich glaube, in diese
Brute-Force-Methoden sollte man nicht zu viele Hoffnungen setzen“,
zitiert ihn die US-Zeitung weiter.
Jahrelang gab es verschiedene
Lager im Bereich der künstlichen Intelligenz. Die einen sagten:
Logik ist der Grundbaustein der Intelligenz. Sie haben
Experten-Systeme und logik-basierte Systeme entwickelt – die
anderen sagten: Statistik und Wahrscheinlichkeitstheorie sind die
Hauptgrundbausteine der Intelligenz3 .
Die intelligente Idee, die Logik mit Stochastik verbindet steht also
noch aus. Und ob dann das, was dabei herauskommt, den Namen KI
wirklich verdient und nicht doch weiterhin zum maschinellen Lernen zu
zählen sein wird, ist gänzlich ungewiss.
Zwischenzeitlich sucht sich das immense Risikokapital ständig neue Renditemöglichkeiten, die es neben den Plattformökonomien und der KI auch weiterhin auf den internationalen Finanz- und Immobilienmärkten findet; je nach Trend hier wie dort auch teure Spekulationsblasen, also Effekte übertriebener Renditeerwartungen hinter sich her ziehend. Wie das Risikokapital also je nach Renditeaussichten einmal seinen Weg in die traditionellen Märkte findet, so wechselt es schnell auch in die sog. Neuen Märkte. Und mit diesen Kapital-Transgressionen in zeitlich verzögertem Abstand einher gehen staatliche Regulierungen und Kontrollen, bzw. das alte Ideologiethema der Macht.
Der Normenstreit
Da, wo mit wenig Verstand jeder Innovation das Wort geredet wird, stellt sich sofort auch das Thema der Macht der Märkte. Was hier erneut fälschlicherweise mit dem politischen Begriff der Macht belegt, ja verschleiert wird, ist der Glaube an die Metaphysik der Technik und deren normativen Charakter. Der ruft den Einfluss der Politik auf die Bühne, einen scheinbar erneut wild gewordenen Kapitalismus auf den Neuen Märkten zu disziplinieren. Der normative Charakter der Märkte, so schreit es aus den Parlamenten, versetzt ein paar blutjunge Analysten oder Fondsmanager in die Lage, ganze Volkswirtschaften, besonders in den sog. Schwellenländern in die Knie zu zwingen, indem sie ihnen die Geldhähne zudrehen.
Ohne dabei auf die gleichzeitig vielfältigen anderen ökonomischen Einschränkungen zu blicken, finden seit 2007/08 um so leichter jene Zuspruch, die die demokratisch legitimierten Regierungen noch höher auf ihre Sockel hiefen und breite Zustimmung – auch in nicht ganz so demokratischen Kreisen – finden, die Märkte durch starke Regulierungen zu bändigen. Die Idee vom Primat der Politik tritt auf gegen die Idee, freie Märkte könnten sich selbst organisieren und machten bis zu einem gewissen Punkt Politik sogar überflüssig.
Normativ und sein Antonym: ‚deskriptiv‘ streiten um die Deutungshoheit dessen, was in der Welt vor sich geht. Die einen auf dem Feld der Märkte und die anderen auf dem der Politik. Und dabei stehen dann für eine gewisse Zeit eher die Märkte für Vernunft und Rationalität, die Politik für Chaos und Anarchie wie umgekehrt. Wir erkennen, dass der normative Charakter wie sein Antonym nicht aus der Technischen Entwicklung allein stammen, sondern aus der Verzahnung von Wirtschaft und Politik, wobei die Politik ihren vorherrschenden Status, ihre Macht zur Regulation, mehr oder weniger in das wirtschaftliche Geschehen einbringt. Dabei besteht immer die Gefahr, dass das politische Normativ das ökonomische so sehr beschneidet, dass Konjunkturen und die gut laufenden Märkte in verschiedensten Volkswirtschaften negativ betroffen sein können. Verzahnung und Vernetzung von Märkten und Wertschöpfungsketten sowie internationaler Handel und Finanzmärkte, kurz Globalisierung, ermöglichen diese weitreichenden Effekte.
Nationale wie internationale Politikfelder werden besetzt und als Regulative in die ökonomischen Zusammenhänge gebracht. Dabei sind militärische Felder ebenso bedeutend, wie handelspolitische, fiskalische, besonders, wenn sie wie jüngst in den USA zu einer weitreichenden Steuerreform mit hohen Staats-Verschuldungseffekten führen, sowie geldpolitische, oder konstitutionelle Politikfelder, wie etwa die Einführung eines türkischen Präsidialsystem und die Ausbreitung populistischer Parteinenströmungen.
Sowohl für Anleger wie für Arbeitnehmer haben solche politischen Regulationen entscheidenden Einfluss. Notenbanken greifen zur Zeit heftig in eine stark von nationalistischen Verhaltensweisen geprägte Politik ein, stimmen ihre geldpolitischen Ziele und Maßnahmen miteinander ab, während politische Vereinbarungen reihenweise außer Kraft gesetzt werden. Was wenige einsehen wollen, ist, dass Politik ohne Zweifel nach den großen Krisen der jüngsten Vergangeheit tatsächlich erfolgreich die Märkte bis zu einem gewissen Grad gebändigt, weitgehend sogar kontrolliert hat: durch höhere Auflagen für die Banken, durch eine sehr aktive Geldpolitik, in Europa durch die Schaffung eines Rettungsfonds, der die Bonität starker Staaten nutzt, um schwachen Staaten verbilligt Geld zu beschaffen, also gegen die eigenen politischen Verträge qusi zur Hintertür die EU als eine Transferunion langsam aber stetig einführt.
Auf
der anderen Seiten waren es z.B. die fünf großen
US-Plattform- und IT-Companies, die einen kaum verhüllten
Anspruch, die höhere Rationalität gegenüber der
Politik zu verkörpern, nicht nur öffentlich geäußert,
sondern auch in ihren Geschäftsmodellen umgesetzt haben. Erste
gegenläufige Regulierungen im Bereich Datenschutz durch die
europäischen Regierungen setzten normative Grenzen und deuten
jetzt schon darauf hin, dass Regierungen, zuminest in Europa, die
Einflüsse von Unternehmen und Wirtschaft auf politische Felder
nicht überborden lassen; der Gewinner dieses Kampfes zwischen
dem Träger politischer Macht und den gegenüber Politik
einflussreichen, privatwirtschaftlichen Institutionen steht natürlich
schon fest.
Die Frage ist also nicht, von wo aus der normative
Charakter seinen Ausgangspunkt nimmt, sondern wie sich unter dem
Primat der Politik, Wirtschaft und Politik prgmatisch einigen und
welche alltäglichen Bedeutungen dies für die Menschen haben
wird.
Kontrolle
und Regulierung können in den westlichen Ökonomien bislang
die „Verzerrungen“ in den Märkten beeinflussen. Sie
können aber nicht verhindern, dass es zu neuerlichen
Deregulierungen und Kontrollverlusten kommt. Und dies gilt für
beide Seiten. Das ist neu, denn bislang galt dies allein für den
Bereich der Wirtschaft und nicht auf dem Feld der Politik selbst. Auf
dem Feld der Wirtschaft sind maximales Wachstum und maximale Gewinne
in einem gewissen Maße selbstregulierend. Selbstregulierend
insofern, als sie Triebkräfte der Destabilisierung der
marktwirtschaftlichen Prozesse selbst sind.
Die Instabilität
der Marktwirtschaft hat also nicht nur inhärente ökonomische,
sondern auch politische Regulative zur Ursache, die sowohl wiederum
wirtschaftspolitischer Natur sein können wie aber auch rein
machtpolitischer Natur.
Die Ökonomie selbst tut sich bislang
schwer damit, was in der Finanzmarkttheorie längst bekannt ist:
Hohe Gewinne und großes Wachstum gibt es nur bei einem hohen,
unkalkulierbaren Risiko. Im Gegenteil; in der weit höher als der
Mikroökonomie angesehen Makroökonomie, immerhin das
Wirtschaftsfeld, das sowohl die Entwicklung der kulturellen wie der
sozialen Bedingungen als Folgen der Gesamtökonomie gerne als
ihre ureigensten Errungenschaften feiern möchte, wird nach wie
vor ein bis an die Grenzen des Möglichen gehendes
Wirtschaftswachstum angestrebt und glorifiziert, ohne die damit
entstehenden Risiken zu beachten und zu benennen, schon gar nicht in
öffentlichen Diskursen. Wirtschaftswachstum, so deren
Grundgesetz wirtschaftlichen Handelns oder oberstes Normativ, ist
gleich bedeutend mit gesellschaftlicher Wohlfahrt.
Einzig Inflation wird als Risikofaktor eines ungebremsten Wachstum erkannt und benannt. Und das heilende Gegengift gegen eine ausufernde Inflation wird gleich mit geliefert, das Zinsniveau, das durch die Notenbank zu gegebenem Zeitpunkt einfach erhöht wird. Dass aber die notgedrungen meist brachiale Erhöhung der Zinsen durch die Notenbanken das Wachstum ziemlich abrupt abwürgt und sozial wie kulturell enorm riskant ist, darüber schweigt die ehrwürdigen Gesellschaft der Wirtschaftsweisen und Lehrstuhlakademiker. Dass dies übrigens auch im umgekehrten Falle gilt, wie man leidlich erkennen kann zur Zeit, wird auch als scheinbar notwendiges Opfer bzw. Übel hingenommen. Hinnehmen müssen es vor allem die, die man dort zum Humankapital zählt und die ganz und gar nicht hingebungsvoll diesem scheinbaren ultimativen Normativ der Marktwirtschaft folgen wollen. Sie sind nicht risikoscheu, wenn sie nicht bereit sind, ein hohes Risiko in Bezug auf ihre Arbeit einzugehen. Sie sind aus Erfahrung und Umsicht klug, klug im Sinne von Vorsicht, wie dies übrigens auch weite Teile der Ökonomie sind bzw. wie dies im Kern eigentlich die Marktwirtschaft selbst ist.
Anpassungsfähig und vorsichtig sind die wesentlichen Eigenschaften der Mikroökonomie, selbst jener, der man kaum noch das Präfix: mikro zubilligt, weil sie auf großen Marktfeldern operiert. Aktiengesellschaften etwa wurden als Risikogemeinschaften gegründet, sind also Begrenzung von zu großen Risiken, vor allem bei Investitionen und Innovationen. Flexibilität und Vorsicht haben deshalb auch wenig mit moralischem Impetus in der Wirtschaft zu tun, also mehr mit pragmatischem. Bis auf wenige bekannte Fälle sind Aktiengesellschaften wie auch die Akteure auf den Finanzmärkten alles andere als Glücksspieler. Hasardeure leben in der Regel in solchen Landschaften selten lang.
Mit
jeder Technischen Erneuerung einher gehen meist doch „reelle“
Erwartungen an Erfolg und ein Exit-Plan, der im umgekehrten Fall das
Risiko so weit wie möglich reduziert. Natürlich sehen wir
die Hasardeure auf den „Neuen Märkten“, für die
ein reeller Umgang mit Geld, Wachstum und Politik nicht möglich
erscheint. Die investieren blind in die unterschiedlichsten Bereiche,
gerne in die Wissensökonomie und in die Konzepte von
Alternativwährungen wie etwa das Kryptogeld. Das galt als
absolut sicher, bevor es bereits kurze Zeit später gehackt wurde
und einigen Hasardeuren Millionen-Defizite bescherte. Gerade die
Kryptowährung zeigte schnell und eindringlich, dass eine wahre
Innovation, nämlich die Risiken und die Abhängigkeiten zu
überwinden, die in dem traditionellen, bankenbasierten
Geldsystem liegen und zum Geschäftsmodell zu entwickeln, nicht
nur selbst schnell zu einem unkontrollierbaren Spekulationsfeld und
Feld für Kriminelle werden kann.
Was scheinbar unangreifbar
stabile Algorithmen zu garantieren schienen, wurde einen Wimperschlag
zeitlich entfernt zu einem extrem risikoreichen, instabilen
Geschäftsmodell. Es braucht mehr als eine Idee. Es braucht auch
die praktische Vernunft.
Vom Vorrang der Technischen Entwicklung
Wenn
wir von der Technischen Entwicklung in einem ökonomischen Sinne
sprechen, dann innerhalb eines ökonomisch begrenzten
Bedeutungsbereiches, dessen paradigmatischer Anfang in der Trennung
der Arbeitsprozesse von den diese ausführenden Menschen bestimmt
ist. Die Trennung von menschlicher Arbeit und Arbeits- bzw.
Produktionsmitteln, zu denen Technik nun einmal gehört,
unterscheidet sich also von anderen Formen der Arbeit, in der die
menschliche Arbeit noch verbunden war mit den technischen
Arbeitsmitteln, meist bezeichnet als Werkzeug.
Das Werkzeug oder
auch das Instrument oder englisch das „tool“ bezeichnet
ein nicht zum menschlichen Körper gehörendes Objekt, mit
dem die Funktionen des eigenen Körpers erweitert werden und so
in dieser Extension ein Ziel, eine Handlungsabsicht erreicht werden
kann. Mit einem geschärften Gegenstand einen Tierkörper zu
zerteilen oder dies besser zu bewerkstelligen wäre damit das dem
Steinwerkzeug inhärente Ziel oder die Handlungs, bzw.
Herstellungsabsicht.
Das
englische „Tool“ beinhaltet durchaus auch den PC als ein
Werkzeug, mit dem man Rechenaufgaben besser und komplexer
bewerkstelligen kann, als mit den zehn Fingern an der Hand
oder mit einem Abakus, mit Rechenpfennigen oder Calculi, den
Rechensteinen4 .
Gleichwohl
zählen
wir den PC nicht zu den Werkzeugen, sondern zur Technik in unserem
Sinne bzw. zu unserem bestimmten Geltungsbereich. Ein PC als Tool,
als Werkzeug, erfasst diese Technik als Hardware. Der PC hat dann ein
Lang- und ein Kurzzeitgedächtnis, Arbeits- und
Festplatten-Speicher oder Memory, ein Mikrophon, einen Lautsprecher,
ggf. eine Kamera, eine Tastatur etc.
Aber
ein PC besteht auch aus Software, die den PC in die Lage versetzt,
etwas hervorzubringen, was Werkzeuge nicht können. Diese
qualitative Dimension von Technik umfasst alles, was Neuerungen,
Innovationen betrifft. Im Falle des PC wäre dies generell die
von der Maschine eigenständig ausgeführte
Steuerungsfunktion von beabsichtigten Prozessen wie dies etwa in
einer modernen, software-gesteuerten Alarmanlage der Fall ist.
Ohne an dieser Stelle eine Technikphilosophie schon anzustreben, ist diese Unterscheidung von sog. quantitativer und qualitativer Funktionalität von Technik wichtig. Natürlich um so mehr, als der Technische Fortschritt im Rahmen ökonomischer Geltung ohne diese Unterscheidung kaum auskommt5 . Technischer Fortschritt stellt natürlich sogleich die Frage, woran denn der Fortschritt sichtbar oder messbar werden könnte? Wird die Frage, ob mit dem Technischen Fortschritt auch die Schaffung von Arbeitsplätzen verbunden ist, gestellt, dann ist nicht nur eine Relation von Technik und Arbeit gesetzt, sondern in dieser auch der Vorrang der Technik vor der Arbeit behauptet, insofern jene diese maßgeblich bedingt. Das gilt natürlich auch für die gegenteilige Blickrichtung, nämlich die Verbindung von Technik und Arbeitslosigkeit, die mit Ricardo bereits Anfang des 19. Jhd. erstmals aufkam und bis heute, wo sie im Rahmen von strenger ökonomischer Betrachtung in der Diskussion um Rationalisierung und Automatisierung und aktuell unter Digitalisierung aufkommt, nichts an Aktualität verloren hat.
War seit Ricardo der Technische Fortschritt also verbunden mit dem Primat der Technik vor der menschlichen Arbeit, so drückte sich dies aus in einer quantitativen und qualitativen Betrachtung, in der der Technische Fortschritt einmal untersucht wurde unter dem Maß der Produktionsmenge – Input-Output-Verhältnis – zum anderen unter Innovationen. Die Produktionsmengenrelation war also eine Betrachtungsweise, die entweder die gleiche Menge an produzierten Erzeugnissen mit einem geringeren Einsatz an Arbeit oder Produktionsmitteln (Inputs) betrachtet oder eine höhere Menge mit dem gleichen Einsatz an Produktionsmitteln und Arbeit (Output), wobei Arbeit stets der Technik nachgeordnet blieb.
Die Verbesserung oder Verschlechterung der Input-Output-Relation war also eine quantitative Funktion des Faktors Arbeit in Relation zur Technik. Daraus entstanden dann die sog. Freisetzungs- und die sog. Kompensationstheorie als eben diese beiden quantitativen Blickrichtungen auf den Primat der Technik vor der Arbeit. Beide Blickrichtungen zusammen genommen ergeben als dann die volkswirtschaftlich Kennzahl „Totale Faktorproduktivität“, in der der Technische Fortschritt als ein, neben Arbeit und Kapital unerklärter Rest, als ein „Residualfaktor“ der Produktivität übrig bleibt.
Ist
also der Technische Fortschritt direkt verbunden mit wirtschaftlichem
Wachstum – oder auch dessen
Gegenteil, der Rezession – dann repräsentiert dieser
Faktor neben Arbeit und Kapital eine, durch
Weiterentwicklung bzw. Innovation hervorgebrachte
Produktivitätssteigerung und messbare Veränderung
bisheriger Input-Output-Relationen6 .
Ricardo
(1821) sah im Technischen Fortschritt einen Anstieg der
Arbeitslosigkeit – Freisetzung-These
– bei
konstant bleibender Nachfrage auf den Gütermärkten. Dieser
Freisetzungsthese schloss sich auch Marx an. Die schematische
Sichtweise der Freisetzungsthese, nachdem bei einem Technischen
Fortschritt die Produktivität steigt, gleichzeitig aber nicht
unbedingt auch die Nachfrage nach den Gütern, die mithilfe
dieser Technik produziert werden. Die Folge davon wäre
notwendigerweise eine steigende Arbeitslosigkeit, da ja weniger
Arbeit zur Erzeugung der gleichen Menge
an Gütern benötigt werde.
Hierzu
gäbe es eine Vielzahl an Beispielen, die diesen scheinbaren
Zusammenhang als eine notwendigen und empirischen bestätigen.
Die Krux an diesem impliziten Primat der Technik ist nur, dass sich
leicht ebenso viele Beispiele für den gegenteiligen Effekt, den
Kompensationseffekt finden lassen.
Nach der Kompensationstheorie
wird durch den Technischen Fortschritt auf der Basis von bestehenden,
effizienten Formen der Produktion, nicht nur die Menge der
produzierbaren Güter erhöht, sondern gleichzeitig, meist
mit zeitlich relativ kurzen Abständen, sinkt auch der Preis für
die nun effizienter produzierten Güter, da die Produktivität
der Arbeit steigt. Das hat zur Folge, dass das Realeinkommen im
Faktor Arbeit steigt und aufgrund des höheren Realeinkommens
auch der Konsum des betrachteten Gutes und anderer Güter steigt.
Mit also dem gleichen Arbeitsaufwand, ja sogar mit einer geringeren
Jahresarbeitszeit im Faktor Arbeit, steigt der Gesamtkonsum und führt
somit zu Einstellungen in der gleichen wie auch in anderen Branchen.
Der
Technische Fortschritt ist also beschäftigungsneutral, wenn der
Verlust an Arbeit in der einen zu einem Anstieg der Beschäftigung
in einer anderen Branche führt. Er kann sich auch insgesamt
positiv auswirken, also sowohl in der einen wie den anderen Branchen
zu einem Anstieg der Beschäftigung führen. Der Anstieg des
Lohnniveaus wäre dann als produktivitätsorientierte
Lohnpolitik zu betrachten.
Technischer Fortschritt kostet
natürlich auch Geld. Wenn von einer kostenniveauneutralen
Lohnpolitik die Rede ist, dann betrachtet man die Entwicklung der
Realeinkommen in Relation zu der Preisentwicklung. Auf längere
Sicht kann man in entwickelten Volkswirtschaften feststellen, dass
die Realeinkommen in Relation zu den Preisen signifikant stärker
gestiegen sind und dass in der Ökonomik dieser Anstieg dem
Technischen Fortschritt zugeschrieben wird.
Was also als ein „Residualfaktor“ bezeichnet wird, ist der maßgebliche, der bestimmende Faktor bei der Ermittlung von Produktivitätssteigerung und Reallohnentwicklung. Diese Ermittlung erfolgt über eine Form des logisch induktiven Schlussverfahrens in Verbindung mit einem Ausschlussverfahren – ausgeschlossen bzw. subtrahiert werden die Faktoren Arbeit (Lohnsummen) und Kapitaleinsatz bzw. -kosten – und ist also empirisch nicht verifizierbar; deshalb heißt dieser Wachstumsfaktor Residualfaktor.
Schaut
man auf den aktuellen Diskurs, dann herrscht historisch gesehen
einmal mehr die Freisetzung-These über die Kompensationstheorie.
Aus dem Primat der Technischen Entwicklung heraus hat sich in der
Öffentlichkeit sowohl in der Wissenschaft wie im allgemeinen
Diskurs die Ansicht verbreitet, dass mit einer Phase technischer
Erneuerung, wie sie zur Zeit unter Digitalisierung zusammengefasst
wird, auch ein Verlust an Erwerbsarbeit zwangsläufig einhergeht.
Automatisierung bzw. der Einsatz von Robotern wird demnach
menschliche Formen der Erwerbsarbeit, überwiegend und in breitem
Maße in der Industrieproduktion ersetzen. Deshalb, weil
Maschinen wie Industrieroboter jene Erwerbstätigkeiten
schneller, kostengünstiger und rentabler erbringen
werden.
Kompensationstheoretiker suchen verzweifelt nach den
Branchen, die dann die freigesetzten Erwerbsleistenden im Service,
als menschliche Assistenzsysteme im Bereich Finanzdienstleistungen
und Versicherungen etc. beschäftigen könnten. Wenn der
Primat der Technischen Entwicklung in weiten Teilen von
Dienstleistung und Produktion in absehbarer Zeit zu einer fast
ausschließlich automatisierten und digitalisierten Produktion
sich entwickelt – eine fast schon ökonomisch
eschatologische Perspektive – dann hat der Vorrang der
Technischen Entwicklung vor allen anderen Produktivkräften einen
Zustand erreicht, den man als ein Gebilde bezeichnen kann, in dem die
menschliche Arbeit ihren Status als eine, in der marxistischen
Theorie sogar als die einzige Produktivkraft so sehr verliert, dass
sie selbst zu ökonomischen Residualfaktor zu werden droht.
Begrenzter Durchblick
Der
Primat der Technischen Entwicklung ist heute so sehr in einem fast
eschatologischen Sinne in den ökonomischen Diskurs eingedrungen,
dass allenthalben ein Ausweg aus dem Freisetzungschaos am
Arbeitsmarkt und dessen sozio-politischen Folgen erdacht werden.
Die
theoretisch simplen Ansätze eines „Bedingungslosen
Grundeinkommens7
sind das sichtbare Zeichen dieser fast schon verschwörungstheoretisch
anmutenden Endzeitgedanken.
Sie beinhalten grundsätzlich die
Annahme, dass sich durch die Digitalisierung der Arbeitsprozesse
menschlicher Arbeit neben den Freisetzungseffekten keine
entsprechenden Kompensationseffekte ausbilden.
Und sie gründen
auf der strikt kausalen Annahme des Nutzenprinzips, dass also das
Kapital einzig sein Interesse am Technischen Fortschritt aus der
Ersetzung menschlicher Arbeit durch Automation und Digitalisierung
der Arbeitsprozesse zieht. Der Dispens eben jenes reziproken
Nutzenkalküls, dass Arbeit meistbietend zum Verkauf kommt, wird
sekundär und stillschweigend hingenommen.
Über den Technischen Fortschritt innerhalb der industriellen Phase war Arbeit und deren theoretische Bedeutung auch unter den ständig sich verändernden Arbeitsbedingungen und Anforderungen fast gleich bedeutend bzw. beachtet wie das Industriekapital. Die Akkumulation des Industriekapitals geschah, nehmen wir einmal Kapitaleinkünfte auf den Finanzmärkten aus, hauptsächlich über die Faktoren Technik und Arbeit, wobei die Technik sich als Surrogat menschlicher Arbeit entwickelte. Die Erfindung der Dampfmaschine, die den Anfang des industriellen Zeitalters markierte, ersetzte Muskelkraft durch die mechanische Übertragung thermodynamischer Energie.
Wenn heute von einer digitalen Revolution gesprochen wird, dann scheint es ausgemacht, dass fortan nicht mehr nur Muskelkraft, sondern auch das menschliche Denken durch Maschinen ersetzt werden soll. So meinen viele namhafte Ökonomen, dass durch Künstliche Intelligenz (KI) der Anteil der Erwerbsarbeit dramatisch zurückgehen wird; einmal mehr, ohne in die Geschichte der letzten zwei Jahrhunderte zu blicken und ohne moderne Formen der Produktion zu berücksichtigen.
Wenn
Erwerbsarbeit durch Digitalisierung und KI ein Ende bereitet wird,
wie dies Unternehmer wie Bill Gates und Elon Musk, Wissenschaftler
wie Stephen Hawking und Jeremy Rifkin oder auch Vertreter von
Experten-Kreisen wie etwa der Chaos Computer Club mit Constanze Kurz
und Frank Rieger – um nur ein paar wenige Namen der“Szene“
zu nennen – vertreten wird, dann gründen diese Ansichten
alle auf der Freisetzungs-Theorie und lassen konsequent den Faktor
Globalisierung außer acht.
Sie alle gehen davon aus, dass zu
allererst auf der Ebene der Preise sich deutliche Negativ-Effekte auf
den Arbeitsmärkten einstellen werden und der Preisverfall und
dessen negative Folgen über ganze Leit-Branchen sich ausbreiten
wird.
Durch die Produktion fast nur mittels Maschinen, würden
Produkte und Dienstleistungen sehr viel billiger werden, als dies auf
ganz normalen Konjunkturwege schon geschieht. Ohne Kompensation
werden demnach Maschinen die Erwerbsarbeit vom Markt verdrängen.
Bislang ist
davon wenig zu sehen. Untersuchungen in den USA und Europa belegen,
dass die Nachfrage nach und die Beschäftigung von Erwerbstätigen
in den unteren Lohnsektoren nicht gesunken, im Gegenteil, sogar
gestiegen sind. Einer, der am weitesten automatisierten
Industriezweige, die Automobilbranche, meldet seit 2010 regelmäßig
Beschäftigungszuwächse im unteren wie im oberen
Lohnsegment, was man in der Ökonomik ein „U-Profil“
nennt als grafisches Zeichen einer Polarisierung
der Arbeitsnachfrage.
Leider nimmt die Wissenschaft solche Formen
der Beschäftigungspolarisierung zum Anlass, rein
phänomenologisch über Beschäftigung nach zu denken,
also über Arten von Beschäftigung eine Erklärung für
dieses Phänomen zu finden.
„Der
tätigkeitsbasierte
Ansatz legt dar, wie die veränderte Technologie zu einer
Substitution von Routinetätigkeiten durch Computer und andere
Automatisierung führt. Als Folge davon steigt die Nachfrage nach
jenen Arbeitskräften, die Nicht-Routinetätigkeiten ausüben.
Dies sind sowohl kognitive, abstrakte und interaktive Tätigkeiten,
die am oberen Ende der Lohnverteilung angesiedelt sind, als auch
manuelle Aktivitäten am unteren Ende der Verteilung.
Entsprechend kann hiervon direkt die Hypothese der Polarisierung von
Beschäftigung und Lohnstruktur abgeleitet werden.“8
Wenn, wie im Falle von Deutschland, diese Untersuchungen ebene keine U-Profile in den entsprechenden Beschäftigungssegmenten, wo sie vermehrt auftreten müssten, ausweisen, spricht man gerne von „atypischen Beschäftigungsformen“, was weder die gewünschte Erklärung liefert noch aus der wissenschaftlich-methodischen Hilflosigkeit befreit.
Ein
besserer Ansatz wäre, von einer Veränderung der
Wertschöpfungsstruktur und deren neuen Formen
der globalen Koordination der Produktionsprozesse zu sprechen9 .
In den USA und in Europa –
und dies gilt auch für die asiatischen Hersteller – haben
sich in den letzten beiden Jahrzehnten Märkte und
Produktionsprozesse in der Automobilbranche extrem stark verändert.
Die wenigen
noch
übrig gebliebenen Hersteller agieren heute global und betreiben
Produktionen in beinahe allen international relevanten
Märkten.
Wettbewerbsdruck
und veränderte Marktanforderungen sowie eine globale Ausrichtung
führte in der Automobilindustrie zu neuen Formen der Produktion,
der Organisation und Planung sowie der Arbeitsprozesse, sogar
Forschung und Entwicklung blieben nicht unberührt.
Neue Technologien und effizientere Produktionsprozesse, vor allem die Modul- und Plattformkonzepte6 – nicht zu verwechseln mit digitalen Plattform-Ökonomien – wurden eingeführt, um Kosten zu senken, aber auch, um mit dem Anspruch der Kunden in Bezug auf Qualität, Sicherheit, Design, Verbrauch und Individualität Schritt zu halten. Eine Folge davon war, dass Hersteller große Bereiche ihrer früheren Kernkompetenzen nur noch durch Outsourcing sicher stellen konnten.
Während
die OEMs versuchen, den heute so wichtigen Markenwert ihrer Modelle
zu steigern, übernimmt die Zulieferindustrie immer mehr Aufgaben
im eigentlichen Produktionsprozess und verliert zunehmend das Präfix
„Zulieferer“. Diese Entwicklung und die
Lohnstückkosten-Situation in den traditionellen
Herstellerländern hatte zur Folge, dass die Anteile an der
Wertschöpfung in der Automobilproduktion komplett einem
Wandlungsprozess unterzogen werden mussten.
Wertschöpfungscluster
mit hohem Spezialisierungsgrad wurden realisiert, wobei sich in der
Automobilindustrie fünf verschiedene Gruppen von Spezialisten
herausbildeten:
Firmen,
die sich auf High-Technology-Komponenten spezialisieren.
Firmen,
die sich auf Systeme und Module spezialisieren.
Firmen,
die sich auf Entwicklungsaufgaben wie computer-gestütztes
Design, Prototypenbau und Testverfahren spezialisieren.
Firmen,
die sich auf die Gesamtmontage spezialisieren.10
Dieser
globale Change-Process zwang Hersteller wie Zulieferer zu erheblichen
Investitionen, um Kapazitäten in den sog. ‚emerging
marktes‘ wie etwa China und Indien aufzubauen (Roth, 2005). Wir
sehen einmal mehr, dass es weder der Wettbewerb noch andere Faktoren
auf Märkten oder in der Produktion allein sind, die diese Form
der Globalisierung mit den enormen Wandlungsprozessen in der
Automobilproduktion bis hin zum Aufbau neuer Märkte und
Kooperationen schaffen, sondern – wie wir stets betont haben –
dass diese Prozesse auf einer Grundlage der Eigentumsverschiebung
basieren, ohne die eine ausreichende Liquidität für solche
globalen Investitionen gar nicht möglich wäre.
Und es
ist schon bezeichnend für vieles im wissenschaftlichen
Verständnis und Diskurs, dass Ingenieure und andere Autoren aus
den Praxiszusammenhängen der Produktion viel eher und präziser
diesen Wandlungsprozess mit allen seinen nationalen wie globalen
Verbindungen zu beschreiben in der Lage sind, als die traditionellen
Grundlagen- und empirischen Wissenschaftler.
Wie eben bereits erwähnt, ist die Automobilindustrie durch eine starke Verflechtung und Einbindung der Zulieferer in die Produktionsabläufe gekennzeichnet. Die Automobilhersteller befinden sich also innerhalb eines Produktionsgeflechts und konzentrieren sich hauptsächlich auf die Bereiche Basis-Entwicklung und Endmontage kompletter Module und Systeme. Mit den so genannten Systemintegratoren oder Tier-1 Lieferanten entwickeln sie gemeinsam diese Systeme und Module, deren Produktion dann die Zulieferer im Outsourcing herstellen.
Die Integration im Produktionsprozess ist auf dieser Stufe sehr hoch, da die verschiedensten Konfigurationen aufeinander abgestimmt werden müssen. Manchmal kann man auch von regelrechten Kooperationen im Produktionsprozess sprechen. Die Lieferanten auf dieser Ebene bekommen auch einen sehr tiefen und genauen Einblick in die Partner-OEMs und deren Technologien. Dies bedeutet eine nicht zu unterschätzende Gefahr für die Automobilhersteller, da man sich und seine Kernkompetenzen Unternehmen ausliefert, die auch intensiv mit anderen, konkurrierenden Herstellern zusammenarbeiten.
Die Tier-1 Lieferanten lagern ihrerseits die Herstellung und Entwicklung der einzelnen Komponenten wiederum an Tier-2 Lieferanten aus. Die Tier-1 und Tier-2 Lieferanten entwickeln also gemeinsam Komponenten. Diese werden von den Tier-2 Unternehmen hergestellt und von den Tier-1 Unternehmen zu kompletten Modulen oder ganzen Systemen zusammengebaut. Die weiteren Lieferanten-Ebenen, Tier-3, Tier-4 bis Tier-n sind reine Teile-Lieferanten bis hin zu den Rohstoff- und Halbzeugzubringern.
In
der modernen Produktion nehmen zudem Dienstleister eine besondere
Stellung ein. Sie übernehmen
diverse Spezialaufgaben, wie Software-Programmierungen oder
Designstudien und sind auf allen Ebenen der Produktion tätig.
Derzeit gibt es neben einer Vielzahl kleiner rund 350 große
Dienstleister11
in der Automobilproduktion.
Neben
der Prozess- und Produktionsoptimierung und durch die Einführung
von Plattformen und Modulen nimmt die Elektronik in allen
Automobilklassen einen immer größeren Raum ein; leider
auch
in der Motorsteuerung mit den aktuell (2018) bekannten Problemen bei
der Diesel-Abgassteuerung.
Das
wissenschaftlich-methodische Modell der empirischen Datenauswertung,
das die Basis für Aussagen über die Ist-Situation der
Wirtschaft wie auch die Basis für den prognostischen Rahmen
bildet, kommt spätestens hier in Gänze an ihre Grenzen.
Nicht nur dass sich die Datenbasis extrem schnell verändert,
auch der Zugang und die Vergleichbarkeit der Daten, die in einer
transnationalen Produktion erhoben werden müssen sowie deren
Beziehung zu Vergleichsgrößen wie Preis, Beschäftigung,
Investitionssummen, die wiederum transnational in unterschiedlichen
Datenclustern erhoben werden etc. ist nicht mehr gegeben.
Selbst
innerhalb des europäischen Wirtschaftsraumes werden
diesbezüglich Schwierigkeiten sichtbar, die die Wissenschaft der
Ökonomie vor schier unlösbare Probleme stellt. Der Witz
dabei ist zudem noch, dass dies im Umfeld der Digitalisierung
geschieht, also in einer Situation, in der die Datenerhebung
einfacher und aktueller zu sein scheint, als jemals zuvor in der
Geschichte.
Die veränderten Produktionsprozesse bedürfen zu einem hohen Maße auch noch einer intensiven, zeitnahen und abgestimmten Kommunikation über den gesamten Produktionsprozess hinweg. Das hat an dieser Stelle nur wenig mit der viel zitierten Industrie 4.0 zu tun, die nur ein Teil dieser vernetzten Kommunikation, Maschine-zu-Maschine übernehmen soll. Kommunikation und Vertrauen, ein zunehmend dehnbarer Begriff im ökonomischen Zusammenhang, funktionieren natürlich um so weniger, als sie innerhalb vertikaler, pyramidaler Strukturen stattfinden. Nicht nur in der Automobilwirtschaft erkennen wir deren Nachteile, so auch im Bereich Banken und anderen. Vertikale Kommunikation kann sich da noch einigermaßen erhalten, wo noch keine oder kurze Wertschöpfungscluster in der Produktion sich herausgebildet haben. Netzwerk-Produktion und Netzwerk-Kommunikation sind Parallelentwicklungen.
Wertschöpfungscluster,
innerhalb derer OEMs, mehrere Zuliefererebenen, Dienstleister und
Forschungseinrichtungen vernetzt sind, zu denen heute schon sich sog.
After-Sales-Strukturen aus mehreren Ländern und später die
Industrie 4.0 integrieren, verändern Kommunikation sowie
Vertrauen und Sicherheit im ökonomischen Zusammenhang
nachhaltig.
Und nicht nur der Eigenleistungsanteil der Produzenten
verringert sich drastisch durch globale Cluster in Produktion,
Vertrieb, Forschung und Entwicklung. Auch auf der Kapitalseite
verschieben sich traditionelle Muster. Wenn Zulieferer immer höheren
Investitionsbedarf in der Wertschöpfungskette haben, übernehmen
sie natürlich gleichzeitig auch höhere Risiken, was sich
auf die Entscheidungsstrukturen, Renditeerwartungen und auf die
Arbeitsplätze auswirkt. So haben sich die Beschäftigtenzahlen
nicht nur in der deutschen Automobilindustrie in den letzten zehn
Jahren mit über zwei Prozent jährlich deutlich positiv
entwickelt. Bis auf die USA sieht man auch in anderen Ländern
der Automobil-Triade (USA-Europa-Asien/Japan) ähnliche Effekte.
In der Ökonomik mit ihren wenigen Parametern wie Mengen, Preise
und Beschäftigung sind diese transnationalen Produktionsformen
und damit auch die Auswirkungen der Technischen Entwicklung nur
schwer zu erfassen. Prognosen, was Investitionsvolumina,
Beschäftigungsmigration, Zeit-und Kosteneinsparungen sowie
globale Berechnungen der TCO (Total Cost of Ownership) und
Produktivitätsentwicklungen auch nur in einer Branche wie der
Automobilbranche mit ihrer noch verhältnismäßig guten
Datenbasis anzustrengen wird immer schwerer. Selbst in einem einzig
Produktsegment, der Elektromobilität ist dies heute nur noch
möglich bei gleichzeitigem Verzicht auf aussagekräftige
Prognosen.12
Anmerkungen:
1 Vgl auch: Hans Christoph Binswanger (1982): Geld und Wirtschaft im Verständnis des Merkantilismus. In: Fritz Neumark (Hrsg.): Studien zur Entwicklung der ökonomischen Theorie II. Geschichte merkantilistischer Ideen und Praktiken. Duncker und Humblot, Berlin 1982, ISBN 3-428-05110-6
2 Wir verwenden diesen Begriff bewusst außerhalb seiner üblichen Bestimmung als "real bestehende Produktion".
3 Chief Scientist at Salesforce, Richard Socher.
4 Ein Abakus ermöglicht die Durchführung der Grundrechenarten Addition, Subtraktion, Multiplikation und Division sowie das Ziehen von Quadrat- und Kubikwurzeln. Die meisten Rechenoperationen können mit den römischen Ziffern nicht einfach durchgeführt werden. Deshalb gab es den leicht abgewandelten Römischen Abakus.
5 Da es im Verlauf der Technischen Entwicklung nicht nur Phasen der quantitativen Verbesserung gibt, sprechen viele Wissenschaftler lieber vom Technischen Wandel als vom Technischen Fortschritt.
6 Nicht jede dieser Relationen kommen ins wirtschaftliche Kalkül, sondern nur jene Input-Output-Relationen, die bereits als effizient angesehen worden sind.
7 Über den heute im Diskurs großen Raum einnehmenden Ansatz eines "bedingungslosen Grundeinkommens" werden wir zu einem gegebenen Zeitpunkt und innerhalb eines nicht nur auf die Technische Entwicklung beschränkten Ansatzes zurückkommen.
8 Werner Eichhorst, Patrick Arni, Florian Buhlmann, Ingo Isphording, Verena Tobsch: Wandel der Beschäftigung. Polarisierungstendenzen auf dem deutschen Arbeitsmarkt. Institut zur Zukunft der Arbeit (IZA), Bertelsmann-Stiftung, 2015, abgerufen am 1. April 2017. S. 19.
9 Unser
kurzes Beispiel bezieht sich auf die Veränderungen in der
Automobilindustrie, die sich besonders zwischen 2000 und 2010
eingestellt haben. Zur Begriffserklärung:
OEM
(Original Equipment Manufacturer) Ein Auftragshersteller (OEM) ist
ein Hersteller, der (Vor-)Produkte oder Komponenten, die er von
einem Zulieferer bezieht, in seine (End-) Produkte einbaut, welche
er dann unter seinem Namen vertreibt (Wikipedia). Der Begriff sorgt
gelegentlich für Verwirrung, weil darunter auch Hersteller
verstanden werden, welche ihre Produkte für andere Unternehmen
unter deren Markennamen produzieren. In dieser Arbeit wird mit dem
Begriff OEM der Automobilhersteller selbstgemeint und nicht deren
Zulieferer. Diese Bezeichnungsweise ist
branchenüblich.
Tier-n
Zulieferer der
n-ten Stufe (Fertigungstiefe, Grad der Vollständigkeit), mit
der ein Betrieb die für die Herstellung seiner Endprodukte
erforderlichen, aufeinander folgenden Bearbeitungsvorgänge bzw.
Wertschöpfungsstufen selbst durchführt (Schuh, 2005:2)
10 Die fünfte Gruppe sind die eigentlichen Automobilhersteller, die sich als Marken-Integratoren auf Produktplanung und Marketing konzentrieren (Jürgens, 2004. Outsourcing)
11 International Business Development Corporation (2002): SAE Media Briefing February 22, Bloom-field Hills, Michigan, USA
12 Schuh,
Günther (2005) Produktkomplexität managen. Strategien ·
Methoden · Tools. 2., überarbeitete und erweiterte
Auflage. CarlHanser Verlag GmbH & Co. KG. eISBN:
978-3-446-44354-9. Print ISBN:
978-3-446-40043-6.
Jürgens,
Ulrich, (2004) Characteristics of the European Automotive System: Is
There a DistinctiveEuropean Approach? International
Journal of Automotive Technology and Management 2004 - Vol. 4,
No.2/3, 112 – 136
Jürgens, Ulrich, (2004)
Outsourcing & Co. - Zur Neustrukturierung der
Zulieferbeziehungen in der Automobilindustrie, erschienen in der
Tagungsdokumentation: Wie weit reicht die Verantwortung von
Unternehmen?, Germanwatch, S 7-15
zurück ...
weiter ...
Ihr Kommentar
Falls Sie Stellung nehmen, etwas ergänzen oder korrigieren möchten, können sie das hier gerne tun. Wir freuen uns über Ihre Nachricht.