Loading...

Der Normenstreit

Franz Rieder • Technik – normativ? Vom Vorrang der Technischen Entwicklung       (nicht lektorierter Rohentwurf)   (Last Update: 01.06.2019)

Innerhalb der Wissenschaft der Ökonomie hat Technik bislang einen residualen Status. Sie steht lediglich unter einem Nutzenkalkül, innerhalb einer Zweck-Mittel-Relation als wichtiger, sogar wesentlicher Teil des ökonomischen Denkens, aber eben lediglich als ein Teil. Technik wird daher in der Ökonomik lediglich betrachtet als eine Investition, die sich auszahlt oder nicht. Nicht jeder technischen Neuerung wird sogleich aus dem Grund, dass sie eine Erneuerung darstellt, mit investivem Verhalten begegnet. Zumal neben dem investiven Risiko mit technischen Erneuerung nicht unerhebliche, personelle, organisatorische und strukturelle Veränderung sowohl mikro- wie makroökonomisch einhergehen. Die mikroökonomischen Prozesse, die oft unter dem Terminus: „Changemanangement“ zusammengefasst werden, sind mitunter aufwendiger und risikoreicher als die Prozesse, die mit technischen Erneuerungen verbunden sind und den Gesamtmarkt betreffen. Im Rahmen von Digitalisierung scheint sich dieses Verhältnis neuerdings anzugleichen.

Technische Entwicklung ist reversibel. Wir betrachten bis hierher nicht die irreversiblen Folgen Technischer Entwicklungen auf die Biosphäre und auch nicht den Teilbereich der Ökonomik, der sich damit beschäftigt, die Ökologie. Uns geht es darum festzuhalten, dass Wissen, welches mit der Technischen Entwicklung verbunden ist, sowohl als ein praktisches wie theoretisches Wissen sich verändert. Diese Veränderung kann total sein, also ein Vergessen. Dies betrifft ebenso die damit verbundenen praktischen Fähigkeiten. Viele Technische Entwicklungen ersetzen also teilweise bis total vorhandene praktische Kompetenzen und Zusammenhänge und wir kennen keinen Diskriminationspunkt, der vorheriges oder späteres Wissen wie Kompetenzen als eine höhere, bessere Form erkennen ließe.

Unstrittig, sowohl in der Ökonomik wie der Philosophie ist, dass Technik neue Erkenntnisse schafft und neue Ideen hervorbringt. Und diese Dimension der Technik wie die damit verbundenen Fähigkeiten des Umgangs mit Technik, sind reversibel. Wir müssen scharf unterscheiden zwischen dieser technik-immanenten Blickrichtung und einer Blickrichtung, die darüber hinausgeht und die Folgen der Technischen Entwicklung außerhalb mikro- und makroökonomischer Betrachtungen reflektiert. Diese technik-transzendierende Blickrichtung nimmt die Folgen der technischen Entwicklung in den Fokus mit der Natur und den sozialen sowie kulturellen Verhältnissen des menschlichen Daseins.

Es bliebe ein weiterer Umgang mit dem Thema Technische Entwicklung, der weder die ökonomische Blickrichtung immanent noch transzendierend befragt, sondern eine Technische Entwicklung innerhalb einer nicht-marktwirtschaftlichen Verfassung vorstellt. Das sei zur Vollständigkeit hier bereits vermerkt, wird uns aber erst viel später eingehender beschäftigen.

Immanent betrachtet wird Technik nicht verstanden. Weil Geld missverstanden wird. Und damit bleibt natürlich auch der Zusammenhang von Technik und Geld unverstanden. Geld ist für die meisten Menschen eine Gefühlssache. In es wird viel hineininterpretiert, seine Zusammenhänge und Wirkungen werden mystifiziert.; und wir sprechen dabei nicht nur über Laien mit starken Defiziten bei den Grundrechenarten, sondern auch über die sog. Finanzexperten, die sich auf vielen Ebenen und Berufen um „das goldnen Flies“ herum positionieren.

Dass Geld falsch gedacht wird, haben wir an verschiedensten Stellen schon herausgearbeitet. Was an dieser Stelle im Zusammenhang mit Technik noch fokussiert werden muss, ist die Tatsache, dass Geld in einer „Produktions- bzw. Produzentenwirtschaft“, die wir aus dem Verhältnis von Gläubiger-Schuldner-Beziehungen heraus beschrieben haben, zu einer Überproduktion von Geld führt. Laufend wird Geld (aus dem Nichts) geschaffen, zusätzlichen Geld, das Eigentümer, also Gesellschafter, Investoren, Anteilseigner, persönlich haftende Unternehmer etc. mit zusätzlicher Liquidität versorgt und Arbeitnehmer bzw. Beamte und Angestellte mit steigenden Löhnen und Gehältern.

Aus den Gläubiger-Schuldner-Beziehungen, so sahen wir, entsteht eine Geld- und Investitionsdynamik, die Gewinne entstehen lässt. Binswanger verweist zurecht darauf, dass die Gewinne in einer zeitlich asynchronen Art zwischen Angebot und Nachfrage entstehen, weil die „Produktion dem Verkauf der Güter vorausläuft und somit das früher produzierte Angebot auf die Nachfrage von heute trifft.“Binswanger (2015)1
Nun muss man wissen, dass diese zeitlich spätere Nachfrage in den meisten Fällen höher ausfallen kann, als die Kosten, die zur Produktion, genau gesagt für den Aufbau von Produktionskapazitäten, des zeitlich vorlaufenden Angebots benötigt wurden, zumal das durch Kredite geschaffene Geld, welches zur Produktion nötig war in der Regel einen geringeren Sockel an Kapitalkosten bilanziell repräsentiert, als der entsprechende Kostensockel und auch steuerlich günstiger anfällt.

Wenn nun die Nachfrage höher ausfällt als vorkalkuliert, ergeben sich jene gewünschten, zusätzlichen Gewinnparameter wie Skaleneffekte oder geringer ausfallende Grenz- bzw. Differenzialkosten pro Ausgabeeinheit bzw. Stückpreis. Ist also die Nachfrage höher als die für die Produktion des Angebotes angefallenen Kosten, spricht man von Gewinn, eigentlich von Erlösen, die die Grundlage wirtschaftlichen Wachstums wiederum bilden. In den gängigen Wirtschaftstheorien wird im umgekehrten Fall, wenn also die Nachfrage sowohl quantitativ wie auch wertmäßig geringer ausfällt, von einer Krise gesprochen, einer Entwicklung hin zu geringerem Wohlstand und Wettbewerbsfähigkeit, signifikante Einschränkung des Entwicklungspotenzials, Liquiditätseinbußen, Konkurs und Arbeitslosigkeit.

Es ist nicht schwer zu erkennen, dass die Erlöse keine festen Größen sind, sondern eine Bandbreite haben, die es den Unternehmen, den Produzenten erlaubt, sich Schwankungen zwischen Angebot und Nachfrage durch höhere und niedrigere Erlöse anzupassen. Natürlich gibt es weitere Anpassungsmechanismen in den Bereichen Steuern und Abgaben, bilanzielle Möglichkeiten und Anpassungen im Bereich der Beschäftigung. Wesentlich aber bleibt, dass durch die zeitliche Asynchronie zwischen Produktionskapazitäten und Nachfrage eine Krise möglich, aber auch vermeidbar ist, da Mechanismen der Anpassung vorhanden sind. Ebenso leicht ist zu erkennen, dass es auf dieser Grundlage keine „Realproduktion“ geben kann, in der zeitlich genau jene Menge an Waren und Dienstleistungen angeboten wie eben nachgefragt werden. In einer Realproduktion2 wäre Geld bzw. die Geldmenge genau jene, die auf Angebots- und Nachfrageseite nötig wäre, also für die Produktion und die Konsumtion (inkl. Distribution, Steuern und Abgaben).
In einer Produzentenwirtschaft kann so viel Geld erzeugt werden, wie Unternehmen glauben und mit ihrer Produktion dafür zu sorgen, dass die Bedürfnisse der Menschen, die durch Produkte, Dienstleistungen und andere Warenformen, also ver- bzw. kaufbaren Einheiten, befriedigbar bleiben.

Wir bewegen uns, sprechen wir vom Verhältnis zwischen Angebot und Nachfrage also in einem Näherungssystem, mathematisch ausgedrückt, in einer Differenzialrechnung, die der Wirtschaft eine größtmögliche Anpassungselastizität ermöglicht. Eine Philosophie, etwa vorgestellt als Technikphilosophie, findet allein schon bei dieser Form der immanenten Betrachtung eine Grenze ihrer normativen Annahmen und Aussagen. Sie unterschätzt die Dynamik der ökonomischen Innovationsfähigkeit zu oft und zu grundsätzlich. Ökonomisch betrachtet ist aber auch die marktwirtschaftliche Dynamik in entwickelten Industriegesellschaften begrenzt. Steht auch fast unbegrenzt Geld für Investitionen zur Verfügung, so bleibt das Märchen vom ewig sprudelnden Goldesel eben ein Märchen. Sind die technik-transzendierenden Grenzen wie etwa die Natur bzw. die Umweltwelt und Biosphären-Schäden nicht grenzenlos hinnehmbar, die Ressourcengrenzen, sowohl was die natürlichen wie humanen betrifft, nicht ignorierbar, so besteht eine weitere Begrenzung der marktwirtschaftlichen und also auch der Technischen Entwicklung, das ist das begrenzte Reservoir an wirtschaftlich brauchbaren Ideen im Verhältnis zum vorhandenen Kapital.

Es gibt wesentlich mehr Kapital als Ideen. Kapitalgeber, heute zurecht Risikokapitalgeber genannt, wenn es um neue Märkte und neue Ideen geht, geben Unsummen aus für Technische Entwicklungen, die teilweise kindlichen Charakter und noch weniger Bedeutung für die Wirtschaftsentwicklung haben. So eine geringe Renditechance wie im Bereich Risikokapital, hat es in der Geschichte der Ökonomie noch nicht gegeben. Daran ändern auch die sagenhaften Rediten bei den wenigen erfolgreichen, neuen Marktteilnehmern aus der sog. Plattform-Ökonomie der letzten zwanzig Jahre nichts. Aus den meisten Entrepreneurs, selbst mit dem sog. „Einhorn“-Status, wird nichts oder ein gerade noch lebensfähiger Rohrkrepierer. Neue Unternehmen heißt nicht wirklich zugleich auch neue Ideen, die geschäftsfähig sind.

Immanent betrachtet ist also das normative Element die unbedingte Aufrechterhaltung der bestehenden Dynamik der marktwirtschaftlichen Produktion. Das technische Pendant, welches den normativen Anspruch marktwirtschaftlicher Produktion theoretisch und praktisch umsetzt, ist die sog. Wissensökonomie. Sie leitet heute große Teile der Geldströme in die sog. Digitalwirtschaft bzw. in die Digitalisierung traditioneller Unternehmen und Branchen und prägt zugleich das Bild der bestehenden Ökonomie im Sinne des Changemanagements. In ihr werden Ideen, Erfindungen und Produkte wie Dienstleistungen entwickelt, die den Anschein von Innovationen haben. Unter dem Normativ ständiger Innovation und Transformation bestehender Geschäftsmodelle gilt ihre Konzentration auf rasant zunehmende Individualisierung ihrer Produkte und Dienstleistungen.

Eine der zur Zeit vielversprechendsten Innovationen, die Künstliche Intelligenz (KI), ist bereits fast siebzig Jahre alt, älter, als manch traditionelles Unternehmen überhaupt geworden ist. Die Geschichte der KI ist die Geschichte aufgebauschter Erwartungen, die regelmäßig enttäuscht wurden. Die ersten künstlichen Neuronen wurden bereits in den 1950er Jahren entwickelt, Forscher träumten vom „Elektronengehirn“. Doch es tat sich zunächst wenig. Mit der Erfindung des Mikrochips in den 1970er und der Explosion der Rechenkapazitäten ab den 1980er Jahren bauschten sich die Erwartungen wieder auf. Japan beispielsweise begann 1982 mit dem Projekt „Fifth Generation Computer Systems“. Es gilt heute als teurer Fehlschlag. Dann kam gewissermaßen ein KI-Winter, bis sie neuerdings zum wiederholten Male sich zu der Innovation schlechthin aufschwingt.

Und der Streit geht weiter. „Da ist keine echte Intelligenz“, zitiert die New York Times den KI-Forscher Michael I. Jordan. Jordan ist Professor für Informatik an der University of Berkeley und verfasste ein vielbeachtetes Essay zum Thema KI auf Medium.com, das die teils hochgestochenen Erwartungen rund um den KI-Hype dämpft. „Ich glaube, in diese Brute-Force-Methoden sollte man nicht zu viele Hoffnungen setzen“, zitiert ihn die US-Zeitung weiter.
Jahrelang gab es verschiedene Lager im Bereich der künstlichen Intelligenz. Die einen sagten: Logik ist der Grundbaustein der Intelligenz. Sie haben Experten-Systeme und logik-basierte Systeme entwickelt – die anderen sagten: Statistik und Wahrscheinlichkeitstheorie sind die Hauptgrundbausteine der Intelligenz3 . Die intelligente Idee, die Logik mit Stochastik verbindet steht also noch aus. Und ob dann das, was dabei herauskommt, den Namen KI wirklich verdient und nicht doch weiterhin zum maschinellen Lernen zu zählen sein wird, ist gänzlich ungewiss.

Zwischenzeitlich sucht sich das immense Risikokapital ständig neue Renditemöglichkeiten, die es neben den Plattformökonomien und der KI auch weiterhin auf den internationalen Finanz- und Immobilienmärkten findet; je nach Trend hier wie dort auch teure Spekulationsblasen, also Effekte übertriebener Renditeerwartungen hinter sich her ziehend. Wie das Risikokapital also je nach Renditeaussichten einmal seinen Weg in die traditionellen Märkte findet, so wechselt es schnell auch in die sog. Neuen Märkte. Und mit diesen Kapital-Transgressionen in zeitlich verzögertem Abstand einher gehen staatliche Regulierungen und Kontrollen, bzw. das alte Ideologiethema der Macht.



Der Normenstreit


Da, wo mit wenig Verstand jeder Innovation das Wort geredet wird, stellt sich sofort auch das Thema der Macht der Märkte. Was hier erneut fälschlicherweise mit dem politischen Begriff der Macht belegt, ja verschleiert wird, ist der Glaube an die Metaphysik der Technik und deren normativen Charakter. Der ruft den Einfluss der Politik auf die Bühne, einen scheinbar erneut wild gewordenen Kapitalismus auf den Neuen Märkten zu disziplinieren. Der normative Charakter der Märkte, so schreit es aus den Parlamenten, versetzt ein paar blutjunge Analysten oder Fondsmanager in die Lage, ganze Volkswirtschaften, besonders in den sog. Schwellenländern in die Knie zu zwingen, indem sie ihnen die Geldhähne zudrehen.

Ohne dabei auf die gleichzeitig vielfältigen anderen ökonomischen Einschränkungen zu blicken, finden seit 2007/08 um so leichter jene Zuspruch, die die demokratisch legitimierten Regierungen noch höher auf ihre Sockel hiefen und breite Zustimmung – auch in nicht ganz so demokratischen Kreisen – finden, die Märkte durch starke Regulierungen zu bändigen. Die Idee vom Primat der Politik tritt auf gegen die Idee, freie Märkte könnten sich selbst organisieren und machten bis zu einem gewissen Punkt Politik sogar überflüssig.

Normativ und sein Antonym: ‚deskriptiv‘ streiten um die Deutungshoheit dessen, was in der Welt vor sich geht. Die einen auf dem Feld der Märkte und die anderen auf dem der Politik. Und dabei stehen dann für eine gewisse Zeit eher die Märkte für Vernunft und Rationalität, die Politik für Chaos und Anarchie wie umgekehrt. Wir erkennen, dass der normative Charakter wie sein Antonym nicht aus der Technischen Entwicklung allein stammen, sondern aus der Verzahnung von Wirtschaft und Politik, wobei die Politik ihren vorherrschenden Status, ihre Macht zur Regulation, mehr oder weniger in das wirtschaftliche Geschehen einbringt. Dabei besteht immer die Gefahr, dass das politische Normativ das ökonomische so sehr beschneidet, dass Konjunkturen und die gut laufenden Märkte in verschiedensten Volkswirtschaften negativ betroffen sein können. Verzahnung und Vernetzung von Märkten und Wertschöpfungsketten sowie internationaler Handel und Finanzmärkte, kurz Globalisierung, ermöglichen diese weitreichenden Effekte.

Nationale wie internationale Politikfelder werden besetzt und als Regulative in die ökonomischen Zusammenhänge gebracht. Dabei sind militärische Felder ebenso bedeutend, wie handelspolitische, fiskalische, besonders, wenn sie wie jüngst in den USA zu einer weitreichenden Steuerreform mit hohen Staats-Verschuldungseffekten führen, sowie geldpolitische, oder konstitutionelle Politikfelder, wie etwa die Einführung eines türkischen Präsidialsystem und die Ausbreitung populistischer Parteinenströmungen.

Sowohl für Anleger wie für Arbeitnehmer haben solche politischen Regulationen entscheidenden Einfluss. Notenbanken greifen zur Zeit heftig in eine stark von nationalistischen Verhaltensweisen geprägte Politik ein, stimmen ihre geldpolitischen Ziele und Maßnahmen miteinander ab, während politische Vereinbarungen reihenweise außer Kraft gesetzt werden. Was wenige einsehen wollen, ist, dass Politik ohne Zweifel nach den großen Krisen der jüngsten Vergangeheit tatsächlich erfolgreich die Märkte bis zu einem gewissen Grad gebändigt, weitgehend sogar kontrolliert hat: durch höhere Auflagen für die Banken, durch eine sehr aktive Geldpolitik, in Europa durch die Schaffung eines Rettungsfonds, der die Bonität starker Staaten nutzt, um schwachen Staaten verbilligt Geld zu beschaffen, also gegen die eigenen politischen Verträge qusi zur Hintertür die EU als eine Transferunion langsam aber stetig einführt.

Auf der anderen Seiten waren es z.B. die fünf großen US-Plattform- und IT-Companies, die einen kaum verhüllten Anspruch, die höhere Rationalität gegenüber der Politik zu verkörpern, nicht nur öffentlich geäußert, sondern auch in ihren Geschäftsmodellen umgesetzt haben. Erste gegenläufige Regulierungen im Bereich Datenschutz durch die europäischen Regierungen setzten normative Grenzen und deuten jetzt schon darauf hin, dass Regierungen, zuminest in Europa, die Einflüsse von Unternehmen und Wirtschaft auf politische Felder nicht überborden lassen; der Gewinner dieses Kampfes zwischen dem Träger politischer Macht und den gegenüber Politik einflussreichen, privatwirtschaftlichen Institutionen steht natürlich schon fest.
Die Frage ist also nicht, von wo aus der normative Charakter seinen Ausgangspunkt nimmt, sondern wie sich unter dem Primat der Politik, Wirtschaft und Politik prgmatisch einigen und welche alltäglichen Bedeutungen dies für die Menschen haben wird.

Kontrolle und Regulierung können in den westlichen Ökonomien bislang die „Verzerrungen“ in den Märkten beeinflussen. Sie können aber nicht verhindern, dass es zu neuerlichen Deregulierungen und Kontrollverlusten kommt. Und dies gilt für beide Seiten. Das ist neu, denn bislang galt dies allein für den Bereich der Wirtschaft und nicht auf dem Feld der Politik selbst. Auf dem Feld der Wirtschaft sind maximales Wachstum und maximale Gewinne in einem gewissen Maße selbstregulierend. Selbstregulierend insofern, als sie Triebkräfte der Destabilisierung der marktwirtschaftlichen Prozesse selbst sind.
Die Instabilität der Marktwirtschaft hat also nicht nur inhärente ökonomische, sondern auch politische Regulative zur Ursache, die sowohl wiederum wirtschaftspolitischer Natur sein können wie aber auch rein machtpolitischer Natur.
Die Ökonomie selbst tut sich bislang schwer damit, was in der Finanzmarkttheorie längst bekannt ist: Hohe Gewinne und großes Wachstum gibt es nur bei einem hohen, unkalkulierbaren Risiko. Im Gegenteil; in der weit höher als der Mikroökonomie angesehen Makroökonomie, immerhin das Wirtschaftsfeld, das sowohl die Entwicklung der kulturellen wie der sozialen Bedingungen als Folgen der Gesamtökonomie gerne als ihre ureigensten Errungenschaften feiern möchte, wird nach wie vor ein bis an die Grenzen des Möglichen gehendes Wirtschaftswachstum angestrebt und glorifiziert, ohne die damit entstehenden Risiken zu beachten und zu benennen, schon gar nicht in öffentlichen Diskursen. Wirtschaftswachstum, so deren Grundgesetz wirtschaftlichen Handelns oder oberstes Normativ, ist gleich bedeutend mit gesellschaftlicher Wohlfahrt.

Einzig Inflation wird als Risikofaktor eines ungebremsten Wachstum erkannt und benannt. Und das heilende Gegengift gegen eine ausufernde Inflation wird gleich mit geliefert, das Zinsniveau, das durch die Notenbank zu gegebenem Zeitpunkt einfach erhöht wird. Dass aber die notgedrungen meist brachiale Erhöhung der Zinsen durch die Notenbanken das Wachstum ziemlich abrupt abwürgt und sozial wie kulturell enorm riskant ist, darüber schweigt die ehrwürdigen Gesellschaft der Wirtschaftsweisen und Lehrstuhlakademiker. Dass dies übrigens auch im umgekehrten Falle gilt, wie man leidlich erkennen kann zur Zeit, wird auch als scheinbar notwendiges Opfer bzw. Übel hingenommen. Hinnehmen müssen es vor allem die, die man dort zum Humankapital zählt und die ganz und gar nicht hingebungsvoll diesem scheinbaren ultimativen Normativ der Marktwirtschaft folgen wollen. Sie sind nicht risikoscheu, wenn sie nicht bereit sind, ein hohes Risiko in Bezug auf ihre Arbeit einzugehen. Sie sind aus Erfahrung und Umsicht klug, klug im Sinne von Vorsicht, wie dies übrigens auch weite Teile der Ökonomie sind bzw. wie dies im Kern eigentlich die Marktwirtschaft selbst ist.

Anpassungsfähig und vorsichtig sind die wesentlichen Eigenschaften der Mikroökonomie, selbst jener, der man kaum noch das Präfix: mikro zubilligt, weil sie auf großen Marktfeldern operiert. Aktiengesellschaften etwa wurden als Risikogemeinschaften gegründet, sind also Begrenzung von zu großen Risiken, vor allem bei Investitionen und Innovationen. Flexibilität und Vorsicht haben deshalb auch wenig mit moralischem Impetus in der Wirtschaft zu tun, also mehr mit pragmatischem. Bis auf wenige bekannte Fälle sind Aktiengesellschaften wie auch die Akteure auf den Finanzmärkten alles andere als Glücksspieler. Hasardeure leben in der Regel in solchen Landschaften selten lang.

Mit jeder Technischen Erneuerung einher gehen meist doch „reelle“ Erwartungen an Erfolg und ein Exit-Plan, der im umgekehrten Fall das Risiko so weit wie möglich reduziert. Natürlich sehen wir die Hasardeure auf den „Neuen Märkten“, für die ein reeller Umgang mit Geld, Wachstum und Politik nicht möglich erscheint. Die investieren blind in die unterschiedlichsten Bereiche, gerne in die Wissensökonomie und in die Konzepte von Alternativwährungen wie etwa das Kryptogeld. Das galt als absolut sicher, bevor es bereits kurze Zeit später gehackt wurde und einigen Hasardeuren Millionen-Defizite bescherte. Gerade die Kryptowährung zeigte schnell und eindringlich, dass eine wahre Innovation, nämlich die Risiken und die Abhängigkeiten zu überwinden, die in dem traditionellen, bankenbasierten Geldsystem liegen und zum Geschäftsmodell zu entwickeln, nicht nur selbst schnell zu einem unkontrollierbaren Spekulationsfeld und Feld für Kriminelle werden kann.
Was scheinbar unangreifbar stabile Algorithmen zu garantieren schienen, wurde einen Wimperschlag zeitlich entfernt zu einem extrem risikoreichen, instabilen Geschäftsmodell. Es braucht mehr als eine Idee. Es braucht auch die praktische Vernunft.



Vom Vorrang der Technischen Entwicklung


Wenn wir von der Technischen Entwicklung in einem ökonomischen Sinne sprechen, dann innerhalb eines ökonomisch begrenzten Bedeutungsbereiches, dessen paradigmatischer Anfang in der Trennung der Arbeitsprozesse von den diese ausführenden Menschen bestimmt ist. Die Trennung von menschlicher Arbeit und Arbeits- bzw. Produktionsmitteln, zu denen Technik nun einmal gehört, unterscheidet sich also von anderen Formen der Arbeit, in der die menschliche Arbeit noch verbunden war mit den technischen Arbeitsmitteln, meist bezeichnet als Werkzeug.
Das Werkzeug oder auch das Instrument oder englisch das „tool“ bezeichnet ein nicht zum menschlichen Körper gehörendes Objekt, mit dem die Funktionen des eigenen Körpers erweitert werden und so in dieser Extension ein Ziel, eine Handlungsabsicht erreicht werden kann. Mit einem geschärften Gegenstand einen Tierkörper zu zerteilen oder dies besser zu bewerkstelligen wäre damit das dem Steinwerkzeug inhärente Ziel oder die Handlungs, bzw. Herstellungsabsicht.

Das englische „Tool“ beinhaltet durchaus auch den PC als ein Werkzeug, mit dem man Rechenaufgaben besser und komplexer bewerkstelligen kann, als mit den zehn Fingern an der Hand oder mit einem Abakus, mit Rechenpfennigen oder Calculi, den Rechensteinen4 . Gleichwohl zählen wir den PC nicht zu den Werkzeugen, sondern zur Technik in unserem Sinne bzw. zu unserem bestimmten Geltungsbereich. Ein PC als Tool, als Werkzeug, erfasst diese Technik als Hardware. Der PC hat dann ein Lang- und ein Kurzzeitgedächtnis, Arbeits- und Festplatten-Speicher oder Memory, ein Mikrophon, einen Lautsprecher, ggf. eine Kamera, eine Tastatur etc.
Aber ein PC besteht auch aus Software, die den PC in die Lage versetzt, etwas hervorzubringen, was Werkzeuge nicht können. Diese qualitative Dimension von Technik umfasst alles, was Neuerungen, Innovationen betrifft. Im Falle des PC wäre dies generell die von der Maschine eigenständig ausgeführte Steuerungsfunktion von beabsichtigten Prozessen wie dies etwa in einer modernen, software-gesteuerten Alarmanlage der Fall ist.

Ohne an dieser Stelle eine Technikphilosophie schon anzustreben, ist diese Unterscheidung von sog. quantitativer und qualitativer Funktionalität von Technik wichtig. Natürlich um so mehr, als der Technische Fortschritt im Rahmen ökonomischer Geltung ohne diese Unterscheidung kaum auskommt5 . Technischer Fortschritt stellt natürlich sogleich die Frage, woran denn der Fortschritt sichtbar oder messbar werden könnte? Wird die Frage, ob mit dem Technischen Fortschritt auch die Schaffung von Arbeitsplätzen verbunden ist, gestellt, dann ist nicht nur eine Relation von Technik und Arbeit gesetzt, sondern in dieser auch der Vorrang der Technik vor der Arbeit behauptet, insofern jene diese maßgeblich bedingt. Das gilt natürlich auch für die gegenteilige Blickrichtung, nämlich die Verbindung von Technik und Arbeitslosigkeit, die mit Ricardo bereits Anfang des 19. Jhd. erstmals aufkam und bis heute, wo sie im Rahmen von strenger ökonomischer Betrachtung in der Diskussion um Rationalisierung und Automatisierung und aktuell unter Digitalisierung aufkommt, nichts an Aktualität verloren hat.

War seit Ricardo der Technische Fortschritt also verbunden mit dem Primat der Technik vor der menschlichen Arbeit, so drückte sich dies aus in einer quantitativen und qualitativen Betrachtung, in der der Technische Fortschritt einmal untersucht wurde unter dem Maß der Produktionsmenge – Input-Output-Verhältnis – zum anderen unter Innovationen. Die Produktionsmengenrelation war also eine Betrachtungsweise, die entweder die gleiche Menge an produzierten Erzeugnissen mit einem geringeren Einsatz an Arbeit oder Produktionsmitteln (Inputs) betrachtet oder eine höhere Menge mit dem gleichen Einsatz an Produktionsmitteln und Arbeit (Output), wobei Arbeit stets der Technik nachgeordnet blieb.

Die Verbesserung oder Verschlechterung der Input-Output-Relation war also eine quantitative Funktion des Faktors Arbeit in Relation zur Technik. Daraus entstanden dann die sog. Freisetzungs- und die sog. Kompensationstheorie als eben diese beiden quantitativen Blickrichtungen auf den Primat der Technik vor der Arbeit. Beide Blickrichtungen zusammen genommen ergeben als dann die volkswirtschaftlich Kennzahl „Totale Faktorproduktivität“, in der der Technische Fortschritt als ein, neben Arbeit und Kapital unerklärter Rest, als ein „Residualfaktor“ der Produktivität übrig bleibt.

Ist also der Technische Fortschritt direkt verbunden mit wirtschaftlichem Wachstum – oder auch dessen Gegenteil, der Rezession – dann repräsentiert dieser Faktor neben Arbeit und Kapital eine, durch Weiterentwicklung bzw. Innovation hervorgebrachte Produktivitätssteigerung und messbare Veränderung bisheriger Input-Output-Relationen6 .
Ricardo (1821) sah im Technischen Fortschritt einen Anstieg der Arbeitslosigkeit – Freisetzung-These – bei konstant bleibender Nachfrage auf den Gütermärkten. Dieser Freisetzungsthese schloss sich auch Marx an. Die schematische Sichtweise der Freisetzungsthese, nachdem bei einem Technischen Fortschritt die Produktivität steigt, gleichzeitig aber nicht unbedingt auch die Nachfrage nach den Gütern, die mithilfe dieser Technik produziert werden. Die Folge davon wäre notwendigerweise eine steigende Arbeitslosigkeit, da ja weniger Arbeit zur Erzeugung der gleichen Menge an Gütern benötigt werde.

Hierzu gäbe es eine Vielzahl an Beispielen, die diesen scheinbaren Zusammenhang als eine notwendigen und empirischen bestätigen. Die Krux an diesem impliziten Primat der Technik ist nur, dass sich leicht ebenso viele Beispiele für den gegenteiligen Effekt, den Kompensationseffekt finden lassen.
Nach der Kompensationstheorie wird durch den Technischen Fortschritt auf der Basis von bestehenden, effizienten Formen der Produktion, nicht nur die Menge der produzierbaren Güter erhöht, sondern gleichzeitig, meist mit zeitlich relativ kurzen Abständen, sinkt auch der Preis für die nun effizienter produzierten Güter, da die Produktivität der Arbeit steigt. Das hat zur Folge, dass das Realeinkommen im Faktor Arbeit steigt und aufgrund des höheren Realeinkommens auch der Konsum des betrachteten Gutes und anderer Güter steigt. Mit also dem gleichen Arbeitsaufwand, ja sogar mit einer geringeren Jahresarbeitszeit im Faktor Arbeit, steigt der Gesamtkonsum und führt somit zu Einstellungen in der gleichen wie auch in anderen Branchen.

Der Technische Fortschritt ist also beschäftigungsneutral, wenn der Verlust an Arbeit in der einen zu einem Anstieg der Beschäftigung in einer anderen Branche führt. Er kann sich auch insgesamt positiv auswirken, also sowohl in der einen wie den anderen Branchen zu einem Anstieg der Beschäftigung führen. Der Anstieg des Lohnniveaus wäre dann als produktivitätsorientierte Lohnpolitik zu betrachten.
Technischer Fortschritt kostet natürlich auch Geld. Wenn von einer kostenniveauneutralen Lohnpolitik die Rede ist, dann betrachtet man die Entwicklung der Realeinkommen in Relation zu der Preisentwicklung. Auf längere Sicht kann man in entwickelten Volkswirtschaften feststellen, dass die Realeinkommen in Relation zu den Preisen signifikant stärker gestiegen sind und dass in der Ökonomik dieser Anstieg dem Technischen Fortschritt zugeschrieben wird.

Was also als ein „Residualfaktor“ bezeichnet wird, ist der maßgebliche, der bestimmende Faktor bei der Ermittlung von Produktivitätssteigerung und Reallohnentwicklung. Diese Ermittlung erfolgt über eine Form des logisch induktiven Schlussverfahrens in Verbindung mit einem Ausschlussverfahren – ausgeschlossen bzw. subtrahiert werden die Faktoren Arbeit (Lohnsummen) und Kapitaleinsatz bzw. -kosten – und ist also empirisch nicht verifizierbar; deshalb heißt dieser Wachstumsfaktor Residualfaktor.

Schaut man auf den aktuellen Diskurs, dann herrscht historisch gesehen einmal mehr die Freisetzung-These über die Kompensationstheorie. Aus dem Primat der Technischen Entwicklung heraus hat sich in der Öffentlichkeit sowohl in der Wissenschaft wie im allgemeinen Diskurs die Ansicht verbreitet, dass mit einer Phase technischer Erneuerung, wie sie zur Zeit unter Digitalisierung zusammengefasst wird, auch ein Verlust an Erwerbsarbeit zwangsläufig einhergeht. Automatisierung bzw. der Einsatz von Robotern wird demnach menschliche Formen der Erwerbsarbeit, überwiegend und in breitem Maße in der Industrieproduktion ersetzen. Deshalb, weil Maschinen wie Industrieroboter jene Erwerbstätigkeiten schneller, kostengünstiger und rentabler erbringen werden.
Kompensationstheoretiker suchen verzweifelt nach den Branchen, die dann die freigesetzten Erwerbsleistenden im Service, als menschliche Assistenzsysteme im Bereich Finanzdienstleistungen und Versicherungen etc. beschäftigen könnten. Wenn der Primat der Technischen Entwicklung in weiten Teilen von Dienstleistung und Produktion in absehbarer Zeit zu einer fast ausschließlich automatisierten und digitalisierten Produktion sich entwickelt – eine fast schon ökonomisch eschatologische Perspektive – dann hat der Vorrang der Technischen Entwicklung vor allen anderen Produktivkräften einen Zustand erreicht, den man als ein Gebilde bezeichnen kann, in dem die menschliche Arbeit ihren Status als eine, in der marxistischen Theorie sogar als die einzige Produktivkraft so sehr verliert, dass sie selbst zu ökonomischen Residualfaktor zu werden droht.



Begrenzter Durchblick


Der Primat der Technischen Entwicklung ist heute so sehr in einem fast eschatologischen Sinne in den ökonomischen Diskurs eingedrungen, dass allenthalben ein Ausweg aus dem Freisetzungschaos am Arbeitsmarkt und dessen sozio-politischen Folgen erdacht werden.
Die theoretisch simplen Ansätze eines „Bedingungslosen Grundeinkommens7 sind das sichtbare Zeichen dieser fast schon verschwörungstheoretisch anmutenden Endzeitgedanken.
Sie beinhalten grundsätzlich die Annahme, dass sich durch die Digitalisierung der Arbeitsprozesse menschlicher Arbeit neben den Freisetzungseffekten keine entsprechenden Kompensationseffekte ausbilden.
Und sie gründen auf der strikt kausalen Annahme des Nutzenprinzips, dass also das Kapital einzig sein Interesse am Technischen Fortschritt aus der Ersetzung menschlicher Arbeit durch Automation und Digitalisierung der Arbeitsprozesse zieht. Der Dispens eben jenes reziproken Nutzenkalküls, dass Arbeit meistbietend zum Verkauf kommt, wird sekundär und stillschweigend hingenommen.

Über den Technischen Fortschritt innerhalb der industriellen Phase war Arbeit und deren theoretische Bedeutung auch unter den ständig sich verändernden Arbeitsbedingungen und Anforderungen fast gleich bedeutend bzw. beachtet wie das Industriekapital. Die Akkumulation des Industriekapitals geschah, nehmen wir einmal Kapitaleinkünfte auf den Finanzmärkten aus, hauptsächlich über die Faktoren Technik und Arbeit, wobei die Technik sich als Surrogat menschlicher Arbeit entwickelte. Die Erfindung der Dampfmaschine, die den Anfang des industriellen Zeitalters markierte, ersetzte Muskelkraft durch die mechanische Übertragung thermodynamischer Energie.

Wenn heute von einer digitalen Revolution gesprochen wird, dann scheint es ausgemacht, dass fortan nicht mehr nur Muskelkraft, sondern auch das menschliche Denken durch Maschinen ersetzt werden soll. So meinen viele namhafte Ökonomen, dass durch Künstliche Intelligenz (KI) der Anteil der Erwerbsarbeit dramatisch zurückgehen wird; einmal mehr, ohne in die Geschichte der letzten zwei Jahrhunderte zu blicken und ohne moderne Formen der Produktion zu berücksichtigen.

Wenn Erwerbsarbeit durch Digitalisierung und KI ein Ende bereitet wird, wie dies Unternehmer wie Bill Gates und Elon Musk, Wissenschaftler wie Stephen Hawking und Jeremy Rifkin oder auch Vertreter von Experten-Kreisen wie etwa der Chaos Computer Club mit Constanze Kurz und Frank Rieger – um nur ein paar wenige Namen der“Szene“ zu nennen – vertreten wird, dann gründen diese Ansichten alle auf der Freisetzungs-Theorie und lassen konsequent den Faktor Globalisierung außer acht.
Sie alle gehen davon aus, dass zu allererst auf der Ebene der Preise sich deutliche Negativ-Effekte auf den Arbeitsmärkten einstellen werden und der Preisverfall und dessen negative Folgen über ganze Leit-Branchen sich ausbreiten wird.
Durch die Produktion fast nur mittels Maschinen, würden Produkte und Dienstleistungen sehr viel billiger werden, als dies auf ganz normalen Konjunkturwege schon geschieht. Ohne Kompensation werden demnach Maschinen die Erwerbsarbeit vom Markt verdrängen.

Bislang ist davon wenig zu sehen. Untersuchungen in den USA und Europa belegen, dass die Nachfrage nach und die Beschäftigung von Erwerbstätigen in den unteren Lohnsektoren nicht gesunken, im Gegenteil, sogar gestiegen sind. Einer, der am weitesten automatisierten Industriezweige, die Automobilbranche, meldet seit 2010 regelmäßig Beschäftigungszuwächse im unteren wie im oberen Lohnsegment, was man in der Ökonomik ein „U-Profil“ nennt als grafisches Zeichen einer Polarisierung der Arbeitsnachfrage.
Leider nimmt die Wissenschaft solche Formen der Beschäftigungspolarisierung zum Anlass, rein phänomenologisch über Beschäftigung nach zu denken, also über Arten von Beschäftigung eine Erklärung für dieses Phänomen zu finden.
„Der tätigkeitsbasierte Ansatz legt dar, wie die veränderte Technologie zu einer Substitution von Routinetätigkeiten durch Computer und andere Automatisierung führt. Als Folge davon steigt die Nachfrage nach jenen Arbeitskräften, die Nicht-Routinetätigkeiten ausüben. Dies sind sowohl kognitive, abstrakte und interaktive Tätigkeiten, die am oberen Ende der Lohnverteilung angesiedelt sind, als auch manuelle Aktivitäten am unteren Ende der Verteilung. Entsprechend kann hiervon direkt die Hypothese der Polarisierung von Beschäftigung und Lohnstruktur abgeleitet werden.“8

Wenn, wie im Falle von Deutschland, diese Untersuchungen ebene keine U-Profile in den entsprechenden Beschäftigungssegmenten, wo sie vermehrt auftreten müssten, ausweisen, spricht man gerne von „atypischen Beschäftigungsformen“, was weder die gewünschte Erklärung liefert noch aus der wissenschaftlich-methodischen Hilflosigkeit befreit.

Ein besserer Ansatz wäre, von einer Veränderung der Wertschöpfungsstruktur und deren neuen Formen der globalen Koordination der Produktionsprozesse zu sprechen9 . In den USA und in Europa – und dies gilt auch für die asiatischen Hersteller – haben sich in den letzten beiden Jahrzehnten Märkte und Produktionsprozesse in der Automobilbranche extrem stark verändert. Die wenigen noch übrig gebliebenen Hersteller agieren heute global und betreiben Produktionen in beinahe allen international relevanten Märkten.
Wettbewerbsdruck und veränderte Marktanforderungen sowie eine globale Ausrichtung führte in der Automobilindustrie zu neuen Formen der Produktion, der Organisation und Planung sowie der Arbeitsprozesse, sogar Forschung und Entwicklung blieben nicht unberührt.

Neue Technologien und effizientere Produktionsprozesse, vor allem die Modul- und Plattformkonzepte6 – nicht zu verwechseln mit digitalen Plattform-Ökonomien – wurden eingeführt, um Kosten zu senken, aber auch, um mit dem Anspruch der Kunden in Bezug auf Qualität, Sicherheit, Design, Verbrauch und Individualität Schritt zu halten. Eine Folge davon war, dass Hersteller große Bereiche ihrer früheren Kernkompetenzen nur noch durch Outsourcing sicher stellen konnten.

Während die OEMs versuchen, den heute so wichtigen Markenwert ihrer Modelle zu steigern, übernimmt die Zulieferindustrie immer mehr Aufgaben im eigentlichen Produktionsprozess und verliert zunehmend das Präfix „Zulieferer“. Diese Entwicklung und die Lohnstückkosten-Situation in den traditionellen Herstellerländern hatte zur Folge, dass die Anteile an der Wertschöpfung in der Automobilproduktion komplett einem Wandlungsprozess unterzogen werden mussten.
Wertschöpfungscluster mit hohem Spezialisierungsgrad wurden realisiert, wobei sich in der Automobilindustrie fünf verschiedene Gruppen von Spezialisten herausbildeten:

Firmen, die sich auf High-Technology-Komponenten spezialisieren.
Firmen, die sich auf Systeme und Module spezialisieren.
Firmen, die sich auf Entwicklungsaufgaben wie computer-gestütztes Design, Prototypenbau und Testverfahren spezialisieren.
Firmen, die sich auf die Gesamtmontage spezialisieren.10

Dieser globale Change-Process zwang Hersteller wie Zulieferer zu erheblichen Investitionen, um Kapazitäten in den sog. ‚emerging marktes‘ wie etwa China und Indien aufzubauen (Roth, 2005). Wir sehen einmal mehr, dass es weder der Wettbewerb noch andere Faktoren auf Märkten oder in der Produktion allein sind, die diese Form der Globalisierung mit den enormen Wandlungsprozessen in der Automobilproduktion bis hin zum Aufbau neuer Märkte und Kooperationen schaffen, sondern – wie wir stets betont haben – dass diese Prozesse auf einer Grundlage der Eigentumsverschiebung basieren, ohne die eine ausreichende Liquidität für solche globalen Investitionen gar nicht möglich wäre.
Und es ist schon bezeichnend für vieles im wissenschaftlichen Verständnis und Diskurs, dass Ingenieure und andere Autoren aus den Praxiszusammenhängen der Produktion viel eher und präziser diesen Wandlungsprozess mit allen seinen nationalen wie globalen Verbindungen zu beschreiben in der Lage sind, als die traditionellen Grundlagen- und empirischen Wissenschaftler.

Wie eben bereits erwähnt, ist die Automobilindustrie durch eine starke Verflechtung und Einbindung der Zulieferer in die Produktionsabläufe gekennzeichnet. Die Automobilhersteller befinden sich also innerhalb eines Produktionsgeflechts und konzentrieren sich hauptsächlich auf die Bereiche Basis-Entwicklung und Endmontage kompletter Module und Systeme. Mit den so genannten Systemintegratoren oder Tier-1 Lieferanten entwickeln sie gemeinsam diese Systeme und Module, deren Produktion dann die Zulieferer im Outsourcing herstellen.

Die Integration im Produktionsprozess ist auf dieser Stufe sehr hoch, da die verschiedensten Konfigurationen aufeinander abgestimmt werden müssen. Manchmal kann man auch von regelrechten Kooperationen im Produktionsprozess sprechen. Die Lieferanten auf dieser Ebene bekommen auch einen sehr tiefen und genauen Einblick in die Partner-OEMs und deren Technologien. Dies bedeutet eine nicht zu unterschätzende Gefahr für die Automobilhersteller, da man sich und seine Kernkompetenzen Unternehmen ausliefert, die auch intensiv mit anderen, konkurrierenden Herstellern zusammenarbeiten.

Die Tier-1 Lieferanten lagern ihrerseits die Herstellung und Entwicklung der einzelnen Komponenten wiederum an Tier-2 Lieferanten aus. Die Tier-1 und Tier-2 Lieferanten entwickeln also gemeinsam Komponenten. Diese werden von den Tier-2 Unternehmen hergestellt und von den Tier-1 Unternehmen zu kompletten Modulen oder ganzen Systemen zusammengebaut. Die weiteren Lieferanten-Ebenen, Tier-3, Tier-4 bis Tier-n sind reine Teile-Lieferanten bis hin zu den Rohstoff- und Halbzeugzubringern.

In der modernen Produktion nehmen zudem Dienstleister eine besondere Stellung ein. Sie übernehmen diverse Spezialaufgaben, wie Software-Programmierungen oder Designstudien und sind auf allen Ebenen der Produktion tätig. Derzeit gibt es neben einer Vielzahl kleiner rund 350 große Dienstleister11 in der Automobilproduktion.
Neben der Prozess- und Produktionsoptimierung und durch die Einführung von Plattformen und Modulen nimmt die Elektronik in allen Automobilklassen einen immer größeren Raum ein; leider auch in der Motorsteuerung mit den aktuell (2018) bekannten Problemen bei der Diesel-Abgassteuerung.

Das wissenschaftlich-methodische Modell der empirischen Datenauswertung, das die Basis für Aussagen über die Ist-Situation der Wirtschaft wie auch die Basis für den prognostischen Rahmen bildet, kommt spätestens hier in Gänze an ihre Grenzen. Nicht nur dass sich die Datenbasis extrem schnell verändert, auch der Zugang und die Vergleichbarkeit der Daten, die in einer transnationalen Produktion erhoben werden müssen sowie deren Beziehung zu Vergleichsgrößen wie Preis, Beschäftigung, Investitionssummen, die wiederum transnational in unterschiedlichen Datenclustern erhoben werden etc. ist nicht mehr gegeben.
Selbst innerhalb des europäischen Wirtschaftsraumes werden diesbezüglich Schwierigkeiten sichtbar, die die Wissenschaft der Ökonomie vor schier unlösbare Probleme stellt. Der Witz dabei ist zudem noch, dass dies im Umfeld der Digitalisierung geschieht, also in einer Situation, in der die Datenerhebung einfacher und aktueller zu sein scheint, als jemals zuvor in der Geschichte.

Die veränderten Produktionsprozesse bedürfen zu einem hohen Maße auch noch einer intensiven, zeitnahen und abgestimmten Kommunikation über den gesamten Produktionsprozess hinweg. Das hat an dieser Stelle nur wenig mit der viel zitierten Industrie 4.0 zu tun, die nur ein Teil dieser vernetzten Kommunikation, Maschine-zu-Maschine übernehmen soll. Kommunikation und Vertrauen, ein zunehmend dehnbarer Begriff im ökonomischen Zusammenhang, funktionieren natürlich um so weniger, als sie innerhalb vertikaler, pyramidaler Strukturen stattfinden. Nicht nur in der Automobilwirtschaft erkennen wir deren Nachteile, so auch im Bereich Banken und anderen. Vertikale Kommunikation kann sich da noch einigermaßen erhalten, wo noch keine oder kurze Wertschöpfungscluster in der Produktion sich herausgebildet haben. Netzwerk-Produktion und Netzwerk-Kommunikation sind Parallelentwicklungen.

Wertschöpfungscluster, innerhalb derer OEMs, mehrere Zuliefererebenen, Dienstleister und Forschungseinrichtungen vernetzt sind, zu denen heute schon sich sog. After-Sales-Strukturen aus mehreren Ländern und später die Industrie 4.0 integrieren, verändern Kommunikation sowie Vertrauen und Sicherheit im ökonomischen Zusammenhang nachhaltig.
Und nicht nur der Eigenleistungsanteil der Produzenten verringert sich drastisch durch globale Cluster in Produktion, Vertrieb, Forschung und Entwicklung. Auch auf der Kapitalseite verschieben sich traditionelle Muster. Wenn Zulieferer immer höheren Investitionsbedarf in der Wertschöpfungskette haben, übernehmen sie natürlich gleichzeitig auch höhere Risiken, was sich auf die Entscheidungsstrukturen, Renditeerwartungen und auf die Arbeitsplätze auswirkt. So haben sich die Beschäftigtenzahlen nicht nur in der deutschen Automobilindustrie in den letzten zehn Jahren mit über zwei Prozent jährlich deutlich positiv entwickelt. Bis auf die USA sieht man auch in anderen Ländern der Automobil-Triade (USA-Europa-Asien/Japan) ähnliche Effekte. In der Ökonomik mit ihren wenigen Parametern wie Mengen, Preise und Beschäftigung sind diese transnationalen Produktionsformen und damit auch die Auswirkungen der Technischen Entwicklung nur schwer zu erfassen. Prognosen, was Investitionsvolumina, Beschäftigungsmigration, Zeit-und Kosteneinsparungen sowie globale Berechnungen der TCO (Total Cost of Ownership) und Produktivitätsentwicklungen auch nur in einer Branche wie der Automobilbranche mit ihrer noch verhältnismäßig guten Datenbasis anzustrengen wird immer schwerer. Selbst in einem einzig Produktsegment, der Elektromobilität ist dies heute nur noch möglich bei gleichzeitigem Verzicht auf aussagekräftige Prognosen.12



Anmerkungen:

1 Vgl auch: Hans Christoph Binswanger (1982): Geld und Wirtschaft im Verständnis des Merkantilismus. In: Fritz Neumark (Hrsg.): Studien zur Entwicklung der ökonomischen Theorie II. Geschichte merkantilistischer Ideen und Praktiken. Duncker und Humblot, Berlin 1982, ISBN 3-428-05110-6

2 Wir verwenden diesen Begriff bewusst außerhalb seiner üblichen Bestimmung als "real bestehende Produktion".

3 Chief Scientist at Salesforce, Richard Socher.

4 Ein Abakus ermöglicht die Durchführung der Grundrechenarten Addition, Subtraktion, Multiplikation und Division sowie das Ziehen von Quadrat- und Kubikwurzeln. Die meisten Rechenoperationen können mit den römischen Ziffern nicht einfach durchgeführt werden. Deshalb gab es den leicht abgewandelten Römischen Abakus.

5 Da es im Verlauf der Technischen Entwicklung nicht nur Phasen der quantitativen Verbesserung gibt, sprechen viele Wissenschaftler lieber vom Technischen Wandel als vom Technischen Fortschritt.

6 Nicht jede dieser Relationen kommen ins wirtschaftliche Kalkül, sondern nur jene Input-Output-Relationen, die bereits als effizient angesehen worden sind.

7 Über den heute im Diskurs großen Raum einnehmenden Ansatz eines "bedingungslosen Grundeinkommens" werden wir zu einem gegebenen Zeitpunkt und innerhalb eines nicht nur auf die Technische Entwicklung beschränkten Ansatzes zurückkommen.

8 Werner Eichhorst, Patrick Arni, Florian Buhlmann, Ingo Isphording, Verena Tobsch: Wandel der Beschäftigung. Polarisierungstendenzen auf dem deutschen Arbeitsmarkt. Institut zur Zukunft der Arbeit (IZA), Bertelsmann-Stiftung, 2015, abgerufen am 1. April 2017. S. 19.

9 Unser kurzes Beispiel bezieht sich auf die Veränderungen in der Automobilindustrie, die sich besonders zwischen 2000 und 2010 eingestellt haben. Zur Begriffserklärung:
OEM (Original Equipment Manufacturer) Ein Auftragshersteller (OEM) ist ein Hersteller, der (Vor-)Produkte oder Komponenten, die er von einem Zulieferer bezieht, in seine (End-) Produkte einbaut, welche er dann unter seinem Namen vertreibt (Wikipedia). Der Begriff sorgt gelegentlich für Verwirrung, weil darunter auch Hersteller verstanden werden, welche ihre Produkte für andere Unternehmen unter deren Markennamen produzieren. In dieser Arbeit wird mit dem Begriff OEM der Automobilhersteller selbstgemeint und nicht deren Zulieferer. Diese Bezeichnungsweise ist branchenüblich.
Tier-n
Zulieferer der n-ten Stufe (Fertigungstiefe, Grad der Vollständigkeit), mit der ein Betrieb die für die Herstellung seiner Endprodukte erforderlichen, aufeinander folgenden Bearbeitungsvorgänge bzw. Wertschöpfungsstufen selbst durchführt (Schuh, 2005:2)

10 Die fünfte Gruppe sind die eigentlichen Automobilhersteller, die sich als Marken-Integratoren auf Produktplanung und Marketing konzentrieren (Jürgens, 2004. Outsourcing)

11 International Business Development Corporation (2002): SAE Media Briefing February 22, Bloom-field Hills, Michigan, USA

12 Schuh, Günther (2005) Produktkomplexität managen. Strategien · Methoden · Tools. 2., überarbeitete und erweiterte Auflage. CarlHanser Verlag GmbH & Co. KG. eISBN: 978-3-446-44354-9. Print ISBN: 978-3-446-40043-6.
Jürgens, Ulrich, (2004) Characteristics of the European Automotive System: Is There a DistinctiveEuropean Approach? International Journal of Automotive Technology and Management 2004 - Vol. 4, No.2/3, 112 – 136
Jürgens, Ulrich, (2004) Outsourcing & Co. - Zur Neustrukturierung der Zulieferbeziehungen in der Automobilindustrie, erschienen in der Tagungsdokumentation: Wie weit reicht die Verantwortung von Unternehmen?, Germanwatch, S 7-15




Foto: monika m. seibel www.photographie-web.de



zurück ...

weiter ...




Ihr Kommentar


Falls Sie Stellung nehmen, etwas ergänzen oder korrigieren möchten, können sie das hier gerne tun. Wir freuen uns über Ihre Nachricht.