Jusletter IT

Die Berechnung der Welt und ihre Folgen

  • Author: Klaus Mainzer
  • Category: Articles
  • Region: Germany
  • Field of law: Big Data, Open Data & Open Government, Information Technology
  • Citation: Klaus Mainzer, Die Berechnung der Welt und ihre Folgen, in: Jusletter IT 21 May 2015
The topic «Calculation of the World and its Consequences» affiliates to my last book with the same title. Everything that has been discussed at the Conference for Informatics and Law in Berne is to be understood in light of the «Internet of Things». This is the second digital revolution. The first digital revolution was the «Internet of Persons», in which a world wide computer network was used for the communication between persons. In the «Internet of Things» subjects and objects are provided with communications interfaces (RFID-Chips, sensors et cetera) to communicate amongst each other: automobiles with their environment, work pieces in the industry and robots. (ah)

Inhaltsverzeichnis

  • I. Was treibt die Entwicklung der Big Data Welt an?
  • II. Big Data Governance – Was sind die Perspektiven einer neuen digitalen Wirtschafts-, Rechts- und Gesellschaftsordnung ?
  • III. Ziele und Perspektiven der Big Data Welt

I.

Was treibt die Entwicklung der Big Data Welt an? ^

[1]
  1. Seit den 1960er Jahren gibt das Mooresche Gesetz die exponentielle Entwicklung der Rechenkapazität vor: Alle 18 Monate verdoppelt sich im Schnitt die Rechenkapazität bei gleichzeitiger Miniaturisierung und Verbilligung der Geräte. Wir sind auf dieser exponentiellen Kurve im Zeitalter der Petaflops (1015 Rechenschritte pro Sekunde) für Superrechner angelangt. So hat z.B. der Superrechner in München 3 Petaflops (die weltweit schnellsten liegen derzeit bei über 10 Petaflops in USA, China und Japan). Eine vereinfachte Überschlagsrechnung zeigt, dass wir damit in die Größenordnung des Datenverkehrs im menschlichen Gehirn gelangen: Wenn wir von 1011 Neuronen ausgehen mit ca. 1‘000 (= 103) synaptischen Verbindungen pro Neuron, dann erhalten wir 1014 synaptische Verbindungen im Gehirn: Das ist die gute Nachricht – die hohe Netzdichte. Die schlechte Nachricht ist, das wir relativ langsam sind – nur 200 (= 2x102) Pulse pro Sekunde, die wir als elementare Rechenschritte interpretieren können: Dann sind wir bei insgesamt 2x1016 Rechenschritte pro Sekunde – also im Petabereich heutiger Superrechner. Dass wir den Datenverkehr im Gehirn noch nicht komplett simulieren können, hängt vor allem mit den mangelnden Detailkenntnissen in Gehirn- und Kognitionsforschung zusammen. Insbesondere sind wir bei Beherrschung des Datenverkehrs noch lange nicht in der Lage, die kognitiven und mentalen Fähigkeiten des Gehirns zu erklären. Unabhängig davon ist die erlangte Rechenkapazität nach dem Mooreschen Gesetz beachtlich.
    Nach dem Mooreschen Gesetz wird diese Rechenleistung wegen der vorausgesagten Miniaturisierung und Verbilligung in den 2020er Jahren von kleinen Rechengeräten realisiert. Das bedeutet, dass dann z.B. ein Smartphone die Rechenkapazität unserer Gehirne simulieren könnte (was noch nicht heißen muss, dass wir dann auch alle kognitiven Fähigkeiten des menschlichen Gehirns simulieren können). Bei gleichzeitiger Miniaturisierung der Transistoren werden wir aber an die Grenzen des atomaren Bereichs stoßen. Hier gelten dann die Empfindlichkeiten und Störungen der Quantenphysik. Dann wird man weiter sehen müssen, vielleicht mit Quantenrechnern. Jedenfalls ist die bisherige Rechenleistung bereits gewaltig.
  2. Hinzu kommt eine sich exponentiell entwickelnde Sensortechnologie, die immer billigere und kleinere Sensoren entwickelt – wie in lebenden Organismen, von Sensoren in organischer Größe (z.B. Kameras) über zelluläre Größen (wie z.B. Bakterien in der Natur) bis zu molekularer Größe im Nanobereich. In der Nanoelektronik sind wir bereits im Grenzbereich der Halbleitertechnik auf Siliziumgrundlage (d.h. 100–1Nm) angelangt. Derzeit wird nach organischen Alternativen in Nanogröße (z.B. Kohlenstoff) geforscht, um die Rechenkapazität vor der atomaren Grenze auszunutzen. Da wir in den 2020er Jahre mit der Miniaturisierung an die Grenzen der Quantenphysik gelangen, werden sich Firmen und angewandte Forschung auf die Ausnutzung der Rechenkapazität vor der Quantengrenze konzentrieren. Das lässt sich durch Integration weiterer Technologie im Internet der Dinge erreichen. Winzige Sensoren im Nanobereich könnten z.B. die kleinsten Veränderungen von Proteinfaltungen als Frühstadium von Krebstumoren entdecken. Google hat bereits ein entsprechendes medizinisches Forschungsprogramm angestoßen. Auch die Funktionen eines biochemischen Labors lassen sich mittlerweile auf einen winzigen Chip integrieren.
  3. Die dadurch produzierten Datenmassen führen zu Big Data. Auch hier sind wir im Peta-Zeitalter angelangt. Datenkonzerne wie Google setzen heutzutage täglich 24 Petabytes um, d.h. 6‘000 mal der Dateninhalt der US Library of Congress. Die Datenmassen sind amorph, nicht nur strukturierte Nachrichten wie E-Mails, sondern Sensordaten von GPS und MobilPhones.
[2]
Diese Datenmassen können von herkömmlichen (relationalen) Datenbanken nicht bewältigt werden. Dazu bedarf es neuartiger Algorithmen wie die Google-Suchmaschine MapReduce (oder Hadoop in Java). Vereinfacht gesagt teilt dieser Algorithmus eine Datenmasse in Teilaufgaben auf (mit der Funktion «Map»), um sie parallel nach Datenkorrelationen und Datenmustern zu durchsuchen. Im nächsten Schritt werden die Teilergebnisse zum Gesamtresultat zusammengeführt (mit der Funktion «Reduce»).
[3]
Das Ziel sind Prognosen von Trends und Profilen von z.B. zukünftigen Produkten oder Kunden. Neu bei Big Data ist: Prognosen werden nicht statistisch aufgrund von repräsentativen Stichproben hochgerechnet, sondern alle Daten und Signale werden durchforstet, um Korrelationen und Muster zu erkennen. Anschaulich kann man sagen: Um die Nadel zu binden, benötigt man einen möglichst großen Heuhaufen, der total durchforstet wird.
[4]
Neu ist auch, dass man die Inhalte der Nachrichten nicht kennen muss. Ihre Bedeutung wird vielmehr massenhaft aufgrund von Metadaten gewonnen: Bei einer E-Mail sind das z.B. Absender und Empfänger, bei einem MobilePhone oder Automobil die Funksignale.
[5]
So gelang es Google, nur aus den Mustern des Kundenverhaltens den Ausbruch einer Epidemie in USA Wochen vor den Gesundheitsämtern vorauszusagen, die wie üblich Nachrichten und Meldungen von Krankheitsfällen abgewartet und statistisch hochgerechnet hatten. (Diese Methode wurde zwischenzeitlich durch Kombination mit statistischen Verfahren verbessert.)
[6]
Die Medizin ist ein anschauliches Beispiel, das zeigt, wie Big Data Wissenschaft unsere Lebenswelt verändert. Da sind zunächst die medizinischen Datenbestände: In 2015 rechnet man damit, dass einzelne Patientenakten auf 20 Terabytes (1012) anwachsen. In den 2020er Jahren werden medizinische Datenbestände von insgesamt 90 Zettabytes (1024) erwartet.
[7]
Das medizinische Wissen wird unübersehbar: So gibt es heute bereits z.B. ca. 400‘000 Fachartikel über Diabetes, die ein Arzt in einem Menschenleben nicht lesen kann. Dazu bedarf es intelligenter Suchmaschinen, um für den jeweiligen Patienten die passenden Schlüsselinformationen zu finden.
[8]
Das führt in Richtung einer personalisierten Medizin, da Krankheiten im komplexen Organismus der Menschen sehr unterschiedlich ablaufen können. Beispiel ist der Krebs: Wegen der dauernden Mutationen der Tumore, müssen laufend Daten erhoben werden, um eine passende Therapie individuell ständig anpassen zu können.
[9]
Dazu bedarf es neuartiger Datenbanken wie z.B. SAP HANA («High Performance Analytic Application»), die auf schnelle Arbeitsspeicher zurückgreifen können («In-Memory-Technology»): Eine molekulare Krebsanalyse (Proteomik) von 15 Minuten reduziert sich damit auf 40 Sekunden, eine DNA-Sequenzierung von 85 Std. (= 3 ½ Tagen) auf nur 5 Std.
[10]
Das nächste zentrale Beispiel ist die Wirtschaft: In der Wirtschaft können durch Big Data Mining blitzschnell Kunden- und Produktprofile vorausgesagt werden. So werden mit Big Data neue Geschäftsmodelle und Wertschöpfungsketten möglich: Die Besitzer von Daten verdienen durch Lizenzen des Datenverleihs. Dann gibt es den Verdienst durch Know How und Skills im Umgang mit Datenmassen und schließlich Mind Set, d.h. Verdienst durch neue Geschäftsideen mit Datenmengen.
[11]
Datenmassen sind das Rohöl der Zukunft! Daten werden aber durch Gebrauch nicht aufgezehrt, sondern immer wieder in neuen Kontexten verwendbar: Beispiel sind Firmen, die Datenmassen zur Verkehrssteuerung verwenden, dann an andere verkaufen, die sie für Informationen über den Arbeitsmarkt (Arbeitslosigkeit) aufgrund von zeitlich unterschiedlichen Verkehrsbelastungen auswerten und schließlich wieder andere, die diese Daten mit ABS-Daten korrelieren, um aus dem Bremsverhalten die sichersten und kürzesten Straßenverbindungen zu ermitteln.
[12]
Aber stellen wir uns nun vor, dass wir die Big Data Technologie auf die Medien-, Kunst- und Kulturwelt anwenden: Blitzschnell wird der Kundengeschmack vorausberechnet, um eine passende TV-Sendung mit entsprechender Quote zu produzieren. Filme, Bücher und Kunst nach Big Data ermittelt, damit der Erfolg gesichert ist? Wie viele Hindernisse mussten geniale Einfälle in Kunst- und Literaturgeschichte überwinden, die quer zu den Trends lagen? Steuern wir mit Big Data effektivitätsversessen in eine Medienwelt gähnender Langeweile?

II.

Big Data Governance – Was sind die Perspektiven einer neuen digitalen Wirtschafts-, Rechts- und Gesellschaftsordnung ? ^

[13]
Big Data führt zu dramatische Veränderungen in Staat und Politik: Vor Jahren war es bereits möglich, aus den Verhaltensmustern der Daten Kriminalfälle in bestimmten Stadtbezirken der USA vorauszusagen («Precriming»). Das erinnert an den Science Fiction Film Minority Report, in dem eine Art Gedankenpolizei operierte und beabsichtigte Verbrechen schon im Vorfeld bestrafte. Wir müssen aber die Gedanken und Inhalte der Nachrichten nicht kennen. Wir brauchen kein mystisches Orakel. Es reicht, aufgrund der Metadaten typische Korrelationen in Verhaltensmustern abzuleiten und sie mit Täterprofilen abzugleichen. So wurde z.B. in Zürich ein Programm eingesetzt, das aufgrund von Datenmustern die Gefährdungsgrade von Stadtteilen und Straßen bei Einbruchsdiebstählen angibt. Das Programm wird seit zwei Jahren im Landeskriminalamt von Bayern eingesetzt und seit letztem Jahr im Polizeipräsidium von München.
[14]
Der nächste Schritt ist die Datenerhebung per Drohneneinsatz im AntiTerrorkampf. Wenn dann allerdings vermeintliche Täter per Drohneneinsatz auch liquidiert werden, dann werden demokratische Grundrechte auf einen fairen Prozess unterlaufen – es sei denn, der Einsatz findet im Rahmen einer Kriegshandlung statt.
[15]

Schließlich die schöne neue Welt der Spionage: Wer die größten Suchmaschinen, Speicher und Algorithmen hat, beherrscht die Welt! Das ist nicht ganz neu: Während des 2. Weltkriegs war die britische Entschlüsselung des deutschen Codes der Enigma kriegsentscheidend, wie Eisenhower als Oberkommandierender der Alliierten Streitkräfte und der britische Premier Winston Churchill später feststellten, wenigstens war die Decodierung kriegsverkürzend. (Übrigens nicht nur im U-Boot-Krieg, sondern der gesamte deutsche Staatsapparat [Reichsregierung, SS, SD, Wehrmacht, alle Dienststellen] bedienten sich dieses Codes.)

[16]
Bemerkenswert ist, dass Turing, der geniale britische Logiker und Computerpionier, maßgeblich an der Decodierung beteiligt war. Nach dem 2. Weltkrieg herrschte das «Gleichgewicht des Schreckens» zwischen den beiden atomaren Supermächten USA und UDSSR. Nach dem Fall des «Eisernen Vorhangs» 1989 wähnten viele, dass die bipolare durch eine multipolare Weltordnung ersetzt würde. Einige sahen auch schon die USA auf dem Rückzug – militärisch, wirtschaftlich, politisch. Spätestens seit den Snowden–Enthüllungen wissen wir, dass diejenigen ihre Rechnung ohne die NSA und die amerikanische IT-Technologie gemacht hatten.
[17]
Die IT-Technologie hängt nämlich weltweit weitgehend von den USA ab: Die IT-Giganten, z.B. Microsoft, Apple, Facebook, Amazon etc., sind amerikanische Firmen. Die weltweite Übermacht der amerikanischen IT-Branche ist keineswegs allein das Ergebnis freier Marktwirtschaft, also die Initiative privater Unternehmer. Hier kommt IT-Governance zum Einsatz: Silicon Valley kann als Beispiel amerikanischer IT-Kaderschmieden seit den 1970er Jahre gelten: Im Zentrum eine Elite-Universität wie Stanford, aus der heraus Start-ups gegründet wurden, die sich später zu Weltfirmen entwickelten (z.B. Hewlett-Packard). Das wurde möglich durch massive Staatsprogramme, an der Regierung, Banken, Militär und Geheimdienste (NSA, CIA, FBI etc.) beteiligt waren – bis heute: Personal wechselte zwischen Universität und diesen Institutionen (z.B. Packard als Professor, Manager und stellvertretender US-Verteidigungsminister 1969–1971).
[18]
Ist Europa abgehängt? Eindeutig: Ja! In der Vergangenheit haben sich Deutschland und Europa zu sehr auf den «Großen Bruder» verlassen und eine eigne IT-Schlüsseltechnologie versäumt. Wenn deutsche Ministerien ihre Sicherheitssoftware von amerikanischen Firmen bezogen haben, spricht das Bände. Aber Jammern und moralisches Lamento reicht nicht! Vielmehr gilt, wie es in USA heißt: Help yourself!
[19]
Europa und Deutschland müssen ein eigenes Selbstbewusstsein mit einer eigenen IT-Technologie aufbauen, nicht im Gegensatz zu den USA, sondern in Partnerschaft mit den USA. Nun sind allerdings viele IT-Züge schon abgefahren:
[20]
Eine eigene Suchmaschine à la Google noch einmal zu entwickeln, wäre überflüssig. Auch ein europäisches Internet mit europäischem Routing (um das Abfangen der Datenpakete bei Umleitungen durch die USA zu vermeiden) ist nur begrenzt sinnvoll. Wir müssen auf neue Innovation setzen:
[21]
Mit dem «Internet der Dinge» zeichnet sich die zweite digitale Revolution ab, die Deutschland und Europa nicht nutzlos verstreichen lassen sollten. Mittlerweile wachsen nämlich die IT-Netzwerke mit den physischen Infrastrukturen unserer Gesellschaft zusammen. Grundlage ist neben der Rechner- vor allem die Sensortechnologie. Milliarden von Sensoren machen die Kommunikation und Selbststeuerung der Dinge erst möglich. Wir sprechen dann von Cyberphysical Systems oder soziotechnischen Systemen.
[22]
Erstes Beispiel sind Automobile, die immer stärker mit Software-Modulen ausgestattet und immer autonomer werden – zunächst der Airbag mit seinen Sensoren. Heute sind Automobile «Computer auf Rädern» – schließlich autonome Roboter, technisch bereits möglich, nur noch eine Frage rechtlich-gesellschaftlicher Rahmenbedingungen.
[23]
Weiteres Beispiel sind die Energiesysteme nach der Energiewende, die zu «Smart Grids» werden: Wir konnten uns bereits vor Jahren im Internet informieren, wann wir unsere stromfressenden Geräte zu welcher Zeit und zu welchem Tarif am besten einschalten sollten. Aber das war und ist vielen viel zu umständlich und zeitaufwendig. Daher wird in Zukunft intelligente Software diese Aufgabe übernehmen. Zudem werden sich die Netze dezentral organisieren können. Aufgrund der verbesserten Isolation der Gebäude und eigner Stromerzeugung mit z.B. Fotovoltaik oder Biogas wird nicht nur Energie für den eigenen Stromverbrauch erzeugt, sondern Energie ans Netz gegeben. Die Daten dieser Gesamtenergie werden dann im Netz verwaltet. Wir sprechen bereits von der «Cloud», also Daten nicht mehr im häuslichen Rechner wie die Bücher in der Hausbibliothek, sondern öffentlich draußen im Netz!
[24]
Der nächste Schritt sind «Smart Cities», in denen Energiesysteme nur noch eine Teildomäne neben z.B. Verkehrssystemen, Krankenversorgung, Verwaltung, Logistik sind. Diese verschiedenen Domänen müssen in intelligenter Software integriert werden. Eine gewaltige Herausforderung an das Software-Engineering! Das Software-Engineering befindet sich in einem Umbruch zum Systems-Engineering. Zukünftige Ingenieurinnen und Informatiker werden es nicht nur mit einzelnen technischen Geräten zu tun haben, sondern mit soziotechnischen Systemen mit integrierten Geräten, IT-Netzen und Menschen.
[25]
Die zunehmende Komplexität der Infrastrukturaufgaben ist heute so gewaltig, dass wir ohne Cyberphysical Systems nicht mehr auskommen. Wir brauchen ihre Selbstorganisation und Automatisierung, um die Aufgaben der Logistik, Versorgungssysteme, Gesundheitssysteme, Verkehrssysteme überhaupt im Griff behalten zu können. Andererseits wachsen auch die Risiken empfindlicher Störungen solcher hochkomplexer Systeme – lokale Störungen, die sich kaskadenhaft aufschaukeln können («Schmetterlingseffekt»).
[26]

Vor dem Hintergrund der Cyberphysical Systems bzw. soziotechnischen Systeme verändert sich die Wirtschafts- und Industriewelt grundlegend. Die Rede ist von Industrie 4.0:

[27]
Industrie 1.0 war die Dampfmaschine, Industrie 2.0 Henry Fords Fließband, Industrie 3.0 fixierte Industrieroboter am Fließband (z.B. Autoindustrie), Schließlich Industrie 4.0 das «Internet der Dinge» in der Industriewelt. Internet der Dinge meint, dass Gebrauchsgegenstände mit Sensoren, RFID-Chips und Softwarefunktionen ausgestattet sind und sich selber wahrnehmen und miteinander kommunizieren können. In der Arbeitswelt kommuniziert also das Werkstück mit Design, Werkbank, Transport, Logistik, Vertrieb und Versand, um die eigene Produktion zu organisieren.
[28]
Damit wird eine neue Kundenorientierte Produktion möglich: On Demand Production oder Tailored («maßgeschneiderte») Production. Früher konnten sich nur wenige Reiche maßgeschneiderte Anzüge, individuell für den eigenen Bedarf, leisten. In Industrie 4.0 wird on-demand produziert, nach dem individuellen und personalisierten Kundendesign. Der individuelle und personalisierte Produktionsprozess kann sich selber organisieren. Auch in den Energiesystemen beobachten wir den Trend zu dezentraler und individueller Versorgung. Auf der ganzen Linie erleben wir also eine Abkehr von der Massen- und Standardproduktion à la Henry Ford – von der Industrie über die Ernährung bis zur personalisierten Medizin.
[29]
Wir reden derzeit von einem Markt von 10 Milliarden weltweit vernetzter Geräte, davon alleine 3,5 Milliarden Geräte in den USA. 2020 werden 28 Milliarden vernetzter Geräte erwartet. Grund ist die sich exponentiell entwickelnde Sensortechnologie!
[30]
Im industriellen Internet («Industrie 4.0») läge nun ein zentraler Standortvorteil Deutschlands und Europas. Deutschland ist ein klassisches Industrieland seit dem 19. Jahrhundert. Mit mehr als 22% hängt die deutsche Wirtschaft von der Industrie ab – ganz im Gegensatz zum Mutterland der Industrialisierung Groß-Britannien, das heute maßgeblich von seinen Finanzgeschäften abhängt. Die deutsche Motor-, Auto- und damit verbundene Zulieferungsindustrie ist weltweit führend. Die mittelständische Betriebsform in Deutschland (vor allem Baden-Württemberg) hat maßgeblich dazu beigetragen, so gut durch die jüngsten Finanz- und Wirtschaftskrisen zu gelangen. Dort werden die Technologien produziert, um Fabriken, Energie-, Verkehrs- und Datennetze miteinander zu verbinden.
[31]
Die Deutsche Akademie für Technikwissenschaften (acatech) hat bereits eine nationale Plattform Industrie 4.0 initiiert, die mit den Industrieverbänden umgesetzt werden soll. Aber das reicht nicht. Wie die USA zeigen, bedarf es der flankierenden Maßnahmen des Staates. Die Wirtschaft setzt seit langem auf eine indirekte Subvention der Forschung über einen Steuerbonus, d.h. Unternehmen bekommen für Forschung eine Gutschrift, die von der Steuerschuld abgezogen wird. Sie stößt damit auf wenig Gegenliebe beim Bundesfinanzminister, der Steuersubventionen generell abbauen will. Das sollte aber nicht ausschließen, in den geltenden Einkommens- und Körperschaftssteuern Verbesserungen zugunsten von Innovationen vorzunehmen.
[32]
Wie beim Silicon Valley bedarf es daher einer deutschen IT-Initiative. Seit Jahren werkelten 16 Bundesländer und eine Bundesregierung an ihren eigenen Konzepten. Seit 2014 gibt es endlich die «digitale Agenda» der Bundesregierung. Aber was steht da?
[33]
Die angepeilte Internetgeschwindigkeit von 50 Megabit pro Sekunde ist äußerst bescheiden, wenn die Niederlande bereits 2013 eine flächendeckende Versorgung mit 100 Mbit zu 95% erreicht hatten.
[34]
Von 7 Milliarden Euro für das Wirtschaftsministerium in 2015 sind gerade einmal 73 Millionen für IKT vorgesehen. Wann folgt wieder einmal ein deutsches IT-Unternehmen vergleichbar zu SAP? Dazu muss auch mehr Wagniskapital bereitstehen, um Start-ups und jungen Firmen in der kritischen Wachstumsphase zu helfen. Zudem muss sich die Mentalität gegenüber Risiko und Unternehmen ändern. Statt «Scheitern» (ein furchtbares deutsches Wort) als Erfahrungssammeln im Trial-and-Error-Prozess der Innovationen und Unternehmensgründungen zu verstehen, schreiben deutsche Soziologen lieber über die «Risiko-Gesellschaft» und diagnostizieren unbeabsichtigt eine eigene Befindlichkeit, die im Ausland als «the German Angst» wahrgenommen wird.
[35]
Die Konkurrenz schläft nicht: Die USA haben ebenfalls ein «Industrial Internet Consortium» gegründet, das vom Staat mit 100 Millionen Dollar unterstützt wird (nur diese einzelne IKT-Initiative). Aber die amerikanischen Strategien reichen längst weiter, wie die Singularity University im Silicon Valley verkündet: Die IKT-Welt, so das Argument, wird von exponentiellen Wachstumsgesetzen angetrieben:
  • Exponentiell wachsende Rechenkapazität (Mooresches Gesetz)
  • Exponentiell wachsende Sensorzahlen
  • Exponentiell wachsende Datenmassen etc. etc.
[36]
Firmen müssen sich mit ihren Unternehmensstrukturen anpassen und werden selber zu «exponentiellen Firmen»: IKT-Technologie reduziert die traditionelle materielle Produktion zunehmend auf Apps und Softwaremodule: Kameras werden zu Apps in Smartphones! Google, Paradebeispiel einer exponentiellen Firma, baut bereits autonome Elektroautos! Kodak als Massenproduzent für Kameraausrüstung ist weitgehend vom Markt verschwunden, da jeder diese Kamerafunktionen in winzigen Apps und Sensoren im Smartphone besitzt. Was passiert, wenn diese Strategie auf den Kern der deutschen Industrie, die Automobilindustrie, angewendet wird und demnächst billige 3D-Drucker die materiellen Bausteine eines Automobils herstellen? Dann kommt es nur noch auf die Daten an, die in diese 3D-Drucker gesteckt werden müssen – und diejenigen, die diese Daten beherrschen. Wird es die deutsche Automobilindustrie in Zukunft noch in ihrer bekannten Formation geben oder werden Google & Co. die Nachfolge antreten?
[37]
Die IT-Firmen brechen überall in andere Domänen ein. Umgekehrt werden sich aber auch IT-Firmen umstellen müssen. Ein IT-Gigant wie Microsoft hat bislang Software im Stil von Industrie 2.0 als Massen- und Standardfabrikation produziert. In der Welt von Industrie 4.0 werden Software-Häuser auf individuelle Wünsche und den Bedarf einzelner Firmenkunden zugehen müssen. Konzerne werden nicht länger Massenstandards vorgeben können, sondern sich in Consultingfirmen verwandeln, die individuelle Tools und passgenaue IT-Infrastrukturen mit dem Kunden entwickeln müssen. Das gilt auch für Energiekonzerne: Firmen wie Eon richten sich auf einen dezentralen Markt ein und setzen zunehmend auf individuelle Beratung, um die passgenaue Lösung zu finden. Das führt zu neuen Geschäftsmodellen wie «Buy and Built». Nur durch Individualisierung und Personalisierung kann Vertrauen aufgebaut werden.
[38]
Vertrauen ist entscheidend für den Erfolg des industriellen Internets. Im Mittelstand als Rückgrat (nicht nur deutscher) Industriekultur meldet sich nämlich auch Skepsis. Der Grund ist die Cloud-Technologie: Wenn ein Mittelständler gutes Geld mit seinem Geschäftsmodell verdient, dann wird er sich hüten, die entsprechenden Daten in die Cloud zu stellen – vor allem nach der NSA-Debatte und Industriespionage. Die bisherige Sicherheitstechnik ist die Achillesferse von Industrie 4.0. Daher werden auch in diesem Fall individuelle Lösungen gefunden werden müssen. Man wird genau überlegen müssen, welche Daten in die Cloud gesetzt werden sollen, um einen effektiven Zugriff auf Daten durch Mitarbeiter und Kunden zu ermöglichen. Besonders sensible Firmendaten gehören eben nicht in die Cloud. Zudem ist auch 3.1 oder 3.3 eine individuell gute Lösung, die vom jeweiligen Firmenprofil abhängt.
[39]
Aus Arbeitnehmersicht stellt sich ebenfalls die Frage der Datensicherheit: Die Automatisierung ist nur möglich, weil viele Sensoren, Kameras, Lichtschranken etc. dauernd massenhaft Daten aufnehmen. Wer hat Zugriff auf diese Daten, wo werden sie wie lange für wen gespeichert?
[40]
Schließlich geht es um den Arbeitsmarkt selber. Wird die Automatisierung der Industrie nicht zu Arbeitslosigkeit führen? Die Entwicklung wird in erster Linie die Effektivität der Industrie stärken. Sie wird nicht Arbeitslosigkeit produzieren. Deutschland mit bereits hoher Automatisierung hat deutlich geringere Arbeitslosigkeit als andere europäische Länder. Arbeitslosigkeit hat in diesen Ländern andere Gründe und hängt z.B. mit versäumten Reformen des Arbeitsmarkts zusammen. Ich teile auch nicht die Horrorvorstellung, dass wir am Ende nur noch hochqualifizierte Ingenieure mit Universitätsdiplomen brauchen und den Rest machen Maschinen. Wir werden das Know-how der Menschen weiterhin auf allen Gebieten benötigen.
[41]
Allerdings werden sich die Anforderungen ändern. Die Innovationszyklen sind schon jetzt in vielen Bereichen schneller als unsere Ausbildungszyklen. Wir müssen uns also künftig überlegen, wozu wir die Menschen eigentlich ausbilden. Wenn wir jemandem heute in der Lehre ein bestimmtes Computerprogramm beibringen, ist das schon überholt, wenn er in den Betrieb kommt. Deswegen müssen wir die Fähigkeit des Menschen ausbilden, sich in neue Arbeitsprozesse einzuarbeiten und sich auf neue Situationen einzustellen. Ich denke, es wird in Zukunft absolut zur Normalität gehören, dass ein Teil der Mitarbeiter immer in Lehrgängen und Fortbildungen sein wird, um sich auf neue Abläufe vorzubereiten.

III.

Ziele und Perspektiven der Big Data Welt ^

[42]

Zusammengefasst: Wir müssen also wachsam sein, um die Entwicklung nicht zu verpassen! Wenn es Europa gelänge, in diesem Sinn mit Maß und Solidität das Internet der Industrie zu schaffen, hätten wir die richtigen Lehren aus der NSA-Debatte gezogen. Aber dazu braucht es, wie das Beispiel Silicon Valley zeigt, nicht nur unternehmerische Privatinitiative, sondern massive staatliche Forschungs- und Förderungsprogramme!

[43]
Am Ende dürfen wir uns aber von Big Data nicht blenden lassen. Datenmuster und Korrelationen helfen wenig, wenn wir die zugrunde liegenden Ursachen, Theorien und Modelle nicht kennen. Einige Propheten der Big Data-Welt sprechen ja bereits von «Big Data – the End of Theory» (Chris Anderson): So wie in der Wirtschaft derjenige am Markt gewinnt, der die schnellsten Algorithmen für Produkt- und Kundenprofile hat, so auch in der Wissenschaft: Die Algorithmen entdecken neue Zusammenhänge, bevor Beweise und Begründungen nachgeliefert werden.
[44]

Wie ich in meinem Buch gezeigt habe, ist diese Devise äußerst gefährlich:

  • In der Medizin helfen Medikamente wenig, wenn wir nur auf kurzfristige Dateneffekte setzen, ohne die Ursachen (z.B. Krebs) verstanden zu haben.
  • In der Wirtschaft laufen wir in die Irre, wenn wir uns nur auf unverstandene Formeln und Eckdaten verlassen: Das hat die Wirtschaftskrise von 2008 gezeigt.
  • Hochfrequenzhandel ist zwar schnell, kann aber unterhalb der Wahrnehmungsfähigkeit von uns Menschen Krisen auslösen, weil die Koordination und Governance fehlt.
  • Die Vorausberechnung von Kriminalität, Terror und Kriegseinsätzen hilft wenig, wenn wir die zugrunde liegenden sozialen Ursachen und Wirkungszusammenhänge nicht begreifen.
[45]
In der Wissenschaft gilt: Theorien ohne Daten sind zwar leer, aber Daten ohne Theorien sind blind! Daraus leite ich für die Gesellschaft ab: Governance ohne Daten ist leer, aber Daten ohne Governance sind blind!
[46]
Europa ist aber nicht nur die Geburtsstätte von Technik, Wissenschaft und Industrie, sondern auch der Demokratie und des Rechtsstaats! Die parallele Entwicklung von Datenschutz und Sicherheitstechnologie ist die zweite zentrale Konsequenz aus der NSA-Debatte. Die ethische und rechtliche Herausforderung ist also der Schutz der Demokratie im Zeitalter von Big Data und Digitalisierung:
[47]
Wie können wir Persönlichkeits- und Selbstbestimmungsrechte im Netz wahren und stärken, ohne durch Überregulierung die Freiheit auszutreiben? Im Zeitalter von Big Data werden totalitäre Tendenzen schleichend und unmerklich die Fundamente der Demokratie verändern.
[48]

Wie sollen wir das realisieren? Wir stehen in den Verhandlungen über das transatlantische Handels- und Investitionspartnerschaft (TTIP = Transatlantic Trade and Investment Partnership). Da müssen wir unsere Rechtsstandards ebenso hoch halten wir unsere Lebensmittelstandards. Ziel muss eine globale Governance sein, da globale Netze nicht durch nationale Interessen alleine geschützt werden können. Gemeinsame Rechtsstandards auszuhandeln wird allerdings nicht einfach - aus wenigstens zwei Gründen;

  1. Die USA und z.B. Deutschland haben unterschiedliche Rechtstraditionen: a) Court Law, das «bottom-up» aus einzelnen Fallentscheidungen entsteht, b) Rechtsdoktrin des Grundgesetzes (GG), das «top-down» von der «digitalen Würde» ausgeht (abgeleitet aus GG I: «Die Würde des Menschen ist unantastbar!»), die durch präventive Schutzgesetze zu schützen ist.
  2. Unterschiedliche Motivationen und historische Erfahrungen in USA und z.B. Deutschland: a) Terrorbedrohung seit dem 11. September, b) Erfahrung mit zwei Diktaturen.
[49]
Am Ende zielt dieser Beitrag auf eine Stärkung unserer Urteilskraft, d.h. die Fähigkeit, Zusammenhänge zu erkennen, aber auch Maß zu behalten, damit eine immer komplexer werdende und von Automatisierung beherrschte Welt uns nicht aus dem Ruder läuft.

Referenz:

  • Klaus Mainzer, Die Berechnung der Welt. Von der Weltformel zu Big Data, C.H. Beck: München 2014
  • Klaus Mainzer, Die Berechnung der Welt. Können Big Data-Ergebnisse Theorie und Beweis ersetzen? In: Glanzlichter der Wissenschaft 2014 (Hrsg. Deutscher Hochschulverband), Lucius Verlag 2014, 117–121

 

Prof. Dr. Klaus Mainzer, nach Studium der Mathematik, Physik und Philosophie Promotion und Habilitation in Münster, 1980 Heisenbergstipendiat, 1980–1988 Professor für Philosophie und Grundlagen der exakten Wissenschaften, Dekan und Prorektor der Universität Konstanz, 1988–2008 Lehrstuhl für Philosophie und Wissenschaftstheorie an der Universität Augsburg, Direktor des Instituts für Philosophie und des Instituts für Interdisziplinäre Informatik; seit 2008 Lehrstuhl für Philosophie und Wissenschaftstheorie an der Technischen Universität München (TUM), Direktor der Carl von Linde-Akademie 2008–2015; 2012–2014 Gründungsdirektor des Munich Center for Technology in Society (MCTS); Mitglied der Academy of Europe (Academia Europaea) in London, der Europäischen Akademie der Wissenschaften und Künste in Salzburg, der Deutschen Akademie der Technikwissenschaften (acatech) und Autor zahlreicher Bücher mit internationalen Übersetzungen.

 

Forschungsschwerpunkte: Mathematische Grundlagenforschung, Komplexitäts- und Chaostheorie, Grundlagen der Künstlichen Intelligenz, Robotik und des Internets, System- und Erkenntnistheorie.

Den Podcast zum Vortrag von Klaus Mainzer «Die Berechnung der Welt und ihre Folgen», gehalten am 5. November 2014 bei der Tagung Informatik und Recht zum Thema Big Data Governance, finden Sie in dieser Ausgabe von Jusletter IT: