I.
Was treibt die Entwicklung der Big Data Welt an? ^
- Seit den 1960er Jahren gibt das Mooresche Gesetz die exponentielle Entwicklung der Rechenkapazität vor: Alle 18 Monate verdoppelt sich im Schnitt die Rechenkapazität bei gleichzeitiger Miniaturisierung und Verbilligung der Geräte. Wir sind auf dieser exponentiellen Kurve im Zeitalter der Petaflops (1015 Rechenschritte pro Sekunde) für Superrechner angelangt. So hat z.B. der Superrechner in München 3 Petaflops (die weltweit schnellsten liegen derzeit bei über 10 Petaflops in USA, China und Japan). Eine vereinfachte Überschlagsrechnung zeigt, dass wir damit in die Größenordnung des Datenverkehrs im menschlichen Gehirn gelangen: Wenn wir von 1011 Neuronen ausgehen mit ca. 1‘000 (= 103) synaptischen Verbindungen pro Neuron, dann erhalten wir 1014 synaptische Verbindungen im Gehirn: Das ist die gute Nachricht – die hohe Netzdichte. Die schlechte Nachricht ist, das wir relativ langsam sind – nur 200 (= 2x102) Pulse pro Sekunde, die wir als elementare Rechenschritte interpretieren können: Dann sind wir bei insgesamt 2x1016 Rechenschritte pro Sekunde – also im Petabereich heutiger Superrechner. Dass wir den Datenverkehr im Gehirn noch nicht komplett simulieren können, hängt vor allem mit den mangelnden Detailkenntnissen in Gehirn- und Kognitionsforschung zusammen. Insbesondere sind wir bei Beherrschung des Datenverkehrs noch lange nicht in der Lage, die kognitiven und mentalen Fähigkeiten des Gehirns zu erklären. Unabhängig davon ist die erlangte Rechenkapazität nach dem Mooreschen Gesetz beachtlich.
Nach dem Mooreschen Gesetz wird diese Rechenleistung wegen der vorausgesagten Miniaturisierung und Verbilligung in den 2020er Jahren von kleinen Rechengeräten realisiert. Das bedeutet, dass dann z.B. ein Smartphone die Rechenkapazität unserer Gehirne simulieren könnte (was noch nicht heißen muss, dass wir dann auch alle kognitiven Fähigkeiten des menschlichen Gehirns simulieren können). Bei gleichzeitiger Miniaturisierung der Transistoren werden wir aber an die Grenzen des atomaren Bereichs stoßen. Hier gelten dann die Empfindlichkeiten und Störungen der Quantenphysik. Dann wird man weiter sehen müssen, vielleicht mit Quantenrechnern. Jedenfalls ist die bisherige Rechenleistung bereits gewaltig. - Hinzu kommt eine sich exponentiell entwickelnde Sensortechnologie, die immer billigere und kleinere Sensoren entwickelt – wie in lebenden Organismen, von Sensoren in organischer Größe (z.B. Kameras) über zelluläre Größen (wie z.B. Bakterien in der Natur) bis zu molekularer Größe im Nanobereich. In der Nanoelektronik sind wir bereits im Grenzbereich der Halbleitertechnik auf Siliziumgrundlage (d.h. 100–1Nm) angelangt. Derzeit wird nach organischen Alternativen in Nanogröße (z.B. Kohlenstoff) geforscht, um die Rechenkapazität vor der atomaren Grenze auszunutzen. Da wir in den 2020er Jahre mit der Miniaturisierung an die Grenzen der Quantenphysik gelangen, werden sich Firmen und angewandte Forschung auf die Ausnutzung der Rechenkapazität vor der Quantengrenze konzentrieren. Das lässt sich durch Integration weiterer Technologie im Internet der Dinge erreichen. Winzige Sensoren im Nanobereich könnten z.B. die kleinsten Veränderungen von Proteinfaltungen als Frühstadium von Krebstumoren entdecken. Google hat bereits ein entsprechendes medizinisches Forschungsprogramm angestoßen. Auch die Funktionen eines biochemischen Labors lassen sich mittlerweile auf einen winzigen Chip integrieren.
- Die dadurch produzierten Datenmassen führen zu Big Data. Auch hier sind wir im Peta-Zeitalter angelangt. Datenkonzerne wie Google setzen heutzutage täglich 24 Petabytes um, d.h. 6‘000 mal der Dateninhalt der US Library of Congress. Die Datenmassen sind amorph, nicht nur strukturierte Nachrichten wie E-Mails, sondern Sensordaten von GPS und MobilPhones.
II.
Big Data Governance – Was sind die Perspektiven einer neuen digitalen Wirtschafts-, Rechts- und Gesellschaftsordnung ? ^
Schließlich die schöne neue Welt der Spionage: Wer die größten Suchmaschinen, Speicher und Algorithmen hat, beherrscht die Welt! Das ist nicht ganz neu: Während des 2. Weltkriegs war die britische Entschlüsselung des deutschen Codes der Enigma kriegsentscheidend, wie Eisenhower als Oberkommandierender der Alliierten Streitkräfte und der britische Premier Winston Churchill später feststellten, wenigstens war die Decodierung kriegsverkürzend. (Übrigens nicht nur im U-Boot-Krieg, sondern der gesamte deutsche Staatsapparat [Reichsregierung, SS, SD, Wehrmacht, alle Dienststellen] bedienten sich dieses Codes.)
Vor dem Hintergrund der Cyberphysical Systems bzw. soziotechnischen Systeme verändert sich die Wirtschafts- und Industriewelt grundlegend. Die Rede ist von Industrie 4.0:
- Exponentiell wachsende Rechenkapazität (Mooresches Gesetz)
- Exponentiell wachsende Sensorzahlen
- Exponentiell wachsende Datenmassen etc. etc.
III.
Ziele und Perspektiven der Big Data Welt ^
Zusammengefasst: Wir müssen also wachsam sein, um die Entwicklung nicht zu verpassen! Wenn es Europa gelänge, in diesem Sinn mit Maß und Solidität das Internet der Industrie zu schaffen, hätten wir die richtigen Lehren aus der NSA-Debatte gezogen. Aber dazu braucht es, wie das Beispiel Silicon Valley zeigt, nicht nur unternehmerische Privatinitiative, sondern massive staatliche Forschungs- und Förderungsprogramme!
Wie ich in meinem Buch gezeigt habe, ist diese Devise äußerst gefährlich:
- In der Medizin helfen Medikamente wenig, wenn wir nur auf kurzfristige Dateneffekte setzen, ohne die Ursachen (z.B. Krebs) verstanden zu haben.
- In der Wirtschaft laufen wir in die Irre, wenn wir uns nur auf unverstandene Formeln und Eckdaten verlassen: Das hat die Wirtschaftskrise von 2008 gezeigt.
- Hochfrequenzhandel ist zwar schnell, kann aber unterhalb der Wahrnehmungsfähigkeit von uns Menschen Krisen auslösen, weil die Koordination und Governance fehlt.
- Die Vorausberechnung von Kriminalität, Terror und Kriegseinsätzen hilft wenig, wenn wir die zugrunde liegenden sozialen Ursachen und Wirkungszusammenhänge nicht begreifen.
Wie sollen wir das realisieren? Wir stehen in den Verhandlungen über das transatlantische Handels- und Investitionspartnerschaft (TTIP = Transatlantic Trade and Investment Partnership). Da müssen wir unsere Rechtsstandards ebenso hoch halten wir unsere Lebensmittelstandards. Ziel muss eine globale Governance sein, da globale Netze nicht durch nationale Interessen alleine geschützt werden können. Gemeinsame Rechtsstandards auszuhandeln wird allerdings nicht einfach - aus wenigstens zwei Gründen;
- Die USA und z.B. Deutschland haben unterschiedliche Rechtstraditionen: a) Court Law, das «bottom-up» aus einzelnen Fallentscheidungen entsteht, b) Rechtsdoktrin des Grundgesetzes (GG), das «top-down» von der «digitalen Würde» ausgeht (abgeleitet aus GG I: «Die Würde des Menschen ist unantastbar!»), die durch präventive Schutzgesetze zu schützen ist.
- Unterschiedliche Motivationen und historische Erfahrungen in USA und z.B. Deutschland: a) Terrorbedrohung seit dem 11. September, b) Erfahrung mit zwei Diktaturen.
Referenz:
- Klaus Mainzer, Die Berechnung der Welt. Von der Weltformel zu Big Data, C.H. Beck: München 2014
- Klaus Mainzer, Die Berechnung der Welt. Können Big Data-Ergebnisse Theorie und Beweis ersetzen? In: Glanzlichter der Wissenschaft 2014 (Hrsg. Deutscher Hochschulverband), Lucius Verlag 2014, 117–121
Prof. Dr. Klaus Mainzer, nach Studium der Mathematik, Physik und Philosophie Promotion und Habilitation in Münster, 1980 Heisenbergstipendiat, 1980–1988 Professor für Philosophie und Grundlagen der exakten Wissenschaften, Dekan und Prorektor der Universität Konstanz, 1988–2008 Lehrstuhl für Philosophie und Wissenschaftstheorie an der Universität Augsburg, Direktor des Instituts für Philosophie und des Instituts für Interdisziplinäre Informatik; seit 2008 Lehrstuhl für Philosophie und Wissenschaftstheorie an der Technischen Universität München (TUM), Direktor der Carl von Linde-Akademie 2008–2015; 2012–2014 Gründungsdirektor des Munich Center for Technology in Society (MCTS); Mitglied der Academy of Europe (Academia Europaea) in London, der Europäischen Akademie der Wissenschaften und Künste in Salzburg, der Deutschen Akademie der Technikwissenschaften (acatech) und Autor zahlreicher Bücher mit internationalen Übersetzungen.
Forschungsschwerpunkte: Mathematische Grundlagenforschung, Komplexitäts- und Chaostheorie, Grundlagen der Künstlichen Intelligenz, Robotik und des Internets, System- und Erkenntnistheorie.
Den Podcast zum Vortrag von Klaus Mainzer «Die Berechnung der Welt und ihre Folgen», gehalten am 5. November 2014 bei der Tagung Informatik und Recht zum Thema Big Data Governance, finden Sie in dieser Ausgabe von Jusletter IT:
- Klaus Mainzer, Die Berechenbarkeit der Welt und ihre Folgen (Podcast), in: Jusletter IT 21. Mai 2015