Der Geist aus der Flasche

1.10.2014

Big-Data, die maschinelle Erschließung verborgener Schätze in großen Datenmengen, wird unser Leben positiv verändern – vorausgesetzt, wir lernen, die Risiken zu beherrschen.

Im Jahr 1854 wütete eine schwere Cholera-Epidemie in London. 14.000 Menschen starben. Und es wären vielleicht noch mehr geworden, hätte ein Arzt namens John Snow nicht eine geniale Idee gehabt. Er markierte sämtliche Todesfälle auf einer Stadtkarte. Die Krankheitsfälle, so zeigte sich, gruppierten sich vor allem um drei Brunnen. Höchstwahrscheinlich, so Snow, stimmte etwas mit dem Wasser nicht, das aus diesen Quellen kam. Nachdem man die Pumpen außer Betrieb setzte, kam die Seuche zum Stillstand.

John Snow, würde man heute sagen, betrieb eine Big Data-Analyse. Er sammelte Daten und suchte nach Mustern. Er entdeckte eines und schloss auf eine Ursache. Auch wenn diese ihm noch verborgen war. Mitte des 19. Jahrhunderts ging man noch davon aus, dass Seuchen wie die Cholera durch verunreinigte Dämpfe, sogenannte Miasmen, verursacht wurde. Statt also verzweifelt nach einem Beweis für die wahren Verursachern der Krankheit zu suchen, nämlich den Bakterien, befragte John Snow einfach die Daten. Und kam so der Wahrheit auf die Spur.

John Snows Ansatz hat, sehr vorsichtig formuliert, Schule gemacht. Big Data, so liest man gerade in eigentlich jedem Fachbuch zum Thema, ist dabei, die Welt, wie wir sie bisher kannten, auf den Kopf zu stellen. Seit Snows Heldentat sind 160 Jahre vergangen, 160 Jahre, in denen die Vielfalt der Möglichkeiten, Daten zu sammeln und auszuwerten in spektakulärer Weise gestiegen ist. Wir haben es heute mit einer Situation zu tun, schreiben die Autoren Viktor Mayer-Schönberger und Kenneth Cukier in ihrem Buch „Big Data. Die Revolution, die unser Leben verändern wird“, in der eine Umwandlung stattfindet „von allem nur Vorstellbaren – auch von Dingen, die wir nie als Informationen betrachtet hätten, etwa den Standort eines Menschen, die Vibrationen eines Motors oder die statische Belastung einer Brücke – in Datenform, um sie damit quantifizieren zu können“. „Datafizierung“ nennen die Autoren diesen Prozess.

Internet der Dinge

CD-Stapel bis zum Mond, übereinander geschichtete Bücherteppiche so groß wie die USA, Fussballstadien, bis zum Rand gefüllt mit iPhones – wenn es darum geht, die Flut an Daten zu umschreiben, die wir mittlerweile produzieren, wirken die meisten Vergleiche inzwischen recht hilflos. 24 Petabyte an Daten sammelte Google im Jahr 2013 täglich pro Tag, ungefähr tausendmal so viel wie alle gedruckten Werke in der US-Kongressbibliothek zusammen. Die Videoplattform Youtube erhält jede Sekunde eine Stunde digitales Filmmaterial. Facebook-Nutzer geben täglich drei Milliarden Kommentare ab und posten stündlich etwa zehn Millionen neuer Fotos. In einem Jahr, so aktuelle Hochrechnungen, fallen weltweit soviel Daten an wie in der gesamten Menschheitsgeschichte zusammen.

Und es gibt Gründe, anzunehmen, dass sich diese Situation in den nächsten Jahren noch weiter verschärfen wird. Schließlich sind wir gerade dabei, sehr viele Dinge, mit denen wir im Alltag zu tun haben, mit Sensoren auszustatten. „Internet der Dinge“ heißt das Schlagwort, und für das, was sich dahinter verbirgt, dafür findet der Soziologe und Physiker Dirk Helbing anschauliche Worte: „Wir werden Millionen, wenn nicht Milliarden von Sensoren in unserer Umgebung verstreuen. Sie werden nicht nur in unseren Smartphones sein, sondern auch in unserer Kaffeemaschine, in unseren Schuhen, Socken, dem Kühlschrank und der Zahnbürste“, so Helbing in der aktuellen Ausgabe des Schweizer Magazins „Abstrakt“.

Aber es geht eben nicht nur um das Sammeln der Daten, um das „Big“ in Big Data. Es sei die Herangehensweise an die Daten, so Helbing, die den Unterschied ausmache. Gerade in der Wissenschaft ist der Umgang mit sehr großen Datenmengen schon seit langem Usus. Aber erst jetzt scheint man an dem Punkt angelangt zu sein, die Datenberge anders zu „lesen“. Wenn es sich im Rahmen einer medizinischen Studie zeigt, dass Millionen Krebskranke durch eine bestimmte Kombination von Aspirin und Ginseng ihren Zustand erheblich verbessern können, ist es zunächst vielleicht gar nicht so wichtig, die Ursache für diesen Effekt zu erkennen, statt eine Möglichkeit gefunden zu haben, die Lebensqualität vieler Patienten zu verbessern.

Daten sprechen lassen

In Zeiten vor Big Data bedeutete eine Analyse im Grunde nur das Prüfen einer schon bestehenden Hypothese, die man schon vor der Erhebung der Daten formuliert hatte. Heute dagegen hat man die Möglichkeit, die Daten „sprechen zu lassen“, also Zusammenhänge zu entdecken, an die man zuvor gar nicht gedacht hat. Eine regelrechte Schatzsuche, so Mayer-Schönberger und Cukier, sei ausgebrochen nach Erkenntnissen, die aus Daten gewonnen werden können. „Nahezu jede Datensammlung, jedes Datenstück hat intrinsische, verborgene, noch unentdeckte Nutzen und damit auch ökonomischen Wert, und das Rennen, alle diese Datenschätze zu heben, ist in vollem Gange.“

Big Data, so sagen andere, sei wie geschaffen für unsere Gegenwart, die durch Globalisierung und Digitalisierung immer vernetzter und dadurch auch immer komplexer geworden ist. Weil zunehmend alles von allem abhängt, sei es eigentlich fast unmöglich geworden, nur durch klassisches Durchdenken einer Lage zu einer vernünftigen Entscheidung zu kommen. „Die zunehmende Komplexität der Welt, in der alles mit allem korreliert und interagiert, verweist den Menschen mit Notwendigkeit auf die Hilfe durch die Maschinen – ohne diese bleibt Erkenntnis unscharf und subjektiv“, so der Autor Alexander Pschera. Wer, wenn nicht Hochleistungscomputer könnten heutzutage noch Phänomene wie die globale Finanzwirtschaft, den Klimawandel oder die komplexe Welt des Sozialen „durchdenken“.

Korrelationen statt Kausalitäten

Doch obwohl mittlerweile niemand mehr bestreiten möchte, dass die aus Datenmustern gewonnenen Erkenntnisse Leben verlängern, Katastrophen verhindern und Arbeitsplätze schaffen können, mehren sich auch kritische Stimmen, die gerade das sogenannte Weltverbesserungspotenzial von Big Data in Frage stellen. Im Fokus der Kritik steht gerade die vermeintlich größte Stärke der Methode: Der Perspektivwechsel von Kausalitäten zu Korrelationen. „Viele der Zusammenhänge, die man in einer Big Data Analyse zu sehen meint, haben unter Umständen gar nichts zu bedeuten. Ein bisschen so wie die Sternbilder, die man sich in den Himmel hineindeutet“, erklärt Dirk Helbing.

Immer drängender wird die Frage: Was passiert, wenn eine Gesellschaft die Ursachenforschung der reinen Datenverknüpfung opfert? So kann ein Krankenhaus Daten analysieren, um seinen Patienten bessere Behandlungsmethoden zu bieten, sich aber vielleicht auch entscheiden, jemandem weniger Leistungen zukommen zu lassen, dessen Lebenserwartung gering ist? Ein Unternehmen kann sich entscheiden, Fachkräfte zu entlassen und immer mehr Entscheidungen von vermeintlich entscheidungskompetenteren Maschinen treffen zu lassen. Und schon heute verliert der Einzelne die Kontrolle über seine Krediwürdigkeit, wenn Institute wie die Schufa Big Data Analysen anwenden, um das Risiko eines Zahlungsausfalles einzuschätzen.

Die Privatsphäre des Einzelnen, das bestreiten auch Befürworter von Big Data Technologien nicht, ist zu einer Ware geworden, zu einem der wichtigsten Rohstoffe der Gegenwart. Viele sprechen vom „Öl des 21. Jahrhunderts“. Dessen „Förderung“ ist schon massiv im Gange und im Augenblick leider noch viel zu selten zum nachhaltigen Nutzen für die Menschen. Noch dominieren Geschäftsmodelle privater Firmen, die personenbezogene Daten sammeln, um Kapital zu generieren. Algorithmen errechnen, wofür ein Mensch bereit ist, zu bezahlen und enthalten ihm bestimmte Informationen vor. Computerprogramme entscheiden, wie viel Geld eine Versicherung kostet. Jeder Aspekt unseres täglichen Lebens, sagen Big Data Kritiker wird zunehmend nach Kriterien der Effizienz beurteilt. Vor allem diejenigen Bereiche, die bis dato aus guten Gründe davon ausgenommen waren: Privatleben, Denken, geistige Arbeit.

Der Geist ist aus der Flasche

Nur: Was ist zu tun? Können und sollen wir auf Big Data-Technologie verzichten? „Nein, das können wir uns gar nicht mehr leisten“, sagt Dirk Helbing. „Der Geist ist aus der Flasche, den bekommen wir nicht mehr zurück. Jetzt müssen wir lernen, mit ihm umzugehen.“ Für Helbing heißt das vor allem, Strukturen zu schaffen, die dem Einzelnen die Kontrolle über seine Daten zurückgeben. Wir sollten in der Lage sein, so der Forscher, Einsicht zu nehmen in alle Daten, die von uns existieren, um zu bestimmen, was mit ihnen passiert.

Das ist einerseits eine Frage der Technologie. „An dieser wird aber gerade gearbeitet“, so Helbing. Eine Anwendung namens Open Personal Data Store (PDS), entwickelt von Forschern des MIT in Boston, könnte es schon bald ermöglichen, sämtliche Informationen, die über ein Individuum gesammelt werden, in eine Art digitalen Safe zu speichern. In diesem kann der Bürger dann individuell entscheiden, welche Dienste welche Details nutzen dürfen.

Andererseits liegt es auch an uns und an der Politik, einen Rahmen zu schaffen, wie wir risikofreier mit mächtigen Werkzeugen wie Big Data umgehen. So wird es in der Zukunft beispielsweise immer wichtiger werden, all jene Entscheidungen zu kontrollieren, die auf der Basis von Big-Data-Analysen getroffen werden. Und, vor allem, ein Bewusstsein für die Risiken der Technologie zu schaffen. Es ist ein gefährlicher Irrglaube, die sogenannte Datafizierung unserer Welt rein auf technische Aspekte zu reduzieren. Wir haben immer noch die Möglichkeit, Kriterien dafür zu formulieren, für welche Bereiche unseres Lebens wir technologische Hilfe zulassen und für welche wir dankend darauf verzichten. „Wir stehen vor Herausforderungen, aber diese sind zu meistern, wenn wir eine offene Diskussion führen“, sagt Dirk Helbing.

Erschienen im Oktober 2014 in Big Data, Cloud & Co, einem Sonderheft des inpact Media Verlages für das Wirtschaftsmagazin CAPITAL.