Letzte Aktualisierung am 13. Februar 2018.
Big Data: Die Revolution, die unser Leben verändern wird von Viktor Mayer-Schönberger und Kenneth Cukier liefert zahlreiche nützliche Puzzelsteine, um die Transformation zur Netzwerkgesellschaft sowie „Vernetzung & Komplexität“ besser verstehen zu lernen. Während einige technische Aussagen in den letzten vier Jahren mit sicherheit deutlich überholt wurden, gelten andere Aussagen universiell.
Hierzu wieder einige Auszüge aus dem Buch mit entsprechenden Querverweisen:
Kurzbeschreibung: Ob Kaufverhalten, Grippewellen oder welche Farbe am ehesten verrät, ob ein Gebrauchtwagen in einem guten Zustand ist – noch nie gab es eine solche Menge an Daten und noch nie bot sich die Chance, durch Recherche und Kombination in der Datenflut blitzschnell Zusammenhänge zu entschlüsseln. Big Data bedeutet nichts weniger als eine Revolution für Gesellschaft, Wirtschaft und Politik. Es wird die Weise, wie wir über Gesundheit, Erziehung, Innovation und vieles mehr denken, völlig umkrempeln. Und Vorhersagen möglich machen, die bisher undenkbar waren. Die Experten Viktor Mayer-Schönberger und Kenneth Cukier beschreiben in ihrem Buch, was Big Data ist, welche Möglichkeiten sich eröffnen, vor welchen Umwälzungen wir alle stehen – und verschweigen auch die dunkle Seite wie das Ausspähen von persönlichen Daten und den drohenden Verlust der Privatsphäre nicht.
In Zukunft – und zwar schneller, als wir glauben – werden viele Elemente unserer Lebenswelt, die bis jetzt der menschlichen Beurteilung unterliegen, durch Computersysteme ergänzt oder ersetzt werden. S. 20.
Als Menschen sind wir darauf ausgelegt, bei allem nach seiner Ursache zu fragen, auch wenn das oft schwierig ist und uns vielleicht auf eine falsche Fährte führt. (…) Die Korrelationen sagen uns nicht warum etwas geschieht, aber sie machen uns darauf aufmerksam, dass etwas geschieht. S. 22.
Datafizierung bezeichnet die Umwandlung von allem nur Vorstellbaren – auch von Dingen, die wir niemals Informationen betrachtet hätten, etwa den Standort eines Menschen, die Vibrationen eines Motors oder die statische Belastung einer Brücke – in Datenform, um sie damit quantifizieren zu können. S. 24.
Der größte Schock wird vermutlich die Rückwirkung auf den Einzelnen sein. Fachkenntnisse auf einem spezifischen Gebiet werden weniger wichtig, wenn Wahrscheinlichkeit und Korrelation entscheidend sind. S. 25.
Unsere Gesellschaft hat lange Erfahrung mit der Einschätzung und Regulierung menschlichen Verhaltens. Wie aber reguliert man das Verhalten eines Algorithmus? Schon zu beginn der Informatik erkannten Fachleute, dass diese neue Technologie zur Aushöhlung der Privatspähre des Einzelnen führen kann. Inzwischen gibt es gesellschaftliche Regeln zum Schutz personenbezogener Daten. Im Zeitalter von Big Data ist dieser Datenschutz allerdings oftmals genauso nutzlos wie im Zweiten Weltkrieg die Magino-Linie gegen die feindlichen schnellen Panzerverbände. S. 25.
Damit ist das EU-Datenschutzgesetz wirkungslos und versucht ein Problem des 20. Jahrhunderts zu lösen
Die Gefahr verlagert sich heute vom Angriff auf die Privatsphäre des Einzelnen hin zur ungewollten Beurteilung des Einzelnen aufgrund von Wahrscheinlichkeiten. S. 26.
Bei Big Data geht es um das Erkennen von Beziehungen innerhalb von und zwischen Informationseinheiten, die wir bis vor Kurzem nur mit Mühe erfassen konnten. S. 29.
In komplexen Systemen / in der Systemtheorie sind auch die „Beziehungen“ („unsichtbaren Fäden„) von besonderer Bedeutung, womit es eine wesentliche Querverbindung gibt.
Wenn man die Telefonverbindungen zwischen Millionen Menschen auswertet, ist die Datenmenge so groß, dass sich neuartige Erkenntnisse ergeben, die auf andere Weise nicht zu gewinnen wären. Interessanterweise zeigt sich im Gegensatz zu kleineren Studien, dass das soziale Netzwerk zwar weniger gut funktioniert, aber nicht zusammenbricht, wenn man Mitglieder entfernt, die innerhalb der Gemeinschaft gut vernetzt sind. Entfernt man dagegen Mitglieder mit Verbindungen außerhalb der engeren Gemeinschaft, zerfällt das soziale Netz plötzlich und erleidet einen strukturellen Zusammenbruch. Das war ein wichtiges, allerdings unerwartetes Ergebnis. Wer hätte gedacht, dass die Mitglieder mit vielen engen Freunden für die Stabilität der Netzwerkstruktur weit weniger wichtig sind als solche, die enger mit Außenstehenden verbunden sind? Dass legt nahe, dass Vielfalt in einer Gruppe wie auch gesamtgesellschaftlich eine erstrebenswerte Eigenschaft ist. S. 43f.
Siehe auch Biologie – „Vernetzter“ sind für die Systemstabilität und Wiederherstellung von entscheidender Bedeutung!
Wir wollten uns hingegen nie damit befassen, Fehler als unvermeidlich anzusehen und mit ihnen leben zu lernen. Dies ist eine der grundlegenden Veränderungen beim Übergang von kleinen Daten zu Big Data. S. 45.
Grundkennzeichen von lebensfähigen Systemen.
Angenommen, wir wollen die Temperatur in einem Weinberg messen. Wenn man für den gesamten Berg nur einen einzigen Temperatursensor hat, muss man sicherstellen, dass er genau und stets funktionstüchtig ist: Unschärfe ist nicht zulässig. Installiert man jedoch an jedem Rebstock einen Sensor und hat so insgesamt vielleicht mehrere Hundert Messpunkte, dann kann man preisgünstigere und weniger aufwendige Sensoren verwenden (solange sich dadurch keine systembedingten Verzerrung ergibt). Wahrscheinlich werden dann einige Sensoren manchmal falsche Daten liefern und so ein weniger exaktes, „unscharfes“ Datenset ergeben, als es bei einem einzelnen Sensor der Fall wäre. Jeder einzelne Datenpunkt mag ein klein wenig unscharf sein, aber die Gesamtschau auf eine riesige Menge an Daten liefert uns ein vollständiges Bild. Da das Datenset aus mehr Datenpunkten besteht, besitzt es einen sehr viel größeren Wert, der seine Unschärfe ausgleicht. S. 47f.
→ Energiezellensystem; Auch SmartMeter könnten solche billgen Sensoren und Datensammler sein. Nur sind sie in der derzeitigen Ausprägung weder billig noch reine Sensoren, sondern Fernwirksysteme, die auch manipuliert werden können und damit ein großes Sicherheitsrisiko darstellen.
Auch für den Katastrophenschutz gebe es solche Sensoren – die derzeit weitgehend nicht genutzt werden. Siehe Katastrophenkommunikation in der digitalen Welt oder Staatliches Katastrophenmanagement: Krisenkommunikation 2.0.
Es ist oft sinnvoller, die Fehler zu tolerieren, als sie kostspielig zu vermeiden. S. 48.
Siehe lebensfähige Systeme.
Big Data, mit seinen großen Datenmengen und der inhärenten Unschärfe, hilft uns besser der Realität näherzukommen als unsere vormalige Abhängigkeit von kleinen Datenmengen und hoher Genauigkeit. Das Bedürfnis nach Überschaubarkeit und Sicherheit ist verständlich. Unser Weltverständnis war vielleicht mitunter unvollständig und gelegentlich sogar falsch, als die Menge dessen, was wir analysieren konnten, noch begrenzt war, aber darin lag eine vertrauenserweckende Sicherheit und beruhigende Stabilität. (…) In den engen Grenzen der wenigen verfügbaren Daten konnten wir auf unsere Präzision stolz sein – auch wenn bei sehr genauen Messungen der Blick auf das große Ganze verloren ging. Letztlich erfordert der Umgang mit Big Data womöglich, dass wir uns ändern und uns leichter mit Unschärfen, Unordnung und Ungewissheit abfinden. S. 64f.
Energiewende, Energiezellensystem; Das ganze Bild/Muster erkennen.
Das von Deloitte Consulting entwickelte Vorhersagemodell der Aviva-Versicherung konnte Gesundheitsrisiken tatsächlich erfolgreich feststellen. (…) Statt Labortests für 125 Dollar pro Antragsteller kostet die auf Korrelationen basierende Datenanalyse nur etwa 5 Dollar. S. 75.
Null-Grenzkosten-Gesellschaft
Durch den Einsatz von Sensoren an Maschinen, Motoren oder Infrastrukturelementen wie Brücken können Muster von Daten wie Wärmeabgabe, Vibrationen, Druck- und Zugbelastungen und Geräusche beobachtet und Veränderungen erkannt werden, die ein mögliches Problem ankündigen. Dabei geht man davon aus, dass Dinge nicht plötzlich zusammenbrechen, sondern ein technisches Versagen sich gewöhnlich allmählich und über einen gewissen Zeitraum abzeichnet. Durch die Auswertung von Sensordaten, Korrelationsanalysen und ähnlichen Verfahren kann man die spezifischen Muster ausmachen, die auf ein baldiges Versagen hindeuten. ein verändertes Motorgeräusch, die steigende Temperatur eines Aggregates und so weiter. Zukünftig muss man dann nur auf das Auftreten dieses Musters achten, um schon vor Eintritt eines Schadens gewarnt zu sei. So kann das System warnen, und das fehlerhafte Teil kann zeitgerecht getauscht oder das Problem behoben werden, noch bevor ein großer Schaden tatsächlich eintritt. Das Ziel ist, ein passendes Frühwarnsignal in den Sensordaten zu finden, um damit zukünftig Ereignisse vorherzusagen. S. 77f.
Siehe Achtsamkeit bzw. Das Unerwartete managen; auch auf soziale Systeme übertragbar
Wir neigen dazu, solche Zusammenhänge anzunehmen, auch wo sie nicht existieren. Das ist keine Frage der Kultur, Erziehung oder Bildung, sondern wie die Forschung nahelegt, ein grundlegendes Prinzip der menschlichen Kognition. S. 83.
Daniel Kahnemann, Nobelpreisträger: Wir haben zwei verschiedene Denkweisen. Eine ist schnell und mühelos und lässt uns in wenigen Sekunden eine Ursache erkennen. Die andere ist langsam und mühevoll und erfordert, dass wir das Problem wirklich durchdenken. (…) Die schnelle Denkweise neigt stark zum „Erkennen“ kausaler Zusammenhänge selbst dort, wo es keine gibt. Sie ist darauf ausgerichtet, unser bestehendes Wissen und unsere Vorstellung zu bestätigen. (…) Leider ist unser Gehirn sehr oft zu bequem, um langsam und methodisch zu denken, sondern verlässt sich stattdessen auf das schnelle Denken. Das ist der Grund, warum wir oft bloß scheinbare Ursachen zu erkennen glauben und die Welt damit grundlegend missverstehen. S. 84.
Die schnelle Denkweise unseres Gehirns ist darauf festgelegt, die erstbeste Schlussfolgerung anzunehmen, die sich bietet. So gelangen wir oft zu falschen Entscheidungen. S. 85.
In vielen Fällen ist sie nur eine kognitive Abkürzung, die uns die Illusion einer Erkenntnis gibt, uns in Wirklichkeit aber über die Welt im Dunkeln lässt. S. 85.
Siehe auch Komplexität im Management.
Anders als bei Korrelationen, deren Berechnung relativ einfach ist, gibt es bei Kausalitäten keinen klaren Weg, sie mathematisch zu „beweisen“. Wir können Kausalitätsbeziehungen nicht einmal einfach in Standardgleichungen ausdrücken. S. 85f.
Datafizierung bedeutet, es in ein Format zu bringen, sodass es zahlenmäßig erfasst und analysiert werden kann. Digitalisierung ist die Umwandlung analoger Informationen in einen binären Zahlencode aus Nullen und Einsen, der von Computern verstanden wird. S. 101.
Die Lektionen aus der Anwendung von Big Data gelten für den öffentlichen Sektor genauso wie für den privaten: Der Wert von Behörden gesammelter Daten ist lediglich ein potenzieller; es bedarf innovativer Analysemethoden, um in freizusetzen. Aber trotz seiner Sonderrechte bei der Informationssammlung ist der öffentliche Sektor im Gebrauch dieser Daten oft sehr ineffektiv. S. 147.
Der typische Mittelklasse-PKW hat inzwischen etwa 40 eingebaute Mikroprozessoren, und die Elektronik macht etwa ein Drittel der Herstellungskosten aus. S. 167.
Anmerkung Stand: 2012!
Inrix hat die Daten auch an einen Investmentfonds verkauft, der aus dem Verkehrsfluss rings um die Filialen einer großen Einzelhandelskette den Umsatz dieser Filialen ermittelt, um bereits vor den Quartalsberichten des Unternehmens eine Bewertungsgrundlage für dessen Aktien zu haben: Denn ein höheres Verkehrsaufkommen rund um die Filialen bedeutet mehr Umsatz. S. 171.
Indirekte Steuermechanismen, Informationsasymetrie
Die IT-Firma hat inzwischen gesehen, wie sie in solchen Fällen auch am Gewinn teilhaben kann, und ihr Geschäftsmodell so verändert, dass sie einen Teil des Risikos und der Gewinne mit dem Kunden teilt. Sie experimentiert mit niedrigen Fixhonoraren und möchte dafür im Gegenzug einen Anteil des Reichtums, den ihre Analyse dem Kunden bringt. S. 173.
Der größte Effekt von Big Data wird sein, dass datengestützte Entscheidungen menschliche Beurteilungen entweder ergänzen oder ersetzen. S. 177.
Wir können beobachten, wie der Einfluss der Fachexperten in vielen Bereichen abnimmt. S. 177.
Die Pioniere auf dem Gebiet der Big Data sind oft Quereinsteiger. Sie sind Spezialisten für Datenanalyse, künstliche Intelligenz, Mathematik oder Statistik und wenden diese Fähigkeiten auf unterschiedliche Wirtschaftszweige an. S. 178.
Bisher schätzten wir Menschen mit großer Spezialisierung mehr als Generalisten – und meinten, der Erfolg favorisiert Tiefe. Aber mit dem Fachwissen ist es wie mit der Exaktheit: Sie ist angemessen für eine Welt mit wenig Daten, in der nie genügend oder die richtigen Informationen zur Verfügung stehen und man auf Intuition und Erfahrung angewiesen ist. In einer solchen Welt spielt die Erfahrung eine entscheidende Rolle, weil sie nichts anderes als die langjährige Ansammlung bestehenden Wissens ist – Wissen, das man nicht leicht vermitteln oder aus einem Buch lernen kann, dessen man sich vielleicht nicht einmal bewusst ist, das einem aber klügere Entscheidungen ermöglicht. Aber wenn man mit Daten vollgestopft ist, kann man dieses Reservoir anzapfen, und das mit größerer Wirkung. So können die Big-Data-Analytiker Aberglauben und eingefahrene Denkmuster überwinden – nicht weil sie klüger sind, sondern weil sie die Daten haben. Das legt nahe, dass sich das verändert, was einen Mitarbeiter für ein Unternehmen wertvoll macht. Was man wissen muss, verändert sich, ebenso wen man kennen und was man lernen muss, um im Beruf erfolgreich zu sein. Mathematik und Statistik, vielleicht mit etwas Programmierkenntnissen und einen Grundverständnis von sozialen und anderen Netzen versehen, werden für den Arbeitnehmer der Zukunft so wichtig sein wie einfaches Rechnen vor einem Jahrhundert und Lesen und Schreiben davor. S. 179.
Weil Big Data zu einem Wettbewerbsvorteil für viele Unternehmen wird, wird sich die Struktur ganzer Wirtschaftszweige verändern. Der Erfolg ist allerdings ungleich verteilt; gewinnen werden hauptsächlich sehr große und sehr kleine Firmen, während die Masse der mittelständischen Unternehmen eher verlieren wird. S. 182f.
Siehe auch Arbeitswelt, wo die Mittelschicht herausfallen wird, da sie durch Automatisation ersetzt wird.
Big Data heizt also den mittelgroßen Unternehmen mächtig ein. Und zwingt Unternehmen entweder sehr groß oder klein und schnell zu werden – oder zu sterben. Big Data bedeutet zwar nicht das Ende aller mittelständischen Unternehmen in allen Bereichen, aber Firmen in allen Bereichen, die durch Big Data verwundbar geworden sind, werden auf jeden Fall unter Druck geraten. S. 186.
Leider gibt es in der Tat eine neue Qualität der Bedrohung. Mit Big Data erschließt sich der wesentliche Wert von Information nicht im Zweck, für den sie gesammelt wurden, sondern in deren vielfacher Wiederverwendung. S. 193.
Ein technischer Ansatz zum Datenschutz, die Anonymisierung, hilft in vielen Fällen ebenfalls nicht mehr. (…) In einer Welt mit wenigen Daten mag das funktionieren. Aber Big Data, mit mehr und vielfältigeren Daten, erleichtert die Re-Identifikation anonymisierter Datenbestände. S. 194.
Wenn erst einmal genügend Daten zur Verfügung stehen, ist eine perfekte Anonymisierung auch bei großer Sorgfalt nicht mehr möglich. Noch schlimmer ist, wie Forscher kürzlich zeigen konnten, dass nicht nur konventionelle Daten, sondern auch der sogenannte Social Graph – die Beziehungen der Menschen untereinander – anfällig für Re-Identifikation ist. S. 196.
Früher gab es Geheimdienstler, die Krokodilklemmen an die Telefonleitungen eines Verdächtigen anschlossen und versuchten, so viel wie möglich über diesen Menschen zu erfahren. Heutzutage ist der Ansatz ein vollkommen anderer. Genau wie Google oder Facebook gehen auch die Geheimdienste inzwischen davon aus, dass der Mensch die Summe seiner sozialen Beziehungen, Internetaktivitäten sowie der Produktion und des Konsums von informationellen Inhalten ist. Um über jemanden Nachforschungen anzustellen, müssen die Analysten im weitestmöglichen Rahmen die Daten zu einem Menschen sammeln – nicht nur über die Freunde und Kollegen, sondern auch über deren Freunde und Kollegen uns so weiter. Das war früher kaum machbar, aber heute ist es viel einfacher. Und weil der Staat nie im Voraus weiß, wen er sich als Nächsten vornehmen möchte, sammelt und speichert er all diese Daten (oder verschafft sich Zugang zu ihnen) schon auf Vorrat – nicht notwendigerweise, um jeden ständig zu überwachen, sondern damit die Daten vorliegen, wann immer man sie braucht, um sie dann nicht erst zeitaufwendig sammeln zu müssen. S. 198.
Gerade weil Big Data auf Korrelationen beruht, ist es zur Beurteilung von Kausalität und der Zuweisung von Schuld gänzlich ungeeignet. S. 205.
Vor der Erfindung des Buchdrucks mit beweglichen Lettern durch Johannes Gutenberg um 1450 war die Verbreitung von Ideen in der westlichen Welt hauptsächlich auf persönliche Beziehungen beschränkt. (…) In weniger als einer Generation war der Informationsfluss von einem Rinnsal zum reißenden Strom geworden. Diese dramatische Umwälzung schuf auch den Nährboden für neue Regeln zur Kontrolle der Informationsexplosion, die der Druck mit beweglichen Buchstaben erzeugt hatte. Der säkulare Staat konsolidierte in dieser Periode seine Macht, und er brachte durch Zensur und Druckpatente das gedruckte Wort unter seine Kontrolle. S. 215f.
Auf dem Weg ins Big-Data-Zeitalter wird die Gesellschaft eine ebensolche tektonische Verschiebung durchmachen. S. 216.
Seit Jahrhunderten ist ein zentrales von Datenschutzgesetzen in aller Welt, dass der Betroffene die Kontrolle haben soll, also selbst entscheiden können soll, ob, wie und von wem seine personenbezogenen Daten verwendet werden dürfen. (…) Im Big-Data-Zeitalter, in dem viele des Wertes von Daten erst durch eine zum Zeitpunkt der Erfassung der Daten noch gar nicht absehbare Wiederverwendung gewonnen wird, passt dieser Mechanismus nicht mehr. S. 217.
Womit das EU-Datenschutzgesetz um Jahrzehnte zu spät kommt und etwas regelt, dass es in dieser Form bald nicht mehr geben wird.
Daten sind für die Informationsgesellschaft das, was Rohöl für die Industriegesellschaft war: die entscheidende Ressource für Innovation und Fortschritt. S. 229.
Auch auf Grund dieser Ableitung macht es Sinn, von der Netzwerkgesellschaft zu sprechen, da nicht die Daten/Informationen den Wert darstellen, sondern erst die „Verknüpfung/Vernetzung“ dieser!
Eine Weltsicht, die auf Kausalität beruht, wie wir glaubten, wird von der Überlegenheit der Korrelationen bedroht. Der Besitz von Wissen, früher Schlüssel zum Verständnis der Vergangenheit, wird jetzt zur Befähigung, die Zukunft vorherzusagen. S. 239.
Anstatt uns um Genauigkeit, Exaktheit und Einheitlichkeit der Daten Sorgen zu machen, können wir ruhig ein bisschen Unschärfe zulassen. Daten, die ganz offensichtlich falsch sind, sollten wir natürlich ausscheiden, aber eine gewisse Unschärfe könnte im Gegenzug für ein deutliches Mehr an Daten annehmbar sein. In manchen Fällen kann eine möglichst große und unscharfe Datenmenge sogar besser sei als eine kleine, exakte, die nur einen Ausschnitt wiedergibt und mit der wir nicht den Detailreichtum einfangen können, in dem sich so viel Erkenntnis verbirgt. S. 240.
Korrelationen sind viel leichter und billiger als Kausalzusammenhänge aufzuspüren und daher oft zu bevorzugen. S. 240.
Gefahr, wenn man die Korrelation „Zunahme der Erneuerbare Energie Erzeugungsanlagen“ und „die Abnahme der lokalen Stromausfälle“ als Kausalität sieht und verkauft.
Für viele Alltagsaufgaben reicht es allerdings aus, das Was, nicht das Warum zu kennen. S. 240.
Das Problem ist, dass Kausalität oft nur schwer erhältlich ist, und oft, wenn wir schon glauben, die Ursache zu kennen, täuschen wir uns ganz einfach. S. 241.
Die Nutzung von Big Data fordert aber nicht bloß den Datenschutz heraus. Eine neue höchst beunruhigende Gefahr entsteht: Das Risiko, dass wir Menschen nicht aufgrund ihres tatsächlichen Verhaltens, sondern ihrer durch Big Data vorhergesagten Neigungen beurteilen. S. 242.
Es gibt keine sichere Methode, um sich auf die kommende Big-Data-Welt vorzubereiten; wir werden neue Grundprinzipien suchen müssen, um Big Data für uns kontrollierbar zu machen. S. 243.
Wenn Big Data uns nur eines lehrt, dann dass es oft ausreicht zu handeln, auch wenn wir nicht alles verstehen. Selbst wenn man nicht weiß, warum man erfolgreich ist, erzeugt man bessere Ergebnisse, als wenn man es gar nicht versucht hätte. S. 246.
Mit Big Data können wir schneller experimentieren und mehr Hypothesen nachgehen. Das sollte zu verstärkter Innovation führen, aber der Funke des Erfindergeistes ist genau das, wozu die Daten nichts sagen können. Erfindungen sind etwas, worauf man mit noch so vielen Daten nicht kommen kann, weil sie ja noch nicht existieren. S. 247.
Und es ist eine Mahnung, dieses Werkzeug mit einem hohen Maß an Demut einzusetzen und mit ebenso viel Menschlichkeit. S. 248.
Weiterführend siehe auch bei Conny Dethloff Dem Big Data Hype ein wenig Erdung einverleiben bzw. Unreflektierte KPI Orientierung in Unternehmen ist wie “Malen nach Zahlen”.
Trackbacks/Pingbacks