Echtzeitdaten: Die Wirklichkeit in ihrer ganzen Komplexität
Was haben ein Online-Betrug, ein Tsunami und ein Verkehrsstau gemeinsam? Für den, der Echtzeitdaten lesen kann, kündigen sich diese Ereignisse an – zumindest ist das die Theorie. In der Praxis stehen Analyst*innen immer noch vor vielen Herausforderungen gegenüber, wenn sie riesige Datenmengen in Echtzeit auswerten wollen. Die Technologiestiftung bot im Rahmen des 11. Research Data Alliance Plenums in Berlin ein Panel zum Thema an, das einen Überblick zum Status Quo und den Herausforderungen gab.
Genaue Vorhersagen zu Erdbeben sind trotz Big Data nicht möglich
In Indonesien hat es Gesetzeskraft: Innerhalb von 5 Minuten nach einem Erdbeben müssen die Menschen, die an der Küste leben, vor einem durch das Beben verursachten Tsunami gewarnt werden. Das ist möglich, weil die Tsunamiwelle mit einer gewissen Zeitverzögerung auf die Küste trifft. Doch wann löst ein Erdbeben einen Tsunami aus, wo wird er mit welcher Wucht auf Land treffen? Javier Quinteros vom Geoforschungszentrum Potsdam machte bei seinem Vortrag klar, wie wichtig und schwierig Echtzeitdatenanalyse auch in Zeiten von Big Data noch ist. Denn je präziser ich das Geschehen in Daten abbilde, desto mehr Daten muss ich lesen und interpretieren. Welches Stück Data enthält einen Hinweis, welches ist eher Grundrauschen? Während Tsunamis mit Big Data heute immerhin vorhergesagt werden können, können die Geologen Erdbeben immer noch nicht zeitlich exakt prognostizieren.
Die Herausforderungen sind von Projekt zu Projekt ganz unterschiedlich
Andere Projekte wie der Swim Guide aus Kananda, der die Wasserqualität von öffentlichen Gewässern auf einer App abbildet, sehen sich dem Problem gegenüber, dass die Dateninfrastruktur noch nicht ausreicht. Hier ist eine konsequente Open Data-Strategie der öffentlichen Stellen und private Initiative essentiell, um das Projekt weiterzuentwickeln. Dagegen ist Open Data für die Banken kaum ein Thema. Hier geht es vor allem darum, Big Data unter Berücksichtigung von Datensicherheit und –schutz zu verarbeiten und zu interpretieren.
Datenqualität, einheitliche technische Standards, die möglichst umfassende Vernetzung unter den verschiedenen Datenquellen und eine bessere finanzielle Förderung waren dann auch die Themen, die die Referent*innen des Panels in der Diskussion am Ende als große Herausforderungen für die Zukunft nannten.
Ziel: Präzise Beschreibung oder neue Möglichkeiten der Einflussnahme?
Möglichst viele Daten zu ermitteln und diese möglichst präzise, vor Datenklau sicher und technisch standardisiert zu erfassen, reicht vielen allerdings nicht. Das zeigten die Fragen, die sich an die Vorträge anschlossen. Dabei ging es darum, ob und wie über die Datenerfassung und –interpretation hinaus eine Beeinflussung der Wirklichkeit erfolgen kann; über Wasserqualität zu informieren und gegebenenfalls vor Gefahren zu warnen, ist schön und gut - aber kann man die Wirklichkeit auch verändern, wenn man Missstände kennt (die Wasserqualität verbessern, die Biodiversität erhalten etc.)? Letztlich kommt man dann bei Fragen an, die weiter über die Technik hinausgehen die Frage berühren, wie wir zusammenleben und uns die Zukunft gestalten wollen.
Open Data in der Praxis
Wir haben uns auf die Suche nach Unternehmen, Behörden und Institutionen gemacht, die in Berlin offene Daten nutzen oder bereitstellen.