Visuelles Storytelling – (eine) Geschichte des Datenjournalismus’

Copyright: stock.adobe.com/James Thew

„Was ist eigentlich Datenjournalismus und wann hat er begonnen?“  Zwecks Aufrollens einer Geschichte dieser Form der Informationsaufbereitung sprach SUMO mit Marcel Pauly, dem Leiter des Datenjournalismus-Teams des „SPIEGEL“, und Peter Sim, der bei „DOSSIER“ für Datenjournalismus zuständig ist.

„Das Berufsbild für im Journalismus Tätige hat sich in den vergangenen Jahren durch die Verfügbarkeit großer digitaler Datenmengen signifikant weiterentwickelt. Die zahllosen Beiträge aus Journalismus und Wissenschaft zu Anwendungen, erkenntnistheoretischen Fragen, Kompetenz, Ökonomie und Ethik im Zusammenhang mit dem Begriff ‚Big Data’ unterlegen diese Beobachtung. Vor allem die Begriffe Datenjournalismus und Roboter-Journalismus sind zu regelrechten Stellvertretern für den Diskurs stilisiert wurden.“ So beschreibt Andreas Niekler im Leipziger Tagungsband „Die neue Öffentlichkeit“ (2018) die Veränderungen im Metier des Journalismus.

Datenjournalismus lasse sich laut Marcel Pauly – der an der Columbia Journalism School (New York City) eine diesbezügliche Weiterbildung absolviert hatte – nicht anhand einer eindeutigen Definition erläutern. Er beschreibt im SUMO-Interview die Begriffe Daten und Datensatz als strukturierte, maschinenlesbare Informationen, die heute in vielen Bereichen mit den richtigen Werkzeugen erschlossen und ausgewertet werden könnten, mit denen man anschließend durch klassisches journalistisches Handwerk Geschichten erzählen vermöge. Der Ausgangspunkt sei stets die Recherche, mittels welcher sich nach und nach ein Berg an Daten anhäufe, weshalb es dafür auch ein Gespür benötige, um herauszufiltern, wann man mit einer grafischen Darstellung auch mehr erzählen kann. Peter Sim – Ökonom und vormals wissenschaftlicher Mitarbeiter bei Statistik Austria, nunmehr bei der gemeinnützigen Redaktion „DOSSIER“ tätig – charakterisiert den Datenjournalismus zusätzlich dadurch, Geschichten zu finden, die vorher so noch nicht erzählt wurden und auch einen öffentlichen Mehrwert liefern – und sie zu schreiben.

Im Gegenzug zu „traditionellem“ Journalismus werden beim Datenjournalismus Informationen in einem System gespeichert sowie gefiltert und anschließend über eine Datenbank abrufbar gemacht. Das Ausschlaggebende ist schließlich die Visualisierung dieser Informationen, denn ein Bild, oder in dem Fall eine (interaktive) Grafik sagt mehr als tausend Worte.

Von Computer Assisted Reporting über „WikiLeaks“ zur Datenvisualisierung

Es ist der 12. Juli 2007, früh morgens. 34 Grad, die Schweißperlen tropfen. Aerodynamischer Lärm erklingt am Himmel und wirbelt die Luft am Boden umher. Zwei Hughes AH-64 Apache, zweimotorig, versteht sich. Hier, im Osten der Stadt, entsteht Aufruhr. Frauen, Männer und Kinder beginnen nach und nach zu tuscheln, zu rätseln, was es da im Himmel auf sich hat. Bis sie plötzlich zu flüchten beginnen. Der Grund: 30-mm-Bordkanonen. Gleich zweimal. Angriff eins zielt auf eine Gruppe von neun bis elf Männern ab, die sich im Weg befinden – darunter auch zwei für die Nachrichtenagentur „Reuters“ tätige irakische Kriegsberichterstatter. Insgesamt sind es drei Angriffe der US-amerikanischen Armee, bei welchen bis zu achtzehn Menschen ums Leben kommen. Ein Kollateralschaden. Oder „Collateral Murder“, so wie „WikiLeaks“ die Videoaufnahmen, die an Bord der Hubschrauber aufgenommen werden, betitelt.

„Collateral Murder“ war die erste Veröffentlichung von „WikiLeaks“, bei der das unkommentierte Originalvideomaterial über das Kriegsverbrechen publiziert wurde. „Das Material wirft ein Schlaglicht auf die alltägliche Brutalität und das Elend des Krieges. Es wird die öffentliche Meinung verändern und auch die von Menschen mit politischem und diplomatischem Einfluss“, äußerte sich „WikiLeaks“-Gründer Julian Assange („SPIEGEL ONLINE“, 26.7.2010) zur willkürlichen Ermordung von ZivilistInnen im Irakkrieg in Neu-Baghdad.

„WikiLeaks“ ist eine Enthüllungsplattform, auf der Dokumente, die durch Geheimhaltung als Verschlusssache, Vertraulichkeit, Zensur oder auf sonstige Weise in ihrer Zugänglichkeit beschränkt sind, veröffentlicht werden. Kernziel der Plattform ist es, im Sinne des öffentlichen Interesses unethisches Verhalten von und in Regierungen und Unternehmen zu enthüllen. „Journalismus ist das was ‚WikiLeaks‘ macht keiner“, sagt Peter Sim. Erst durch den „Guardian“, die „New York Times“ und den „SPIEGEL“, die Geschichten aus dem Material gefiltert und erzählt hätten, werde es zu Datenjournalismus. „Nur Daten zu veröffentlichen, auch wenn sie noch so spannend sind, ist kein Journalismus. Erst durch die Kooperation von ‚WikiLeaks‘ mit etablierten Medien wurden die ‚Afghan war logs‘ zum ersten Beispiel des modernen Datenjournalismus.“ Doch Datenjournalismus gab es auch davor, sagt Sim: „Es gibt wunderbare Beispiele aus dem 19. Jahrhundert, wie das der ‚New York Tribune’ – damals haben sich Journalisten angeschaut, wie viel Kongressabgeordnete an Geld für die Reise nach Washington und wieder zurück erhalten haben. Verglichen mit der Entfernung erzählt das eine tolle Geschichte im öffentlichen Interesse. So hat die Zeitung herausgefunden, dass ein gewisser Abraham Lincoln um einiges mehr pro Kilometer verrechnete als seine Kollegen“, erzählt Sim.

Hört man den Begriff „Datenjournalismus“, so verknüpft man diesen wohl schnell mit einer Erfindung des 21. Jahrhunderts. Jedoch ist dem wahrlich nicht so. Bereits 1821 publizierte die britische Tageszeitung „The Guardian“ eine Tabelle, in welcher die Kosten pro Schüler/in an Schulen in Manchester dokumentiert waren.

Erste Vorläufer des Datenjournalismus’ in den 1970er- und 1980er-Jahren basierten auf dem Computer Assisted Reporting im angelsächsischen Raum. Computer Assisted Reporting ist ein Prozess, bei dem maschinenlesbare Informationen mit technischer Hilfe verarbeitet, analysiert und daraufhin Schlüsse gezogen werden, um in weiterer Folge Rechercheansätze entwickeln zu können. Marcel Pauly meint, dass damals in dieser Form, wie wir sie heute kennen, die Visualisierung der Daten, etwa in Form von Grafiken oder anderen visuellen Darstellungsformen, noch nicht vorhanden war.

Visuelles Storytelling als fester Bestandteil heutiger Redaktionen

Heute ist Datenjournalismus bereits weitgehend in Redaktionen integriert und etabliert. So hat auch „DER SPIEGEL“ ein eigenes Datenjournalismus-Team, das aus vier Teammitgliedern besteht. Der Leiter dieses Teams, Marcel Pauly, erzählt von einem datenjournalistischen Projekt, welches sein Team im Jahr 2018 umgesetzt hatte. „Wir haben eine Geschichte zu dem Zustand der deutschen Autobahnen gemacht.“ Hintergrund dazu war, dass in Deutschland viele Brücken aus verschiedenen Ecken gesperrt werden mussten, manchmal nur für den Schwerlastverkehr, manchmal auch für den kompletten Verkehr, weil die Sicherheit nicht mehr gewährleistet werden konnte. „Um das ganzheitlicher betrachten zu können, haben wir eine Übersicht über alle Brücken und deren Zustand erstellt und darüber eine Geschichte geschrieben. Dafür reicht es jedoch nicht, ein paar Meldungen aus Lokalzeitungen aus allen Ecken Deutschlands zusammenzutragen, sondern es braucht einen Datensatz, um ein voll-umfasstes Bild von der Situation zu bekommen.“ Solch ein Datensatz liegt dem Verkehrsministerium vor. Dieses verfügt über eine Datenbank, in der die Informationen zusammengetragen werden – für jede Brücke gab es zahlreiche Variablen, die in der Datenbank hinterlegt sind, wie das Baujahr, die Fläche, die Länge, das Material und unter anderem auch Informationen darüber, was das Ergebnis der letzten Bauwerksprüfung war. Denn die Brücken werden regelmäßig gewartet, wobei eine Zustandsnote, so wie eine Schulnote, vergeben wird. „Was für DatenjournalistInnen oft ein Problem darstellt, ist, dass viele Datenbanken nicht öffentlich zugänglich sind. Jedoch gibt es verschiedene Werkzeuge, derer sich ein/e Datenjournalist/in bedienen kann, um doch an die Informationen zu gelangen.“ Das deutsche Informationsfreiheitsgesetz berechtigt schließlich jede/n Bürger/in dazu, Informationen einer (Bundes-)Behörde einzufordern. „Außerdem hatten die Verkehrsbehörden in Deutschland selbst auch Interesse daran, einen Überblick über den Zustand der Brücken zu behalten. Dies war der Ausgangspunkt für eine weitere Recherche, da war eine Geschichte drin. Datenjournalismus bedeutet, dass wir als JournalistInnen Werkzeuge benutzen, um an Informationen aus Datensätzen zu kommen, diese abzuklopfen und zu überprüfen, ob in diesen relevante Geschichten stecken, die wir erzählen wollen“, so Pauly.

Der Großteil der Daten ist öffentlich. Etwa auf Open Data-Portalen oder bei der Statistik Austria. „Wenn ich eine Geschichtenidee habe und weiß was ich erzählen will, dann schaue ich, ob es Daten dazu gibt und ob ich meine These bestätigen oder falsifizieren kann“, erklärt Peter Sim. Datenjournalismus steht also auch in enger Verbindung mit sozialwissenschaftlichem Arbeiten, indem Thesen durch „erforschte“ Daten verifiziert oder falsifiziert werden. Sim erzählt von einem datenjournalistischen Projekt über Glücksspielautomaten in Wien, welches das Team von „DOSSIER“ 2014 umgesetzt hat. Die These dieses Projekts war, dass sich die Glücksspielautomaten in den Bezirken befinden, in denen tendenziell ärmere Menschen leben. Im Zuge dieser Recherche hat das „DOSSIER“-Team verschiedene Daten, wie das durchschnittliche Einkommen in den Bezirken und die Standorte der Spielautomaten untersucht und mittels einer statistischen Methode geprüft, ob die aufgestellte These stimmt. „In dem Fall war das so und wir haben als Erste den Satz hinschreiben können: Je niedriger das Einkommen in einem Wiener Bezirk, desto mehr Spielautomaten befinden sich dort.“

Wie sieht die Zukunft des Datenjournalismus aus?

Der Datenjournalismus ist nicht mehr wegzudenken. Denn feststeht, dass es Daten wie Sand am Meer gibt. Aber wie entwickelt er sich weiter? Marcel Pauly vom „SPIEGEL“ fällt es schwer, dies zu beantworten – auch ob der Häufigkeit der gestellten Frage. „Es gab auf jeden Fall in den letzten zehn Jahren eine enorme Entwicklung und deutliche Professionalisierung, wenn ich mir die datenjournalistische Szene im deutschsprachigen Raum ansehe. Das hat angefangen mit Leuten, von denen einige schon programmieren konnten, andere haben sich mit Excel durch ganze Datensätze gearbeitet. Zu Letzteren habe ich in den ersten Jahren auch dazu gehört, die Programmier-Skills habe ich mir erst nach und nach angelernt.“ Wer aber heute in den Datenjournalismus hineinmöchte, sollte auf jeden Fall keine Angst vor der Auseinandersetzung mit der Programmiersprache haben.

Peter Sim beobachtet, dass der Datenjournalismus immer kleiner werde – im positiven Sinn. Das bedeute, dass es nicht mehr riesige Flagship-Projekte brauche, an denen unzählige JournalistInnen, ProgrammiererInnen und DesignerInnen monatelang zusammenarbeiten, er werde sich immer mehr auch im täglichen und wöchentlichen Journalismus ansiedeln, schneller und dadurch auch weiterverbreitet werden. „Denkbar ist für mich, dass sich der Datenjournalismus auch in benachbarte Bereiche wie den Roboterjournalismus weiterentwickelt, also dort, wo viele Datensätze vorhanden sind und Datenquellen genutzt werden können, um die Berichterstattung automatisieren zu können, wie beispielsweise Börsenberichte, sprich wie sich die Kurven verändern, oder im Fußball Spielberichte einer unteren Liga“, ergänzt Pauly.

In den letzten Jahren wurden Algorithmen zunehmend wichtiger. Sie entscheiden, beispielsweise welche Werbung wir auf „Facebook“ sehen, und können dadurch Meinungen sowie Einstellungen massiv beeinflussen. Speziell der Journalismus muss dies im Auge behalten, seine Kontrollfunktion ausüben und wachsam sein. Um dies als JournalistIn durchführen zu können, benötigt es ein gewisses Grundverständnis für Programmierung und IT, um zu verstehen, wie maschinelles Arbeiten funktioniert. Auch die „New York Times“ hat sich dem Zahn der Zeit angepasst und stellt ihren RedakteurInnen eigene „Data Training Programs“ zur Verfügung, in denen sie die nötigen Tools erlernen, die erforderlich sind, um Daten in ihre tägliche Berichterstattung einbeziehen zu können. Daten sammeln, aufbereiten, in eine Geschichte verpacken und visualisieren – möglicherweise das täglich Brot des künftigen Journalismus.

Von Marlene Lampl