Hörz: „Man kann sehr vieles als Datenjournalismus auffassen“

Michael Hörz traf früh auf Menschen, die sich genauso sehr für Daten interessieren wie er. Zu dem Zeitpunkt war der Datenjournalismus in Deutschland noch gar nicht weit verbreitet. Als ddj-Trainer und Datenjournalist beim rbb gibt er im JoCoView Einblick.

Du warst auf der JournoCon und hast einen Workshop über „Datenrecherche“ gegeben. Auf deiner Homepage schreibst du über „Open Data“. Wie empfindest du derzeit die Möglichkeiten in diesem Bereich in Deutschland?

Michael Hörz: „Wenn man die Frage nach ganz Deutschland stellt, fällt meine Antwort etwas verhaltener aus, als wenn ich von einzelnen Bundesländern spreche. In Nordrhein-Westfalen packen sie das Ganze an, da sind wahnsinnig viele Daten verfügbar. Sie haben ein zentrales Portal, in dem ich Daten über jeden kleinen Ort finde. Es gibt andere Bundesländer, in denen das sehr spärlich anläuft oder einzelne Städte vorbildlich sind. Manchmal waren die Städte auch gut dabei, sind es jetzt aber nicht mehr, weil die Arbeit an einzelne Personen gebunden war. In Berlin, also dem Bundesland, in dem ich aktuell arbeite, ist es inzwischen ganz gut, Daten lassen sich finden. Und es gibt natürlich auch Bundesländer, in denen hat man anscheinend noch nichts von ‚Open Data‘ gehört.“

Brandenburg gehört ja auch zu deinem Arbeitsbereich. Wie steht es um das Bundesland?

„Sie fangen damit an und unterstützen prinzipiell diesen Gedanken. Aber die praktische Umsetzung ist nicht so weitreichend. Ich habe keine Anlaufstelle, zu der ich einfach gehen kann. Die von der EU vorgeschriebenen Geodaten gibt es oft, andere Daten sind auf einer Ministeriumsseite eher kryptisch benannt, so gut wie versteckt – mit ganz komplizierter URL.“

Seit Juli 2016 bist du Datenjournalist beim rbb. Was ist deine Aufgabe in diesem Datenteam?

„Da muss man zeitlich differenzieren. Am Anfang war es eher eine strukturelle Arbeit. Da ging es auch darum, mein Netzwerk, also Leute, die ich kenne, zum Beispiel auch von meiner Arbeit an der Hochschule, zu nutzen, um herauszufinden, wer uns von Programmier- und Design-Seite aus unterstützen kann. Und es ging zu Beginn darum Tools und Recherche-Möglichkeiten vorzustellen und in einem Wiki zu dokumentieren. Mittlerweile mache ich aufwändigere Recherchen, unterstützte die Kollegen, mache aber auch langfristige und kurzfristige Projekte.“

Gerade die größeren Recherchen sind ja oft gar nicht so einfach. Wie lange sollte man sich hinter ein Thema klemmen und hoffen, dass man die Daten erhält?

„Es kommt ein bisschen darauf an, wie wichtig das Thema redaktionell ist und du es persönlich nimmst. Es gibt Sachen, denen ich sehr lange nachgegangen bin. Bei anderen stellt man fest, dass es keine Daten gibt oder der Datensatz 500 Euro kostet – oder dass der Aufwand, den man betreiben müsste, um auf anderem Wege das gleiche Ergebnis zu produzieren, unvertretbar ist; dann machen wir das nicht. Es gibt auch Fälle, da sind die Daten nicht so leicht zu finden, zum Beispiel ein Verzeichnis aller Schulen Berlins, weil jede Schule eine extra Unterseite mit Informationen und verlinkter PDF hat. Dann überlegen wir, ob wir uns mit einem unserer Entwickler zusammensetzen, um dafür einen Scraper zu schreiben. Es gibt auch Beispiele aus meiner Recherche-Erfahrung, bei der das Recht ganz klar auf meiner Seite war, eine Behörde das Vorhaben aber ganz gezielt unterwandert und die Daten nicht rausgibt. Das kann auch passieren. In dem Stadium resigniert man oder macht es zu seinem persönlichen Feldzug. Der Investigativ-Journalist Lars-Marten Nagel hat beispielsweise mit dem Bundesamt für Straßenbau über mehrere Jahre Prozesse geführt, weil es die Zustandsnoten von Brücken auf Bundesverkehrswegen nicht preisgeben wollte. Mittlerweile veröffentlicht es diese Daten im Halbjahresrhythmus.“

Du hast das Programmieren bereits angesprochen. Kannst du das selbst auch?

„Ich habe jemanden im Team, der das in der Regel übernimmt. Ich selbst bin auf so einer Zwischenstufe. Ich bin kein Programmierer, aber ich bin soweit vertraut mit dem Denken in Programmierbegriffen, sodass ich mir eine Reihe von einfacheren Hilfsmitteln angeeignet habe. Dabei habe ich verstanden, wie man ein Scraping-Tool anpassen kann, damit es mir die Daten in einer Liste runterlädt, die ich benötige.“

Wie bist du denn überhaupt zum Datenjournalismus gekommen?

„Letztlich hat es mit einem zufälligen Zeitpunkt zu tun, bei dem ich zur richtigen Zeit am richtigen Ort war: Ich habe 2010 als freier Journalist gearbeitet und über Medien-, Online- und Internet-Themen geschrieben. Dann gab es einen ersten „HackDay“, ein offenes Treffen für ‚Open Data‘ in Berlin, worüber ich berichtet habe. Dort habe ich viele Leute von der später entstehenden Open Knowledge Foundation kennengelernt, genau wie Lorenz Matzat. In der Zeit danach habe ich festgestellt, dass mich die Thematik auch interessiert, weshalb ich mich in diesem ‚Open Data‘-Enthusiasten-Umfeld bewegt habe. Lorenz Matzat und ich haben immer öfter darüber gesprochen, wie man mit Daten arbeiten könnte als Journalist, sodass wir überlegten, etwas zusammen zu machen. Bei mir kam kurz dazwischen, dass ich eine Stellenausschreibung als Online-Redakteur beim Rundfunk Berlin-Brandenburg (rbb) gesehen hatte, mich bewarb und die Stelle auch bekam. Deshalb stieg ich noch nicht als Vollzeitdatenjournalist ein, schlug beim rbb aber vor, dass man ein Daten-Projekt zur potentiellen Fluglärmbelastung des BER, wenn der mal kommt, mit Flugrouten machen könnte. Der rbb fand das damals zu aufwändig, sodass es da nichts wurde. Lorenz hat dieses Projekt dann aber gemeinsam mit Gregor Aisch für die taz gemacht (Einblick in das Projekt: „Fluglärmkarte BBI: Making of„). In der Zwischenzeit habe ich auch als eine Mischung aus Datenjournalismus-Trainer und freier Datenjournalist gearbeitet, habe vor allem auch viel mit OpenDataCity gemacht, als die noch in einer Art ursprünglichen Besetzung waren. 2016 kam dann der rbb auf mich zu und fragte, ob ich jetzt etwas zum Datenjournalismus machen wollen würde. Seitdem bin ich hier.“

Wie gehst du denn als Datenjournalismus-Trainer vor, wenn die Personen in deinem Workshop noch gar keine Ahnung von der Thematik haben?

„Es geht als erstes darum, das Verständnis zu entwickeln, dass man sehr vieles als Datenjournalismus auffassen kann. In einer Datenbank recherchieren und am Ende keine Visualisierung davon umsetzen, ist auch Datenjournalismus. Sie sollen mehr in Daten denken können. Wozu sind Daten in der Lage? Wo könnten noch interessante Rechercheansätze bestehen? In der Redaktion haben sie vermutlich Excel. Das Programm ist sehr mächtig. Da kann man schon mit kleinen Formeln anfangen und am Ende ganz raffinierte Dinge tun. Sie sollen nach dem Workshop auch ein Grundverständnis haben, wann eine Visualisierung notwendig ist und wann nicht. Ich zeige ihnen dafür auch einige Tools wie Datawrapper.“

Wen trainierst du so?

„Es sind zum Beispiel Journalistenschulen und -akademien, bei denen ich meistens einen dreitägigen Workshop mit einem Kollegen mache. Da geht es dann darum, wie ich Daten recherchiere, sie aufbereite und wie ich darin Geschichten finde. Am zweiten Tag zeigen wir dann die Visualisierung, zum Beispiel mit Karten. Und am Ende dürfen die Teilnehmer ihre eigenen Projekte umsetzen, die sie im besten Fall direkt mit in ihre Redaktionen nehmen. Ich mache auch Inhouse-Workshops in Redaktionen, die dann ein bisschen anders sind, weil man sich genauer inhaltlich auf deren Projekte, Fragen und regionale Ausrichtungen vorbereiten kann. Man kann auch schon vorab Fragen stellen: Was sucht ihr? Was würdet ihr gerne recherchieren? Ich unterstützte sie dann dabei, so etwas stärker zu machen.“

Wenn man sich auf deiner Homepage deinen Lebenslauf anschaut, wird deutlich, dass Infografiken immer wieder eine große Rolle gespielt haben. Tun sie das derzeit immer noch?

„Für mich ist eine Infografik ein Ensemble von mehreren Visualisierungen, die zusammenwirken. Nur eine Visualisierung ist für mich ein Element. So würde ich sie definieren. Tatsächlich hat das etwas mit dem Kontext zu tun, in dem ich da gearbeitet habe. Es ging öfter auch mal darum, neue Darstellungsformen auszuprobieren, das waren meistens Innovationsprojekte. Dabei wurde die Infografik als Schwerpunkt gesetzt. Der Vorteil war, dass man ein Team hatte, das das auch umsetzen konnte. Auch wenn es in früheren Zeiten noch in Flash war. Es hatte auch mit den Möglichkeiten zu tun, die sich damals Online entwickelt haben.“

Greifst du auf diese Erfahrungen zurück, wenn du jetzt deine Daten visualisierst?

„Die Visualisierung bei Datenprojekten hat noch einmal ein anderes Gewicht, du bist weniger frei darin, wie Daten vermittelt werden sollen – was jetzt auch nicht schlecht sein muss. Ich habe mir in den letzten Jahren durch die Zusammenarbeit mit den Spezialistinnen und Spezialisten einiges angeeignet – wie ich Daten angemessen visualisiere, sodass nichts irreführend, aber trotzdem interessant ist. Bei dem, was ich in der Zeit davor gemacht habe, geht es eher darum, etwas interessant und mit einer bestimmten Erzählweise zu vermitteln. Da gibt es aber nicht so eine starke Aussage, wie wenn man Werte gegenüberstellt. Es gibt Tools wie Datawrapper, die von Leuten gemacht werden, die eine sehr gute Ahnung haben von Visualisierung und mit der Forschung dazu vertraut sind, wie Leute etwas auffassen.“

Das heißt, du nutzt für deine eigenen Projekte vor allem Datawrapper zur Visualisierung?

„Das kommt ganz darauf an: Ist es eine Visualisierung zur Analyse oder zur Darstellung? Beim rbb nutzen wir häufig Datawrapper zum Beispiel auch aus datenschutzrechtlichen Gründen, da so keine Daten noch einmal über die USA geschickt werden. Wenn wir spezielle Karten nehmen, nutzen wir CARTO. Das kostet mittlerweile Geld, wenn man sich neu anmeldet. Wir müssen das nicht zahlen, weil wir vor dieser Regelung bereits einen Account hatten. Die beiden nehme ich für die Darstellung. Wenn ich in der Analyse arbeite, nehme ich ausgereiftere Karten von CARTO, die mehrere Ebenen besitzen, die ich gegeneinander schneiden und einfärben kann. Dann kann man schauen, ob ein ähnliches Muster vorliegt. Wenn ich tiefer reingehe, nutze ich ein Tool wie QGIS, um mal 50.000 Punkte auf eine Deutschlandkarte zu setzen und zu sehen, wie die sich verteilen. Für seltene Fälle nutze ich auch mal ein Netzwerk-Analyse-Tool wie Gephi.“

Hast du ein Lieblingsdatenprojekt – das muss nicht von dir sein, aber kann -, das eine Art Ideal oder Vorbild für dich ist?

„Könnte ich gerade ad hoc gar nicht sagen. Am Anfang war das eher so, dass ich manche Projekte einfach ziemlich cool fand. Wenn ich in den deutschen Raum gucke, sind das die Projekte von den Kolleginnen und Kollegen vom Bayerischen Rundfunk. Sie machen eine sehr interessante Verknüpfung von einer spannenden Story und visuellen Erzählform. Im Ausland gibt es ganz viele Projekte. Eines, das mir wegen dieser Mischung aus Darstellungsform und Recherche im Kopf geblieben ist, ist „Spies in the Sky“ (Peter Aldhous, BuzzFeed) aus den USA. Dabei geht es um die ganzen Überwachungsdrohnen, die unterwegs sind.“

Wenn du dir etwas im Bezug auf den Datenjournalismus in Deutschland wünschen dürftest, was wäre es?

„In der Stufe ‚Komplettes Wünsch-dir-was‘ wäre das, dass mehr kleine, regionale Redaktionen das als ein selbstverständliches Mittel einsetzen. Außerdem, dass Zeitungshäuser und Verlegerverbände eine anständige Menge Geld pro Jahr in die Hand nehmen, um den Datenjournalismus zu fördern. Gerade auch, damit man nicht immer diese leidige Diskussion hat, wieso so viele bei der „Google News Initiative“ mitmachen, aber dann doch so skeptisch gegenüber Google sind. Marco Maaß meinte zuletzt in einer Diskussion, in einigen Zeitungshäusern herrsche die Meinung vor, dass es bei ihnen doch bisher immer so geklappt hat – wieso sollte man da jetzt mehr Geld für ausgeben? Bisher scheint der Leidensdruck noch nicht groß genug zu sein, mit der Zeit zu gehen und über Darstellungs- und Rechercheformen nachzudenken, die in zehn oder 20 Jahren viel relevanter sein werden. Ich habe das jetzt nicht durchgerechnet, aber wenn ich mir was wünschen dürfte, dann so 20 Millionen Euro, die ich einfach über das Land und an die ganzen Datenteams verteilen könnte.“

 


Was ist „Open Data“?

Die Bundeszentrale für politische Bildung beschreibt die offenen Daten wie folgt: „Der Begriff „offene Daten“ (englisch Open Data) ist ein einfaches Konzept: Daten sind dann „offen“, wenn sie durch jedermann und für jegliche Zwecke genutzt, weiterverarbeitet und weiterverbreitet werden können. Dieses Konzept ist im akademischen Bereich nicht neu und ähnelt den Konzepten von Open Access, Open Content und Open Source.

Der Begriff offene Daten schließt Daten aus Wissenschaft und Forschung mit ein, dennoch wird er heute oft synonym für „Open Government Data“ verwendet, also für „offene Daten der öffentlichen Verwaltung“ oder kurz „offene Behördendaten“. Offene Behördendaten spielen eine wichtige Rolle im Prozess der Öffnung von Regierung und Verwaltung, der als Open Government bezeichnet wird.“ Um wirklich „Open Data“ anzubieten, gibt es Kriterien, die erfüllt sein müssen, wie beispielweise die Maschinenlesbarkeit und Daten als Primärquelle.

Quelle Beitragsbild: Michael Hörz

Kommentar verfassen