Kira Schacht: „Hoffe, dass ddj normaler wird“

Kira Schacht (22) ist Datenjournalistin, Volontärin beim Rundfunk Berlin-Brandenburg (RBB) und Teil des Journocode-Teams. Im JoCoView gibt sie Einblick in die großbritannischen Datenteams von „The Guardian“ und „The Times“– außerdem berichtet sie über ihre „Scraping“-Leidenschaft.

Diese Motivation, sich mit Daten zu beschäftigen, wird bei dir immer wieder deutlich. Auf Twitter heißt du „Daten_drang“. Bei der Beschreibung eures ddj-Events „JournoCon“ (24. März 2018, Berlin) steht über dich: „Scrapet alles, was nicht bei drei auf den Bäumen ist.“ Woher kommt diese Begeisterung?

„Ich konnte tatsächlich schon immer gut mit Zahlen und finde es super faszinierend, was für Geschichten in den Datensätzen stecken. Außerdem begeistert mich das Programmieren: Es gibt so viele Möglichkeiten und Wege, ein Problem zu lösen. Und das beides lässt sich perfekt im Datenjournalismus verbinden.“

Wie bist du denn zum Programmieren gekommen?

„Ich studiere an der Technischen Universität Dortmund Wissenschaftsjournalismus. Zu Beginn hatte ich Physik als Schwerpunkt. Doch dann ist der Datenjournalismus eingeführt worden und ich habe gemerkt, wie viel Spaß mir das macht, so dass ich nach dem zweiten Semester gewechselt bin. Während der vorlesungsfreien Zeit habe ich mir dann die Programmierung mit R beigebracht, was aber auch Teil des Studiums ist. Man bleibt meistens bei der Sprache, die man kennengelernt und in meinem Fall durch Vorlesungen vertieft hat. Aber ich kann auch Python und beispielsweise für webbasierte Anwendungen JavaScript.“

Das Scraping haben wir in dem Zitat schon kurz thematisiert. Woher bekommst du deine Daten und wie?

„Wenn es nötig ist, schreibe ich eigene Scraper, um an die Daten von Websites zu kommen. Dafür nutze ich meistens die Programmiersprache R oder auch Python und seine Bibliotheken. Dabei hilft aber auch Google, weil viel Material bereits vorhanden ist. Ich benutze aber auch recht häufig Daten, die Ämter von sich aus zur Verfügung stellen.“

Was sollte man beim Scrapen beachten?

„Man muss wissen, was man scrapet. Das ist generell nicht illegal, kann es aber sein. Da muss man natürlich auch Urheber- und Persönlichkeitsrechte beachten. Außerdem sollte je nach Datensatz mehr Zeit mitgebracht werden, da einige Datenbanken sehr groß sind.“

Du warst in Großbritannien bei „The Guardian“ und „The Times“ im Praktikum. Wie steht es dort um den Datenjournalismus?

„In London gibt es eine sehr inspirierende Datenjournalismus-Community mit Meet-Ups mit Menschen von allen möglichen internationalen Medien. Das war super! Deutschland hängt nicht weit hinterher, in Großbritannien hat der Datenjournalismus eine längere Tradition. Und bei der Times beispielsweise ist die Ressourcenlage dafür auch eine ganz andere.“

Und wie sehen die Datenteams da aus?

„Beim Guardian ist das Team in die Redaktion integriert – das würde ich mir in Deutschland auch wünschen. Dort handelt es sich um ein dreiköpfiges Team, das nur aus Frauen besteht. Witzigerweise zwei Irinnen und eine Schwedin, also niemand aus Großbritannien. Allerdings sind die komplett für die Datenrecherche zuständig, die Visualisierung ist noch einmal ausgelagert. Bei der Times sieht das anders aus: da sind auch Designer und Entwickler im Team mit einem enorm hohen Programmierniveau. Zu meiner Zeit waren sie nur rein männlich besetzt.“

Welche Arbeiten durftest du machen?

„Meine Programmier- und Scraping-Kenntnisse haben mir sehr geholfen. In diesem Bereich durfte ich die Teams dann auch unterstützen. Außerdem kann ich mit GitHub umgehen, das dort alle nutzen. Dann habe ich auch eigene Themen umgesetzt und bei Projekten geholfen.“

Zurück in Deutschland bist du aktuell Volontärin beim RBB. Arbeitest du dort vor allem auch im Bereich des Datenjournalismus?

„Nicht nur. Es ist auch total toll mal den Bereich des Rundfunks kennenzulernen. Aber natürlich arbeite ich auch mit dem RBB-Datenteam zusammen. In Kooperation mit dem Mitteldeutschen Rundfunk (MDR) habe ich beispielsweise ein Projekt über Wölfe umgesetzt. Mit der TU Berlin zusammen ist eines zu ‚Stickoxiden in Berlin‘ entstanden.“

Wie sieht das RBB-Datenteam aus?

„Jedes Team ist anders, so auch beim RBB. Es gibt Redakteure in Vollzeit, aber auch Halbzeitstellen, so dass immer jemand anderes hier ist. Götz Gringmuth-Dallmer leitet das Team, der Medientrainer Michael Hörz ist hier, ebenso Dominik Wurnig und weitere Kollegen, die beispielsweise als Entwickler arbeiten.“

Zuletzt ein Blick in die Zukunft: Wohin entwickelt sich der Datenjournalismus in Deutschland in den nächsten Jahren?

„Orakeln ist ja immer so eine Sache. Ich hoffe allerdings, dass wie den Begriff des Datenjournalismus nicht mehr so oft brauchen, weil er normaler wird. Nicht jeder muss programmieren können, aber über statistische Grundkenntnisse verfügen. Das ist eine neue Ebene, die dem Journalismus hinzugefügt wird. Und so wird dann auch das Statistische Bundesamt zu normalen Quelle.“


Was ist Scraping? Das Journocode-Team beschreibt es in seinem Glossar als eine Methode, automatisch Daten aus dem Internet zu extrahieren. Das kann beispielsweise sinnvoll sein, wenn Datensätze nicht leicht gedownloadet werden können. Mehr Infos: „Scraping/Journocode“ (Erklärung ist auf Englisch).


Was ist Journocode? Geschäftsführerin Marie-Louise Timcke beschreibt das Projekt auf ihrer Homepage wie folgt: „Im Oktober 2015 haben Kommilitonen und ich Journocode gegründet – ein BarCamp für Datenjournalismus- und Programmierbegeisterte in Dortmund. Zwei Jahre später gehen wir nun den nächsten Schritt und bieten als Journocode UG Workshops und Seminare an.“ Außerdem befinden sich auf der dazugehörigen Internetseite hilfreiche ddj-Tools und ein Glossar, in dem die wichtigsten Datenjournalismus-Begriffe erklärt werden.


Weitere Journocoder im JoCoView:


Quelle Beitragsbild: Kira Schacht

3 Gedanken zu „Kira Schacht: „Hoffe, dass ddj normaler wird“

Kommentar verfassen