17.09.2015

Projekt News-Stream 3.0: Big Data-Helferlein für Redaktionen

Das staatlich geförderte Technologieprojekt News-Stream 3.0 will Medien fit für den Umgang mit der allgegenwärtigen Datenflut machen. Die Automatisierung wird damit auch verstärkt in Redaktionen Einzug halten.

Simultane Sprechererkennung und Twitter-Analyse am Beispiel der britischen Unterhauswahlen 2015 (Bild: Fraunhofer IAIS)

Simultane Sprechererkennung und Twitter-Analyse bei den britischen Unterhauswahlen 2015 (Bild: Fraunhofer IAIS, Daniel Stein links im Bild)

In einer der vielen öden Bundestagsreden schneidet ein Abgeordneter plötzlich überraschend ein spannendes Thema an. Redakteur Müller ist gerade beim angeregten Plausch mit Kollegen und erhält eine Benachrichtigung per SMS. An seinem Arbeitsplatz angekommen, hat das System schon ein kleines Dossier zum Abgeordneten zusammengestellt und herausgesucht, wann der sich bisher schon zum Thema geäußert hat. Er bekommt auch gleich präsentiert, wie die Äußerung in sozialen Medien diskutiert wird. So könnte es aussehen, wenn die Entwicklungen von News-Stream 3.0 Redaktions-Alltag geworden sind.

Ziel: sich auf wichtige Dinge konzentrieren können
Das Projekt will komplexe Daten bequem für Journalisten nutzbar machen. So sollen Redakteure mit der Informationsflut mithalten und sich auf andere Dinge konzentrieren können, meint Daniel Stein, der am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS die Entwicklung koordiniert: „Wenn etwas passiert, was für mich als Redakteur relevant ist, werde ich vom System informiert. Die Technologie ermöglicht es, sich auf andere Sachen zu konzentrieren und nicht wie gebannt vor mehreren Fernsehmonitoren zu sitzen oder Tweets verfolgen zu müssen.“

News-Stream 3.0 geht auf eine Ausschreibung des Forschungs- und Bildungsministeriums zu Big Data zurück. Das Ministerium fördert das dreijährige Projekt seit 2014 mit 2,1 Millionen Euro. Ein Konsortium stemmt die Entwicklung: beteiligt ist das Fraunhofer-Institut, die IT-Agentur Neofonie und die zwei Medienpartner Deutsche Welle und  die dpa mit ihrer Tochter dpa-infocom.

Wenn es fertig ist, sollen verschiedenste Quellen automatisiert gesammelt, ausgewertet und für Redaktionen aufbereitet werden: Dateien aus dem Archiv des jeweiligen Mediums, Twitter- und RSS-Streams, Fernsehsendungen, etwa Übertragungen von Bundestagsdebatten oder auch Daten von Sensoren, beispielsweise vom Deutschen Wetterdienst. Redakteure können „Trigger“ definieren. Sie werden dann informiert, wenn bestimmte Ereignisse eintreten – etwa wenn im Bundestag das Wort „PKW-Maut“ fällt oder wenn bestimmte Hochwasser-Pegelstände überschritten werden.

Audio-Mining und Zuordnung von O-Tönen
Eine besondere Rolle spielt das Audio Mining, das Erkennen von Sprechern und von Inhalten gesprochener Sprache. Einer Person, die im Fernsehen oder Radio auftaucht, wird ein bestimmter Marker zugeordnet, mit dem sie später identifiziert werden kann. Und das System soll Stichworte erkennen und komplette Transkripte anfertigen können, auch wenn die anfangs immer wieder fehlerhaft sind.

Zur Zeit wird an Prototypen für die einzelnen Anwendungsfälle gearbeitet. Auf dem Projekt-Blog gibt es Einblicke in die Funktionsweise der Spracherkennung bei News-Stream 3.0 oder die Kontextalisierung von O-Tönen. Und es gab schon einen Testlauf für die Spracherkennung in Fernsehsendungen bei der letzten Wahl in Großbritannien. Das hat auch funktioniert, erzählt Stein vom Fraunhofer-Institut. „Der Prototyp konnte korrekt erkennen, welcher der Sprecher war und welche Stichworte gefallen sind.“

Visuelles Fach-Chinesisch: eine Konzeptzeichnung zum Audio-Mining bei Fernsehsendungen (Bild: News-Stream 3.0)

Visuelles Fach-Chinesisch: eine Konzeptzeichnung zum Audio-Mining bei Fernsehsendungen (Bild: News-Stream 3.0)

Was hat Merkel noch so dazu gesagt?
Alle Partner des Konsortiums sprechen sich wöchentlich ab, evaluieren einmal im Monat den Stand des Projekts und treffen sich einmal im Quartal vor Ort. Die Deutsche Presseagentur hofft auf neue Werkzeuge für die Redaktion, erzählen Dr. Gerd Kamp und Martin Virtel, die auf dpa-Seite mit an News-Stream arbeiten. Die Werkzeuge könnten einer reibungsloseren Verarbeitung und Verifikation von Medadaten dienen, der automatischen Bereitstellung von Hintergrundmaterial, dem Entdecken von Geschichten und Quellen, der Verifikation von Quellen und Sachverhalten und der Beobachtung von Berichterstattung.

Folgende Szenarien können sich die dpa-Entwickler vorstellen: „Ein Anschlag passiert – welche Twitter-Nutzer liefern verlässliche Informationen? Die Bundeskanzlerin hat ihre Haltung zum Thema X geändert – die Liste der Audio-Mitschnitte zum Stichwort X von Angela Merkel wird im Redaktionssystem bereitgestellt, noch während der Text verfasst wird. Der Bundestagsabgeordnete Y gibt ein Interview, in dem er sich überraschenderweise zum Thema Z äußert – Wie sieht die Berichterstattung der deutschen Medien zu diesem Thema aus, und hat sich der Abgeordnete schon mal dazu geäußert?“

Die Tests im Newslab der dpa waren sehr ermutigend, meinen Kamp und Virtel, die Redaktion stehe deswegen bereit für den ersten Einsatz. Ab Herbst soll ein Prototyp für Twitter eingesetzt werden, der Ereignisse mit großem Echo in sozialen Medien filtert.

Weitere Anwendungen noch offen
Daniel Stein vom Fraunhofer-Institut hofft, dass Anfang 2016 die Anwendung in Tagesgeschäft bei den beiden großen Medienpartnern losgeht. Inwiefern am Ende ein Produkt stehen soll, das auch anderen Medien oder einzelnen Journalisten zur Verfügung steht und wie das Preismodell aussehen wird, ist noch offen. Eine Version für Einzelnutzer fände er aber interessant.

Und die besorgte Frage des Autors, ob die Automatisierung redaktioneller Prozesse Medienunternehmen nicht vor allem die Entlassung überflüssig gewordener Redakteuere ermöglichen soll, verneint er. News-Stream 3.0 sei ist nicht dafür gedacht, Leute zu ersetzen, sondern ziele darauf ab, Redakteure bei automatisierbaren Prozessen zu entlasten. „Dadurch bleibt der Kopf frei für Dinge, die menschliche Intelligenz erfordern. Es gibt mittlerweile so viele Daten, die auf Redaktionen einströmen, dass man einfach darauf reagieren muss.“

Dieser Eintrag wurde veröffentlicht in: JOURNALISMUS & TECHNIK

Comments are closed.