02.06.2014

Was ist Roboterjournalismus – Teil 2

Lückentexte sind von gestern.

Heutzutage arbeitet niemand mehr mit Lückentexten, bei denen Variablen des Datensatzes in die Lücken eingesetzt werden mussten. Das hatte den Nachteil, dass jede noch so geringe Veränderung des Ausgangsmaterials eine neue Programmierung nach sich zog, weil die Maschine mit den veränderten Informationen nichts mehr anfangen konnte. Heute arbeitet das System mit übergeordneten Regeln und fragt sich, ähnlich wie der Mensch: Worum geht es eigentlich? Was daran ist die Nachricht? Der Code ist in den letzten Jahren sehr viel intelligenter geworden.

Roboterjournalismus_720px

Foto: Mirko Tobias Schaefer, www.robotlab.de/bios/bible.htm

Wer sich selbst von der Qualität der Nachrichten ein Bild machen will: Automatische Texte auf Grundlage der 1. Bundesliga kann man sich bei fussballheute.net anschauen. Ob wie bei Carta vor Jahren angekündigt, „die größte denkbare Kränkung des Journalistenethos“ bevorsteht oder wir alle arbeitslos werden, darf ernsthaft bezweifelt werden. Glossen, Reportagen, Kommentare, Interviews, investigative Artikel, Feuilletonstücke etc. können nämlich weder heute noch in naher Zukunft automatisch generiert werden. Kollege Computer arbeitet zwar unglaublich schnell, preiswert und wird nie krank. Dafür fehlt ihm aber Erfahrung und Weltwissen, um Ereignisse bewerten zu können. Zudem ist es noch immer ein langer Weg bis zur ersten Kurzgeschichte eines Roboters, weil es dafür auch Inspiration, Weltschmerz beziehungsweise Euphorie und jeder Menge Fantasie bedarf.

Der Big Data Gap als Wegbereiter

Cord Dreyer von Text-On versucht im Gespräch, Entwarnung zu geben. Er glaubt, Computer dienen bisher vor allem der Recherche und können Journalisten auf interessante Zusammenhänge aus Datensätzen hinweisen, die einem sonst womöglich verborgen geblieben wären. In diesem Zusammenhang ist immer häufiger die Rede vom sogenannten Big Data Gap. Das Marktforschungsunternehmen IDC ging bereits Ende 2012 davon aus, dass 23 Prozent aller frei verfügbaren Informationen nützliche Erkenntnisse ans Tageslicht fördern könnten. Allerdings waren nur drei Prozent der Daten verschlagwortet und nur ein halbes Prozent wurde überhaupt bearbeitet, der Rest ging verloren. Die Datenmenge des digitalen Universums steigt aber weiter an. 2020 soll es ein Datenvolumen von 40 Zettabyte geben. 40 Milliarden Terabyte Daten kann allerdings kein Mensch mehr ohne die Unterstützung von Cloud und Algorithmus auswerten. Bei solchen Dimensionen ist jede Hilfe willkommen. Dabei darf aber nicht vergessen werden, dass es in Zeiten der anhaltenden Verlagskrise nicht nur um eine Hilfestellung der Redakteure geht. Den Verlagsleitern und Geschäftsführern geht es auch darum, Kosten einzusparen. Roboterjournalismus benötigt im Gegensatz zum Deep Learning kein Netzwerk aus 1.000 Computern, ein einfacher Server-Schrank mit wenigen leistungsfähigen Prozessoren tut es auch. Von daher ist der Aufwand überschaubar.

Video: Lorenz Matzat: Wenn Algorithmen Nachrichten machen

Was können die Algorithmen für uns tun?

Anfang Mai dieses Jahres trafen sich in Wien 500 Entscheidungsträger aus aller Herren Länder auf dem European Newspaper Congress. Dort wurden diverse Firmen vorgestellt, die die Verlage mit ihren Dienstleistungen unterstützen sollen. Eine der vorgestellten Unternehmen ist die Berliner tazaldoo UG (haftungsbeschränkt). Deren Dienst Tame wird von der Presse gerne als „Google für Twitter“ angekündigt. Tame soll dabei behilflich sein, den unübersichtlichen Datenwust von Twitter zu zähmen. Kunden wie die New York Times, BBC oder Zeit Online lassen sich von Tame für einen bestimmten Zeitraum alle relevanten Inhalte, Themen und Nutzer aus dem Datenkosmos dieses sozialen Netzwerks liefern. Beantwortet werden dabei u. a. folgende Fragestellungen: Welche Themen liefen innerhalb eines bestimmten Zeitraums besonders gut? Welche Links, Bilder oder Videos wurden dazu ausgetauscht? Welche Twitter-Nutzer fielen als Multiplikatoren wichtiger Inhalte oder als Meinungsmacher auf? Für PR-Agenturen ist es hingegen wichtig, wie eine Marke wahrgenommen wird. Fand nach einer Werbekampagne eine Veränderung der Wahrnehmung statt? Kam eine Aktion (z. B. Preissenkung) positiv oder negativ an?

Vorgestellt wurde auch Datawrapper, eine Software, die der Visualisierung von Daten dient. Das Tool wurde als Open-Source-Projekt vom Bildungswerk ABZV erstellt und darf ganz legal verändert und weiterentwickelt werden. Ein eindrucksvolles Beispiel für eine andere Visualisierung ist die Erdbebenkarte vom südlichen Kalifornien. Auf dieser kann man sehr gut erkennen, wann sich die Erde in welcher Stärke bewegt hat. Während die Karte der LA Times die Stärke auf der Richterskala zeigt, konzentriert sich die Übersicht des Southern California Earthquake Data Center auf den chronologischen Ablauf.

Der Technologiedienstleister Retresco warb in Wien damit, Journalisten durch Rechnerleistung zu ersetzen. Ein Datensatz oder das Web können in Hinblick auf einzelne Begriffe oder Themen durchsucht werden. Beispielsweise wird die Themenseite von faz.net mithilfe eines semantischen Verfahrens generiert und automatisch ausgespielt. Dazu identifiziert Retresco, welche Organisationen, Unternehmen und Persönlichkeiten es derzeit wert sind, auf der Themenseite angezeigt zu werden. Mit der Bündelung relevanter Schwerpunkte soll für die Leser der Frankfurter Allgemeinen Zeitung ein Zusatzangebot geschaffen und die Sichtbarkeit bei den Suchmaschinen verbessert werden. Doch dies ist nur eine Dienstleistung von vielen, die schon jetzt von den Grünen, der Rheinischen Post, Augsburger Allgemeine, N24 und anderen Kunden in Anspruch genommen wird.

Quill Engage by Narrative Science from Katy DeLeon on Vimeo.

Doch die automatischen Schreiber können nicht nur kurze Berichte über Erdbeben, Börsennotierungen oder Spielergebnisse schreiben. Neuester Streich ist eine Weiterentwicklung von Quill des US-Unternehmens Narrative Science. Die Software ist nicht nur für Forbes tätig, Quill Engage kann jetzt dank patentierter Technologie auch die hoch komplexen Webseitenstatistiken von Google Analytics selbsttätig auswerten. Auf Knopfdruck bekommt man alle Key Facts präsentiert und kann seine Marketing-Strategie darauf abstimmen.

Fazit

Springer-Chef Mathias Döpfner stieß im April in der FAZ mit seinem offenen Brief eine riesige Diskussion zur Monopolstellung von Google an. Der Allrounder befindet sich auf der Gewinnerseite, der Internet-Konzern ist von der mangelnden Bereitschaft, Geld für Inhalte zu bezahlen, nicht betroffen. Kritiker weisen jedoch darauf hin, dass es vielen Verlagen noch immer an Flexibilität und Innovationskraft fehlen soll. Würde man wie Google verzögerungsfrei auf die Bedürfnisse der Leser eingehen, statt zu versuchen, alte Geschäftsmodelle fortzusetzen, könnte ihre Situation weitaus besser aussehen.
Google-News-Chef Richard Gingras hingegen empfahl den nach Wien gereisten Verlagschefs eine weitere Spezialisierung als Erfolgsrezept. Gingras glaubt, bei den anstehenden Veränderungen brauche es Mitarbeiter, die sowohl Statistikexperten, Computerwissenschaftler als auch Journalisten seien. Von daher ist zu erwarten, dass sich das Berufsbild des Journalisten in einigen Jahren merklich verändern wird. Saim Rolf Alkan vertritt die Auffassung, Roboterjournalismus könne die Mitarbeiter von lästigen Routinearbeiten befreien. Es mache schlichtweg keinen Sinn, „regelrechte Excel-Wüsten über den Redakteuren auszuschütten“.
Zwar wurde unlängst angekündigt, über 90 Prozent aller Texte würden im Jahr 2030 von Maschinenhand geschrieben. Doch Dreyer und Alkan sind der Meinung, die neue Technik werde die klassischen Medienhäuser eher unterstützen, statt Jobs zu gefährden.
Wie es wirklich weitergeht, kann niemand sagen. Angesichts der rasanten technischen Entwicklung bedarf es mehr als einer funktionierenden Glaskugel, um das vorherzusagen.

Comments are closed.