Campfire Campfire 2018 (Samstag)

Künstliche Intelligenz im Journalismus: Brauchen wir überhaupt noch Redakteure?

2. September 2018

Künstliche Intelligenz im Journalismus: Brauchen wir überhaupt noch Redakteure?

Eine künstliche Intelligenz, die dem Redakteur über die Schulter schaut. Die soziale Netzwerke scannt, welche Schlagworte heute am besten klicken. Die das Bild des Artikels entsprechend anpasst, die Titelzeile schreibt und die Wortwahl automatisch „korrigiert“. Alles mit dem Ziel, dass der Text am Ende des Tages von möglichst vielen Leuten gefunden und gelesen wird. Klingt utopisch? Dystopisch? Ein kleines Startup in Weißrussland entwickelt gerade genau so etwas.

Wie weit ist es da noch bis zum komplett künstlichen Redakteur? Daria Minsky, Mitgründerin des Startups, stellte ihr Projekt vor und sich selbst den Fragen dazu im RP-Zelt. Minsky ist Verlegerin, sie gibt in Weißrussland ein Online-Magazin heraus. Während ihres Studiums in Hamburg begann sie, die Idee einer KI zu entwickeln, die dem Redakteur unter die Arme greifen soll. „Wir stellten fest, dass wir mit hoher Wahrscheinlichkeit vorhersagen konnten, welche Artikel, welche Titelzeilen und welche Bilder erfolgreich sein würden“, beschreibt Minsky den Werdegang des Projekts, das noch ganz am Anfang stehe. Die Ziele sind aber ehrgeizig.

Der Weg ist noch weit

Was kann künstliche Intelligenz (KI) und was nicht? Reinhard Karger, Sprecher des Deutschen Forschungszentrums für Künstliche Intelligenz, verpasst möglichen Erwartungen und Ängsten zunächst einen Dämpfer. „KI besteht aus zwei Teilen: Lernen und Wissen. Lernen klappt super. Wissen, also das Anwenden von Regeln, nicht“, sagt Karger. Wenn man einer KI nur genügend Bilder einer Katze zeige, könne sie mit entsprechend hoher Wahrscheinlichkeit auch jede weitere Katze als solche erkennen. Als Beispiel nannte er die Bildersuche auf dem iPhone. „Geben Sie dort Fahrrad ein, und sie bekommen mit hoher Wahrscheinlichkeit alle Bilder korrekt angezeigt, die ein Fahrrad zeigen.“ Eine KI sei also mit genügend Training durchaus in der Lage, ein Objekt auf einem Bild zu erkennen. Woran es hapere, sei die Erkenntnis. „Eine KI kann nicht die Geschichte der Personen auf einem Bild erkennen, sie kreiert keine Welten im Hinterkopf beim Blick auf das Foto“, erklärt Karger. Man könne schon froh sein, wenn die KI auf einem Strandfoto aus Sonne, Wolken, Sand und Wasser „sonniges Wetter“ schließen könne. Karger: „Das Inspirierende, das Spannende – das können KIs nicht. Und ich weiß nicht, ob sie es je können werden.“

Erste Gehversuche

Lars Reckermann, Chefredakteur der Nordwest-Zeitung (NWZ), setzt seit kurzem eine rudimentäre KI ein, die einfache Informationen in vollvertextete Nachrichten umwandelt. „Wir haben einen WhatsApp-Nachrichtendienst, der dem Leser auf Anfrage die aktuelle Wettervorhersage übermittelt“, berichtet Reckermann. Für diesen Dienst sitze aber kein Redakteur den ganzen Tag am Telefon und rufe im Viertelstundentakt beim Deutschen Wetterdienst an. Ein Programm rufe in regelmäßigen Intervallen die Informationen ab und generiere daraus die Kurznachrichten. Zusätzlich lasse man die KI die Sportergebnisse der unteren Ligen in Textform bringen. Beides sind Leistungen, die die NWZ zuvor nicht im Angebot hatte. Es würden also keine Redakteure ersetzt oder entlastet, sondern nur ein neues Produkt geschaffen, sagt Reckermann.

Einen Schritt weiter will Clemens Boisserée, Redakteur der Rheinischen Post, gehen. „Kein Redakteur schreibt gerne Polizeimeldungen oder hat das Gefühl, dabei eine großartige journalistische Tätigkeit auszuüben“, sagt er. Wenn eine KI diese Aufgabe übernehmen könnte, hätten die Redakteure mehr Zeit für „richtigen Journalismus“. Möglich sei das aktuell aber noch nicht, da es keine einheitliche Aufbereitung der Daten gebe. Nur mit fest strukturierten Informationen könnten aktuelle Programme arbeiten und daraus Texte generieren. „Wenn nicht jede Information in einer Tabelle in einer fixen Kategorie hinterlegt ist, funktioniert das nicht“, gesteht Boisserée.

KI inside

Stefan Heinemann, Professor für Wirtschaftsethik an der FOM Universität Essen, fordert für Inhalte, die von einem Computer generiert wurden, ein Siegel. „Da müsste ein Button darunter, KI Inside“, sagt Heinemann. Menschen neigten bei KIs dazu, eine menschliche Zuordnung vorzunehmen. Als Beispiel zieht der den Vergleich zwischen einem Hammer und dem Sprachassistenten Alexa heran. Auch wenn der Hammer ein nützliches Werkzeug sei, würden wir ihm nie eine Persönlichkeit zuschreiben. Anders als bei Amazons Sprachassistenten, der aber in keiner Weise zu einer Persönlichkeit fähig sei. Auch Karger unterstützt die Forderung nach einer Kennzeichnung. „Computer generated Content muss als solcher erkennbar sein.“

Shit in – Shit out

Was passiert, wenn die Daten, die in eine KI wandern, ungeeignet sind? Karger warnt: „Sind die Daten vorurteilsbehaftet, wandern diese Daten auch in die KI. Und diese gibt die Vorurteile dann als objektive Informationen wieder.“ Damit bliebe die Verantwortung für die Bewertung am Nutzer hängen. Aus diesem Grund sei aber auch die Position des Journalisten unumgänglich. Das Kuratieren der Informationen sei eine Aufgabe, der KIs wohl noch auf lange Sicht nicht gewachsen sein werden.