Campfire Campfire 2018 (Samstag)

Facebook im Kreuzverhör: „Wir haben nicht genau genug hingeschaut“

2. September 2018

Facebook im Kreuzverhör: „Wir haben nicht genau genug hingeschaut“

Facebook steht unter Druck. Nicht erst seit dem Skandal um Cambridge Analytica sehen Verbraucherschützer die Daten-Sammelfreude des Konzerns kritisch. Das Letzte, was Mark Zuckerberg gebrauchen konnte, war der Verdacht, Facebook könnte zum Werkzeug der Wahlbeeinflussung in den USA geworden sein. Und doch steht genau die Plattform, die ihre Nutzer und die Welt eigentlich näher zusammenbringen wollte, nun für einige für das große undurchsichtige Böse, das die Demokratie gefährdet. Im Facebook-Zelt stellte sich Guido Bülow, Head of News Partnerships Central Europe seit 2015, den Fragen des Publikums, moderiert von Journalist Richard Gutjahr.

Mit Trump wurde alles schlimmer

Als große Zäsur für Facebook bezeichnet Bülow die Wahl von Donald Trump. „Inwiefern sind wir tatsächlich dafür verantwortlich?“, zeichnete Bülow die Frage nach. Rückblickend sagt Bülow, „haben wir nicht genau genug hingeschaut, was auf unserer Plattform geteilt wird“. Zum Cambridge-Analytica-Skandal sagt Bülow: „Wir haben die Funktion des Datensammelns in den Apps bereits 2014 abgeschaltet, aber versäumt nachzuhalten, ob die bereits gesammelten Daten auch gelöscht werden.“ Facebook habe bei seinen Entwicklungen und Produkten immer erst den positiven Nutzen im Blick, nicht was Nutzer damit missbräuchlich machen könnten. Dies könne man durchaus als naiv bezeichnen.

In den letzten zwei Jahren seien nun Strategien entwickelt worden, Falschmeldungen nicht nur zu entdecken, sondern auch zu bewerten. „Viele Falschmeldungen haben finanzielle Gründe“, führt er weiter aus. Sie dienten einzig dazu, Klicks und damit Werbeeinnahmen zu generieren. In Deutschland kooperiere Facebook nun mit Correctiv, um Falschmeldungen zu bewerten, die der Algorithmus entdecke. „Menschen, die regelmäßig Falschmeldungen verbreiten, benutzen immer die gleichen Mittel“, erklärt Bülow. Dazu gehörten bestimmte Schlagwörter, Überschriften, Großbuchstaben und viele Beiträge in kurzer Zeit.

Facebook-Recht über nationalem Recht?

Wer den Holocaust leugnet, wird nicht gesperrt. Der Post wird auch nicht gelöscht. Was hierzulande gegen das Gesetz verstößt, verteidige Facebook als freie Meinungsäußerung. „Der Holocaust und Symbole wie Hakenkreuze haben unterschiedliche Bedeutung in unterschiedlichen Ländern“, sagt Bülow. Facebooks Lösung: Posts, die als Falschmeldungen identifiziert werden, landen im Ranking weiter unten, verschwinden aber nicht ganz. Nutzer, die wiederholt Falschmeldungen verbreiten, landen bei ihren Freunden ebenso weiter unten in der Timeline, sie bekommen intern ein niedrigeres Trust-Rating.

Gelöscht werde nur, was gegen die Community-Standards verstößt. Also zum Beispiel Gewalt, Hassrede oder zu viel nackte Haut. Widersprüchlich wird es, als eine Besucherin der Veranstaltung fragt, ob denn in der Türkei regierungskritische Beiträge gelöscht oder herabgerankt würden. Hier gerät Bülow ins Straucheln, will die Frage nicht eindeutig bejahen oder verneinen. „Da bin ich nicht sicher“, sagt Bülow. Grundsätzlich ordne man sich dem nationalen Recht unter. Scheinbar sucht auch Facebook noch nach einer konsequenten und global brauchbaren Strategie.

Beeinflusst Facebook die Medien?

„Wir verbreiten zwar Informationen, handeln damit, sehen uns aber nicht als Medienhaus“, stellt Bülow klar. Ziel sei es vielmehr, mit Verlagen zusammen zu arbeiten, um qualitativ hochwertigen Informationen den Weg auf Facebook zu ebnen. Ein Weg sei, Verlage und Redakteure zu fördern und zu schulen, ihre digitalen Fähigkeiten und Medienkompetenzen zu verbessern. Ob das nicht die objektive Berichterstattung der Verlage beeinflusse, fragt jemand aus dem Publikum. „Nein, die Verlage bekommen kein Geld. Wir unterstützen nur die Hochschulen, die die Kurse machen“, verteidigt Bülow das Vorgehen. Ob die von Facebook zumindest subventionierten Kurse nicht auch als eine Art der Einflussnahme gelten könnten, darauf geht Bülow nicht weiter ein.

Die neueste Maßnahme Facebooks, die zurzeit auch großflächig beworben wird, ist „Familie und Freunde zuerst“. Der Algorithmus, der hinter der Facebook-Startseite, dem Newsfeed, steht, bevorzugt nun wieder vermehrt Beiträge von Freunden und Familie. Aufgebrochen werden soll damit die Filterblase und die Beeinflussung durch zwielichtige Medien. Nachrichtenportale und Verlage sollen zukünftig nur noch vier Prozent anstatt fünf Prozent der Beiträge ausmachen, die ein Nutzer angezeigt bekomme. „Das klingt nicht viel, sind aber immerhin 20 Prozent weniger“, sagt Bülow. Die Sorge der Verlage, künftig eine kleinere Rolle auf Facebook zu spielen, sei also berechtigt. Umso größer sei aber die Chance für Qualitätsjournalismus, dennoch auf Facebook präsent zu sein. Die Möglichkeit, mit „sponsored stories“ Artikel gegen Bezahlung weiter oben in der Timeline zu positionieren, verteidigt Bülow: „Für Coca Cola ist das sicherlich sinnvoll, die wollen jeden Tag dieselbe Geschichte verkaufen: Trink mein Getränk.“ Für Qualitätsmedien sei das aber gar nicht nötig, da diese ja jeden Tage eine andere, neue Geschichte erzählen könnten. Diese würden auch so in den Timelines auftauchen können.