Für den Datenjournalisten Michael Kreil steckt die aktuelle Forschung um Fake News, Social Bots und Filterblasen noch in den Kinderschuhen und muss dringend verbessert werden. «Wir müssen uns tiefer damit auseinandersetzen. Es sind meiner Meinung nach wissenschaftliche Anfangsfehler gemacht worden», sagte er am Donnerstag auf dem Chaos Communication Congress (34C3) in Leipzig. Beispielsweise ist seinen Analysen zufolge die Einflussnahme durch Social Bots – also durch künstliche Meinungsroboter – wohl geringer als in einigen wissenschaftlichen Studien angenommen.
Kreil ist nach eigenen Angaben in Studien einer britischen und einer US-Universität auf Fehler in der Methodik gestoßen. So habe er in einer Stichprobe von zwölf angeblichen Social Bots tatsächlich nur zwei gefunden. In der Debatte um Social Bots sei viel Meinung unterwegs, aber wenig Beweise, so Kreil. Aktuell sehe er, dass es in den Netzwerken einige wenige Meinungsroboter gebe, aber viele Menschen, die ihre politische Meinung verbreiteten. «Social Bots machen nur einen kleinen Prozentsatz aus.»
Der Journalist beschäftigte sich auch mit Fake News. «Ihr Kernphänomen ist nicht deren Existenz, sondern dass sie sich so gut im Netz verbreiten können.» Auf Twitter hatte er genauer eine gefälschte Nachricht untersucht, wonach das Auswärtige Amt wegen Terrorgefahr vor Reisen nach Schweden warne. Anfang März hatte das Amt dazu eine Gegendarstellung in sozialen Netzwerken verbreitet.
Bei der genauen Analyse der Daten habe er festgestellt, dass die Filterblase eher andersherum funktioniere. Nur 45 Prozent derer, die die Gegendarstellung verbreiteten, hätten die ursprünglichen Fake News mitbekommen. Aber: Von den Fake-News-Verbreitern habe ein sehr großer Teil (89 Prozent) die Gegendarstellung mitbekommen, diese jedoch nicht geteilt.
Sie müssen angemeldet sein um kommentieren zu können