Die sozialen Netzwerke machen es leichter denn je, Nachrichten zu verbreiten, verändern aber auch die Art, wie Informationen im Internet wahrgenommen und geteilt werden. Erst vor wenigen Monaten deckten US-Forscher beispielsweise auf, dass Facebook und Co eine Art „Filterblase“ um ihre Nutzer erzeugen: Unser Freundeskreis sorgt dafür, dass wir vorwiegend die Meldungen sehen, die ohnehin in unser Weltbild passen. Aber nicht nur das: Gerade in sozialen Medien breiten sich auch Gerüchte und Verschwörungstheorien besonders schnell aus, wie Michela Del Vicario vom Labor für Computer-Sozialwissenschaften in Lucca und ihre Kollegen erklären. So kursierten während der Ebola-Epidemie Fehlinformationen, die das Pflegepersonal weltweit verunsicherte. Kürzlich erst mutierte dann ein ganz normales Manöver der US-Streitkräfte mit dem Namen „Jade Helm 15“ im Netz zum Beginn eines Bürgerkriegs in den USA. „Diese massive digitale Desinformation ist inzwischen so allgegenwärtig, dass das World Economic Forum (WEFG) sie als eine der Hauptbedrohungen für unsere Gesellschaft listet“, so die Forscher.
Parallelen – und deutliche Unterschiede
Welche Faktoren dafür sorgen, dass sich Gerüchte und Verschwörungstheorien so schnell im Netz verbreiten, haben Del Vicario und ihre Kollegen nun genauer untersucht. Dafür werteten sie die Weitergabe von Meldungen auf 67 Facebook-Seiten aus. Über einen Zeitraum von fünf Jahren verfolgten die Forscher, wer welche Nachrichten dieser Seiten teilte und an wen. In 32 Seiten ging es dabei primär um Verschwörungstheorien, der Rest enthielt Wissenschafts-Meldungen. Beide scheinen sich oberflächlich gesehen manchmal zu ähneln, unterscheiden sich aber vor allem durch ihre Überprüfbarkeit: „Verschwörungstheorien simplifizieren die Ursachen, verringern die Komplexität der Realität und sind in einer Weise formuliert, die ein bestimmtes Maß an Unbestimmtheit zulässt“, so die Forscher. Das kaschiert, dass die Quellen oft unbekannt sind und die Inhalte häufig Meinungen von einzelnen Außenseitern darstellen. Bei wissenschaftlichen Meldungen sind die Forscher, ihre Methoden und die Originalveröffentlichungen dagegen in der Regel leicht zu identifizieren.
Wie sich zeigte, gibt es jedoch in puncto Verbreitung im Netz durchaus einige Ähnlichkeiten: In beiden Fällen werden die Meldungen vor allem in Freundesnetzwerken Gleichgesinnter geteilt. „Unsere Auswertungen enthüllen, dass zwei ausgeprägte und hochgradig getrennte Gemeinschaften im Netz existieren, eine rund um die Verschwörungstheorien und eine bezogen auf wissenschaftliche Themen“, so Del Vicario und ihre Kollegen. Sie bezeichnen diese fast geschlossenen Kreise als „Echokammern“ – was hineinkommt, wird vielfach untereinander geteilt und verstärkt bereits vorab existierende Einstellungen. Wer bereits vorher eher der Wissenschaft zuneigt, teilt auch vorwiegend solche Meldungen. Wer ohnehin hinter vielem gleich eine Verschwörung wittert, der wird auch solche Inhalte bevorzugt teilen. Das erklärt auch, warum es so schwer ist, hartnäckige Falschinformationen wie beispielsweise das längst mehrfach widerlegte Gerücht, dass Impfungen Autismus auslösen, aus dem kollektiven Gedächtnis zu entfernen.
„Echokammern“ als Verstärker
Beide „Echokammern“ nehmen Informationen auf sehr ähnliche Weise auf, die Dynamik der Weitergabe unterscheidet sich jedoch deutlich: Bei den Wissenschafts-Meldungen wurde rund ein Viertel der Inhalte schon in den ersten zwei Stunden geteilt und verbreitet – sie erreichen den Höhepunkt ihrer Verbreitung sehr schnell und das Interesse flaut relativ bald wieder ab. Die „Lebensdauer“ dieser Inhalte ist dabei nicht davon abhängig, wie stark das Interesse an der jeweiligen Meldung war, wie die Forscher herausfanden. Selbst eine besonders spannende, weit verbreitete Meldung verliert im sozialen Netz sehr schnell an Schwung. Anders bei den Gerüchten und Verschwörungstheorien: Sie verbreiten sich anfangs deutlich langsamer als die Wissenschaftsmeldungen. Dann jedoch wächst ihr Publikum und der Grad des Geteiltwerdens umso mehr, je länger die Meldung im Umlauf ist. Mit der Zeit kann eine Verschwörungstheorie dadurch zu einer wahren Lawine heranwachsen.
Was aber hilft gegen die unseriösen und oft komplett aus der Luft gegriffenen Gerüchte und Verschwörungstheorien? Google ist bereits dabei, eine Art Zuverlässigkeitsindex zu entwickeln, der den Grad der Glaubwürdigkeit eines Inhalts ermitteln und darstellen soll. „Solche Algorithmus-basierten Maßnahmen sind allerdings umstritten, denn sie wecken die Befürchtung, dass dadurch die freie Verbreitung von Inhalten im Netz eingeschränkt wird“, erklären Del Vicario und ihre Kollegen. Denn letztlich würde es sich dabei um eine Art Zensur handeln. Facebook überlegt dagegen einen eher nutzerorientierten Weg: Leser sollen über eine Markierung Meldungen im Newsfeed kennzeichnen können, die sie als falsch oder unseriös einschätzen. Die Wirksamkeit solcher Flags ist nach Ansicht der Forscher jedoch eher fraglich: Wenn sich solche Meldungen ohnehin vorwiegend unter Nutzern verbreiten, die dazu neigen, Verschwörungstheorien und Gerüchte zu glauben und nicht zu hinterfragen, werden sie diese wohl kaum als „falsch“ markieren.