Hier können Sie den Podcast anhören:
In dieser Podcast-Folge möchten wir herausfinden, was über den Facebook-Algorithmus und andere Algorithmen in den sozialen Netzwerken bekannt ist. Wie arbeiten sie? Was wissen sie über uns? Und hat der Facebook-Algorithmus Macht über uns?
Sie gelten als eines der am besten gehüteten Geheimnisse der New Economy: die Algorithmen, die bestimmen, welche Informationen wir in den sozialen Netzwerken angezeigt bekommen und welche nicht. Aber wie funktioniert das eigentlich? Bestimmt es unsere Wahrnehmung? Ist es bedrohlich?
In seinem Buch Quality Land wirft Marc-Uwe Kling einen Blick in unsere Zukunft. Der Protagonist Peter Arbeitsloser bekommt von einem großen Internetshop Pakete zugeschickt, die er nicht bestellt hat. Denn das System errechnet für jeden Kunden eigenständig, was er will und wann er es will. Der zentrale Slogan von "TheShop" lautet: "Wir wissen, was du willst." Eines Tages bekommt Peter einen rosafarbenen Delfinvibrator zugeschickt. Den will er nun wirklich nicht haben. Aber die Antwort des Versandriesen auf seine Beschwerde lautet ungefähr so: Wir nehmen das nicht zurück, du willst das. Das hat unser Algorithmus berechnet.
Wirklich weit davon entfernt sind wir schon heute nicht. Die Filterblase gibt es, weil große Internetfirmen sehr viele Informationen über uns haben und auswerten. Sie präsentieren uns Informationen oder Werbung, die auf unsere Interessen abgestimmt sind. Wir bekommen eigentlich nur die Informationen, die uns sowieso interessieren. Mit unserem Klickverhalten reproduzieren wir das ganze. So kann es passieren, dass Ereignisse vollkommen an uns vorüber ziehen, weil wir sie nicht mitbekommen. Den Begriff „Filterbubble“ hat übrigens der Internetaktivitst Eli Pariser in seinem Buch „Filter Bubble – Wie wir im Internet entmündigt werden“ 2011/2012 geprägt.
Wahrscheinlich haben Sie auch einen Facebook-Account. Dann bekommen Sie einen Newsfeed angezeigt. Das sieht ein bisschen aus wie eine nie enden wollende Webseite, bei der man immer weiter scrollen kann. Im Newsfeed werden einzelne Beiträge angezeigt, die zum Beispiel von Ihren Freunden kommen oder von Unternehmen, die Sie abonniert haben.
Wenn Sie zum Beispiel 300 Facebook-Freunde haben, alle großen Zeitungen und die Tagesschau abonnieren und auch noch Mitglied in 20 Facebook-Gruppen sind, ist das sehr viel Information, die in Ihren Newsfeed läuft. Der Facebook-Algorithmus sortiert also aus. Sie bekommen nur die Beiträge von manchen Freunden, Zeitungen oder Gruppen zu sehen. Und dazwischen schaltet er Werbung – ganz auf Ihre Bedürfnisse abgestimmt.
Aber nach welchen Kriterien sucht der Algorithmus aus? Und welchen Einfluss habe ich auf die Informationen, die mir angezeigt werden?
Da Facebook und andere Internetgiganten nichts oder nur wenig über ihren Algorithmus preisgeben, fragt Kai in dieser Podcast-Folge bei jemandem nach, der viel Erfahrung mit dem Algorithmus hat.
Dr. Stefan Stieglitz ist Professor für Professionelle Kommunikation in elektronischen Medien/Social Media an der Universität Duisburg-Essen und Leiter dieses Fachgebiets.
Das Interesse von Facebook und anderen Social Media-Plattformen ist es, uns mit Inhalten zu versorgen, die uns sehr wahrscheinlich ansprechen und gefallen - und uns damit zu Interaktionen wie Likes und Shares zu bewegen. Dafür nutzen sie eine menschliche Verhaltensweise, die die Psychologie als "Confirmation Bias" bezeichnet: Unsere Neigung, Informationen zu bevorzugen, die unsere Erwartungen erfüllen und unsere Vorlieben bestätigen.
Die Auswertung unserer Reaktionen hilft bei der Auswahl weiterer für uns passender Informationen - und Werbung, die anscheinend unseren Interessen entspricht. Für Unternehmen ist ein so genau ausdifferenziertes Umfeld natürlich besonders attraktiv. Werbung erreicht hier genau ihre Zielgruppe.
Wer sich immer nur aus denselben Kanälen mit Informationen versorgt und für dieselben Themen interessiert, riskiert also, einen ziemlich eindimensionalen Blick auf die Welt zu haben. Je geschlossener diese Interessensgruppen sind, desto gefährlicher kann das auch werden. Fake News oder Verschwörungstheorien haben dann optimale Bedingungen, weil niemand sie hinterfragt oder widerlegt.
Da sich die Unternehmen nicht in die Karten schauen lassen, können Sie auch nicht wissen, was Sie nicht sehen. So hatte zum Beispiel die Plattform TikTok zeitweise bestimmte Inhalte ausgefiltert, die sich mit den Themen Homosexualität oder Behinderung befassten.
Andererseits fließen über unterschiedlichste Verknüpfungen mit Personen, mit denen wir vielleicht nur wenig zu tun haben, auch mal ganz andere und unerwartete Informationen in unsere Kanäle und können den Bubble-Effekt relativieren. Und auch Unternehmen haben mittlerweile entdeckt, dass Nutzerinnen und Nutzer nicht zufriedener sind, wenn sie immer die gleichen Inhalten zu sehen bekommen. Sie experimentieren damit, gezielt andere Inhalte einzuspielen und die Nutzerreaktionen darauf auszuwerten.
Über diese Art von Experimenten reden wir auch in einem weiteren Algo...was-Podcast: Alles für lau? So nutzen Unternehmen Ihre Daten.
Wir danken Hörbuch Hamburg für die freundliche Genehmigung, im Podcast einen Ausschnitt aus dem Hörbuch QualityLand, gelesen vom Autor Marc-Uwe Kling, zu verwenden.