Gefangen in der Bubble: Wie Algorithmen unsere Sicht auf die Welt formen

Personalisierte Inhalte prägen unseren digitalen Alltag – und das oft unbemerkt. Aber wie entstehen diese Filterblasen auf Social Media – und welche Folgen haben sie? SUMO sprach mit Julia Neidhardt von der TU Wien und Charlotte Spencer-Smith von der Österreichischen Akademie der Wissenschaften (ÖAW)/Universität Klagenfurt. Beide Expertinnen teilten ihre Einschätzungen über die Wirkung von Algorithmen und welche Wege aus diesen digitalen Strukturen führen könnten.

TEXT: MAGDALENA LUEGER FOTO: SARA LEUTGEB

Der Begriff „Filterblase“ wurde 2011 vom US-Autor Eli Pariser geprägt. Er beschreibt damit das Phänomen, dass Nutzer*innen online zunehmend Inhalte sehen, die zu ihren bisherigen Ansichten passen. Dahinter stehen Algorithmen, die auf Verhalten, Vorlieben und Interaktionen reagieren. Plattformen wie TikTok und Instagram analysieren, was geliked, kommentiert oder geteilt wird, und treffen daraus Vorhersagen. Inhalte, die nicht zum Profil passen, verschwinden zunehmend aus dem Feed. So entstehen digitale Komfortzonen, in denen Vielfalt und Widerspruch kaum noch eine Rolle spielen. Doch nicht nur Algorithmen formen diese Blasen. Auch das eigene Verhalten – etwa das bewusste Ausblenden unbequemer Themen – trägt zur Bildung einseitiger Informationswelten bei. „Wenn man dem Algorithmus immer wieder zeigt, dass einen etwas interessiert, wird genau dieses Thema häufiger angezeigt – während andere Inhalte zunehmend in den Hintergrund treten“, sagt Julia Neidhardt, die am Christian-Doppler-Lab for Recommender Systems an der TU Wien zu algorithmischer Personalisierung und digitalem Nutzerverhalten forscht.

Hinzu kommt der soziale Faktor: Während Filterblasen algorithmisch erzeugt werden, beruhen Echokammern auf gruppendynamischen Prozessen. „Filterblasen meinen eher eine algorithmische Vorselektion von Themen, während Echokammern soziale Räume sind, in denen sich Gleichgesinnte gegenseitig bestärken“, erklärt Charlotte Spencer-Smith, die am Institute for Comparative Media and Communication Studies der Österreichischen Akademie der Wissenschaften und der Universität Klagenfurt zu digitaler Öffentlichkeit und politischer Kommunikation, forscht.

Langfristig verändert diese digitale Selbstbestätigung nicht nur, was wir sehen – sondern auch, wie wir denken. Charlotte Spencer-Smith warnt: „Wenn ich gar nicht mehr damit konfrontiert bin, dass auch jemand anderer Meinung sein kann – dann habe ich das Gefühl, dass alle so denken wie ich.“ Das könne sich verfestigen, sagt sie – mit Folgen für gesellschaftliche Debatten und gegenseitiges Verständnis.

Algorithmus auf Autopilot

Besonders dynamisch zeigen sich Filterblasen auf Plattformen wie TikTok und Instagram. Der genaue Aufbau des Empfehlungssystems ist ein gut gehütetes Geschäftsgeheimnis. „TikTok ist vermutlich eine der Plattformen, auf der algorithmische Systeme den größten Einfluss haben – und gleichzeitig eine der undurchsichtigsten, was ihre Algorithmen betrifft“, erklärt Julia Neidhardt.

Auch bei Instagram zeigt sich ein ähnliches Muster: Reels, Beiträge und Storys aus fremden Quellen mischen sich zunehmend unter die Inhalte von abonnierten Accounts. Entscheidend ist, was gefällt – nicht, was zum demokratischen Diskurs beiträgt. Das macht beide Plattformen besonders anfällig für einseitige Informationswelten. Zusätzlich bleibt durch die Kürze vieler Beiträge wenig Raum für Kontext oder Einordnung. Das Ergebnis sind Schlagworte, keine differenzierte Auseinandersetzung. Projekte wie das EU geförderte Twin of Online Social Networks (TWON) versuchen deshalb, die Funktionsweise von Empfehlungsalgorithmen systematisch sichtbar zu machen. TWON ist ein interdisziplinäres Forschungsprojekt, das vom Forschungszentrum Informatik (FZI) in Karlsruhe koordiniert wird und unter anderem von Wissenschaftler*innen aus der Informatik und Medienforschung getragen wird. Mithilfe sogenannter digitaler Zwillinge – künstlich erzeugter Nutzerprofile – analysiert das Team, wie sich verschiedene Verhaltensweisen auf die Auswahl und Sichtbarkeit von Inhalten auf Plattformen wie TikTok oder YouTube auswirken. Ziel ist es, algorithmische Logiken besser zu verstehen – und langfristig fairer und transparenter zu gestalten.

Was die Forschung (nicht) beweisen kann

Die Vorstellung, in einer Filterblase gefangen zu sein, klingt alarmierend – wissenschaftlich belegt ist sie aber nur bedingt. Studien wie jene des Kommunikationswissenschaftlers Axel Bruns (2019) zeigen, dass Filterblasen und Echokammern zwar real sind, ihre Wirkung auf gesellschaftliche Polarisierung jedoch oft überschätzt wird. Bruns zufolge spielen soziale, politische und psychologische Faktoren eine deutlich größere Rolle als algorithmische Logiken allein. Auch Charlotte Spencer-Smith warnt davor, die Verantwortung einseitig den Plattformen zuzuschreiben: „Diese Idee, dass Polarisierung allein von Algorithmen kommt, halte ich für sehr verkürzt.“ Vielmehr entstehe sie aus dem Zusammenspiel technischer Strukturen und gesellschaftlicher Dynamiken. Zudem gibt Neidhardt zu bedenken: „Die Nutzung ist meist nicht auf eine Plattform wie TikTok oder YouTube beschränkt. In der Regel ist der Medienkonsum stark durchmischt.“ Digitale Informationswelten seien daher oft komplexer, als es in öffentlichen Debatten erscheint.

Verantwortung und Handlungsspielräume

Dennoch stellt sich bei diesem komplexen Thema die Frage: Braucht es nicht nur technische, sondern auch gesellschaftliche Antworten?

 „Vielfalt ist ein Qualitätskriterium, das in Recommender-Systemen bisher zu wenig berücksichtigt wird“, betont Julia Neidhardt. Sie plädiert dafür, Empfehlungssysteme künftig nicht allein an Klickzahlen und Verweildauer auszurichten, sondern auch inhaltliche Diversität aktiv einzubauen. Technisch wäre das möglich – entscheidend sei der Wille der Plattformen.

Auch auf politischer Ebene gibt es erste Ansätze: Seit Februar 2024 ist der Digital Services Act (DSA) der Europäischen Union in Kraft. Er verpflichtet große Plattformen zu mehr Transparenz über ihre Algorithmen und ermöglicht es Nutzer*innen, sich Inhalte auch nicht-personalisiert anzeigen zu lassen. Für Charlotte Spencer-Smith ist dies ein wichtiger Schritt – allerdings reicht Transparenz allein nicht aus. Sie erklärt, dass Plattformen zwar weiterhin nicht unmittelbar für illegale Inhalte haften, solange ihnen diese nicht bekannt sind. Doch der DSA verpflichtet sie mittlerweile dazu, systematische Risiken – etwa für die öffentliche Sicherheit oder demokratische Prozesse – zu identifizieren und geeignete Maßnahmen zu ergreifen. „Plattformen dürfen nach wie vor moderieren und sortieren, wie sie wollen – aber mit dem DSA gibt es zumindest eine rechtliche Grundlage, um gegen Risiken wie Polarisierung vorzugehen“, so Spencer-Smith. Offen bleibe jedoch, wie effektiv diese Vorgaben in der Praxis durchgesetzt werden – insbesondere unter politischem Druck.

Digitale Muster sichtbar machen

Langfristig, so sind sich beide Expertinnen einig, wird es auf eine Kombination ankommen: Auf technische Anpassungen der Plattformen ebenso wie auf regulatorische Vorgaben – und auf eine Gesellschaft, die sich ihrer eigenen Rolle als mündige Informationsnutzer*innen bewusst ist. Denn digitale Informationsräume formen nicht nur unser Wissen – sie beeinflussen auch, wie wir die Welt sehen und wie wir gesellschaftliche Zukunft gestalten.

MAGDALENA LUEGER

Julia Neidhart | Copyright: Amélie Chapalain, TU Wien Informatics
Charlotte Spencer-Smith | Copyright: Daniel Hinterramskogler