close

Meinungen - 28.01.2025 - 09:00 

Fake News und Filterblasen: Was die Schweiz von der EU lernen kann

Die Macht der sozialen Medien ist unbestritten – doch wie viel wissen wir wirklich über die Mechanismen dahinter? Während die EU mit dem «Digital Services Act» einen Meilenstein in der Plattformregulierung setzt, fehlt es der Schweiz an vergleichbaren Ansätzen. Forschende warnen: Ohne Zugang zu den Daten der Plattformen bleibt die Analyse zentraler Risiken wie «filter bubbles», Hassrede und Manipulation unzureichend. Ein Plädoyer für mehr Transparenz und unabhängige Forschung.

Grosse digitale Plattformen wie Instagram, TikTok, YouTube oder X dienen vielen Menschen als Informations- und Entertainmentkanäle. Die Risiken des Informationskonsums über soziale Medien sind bekannt und nachgewiesen: Empfehlungsalgorithmen können die Bildung von sogenannten «filter bubbles» verstärken, was zu Radikalisierung führt und demokratische Debatten gefährdet. Wie fördern Algorithmen solche Blasen? Und wie können Nutzer:innen ihnen entkommen? Diesen Fragen gehen Forschende nach, aber sie stossen auf Herausforderungen, wenn es darum geht, die grundlegenden Ursachen für diese Gefahren zu analysieren.

Die Europäische Kommission hat im Rahmen ihrer Digitalstrategie mit dem «Digital Services Act (DSA)» eine Grundlage für strengere Regeln geschaffen. Auch in der Schweiz diskutiert der Bundesrat über ein ähnliches Gesetz, angestossen durch eine Interpellation von Nationalrat Jean Tschopp aus dem Kanton Waadt.

Transparenzpflichten gegen «fake news»

Der Digital Services Act zielt darauf ab, Massnahmen gegen systemische Risiken wie die Verbreitung von Falschmeldungen, sogenannten «fake news», die Manipulation von Nutzerinnen und Nutzern und die Verbreitung von Hassrede durch grosse Plattformen wie Instagram, TikTok, YouTube oder X zu ergreifen. Dies soll einerseits durch erhöhte Transparenzpflichten für grosse Plattformen geschehen.

Transparenzberichte legen offen, welche Praktiken die Plattformen anwenden, um Inhalte für Nutzerinnen und Nutzer auszuwählen und anzuzeigen. Zudem gibt es «Content-Moderation»-Datenbanken, die Einblick darüber geben, wie stark Hetze oder auch Zensur vor wichtigen politischen Ereignissen verbreitet sind. Auch «Ad-Targeting-Repositories», die zeigen, welche Werbung EU-Bürgerinnen und -Bürger sehen und wie personalisierte Werbung durchgeführt wird, sind ein wichtiges Tool für Transparenz. Für alle drei Aspekte gilt: Diese Daten werden für die gesamte Europäische Union bereitgestellt; aber nicht für die Schweiz und nicht für Nutzerinnen und Nutzer in der Schweiz.

Weiter ermöglicht der Digital Services Act Zugang zu Informationen über die internen Mechanismen der Plattformen, wie etwa Empfehlungsmechanismen und deren Kriterien – Daten, die Plattformen bisher nicht offenlegen mussten. Dieser erweiterte Zugang soll unabhängige Forschung fördern, um Risiken besser zu untersuchen und zu minimieren. Rechtsgrundlage dafür ist Artikel 40 des Digital Services Act, der sich derzeit in einer öffentlichen Konsultationsphase befindet. Ein ähnliches Ziel verfolgt der «Online Safety Act» in Grossbritannien, der festlegt, welche Daten Forschende einsehen können und welche die Plattformen verpflichtend zur Verfügung stellen müssen.

Kein Zugangsrecht für Forschende in der Schweiz

Schweizer Forschende stehen trotz des Digital Services Act vor zusätzlichen Hürden beim Datenzugang aus der Europäischen Union. In der Praxis bleibt abzuwarten, wie sich dies auf Universitäten und Hochschulen auswirkt – insbesondere für empirische Forschung, die auf eine gute Datenverfügbarkeit angewiesen ist. Aus eigener Erfahrung wissen wir jedoch, dass die Hürden aktuell zu hoch sind, um die Praktiken grosser Plattformbetreiber effektiv untersuchen zu können. Diese Hürden sollten beseitigt werden.

Zugangsrechte zu Plattformdaten, wie sie der Digital Services Act in der EU vorsieht, sind unabhängig von Regulierungen und Verboten ein wesentliches und zentrales Element, um öffentliche und unabhängige Aufsicht über Social Media zu gewähren. Solche Rechte müssen auch in der Schweiz diskutiert und auf die Agenda des Bundesrats gesetzt werden.

Alternativen für Forschende

Aufgrund der genannten Einschränkungen greifen Forschende zunehmend auf alternative Methoden zurück, um Daten über Plattformen und deren Empfehlungssysteme zu sammeln. Ein Beispiel ist das an der Universität St.Gallen entwickelte Tool «SOAP (System for Observing and Analyzing Posts)», das wertvolle Einblicke in die Dynamiken von Filterblasen auf sozialen Medien bietet. Solche Werkzeuge sind entscheidend, um kritische Entwicklungen wie die bevorstehenden Bundestagswahlen in Deutschland oder Änderungen der Inhaltsmoderation auf Plattformen wie Facebook und Instagram sowie deren Auswirkungen auf digitale Welten zu analysieren.

Die gewonnenen Erkenntnisse können helfen, fundierte Richtlinien für algorithmische Systeme im Rahmen des Digital Services Act zu entwickeln. Aktuelle EU-Verfahren gegen TikTok – etwa im Zusammenhang mit Risiken bei den Wahlen in Rumänien – unterstreichen die Dringlichkeit eines besseren Datenzugangs und intensiver Forschung. Unabhängige Forschung und innovative Ansätze sind essenziell, um die Herausforderungen von Social Media zu verstehen und langfristige Lösungen zu finden – sowohl in der Schweiz als auch international.


Ein Beitrag von Prof. Dr. Simon Mayer, Ordentlicher Professor für Interaction and Communication based Systems an der Universität St.Gallen, Prof. Dr. Miriam Buiten, Assistenzprofessorin für Rechtswissenschaft in Kombination mit Wirtschaftswissenschaften, Doktorand Luka Bekavac und Dr. Aurelia Tamò-Larrieux der Universität Lausanne.


Bild: Adobe Stock / Thipphaphone

north