Forschung - 08.01.2026 - 11:30
Soziale Medien sind Orte der freien Meinungsäusserung. Häufig werden sie jedoch für die Verbreitung von Hassrede und von beleidigenden Kommentaren missbraucht. Manche Online-Plattformen greifen erst moderierend in Diskussionen ein, wenn bereits schädliche Inhalte online sind. Diese Art der Moderation wird oft als Zensur empfunden, welche die eigentlichen Ursachen unzivilisierten Verhaltens nicht adressiert.
Forscherinnen und Forscher wollten einen neuen Ansatz versuchen, nämlich indem Plattformen ihre Nutzerinnen und Nutzer auf die emotionalen Folgen ihrer Kommentare aufmerksam machen. Und so zu einem bewussteren, zivilisierteren Umgang im digitalen Austausch anzuregen. Sogenannte «Gefühlsmonitoring-Dashboards» sollten dazu beitragen, die Spiegelneuronen von Menschen zu stimulieren, während sie Social Media nutzen. Wer seine Gefühle und die anderer bewusster wahrnimmt, wird im besten Fall versuchen, reflektierter zu kommunizieren – oder negative Äusserungen auch gar nicht erst zu veröffentlichen. So die Grundüberlegung des Versuchs, Hassrede mithilfe von Empathie-fördernden Zeichen einzudämmen.
Für ihre Untersuchung entwickelten die Forschenden mit Hilfe des Open-Source-Tools «text2emotion» zwei Arten von Dashboards: eines für das «Selbst-Monitoring», das Nutzern die emotionalen Töne ihrer eigenen Entwürfe anzeigte, und ein «Peer-Monitoring»-Dashboard, welches die Gefühle anderer Kommentatoren aufschlüsselte. In einer Hauptstudie mit 211 Teilnehmenden wurde die Wirksamkeit dieser Tools in einer simulierten Online-Diskussion zu dem sensiblen Thema «Abtreibung» ausgewertet. «Damit wählten wir bewusst ein Thema, dass bei den Studienteilnehmenden möglichst starke Emotionen auslöst», sagt Dr. Naim Zierau vom Institut für Wirtschaftsinformatik der Universität St.Gallen (HSG). Er arbeitete bei diesem Projekt mit Forschenden der ETH Zürich, der Seoul National University in Südkorea und der Berner Fachhochschule zusammen. «Uns interessiert als Forschende, wie KI dabei unterstützen kann, soziale Probleme wie Cybermobbing oder hasserfüllte, verletzende Kommentare einzudämmen.»
«Unsere Studienergebnisse legen nahe, dass diese Interventionsmethoden tatsächlich das emotionale Bewusstsein der Nutzer erhöhen und Hassrede reduzieren können», sagt Naim Zierau. Ein unerwarteter Nebeneffekt sei jedoch gewesen, dass die Dashboards bei der Diskussion sensibler Themen auch zu einer stärkeren Äusserung anderer negativer Emotionen wie Wut, Angst und Traurigkeit führten. Besonders interessant fand Zierau die geschlechtsspezifische Reaktion: Während weibliche Teilnehmerinnen trotz verstärkter negativer Emotionen weniger Hassrede äusserten, zeigte sich bei männlichen Teilnehmern der umgekehrte Trend – sie reduzierten zwar Wut und Angst, hinterliessen aber mehr Hassrede im Netz. Beim Selbst-Monitoring äusserten einige Nutzerinnen und Nutzer zudem Bedenken hinsichtlich der Genauigkeit der Gefühlsanalyse und fühlten sich teilweise durch das Dashboard zensiert.
Die Studie liefert wichtige Hinweise für die Gestaltung gesünderer digitaler Interaktionen. Sie zeigt, dass plattformübergreifende Designs, die Empathie und Selbstreflexion fördern, einen positiven Einfluss haben können. Allerdings ist Transparenz entscheidend: Nutzende wünschen sich transparentere Erklärungen, wie die Algorithmen Emotionen berechnen, um Vertrauen aufzubauen und sich nicht zensiert zu fühlen.
Aber wie schätzen die Forschenden die Chancen ein, dass grosse Social-Media-Unternehmen die Dashboards dauerhaft integrieren wollen? Einige Plattformen liefern bereits die Unterstützung in Form von Sentiment-Analysen. Diese zeigen, ob ein Beitrag eher positiv oder negativ konnotierte Worte beinhaltet. Es sei denkbar, dass darauf aufbauend auch komplexere Systeme eingebaut werden, wie zum Beispiel das Bestimmen von Emotionen, so die Einschätzung von Naim Zierau.
Sein Fazit: Künftige Forschung sollte die Emotionserkennung durch das Einbeziehen kontextueller Nuancen verbessern und die kombinierten Effekte von Selbst- und Peer-Monitoring untersuchen. «Wir wollen einfach anwendbare Werkzeuge entwickeln, die nicht nur Hassrede bekämpfen. Sondern langfristig auch ein echtes Verständnis und eine tiefere Verbindung zwischen den Nutzern in den sozialen Medien ermöglichen.»
Weitere Informationen zum Paper mit dem Titel «Emotionally Aware Moderation: The Potential of Emotion Monitoring in Shaping Healthier Social Media Conversations» finden Sie hier. Die Autorinnen und Autoren des Papers sind Naim Zierau (Universität St.Gallen), Xiotian Su (ETH Zürich), Soomin Kim (Seoul National University, South Korea), April Yi Wang (ETH Zürich) und Thiemo Wambsganss (Bern University of Applied Sciences).
Bild: Adobe Stock / terovesalainen
Weitere Beiträge aus der gleichen Kategorie
Das könnte Sie auch interessieren
Entdecken Sie unsere Themenschwerpunkte
