close

Forschung - 11.11.2025 - 09:00 

SNF und Stiftung Palatin fördern Projekte zu Künstlicher Intelligenz, Kinderschutz und Plattformkontrolle

Drei neue Forschungsprojekte der Universität St.Gallen (HSG) untersuchen die Risiken grosser Online-Plattformen, den Schutz von Kindern im Netz und die Entwicklung einer argumentierenden, perspektivenfähigen Künstlichen Intelligenz. Gefördert werden sie vom Schweizerischen Nationalfonds (SNF) sowie der Stiftung Palatin mit insgesamt rund zwei Millionen CHF.
Quelle: SCS-HSG

Gemäss dem aktuellen Cyber-Sorgenmonitor 2025 sehen 78 % der Schweizer Bevölkerung Cyberdelikte als ernstzunehmendes Problem. Damit wird digitale Sicherheit ähnlich stark gewichtet wie andere Alltagssorgen, etwa steigende Krankenkassenprämien oder die Altersvorsorge. Besonders gross ist die Sorge vor Angriffen auf kritische Infrastrukturen, digitalem Betrug und Desinformation. Im Fokus steht der Kinderschutz: 80 % der Befragten befürworten ein Social-Media-Verbot für unter 16-Jährige; viele Eltern fühlen sich mit der digitalen Gefahrenlage überfordert. Auch SRF berichtete, die Mehrheit wünsche sich strengere Regeln im Umgang mit sozialen Medien – insbesondere zum Schutz von Kindern und Jugendlichen. 

Drei neue Forschungsprojekte des Instituts für Informatik (ICS-HSG) an der Universität St.Gallen greifen diese Entwicklungen auf. Sie wollen dazu beitragen, den digitalen Raum sicherer, offener und gesellschaftlich verantwortungsvoller zu gestalten. 
 

Projekt «CoCoDa: Concentration of Control and Data» zu systemischen Plattformrisiken  

Dominante Online-Plattformen wie Meta’s Instagram oder TikTok von Bytedance verfügen über enorme Marktmacht – und damit über einen tiefgreifenden Einfluss auf Meinungsfreiheit und Demokratie. Das Projekt «Addressing the Root Cause of Systemic Risk Posed by Dominant Online Platforms: Integrating Computer Science and Legal Scholarship to Measure and Mitigate Concentration of Control and Data (CoCoDa)» nimmt diese strukturellen Risiken gemeinsam mit Fachexperten aus den Bereichen Recht und Informatik in den Blick.  

Informatik und Recht haben bislang meist isoliert auf die Herausforderungen von Plattformdominanz reagiert. Das Projekt «CoCoDa» verknüpft beide Disziplinen, um datenschutzkonforme, technisch praktikable Lösungen zu erarbeiten. Die Aufgabe ist anspruchsvoll: Gesetzliche Transparenzvorgaben treffen auf Systeme, deren Algorithmen sich wöchentlich verändern, deren Datenstrukturen unübersichtlich oder verschlüsselt sind und deren Schnittstellen nur begrenzt Einblick erlauben. Forschende müssen rechtliche Anforderungen wie Datenschutz und Datenminimierung mit technischen Realitäten wie dynamischen Algorithmen und fehlenden Standards in Einklang bringen.  

Für die Gesellschaft ist das zentral: Nur mit solchen Werkzeugen können Journalisten, Behörden und Nutzerinnen nachvollziehen, wie Plattformen Informationen steuern – und ob Kinder, Minderheiten oder demokratische Debatten ausreichend geschützt sind. Gefördert wird das Projekt vom Schweizerischen Nationalfonds (SNF) mit 1'118'716 CHF über fünf Jahre seit Juni 2025. 

Ziele und gesellschaftlicher Nutzen: 

  • Interdisziplinäre Analyse bestehender rechtlicher und technischer Ansätze zum Plattformdatenzugang 
  • Entwicklung integrierter «techno-rechtlicher» Methoden auf Basis des EU Digital Services Act, der derzeit auch in der Schweizer Politik diskutiert wird, insbesondere seit der Publikation des Vorentwurfs des Gesetzes über Kommunikationsplattformen und Suchmaschinen Ende Oktober 2025
  • Praxisnahe Erprobung in den Bereichen soziale Medien und App-Stores 
  • Aufbau einer offenen Forschungsplattform zur Stärkung von Zivilgesellschaft, Regulierung und Wissenschaft 
  • Beitrag zu faktenbasierter, demokratisch legitimierter Plattformregulierung 

Am Projekt beteiligt sind Forschende verschiedener Universitäten:  

  • Prof. Dr. Simon Mayer und Luka Bekavac, Universität St.Gallen  
  • Assoc. Prof. Dr. Aurelia Tamò-Larrieux und Alice Palmieri, Universität Lausanne 
  • Prof. Dr. Gijs van Dijck, Ass. Prof. Dr. Konrad Kollnig und Henry Tari, Universität Maastricht 
  • Prof. Dr. Elena Simperl, Jake Stein und Sophia Worth, Open Data Institute London 

Forschungsergebnisse, die wie Musik klingen – erste Ergebnisse als Playlist:  

Erste Ergebnisse aus «CoCoDa» liegen in origineller Form vor. Mithilfe von Künstlicher Intelligenz hat das Forschungsteam zentrale Erkenntnisse in einer Musikplaylist mit sechs Songs verarbeitet – kreativ, kritisch und öffentlich zugänglich zugleich:  

  • Der Song «Code of Control» formuliert das Kernanliegen des Projekts: Recht und Informatik müssen gemeinsam Wege finden, die Macht grosser Plattformen transparenter und kontrollierbarer zu machen. 
  • «Soap the Bubble» zeigt, wie sich die Themenvielfalt in den personalisierten Empfehlungen sozialer Netzwerke rasch verengt. Das an der Universität St.Gallen entwickelte Analysewerkzeug SOAP (System for Observing and Analyzing Posts) macht sichtbar, wie schnell Informationsräume einseitig werden – und wie Transparenz helfen kann, Filterblasen aufzubrechen. 
  • «Flag & Safe» thematisiert den Schutz von Kindern vor schädlichen Inhalten; inspiriert vom gleichnamigen Projekt mit der Primarschule Halden in St.Gallen. 
  • «Filters on Filters» beschreibt, wie Forschende trotz des EU Digital Services Act nur eingeschränkt Zugang zu Plattformdaten erhalten.  
  • «The Word That Isn’t There» beleuchtet, wie Plattformen in offiziellen Berichten Risiken verharmlosen oder sprachlich verschleiern. 
  • «Terms of Fairness» schliesst mit einem Appell für digitale Gerechtigkeit: für faire Datenflüsse, offene Systeme und eine Gestaltung, die Nutzerinnen und Nutzern Kontrolle zurückgibt – basierend auf dem Feedback des CoCoDa-Teams zum neuen EU Digital Fairness Act. 
«Mit der Playlist zeigen wir, dass Wissenschaft auch klingen kann – als Einladung, über komplexe Themen einmal anders nachzudenken.»
Prof. Dr. Simon Mayer, Institute of Computer Science (ICS-HSG)

Projekt «Flag&Safe»: Kinder bei der Nutzung digitaler Plattformen besser schützen 

Immer mehr Eltern und Fachleute zeigen sich besorgt, dass Kinder und Jugendliche in sozialen Netzwerken mit sexualisierten, gewaltverherrlichenden oder radikalisierenden Inhalten in Kontakt kommen. Laut einem SRF-Bericht wünscht sich eine deutliche Mehrheit viel strengere Regeln für Plattformen und mehr Schutz für Minderjährige. Auch in der Politik wächst der Druck. Die Europäische Kommission leitete im Herbst 2025 mehrere Verfahren gegen grosse Plattformen ein, weil sie mutmasslich zu wenig gegen gefährliche Inhalte unternommen haben (tagesschau.de). Gleichzeitig fordern Stimmen aus der Schweiz, endlich wirksame Alterskontrollen im Internet einzuführen – ein Punkt, den die NZZ jüngst als «überfällig» bezeichnete. Während Aufklärungskampagnen helfen, fehlt bislang ein Schutzmechanismus, der eine effektive Rückkopplung mit betroffenen Kindern schafft. 
 
Das Projekt «Flag&Safe» will das ändern – mit einer sogenannten «Trusted-Flagger Plattform», die speziell auf Kinder und Jugendliche zugeschnitten ist. Gefördert von der Palatin Stiftung mit 72’935 CHF, startete das Projekt im Juni 2025 und läuft bis Mai 2026.  

Ziele und gesellschaftlicher Nutzen:  

  • Entwicklung einer kinderfreundlichen Plattform, über die problematische Inhalte leicht gemeldet werden können – mit aktiver Beteiligung der Kinder im Gestaltungsprozess 
  • Automatische Prüfung der Meldungen – mit Weiterleitung besonders dringender Fälle 
  • Einbindung eines Netzwerks von Fachpersonen in der Schweiz, etwa aus Schulpsychologie oder Medienpädagogik, um betroffene Kinder lokal zu unterstützen 
  • Aufbau eines schnellen Hilfsangebots für Kinder in akuten Krisensituationen 
  • Workshops an Schweizer Schulen zu den Themen Social Media, Algorithmische Empfehlungen und Online-Filterblasen 
  • Europaweit Unterstützung der Umsetzung neuer EU-Vorgaben (EU Digital Services Act) zum Kinderschutz im Netz  

Am Projekt beteiligt sind:  

Projekt «M-Rational»: Wie KI lernen kann, perspektivenreich zu argumentieren 

In gesellschaftlichen Debatten geht es nicht nur um Fakten, sondern auch um Werte, Meinungen und Perspektiven. Künstliche Intelligenz tut sich mit dieser Komplexität bislang schwer. Das Projekt «Reconceiving and Improving Multi-Perspectivality and Rationality in Argumentative AI (M-Rational)» entwickelt neue Konzepte, damit KI nicht nur logisch schliessen, sondern auch verschiedene Sichtweisen nachvollziehbar abbilden kann. Der SNF unterstützt das Projekt mit 886'297 CHF für drei Jahre seit September 2025. 

Ziele und gesellschaftlicher Nutzen:  

  • Entwicklung von KI-Systemen, die verschiedene Meinungen und Perspektiven erkennen und nachvollziehen 
  • Verbindung technischer Entwicklung mit philosophischen Ansätzen aus Sprach- und Wissenschaftstheorie 
  • Aufbau von Methoden, um zu prüfen, wie gut eine KI mit unterschiedlichen Argumenten umgeht 
  • Förderung einer KI, die statt in «wahr oder falsch» zu denken, unterschiedliche Sichtweisen abwägen und differenziert begründet darstellen kann 

Folgende Forschende sind am Projekt beteiligt: 

  • Prof. Dr. Christina Niklaus, Universität St.Gallen 
  • Dr. Reto Gubelmann, Digital Society Initiative, Universität Zürich  
  • Dr. André Freitas, Forschungsinstitut Idiap, Martigny 
north