Forschung - 11.11.2025 - 09:00
Gemäss dem aktuellen Cyber-Sorgenmonitor 2025 sehen 78 % der Schweizer Bevölkerung Cyberdelikte als ernstzunehmendes Problem. Damit wird digitale Sicherheit ähnlich stark gewichtet wie andere Alltagssorgen, etwa steigende Krankenkassenprämien oder die Altersvorsorge. Besonders gross ist die Sorge vor Angriffen auf kritische Infrastrukturen, digitalem Betrug und Desinformation. Im Fokus steht der Kinderschutz: 80 % der Befragten befürworten ein Social-Media-Verbot für unter 16-Jährige; viele Eltern fühlen sich mit der digitalen Gefahrenlage überfordert. Auch SRF berichtete, die Mehrheit wünsche sich strengere Regeln im Umgang mit sozialen Medien – insbesondere zum Schutz von Kindern und Jugendlichen.
Drei neue Forschungsprojekte des Instituts für Informatik (ICS-HSG) an der Universität St.Gallen greifen diese Entwicklungen auf. Sie wollen dazu beitragen, den digitalen Raum sicherer, offener und gesellschaftlich verantwortungsvoller zu gestalten.
Dominante Online-Plattformen wie Meta’s Instagram oder TikTok von Bytedance verfügen über enorme Marktmacht – und damit über einen tiefgreifenden Einfluss auf Meinungsfreiheit und Demokratie. Das Projekt «Addressing the Root Cause of Systemic Risk Posed by Dominant Online Platforms: Integrating Computer Science and Legal Scholarship to Measure and Mitigate Concentration of Control and Data (CoCoDa)» nimmt diese strukturellen Risiken gemeinsam mit Fachexperten aus den Bereichen Recht und Informatik in den Blick.
Informatik und Recht haben bislang meist isoliert auf die Herausforderungen von Plattformdominanz reagiert. Das Projekt «CoCoDa» verknüpft beide Disziplinen, um datenschutzkonforme, technisch praktikable Lösungen zu erarbeiten. Die Aufgabe ist anspruchsvoll: Gesetzliche Transparenzvorgaben treffen auf Systeme, deren Algorithmen sich wöchentlich verändern, deren Datenstrukturen unübersichtlich oder verschlüsselt sind und deren Schnittstellen nur begrenzt Einblick erlauben. Forschende müssen rechtliche Anforderungen wie Datenschutz und Datenminimierung mit technischen Realitäten wie dynamischen Algorithmen und fehlenden Standards in Einklang bringen.
Für die Gesellschaft ist das zentral: Nur mit solchen Werkzeugen können Journalisten, Behörden und Nutzerinnen nachvollziehen, wie Plattformen Informationen steuern – und ob Kinder, Minderheiten oder demokratische Debatten ausreichend geschützt sind. Gefördert wird das Projekt vom Schweizerischen Nationalfonds (SNF) mit 1'118'716 CHF über fünf Jahre seit Juni 2025.
Ziele und gesellschaftlicher Nutzen:
Am Projekt beteiligt sind Forschende verschiedener Universitäten:
Forschungsergebnisse, die wie Musik klingen – erste Ergebnisse als Playlist:
Erste Ergebnisse aus «CoCoDa» liegen in origineller Form vor. Mithilfe von Künstlicher Intelligenz hat das Forschungsteam zentrale Erkenntnisse in einer Musikplaylist mit sechs Songs verarbeitet – kreativ, kritisch und öffentlich zugänglich zugleich:
Immer mehr Eltern und Fachleute zeigen sich besorgt, dass Kinder und Jugendliche in sozialen Netzwerken mit sexualisierten, gewaltverherrlichenden oder radikalisierenden Inhalten in Kontakt kommen. Laut einem SRF-Bericht wünscht sich eine deutliche Mehrheit viel strengere Regeln für Plattformen und mehr Schutz für Minderjährige. Auch in der Politik wächst der Druck. Die Europäische Kommission leitete im Herbst 2025 mehrere Verfahren gegen grosse Plattformen ein, weil sie mutmasslich zu wenig gegen gefährliche Inhalte unternommen haben (tagesschau.de). Gleichzeitig fordern Stimmen aus der Schweiz, endlich wirksame Alterskontrollen im Internet einzuführen – ein Punkt, den die NZZ jüngst als «überfällig» bezeichnete. Während Aufklärungskampagnen helfen, fehlt bislang ein Schutzmechanismus, der eine effektive Rückkopplung mit betroffenen Kindern schafft.
Das Projekt «Flag&Safe» will das ändern – mit einer sogenannten «Trusted-Flagger Plattform», die speziell auf Kinder und Jugendliche zugeschnitten ist. Gefördert von der Palatin Stiftung mit 72’935 CHF, startete das Projekt im Juni 2025 und läuft bis Mai 2026.
Ziele und gesellschaftlicher Nutzen:
Am Projekt beteiligt sind:
In gesellschaftlichen Debatten geht es nicht nur um Fakten, sondern auch um Werte, Meinungen und Perspektiven. Künstliche Intelligenz tut sich mit dieser Komplexität bislang schwer. Das Projekt «Reconceiving and Improving Multi-Perspectivality and Rationality in Argumentative AI (M-Rational)» entwickelt neue Konzepte, damit KI nicht nur logisch schliessen, sondern auch verschiedene Sichtweisen nachvollziehbar abbilden kann. Der SNF unterstützt das Projekt mit 886'297 CHF für drei Jahre seit September 2025.
Ziele und gesellschaftlicher Nutzen:
Folgende Forschende sind am Projekt beteiligt:
