close

Hintergrund - 30.05.2025 - 09:00 

Ist Artificial General Intelligence (AGI) auf dem Vormarsch?

Während die Auswirkungen der KI bereits weltweit zu spüren sind, ist die nächste Phase der KI-Entwicklung, die künstliche allgemeine Intelligenz (AGI), näher, als Sie vielleicht denken. Ein Interview mit Dr. Philip Di Salvo.
Artificial General Intelligence (AGI) ist auf dem Vormarsch

Bei der Artificial General Intelligence (AGI) handelt es sich um eine Art KI, die über menschenähnliche kognitive Fähigkeiten verfügt und lernfähig ist. AGI simuliert die allgemeine Intelligenz des menschlichen Gehirns und ist somit in der Lage, alle intellektuellen Aufgaben zu erfüllen, die ein Mensch ausführen kann. Wir haben uns mit Philip Di Salvo zusammengesetzt, um über den Aufstieg und die Entwicklung von AGI zu sprechen.

Dr. Philip Di Salvo
Dr. Philip Di Salvo ist Senior Researcher und Dozent an der Universität St.Gallen.

Dr. Di Salvo, wenn ich von AGI spreche, kommen mir Science-Fiction-Filme in den Sinn. Die Fortschritte im Bereich der KI werden seit jeher mit viel Hype begleitet. Wie realistisch ist es, dass wir AGI in den nächsten zehn Jahren erleben werden?

Hype ist in der heutigen Zeit ein zentraler Bestandteil aller Themen rund um KI. Angesichts der beeindruckenden Ergebnisse generativer KI scheint AGI der nächste Schritt im Hype-Zyklus der öffentlichen Debatte zu sein. Technologische Entwicklungen brauchen immer neue Horizonte und da GenAI bereits bemerkenswerte Fähigkeiten zeigt, ist es nur natürlich, die Grenzen noch weiter zu verschieben. Wenn wir uns die aktuellen KI-Nachrichten ansehen, ist AGI ein wiederkehrendes Thema, so sehr, dass die MIT Technology Review kürzlich feststellte, dass es plötzlich zu einem «Gesprächsthema am Esstisch» geworden ist. Das Problem ist jedoch, dass es keinen Konsens darüber gibt, was AGI eigentlich ist oder was es bedeuten wird. Dies macht die Debatte etwas verworren und der Hype gedeiht in einem solchen Umfeld.

Ich bin nicht in der Lage, den technischen Fortschritt der KI zu beurteilen, weshalb ich keine Vorhersagen über ihre nächsten Schritte treffen kann. Die Tatsache, dass die Prognosen je nach Quelle stark variieren, zeigt jedoch deutlich, wie unklar der Begriff AGI noch ist. Dies habe ich in einem kürzlich erschienenen Artikel für RSI festgestellt. Google und DeepMind behaupten, dass wir bis 2030 AGI haben werden. Sam Altman von OpenAI sagt, sein Unternehmen verfüge bereits über die notwendigen Werkzeuge, um dies zu erreichen. Das verstärkt die Unklarheit noch. Andere CEOs sind vorsichtiger, während Wissenschaftler, die eine AGI zwar nicht ausschliessen, tendenziell weniger optimistisch sind, was den Zeitplan angeht. Einige bezweifeln sogar, dass Generative AI der richtige Schritt zum Aufbau einer AGI ist.


Einige stufen AGI als theoretisches Konzept ein, andere sehen sie als unvermeidlich an. Welche Beweise halten diejenigen, die AGI für unvermeidlich halten, für relevant?

Kürzlich habe ich das Buch «Machina Sapiens» von Nello Cristianini von der University of Bath gelesen. Darin analysiert er einige der neuesten Entwicklungen im Bereich der KI sowie das überraschende Verhalten generativer KI. Ich finde seinen Ansatz überzeugend: Zunächst versucht er zu definieren, was Intelligenz eigentlich ist, bevor er zu Schlussfolgerungen darüber gelangt, was Maschinen können und was sie besser können als Menschen. Genau hier zeigen sich die Grenzen des AGI-Konzepts. In einer polarisierten und eng gefassten Debatte, die oft von «Optimisten» und «Pessimisten» geprägt ist und stark von Unternehmen beeinflusst wird, die ein großes Interesse daran haben, die Narrative zu beeinflussen, halte ich eine umsichtige, ausgewogene Perspektive - wie die von Cristianini - für unerlässlich. In diesem Zusammenhang würde ich mich entschieden gegen die Idee der technologischen «Unvermeidbarkeit» aussprechen. Keine Technologie ist unvermeidbar, denn alle Technologien sind das Ergebnis soziotechnischer Systeme, menschlicher sowie politischer und wirtschaftlicher Entscheidungen und Kontexte.


Aber sind alle Narrative zutreffend oder überhaupt plausibel?

Der Begriff der «unvermeidbaren» Technologie steht in der Tat im Mittelpunkt vieler aktueller Debatten über die angeblichen «existentiellen Bedrohungen» durch KI. Diese Diskussionen lenken in den meisten Fällen von den realen, konkreten und bereits schwerwiegenden Schäden ab, die KI in der Praxis und nicht in Spekulationen verursacht. Diese existenziellen Bedrohungen sind zwar nicht unbedingt speziell mit AGI verbunden, entspringen aber oft noch vageren Konzeptualisierungen von KI. Solche Narrative neigen dazu, KI als etwas Autonomes, Unaufhaltsames und Katastrophales darzustellen.Behauptungen, dass KI die Macht übernehmen, die Menschheit auslöschen, ein Massensterben verursachen oder die Demokratie zerstören wird, sind eher Science-Fiction als Realität. Diese Narrative werden in der öffentlichen Debatte häufig aus opportunistischen Gründen verstärkt. Letztendlich dienen sie dazu, drängende Probleme wie algorithmische Verzerrungen, systemische Diskriminierung und die Umweltkosten von KI-Technologien zu verschleiern. Diese Probleme sind eng mit der heutigen Entwicklung der KI verbunden. Kate Crawfords jüngste Kunstinstallation «Calculating Empires» und Karen Haos Buch «Empire of AI» sind hervorragende Beispiele für eine realitätsnahe Betrachtung. Damit will ich natürlich nicht die Möglichkeiten der KI leugnen, sondern vielmehr darauf hinweisen, dass die Debatte oft in die falsche Richtung gelenkt wird.

«Ich liebe Science-Fiction, aber sie gehört in Bücher und Filme, nicht auf die Titelseite.»
Dr. Philip Di Salvo

Wie sehen Sie die aktuelle Medienberichterstattung und öffentliche Debatte zum Thema KI? Werden ihre Fähigkeiten überbewertet oder ihre Risiken unterschätzt?

Als Medienforscherin bin ich der Meinung, dass Medien und Journalismus eine wichtige Rolle bei der Gestaltung der Debatte um KI spielen und häufig sowohl optimistische als auch pessimistische Hype-Wellen verstärken. Im Rahmen des «Human Error Project» unter der Leitung von Prof. Veronica Barassi am MCM-HSG der Universität St. Gallen haben wir neben anderen Forschungsinitiativen die europäische Medienberichterstattung über KI und ihre «Fehler» untersucht. Dieser weit gefasste Begriff bezieht sich auf die verschiedenen Mängel algorithmischer Systeme, insbesondere ihre Grenzen beim «Lesen» menschlichen Verhaltens und der menschlichen Natur. Unsere Ergebnisse, die mit anderen Forschungen auf diesem Gebiet übereinstimmen, zeigen, dass die Berichterstattung in den Medien nach wie vor zur Sensationsheischerei neigt, insbesondere wenn Vergleiche zwischen menschlicher und maschineller Intelligenz gezogen werden. Diese Tendenz überschattet oft dringlichere und differenziertere Diskussionen über das Wesen der KI und ihre gesellschaftlichen Auswirkungen. Diese Themen sind in der Mainstream-Berichterstattung nach wie vor weitgehend unterrepräsentiert.

Grundsätzlich müssen wir uns von der binären Darstellung lösen, die Menschen entweder als Verfechter des KI-Fortschritts oder als Gegner der Technologie positioniert. Eine solche Polarisierung trägt wenig dazu bei, der Öffentlichkeit zu vermitteln, was KI wirklich ist, wie sie entwickelt wird und wohin sie führen könnte – ein Ergebnis, das, wie bereits erörtert, noch lange nicht klar ist. Es ist auch wichtig, sich vor Augen zu halten, dass KI ein riesiges Geschäftsfeld ist. Die mächtigsten Akteure in diesem Bereich befinden sich in einem Wettlauf um die Marktvorherrschaft – ein Verhalten, das wir bereits beim Aufstieg der sozialen Medien und der digitalen Wirtschaft beobachtet haben und das zu Konzentrationen und Quasi-Monopolen geführt hat. Wenn sich eine ähnliche Dynamik in der KI durchsetzt, könnten die Folgen angesichts der immensen Möglichkeiten dieser Technologie noch problematischer sein. Deshalb plädiere ich für eine kritischere Berichterstattung, für weniger unkritische Wiederholung von Unternehmensaussagen und visionären, spekulativen Narrativen. Ich liebe Science-Fiction, aber sie gehört in Bücher und Filme, nicht auf die Titelseite.


Philip Di Salvo ist Senior Researcher und Dozent an der Universität St.Gallen. Seine Forschungsschwerpunkte sind die Beziehung zwischen Information und Hacking, Internetüberwachung und künstliche Intelligenz. Als Journalist schreibt er für verschiedene Zeitungen.

Bild: Adobe Stock / Futureaz

Podcast «Machines That Fail Us»

Ein Podcast der Forschungsgruppe Medien und Kultur der Universität St.Gallen über die Auswirkungen von KI-Fehlern auf die Menschenrechte und unsere Zukunft mit künstlicher Intelligenz. Host: Dr. Philip Di Salvo
Machines that fail us
podcasts
Machines That Fail Us - Season 2, Episode 3: Who governs AI? Global challenges in addressing harm
Machines that fail us
podcasts
Machines That Fail Us - Season 2, Episode 2: "Teaching the Machine: The Hidden Work Behind AI’s Intelligence"
Machines that fail us
podcasts
Machines That Fail Us - Season 2, Episode 1: "Artificial Lies and Synthetic Media: How AI Powers Disinformation"
Machines that fail us
podcasts
Machines That Fail Us #5: "The shape of AI to come"
Machines that fail us
podcasts
Machines That Fail Us #4 | Building different AI futures
Machines that fail us
podcasts
Machines That Fail Us #3 Errors and biases: tales of algorithmic discrimination
Machines that fail us
podcasts
Machines That Fail Us #2 | Following the AI beat: algorithms making the news
Machines that fail us
podcasts
Machines That Fail Us #1: Making sense of the human error of AI
Machines That Fail Us - Season 2, Episode 3: Who governs AI? Global challenges in addressing harm
Season 2 / Episode #3
16.05.2025
Machines That Fail Us - Season 2, Episode 3: Who governs AI? Global challenges in addressing harm
Philip di Salvo and Prof. Mariana Valente delve into the global push to regulate artificial intelligence and the social and ethical challenges involved.
Machines That Fail Us - Season 2, Episode 2: "Teaching the Machine: The Hidden Work Behind AI’s Intelligence"
Season 2 / Episode #2
28.02.2025
Machines That Fail Us - Season 2, Episode 2: "Teaching the Machine: The Hidden Work Behind AI’s Intelligence"
In this episode, Philip di Salvo and Adio Dinika (DAIR) discuss the invisible labor behind AI systems and the various inequalities within the AI industry.
Machines That Fail Us - Season 2, Episode 1: "Artificial Lies and Synthetic Media: How AI Powers Disinformation"
Season 2 / Episode #1
31.01.2025
Machines That Fail Us - Season 2, Episode 1: "Artificial Lies and Synthetic Media: How AI Powers Disinformation"
Philip di Salvo and Craig Silverman explore the extent to which AI-driven disinformation has shaped democratic processes.
Machines That Fail Us #5: "The shape of AI to come"
Season 1 / Episode #5
05.07.2024
Machines That Fail Us #5: "The shape of AI to come"
Tune in for the final episode with expert Frederike Kaltheuner. Discover insights on the future of AI and its impact on our lives.
Machines That Fail Us #4 | Building different AI futures
Season 1 / Episode #4
14.06.2024
Machines That Fail Us #4 | Building different AI futures
How could our AI future look different? We asked Prof. Payal Arora, a Professor of Inclusive AI Cultures at Utrecht University.
Machines That Fail Us #3 Errors and biases: tales of algorithmic discrimination
Season 1 / Episode #3
17.05.2024
Machines That Fail Us #3 Errors and biases: tales of algorithmic discrimination
How is the struggle for algorithmic justice evolving? Host Philip Di Salvo speaks with Angela Müller, Executive Director of AlgorithmWatch Switzerland.
Machines That Fail Us #2 | Following the AI beat: algorithms making the news
Season 1 / Episode #2
19.04.2024
Machines That Fail Us #2 | Following the AI beat: algorithms making the news
What’s the role of journalism in making sense of AI and its errors? Host Philip Di Salvo speaks with Melissa Heikkilä, MIT Technology Review.
Machines That Fail Us #1: Making sense of the human error of AI
Season 1 / Episode #1
21.03.2024
Machines That Fail Us #1: Making sense of the human error of AI
What are the errors that AI systems can make and what’s their impact on humans? "The Human Error Project" team discusses their research into AI.
play_arrow

Entdecken Sie unsere Themenschwerpunkte

north