Hintergrund - 30.05.2025 - 09:00
Bei der Artificial General Intelligence (AGI) handelt es sich um eine Art KI, die über menschenähnliche kognitive Fähigkeiten verfügt und lernfähig ist. AGI simuliert die allgemeine Intelligenz des menschlichen Gehirns und ist somit in der Lage, alle intellektuellen Aufgaben zu erfüllen, die ein Mensch ausführen kann. Wir haben uns mit Philip Di Salvo zusammengesetzt, um über den Aufstieg und die Entwicklung von AGI zu sprechen.
Dr. Di Salvo, wenn ich von AGI spreche, kommen mir Science-Fiction-Filme in den Sinn. Die Fortschritte im Bereich der KI werden seit jeher mit viel Hype begleitet. Wie realistisch ist es, dass wir AGI in den nächsten zehn Jahren erleben werden?
Hype ist in der heutigen Zeit ein zentraler Bestandteil aller Themen rund um KI. Angesichts der beeindruckenden Ergebnisse generativer KI scheint AGI der nächste Schritt im Hype-Zyklus der öffentlichen Debatte zu sein. Technologische Entwicklungen brauchen immer neue Horizonte und da GenAI bereits bemerkenswerte Fähigkeiten zeigt, ist es nur natürlich, die Grenzen noch weiter zu verschieben. Wenn wir uns die aktuellen KI-Nachrichten ansehen, ist AGI ein wiederkehrendes Thema, so sehr, dass die MIT Technology Review kürzlich feststellte, dass es plötzlich zu einem «Gesprächsthema am Esstisch» geworden ist. Das Problem ist jedoch, dass es keinen Konsens darüber gibt, was AGI eigentlich ist oder was es bedeuten wird. Dies macht die Debatte etwas verworren und der Hype gedeiht in einem solchen Umfeld.
Ich bin nicht in der Lage, den technischen Fortschritt der KI zu beurteilen, weshalb ich keine Vorhersagen über ihre nächsten Schritte treffen kann. Die Tatsache, dass die Prognosen je nach Quelle stark variieren, zeigt jedoch deutlich, wie unklar der Begriff AGI noch ist. Dies habe ich in einem kürzlich erschienenen Artikel für RSI festgestellt. Google und DeepMind behaupten, dass wir bis 2030 AGI haben werden. Sam Altman von OpenAI sagt, sein Unternehmen verfüge bereits über die notwendigen Werkzeuge, um dies zu erreichen. Das verstärkt die Unklarheit noch. Andere CEOs sind vorsichtiger, während Wissenschaftler, die eine AGI zwar nicht ausschliessen, tendenziell weniger optimistisch sind, was den Zeitplan angeht. Einige bezweifeln sogar, dass Generative AI der richtige Schritt zum Aufbau einer AGI ist.
Einige stufen AGI als theoretisches Konzept ein, andere sehen sie als unvermeidlich an. Welche Beweise halten diejenigen, die AGI für unvermeidlich halten, für relevant?
Kürzlich habe ich das Buch «Machina Sapiens» von Nello Cristianini von der University of Bath gelesen. Darin analysiert er einige der neuesten Entwicklungen im Bereich der KI sowie das überraschende Verhalten generativer KI. Ich finde seinen Ansatz überzeugend: Zunächst versucht er zu definieren, was Intelligenz eigentlich ist, bevor er zu Schlussfolgerungen darüber gelangt, was Maschinen können und was sie besser können als Menschen. Genau hier zeigen sich die Grenzen des AGI-Konzepts. In einer polarisierten und eng gefassten Debatte, die oft von «Optimisten» und «Pessimisten» geprägt ist und stark von Unternehmen beeinflusst wird, die ein großes Interesse daran haben, die Narrative zu beeinflussen, halte ich eine umsichtige, ausgewogene Perspektive - wie die von Cristianini - für unerlässlich. In diesem Zusammenhang würde ich mich entschieden gegen die Idee der technologischen «Unvermeidbarkeit» aussprechen. Keine Technologie ist unvermeidbar, denn alle Technologien sind das Ergebnis soziotechnischer Systeme, menschlicher sowie politischer und wirtschaftlicher Entscheidungen und Kontexte.
Aber sind alle Narrative zutreffend oder überhaupt plausibel?
Der Begriff der «unvermeidbaren» Technologie steht in der Tat im Mittelpunkt vieler aktueller Debatten über die angeblichen «existentiellen Bedrohungen» durch KI. Diese Diskussionen lenken in den meisten Fällen von den realen, konkreten und bereits schwerwiegenden Schäden ab, die KI in der Praxis und nicht in Spekulationen verursacht. Diese existenziellen Bedrohungen sind zwar nicht unbedingt speziell mit AGI verbunden, entspringen aber oft noch vageren Konzeptualisierungen von KI. Solche Narrative neigen dazu, KI als etwas Autonomes, Unaufhaltsames und Katastrophales darzustellen.Behauptungen, dass KI die Macht übernehmen, die Menschheit auslöschen, ein Massensterben verursachen oder die Demokratie zerstören wird, sind eher Science-Fiction als Realität. Diese Narrative werden in der öffentlichen Debatte häufig aus opportunistischen Gründen verstärkt. Letztendlich dienen sie dazu, drängende Probleme wie algorithmische Verzerrungen, systemische Diskriminierung und die Umweltkosten von KI-Technologien zu verschleiern. Diese Probleme sind eng mit der heutigen Entwicklung der KI verbunden. Kate Crawfords jüngste Kunstinstallation «Calculating Empires» und Karen Haos Buch «Empire of AI» sind hervorragende Beispiele für eine realitätsnahe Betrachtung. Damit will ich natürlich nicht die Möglichkeiten der KI leugnen, sondern vielmehr darauf hinweisen, dass die Debatte oft in die falsche Richtung gelenkt wird.
Wie sehen Sie die aktuelle Medienberichterstattung und öffentliche Debatte zum Thema KI? Werden ihre Fähigkeiten überbewertet oder ihre Risiken unterschätzt?
Als Medienforscherin bin ich der Meinung, dass Medien und Journalismus eine wichtige Rolle bei der Gestaltung der Debatte um KI spielen und häufig sowohl optimistische als auch pessimistische Hype-Wellen verstärken. Im Rahmen des «Human Error Project» unter der Leitung von Prof. Veronica Barassi am MCM-HSG der Universität St. Gallen haben wir neben anderen Forschungsinitiativen die europäische Medienberichterstattung über KI und ihre «Fehler» untersucht. Dieser weit gefasste Begriff bezieht sich auf die verschiedenen Mängel algorithmischer Systeme, insbesondere ihre Grenzen beim «Lesen» menschlichen Verhaltens und der menschlichen Natur. Unsere Ergebnisse, die mit anderen Forschungen auf diesem Gebiet übereinstimmen, zeigen, dass die Berichterstattung in den Medien nach wie vor zur Sensationsheischerei neigt, insbesondere wenn Vergleiche zwischen menschlicher und maschineller Intelligenz gezogen werden. Diese Tendenz überschattet oft dringlichere und differenziertere Diskussionen über das Wesen der KI und ihre gesellschaftlichen Auswirkungen. Diese Themen sind in der Mainstream-Berichterstattung nach wie vor weitgehend unterrepräsentiert.
Grundsätzlich müssen wir uns von der binären Darstellung lösen, die Menschen entweder als Verfechter des KI-Fortschritts oder als Gegner der Technologie positioniert. Eine solche Polarisierung trägt wenig dazu bei, der Öffentlichkeit zu vermitteln, was KI wirklich ist, wie sie entwickelt wird und wohin sie führen könnte – ein Ergebnis, das, wie bereits erörtert, noch lange nicht klar ist. Es ist auch wichtig, sich vor Augen zu halten, dass KI ein riesiges Geschäftsfeld ist. Die mächtigsten Akteure in diesem Bereich befinden sich in einem Wettlauf um die Marktvorherrschaft – ein Verhalten, das wir bereits beim Aufstieg der sozialen Medien und der digitalen Wirtschaft beobachtet haben und das zu Konzentrationen und Quasi-Monopolen geführt hat. Wenn sich eine ähnliche Dynamik in der KI durchsetzt, könnten die Folgen angesichts der immensen Möglichkeiten dieser Technologie noch problematischer sein. Deshalb plädiere ich für eine kritischere Berichterstattung, für weniger unkritische Wiederholung von Unternehmensaussagen und visionären, spekulativen Narrativen. Ich liebe Science-Fiction, aber sie gehört in Bücher und Filme, nicht auf die Titelseite.
Philip Di Salvo ist Senior Researcher und Dozent an der Universität St.Gallen. Seine Forschungsschwerpunkte sind die Beziehung zwischen Information und Hacking, Internetüberwachung und künstliche Intelligenz. Als Journalist schreibt er für verschiedene Zeitungen.
Bild: Adobe Stock / Futureaz
Weitere Beiträge aus der gleichen Kategorie
Das könnte Sie auch interessieren
Entdecken Sie unsere Themenschwerpunkte