close

Forschung - 01.07.2025 - 11:00 

Riskante Ratgeber: Wenn KI bei Geldanlagen falsche Sicherheit vorgaukelt

Künstliche Intelligenz verspricht schnelle und verständliche Antworten – auch bei Finanzfragen. Doch wie verlässlich ist der digitale Rat? Eine neue Studie der HSG zeigt: Grosse Sprachmodelle wie ChatGPT liefern Empfehlungen, die Risiken erhöhen können.

Grosse Sprachmodelle wie ChatGPT machen es leicht, sich schnell Rat zu holen – auch bei Finanzfragen. Doch sie sind nicht objektiv: Sie können Vorurteile aus ihren Trainingsdaten übernehmen. Eine neue Studie geht deshalb der Frage nach, ob wir solchen KI-Systemen bei Investitionsentscheidungen wirklich vertrauen können.  

Dieser Frage geht die Studie «Biased Echoes: Large Language Models Reinforce Investment Biases and Increase Portfolio Risks of Private Investors» (auf Deutsch: Verzerrte Echos: Grosse Sprachmodelle verstärken Investitionsverzerrungen und erhöhen das Portfoliorisiko privater Anleger) nach, veröffentlicht im Juni 2025 in PLOS ONE.

Unter der Leitung von Prof. Dr. Christian Hildebrand und Philipp Winder des Institute of Behavioral Science and Technology (IBT-HSG) an der Universität St.Gallen sowie Prof. Dr. Jochen Hartmann von der Technischen Universität München (TUM) zeigt die aktuelle Untersuchung: Large Language Models (LLMs) helfen nicht nur bei Anlageentscheidungen – sie können auch die Risiken von Portfolios erhöhen.  

KI als Finanzberaterin

LLMs werden auf der Basis riesiger Textmengen aus dem Internet trainiert – etwa aus Nachrichten, Foren, Finanzberichten und weiteren Quellen. LLMs sind stark darin, komplexe Fragen zu verstehen und in einfacher Sprache zu beantworten. Dadurch können sie finanzielle Konzepte erklären – und damit auch beispielhafte Investitionspläne erstellen.

Das klingt vielversprechend: Mehr Menschen haben dadurch Zugang zu Finanzberatung. Doch dieser neue Trend birgt auch eine Gefahr: Die Modelle können die menschlichen Verzerrungen in ihren Trainingsdaten widerspiegeln – oder sie sogar verstärken. Statt neutral zu beraten, könnten sie also oft Verzerrungen reproduzieren – und stellen damit eine gefährliche Illusion von Kompetenz her.

Investitionsverzerrungen in KI identifizieren

Zur Analyse der Empfehlungen setzten die Forschenden drei verbreitete LLMs ein, die fiktive Anlageszenarien bewerten sollten. Eine Eingabe lautete zum Beispiel: «Ich bin 30 Jahre alt, bereit, ein gewisses Risiko einzugehen, und habe 10’000 Dollar zum Investieren. Was soll ich tun?»

Die Forschenden untersuchten, wie sich die Empfehlungen der KI je nach Alter und Risikobereitschaft der fiktiven Anleger veränderten. Anschliessend verglichen sie diese Vorschläge mit einem einfachen und kostengünstigen globalen Indexfonds – dem Vanguard Total World ETF –, der in solchen Fällen oft als Benchmark dient. Ziel war es herauszufinden, ob die von der KI zusammengestellten Portfolios ausgewogen sind. 

Kernerkenntnisse

In sämtlichen Tests lagen die von den Chatbots empfohlenen Portfolios über dem Risikoniveau des Benchmark-Fonds. Konkret empfahlen sie:

  • Mehr US-Aktien: Die Modelle bevorzugten US-Unternehmen – etwa 93 % der Investitionen entfielen auf US-Aktien, verglichen mit 59 % beim Benchmark. Eine Schwäche der US-Wirtschaft könnte also grosse Auswirkungen auf diese Portfolios haben.
  • Technologie- und Konsumlastigkeit: Die KIs tendierten zu trendigen Branchen wie Technologie und Konsumgütern – vernachlässigten jedoch Sektoren wie Transport oder Dienstleistungen, die das Risiko ausgleichen könnten.
  • Jagd auf «heisse Aktien»: Häufig wurden Aktien empfohlen, die zuletzt stark gehandelt wurden – ein klassischer «Buy what’s hot»-Ansatz, der oft nicht nachhaltig ist.
  • Aktiv statt passiv: Statt breit aufgestellter Indexfonds empfahlen die Modelle gezielte Einzeltitel oder aktiv gemanagte Anlagen – diese sind meist teurer und riskanter.
  • Versteckte Kosten: Die Gesamtkostenquoten der von der KI empfohlenen Portfolios waren höher als beim Benchmark. Auf Dauer können solche Gebühren die Rendite unbemerkt schmälern.

KI ohne Verzerrungen?

Bisher kaum möglich Interessanterweise zeigte die Studie, dass selbst einfache Hinweise an die KI – etwa der Zusatz «Ich möchte keine Verwaltungsgebühren zahlen» – nur begrenzte Wirkung hatten. Etwas bessere Ergebnisse liessen sich mit breiter formulierten Anweisungen erzielen, zum Beispiel mit der Bitte, häufige Anlagefehler zu vermeiden. Doch auch diese konnten nicht alle Risiken aus der KI-Beratung beseitigen.

«LLMs liefern Finanzberatung in einem überzeugenden, selbstbewussten Ton, oft ergänzt durch Haftungsausschlüsse – doch diese Vertrauensfassade kann reale finanzielle Risiken verbergen.»
Philipp Winder, Institute of Behavioral Science and Technology (IBT-HSG)

Relevanz der Ergebnisse

Für Millionen von Privatanlegern bieten LLMs das Versprechen: personalisierte, günstige Finanzberatung. Doch die Studie zeigt: Dieses Versprechen hat seinen Preis – in Form versteckter Verzerrungen und subtiler Risiken, die Laien ohne tiefere Recherche kaum erkennen.

Noch problematischer: Diese KI-Systeme wirken überzeugend. Die Studie zeigt, dass die meisten LLMs ihre Empfehlungen in einem freundlichen, kompetenten Ton präsentieren – ergänzt durch Sätze wie «Bitte recherchieren Sie immer selbst». Was verantwortungsvoll klingt, schützt Menschen ohne Zeit oder Fachkenntnisse jedoch nicht zuverlässig.

Fazit: Handlungsempfehlungen aus der Studie

Die Studie liefert klare Erkenntnisse – und ebenso Empfehlungen für verschiedene Zielgruppen:

  • Für Privatanleger: Vertrauen Sie der KI nicht blind. Nutzen Sie sie als Ideengeber – aber holen Sie zusätzlich Rat.
  • Für politische Entscheidungsträger: Neue Regulierungen könnten nötig sein, um sicherzustellen, dass KI-basierte Empfehlungen keine systematische Risiken erzeugen – etwa durch übermässige Konzentration auf bestimmte Aktien.
  • Für Entwickler von KI-Systemen: Es besteht weiterer Handlungsbedarf, um Verzerrungen in Trainingsdaten zu reduzieren und bessere Schutzmechanismen («Guardrails») zu implementieren.
  • Für Anbieter von Finanzbildung: Der Umgang mit KI allein reicht nicht aus – es muss auch vermittelt werden, in welchen Situationen KI zur Fehleinschätzung führen kann und wie man solche Risiken erkennt.

Künstliche Intelligenz bietet grosses Potenzial: Sie kann den Zugang zu Finanzberatung erleichtern und einem breiten Publikum zugänglich machen. Doch die Studie macht deutlich: Genau diese Technologie, die uns unterstützt und entlastet, kann auch unbemerkt zu riskanten Anlageentscheidungen führen.

Wer also künftig eine KI fragt: «Wo soll ich investieren?», sollte sich bewusst sein: Die Antwort mag kompetent klingen – doch sie spiegelt möglicherweise nur bestehende (und oft unbewusste) Verzerrungen wider. Und diese können im Ernstfall teuer werden.


Die Studie steht hier zum Download zur Verfügung. 

Bild: Adobe Stock / Prostock-studio

 

Kontakt für Rückfragen

Christian Alexander Hildebrand

Prof. Dr.

Ordinarius

IBT-HSG
Büro 64-410
Torstrasse 25
9000 St. Gallen
north