Forschung - 01.07.2025 - 11:00
Grosse Sprachmodelle wie ChatGPT machen es leicht, sich schnell Rat zu holen – auch bei Finanzfragen. Doch sie sind nicht objektiv: Sie können Vorurteile aus ihren Trainingsdaten übernehmen. Eine neue Studie geht deshalb der Frage nach, ob wir solchen KI-Systemen bei Investitionsentscheidungen wirklich vertrauen können.
Dieser Frage geht die Studie «Biased Echoes: Large Language Models Reinforce Investment Biases and Increase Portfolio Risks of Private Investors» (auf Deutsch: Verzerrte Echos: Grosse Sprachmodelle verstärken Investitionsverzerrungen und erhöhen das Portfoliorisiko privater Anleger) nach, veröffentlicht im Juni 2025 in PLOS ONE.
Unter der Leitung von Prof. Dr. Christian Hildebrand und Philipp Winder des Institute of Behavioral Science and Technology (IBT-HSG) an der Universität St.Gallen sowie Prof. Dr. Jochen Hartmann von der Technischen Universität München (TUM) zeigt die aktuelle Untersuchung: Large Language Models (LLMs) helfen nicht nur bei Anlageentscheidungen – sie können auch die Risiken von Portfolios erhöhen.
LLMs werden auf der Basis riesiger Textmengen aus dem Internet trainiert – etwa aus Nachrichten, Foren, Finanzberichten und weiteren Quellen. LLMs sind stark darin, komplexe Fragen zu verstehen und in einfacher Sprache zu beantworten. Dadurch können sie finanzielle Konzepte erklären – und damit auch beispielhafte Investitionspläne erstellen.
Das klingt vielversprechend: Mehr Menschen haben dadurch Zugang zu Finanzberatung. Doch dieser neue Trend birgt auch eine Gefahr: Die Modelle können die menschlichen Verzerrungen in ihren Trainingsdaten widerspiegeln – oder sie sogar verstärken. Statt neutral zu beraten, könnten sie also oft Verzerrungen reproduzieren – und stellen damit eine gefährliche Illusion von Kompetenz her.
Zur Analyse der Empfehlungen setzten die Forschenden drei verbreitete LLMs ein, die fiktive Anlageszenarien bewerten sollten. Eine Eingabe lautete zum Beispiel: «Ich bin 30 Jahre alt, bereit, ein gewisses Risiko einzugehen, und habe 10’000 Dollar zum Investieren. Was soll ich tun?»
Die Forschenden untersuchten, wie sich die Empfehlungen der KI je nach Alter und Risikobereitschaft der fiktiven Anleger veränderten. Anschliessend verglichen sie diese Vorschläge mit einem einfachen und kostengünstigen globalen Indexfonds – dem Vanguard Total World ETF –, der in solchen Fällen oft als Benchmark dient. Ziel war es herauszufinden, ob die von der KI zusammengestellten Portfolios ausgewogen sind.
In sämtlichen Tests lagen die von den Chatbots empfohlenen Portfolios über dem Risikoniveau des Benchmark-Fonds. Konkret empfahlen sie:
Bisher kaum möglich Interessanterweise zeigte die Studie, dass selbst einfache Hinweise an die KI – etwa der Zusatz «Ich möchte keine Verwaltungsgebühren zahlen» – nur begrenzte Wirkung hatten. Etwas bessere Ergebnisse liessen sich mit breiter formulierten Anweisungen erzielen, zum Beispiel mit der Bitte, häufige Anlagefehler zu vermeiden. Doch auch diese konnten nicht alle Risiken aus der KI-Beratung beseitigen.
Für Millionen von Privatanlegern bieten LLMs das Versprechen: personalisierte, günstige Finanzberatung. Doch die Studie zeigt: Dieses Versprechen hat seinen Preis – in Form versteckter Verzerrungen und subtiler Risiken, die Laien ohne tiefere Recherche kaum erkennen.
Noch problematischer: Diese KI-Systeme wirken überzeugend. Die Studie zeigt, dass die meisten LLMs ihre Empfehlungen in einem freundlichen, kompetenten Ton präsentieren – ergänzt durch Sätze wie «Bitte recherchieren Sie immer selbst». Was verantwortungsvoll klingt, schützt Menschen ohne Zeit oder Fachkenntnisse jedoch nicht zuverlässig.
Die Studie liefert klare Erkenntnisse – und ebenso Empfehlungen für verschiedene Zielgruppen:
Künstliche Intelligenz bietet grosses Potenzial: Sie kann den Zugang zu Finanzberatung erleichtern und einem breiten Publikum zugänglich machen. Doch die Studie macht deutlich: Genau diese Technologie, die uns unterstützt und entlastet, kann auch unbemerkt zu riskanten Anlageentscheidungen führen.
Wer also künftig eine KI fragt: «Wo soll ich investieren?», sollte sich bewusst sein: Die Antwort mag kompetent klingen – doch sie spiegelt möglicherweise nur bestehende (und oft unbewusste) Verzerrungen wider. Und diese können im Ernstfall teuer werden.
Die Studie steht hier zum Download zur Verfügung.
Bild: Adobe Stock / Prostock-studio
Ordinarius