Forschung - 16.01.2026 - 14:00
Hedging ist eine Form des Risikomanagements, bei der ein Investment durch ein zweites, entgegengesetztes Geschäft abgesichert wird. Vor allem grössere institutionelle Anleger wie Banken, Versicherungen, Pensionskassen oder Energieunternehmen sichern so täglich große Geschäfte ab, um Risiken zu kontrollieren und Finanzstabilität zu gewährleisten. «Robustere Hedging-Strategien können dazu beitragen, Verluste in Stressphasen zu begrenzen und damit indirekt die Stabilität des Finanzsystems zu erhöhen.», sagt Prof. Dr. Tobias Sutter von der School of Economics and Political Science der Universität St.Gallen (SEPS-HSG).
Bei Deep Hedging werden nun neuronale Netze, eine Form von Künstlicher Intelligenz, genutzt, um solche Absicherungsstrategien direkt aus simulierten Marktszenarien zu optimieren und so das Risiko eines Anlage-Portfolios zu minimieren. Doch dabei gab es bislang ein Problem, das sich erstmals auch beim Training von KI-Modellen für die Bilderkennung zeigte. «Als KI lernte, Tiere auf Bildern zu erkennen, zeigte sich, dass neuronale Netze durch extrem kleine, für Menschen praktisch unsichtbare Veränderungen einzelner Pixel in die Irre geführt werden können», erklärt Prof. Dr. Lukas Gonon von der School of Computer Science der HSG (SCS-HSG). Ein Bild, das für das menschliche Auge unverändert aussieht, wird vom KI-System plötzlich falsch klassifiziert. «Eine Schildkröte wird vom neuronalen Netz etwa plötzlich als Gewehr identifiziert.» Der Grund dafür ist, dass neuronale Netze ihre Entscheidungen auf sehr feinen statistischen Mustern in den Daten aufbauen. Diese Muster sind im Trainingsbereich stabil, können aber außerhalb davon abrupt kippen. «Obwohl neuronale Netze gut verallgemeinern, gilt das nur innerhalb der Datenverteilung, die sie beim Training gesehen haben», erklärt Lukas Gonon.
Ein ähnliches Problem zeigte sich auch bei Deep-Hedging-Modellen. Diese werden typischerweise entweder mit historischen Marktdaten oder mit synthetischen Daten aus Finanzmodellen trainiert. «Reale Märkte zeigen jedoch Sprünge, asymmetrische Bewegungen oder starke Trendwechsel, die in Modell-Simulationen oft geglättet oder nicht ausreichend enthalten sind», sagt Lukas Gonon. «Diese Unterschiede führen dazu, dass ein Deep-Hedging-Modell Strategien lernt, die optimal für die simulierte oder vergangene Welt, aber nicht zwingend für den aktuellen oder zukünftigen Markt sind.»
Um dieses Problem anzugehen, haben Lukas Gonon, Tobias Sutter und Guangyi He vom Imperial College in London ein neuartiges sogenannt «adversarielles» Trainings-Framework angewendet. Dabei wurde das Modell nicht nur mit «sauberen» Daten trainiert, sondern auch mit solchen, die gezielt gestört wurden, um die «Worst-Case»-Szenarien der Datenverteilung zu simulieren. «Das Modell wird gezielt mit solchen „schwierigen“ Abweichungen konfrontiert, um zu lernen, auch außerhalb der idealisierten Trainingswelt robuste Entscheidungen zu treffen.»
Die Ergebnisse der umfangreichen numerischen Experimente sind vielversprechend. Zunächst zeigten die Wissenschaftler, dass herkömmliche Deep-Hedging-Modelle bereits durch geringfügige Störungen der Eingabeverteilung stark beeinträchtigt werden. Die adversariell trainierten Deep-Hedging-Strategien übertrafen jedoch ihre klassischen Gegenstücke konsequent. Bei 5.000 Stichproben reduzierte das adversarielle Training den mittleren Absicherungsverlust um 54 % im Vergleich zum konventionellen Training. So trainierte Deep-Hedging-Modelle könnten also zu stabileren und zuverlässigeren Absicherungsentscheidungen führen – ein entscheidender Vorteil in den oft volatilen Finanzmärkten.
Weitere Beiträge aus der gleichen Kategorie
Das könnte Sie auch interessieren
Entdecken Sie unsere Themenschwerpunkte
