Forschung - 12.12.2025 - 11:00
Das fundamentale Problem der Konjunkturprognose liegt in der Ungleichzeitigkeit der verfügbaren Wirtschaftsdaten. Während viele Kennzahlen etwa zu Produktionsmengen oder Verkaufszahlen meist nur monatlich oder quartalsweise veröffentlicht werden, liefern Finanzmärkte täglich und in Echtzeit riesige Datenmengen. Herkömmliche Prognosemodelle haben jedoch Mühe, diese gemischten Datenfrequenzen zu vereinen. Oft leiden sie unter dem sogenannten «Fluch der Dimensionalität»: Je mehr Datenpunkte man einspeist, desto langsamer und instabiler werden die Berechnungen. Um dieses Problem zu lösen, nutzten Forschende in einer Studie einen eher neuen Ansatz des maschinellen Lernens namens «Reservoir Computing».
Dabei handelt es um eine spezielle Form des Trainings von digitalen neuronalen Netzen. Das ist ein Ansatz der künstlichen Intelligenz, bei welchem die Funktionsweise des menschlichen Gehirns nachgeahmt wird. Diese digitalen neuronalen Netze können etwa verschiedene Wirtschaftsdaten entgegennehmen, verarbeiten und am Ende eine Konjunkturprognose herausspucken. Durch Abgleich dieser Prognose mit den tatsächlichen Wirtschaftsentwicklungen, werden während des Trainings die internen Parameter dieses neuronalen Netzes stetig optimiert.
Bisherige Trainingsmethoden zielten dabei darauf ab, das «Gehirn» komplett neu zu verdrahten, also alle Parameter des neuronalen Netzes zu optimieren – ein sehr rechenintensiver Prozess. Beim Reservoir Computing (RC) bleiben jedoch während des Trainings die meisten Parameter des Netzes unangetastet, während nur jene der Ausgabeebene angepasst werden. Wie das funktioniert, kann an einem Wasserteich veranschaulicht werden.
Stellen wir uns einen Beobachter am Teichrand vor, der anhand der Wasserbewegungen darauf schliessen will, wie gross Steine sind, die in den Teich geworfen werden. Bei herkömmlichen Trainingsmethoden für neuronale Netze wurde nun sozusagen versucht, die Bewegungs-Physik jedes einzelnen Wassertropfens zu lernen, ein sehr aufwändiger Lernprozess. Für gute Schätzungen genügt es aber eigentlich, die komplexen Wellenmuster am Ufer zu beobachten und basierend darauf Rückschlüsse auf die Grösse des Steins zu ziehen. Genau dies wird beim RC versucht. Hier dient der grösste Teil der digitalen Neuronen mit rein zufällig festgelegten, fixen Parametern als dieser «Teich» (das Reservoir). Werfen wir Daten in dieses Netz hinein, hallen diese darin als hochkomplexe Muster wider, ähnlich wie der Stein, der komplexe Wellenmuster am Uferrand erzeugt. Beim RC wird dann nur die letzte Ausgabeebene, welche diese Muster in Konjunkturprognosen übersetzen soll, trainiert. Übersetzt in die Teichmetapher wird also der «Beobachter» darauf trainiert, lediglich die Wellenmuster des Wassers am Ufer richtig zu interpretieren, statt die ganze Physik der Wasserbewegung zu studieren.
«Im Gegensatz zu anderen gängigen KI-Methoden benötigen Modelle auf Basis von Reservoir Computing nur eine begrenzte Datenmenge für das Training. Diese Eigenschaft eignet sich auch perfekt für makroökonomische Anwendungen, bei denen nur wenige Daten zur Verfügung stehen», sagt Prof. Ph.D. Lyudmila Grigoryeva von der School of Economics and Political Science der Universität St. Gallen (HSG), die an der Studie mitgewirkt hat. Gemeinsam mit Kolleg:innen anderer Universitäten verglich sie diesen neuen Ansatz in umfangreichen Tests mit den bisherigen Standardmodellen der Makroökonomie.
Die Ergebnisse der Untersuchung sind vielversprechend: Das RC-Modell konnte das Wachstum des Bruttoinlandsprodukts der USA über verschiedene Zeiträume hinweg vorhersagen und dabei mit etablierten Verfahren mindestens gleichzuziehen, diese oft sogar zu übertreffen. Besonders beeindruckend war die Überlegenheit der RC-Methode aber in puncto Effizienz. Während herkömmliche Modelle beim Training enorme Rechenkapazitäten benötigten, lieferte der RC-Ansatz gute Ergebnisse zu einem Bruchteil der Rechenpower. Die Studie zeigt auch, dass diese RC-Modelle bei der Wirtschaftsprognose mit einer großen Anzahl an Eingabedaten stabil umgehen können, ohne an Genauigkeit einzubüßen.
Da auch die KI-Branche mit immer mehr Nachhaltigkeitsansprüchen konfrontiert ist, bietet Reservoir Computing also eine ressourcenschonendere Alternative für die Datenanalyse und eine stabilere Methode für die Auswertung von verschiedenartigen Wirtschaftsdaten. Lyudmila Grigoryeva und ihr Kollege Giovanni Ballarin haben auch das Nowcasting Lab der Konjunkturforschungsstelle der ETH Zürich (KOF) dabei unterstützt, diese neue Methode zu implementieren. Dort können nun in Echtzeit Wirtschaftsprognosen von 17 europäischen Ländern, darunter auch der Schweiz, abgerufen werden.
Bildquelle: Adobe Stock / Abdulloh
Weitere Beiträge aus der gleichen Kategorie
Das könnte Sie auch interessieren
Entdecken Sie unsere Themenschwerpunkte
