„Challenges for Forecasting – Structural Breaks, Revisions and Measurement Errors” 16th IWH-CIREQ Macroeconometric Workshop
Am 7. und 8. Dezember 2015 fand am Leibniz-Institut für Wirtschaftsforschung Halle (IWH) zum 16. Mal der IWH-CIREQ Macroeconometric Workshop statt. Die in Kooperation mit dem Centre interuniversitaire de recherche en économie quantitative (CIREQ), Montréal, durchgeführte Veranstaltung beschäftigte sich dieses Mal mit zentralen Herausforderungen, denen sich die ökonomische Prognose zu stellen hat: Strukturbrüche in den Daten, statistische Revisionen und Fehler bei der Messung wichtiger Indikatoren.
29. Februar 2016
Vor dem Hintergrund der Wirtschafts- und Finanzkrise 2008/2009 ging Simon Price (Bank of England) in der ersten Keynote der Frage nach, wie sich inmitten einer Krise trotz weitgehender Unwissenheit über deren Ursprung und weiteren Verlauf bestmögliche Prognosen erstellen lassen. Anhand von Simulationsstudien diskutierte er die Leistungsfähigkeit verschiedener Prognosemodelle. Die besten Ergebnisse erzielte ein nicht-parametrischer Ansatz, der relativ weit zurückliegenden Informationen weniger Gewicht zukommen lässt als den Beobachtungen der unmittelbaren Vergangenheit.
Richard Dutu (OECD) stellte in der zweiten Keynote eine ausführliche Evaluation der OECD-Prognosen vor und während der Krise dar. Er machte deutlich, dass der Prognosefehler umso größer ist, je offener eine Volkswirtschaft und je größer die Präsenz ausländischer Banken ist. Stärker als bisher sollten daher globale wirtschaftliche Interdependenzen und die Rolle der Finanzmärkte in der Prognose berücksichtigt werden.
Tara Sinclair (The George Washington University) knüpfte in der dritten Keynote an die zuvor angesprochene Problematik einer generell schwachen Performance von Prognosen in Krisenzeiten an. Während Prognostiker noch immer über verspätete, zu spärliche und in zu niedriger Frequenz verfügbare Informationen klagten, sähen sich Big-Data-Forscher dem umgekehrten Problem gegenüber: In Echtzeit liegt ein ungefiltertes Vielfaches an Informationen im Sekundentakt vor. An die „Zunft“ der professionellen Prognostiker gerichtet, hob Tara Sinclair die Notwendigkeit einer offenen Auseinandersetzung mit den Chancen und Schwierigkeiten von Big Data hervor.
In den übrigen Vorträgen präsentierte und diskutierte ein internationaler Kreis von Forscherinnen und Forschern eine weite Bandbreite an theoretischen und angewandten ökonometrischen Entwicklungen. Auf besonderes Interesse stieß eine von der Europäischen Zentralbank entwickelte Bayesianische Toolbox, die von Romain Legrand (EZB) vorgestellt wurde. Wie in den Jahren zuvor fand ergänzend zu den Vorträgen eine Postersession statt.