Nobelpreis für Wirtschaftswissenschaften: Zeitreihen in der Ökonometrie
Börsenkurse sind prinzipiell nicht vorhersagbar. Für die Entwicklung ausgefeilter Methoden, ihnen und anderen regelmäßig erhobenen Wirtschaftsdaten dennoch mathematische Gesetzmäßigkeiten zu entlocken, gab es in diesem Jahr den Wirtschafts-Nobelpreis.
Anfang der 1980er Jahre setzte das Institut für Wirtschaftswissenschaften der Universität von Kalifornien in San Diego zu einem Höhenflug an, der ihm weltweite Beachtung bescheren sollte. Die Vaterfigur dieser Ideenschmiede ist Clive W. J. Granger, 1934 in Swansea (Wales) geboren, der im Mai dieses Jahres in den Ruhestand trat. Die beiden anderen führenden Köpfe sind Robert F. Engle, Jahrgang 1942, der 1999 zur Universität New York wechselte und seine eigene Beraterfirma betreibt, und Halbert White, der bisher in San Diego verblieben ist. Der Nobelpreis für Wirtschaftwissenschaft geht in diesem Jahr an Granger und Engle und kommt damit recht zeitig, verglichen mit den Verhältnissen in den Naturwissenschaften.
Es geht um einen Allerweltsgegenstand der Ökonometrie, der messenden Wirtschaftswissenschaft: Zeitreihen. Die täglich registrierten Börsen- oder Devisenkurse sind die einfachsten Beispiele, aber auch in größeren Abständen errechnete Wirtschaftsdaten wie das Lohn-, Preis- und Beschäftigungsniveau oder das Bruttosozialprodukt gehören dazu. Für Mathematiker sind das einfach Zahlenfolgen, die sie mit Bezeichnungen wie xt versehen. Dabei ist x etwa der Name der Aktie, und der Index t zählt die Zeitabschnitte: typischerweise Tage, Monate oder Quartale.
Zeitreihen kann man addieren; aus vielen Aktienkursen wird so ein Aktienindex. Oder man subtrahiert von einer Zeitreihe xt jeweils die zum nächstfrüheren Zeitpunkt xt-1. Das Ergebnis ist die Zeitreihe der "ersten Differenzen" von x, die nicht die Kurse selbst, sondern ihre täglichen Schwankungen beschreibt.
Ein Ökonometer möchte mit seinen Zeitreihen im Prinzip dasselbe anfangen wie ein Physiker: aus einem chaotischen Datenwust allgemeine Gesetzmäßigkeiten extrahieren. Er hat es nur viel schwerer; denn die Zahlenwerte, die er zu finden hoffen kann, sind nicht universelle Naturkonstanten, sondern beschreiben Eigenschaften der Menschen und der wirtschaftlichen Verhältnisse: Wie viel Aufwand kostet es, eine Einheit des Gutes A zu produzieren? Wie viel ist der Durchschnittsmensch bereit, dafür zu bezahlen? Ab welchem Preis neigt er dazu, darauf zu verzichten oder auf das Ersatzgut B auszuweichen? Wie viel Geld glaubt er für schlechte Zeiten zurücklegen zu sollen? Typischerweise ändern sich diese Parameter innerhalb des Zeitraums, den die Zeitreihe abdeckt.
Clive Granger und die nichtstationären Zeitreihen
Das ist ungünstig für die Analyse; denn eine Zeitreihe, die von solchen Veränderungen beeinflusst wird, ist nicht mehr "stationär", das heißt, ihre statistischen Eigenschaften sind nicht mehr unabhängig von der Zeit.
Wenn man von einer stationären Zeitreihe einen kurzen Unterabschnitt herausgreift, ergibt sich unabhängig von der Stichprobe stets annähernd dieselbe Verteilung der Werte. Nichtstationären Zeitreihen geht diese Art mathematischen Wohlverhaltens ab – mit der unangenehmen Folge, dass Standard-Analyseverfahren völlig irreführende Ergebnisse liefern. Granger und sein Kollege Paul Newbold hatten da vor dreißig Jahren ein ernüchterndes Urerlebnis: In einer Computersimulation erzeugten sie zwei nichtstationäre, voneinander unabhängige Zeitreihen und stellten fest, dass ein statistischer Test eine Abhängigkeit zwischen ihnen meldete, wo mit Sicherheit keine war.
Grundlage dieses Tests war eine lineare Regression. Das ist der Versuch, zwischen zwei Zeitreihen xt und yt eine lineare Beziehung der Form yt=axt+b zu finden, wobei man unterstellt, dass diese Beziehung nur näherungsweise gilt. Man setzt also yt=axt+b+t und bestimmt die Unbekannten a und b so, dass die "Störung" t möglichst klein wird.
Typischerweise hat eine echte Zeitreihe aus der Wirtschaft eine Eigenschaft, die man integriert nennt: Zwar sind die ersten Differenzen stationär – das Muster der zufälligen Schwankungen von Tag zu Tag ist stets ungefähr dasselbe –, nicht aber die Zeitreihe selbst: Die zufälligen Tagesschwankungen mitteln sich auf die Dauer nicht ganz weg, sondern können sich zu einem erheblichen Nettoeffekt aufaddieren, auch wenn sich an den oben genannten "Konstanten wirtschaftlichen Verhaltens" nichts Wesentliches ändert. Bei integrierten Zeitreihen versagt die lineare Regression.
Dem hat Clive Granger durch sein Konzept der "Kointegration" abgeholfen. Nach wie vor sucht er zwischen zwei Zeitreihen nach Abhängigkeiten der Form yt=axt+b; aber Erfolgskriterium ist nicht mehr, dass der Rest t=yt-axt-b möglichst klein sein soll, sondern dass er seinerseits eine stationäre Zeitreihe ist. Dazu verleibt man die Konstante b dem t auf der linken Seite der Gleichung ein und betrachtet die Zeitreihe t=yt-axt.
Die Suche nach dem "richtigen" Parameter a kann misslingen, indem der statistische Test auf Stationarität von t für alle Werte von a fehlschlägt: Wo keine Abhängigkeit besteht, wird auch keine gemeldet. Im Erfolgsfall aber nennt man die beiden Zeitreihen xt und yt "kointegriert", denn "voneinander abhängig" wäre zu viel gesagt angesichts der Tatsache, dass die Abweichung yt-axt von der exakten Abhängigkeit im Allgemeinen keineswegs klein ist.
Was bedeutet es denn über die mathematische Definition hinaus für den Anwender, wenn zwei Zeitreihen kointegriert sind? Auch auf diese Frage hat Granger mit formalen mathematischen Mitteln eine Antwort gegeben, und zwar den heute nach ihm benannten Darstellungssatz: Unter gewissen Zusatzvoraussetzungen lassen sich die beiden Zeitreihen in die Form "xt+1-xt=p(yt-axt) plus weitere stationäre Terme" bringen; Entsprechendes gilt für yt.
Das bedeutet: Der Zustand yt=axt ist als eine Art ökonomisches Gleichgewicht zu verstehen. Er kommt zwar praktisch nie vor, ist aber gleichwohl bedeutsam, denn es gibt Kräfte, die das System auf das Gleichgewicht hintreiben. Je größer heute, zum Zeitpunkt t, das Ungleichgewicht yt-axt ist, desto größer ist auch der Term p(yt-axt), der als Korrekturglied wirkt, denn das Vorzeichen von p ist so, dass die nächste Kursänderung xt+1-xt in Richtung auf das Gleichgewicht ausfällt, entsprechend für yt. Die "weiteren stationären Terme" sind allerdings frei, das System auch vom Gleichgewicht weg zu treiben. Die Existenz eines Gleichgewichts verhindert also nicht, dass die Folge der Ereignisse spannend bleibt.
Die Zahl p ist berechenbar; damit gewinnt man aus der Analyse auch Auskunft darüber, wie stark die Tendenz zum Gleichgewicht ist. Ein praktisches Beispiel ist das Problem der Kaufkraftparität. Eigentlich müsste eine Ware im Land A ungefähr so viel kosten wie im Land B, die Preise mit dem jeweils gültigen Wechselkurs umgerechnet. Denn wenn ein Preis in A höher ist als in B, kann man einen Gewinn erzielen, indem man die entsprechende Ware in Massen von B nach A exportiert; daraufhin gleichen sich durch Verknappung in B und höheres Angebot in A die Preise an. Das ist in diesem Fall die aufs Gleichgewicht hinwirkende Kraft.
Allerdings gibt es große und dauerhafte Abweichungen von der Kaufkraftparität, wie jedem Auslandstouristen auf der Stelle auffällt. Das gilt auch dann, wenn offensichtliche Faktoren wie Zölle und Transportkosten keine Rolle spielen. Die Suche nach den Ursachen fördert vielerlei zu Tage: Wechselkurse schwanken, getrieben durch spekulative Erwartungen, viel zu hektisch, als dass ein Exporteur sie unmittelbar zur Grundlage seiner Planungen machen könnte. Erst von einem langfristigen Trend lässt er sich beeindrucken; entsprechend verzögert sich sein Beitrag zur Wiederherstellung des Gleichgewichts.
Gewisse Waren – ein Grundstück mit Alpenblick, ein Schweizer Bankkonto – sind ihrer Natur nach nicht exportierbar, ihre Preise unterliegen also auch keiner Tendenz zum Gleichgewicht. Mit dem wirtschaftlichen Aufschwung eines bislang armen Landes werden dort die nicht exportierbaren Güter teurer, weil eine angewachsene Kaufkraft tendenziell die Preise steigen lässt, diese Tendenz aber bei den exportierbaren nicht zum Tragen kommt. Dieser Effekt wirkt dem Ausgleich der Preise entgegen.
Noch ist das Thema Gegenstand heftiger Diskussionen; immerhin weiß man durch Schätzung des Faktors p, dass die Halbwertszeit einer Abweichung von der Kaufkraftparität typischerweise zwischen drei und sieben Jahren liegt.
Robert Engle und die Autoregression
Die Arbeiten von Robert Engle befassen sich vornehmlich mit Zeitreihen, bei denen noch nicht einmal die ersten Differenzen als stationär gelten können. Ein Beispiel ist wieder ein Aktienkurs, diesmal aber über einen längeren Zeitraum aufgezeichnet. Es gibt ruhige und unruhige Zeiten an der Börse; in Letzteren sind die Kursausschläge in beiden Richtungen heftiger, und die "Volatilität" eines Aktienkurses, seine Schwankungsbereitschaft, ist keine Konstante mehr.
Engles Analyse erfasst dieses Phänomen durch Ausdehnen eines guten alten Konzepts auf ein neues Gebiet. Das alte Konzept heißt "Autoregression" ("Rückgriff auf sich selbst", gemeint ist die eigene Vergangenheit) und dient seit jeher dazu, Zeitreihen zu beschreiben, bei denen der aktuelle Wert bis zu einem gewissen Grad durch die unmittelbar vorangegangenen Werte festgelegt ist, zum Beispiel so: xt=axt-1+bxt-2+cxt-3+t. In diesem Fall wäre der aktuelle Wert das gewichtete Mittel aus den letzten drei Tagen plus eine aktuelle "Störung". Das ist ein geläufiges Phänomen; so haben Preise eine gewisse Trägheit und springen nicht schon deswegen plötzlich, weil gewisse Einflussgrößen das tun.
Über die Störung t macht man gewisse Annahmen, insbesondere darüber, wie stark ihre Werte streuen, was in der Varianz der Verteilung ausgedrückt wird. Engles Innovation besteht darin, diese Varianz als nicht konstant, sondern variabel anzunehmen: Sie bildet selbst eine Zeitreihe, die allerdings nicht direkt beobachtbar, sondern aus den Grunddaten zu erschließen ist. Man stellt fest, dass auf einen ruhigen Tag (niedrige Varianz) ein ruhiger zu folgen pflegt und auf einen unruhigen (mit hoher Varianz) wieder ein unruhiger. Diese Trägheit der Varianz beschreibt man wie oben mit einem Autoregressionsansatz.
Damit sind die Zutaten des von Engle geschaffenen Modells namens ARCH beisammen. Die Abkürzung steht für einen echten Zungenbrecher: autoregressive conditional heteroskedasticity. Die beiden griechischen Bestandteile des letzten Wortes bedeuten "verschieden" und "Streuung", und conditional ("bedingt") drückt aus, dass die unterschiedlichen Streuungen durch die vergangenen Werte der Streuung bedingt sind.
Das Modell taugt auch für Prognosen, was in der Finanzwelt hoch geschätzt wird. Wohlgemerkt: Eine Kursschwankung ist nicht prognostizierbar (anderenfalls würden sich alle Marktteilnehmer darauf einstellen und durch ihr Verhalten die Prognose widerlegen), wohl aber in gewissen Grenzen deren Betrag, womit leider die interessanteste Information herausgefallen ist: die über das Vorzeichen. Doch auch diese eingeschränkte Information hilft Geldanlegern, sehr viel genauer als zuvor abzuschätzen, mit welchem Risiko ihr Portefeuille belastet ist.
Angegeben wird in der Regel der value at risk, der Wert, der auf dem Spiel steht, in dem Sinne, dass ein möglicher Verlust diesen Wert mit einer Wahrscheinlichkeit von, sagen wir, 95 Prozent nicht übertreffen wird. Die Anlagestrategie muss die Bedingung erfüllen, dass ein Verlust in dieser Höhe noch verschmerzbar ist.
Eine präzisere Schätzung des value at risk gibt dem Anleger größere Handlungsmöglichkeiten und damit mehr Gewinnchancen. Kein Wunder, dass eine verallgemeinerte Version von ARCH ("Generalized ARCH" oder GARCH) heute in den meisten Software-Programmen für Anlagestrategien steckt.
Aus: Spektrum der Wissenschaft 12 / 2003, Seite 23
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben