Saturday 18 February 2017

Gleitender Durchschnitt Immer Stationär

Eine kurze Einführung in die moderne Zeitreihe Definition Eine Zeitreihe ist eine Zufallsfunktion x t eines Arguments t in einer Menge T. Mit anderen Worten, eine Zeitreihe ist eine Familie von Zufallsvariablen. X t-1. X t. X t1. Die allen Elementen in der Menge T entsprechen, wobei T eine abzählbare unendliche Menge sein soll. Definition Eine beobachtete Zeitreihe t t e T o T gilt als Teil einer Realisierung einer Zufallsfunktion x t. Eine unendliche Menge möglicher Verwirklichungen, die beobachtet werden könnten, wird Ensemble genannt. Um die Dinge strenger zu formulieren, ist die Zeitreihe (oder zufällige Funktion) eine reelle Funktion x (w, t) der beiden Variablen w und t mit ww und t T. Wenn wir den Wert von w festlegen. Haben wir eine reelle Funktion x (t w) der Zeit t, die eine Realisierung der Zeitreihen ist. Wenn wir den Wert von t festlegen, haben wir eine Zufallsvariable x (wt). Für einen gegebenen Zeitpunkt gibt es eine Wahrscheinlichkeitsverteilung über x. Somit kann eine Zufallsfunktion x (w, t) entweder als eine Familie von Zufallsvariablen oder als eine Familie von Realisierungen betrachtet werden. Definition Wir definieren die Verteilungsfunktion der Zufallsvariablen w mit t 0 als P o) x (x). Ähnlich können wir die gemeinsame Verteilung für n Zufallsvariablen definieren. Die Punkte, die die Zeitreihenanalyse von gewöhnlichen statistischen Analysen unterscheiden, sind die folgenden: (1) Die Abhängigkeit von Beobachtungen zu verschiedenen Zeitpunkten spielt eine wesentliche Rolle. Mit anderen Worten, die Reihenfolge der Beobachtungen ist wichtig. In der gewöhnlichen statistischen Analyse wird davon ausgegangen, daß die Beobachtungen voneinander unabhängig sind. (2) Die Domäne von t ist unendlich. (3) Wir müssen eine Schlussfolgerung aus einer Erkenntnis machen. Die Realisierung der Zufallsgröße kann nur einmal zu jedem Zeitpunkt beobachtet werden. In der multivariaten Analyse haben wir viele Beobachtungen über eine endliche Anzahl von Variablen. Dieser kritische Unterschied erfordert die Annahme der Stationarität. Definition Die Zufallsfunktion x t ist streng stationär, wenn alle endlichen Dimensionsverteilungsfunktionen x t gleich bleiben, auch wenn die ganze Gruppe von Punkten t 1. T 2. T n entlang der Zeitachse verschoben wird. Das heißt, wenn für irgendwelche ganzen Zahlen t & sub1; T 2. T n und k. Grafisch könnte man die Realisierung einer streng stationären Reihe als mit nicht nur dem gleichen Pegel in zwei verschiedenen Intervallen abbilden, sondern auch die gleiche Verteilungsfunktion bis hin zu den Parametern, die sie definieren. Die Annahme der Stationarität macht unser Leben einfacher und weniger kostspielig. Ohne Stationarität müssten wir den Prozeß häufig zu jedem Zeitpunkt abtasten, um eine Charakterisierung der Verteilungsfunktionen in der früheren Definition aufzubauen. Stationarität bedeutet, dass wir unsere Aufmerksamkeit auf einige der einfachsten numerischen Funktionen, d. H. Auf die Momente der Verteilungen, beschränken können. Die zentralen Momente sind gegeben durch Definition (i) Der Mittelwert der Zeitreihe t ist d. h. das Moment erster Ordnung. (Ii) Die Autokovarianzfunktion von t ist d. h. das zweite Moment um den Mittelwert. Wenn ts, dann haben Sie die Varianz von x t. Wir wollen die Autokovarianz einer stationären Reihe bezeichnen, wobei k die Differenz zwischen t und s bezeichnet. (Iii) Die Autokorrelationsfunktion (ACF) von t wird verwendet, um die Autokorrelation einer stationären Reihe zu bezeichnen, wobei k die Differenz zwischen t und s bezeichnet. (Iv) Die partielle Autokorrelation (PACF). F kk. Ist die Korrelation zwischen z t und z tk nach Entfernung ihrer gegenseitigen linearen Abhängigkeit von den dazwischenliegenden Variablen z t1. Z t2. Z tk-1. Ein einfacher Weg, die partielle Autokorrelation zwischen z t und z tk zu berechnen, besteht darin, die beiden Regressionen auszuführen und dann die Korrelation zwischen den beiden Restvektoren zu berechnen. Oder, nachdem die Variablen als Abweichung von ihren Mitteln gemessen wurden, kann die partielle Autokorrelation als der LS-Regressionskoeffizient auf zt in dem Modell gefunden werden, wo der Punkt über der Variable anzeigt, dass er als eine Abweichung von seinem Mittel gemessen wird. (V) Die Yule-Walker-Gleichungen liefern eine wichtige Beziehung zwischen den partiellen Autokorrelationen und den Autokorrelationen. Multiplizieren Sie beide Seiten der Gleichung 10 mit z tk-j und nehmen Sie Erwartungen. Dieser Vorgang ergibt die folgende Differenzengleichung in den Autokovarianzen bzw. in den Autokorrelationen. Diese scheinbar einfache Darstellung ist wirklich ein mächtiges Ergebnis. Für j1,2. K können wir das vollständige System von Gleichungen schreiben, bekannt als die Yule-Walker-Gleichungen. Aus der linearen Algebra wissen Sie, dass die Matrix von r s von vollem Rang ist. Daher ist es möglich, die Cramers-Regel sukzessive für k1,2 anzuwenden. Um das System für die partiellen Autokorrelationen zu lösen. Die ersten drei sind Wir haben drei wichtige Ergebnisse auf streng stationäre Serien. Die Implikation ist, dass wir jede endliche Realisierung der Sequenz verwenden können, um den Mittelwert zu schätzen. Zweite . Wenn t streng stationär ist und E t 2 lt dann die Implikation ist, dass die Autokovarianz nur von der Differenz zwischen t und s abhängt, nicht von ihrem chronologischen Zeitpunkt. Wir könnten jedes Paar von Intervallen bei der Berechnung der Autokovarianz verwenden, solange die Zeit zwischen ihnen konstant war. Und wir können jede endliche Realisierung der Daten verwenden, um die Autokovarianzen abzuschätzen. Drittens ist die Autokorrelationsfunktion im Falle einer strengen Stationarität gegeben durch Die Implikation ist, daß die Autokorrelation auch nur von der Differenz zwischen t und s abhängt und wiederum durch eine endliche Realisierung der Daten abgeschätzt werden kann. Wenn unser Ziel darin besteht, Parameter zu schätzen, die die möglichen Realisierungen der Zeitreihen beschreiben, dann ist vielleicht eine strenge Stationarität zu restriktiv. Wenn zum Beispiel der Mittelwert und die Kovarianz von xt konstant sind und unabhängig vom chronologischen Zeitpunkt sind, dann ist es vielleicht nicht wichtig, dass die Verteilungsfunktion für verschiedene Zeitintervalle gleich ist. Definition Eine zufällige Funktion ist im weiten Sinne stationär oder schwach stationär oder stationär im Khinchins-Sinne oder Kovarianz stationär, wenn m 1 (t) m und m 11 (t, s) stationär ist. Strenge Stationarität bedeutet für sich genommen keine schwache Stationarität. Eine schwache Stationarität bedeutet keine strenge Stationarität. Strenge Stationarität mit E t 2 lt bedeutet schwache Stationarität. Ergodische Theoreme beschäftigen sich mit der Frage nach den notwendigen und hinreichenden Bedingungen, um aus einer einzigen Realisierung einer Zeitreihe Schlußfolgerungen zu ziehen. Grundsätzlich geht es darum, schwache Stationarität vorauszusetzen. Theorem Ist t schwach stationär mit mittlerer m und Kovarianzfunktion, so existiert für jedes gegebene e gt 0 und h gt 0 eine Anzahl T o, so dass für alle T gt T o. Wenn und nur wenn diese notwendige und hinreichende Bedingung ist, dass die Autokovarianzen aussterben, wobei in diesem Fall die Stichprobe ein konsistenter Schätzer für das Bevölkerungsmittel ist. Korollar Wenn t mit E tk xt 2 lt für jedes t schwach stationär ist und E tk xtx tsk x ts unabhängig von t für irgendeine ganze Zahl s ist, dann genau dann, wenn A eine Konsequenz der Korollarfolge die Annahme ist, dass xtx tk ist Schwach stationär. Das Ergodische Theorem ist nicht mehr als ein Gesetz von großer Zahl, wenn die Beobachtungen korreliert werden. Man könnte an dieser Stelle über die praktischen Implikationen der Stationarität fragen. Die häufigste Anwendung der Verwendung von Zeitreihen-Techniken ist die Modellierung makroökonomischer Daten, sowohl theoretische als auch atheoretische. Als Beispiel für das erstere könnte man ein Multiplikator-Beschleuniger-Modell haben. Damit das Modell stationär ist, müssen die Parameter bestimmte Werte haben. Ein Test des Modells soll dann die relevanten Daten sammeln und die Parameter abschätzen. Wenn die Schätzungen nicht mit der Stationarität übereinstimmen, muss man entweder das theoretische Modell oder das statistische Modell oder beide überdenken. Wir haben jetzt genügend Maschinen, um über die Modellierung von univariaten Zeitreihendaten zu sprechen. Es gibt vier Schritte in dem Prozess. 1. Modellmodelle aus theoretischen und Erfahrungswissen 2. Identifizierung der Modelle anhand der Daten (beobachtete Reihen) 3. Modellierung der Modelle (Schätzung der Modellparameter) 4. Modellprüfung Im vierten Schritt sind wir nicht Zufrieden sind wir wieder zu Schritt eins. Der Prozess ist iterativ, bis eine weitere Überprüfung und Anpassung keine weitere Ergebnisverbesserung ergibt. Schematische Darstellung Einige einfache Operationen umfassen die folgenden: Der Rückschaltoperator Bx tx t-1 Der Vorwärtsoperator Fx tx t1 Der Differenzoperator 1 - B xtxt - x t-1 Der Differenzoperator verhält sich in einer Weise, die mit der Konstanten in einer unendlichen Reihe übereinstimmt . Das heißt, sein Inverses ist die Grenze einer unendlichen Summe. Das heißt, -1 (1-B) -1 1 (1-B) 1BB 2. Der Integrationsoperator S -1 Da es der Inverse des Differenzoperators ist, dient der Integrationsoperator der Konstruktion der Summe. MODELLBAU In diesem Abschnitt bieten wir einen kurzen Überblick über die häufigsten Arten von Zeitreihenmodellen. Ausgehend von den Kenntnissen des Datenerzeugungsprozesses greift eine Klasse von Modellen zur Identifikation und Schätzung aus den folgenden Möglichkeiten auf. Definition Angenommen, Ex t m ist unabhängig von t. Ein Modell wie mit den Merkmalen wird das autoregressive Modell der Ordnung p, AR (p) genannt. Definition Wenn eine zeitabhängige Variable (stochastischer Prozeß) t genügt, dann heißt t die Eigenschaft von Markov. Auf der LHS ist die Erwartung auf die unendliche Geschichte von x t bedingt. Auf der RHS ist es nur auf einen Teil der Geschichte bedingt. Aus den Definitionen wird ein AR (p) - Modell gesehen, um die Markov-Eigenschaft zu erfüllen. Mit Hilfe des Backshift-Operators können wir unser AR-Modell als Theorem schreiben. Eine notwendige und hinreichende Bedingung für das stationäre AR (p) - Modell ist, dass alle Wurzeln des Polynoms außerhalb des Einheitskreises liegen. Beispiel 1 Betrachten Sie die AR (1) Die einzige Wurzel von 1 - f 1 B 0 ist B 1 f 1. Voraussetzung für die Stationarität ist die. Wenn dann die beobachtete Reihe sehr frenetisch erscheinen wird. Z. B. Wobei der weiße Rauschterm eine Normalverteilung mit einem Nullmittelwert und einer Varianz von Eins aufweist. Die Beobachtungen wechseln Schild mit fast jeder Beobachtung. Wenn auf der anderen Seite, dann wird die beobachtete Reihe viel glatter sein. In dieser Reihe neigt eine Beobachtung dazu, über 0 zu sein, wenn ihr Vorgänger über Null war. Die Varianz von e t ist s e 2 für alle t. Die Varianz von xt. Wenn es null bedeutet, ist gegeben durch Da die Reihe stationär ist, können wir schreiben. Die Autokovarianzfunktion einer AR (1) - Serie ist also ohne Verlust der Allgemeingültigkeit m 0. Um zu sehen, wie dies in den AR-Parametern aussieht, machen wir von der Tatsache Gebrauch, dass wir xt wie folgt schreiben können: Multiplizieren mit x Tk und nehmen Erwartungen Beachten Sie, dass die Autokovarianzen sterben, wie k wächst. Die Autokorrelationsfunktion ist die Autokovarianz geteilt durch die Varianz des weißen Rauschterms. Oder, . Mit Hilfe der früheren Yule-Walker-Formeln für die partiellen Autokorrelationen haben wir für einen AR (1) die Autokorrelationen exponentiell abgestorben und die partiellen Autokorrelationen weisen eine Spike bei einer Verzögerung auf und sind danach null. Beispiel 2 Betrachten Sie das AR (2) Das zugehörige Polynom im Lag-Operator. Die Wurzeln konnten unter Verwendung der quadratischen Formel gefunden werden. Die Wurzeln sind Wenn die Wurzeln real sind und als Folge wird die Serie exponentiell in Reaktion auf einen Schock abnehmen. Wenn die Wurzeln komplex sind und die Reihe als gedämpfte Vorzeichenwelle erscheinen wird. Der Stationaritätssatz legt die folgenden Bedingungen für die AR-Koeffizienten fest Die Autokovarianz für einen AR (2) - Prozeß mit Nullmittelwert wird durch die Varianz von xt dividiert Durch die Varianz von xt ergibt sich die Autokorrelationsfunktion Da wir schreiben können Ähnlich für die zweite und dritte Autokorrelation Die andere Autokorrelationen werden rekursiv gelöst. Ihr Muster wird durch die Wurzeln der linearen Differenzgleichung zweiter Ordnung geregelt. Wenn die Wurzeln reell sind, werden die Autokorrelationen exponentiell abnehmen. Wenn die Wurzeln komplex sind, erscheinen die Autokorrelationen als gedämpfte Sinuswelle. Unter Verwendung der Yule-Walker-Gleichungen sind die partiellen Autokorrelationen wieder, die Autokorrelationen sterben langsam ab. Die partielle Autokorrelation hingegen ist sehr charakteristisch. Es hat Spikes an ein und zwei Lags und ist danach null. Theorem Ist x t ein stationärer AR (p) - Prozeß, so kann er äquivalent als lineares Filtermodell geschrieben werden. Das heißt, das Polynom im Rückschaltoperator kann invertiert werden und das AR (p) als ein gleitender Durchschnitt von unendlicher Ordnung stattdessen geschrieben werden. Beispiel Angenommen, z t ist ein AR (1) Prozess mit Null-Mittelwert. Was für die aktuelle Periode gilt, muss auch für vorherige Perioden gelten. Durch rekursive Substitution können wir quadratisch beide Seiten schreiben und Erwartungen nehmen, die rechte Seite verschwindet als k seit f lt 1. Daher konvergiert die Summe zu zt im quadratischen Mittel. Wir können das AR (p) - Modell als linearen Filter umschreiben, den wir als stationär kennen. Die Autokorrelationsfunktion und die partielle Autokorrelation allgemein Angenommen, dass eine stationäre Reihe z t mit mittlerem Nullpunkt als autoregressiv bekannt ist. Die Autokorrelationsfunktion eines AR (p) wird gefunden, indem die Erwartungen und die Durchdringung durch die Varianz von zt erfüllt werden. Dies besagt, daß rk eine Linearkombination der vorherigen Autokorrelationen ist. Wir können dies bei der Anwendung der Cramers-Regel auf (i) beim Lösen von fkk verwenden. Insbesondere können wir sehen, dass diese lineare Abhängigkeit f kk 0 für k gt p bewirkt. Diese Besonderheit der Autoregressive-Serie wird sehr nützlich sein, wenn es um die Identifizierung einer unbekannten Serie kommt. Wenn Sie entweder MathCAD oder MathCAD Explorer haben, dann können Sie experimentieren interactivley mit einigen der AR (p) Ideen präsentiert hier. Moving Average Models Betrachten Sie ein dynamisches Modell, in dem die Reihe von Interesse hängt nur von einem Teil der Geschichte des weißen Rausch Begriff. Schematisch kann dies als Definition dargestellt werden Definition Angenommen, t ist eine unkorrelierte Folge von i. i.d. Zufallsvariablen mit null Mittelwert und endlicher Varianz. Dann ist ein gleitender Durchschnittsprozess der Ordnung q, MA (q) gegeben durch Theorem: Ein gleitender Durchschnittsprozess ist immer stationär. Beweis: Anstatt mit einem allgemeinen Beweis zu beginnen, machen wir es für einen bestimmten Fall. Angenommen, z t ist MA (1). Dann. Natürlich hat ein t null mittlere und endliche Varianz. Der Mittelwert von zt ist stets Null. Die Autokovarianzen werden gegeben durch Sie können sehen, dass der Mittelwert der Zufallsvariablen nicht von der Zeit in irgendeiner Weise abhängt. Sie können auch sehen, dass die Autokovarianz hängt nur von den Offset s, nicht auf, wo in der Reihe, die wir beginnen. Wir können das gleiche Resultat allgemeiner mit dem beginnen, das die alternierende gleitende mittlere Darstellung hat. Man betrachte zunächst die Varianz von zt. Durch rekursive Substitution können Sie zeigen, dass dies gleich der Summe ist, die wir kennen, um eine konvergente Reihe zu sein, so dass die Varianz endlich ist und von der Zeit unabhängig ist. Die Kovarianzen sind z. B. Sie können auch sehen, dass die Auto-Kovarianzen nur von den relativen Zeitpunkten abhängen, nicht vom chronologischen Zeitpunkt. Unsere Schlussfolgerung ist, dass ein MA () - Prozess stationär ist. Für den allgemeinen MA (q) - Prozeß ist die Autokorrelationsfunktion gegeben durch Die partielle Autokorrelationsfunktion stirbt glatt ab. Sie können dies sehen, indem Sie den Prozess invertieren, um einen AR () - Prozess zu erhalten. Wenn Sie entweder MathCAD oder MathCAD Explorer haben, können Sie interaktiv mit einigen der hier vorgestellten MA (q) Ideen experimentieren. Mixed Autoregressive - Moving Average Models Definition Eine t ist eine unkorrelierte Folge von i. i.d. Zufallsvariablen mit null Mittelwert und endlicher Varianz. Dann ist ein autoregressiver, gleitender Durchschnittsprozess der Ordnung (p, q), ARMA (p, q) gegeben. Die Wurzeln des autoregressiven Operators müssen alle außerhalb des Einheitskreises liegen. Die Anzahl der Unbekannten ist pq2. Die p und q sind offensichtlich. Die 2 enthält die Ebene des Prozesses, m. Und die Varianz des weißen Rauschterms sa 2. Angenommen, wir kombinieren unsere AR - und MA-Darstellungen so, dass das Modell und die Koeffizienten so normiert sind, dass bo1. Dann wird diese Darstellung als ARMA (p, q) bezeichnet Wurzeln von (1) liegen alle außerhalb des Einheitskreises. Angenommen, die y t werden als Abweichungen vom Mittelwert gemessen, so dass wir ein o fallen lassen können. Dann wird die Autokovarianz-Funktion abgeleitet, wenn jgtq dann die MA-Begriffe ausfallen in Erwartung zu geben, Das ist, die Autokovarianz-Funktion sieht aus wie eine typische AR für Lags nach q sie sterben glatt nach q, aber wir können nicht sagen, wie 1,2,133, Q aussehen wird. Wir können auch die PACF für diese Klasse von Modell zu untersuchen. Das Modell kann geschrieben werden. Wir können dies als MA (inf) - Prozeß schreiben, der nahelegt, daß die PACFs langsam aussterben. Mit einiger Arithmetik konnten wir zeigen, dass dies nur nach den ersten p Spikes des AR-Teils geschieht. Empirisches Gesetz Tatsächlich kann eine stationäre Zeitreihe durch p 2 und q 2 repräsentiert werden. Wenn Ihr Unternehmen eine gute Annäherung an die Realität und die Güte der Anpassung liefern soll, ist Ihr Kriterium dann ein verschwenderisches Modell bevorzugt. Wenn Ihr Interesse prädiktive Effizienz ist, dann ist das sparsame Modell bevorzugt. Experimentieren Sie mit den ARMA Ideen, die oben mit einem MathCAD Arbeitsblatt. Autoregressive Integrate Moving Average Modelle MA Filter AR Filter Filter integrieren Manchmal ist der Prozess oder die Serie, die wir zu modellieren versuchen, nicht stationär in Ebenen. Aber es könnte stationär sein in, sagen wir, erste Unterschiede. Das heißt, in seiner ursprünglichen Form sind die Autokovarianzen für die Reihe nicht unabhängig vom chronologischen Zeitpunkt. Wenn wir jedoch eine neue Serie konstruieren, die die ersten Unterschiede der ursprünglichen Reihe ist, so erfüllt diese neue Reihe die Definition der Stationarität. Dies ist oft der Fall mit wirtschaftlichen Daten, die sehr trendorientiert ist. Definition Nehmen wir an, daß zt nicht stationär ist, aber zt - zt-1 die Definition der Stationarität erfüllt. Auch bei, das weiße Rauschen Begriff hat endlichen Mittelwert und Varianz. Wir können das Modell als Dies ist ein ARIMA (p, d, q) - Modell zu schreiben. P identifiziert die Reihenfolge des AR-Operators, d identifiziert das Einschalten. Q identifiziert die Reihenfolge des MA-Operators. Wenn die Wurzeln von f (B) außerhalb des Einheitskreises liegen, können wir ARIMA (p, d, q) als lineares Filter umschreiben. D. h. Kann er als MA () geschrieben werden. Wir behalten uns die Diskussion über die Erkennung von Einheitswurzeln für einen anderen Teil der Vorlesungsunterlagen vor. Man betrachte ein dynamisches System mit x t als Eingangsreihe und y t als Ausgangsreihe. Schematisch haben wir Diese Modelle sind eine diskrete Analogie der linearen Differentialgleichungen. Wir nehmen die folgende Beziehung an, wobei b eine reine Verzögerung anzeigt. Denken Sie daran, dass (1-B). Wenn das Koeffizientenpolynom auf yt invertiert werden kann, dann kann das Modell geschrieben werden, da V (B) als Impulsantwortfunktion bekannt ist. Wir werden diese Terminologie wieder in unserer späteren Diskussion der Vektor autoregressive kommen. Kointegrations - und Fehlerkorrekturmodellen. MODEL-IDENTIFIKATION Nachdem man sich für eine Klasse von Modellen entschieden hat, muss man nun die Reihenfolge der Prozesse identifizieren, die die Daten erzeugen. Das heißt, man muss die Vermutungen hinsichtlich der Reihenfolge der AR - und MA-Prozesse, die die stationäre Serie treiben, gut abschätzen. Eine stationäre Serie ist vollständig durch ihre Mittelwerte und Autokovarianzen charakterisiert. Aus analytischen Gründen arbeiten wir meistens mit Autokorrelationen und partiellen Autokorrelationen. Diese beiden grundlegenden Werkzeuge haben einzigartige Muster für stationäre AR - und MA-Prozesse. Man könnte Beispielabschätzungen der Autokorrelation und partiellen Autokorrelationsfunktionen berechnen und sie mit den tabellierten Ergebnissen für Standardmodelle vergleichen. Beispiel Autokovarianz Funktion Stichprobe Autokorrelationsfunktion Die Beispielteilautokorrelationen werden die Autokorrelationen verwenden und partielle Autokorrelationen sind im Prinzip einfach. Angenommen, wir haben eine Folge zt. Mit Nullmittelwert, der AR (1) ist. Wenn wir die Regression von z t2 auf z t1 und z t ausführen würden, würden wir erwarten, daß der Koeffizient auf zt nicht von Null verschieden ist, da diese partielle Autokorrelation Null sein sollte. Andererseits sollten die Autokorrelationen für diese Reihe exponentiell abnehmen, um die Verzögerungen zu erhöhen (siehe das obige Beispiel AR (1)). Angenommen, die Serie ist wirklich ein gleitender Durchschnitt. Die Autokorrelation sollte überall Null sein, aber bei der ersten Verzögerung. Die partielle Autokorrelation sollte exponentiell absterben. Sogar von unserem sehr flüchtigen Rummel durch die Grundlagen der Zeitreihenanalyse ist es offensichtlich, dass es eine Dualität zwischen AR - und MA-Prozessen gibt. Diese Dualität kann in der folgenden Tabelle zusammengefasst werden.4.2 Lineare stationäre Modelle für die Zeitreihe, wobei die Zufallsvariable die Innovation genannt wird, weil sie den Teil der beobachteten Variablen darstellt, der aufgrund der vergangenen Werte nicht vorhersehbar ist. Das allgemeine Modell (4.4) geht davon aus, dass das Ausgangssignal eines linearen Filters ist, der die bisherigen Innovationen transformiert, dh einen linearen Prozess darstellt. Diese Linearitätsannahme basiert auf dem Wolds-Zerlegungstheorem (Wold 1938), das besagt, dass jeder diskrete stationäre Kovarianzprozess als Summe zweier nicht korrelierter Prozesse ausgedrückt werden kann, wobei er rein deterministisch ist und ein rein indeterministischer Prozess ist, der als linear geschrieben werden kann Summe des Innovationsprozesses: wo ist eine Folge von seriell unkorrelierten Zufallsvariablen mit null mittlerer und gemeinsamer Varianz. Voraussetzung für die Stationarität. Die Formulierung (4.4) ist eine endliche Reparametrisierung der unendlichen Darstellung (4.5) - (4.6) mit der Konstanten. Es wird üblicherweise in Form des durch den definierten Verzögerungsoperators geschrieben, der einen kürzeren Ausdruck ergibt: wobei die Verzögerungsoperatorpolynome und das Polynom bzw. das Polynom aufgerufen werden. Um eine Parameterredundanz zu vermeiden, gehen wir davon aus, dass es keine gemeinsamen Faktoren zwischen den Komponenten und den Komponenten gibt. Als nächstes werden wir die Handlung einiger Zeitreihen studieren, die von stationären Modellen mit dem Ziel entwickelt werden, die Hauptmuster ihrer zeitlichen Entwicklung zu bestimmen. Abbildung 4.2 enthält zwei Serien, die mit Hilfe des Genarma-Quantlets aus den folgenden stationären Prozessen generiert werden: Abbildung 4.2: Zeitreihen, die von Modellen erzeugt werden Erwartungsgemäß bewegen sich beide Zeitreihen um ein konstantes Niveau, ohne Änderungen der Varianz aufgrund der stationären Eigenschaft. Darüber hinaus ist dieses Niveau nahe dem theoretischen Mittel des Prozesses, und der Abstand jedes Punktes zu diesem Wert ist sehr selten außerhalb der Grenzen. Darüber hinaus zeigt die Entwicklung der Serie lokale Abweichungen vom Mittelwert des Prozesses, der als das mittlere Reversionsverhalten, das die stationären Zeitreihen charakterisiert, bekannt ist. Wir wollen die Eigenschaften der verschiedenen Prozesse genauer untersuchen, insbesondere die Autokovarianzfunktion, die die dynamischen Eigenschaften eines stochastischen stationären Prozesses erfasst. Diese Funktion hängt von den Maßeinheiten ab, so dass das übliche Maß für den Grad der Linearität zwischen den Variablen der Korrelationskoeffizient ist. Im Fall stationärer Prozesse ist der Autokorrelationskoeffizient bei Verzögerung, bezeichnet mit, als die Korrelation zwischen und definiert. Somit ist die Autokorrelationsfunktion (ACF) die Autokovarianzfunktion, die durch die Varianz standardisiert ist. Die Eigenschaften des ACF sind: Angesichts der Symmetrieeigenschaft (4.10) wird der ACF in der Regel durch ein Balkendiagramm an den nichtnegativen Verzögerungen dargestellt, das als einfaches Korrelogramm bezeichnet wird. Ein weiteres nützliches Werkzeug zur Beschreibung der Dynamik eines stationären Prozesses ist die partielle Autokorrelationsfunktion (PACF). Der partielle Autokorrelationskoeffizient bei Verzögerung misst die lineare Zuordnung zwischen den Werten der Zwischenwerte. Daher ist es nur der Koeffizient im linearen Regressionsmodell: Die Eigenschaften der PACF sind äquivalent zu denen des ACF (4.8) - (4.10) und es ist leicht zu beweisen, dass (Box und Jenkins 1976). Wie die ACF hängt die partielle Autokorrelationsfunktion nicht von den Maßeinheiten ab und wird durch ein Balkendiagramm an den nichtnegativen Verzögerungen dargestellt, das als partielles Korrelogramm bezeichnet wird. Die dynamischen Eigenschaften jedes stationären Modells bestimmen eine bestimmte Form der Korrelogramme. Darüber hinaus kann gezeigt werden, dass für jeden stationären Prozess, beide Funktionen, ACF und PACF, nähern sich Null, wie die Verzögerung tendiert zu unendlich. Die Modelle sind nicht immer stationäre Prozesse, daher ist es notwendig, zunächst die Bedingungen für die Stationarität zu bestimmen. Es gibt Unterklassen von Modellen, die besondere Eigenschaften haben, so dass wir sie getrennt studieren. Also, wenn und, es ist ein weißes Rauschen Prozess. Wenn es ein reiner gleitender Durchschnitt der Ordnung ist. , Und wenn es ein reiner autoregressiver Prozess der Ordnung ist. . 4.2.1 Weißes Rauschen Das einfachste Modell ist ein weißes Rauschen, bei dem es sich um eine Folge von unkorrelierten Nullmittelwerten mit konstanter Varianz handelt. Es ist mit bezeichnet. Dieser Prozeß ist stationär, wenn seine Varianz endlich ist, da die Bedingung (4.1) - (4.3) verifiziert wird. Zudem ist die Autokovarianzfunktion nicht korreliert: Abbildung 4.7 zeigt zwei simulierte Zeitreihen, die aus Prozessen mit null Mittelwerten und Parametern und -0.7 erzeugt wurden. Der autoregressive Parameter misst die Persistenz vergangener Ereignisse in die aktuellen Werte. Wenn zum Beispiel ein positiver (oder negativer) Schock positiv (oder negativ) für einen längeren Zeitraum wirkt, der um so größer ist, je größer der Wert von ist. Wenn sich die Serie durch den Wechsel in Richtung der Wirkung, dh einen Schock, der sich positiv auf das Moment auswirkt, mehr grob um den Mittelpunkt bewegt, hat dies negative Auswirkungen auf, positiv. Der Prozeß ist immer invertierbar und er ist stationär, wenn der Parameter des Modells in der Region liegt. Um den stationären Zustand zu beweisen, schreiben wir zuerst die in der gleitenden Durchschnittsform durch rekursive Substitution von in (4.14): Abbildung 4.8: Populationskorrelogramme für Prozesse Dies ist eine gewichtete Summe aus vergangenen Innovationen. Die Gewichte hängen vom Wert des Parameters ab: wann, (oder) der Einfluss einer gegebenen Innovation durch die Zeit zunimmt (oder abnimmt). Erwartungen an (4.15), um den Mittelwert des Prozesses zu berechnen, erhalten wir: Angenommen, das Ergebnis ist eine Summe unendlicher Glieder, die für alle Werte nur dann konvergiert, wenn in diesem Fall. Ein ähnliches Problem erscheint, wenn wir das zweite Moment berechnen. Der Beweis kann vereinfacht werden unter der Annahme, dass, das heißt,. Dann ist Varianz: Wiederum geht die Varianz in unendlich bis auf, in welchem ​​Fall. Es ist leicht zu überprüfen, dass sowohl der Mittelwert und die Varianz explodieren, wenn diese Bedingung nicht hält. Die Autokovarianzfunktion eines stationären Prozesses ist daher die Autokorrelationsfunktion für das stationäre Modell: Das heißt, das Korrelogramm zeigt einen exponentiellen Abfall mit positiven Werten immer, wenn positiv und bei negativ positiven Schwingungen if negativ ist (siehe Abbildung 4.8). Weiterhin nimmt die Abklinggeschwindigkeit ab, je größer der Wert ist, desto stärker ist die dynamische Korrelation im Prozess. Schließlich gibt es einen Cutoff in der partiellen Autokorrelationsfunktion bei der ersten Verzögerung. Abbildung 4.9: Populations-Korrelogramme für Prozesse Es kann gezeigt werden, dass der allgemeine Prozess (Box und Jenkins 1976): Ist nur stationär, wenn die Wurzeln der charakteristischen Gleichung des Polynoms außerhalb des Einheitskreises liegen. Der Mittelwert eines stationären Modells ist. Es ist immer invertierbar für alle Werte der Parameter. Its ACF geht auf null exponentiell, wenn die Wurzeln der realen oder mit Sinus-Cosinus-Welle Fluktuationen, wenn sie komplex sind. Its PACF hat einen Cutoff auf der Lag, das heißt, Korrelokolle für komplexere Modelle, wie z. B. die, sind in Abbildung 4.9 zu sehen. Sie sind den Mustern sehr ähnlich, wenn die Prozesse reale Wurzeln haben, nehmen aber eine sehr unterschiedliche Form ein, wenn die Wurzeln komplex sind (siehe das erste Grafikpaar der Abbildung 4.9). 4.2.4 Autoregressives Moving Average-Modell Das allgemeine (endliche) autoregressive Moving Average-Modell von Aufträgen ist: Moving Average und exponentielle Glättungsmodelle Als erster Schritt, um jenseits von Mittelwerten, zufälligen Walk-Modellen und linearen Trendmodellen nonseasonal zu gehen Muster und Trends können mit einem gleitenden Durchschnitt oder Glättungsmodell extrapoliert werden. Die grundlegende Annahme hinter Mittelwertbildung und Glättungsmodellen ist, dass die Zeitreihe lokal stationär mit einem sich langsam verändernden Mittelwert ist. Daher nehmen wir einen bewegten (lokalen) Durchschnitt, um den aktuellen Wert des Mittelwerts abzuschätzen und dann als die Prognose für die nahe Zukunft zu verwenden. Dies kann als Kompromiss zwischen dem mittleren Modell und dem random-walk-ohne-Drift-Modell betrachtet werden. Die gleiche Strategie kann verwendet werden, um einen lokalen Trend abzuschätzen und zu extrapolieren. Ein gleitender Durchschnitt wird oft als "quotsmoothedquot" - Version der ursprünglichen Serie bezeichnet, da die kurzzeitige Mittelung die Wirkung hat, die Stöße in der ursprünglichen Reihe zu glätten. Durch Anpassen des Glättungsgrades (die Breite des gleitenden Durchschnitts) können wir hoffen, eine Art von optimaler Balance zwischen der Leistung des Mittelwerts und der zufälligen Wandermodelle zu erreichen. Die einfachste Art der Mittelung Modell ist die. Einfache (gleichgewichtige) Moving Average: Die Prognose für den Wert von Y zum Zeitpunkt t1, der zum Zeitpunkt t gemacht wird, entspricht dem einfachen Mittelwert der letzten m Beobachtungen: (Hier und anderswo werde ich das Symbol 8220Y-hat8221 stehen lassen Für eine Prognose der Zeitreihe Y, die am frühestmöglichen früheren Zeitpunkt durch ein gegebenes Modell durchgeführt wird.) Dieser Mittelwert wird auf den Zeitraum t (m1) 2 zentriert, was impliziert, daß die Schätzung des lokalen Mittels dazu neigt, hinter dem wahr zu liegen Wert des lokalen Mittels um etwa (m1) 2 Perioden. Somit ist das Durchschnittsalter der Daten im einfachen gleitenden Durchschnitt (m1) 2 relativ zu der Periode, für die die Prognose berechnet wird, angegeben: dies ist die Zeitspanne, in der die Prognosen dazu tendieren, hinter den Wendepunkten der Daten zu liegen . Wenn Sie z. B. die letzten 5 Werte mitteln, werden die Prognosen etwa 3 Perioden spät sein, wenn sie auf Wendepunkte reagieren. Beachten Sie, dass, wenn m1, die einfache gleitende Durchschnitt (SMA) - Modell ist gleichbedeutend mit der random walk-Modell (ohne Wachstum). Wenn m sehr groß ist (vergleichbar der Länge des Schätzzeitraums), entspricht das SMA-Modell dem mittleren Modell. Wie bei jedem Parameter eines Prognosemodells ist es üblich, den Wert von k anzupassen, um den besten Quotienten der Daten zu erhalten, d. H. Die kleinsten Prognosefehler im Durchschnitt. Hier ist ein Beispiel einer Reihe, die zufällige Fluktuationen um ein sich langsam veränderndes Mittel zu zeigen scheint. Erstens können wir versuchen, es mit einem zufälligen Fußmodell, das entspricht einem einfachen gleitenden Durchschnitt von 1 Begriff entspricht: Das zufällige gehen Modell reagiert sehr schnell auf Änderungen in der Serie, aber dabei nimmt sie einen Großteil der quotnoisequot in der Daten (die zufälligen Fluktuationen) sowie das Quotsignalquot (das lokale Mittel). Wenn wir stattdessen einen einfachen gleitenden Durchschnitt von 5 Begriffen anwenden, erhalten wir einen glatteren Satz von Prognosen: Der 5-Term-einfache gleitende Durchschnitt liefert in diesem Fall deutlich kleinere Fehler als das zufällige Wegmodell. Das Durchschnittsalter der Daten in dieser Prognose beträgt 3 ((51) 2), so dass es dazu neigt, hinter den Wendepunkten um etwa drei Perioden zu liegen. (Zum Beispiel scheint ein Rückgang in Periode 21 aufgetreten zu sein, aber die Prognosen drehen sich erst um einige Zeit später.) Beachten Sie, dass die Langzeitprognosen des SMA-Modells eine horizontale Gerade sind, genau wie beim zufälligen Weg Modell. Somit geht das SMA-Modell davon aus, dass es keinen Trend in den Daten gibt. Während jedoch die Prognosen aus dem Zufallswegmodell einfach dem letzten beobachteten Wert entsprechen, sind die Prognosen des SMA-Modells gleich einem gewichteten Mittelwert der neueren Werte. Die von Statgraphics berechneten Konfidenzgrenzen für die Langzeitprognosen des einfachen gleitenden Durchschnitts werden nicht breiter, wenn der Prognosehorizont zunimmt. Dies ist offensichtlich nicht richtig Leider gibt es keine zugrunde liegende statistische Theorie, die uns sagt, wie sich die Vertrauensintervalle für dieses Modell erweitern sollten. Allerdings ist es nicht zu schwer, empirische Schätzungen der Konfidenzgrenzen für die längerfristigen Prognosen zu berechnen. Beispielsweise können Sie eine Tabellenkalkulation einrichten, in der das SMA-Modell für die Vorhersage von 2 Schritten im Voraus, 3 Schritten voraus usw. innerhalb der historischen Datenprobe verwendet wird. Sie könnten dann die Stichproben-Standardabweichungen der Fehler bei jedem Prognosehorizont berechnen und dann Konfidenzintervalle für längerfristige Prognosen durch Addieren und Subtrahieren von Vielfachen der geeigneten Standardabweichung konstruieren. Wenn wir einen 9-Term einfach gleitenden Durchschnitt versuchen, erhalten wir sogar noch bessere Prognosen und mehr von einem nacheilenden Effekt: Das Durchschnittsalter beträgt jetzt 5 Perioden ((91) 2). Wenn wir einen 19-term gleitenden Durchschnitt nehmen, steigt das Durchschnittsalter auf 10 an: Beachten Sie, dass die Prognosen tatsächlich hinter den Wendepunkten um etwa 10 Perioden zurückbleiben. Welches Maß an Glättung ist am besten für diese Serie Hier ist eine Tabelle, die ihre Fehlerstatistiken vergleicht, darunter auch einen 3-Term-Durchschnitt: Modell C, der 5-Term-Gleitender Durchschnitt, ergibt den niedrigsten Wert von RMSE mit einer kleinen Marge über die 3 - term und 9-Term-Mittelwerte, und ihre anderen Statistiken sind fast identisch. So können wir bei Modellen mit sehr ähnlichen Fehlerstatistiken wählen, ob wir ein wenig mehr Reaktionsfähigkeit oder ein wenig mehr Glätte in den Prognosen bevorzugen würden. (Rückkehr nach oben.) Browns Einfache Exponentialglättung (exponentiell gewichteter gleitender Durchschnitt) Das oben beschriebene einfache gleitende Durchschnittsmodell hat die unerwünschte Eigenschaft, daß es die letzten k-Beobachtungen gleich und vollständig ignoriert. Intuitiv sollten vergangene Daten in einer allmählicheren Weise diskontiert werden - zum Beispiel sollte die jüngste Beobachtung ein wenig mehr Gewicht als die zweitletzte erhalten, und die 2. jüngsten sollten ein wenig mehr Gewicht als die 3. jüngsten erhalten, und bald. Das einfache exponentielle Glättungsmodell (SES) erfüllt dies. 945 bezeichnen eine quotsmoothing constantquot (eine Zahl zwischen 0 und 1). Eine Möglichkeit, das Modell zu schreiben, besteht darin, eine Serie L zu definieren, die den gegenwärtigen Pegel (d. H. Den lokalen Mittelwert) der Serie, wie er aus Daten bis zu der Zeit geschätzt wird, darstellt. Der Wert von L zur Zeit t wird rekursiv von seinem eigenen vorherigen Wert wie folgt berechnet: Somit ist der aktuelle geglättete Wert eine Interpolation zwischen dem vorher geglätteten Wert und der aktuellen Beobachtung, wobei 945 die Nähe des interpolierten Wertes auf die neueste steuert Überwachung. Die Prognose für die nächste Periode ist einfach der aktuelle geglättete Wert: Äquivalent können wir die nächste Prognose direkt in Form früherer Prognosen und früherer Beobachtungen in einer der folgenden gleichwertigen Versionen ausdrücken. In der ersten Version ist die Prognose eine Interpolation zwischen vorheriger Prognose und vorheriger Beobachtung: In der zweiten Version wird die nächste Prognose durch Anpassung der bisherigen Prognose in Richtung des bisherigen Fehlers um einen Bruchteil 945 erhalten Zeit t. In der dritten Version ist die Prognose ein exponentiell gewichteter (dh diskontierter) gleitender Durchschnitt mit Abzinsungsfaktor 1-945: Die Interpolationsversion der Prognoseformel ist am einfachsten zu verwenden, wenn Sie das Modell in einer Tabellenkalkulation implementieren Einzelne Zelle und enthält Zellverweise, die auf die vorhergehende Prognose, die vorherige Beobachtung und die Zelle mit dem Wert von 945 zeigen. Beachten Sie, dass, wenn 945 1, das SES-Modell zu einem zufälligen Weg-Modell (ohne Wachstum) äquivalent ist. Wenn 945 0 ist, entspricht das SES-Modell dem mittleren Modell, wobei angenommen wird, dass der erste geglättete Wert gleich dem Mittelwert gesetzt ist. (Zurück zum Seitenanfang.) Das Durchschnittsalter der Daten in der Simple-Exponential-Smoothing-Prognose beträgt 1 945, bezogen auf den Zeitraum, für den die Prognose berechnet wird. (Dies sollte nicht offensichtlich sein, kann aber leicht durch die Auswertung einer unendlichen Reihe gezeigt werden.) Die einfache gleitende Durchschnittsprognose neigt daher zu Verzögerungen hinter den Wendepunkten um etwa 1 945 Perioden. Wenn beispielsweise 945 0,5 die Verzögerung 2 Perioden beträgt, wenn 945 0,2 die Verzögerung 5 Perioden beträgt, wenn 945 0,1 die Verzögerung 10 Perioden und so weiter ist. Für ein gegebenes Durchschnittsalter (d. H. Eine Verzögerung) ist die einfache exponentielle Glättungsprognose (SES) der simplen gleitenden Durchschnittsprognose (SMA) etwas überlegen, weil sie relativ viel mehr Gewicht auf die jüngste Beobachtung - i. e stellt. Es ist etwas mehr quresponsivequot zu Änderungen, die sich in der jüngsten Vergangenheit. Zum Beispiel haben ein SMA - Modell mit 9 Terminen und ein SES - Modell mit 945 0,2 beide ein durchschnittliches Alter von 5 Jahren für die Daten in ihren Prognosen, aber das SES - Modell legt mehr Gewicht auf die letzten 3 Werte als das SMA - Modell und am Gleiches gilt für die Werte von mehr als 9 Perioden, wie in dieser Tabelle gezeigt: 822forget8221. Ein weiterer wichtiger Vorteil des SES-Modells gegenüber dem SMA-Modell ist, dass das SES-Modell einen Glättungsparameter verwendet, der kontinuierlich variabel ist und somit leicht optimiert werden kann Indem ein Quotsolverquot-Algorithmus verwendet wird, um den mittleren quadratischen Fehler zu minimieren. Der optimale Wert von 945 im SES-Modell für diese Serie ergibt sich wie folgt: Das durchschnittliche Alter der Daten in dieser Prognose beträgt 10.2961 3,4 Perioden, was ähnlich wie bei einem 6-term einfachen gleitenden Durchschnitt ist. Die Langzeitprognosen aus dem SES-Modell sind eine horizontale Gerade. Wie im SMA-Modell und dem Random-Walk-Modell ohne Wachstum. Es ist jedoch anzumerken, dass die von Statgraphics berechneten Konfidenzintervalle nun in einer vernünftigen Weise abweichen und dass sie wesentlich schmaler sind als die Konfidenzintervalle für das Zufallswegmodell. Das SES-Modell geht davon aus, dass die Reihe etwas vorhersehbarer ist als das Zufallswandermodell. Ein SES-Modell ist eigentlich ein Spezialfall eines ARIMA-Modells. So dass die statistische Theorie der ARIMA-Modelle eine solide Grundlage für die Berechnung der Konfidenzintervalle für das SES-Modell bildet. Insbesondere ist ein SES-Modell ein ARIMA-Modell mit einer nicht sonderbaren Differenz, einem MA (1) - Term und kein konstanter Term. Ansonsten als quotARIMA (0,1,1) - Modell ohne Konstantquot bekannt. Der MA (1) - Koeffizient im ARIMA-Modell entspricht der Größe 1 - 945 im SES-Modell. Wenn Sie zum Beispiel ein ARIMA-Modell (0,1,1) ohne Konstante an die hier analysierte Serie anpassen, ergibt sich der geschätzte MA (1) - Koeffizient auf 0,7029, was fast genau ein Minus von 0,2961 ist. Es ist möglich, die Annahme eines von Null verschiedenen konstanten linearen Trends zu einem SES-Modell hinzuzufügen. Dazu wird ein ARIMA-Modell mit einer nicht sonderbaren Differenz und einem MA (1) - Term mit konstantem, d. H. Einem ARIMA-Modell (0,1,1) mit konstantem Wert angegeben. Die langfristigen Prognosen haben dann einen Trend, der dem durchschnittlichen Trend über den gesamten Schätzungszeitraum entspricht. Sie können dies nicht in Verbindung mit saisonalen Anpassungen tun, da die saisonalen Anpassungsoptionen deaktiviert sind, wenn der Modelltyp auf ARIMA gesetzt ist. Sie können jedoch einen konstanten langfristigen exponentiellen Trend zu einem einfachen exponentiellen Glättungsmodell (mit oder ohne saisonale Anpassung) hinzufügen, indem Sie die Inflationsanpassungsoption im Prognoseverfahren verwenden. Die prozentuale Zinssatzquote (prozentuale Wachstumsrate) pro Periode kann als der Steigungskoeffizient in einem linearen Trendmodell geschätzt werden, das an die Daten in Verbindung mit einer natürlichen Logarithmuswandlung angepasst ist, oder es kann auf anderen unabhängigen Informationen bezüglich der langfristigen Wachstumsperspektiven beruhen . (Rückkehr nach oben.) Browns Linear (dh doppelt) Exponentielle Glättung Die SMA-Modelle und SES-Modelle gehen davon aus, dass es in den Daten keine Tendenzen gibt (die in der Regel in Ordnung sind oder zumindest nicht zu schlecht für 1- Wenn die Daten relativ verrauscht sind), und sie können modifiziert werden, um einen konstanten linearen Trend, wie oben gezeigt, zu integrieren. Was ist mit kurzfristigen Trends Wenn eine Serie eine unterschiedliche Wachstumsrate oder ein zyklisches Muster zeigt, das sich deutlich gegen das Rauschen auszeichnet, und wenn es notwendig ist, mehr als eine Periode vorher zu prognostizieren, könnte die Schätzung eines lokalen Trends auch sein Ein Problem. Das einfache exponentielle Glättungsmodell kann verallgemeinert werden, um ein lineares exponentielles Glättungsmodell (LES) zu erhalten, das lokale Schätzungen sowohl des Niveaus als auch des Trends berechnet. Das einfachste zeitvariable Trendmodell ist Browns lineares exponentielles Glättungsmodell, das zwei verschiedene geglättete Serien verwendet, die zu verschiedenen Zeitpunkten zentriert sind. Die Prognoseformel basiert auf einer Extrapolation einer Linie durch die beiden Zentren. (Eine weiterentwickelte Version dieses Modells, Holt8217s, wird unten diskutiert.) Die algebraische Form des Brown8217s linearen exponentiellen Glättungsmodells, wie die des einfachen exponentiellen Glättungsmodells, kann in einer Anzahl von unterschiedlichen, aber äquivalenten Formen ausgedrückt werden. Die quadratische quadratische Form dieses Modells wird gewöhnlich wie folgt ausgedrückt: Sei S die einfach geglättete Reihe, die durch Anwendung einfacher exponentieller Glättung auf Reihe Y erhalten wird. Das heißt, der Wert von S in der Periode t ist gegeben durch: (Erinnern wir uns, Exponentielle Glättung, dies wäre die Prognose für Y in der Periode t1.) Dann sei Squot die doppelt geglättete Reihe, die man erhält, indem man eine einfache exponentielle Glättung (unter Verwendung desselben 945) auf die Reihe S anwendet: Schließlich die Prognose für Ytk. Für jedes kgt1 ist gegeben durch: Dies ergibt e & sub1; & sub0; (d. h. Cheat ein Bit und die erste Prognose der tatsächlichen ersten Beobachtung gleich) und e & sub2; Y & sub2; 8211 Y & sub1; Nach denen die Prognosen unter Verwendung der obigen Gleichung erzeugt werden. Dies ergibt die gleichen Anpassungswerte wie die Formel auf der Basis von S und S, wenn diese mit S 1 S 1 Y 1 gestartet wurden. Diese Version des Modells wird auf der nächsten Seite verwendet, die eine Kombination von exponentieller Glättung mit saisonaler Anpassung veranschaulicht. Holt8217s Lineares Exponentialglättung Brown8217s LES-Modell berechnet lokale Schätzungen von Pegel und Trend durch Glätten der letzten Daten, aber die Tatsache, dass dies mit einem einzigen Glättungsparameter erfolgt, legt eine Einschränkung für die Datenmuster fest, die es anpassen kann: den Pegel und den Trend Dürfen nicht zu unabhängigen Preisen variieren. Holt8217s LES-Modell adressiert dieses Problem durch zwei Glättungskonstanten, eine für die Ebene und eine für den Trend. Zu jedem Zeitpunkt t, wie in Brown8217s-Modell, gibt es eine Schätzung L t der lokalen Ebene und eine Schätzung T t der lokalen Trend. Hier werden sie rekursiv aus dem zum Zeitpunkt t beobachteten Wert von Y und den vorherigen Schätzungen von Pegel und Trend durch zwei Gleichungen berechnet, die exponentielle Glättung separat anwenden. Wenn der geschätzte Pegel und der Trend zum Zeitpunkt t-1 L t82091 und T t-1 sind. Dann ist die Prognose für Y tshy, die zum Zeitpunkt t-1 gemacht worden wäre, gleich L t-1 T t-1. Wenn der tatsächliche Wert beobachtet wird, wird die aktualisierte Schätzung des Pegels rekursiv berechnet, indem zwischen Y tshy und seiner Prognose L t-1 T t-1 unter Verwendung von Gewichten von 945 und 1- 945 interpoliert wird. Die Änderung des geschätzten Pegels, Nämlich L t 8209 L t82091. Kann als eine verrauschte Messung des Trends zum Zeitpunkt t interpretiert werden. Die aktualisierte Schätzung des Trends wird dann rekursiv berechnet, indem zwischen L t 8209 L t82091 und der vorherigen Schätzung des Trends T t-1 interpoliert wird. Unter Verwendung der Gewichte von 946 und 1-946: Die Interpretation der Trendglättungskonstanten 946 ist analog zu der Pegelglättungskonstante 945. Modelle mit kleinen Werten von 946 nehmen an, dass sich der Trend mit der Zeit nur sehr langsam ändert, während Modelle mit Größere 946 nehmen an, dass sie sich schneller ändert. Ein Modell mit einem großen 946 glaubt, dass die ferne Zukunft sehr unsicher ist, da Fehler in der Trendschätzung bei der Prognose von mehr als einer Periode ganz wichtig werden. (Rückkehr nach oben) Die Glättungskonstanten 945 und 946 können auf übliche Weise geschätzt werden, indem der mittlere quadratische Fehler der 1-Schritt-Voraus-Prognosen minimiert wird. Wenn dies in Statgraphics getan wird, erweisen sich die Schätzungen als 945 0.3048 und 946 0,008. Der sehr geringe Wert von 946 bedeutet, dass das Modell eine sehr geringe Veränderung im Trend von einer Periode zur nächsten annimmt, so dass dieses Modell im Grunde versucht, einen langfristigen Trend abzuschätzen. Analog zur Vorstellung des Durchschnittsalters der Daten, die bei der Schätzung der lokalen Ebene der Reihe verwendet werden, ist das Durchschnittsalter der Daten, die bei der Schätzung des lokalen Trends verwendet werden, proportional zu 1 946, wenn auch nicht exakt gleich . In diesem Fall erweist sich dies als 10.006 125. Dies ist eine sehr genaue Zahl, da die Genauigkeit der Schätzung von 946 nicht wirklich 3 Dezimalstellen beträgt, aber sie ist von der gleichen Größenordnung wie die Stichprobengröße von 100 Dieses Modell ist Mittelung über eine ziemlich große Geschichte bei der Schätzung der Trend. Das Prognose-Diagramm unten zeigt, dass das LES-Modell einen etwas größeren lokalen Trend am Ende der Serie schätzt als der im SEStrend-Modell geschätzte konstante Trend. Außerdem ist der Schätzwert von 945 fast identisch mit dem, der durch Anpassen des SES-Modells mit oder ohne Trend erhalten wird, so dass dies fast das gleiche Modell ist. Nun, sehen diese aussehen wie vernünftige Prognosen für ein Modell, das soll Schätzung einer lokalen Tendenz Wenn Sie 8220eyeball8221 dieser Handlung, sieht es so aus, als ob der lokale Trend nach unten am Ende der Serie gedreht hat Was ist passiert Die Parameter dieses Modells Wurden durch Minimierung des quadratischen Fehlers von 1-Schritt-Voraus-Prognosen, nicht längerfristigen Prognosen, abgeschätzt, wobei der Trend keinen großen Unterschied macht. Wenn alles, was Sie suchen, 1-Schritt-vor-Fehler sind, sehen Sie nicht das größere Bild der Trends über (sagen) 10 oder 20 Perioden. Um dieses Modell im Einklang mit unserer Augapfel-Extrapolation der Daten zu erhalten, können wir die Trendglättungskonstante manuell anpassen, so dass sie eine kürzere Basislinie für die Trendschätzung verwendet. Wenn wir beispielsweise 946 0,1 setzen, beträgt das durchschnittliche Alter der Daten, die bei der Schätzung des lokalen Trends verwendet werden, 10 Perioden, was bedeutet, dass wir den Trend über die letzten 20 Perioden oder so mitteln. Here8217s, was das Prognose-Plot aussieht, wenn wir 946 0,1 setzen, während 945 0,3 halten. Dies scheint intuitiv vernünftig für diese Serie, obwohl es wahrscheinlich gefährlich, diesen Trend mehr als 10 Perioden in der Zukunft zu extrapolieren. Was ist mit den Fehlerstatistiken Hier ist ein Modellvergleich für die beiden oben gezeigten Modelle sowie drei SES-Modelle. Der optimale Wert von 945 für das SES-Modell beträgt etwa 0,3, aber ähnliche Ergebnisse (mit etwas mehr oder weniger Reaktionsfähigkeit) werden mit 0,5 und 0,2 erhalten. (A) Holts linearer Exp. Glättung mit alpha 0.3048 und beta 0,008 (B) Holts linear exp. Glättung mit alpha 0,3 (E) Einfache exponentielle Glättung mit alpha 0,3 (E) Einfache exponentielle Glättung mit alpha 0,2 Ihre Stats sind nahezu identisch, so dass wir wirklich die Wahl auf der Basis machen können Von 1-Schritt-Vorhersagefehlern innerhalb der Datenprobe. Wir müssen auf andere Überlegungen zurückgreifen. Wenn wir glauben, dass es sinnvoll ist, die aktuelle Trendschätzung auf das, was in den letzten 20 Perioden passiert ist, zugrunde zu legen, können wir für das LES-Modell mit 945 0,3 und 946 0,1 einen Fall machen. Wenn wir agnostisch sein wollen, ob es einen lokalen Trend gibt, dann könnte eines der SES-Modelle leichter zu erklären sein, und würde auch für die nächsten 5 oder 10 Perioden mehr Mittelprognosen geben. (Rückkehr nach oben.) Welche Art von Trend-Extrapolation am besten ist: horizontal oder linear Empirische Evidenz deutet darauf hin, dass es, wenn die Daten bereits für die Inflation angepasst wurden (wenn nötig), unprätent ist, kurzfristige lineare Werte zu extrapolieren Trends sehr weit in die Zukunft. Die heutigen Trends können sich in Zukunft aufgrund unterschiedlicher Ursachen wie Produktveralterung, verstärkte Konkurrenz und konjunkturelle Abschwünge oder Aufschwünge in einer Branche abschwächen. Aus diesem Grund führt eine einfache exponentielle Glättung oft zu einer besseren Out-of-Probe, als ansonsten erwartet werden könnte, trotz ihrer quotnaivequot horizontalen Trend-Extrapolation. Damped Trendmodifikationen des linearen exponentiellen Glättungsmodells werden in der Praxis häufig auch eingesetzt, um in seinen Trendprojektionen eine Note des Konservatismus einzuführen. Das Dämpfungs-Trend-LES-Modell kann als Spezialfall eines ARIMA-Modells, insbesondere eines ARIMA-Modells (1,1,2), implementiert werden. Es ist möglich, Konfidenzintervalle um langfristige Prognosen zu berechnen, die durch exponentielle Glättungsmodelle erzeugt werden, indem man sie als Spezialfälle von ARIMA-Modellen betrachtet. (Achtung: Nicht alle Software berechnet die Konfidenzintervalle für diese Modelle korrekt.) Die Breite der Konfidenzintervalle hängt ab von (i) dem RMS-Fehler des Modells, (ii) der Art der Glättung (einfach oder linear) (iii) dem Wert (S) der Glättungskonstante (n) und (iv) die Anzahl der Perioden vor der Prognose. Im Allgemeinen breiten sich die Intervalle schneller aus, da 945 im SES-Modell größer wird und sich viel schneller ausbreiten, wenn lineare statt einfache Glättung verwendet wird. Dieses Thema wird im Abschnitt "ARIMA-Modelle" weiter erläutert. (Zurück zum Seitenanfang.)


No comments:

Post a Comment