Allgemeine saisonale ARIMA-Modelle: (0,1,1) x (0,1,1) etc. Gliederung der saisonalen ARIMA-Modellierung: Der saisonale Teil eines ARIMA-Modells hat die gleiche Struktur wie der nicht-saisonale Teil: Es kann ein AR-Faktor, ein MA-Faktor und eine Reihenfolge der Differenzierung. Im saisonalen Teil des Modells arbeiten alle diese Faktoren über Vielfache von Lags (die Anzahl der Perioden in einer Saison). Ein saisonales ARIMA-Modell wird als ARIMA (p, d, q) x (P, D, Q) - Modell klassifiziert, wobei die Anzahl der saisonalen autoregressiven (SAR) - Konditionen, die Anzahl der saisonalen Unterschiede, Bei der Identifizierung eines saisonalen Modells ist der erste Schritt, um festzustellen, ob ein saisonaler Unterschied erforderlich ist, zusätzlich oder vielleicht statt einer nicht-saisonalen Differenz. Sie sollten Zeitreihenplots und ACF - und PACF-Plots für alle möglichen Kombinationen von 0 oder 1 nicht-saisonalen Unterschied und 0 oder 1 saisonalen Unterschied betrachten. Achtung: Dont verwenden Sie mehr als einen saisonalen Unterschied, noch mehr als ZWEI Gesamtdifferenzen (saisonale und nicht saisonale kombiniert). Wenn das saisonale Muster sowohl stark als auch stabil ist (z. B. im Sommer und niedrig im Winter oder umgekehrt), dann sollten Sie wahrscheinlich einen saisonalen Unterschied verwenden, unabhängig davon, ob Sie einen nicht-saisonalen Unterschied verwenden, da dies wird Verhindern, dass das saisonale Muster in den Langzeitprognosen Outquot ist. Fügen Sie dies zu unserer Liste der Regeln für die Identifizierung von Modellen hinzu Regel 12: Wenn die Serie ein starkes und konsequentes Saisonmuster hat, dann sollten Sie eine Reihenfolge der saisonalen Differenzierung verwenden - aber nie mehr als eine Reihenfolge der saisonalen Unterschiede oder mehr als 2 verwenden Aufträge der Gesamtdifferenzierung (saisonaleAnfrage). Die Signatur des reinen SAR - oder reinen SMA-Verhaltens ähnelt der Signatur des reinen AR - oder reinen MA-Verhaltens, mit der Ausnahme, dass das Muster über Vielfache von Verzögerungen im ACF und PACF erscheint. Zum Beispiel hat ein reines SAR (1) - Verfahren Spikes im ACF an den Verzögerungen s, 2s, 3s usw., während das PACF nach Verzögerung abschaltet. Umgekehrt hat ein reines SMA (1) - Verfahren Spikes in der PACF an den Ziffern s, 2s, 3s usw., während das ACF nach Verzögerung abschaltet. Eine SAR-Signatur tritt gewöhnlich auf, wenn die Autokorrelation in der Saisonperiode positiv ist, während eine SMA-Signatur gewöhnlich auftritt, wenn die saisonale Autokorrelation negativ ist. Folglich: Regel 13: Ist die Autokorrelation zum Saisonzeitpunkt positiv. Erwägen, dem Modell einen SAR-Term hinzuzufügen. Ist die Autokorrelation zum Saisonzeitraum negativ. Erwägen das Hinzufügen eines SMA-Begriffs zum Modell. Versuchen Sie zu vermeiden, Mischen SAR und SMA Begriffe in dem gleichen Modell, und vermeiden Sie die Verwendung von mehr als einer von beiden Arten. Normalerweise reicht ein SAR (1) oder SMA (1) Term aus. Sie werden selten einen echten SAR (2) oder SMA (2) Prozess begegnen, und noch seltener haben genügend Daten, um 2 oder mehr saisonale Koeffizienten zu schätzen, ohne dass der Schätzalgorithmus in eine quotfeedback loop. quot kommt. Obwohl ein saisonales ARIMA-Modell zu haben scheint Nur ein paar Parameter, denken Sie daran, dass Backforecasting erfordert die Schätzung von ein oder zwei Jahreszeiten im Wert von impliziten Parameter, um es zu initialisieren. Deshalb sollten Sie mindestens 4 oder 5 Jahreszeiten haben, um ein saisonales ARIMA-Modell zu passen. Wahrscheinlich ist das am häufigsten verwendete saisonale ARIMA-Modell das (0,1,1) x (0,1,1) Modell - d. h. Ein MA (1) xSMA (1) Modell mit saisonalen und nicht saisonalen Unterschied. Dies ist im Wesentlichen ein quadratisches exponentielles Glättungsmodell. Wenn saisonale ARIMA-Modelle an protokollierten Daten angepasst sind, können sie ein multiplikatives Saisonmuster verfolgen. Beispiel: AUTOSALE Serie revisited Erinnern Sie sich, dass wir vorher die Einzelhandelsautoverkäufungsserie vorhersagen, indem Sie eine Kombination von Deflation, saisonale Justage und exponentielle Glättung verwenden. Lets jetzt versuchen, die gleiche Serie mit saisonalen ARIMA-Modellen, mit der gleichen Stichprobe von Daten von Januar 1970 bis Mai 1993 (281 Beobachtungen). Wie vorher arbeiten wir mit deflationierten Autoverkäufen - d. h. Wir verwenden die Serie AUTOSALECPI als Eingangsvariable. Hier sind die Zeitreihenplots und ACF - und PACF - Plots der Originalreihe, die im Prognoseverfahren erhalten werden, indem man die Quersprache eines ARIMA (0,0,0) x (0,0,0) - Modells mit konstantem: Quotsuspension bridgequot Muster in der ACF ist typisch für eine Serie, die sowohl nonstationary und stark saisonal ist. Klar brauchen wir wenigstens eine Reihenfolge der Differenzierung. Wenn wir einen nicht-seasonalen Unterschied nehmen, sind die entsprechenden Plots wie folgt: Die differenzierte Reihe (die Reste eines zufälligen Walk-with-growth-Modells) sieht mehr oder weniger stationär aus, aber es gibt immer noch sehr starke Autokorrelation in der Saison (Lag 12). Weil das saisonale Muster stark und stabil ist, wissen wir (aus Regel 12), dass wir eine Reihenfolge der saisonalen Differenzierung im Modell verwenden wollen. Hier ist das, was das Bild nach einem saisonalen Unterschied aussieht (nur): Die saisonal differenzierte Serie zeigt ein sehr starkes Muster positiver Autokorrelation, wie wir uns von unserem früheren Versuch, ein saisonales zufälliges Wandermodell anzupassen, erinnern. Dies könnte ein Quarz-Signatur sein - oder es könnte die Notwendigkeit für einen anderen Unterschied signalisieren. Wenn wir sowohl einen saisonalen als auch einen nicht-seasonalen Unterschied nehmen, werden folgende Ergebnisse erzielt: Dies sind natürlich die Residuen aus dem saisonalen zufälligen Trendmodell, das wir früher an die Autoverkäufe angepasst haben. Wir sehen jetzt die verräterischen Zeichen der milden Überdifferenzierung. Die positiven Spikes im ACF und PACF sind negativ geworden. Was ist die richtige Reihenfolge der Differenzierung Eine weitere Information, die hilfreich sein könnte, ist eine Berechnung der Fehlerstatistiken der Serie auf jeder Ebene der Differenzierung. Wir können diese durch Anpassen der entsprechenden ARIMA-Modelle berechnen, bei denen nur Differenzierung verwendet wird: Die kleinsten Fehler sowohl in der Schätzperiode als auch in der Validierungsperiode werden durch das Modell A erhalten, das eine Differenz jedes Typs verwendet. Dies, zusammen mit dem Aussehen der oben genannten Pläne, deutet stark darauf hin, dass wir sowohl einen saisonalen als auch einen nicht-seasonalen Unterschied verwenden sollten. Beachten Sie, dass mit Ausnahme des gratuitiven Konstantenausdrucks das Modell A das saisonale zufällige Trendmodell (SRT) ist, während Modell B nur das saisonale zufällige Spaziergang (SRW) ist. Wie wir bereits beim Vergleich dieser Modelle festgestellt haben, scheint das SRT-Modell besser zu passen als das SRW-Modell. In der Analyse, die folgt, werden wir versuchen, diese Modelle durch die Hinzufügung von saisonalen ARIMA Begriffe zu verbessern. Zurück zum Anfang der Seite. Das häufig verwendete ARIMA (0,1,1) x (0,1,1) Modell: SRT Modell plus MA (1) und SMA (1) Begriffe Zurück zu den letzten Satz von Plots oben, beachten Sie, dass mit einem Unterschied von Jeder Typ gibt es einen negativen Spike in der ACF bei lag 1 und auch eine negative Spike in der ACF bei lag 12. Während die PACF in der Nähe dieser beiden Verzögerungen ein allmählicheres Deadcayquotmuster aufweist. Durch die Anwendung unserer Regeln für die Identifizierung von ARIMA-Modellen (insbesondere Regel 7 und Regel 13) können wir nun schließen, dass das SRT-Modell durch die Zugabe eines MA (1) Begriffs und auch eines SMA (1) Begriffs verbessert werden würde. Auch nach Regel 5 schließen wir die Konstante aus, da zwei Ordnungen der Differenzierung beteiligt sind. Wenn wir das alles tun, erhalten wir das ARIMA (0,1,1) x (0,1,1) Modell. Das ist das am häufigsten verwendete saisonale ARIMA-Modell. Die Prognosegleichung lautet: wobei 952 1 der MA (1) Koeffizient und 920 1 (Kapital Theta-1) der SMA (1) Koeffizient ist. Beachten Sie, dass dies nur das saisonale zufällige Trendmodell ist, das durch Hinzufügen von Vielfachen der Fehler bei den Verzögerungen 1, 12 und 13 gefasst wurde. Beachten Sie auch, dass der Koeffizient des Lag-13-Fehlers das Produkt des MA (1) und SMA (1) Koeffizienten. Dieses Modell ist konzeptionell ähnlich dem Winters-Modell, insofern es effektiv eine exponentielle Glättung auf Ebene, Trend und Saisonalität auf einmal anwendet, obwohl es auf festeren theoretischen Grundlagen beruht, insbesondere im Hinblick auf die Berechnung von Konfidenzintervallen für Langzeitprognosen. Die restlichen Plots sind in diesem Fall wie folgt: Obwohl eine geringe Autokorrelation bei Verzögerung 12 bleibt, ist das Gesamtbild der Plots gut. Die Modellanpassungsergebnisse zeigen, dass die geschätzten MA (1) und SMA (1) Koeffizienten (erhalten nach 7 Iterationen) in der Tat signifikant sind: Die Prognosen des Modells ähneln denen des saisonalen zufälligen Trendmodells - d. h. Sie nehmen das saisonale Muster und den lokalen Trend am Ende der Serie auf - aber sie sind etwas glatter im Aussehen, da sowohl das saisonale Muster als auch der Trend effektiv gemittelt werden (in einer exponentiell-glatten Art von Weg) über dem letzten Wenige Jahreszeiten: Was ist dieses Modell wirklich tun Sie können es in der folgenden Weise denken. Zuerst berechnet es den Unterschied zwischen jedem Monat8217s Wert und einem 8220exponentiell gewichteten historischen Durchschnitt8221 für diesen Monat, der berechnet wird, indem eine exponentielle Glättung auf Werte angewendet wird, die im selben Monat in den vergangenen Jahren beobachtet wurden, wo die Glättungsmenge durch die SMA bestimmt wird (1 ) Koeffizient Dann wendet es eine einfache exponentielle Glättung auf diese Unterschiede an, um die Abweichung vom historischen Durchschnitt vorherzusagen, die im nächsten Monat beobachtet wird. Der Wert des SMA (1) - Koeffizienten in der Nähe von 1,0 deutet darauf hin, dass viele Jahreszeiten der Daten verwendet werden, um den historischen Durchschnitt für einen bestimmten Monat des Jahres zu berechnen. Erinnern Sie sich, dass ein MA (1) Koeffizient in einem ARIMA (0,1,1) Modell 1-minus-alpha im entsprechenden exponentiellen Glättungsmodell entspricht und dass das Durchschnittsalter der Daten in einer exponentiellen Glättungsmodellvorhersage 1alpha ist. Der SMA (1) Koeffizient hat eine ähnliche Interpretation in Bezug auf Mittelwerte über Jahreszeiten. Hier liegt der Wert von 0,91, dass das Durchschnittsalter der Daten, die für die Schätzung des historischen Saisonmusters verwendet wurden, etwas mehr als 10 Jahre beträgt (fast die Hälfte der Länge des Datensatzes), was bedeutet, dass ein fast konstantes Saisonmuster angenommen wird. Der viel kleinere Wert von 0,5 für den MA (1) - Koeffizienten deutet darauf hin, dass relativ wenig Glättung durchgeführt wird, um die aktuelle Abweichung vom historischen Durchschnitt für denselben Monat abzuschätzen, so dass nächstes Monat8217s vorhergesagte Abweichung von seinem historischen Durchschnitt in der Nähe der Abweichungen liegen wird Aus dem historischen Durchschnitt, die in den letzten Monaten beobachtet wurden. Das ARIMA (1,0,0) x (0,1,0) Modell mit konstantem: SRW Modell plus AR (1) Begriff Das Vorgängermodell war ein saisonales Random Trend (SRT) Modell, das durch den Zusatz von MA ( 1) und SMA (1) Koeffizienten. Ein alternatives ARIMA-Modell für diese Serie kann durch Ersetzen eines AR (1) Terms für die nicht-seasonale Differenz erhalten werden - d. h. Durch Hinzufügen eines AR (1) Begriffs zum Seasonal Random Walk (SRW) Modell. Dies ermöglicht es uns, das saisonale Muster im Modell zu bewahren, während die Gesamtmenge der Differenzierung gesenkt wird, wodurch die Stabilität der Trendprojektionen, falls gewünscht, erhöht wird. (Erinnern Sie sich, dass mit einer saisonalen Differenz allein die Serie eine starke AR (1) Signatur zeigte.) Wenn wir dies tun, erhalten wir ein ARIMA (1,0,0) x (0,1,0) Modell mit konstanten, Was den folgenden Ergebnissen ergibt: Der AR (1) - Koeffizient ist in der Tat sehr signifikant und der RMSE ist nur 2,06 im Vergleich zu 3,00 für das SRW-Modell (Modell B im Vergleichsbericht oben). Die Prognosegleichung für dieses Modell ist: Der zusätzliche Begriff auf der rechten Seite ist ein Vielfaches der saisonalen Differenz, die im letzten Monat beobachtet wurde, was die Korrektur der Prognose für die Wirkung eines ungewöhnlich guten oder schlechten Jahres bewirkt. Hier bezeichnet 981 1 den AR (1) - Koeffizienten, dessen Schätzwert 0,73 beträgt. So zum Beispiel, wenn Umsatz im vergangenen Monat waren X Dollar vor Umsatz ein Jahr zuvor, dann die Menge 0,73X würde hinzugefügt werden, um die Prognose für diesen Monat. 956 bezeichnet den KONSTANT in der Prognosegleichung, deren Schätzwert 0,20 ist. Die geschätzte MEAN, deren Wert 0,75 ist, ist der Mittelwert der saisonal differenzierten Serien, was der jährliche Trend in den Langzeitprognosen dieses Modells ist. Die Konstante ist (definitionsgemäß) gleich der mittleren Zeit 1 minus der AR (1) Koeffizient: 0,2 0,75 (1 8211 0,73). Die Prognose zeigt, dass das Modell in der Tat einen besseren Job als das SRW-Modell der Verfolgung zyklischer Veränderungen (dh ungewöhnlich gute oder schlechte Jahre) macht: Allerdings ist die MSE für dieses Modell noch deutlich größer als das, was wir für die ARIMA (0, 1,1) x (0,1,1) Modell. Wenn wir die Plätze der Residuen betrachten, sehen wir Raum für Verbesserungen. Die Residuen zeigen immer noch ein Zeichen der zyklischen Variation: Die ACF und PACF deuten auf die Notwendigkeit von MA (1) und SMA (1) Koeffizienten hin: Eine verbesserte Version: ARIMA (1,0,1) x (0,1,1) Mit konstant Wenn wir die angegebenen MA (1) und SMA (1) Begriffe zum vorangegangenen Modell addieren, erhalten wir ein ARIMA (1,0,1) x (0,1,1) Modell mit Konstante, dessen Prognosegleichung Dies ist Ist fast das gleiche wie das ARIMA (0,1,1) x (0,1,1) Modell, mit der Ausnahme, dass es die Nichtseasonddifferenz mit einem AR (1) Term (a quotale Differentialdifferenz) ersetzt und es einen konstanten Term enthält, der die Langfristiger Trend Daher nimmt dieses Modell einen stabileren Trend als das ARIMA (0,1,1) x (0,1,1) Modell an, und das ist der Hauptunterschied zwischen ihnen. Die modellbasierten Ergebnisse sind wie folgt: Beachten Sie, dass der geschätzte AR (1) Koeffizient (981 1 in der Modellgleichung) 0,96 ist, was sehr nahe bei 1,0 liegt, aber nicht so nahe, dass es unbedingt darauf hindeuten sollte Ein erster Unterschied: sein Standardfehler ist 0.02, also ist es ungefähr 2 Standardfehler von 1.0. Die anderen Statistiken des Modells (die geschätzten MA (1) und SMA (1) Koeffizienten und Fehlerstatistiken in den Schätz - und Validierungsperioden) sind ansonsten nahezu identisch mit denen der ARIMA (0,1,1) x (0,1 , 1) Modell. (Die geschätzten MA (1) und SMA (1) Koeffizienten sind 0,45 und 0,91 in diesem Modell gegenüber 0,48 und 0,91 in der anderen.) Die geschätzte MEAN von 0,68 ist der vorhergesagte langfristige Trend (durchschnittliche jährliche Zunahme). Dies ist im wesentlichen der gleiche Wert, der in dem (1,0,0) x (0,1,0) - with-konstanten Modell erhalten wurde. Der Standardfehler des geschätzten Mittels beträgt 0,26, so dass die Differenz zwischen 0,75 und 0,68 nicht signifikant ist. Wenn die Konstante nicht in diesem Modell enthalten wäre, wäre es ein gedämpftes Trendmodell: Der Trend in seinen sehr langfristigen Prognosen würde allmählich abflachen. Die Punktprognosen dieses Modells ähneln denen des (0,1,1) x (0,1,1) Modells, denn der durchschnittliche Trend ähnelt dem lokalen Trend am Ende der Serie. Allerdings erweitern sich die Konfidenzintervalle für dieses Modell etwas weniger schnell aufgrund der Annahme, dass der Trend stabil ist. Beachten Sie, dass die Vertrauensgrenzen für die zweijährigen Prognosen nun in den horizontalen Rasterlinien bei 24 und 44 bleiben, während die des (0,1,1) x (0,1,1) Modells nicht: saisonale ARIMA Versus exponentielle Glättung und saisonale Anpassung: Jetzt können wir die Leistung der beiden besten ARIMA Modelle gegen einfache und lineare exponentielle Glättungsmodelle vergleichen, begleitet von multiplikativen saisonalen Anpassungen und dem Winters Modell, wie in den Folien auf Prognose mit saisonalen Anpassung gezeigt: Die Fehlerstatistik für Die Prognosen für die Prognosen für alle Modelle sind in diesem Fall äußerst eng. Es ist schwer, einen 8220winner8221 zu wählen, der auf diesen Zahlen allein basiert. Zurück zum Anfang der Seite. Was sind die Kompromisse unter den verschiedenen saisonalen Modellen Die drei Modelle, die multiplikative saisonale Anpassung verwenden, behandeln die Saisonalität in einer expliziten Art und Weise - d. h. Saisonale Indizes werden als expliziter Teil des Modells ausgebrochen. Die ARIMA-Modelle beschäftigen sich mit der Saisonalität implizit - wir können nicht leicht in der ARIMA-Ausgabe sehen, wie sich der durchschnittliche Dezember von dem durchschnittlichen Juli unterscheidet. Je nachdem, ob es wichtig ist, das saisonale Muster zu isolieren, könnte dies ein Faktor bei der Auswahl unter den Modellen sein. Die ARIMA-Modelle haben den Vorteil, dass sie, sobald sie initialisiert worden sind, weniger anspruchsvolle Teile haben als die exponentiellen Glättungs - und Anpassungsmodelle, und als solche können sie weniger wahrscheinlich die Daten übertreiben. ARIMA-Modelle haben auch eine solide zugrunde liegende Theorie in Bezug auf die Berechnung der Konfidenzintervalle für länger-Horizont-Prognosen als die anderen Modelle. Es gibt dramatischere Unterschiede zwischen den Modellen hinsichtlich des Verhaltens ihrer Prognosen und Konfidenzintervalle für Prognosen mehr als einen Zeitraum in die Zukunft. Hier sind die Annahmen, die in Bezug auf Veränderungen im Trend und saisonalen Muster gemacht werden, sehr wichtig. Zwischen den beiden ARIMA-Modellen schätzt ein (Modell A) einen zeitveränderlichen Trend, während der andere (Modell B) einen langfristigen durchschnittlichen Trend beinhaltet. (Wir könnten, wenn wir es wünschen, den Langzeittrend im Modell B durch Unterdrückung des konstanten Termes abblättern.) Unter den Exponential-Glättungs-plus-Anpassungsmodellen nimmt ein (Modell C) einen flachen Trend an, während der andere ( Modell D) nimmt einen zeitveränderlichen Trend ein. Das Winters-Modell (E) nimmt auch einen zeitveränderlichen Trend an. Modelle, die einen konstanten Trend annehmen, sind in ihren langfristigen Prognosen relativ viel zuversichtlich als Modelle, die dies nicht tun, und dies wird sich in der Regel in dem Ausmaß widerspiegeln, in dem die Konfidenzintervalle für Prognosen bei längeren Prognosehorizonten breiter werden. Modelle, die keine zeitabhängigen Trends annehmen, haben in der Regel schmalere Konfidenzintervalle für längerfristige Prognosen, aber schmaler ist nicht besser, wenn diese Annahme nicht korrekt ist. Die beiden exponentiellen Glättungsmodelle in Kombination mit saisonalen Anpassungen gehen davon aus, dass das saisonale Muster über die 23 Jahre in der Datenprobe konstant geblieben ist, während die anderen drei Modelle nicht. Insoweit das saisonale Muster für die meisten der monatlichen Abweichung in den Daten verantwortlich ist, ist es richtig für die Prognose, was in den kommenden Monaten passieren wird, wichtig. Wenn sich das saisonale Muster im Laufe der Zeit langsam verändert hat, wäre ein anderer Ansatz, nur eine kürzere Datenhistorie für die Anpassung der Modelle zu verwenden, die feste saisonale Indizes schätzen. Für die Aufzeichnung sind hier die Prognosen und 95 Konfidenzgrenzen für Mai 1995 (24 Monate vor), die von den fünf Modellen produziert werden: Die Punktvorhersagen sind tatsächlich überraschend nahe beieinander, bezogen auf die Breiten aller Konfidenzintervalle. Die SES-Punktprognose ist die niedrigste, denn es ist das einzige Modell, das am Ende der Serie keinen Aufwärtstrend annimmt. Das ARIMA (1,0,1) x (0,1,1) c-Modell hat die engsten Vertrauensgrenzen, da es in den Parametern weniger zeitliche Abweichungen annimmt als die anderen Modelle. Auch ihre Punktprognose ist etwas größer als die der anderen Modelle, denn sie extrapoliert einen langfristigen Trend und nicht einen kurzfristigen Trend (oder Null Trend). Das Winters-Modell ist am wenigsten stabil von den Modellen und seine Prognose hat daher die breitesten Konfidenzgrenzen, wie sich aus den detaillierten Prognoseplots für die Modelle ergibt. Und die Prognosen und Vertrauensgrenzen des ARIMA-Modells (0,1,1) x (0,1,1) und die des LESseasonal-Anpassungsmodells sind praktisch identisch. Um sich zu protokollieren oder nicht zu protokollieren, was wir noch nicht getan haben, aber Könnte eine Log-Transformation als Teil des Modells enthalten. Saisonale ARIMA-Modelle sind inhärent additive Modelle, also wenn wir ein multiplikatives Saisonmuster erfassen wollen. Wir müssen dies tun, indem wir die Daten vor der Montage des ARIMA-Modells protokollieren. (In Statgraphics, müssten wir nur noch das Nominale Logquot als Modellierungsoption angeben - keine große Sache.) In diesem Fall scheint die Deflationstransformation eine befriedigende Aufgabe zu haben, die Amplituden der saisonalen Zyklen zu stabilisieren, also gibt es nicht Scheinen ein zwingender Grund zu sein, eine Log-Transformation hinzuzufügen, soweit es langfristige Trends betrifft. Wenn die Residuen im Laufe der Zeit einen deutlichen Anstieg der Abweichung zeigten, könnten wir anders entscheiden. Es gibt noch eine Frage, ob die Fehler dieser Modelle eine konsistente Abweichung über die Monate des Jahres haben. Wenn sie don8217t, dann Konfrontation Intervalle für Prognosen neigen dazu, zu weit oder zu eng nach der Saison. Die Residual-Vs-Zeit-Plots zeigen in dieser Hinsicht kein offensichtliches Problem, aber um gründlich zu sein, wäre es gut, die Fehlerabweichung im Monat zu betrachten. Wenn es tatsächlich ein Problem gibt, könnte eine Log-Transformation es beheben. Zurück zum Anfang der Seite. Identifizierung der Zahlen von AR - oder MA-Begriffen in einem ARIMA-Modell ACF und PACF-Plots: Nachdem eine Zeitreihe durch Differenzierung stationärisiert wurde, ist der nächste Schritt bei der Anpassung eines ARIMA-Modells, um festzustellen, ob AR - oder MA-Terme sind Musste jede Autokorrelation korrigieren, die in der differenzierten Serie bleibt. Natürlich, mit Software wie Statgraphics, können Sie nur versuchen, einige verschiedene Kombinationen von Begriffen und sehen, was am besten funktioniert. Aber es gibt einen systematischeren Weg, dies zu tun. Durch Betrachten der Autokorrelationsfunktion (ACF) und partiellen Autokorrelations - (PACF) - Plots der differenzierten Serien können Sie die Anzahl der benötigten AR - und MA-MA-Terme vorläufig identifizieren. Sie sind bereits mit dem ACF-Plot vertraut: Es ist nur ein Balkendiagramm der Koeffizienten der Korrelation zwischen einer Zeitreihe und Verzögerungen von sich selbst. Die PACF-Kurve ist eine Auftragung der partiellen Korrelationskoeffizienten zwischen der Serie und den Verzögerungen von sich selbst. Im Allgemeinen ist die quasiologische Korrelation zwischen zwei Variablen die Menge der Korrelation zwischen ihnen, die nicht durch ihre gegenseitigen Korrelationen mit einem bestimmten Satz von anderen Variablen erklärt wird. Wenn wir zum Beispiel eine Variable Y auf anderen Variablen X1, X2 und X3 rückgängig machen, ist die partielle Korrelation zwischen Y und X3 die Korrelation zwischen Y und X3, die nicht durch ihre gemeinsamen Korrelationen mit X1 und X2 erklärt wird. Diese partielle Korrelation kann als Quadratwurzel der Reduktion der Varianz berechnet werden, die durch Addition von X3 zur Regression von Y auf X1 und X2 erreicht wird. Eine partielle Autokorrelation ist die Menge der Korrelation zwischen einer Variablen und einer Verzögerung von sich selbst, die nicht durch Korrelationen bei allen niederwertigenlags erklärt wird. Die Autokorrelation einer Zeitreihe Y bei Verzögerung 1 ist der Koeffizient der Korrelation zwischen Yt und Yt - 1. Was vermutlich auch die Korrelation zwischen Y t -1 und Y t -2 ist. Aber wenn Y t mit Y t -1 korreliert ist. Und Y t -1 gleich mit Y t -2 korreliert ist. Dann sollten wir auch erwarten, eine Korrelation zwischen Yt und Yt-2 zu finden. In der Tat ist die Korrelation, die wir bei der Verzögerung 2 erwarten sollten, genau das Quadrat der Lag-1-Korrelation. Somit ist die Korrelation bei Verzögerung 1 quadratisch auf Verzögerung 2 und vermutlich auf höherwertige Verzögerungen. Die partielle Autokorrelation bei Verzögerung 2 ist daher die Differenz zwischen der tatsächlichen Korrelation bei der Verzögerung 2 und der erwarteten Korrelation aufgrund der Ausbreitung der Korrelation bei Verzögerung 1. Hierbei handelt es sich um die Autokorrelationsfunktion (ACF) der UNITS-Reihe, bevor eine Differenzierung durchgeführt wird: Die Autokorrelationen sind für eine große Anzahl von Verzögerungen bedeutsam - aber vielleicht sind die Autokorrelationen bei den Verzögerungen 2 und darüber nur auf die Ausbreitung der Autokorrelation bei Verzögerung 1 zurückzuführen. Dies wird durch die PACF-Kurve bestätigt: Beachten Sie, dass die PACF-Kurve eine signifikante Bedeutung hat Spike nur bei lag 1, was bedeutet, dass alle Autokorrelationen höherer Ordnung effektiv durch die Lag-1-Autokorrelation erklärt werden. Die partiellen Autokorrelationen an allen Verzögerungen können berechnet werden, indem man eine Folge von autoregressiven Modellen mit zunehmender Anzahl von Verzögerungen anpasst. Insbesondere ist die partielle Autokorrelation bei der Verzögerung k gleich dem geschätzten AR (k) - Koeffizienten in einem autoregressiven Modell mit k Terms - d. h. Ein multiples Regressionsmodell, bei dem Y auf LAG (Y, 1), LAG (Y, 2) usw. bis zu LAG (Y, k) regressiert wird. So können Sie durch die bloße Inspektion des PACF bestimmen, wie viele AR-Begriffe Sie verwenden müssen, um das Autokorrelationsmuster in einer Zeitreihe zu erklären: Wenn die partielle Autokorrelation bei der Verzögerung k und bei signifikanter Verzögerung nicht signifikant ist, d. h. Wenn die PACF-Quoten bei der Verzögerung k abschneiden - dann schlägt das vor, dass man ein autoregressives Bestellmodell anpassen sollte. Der PACF der UNITS-Serie bietet ein extremes Beispiel für das Cut-off-Phänomen: Es hat eine sehr große Spike bei lag 1 Und keine anderen signifikanten Spikes, was darauf hinweist, dass in Abwesenheit der Differenzierung ein AR (1) - Modell verwendet werden sollte. Allerdings wird sich der AR (1) - Dext in diesem Modell als gleichbedeutend mit einer ersten Differenz erweisen, da der geschätzte AR (1) - Koeffizient (der die Höhe des PACF-Spikes bei Verzögerung 1 ist) fast genau gleich 1 ist Nun ist die Prognosegleichung für ein AR (1) - Modell für eine Reihe Y ohne Ordnungen der Differenzierung: Ist der AR (1) - Koeffizient 981 1 in dieser Gleichung gleich 1, so ist es gleichbedeutend mit der Vorhersage, dass die erste Differenz Von Y ist konstant - dh Es ist gleichbedeutend mit der Gleichung des zufälligen Spaziergangsmodells mit dem Wachstum: Die PACF der UNITS-Serie sagt uns, dass, wenn wir es nicht unterscheiden, dann ein AR (1) - Modell passen, das sich als gleichwertig erweisen wird Ein erster unterschied Mit anderen Worten, es sagt uns, dass UNITS wirklich eine Reihenfolge der Differenzierung benötigt, um stationär zu sein. AR - und MA-Signaturen: Wenn der PACF einen scharfen Cutoff zeigt, während der ACF langsamer abfällt (dh signifikante Spikes bei höheren Verzögerungen hat), so sagen wir, dass die stationäre Serie eine signifikante Signatur anzeigt, was bedeutet, dass das Autokorrelationsmuster leichter erklärt werden kann Durch Hinzufügen von AR-Terme als durch Hinzufügen von MA-Terme. Sie werden wahrscheinlich feststellen, dass eine AR-Signatur häufig mit einer positiven Autokorrelation bei Verzögerung 1 - d. h. Es neigt dazu, in Serie, die leicht unter differenziert sind. Der Grund dafür ist, dass ein AR-Term in der Prognosegleichung wie ein quadratischer Unterschied stehen kann. Zum Beispiel handelt es in einem AR (1) - Modell der AR-Term wie ein erster Unterschied, wenn der autoregressive Koeffizient gleich 1 ist, tut es nichts, wenn der autoregressive Koeffizient null ist, und er wirkt wie eine partielle Differenz, wenn der Koeffizient zwischen ist 0 und 1. Wenn also die Serie etwas unterdifferenziert ist - also Wenn das nichtstationäre Muster der positiven Autokorrelation nicht vollständig beseitigt ist, wird es eine Teildifferenz fordern, indem man eine AR-Signatur anzeigt. Daher haben wir die folgende Faustregel für die Bestimmung, wann man AR-Terme hinzufügen soll: Regel 6: Wenn die PACF der differenzierten Reihe einen scharfen Cutoff zeigt und die Lag-1-Autokorrelation positiv ist - i. e. Wenn die Serie erscheint etwas andersdifferencedquot - dann erwägen Hinzufügen eines AR-Begriffs auf das Modell. Die Verzögerung, bei der die PACF abschneidet, ist die angegebene Anzahl von AR-Terme. Grundsätzlich kann jedes Autokorrelationsmuster aus einer stationärisierten Reihe entfernt werden, indem man genügend autoregressive Begriffe (Verzögerungen der stationären Serie) der Prognosegleichung hinzufügt und die PACF sagt, wie viele solche Begriffe wahrscheinlich benötigt werden. Allerdings ist dies nicht immer der einfachste Weg, um ein gegebenes Muster der Autokorrelation zu erklären: Manchmal ist es effizienter, MA-Terme (Verzögerungen der Prognosefehler) stattdessen hinzuzufügen. Die Autokorrelationsfunktion (ACF) spielt bei MA-Terme die gleiche Rolle, dass der PACF für AR-Terme spielt - das heißt, der ACF sagt Ihnen, wie viele MA-Begriffe wahrscheinlich benötigt werden, um die verbleibende Autokorrelation aus der differenzierten Serie zu entfernen. Wenn die Autokorrelation bei Verzögerung k ist, aber nicht bei höheren Verzögerungen - d. h. Wenn die ACF-Quoten bei Verzögerung k abschneiden - bedeutet dies, dass genau k MA-Begriffe in der Prognosegleichung verwendet werden sollen. Im letzteren Fall sagen wir, dass die stationäre Serie eine signifikante Signatur anzeigt, was bedeutet, dass das Autokorrelationsmuster leichter durch Hinzufügen von MA-Terme erklärt werden kann, als durch Hinzufügen von AR-Terme. Eine MA-Signatur ist gewöhnlich mit einer negativen Autokorrelation bei Verzögerung 1 - d. h. Es neigt dazu, in Serie zu kommen, die etwas überdimensioniert sind. Der Grund hierfür ist, dass ein MA-Term die Reihenfolge der Differenzierung in der Prognosegleichung punktuell aufheben kann. Um dies zu sehen, ist zu erinnern, dass ein ARIMA (0,1,1) Modell ohne Konstante einem Simple Exponential Smoothing Model entspricht. Die Prognosegleichung für dieses Modell ist dort, wo der MA (1) Koeffizient 952 1 der Menge 1 - 945 im SES-Modell entspricht. Wenn 952 1 gleich 1 ist, entspricht dies einem SES-Modell mit 945 0, was nur ein CONSTANT-Modell ist, weil die Prognose niemals aktualisiert wird. Dies bedeutet, dass, wenn 952 1 gleich 1 ist, tatsächlich die differenzierende Operation auslöscht, die normalerweise die SES-Prognose erlaubt, sich bei der letzten Beobachtung wieder zu verankern. Wenn andererseits der gleitendurchschnittliche Koeffizient gleich 0 ist, reduziert sich dieses Modell auf ein zufälliges Wandermodell - d. h. Es verlässt den differenzierenden Betrieb allein. Also, wenn 952 1 etwas größer als 0 ist, ist es so, als ob wir teilweise eine Reihenfolge der Differenzierung annullieren. Wenn die Serie schon etwas überdimensioniert ist - d. h. Wenn eine negative Autokorrelation eingeführt wurde - dann wird es einen Forcot einen Unterschied abgeben, der teilweise durch die Anzeige einer MA-Signatur abgebrochen wird. (Eine Menge von Armwellen geht hier weiter Eine strengere Erklärung dieses Effektes findet sich in der mathematischen Struktur von ARIMA Models Handzettel.) Daher die folgende zusätzliche Faustregel: Regel 7: Wenn die ACF der differenzierten Serie a zeigt Scharfe Abschaltung und die Lag-1-Autokorrelation ist negativ Wenn die Serie erscheint etwas quittiertdifferencedquot - dann erwägen Hinzufügen einer MA-Begriff zum Modell. Die Verzögerung, bei der der ACF abschaltet, ist die angegebene Anzahl von MA-Terme. Ein Modell für die UNITS-Serie - ARIMA (2,1,0): Bisher haben wir festgestellt, dass die UNITS-Serie (mindestens) eine Reihenfolge der Nichtseason-Differenzierung benötigt, um stationär zu sein. Nach der Einnahme einer nicht-seasonalen Differenz - d. h. Anpassung eines ARIMA (0,1,0) - Modells mit konstanten - die ACF - und PACF-Plots sehen so aus: Beachten Sie, dass (a) die Korrelation bei lag 1 signifikant und positiv ist und (b) die PACF einen schärferen Quotenausschnitt hat als Der ACF. Insbesondere hat die PACF nur zwei signifikante Spikes, während die ACF vier hat. So zeigt die differenzierte Reihe nach Regel 7 eine AR (2) Signatur. Wenn wir also die Reihenfolge des AR-Termes auf 2 setzen - d. h. Passen ein ARIMA (2,1,0) Modell - wir erhalten die folgenden ACF - und PACF-Plots für die Residuen: Die Autokorrelation bei den entscheidenden Verzögerungen - nämlich Verzögerungen 1 und 2 - wurde eliminiert und es gibt kein erkennbares Muster In höherer Ordnung. Die Zeitreihenpläne der Residuen zeigen eine etwas beunruhigende Tendenz, vom Mittelwert weg zu wandern: Allerdings zeigt der Analysezusammenfassungsbericht, dass das Modell dennoch in der Validierungsperiode sehr gut abläuft, beide AR-Koeffizienten unterscheiden sich deutlich von Null und dem Standard Die Abweichung der Residuen wurde von 1.54371 auf 1.4215 (fast 10) durch die Addition der AR-Terme reduziert. Darüber hinaus gibt es keine Anzeichen für eine Quotenwurzel, weil die Summe der AR-Koeffizienten (0,2522540.195572) nicht nahe bei 1 liegt. (Einheitswurzeln werden im Folgenden näher erläutert.) Im Großen und Ganzen scheint dies ein gutes Modell zu sein . Die (untransformierten) Prognosen für das Modell zeigen einen linearen Aufwärtstrend, der in die Zukunft projiziert wird: Der Trend in den Langzeitprognosen ist auf die Tatsache zurückzuführen, dass das Modell einen Nichtseasonaldifferenz und einen konstanten Begriff beinhaltet: Dieses Modell ist grundsätzlich ein zufälliger Spaziergang mit Wachstum durch die Addition von zwei autoregressiven Begriffen - d. h. Zwei Verzögerungen der differenzierten Serie. The slope of the long-term forecasts (i. e. the average increase from one period to another) is equal to the mean term in the model summary (0.467566). The forecasting equation is: where 956 is the constant term in the model summary (0.258178), 981 1 is the AR(1) coefficient (0.25224) and 981 2 is the AR(2) coefficient (0.195572). Mean versus constant: In general, the quotmeanquot term in the output of an ARIMA model refers to the mean of the differenced series (i. e. the average trend if the order of differencing is equal to 1), whereas the quotconstantquot is the constant term that appears on the right-hand-side of the forecasting equation . The mean and constant terms are related by the equation: CONSTANT MEAN(1 minus the sum of the AR coefficients). In this case, we have 0.258178 0.467566(1 - 0.25224 - 0.195572) Alternative model for the UNITS series--ARIMA(0,2,1): Recall that when we began to analyze the UNITS series, we were not entirely sure of the correct order of differencing to use. One order of nonseasonal differencing yielded the lowest standard deviation (and a pattern of mild positive autocorrelation), while two orders of nonseasonal differencing yielded a more stationary-looking time series plot (but with rather strong negative autocorrelation). Here are both the ACF and PACF of the series with two nonseasonal differences: The single negative spike at lag 1 in the ACF is an MA(1) signature, according to Rule 8 above. Thus, if we were to use 2 nonseasonal differences, we would also want to include an MA(1) term, yielding an ARIMA(0,2,1) model. According to Rule 5, we would also want to suppress the constant term. Here, then, are the results of fitting an ARIMA(0,2,1) model without constant: Notice that the estimated white noise standard deviation (RMSE) is only very slightly higher for this model than the previous one (1.46301 here versus 1.45215 previously). The forecasting equation for this model is: where theta-1 is the MA(1) coefficient. Recall that this is similar to a Linear Exponential Smoothing model, with the MA(1) coefficient corresponding to the quantity 2(1-alpha) in the LES model. The MA(1) coefficient of 0.76 in this model suggests that an LES model with alpha in the vicinity of 0.72 would fit about equally well. Actually, when an LES model is fitted to the same data, the optimal value of alpha turns out to be around 0.61, which is not too far off. Here is a model comparison report that shows the results of fitting the ARIMA(2,1,0) model with constant, the ARIMA(0,2,1) model without constant, and the LES model: The three models perform nearly identically in the estimation period, and the ARIMA(2,1,0) model with constant appears slightly better than the other two in the validation period. On the basis of these statistical results alone, it would be hard to choose among the three models. However, if we plot the long-term forecasts made by the ARIMA(0,2,1) model without constant (which are essentially the same as those of the LES model), we see a significant difference from those of the earlier model: The forecasts have somewhat less of an upward trend than those of the earlier model--because the local trend near the end of the series is slightly less than the average trend over the whole series--but the confidence intervals widen much more rapidly. The model with two orders of differencing assumes that the trend in the series is time-varying, hence it considers the distant future to be much more uncertain than does the model with only one order of differencing. Which model should we choose That depends on the assumptions we are comfortable making with respect to the constancy of the trend in the data. The model with only one order of differencing assumes a constant average trend--it is essentially a fine-tuned random walk model with growth--and it therefore makes relatively conservative trend projections. It is also fairly optimistic about the accuracy with which it can forecast more than one period ahead. The model with two orders of differencing assumes a time-varying local trend--it is essentially a linear exponential smoothing model--and its trend projections are somewhat more more fickle. As a general rule in this kind of situation, I would recommend choosing the model with the lower order of differencing, other things being roughly equal. In practice, random-walk or simple-exponential-smoothing models often seem to work better than linear exponential smoothing models. Mixed models: In most cases, the best model turns out a model that uses either only AR terms or only MA terms, although in some cases a quotmixedquot model with both AR and MA terms may provide the best fit to the data. However, care must be exercised when fitting mixed models. It is possible for an AR term and an MA term to cancel each others effects . even though both may appear significant in the model (as judged by the t-statistics of their coefficients). Thus, for example, suppose that the quotcorrectquot model for a time series is an ARIMA(0,1,1) model, but instead you fit an ARIMA(1,1,2) model--i. e. you include one additional AR term and one additional MA term. Then the additional terms may end up appearing significant in the model, but internally they may be merely working against each other. The resulting parameter estimates may be ambiguous, and the parameter estimation process may take very many (e. g. more than 10) iterations to converge. Hence: Rule 8: It is possible for an AR term and an MA term to cancel each others effects, so if a mixed AR-MA model seems to fit the data, also try a model with one fewer AR term and one fewer MA term--particularly if the parameter estimates in the original model require more than 10 iterations to converge. For this reason, ARIMA models cannot be identified by quotbackward stepwisequot approach that includes both AR and MA terms. In other words, you cannot begin by including several terms of each kind and then throwing out the ones whose estimated coefficients are not significant. Instead, you normally follow a quotforward stepwisequot approach, adding terms of one kind or the other as indicated by the appearance of the ACF and PACF plots. Unit roots: If a series is grossly under - or overdifferenced--i. e. if a whole order of differencing needs to be added or cancelled, this is often signalled by a quotunit rootquot in the estimated AR or MA coefficients of the model. An AR(1) model is said to have a unit root if the estimated AR(1) coefficient is almost exactly equal to 1. (By quotexactly equal quot I really mean not significantly different from . in terms of the coefficients own standard error . ) When this happens, it means that the AR(1) term is precisely mimicking a first difference, in which case you should remove the AR(1) term and add an order of differencing instead. (This is exactly what would happen if you fitted an AR(1) model to the undifferenced UNITS series, as noted earlier.) In a higher-order AR model, a unit root exists in the AR part of the model if the sum of the AR coefficients is exactly equal to 1. In this case you should reduce the order of the AR term by 1 and add an order of differencing. A time series with a unit root in the AR coefficients is nonstationary --i. e. it needs a higher order of differencing. Rule 9: If there is a unit root in the AR part of the model--i. e. if the sum of the AR coefficients is almost exactly 1--you should reduce the number of AR terms by one and increase the order of differencing by one. Similarly, an MA(1) model is said to have a unit root if the estimated MA(1) coefficient is exactly equal to 1. When this happens, it means that the MA(1) term is exactly cancelling a first difference, in which case, you should remove the MA(1) term and also reduce the order of differencing by one. In a higher-order MA model, a unit root exists if the sum of the MA coefficients is exactly equal to 1. Rule 10: If there is a unit root in the MA part of the model--i. e. if the sum of the MA coefficients is almost exactly 1--you should reduce the number of MA terms by one and reduce the order of differencing by one. For example, if you fit a linear exponential smoothing model (an ARIMA(0,2,2) model) when a simple exponential smoothing model (an ARIMA(0,1,1) model) would have been sufficient, you may find that the sum of the two MA coefficients is very nearly equal to 1. By reducing the MA order and the order of differencing by one each, you obtain the more appropriate SES model. A forecasting model with a unit root in the estimated MA coefficients is said to be noninvertible . meaning that the residuals of the model cannot be considered as estimates of the quottruequot random noise that generated the time series. Another symptom of a unit root is that the forecasts of the model may quotblow upquot or otherwise behave bizarrely. If the time series plot of the longer-term forecasts of the model looks strange, you should check the estimated coefficients of your model for the presence of a unit root. Rule 11: If the long-term forecasts appear erratic or unstable, there may be a unit root in the AR or MA coefficients. None of these problems arose with the two models fitted here, because we were careful to start with plausible orders of differencing and appropriate numbers of AR and MA coefficients by studying the ACF and PACF models. More detailed discussions of unit roots and cancellation effects between AR and MA terms can be found in the Mathematical Structure of ARIMA Models handout.2.1 Moving Average Models (MA models) Time series models known as ARIMA models may include autoregressive terms andor moving average terms. In Woche 1 lernten wir einen autoregressiven Begriff in einem Zeitreihenmodell für die Variable x t ist ein verzögerter Wert von x t. Zum Beispiel ist ein lag 1 autoregressiver Term x t-1 (multipliziert mit einem Koeffizienten). Diese Lektion definiert gleitende durchschnittliche Begriffe. Ein gleitender Durchschnittsterm in einem Zeitreihenmodell ist ein vergangener Fehler (multipliziert mit einem Koeffizienten). Lassen Sie (nt N (0, sigma2w)), was bedeutet, dass die wt identisch, unabhängig verteilt sind, jeweils mit einer Normalverteilung mit dem Mittelwert 0 und der gleichen Varianz. Das mit MA (1) bezeichnete 1-stufige gleitende Durchschnittsmodell ist (xt mu wt theta1w) Das durchschnittliche Modell der 2. Ordnung, das mit MA (2) bezeichnet wird, ist (xt mu wt theta1w theta2w) , Bezeichnet mit MA (q) ist (xt mu wt theta1w theta2w dots thetaqw) Hinweis. Viele Lehrbücher und Softwareprogramme definieren das Modell mit negativen Vorzeichen vor den Bedingungen. Dies ändert nicht die allgemeinen theoretischen Eigenschaften des Modells, obwohl es die algebraischen Zeichen der geschätzten Koeffizientenwerte und (unsquared) Terme in Formeln für ACFs und Abweichungen klappt. Sie müssen Ihre Software überprüfen, um zu überprüfen, ob negative oder positive Zeichen verwendet wurden, um das geschätzte Modell korrekt zu schreiben. R verwendet positive Zeichen in seinem zugrunde liegenden Modell, wie wir hier tun. Theoretische Eigenschaften einer Zeitreihe mit einem MA (1) Modell Beachten Sie, dass der einzige Wert ungleich Null im theoretischen ACF für Verzögerung 1 ist. Alle anderen Autokorrelationen sind 0. Somit ist ein Beispiel ACF mit einer signifikanten Autokorrelation nur bei Verzögerung 1 ein Indikator für ein mögliches MA (1) Modell. Für interessierte Schüler sind die Beweise dieser Eigenschaften ein Anhang zu diesem Handzettel. Beispiel 1 Angenommen, ein MA (1) - Modell ist x t 10 wt .7 w t-1. Wo (wt Overset N (0,1)). So ist der Koeffizient 1 0,7. Die theoretische ACF ist gegeben durch eine Handlung dieses ACF folgt. Die gerade dargestellte Handlung ist die theoretische ACF für eine MA (1) mit 1 0,7. In der Praxis wird eine Probe gewöhnlich ein solches klares Muster liefern. Unter Verwendung von R simulierten wir n 100 Abtastwerte unter Verwendung des Modells x t 10 w t .7 w t-1, wobei w t iid N (0,1). Für diese Simulation folgt eine Zeitreihenfolge der Stichprobendaten. Wir können nicht viel von dieser Handlung erzählen. Die Stichprobe ACF für die simulierten Daten folgt. Wir sehen eine Spike bei Verzögerung 1, gefolgt von allgemein nicht signifikanten Werten für die Vergangenheit 1. Beachten Sie, dass die Stichprobe ACF nicht mit dem theoretischen Muster des zugrundeliegenden MA (1) übereinstimmt, was bedeutet, dass alle Autokorrelationen für Verzögerungen nach 1 0 sind Eine andere Probe hätte eine etwas andere Probe ACF, die unten gezeigt wird, würde aber wahrscheinlich die gleichen breiten Merkmale haben. Theroretische Eigenschaften einer Zeitreihe mit einem MA (2) Modell Für das MA (2) Modell sind die theoretischen Eigenschaften die folgenden: Beachten Sie, dass die einzigen Werte ungleich Null im theoretischen ACF für die Verzögerungen 1 und 2 sind. Autokorrelationen für höhere Verzögerungen sind 0 So gibt ein Beispiel ACF mit signifikanten Autokorrelationen bei den Verzögerungen 1 und 2, aber nicht signifikante Autokorrelationen für höhere Verzögerungen ein mögliches MA (2) - Modell an. Iid N (0,1). Die Koeffizienten sind 1 0,5 und 2 0,3. Da es sich hierbei um ein MA (2) handelt, hat die theoretische ACF nur Nullwerte nur bei den Verzögerungen 1 und 2. Werte der beiden Nicht-Null-Autokorrelationen sind eine Auftragung der theoretischen ACF folgt. Wie fast immer der Fall ist, verhalten sich die Probendaten nicht ganz so perfekt wie die Theorie. Wir simulierten n 150 Probenwerte für das Modell x t 10 w t .5 w t-1 .3 w t-2. Wo w t iid N (0,1). Die Zeitreihenfolge der Daten folgt. Wie bei der Zeitreihen-Plot für die MA (1) Beispieldaten können Sie nicht viel davon erzählen. Die Stichprobe ACF für die simulierten Daten folgt. Das Muster ist typisch für Situationen, in denen ein MA (2) Modell nützlich sein kann. Es gibt zwei statistisch signifikante Spikes bei den Verzögerungen 1 und 2, gefolgt von nicht signifikanten Werten für andere Verzögerungen. Beachten Sie, dass die Stichprobe ACF aufgrund des Stichprobenfehlers nicht genau mit dem theoretischen Muster übereinstimmt. ACF für allgemeine MA (q) Modelle Eine Eigenschaft von MA (q) - Modellen im Allgemeinen ist, dass es für die ersten q-Verzögerungen und Autokorrelationen 0 für alle Verzögerungen gt q ungleichen Autokorrelationen gibt. Nicht-Eindeutigkeit der Verbindung zwischen den Werten von 1 und (rho1) in MA (1) Modell. Im MA (1) Modell, für jeden Wert von 1. Die reziproke 1 1 gibt den gleichen Wert für Als Beispiel, verwenden Sie 0,5 für 1. Und dann 1 (0,5) 2 für 1 verwenden. Youll bekommen (rho1) 0,4 in beiden Fällen. Um eine theoretische Einschränkung zu erfüllen, die Invertierbarkeit genannt wird. Wir beschränken die MA (1) - Modelle, um Werte mit einem absoluten Wert kleiner als 1 zu haben. In dem gerade angegebenen Beispiel ist 1 0,5 ein zulässiger Parameterwert, wohingegen 1 10,5 2 nicht. Invertierbarkeit von MA-Modellen Ein MA-Modell soll invertierbar sein, wenn es algebraisch äquivalent zu einem konvergierenden unendlichen Ordnungs-AR-Modell ist. Durch konvergieren, verstehen wir, dass die AR-Koeffizienten auf 0 abnehmen, wenn wir uns in der Zeit zurückziehen. Invertierbarkeit ist eine Beschränkung, die in die Zeitreihen-Software programmiert ist, die verwendet wird, um die Koeffizienten von Modellen mit MA-Terme abzuschätzen. Es ist nicht etwas, das wir in der Datenanalyse überprüfen. Zusätzliche Informationen über die Invertierbarkeitsbeschränkung für MA (1) Modelle finden Sie im Anhang. Fortgeschrittene Theorie Hinweis. Für ein MA (q) Modell mit einem angegebenen ACF gibt es nur ein invertierbares Modell. Die notwendige Bedingung für die Invertierbarkeit ist, daß die Koeffizienten Werte haben, so daß die Gleichung 1- 1 y - ist. - q y q 0 hat Lösungen für y, die außerhalb des Einheitskreises liegen. R-Code für die Beispiele In Beispiel 1 haben wir die theoretische ACF des Modells x t 10 w t aufgetragen. 7w t-1 Und dann simuliert n 150 Werte aus diesem Modell und plotted die Probe Zeitreihen und die Probe ACF für die simulierten Daten. Die R-Befehle, die verwendet wurden, um das theoretische ACF zu zeichnen, waren: acfma1ARMAacf (mac (0,7), lag. max10) 10 Verzögerungen von ACF für MA (1) mit theta1 0,7 lags0: 10 erzeugt eine Variable namens Lags, die von 0 bis 10 reicht (1) mit theta1 0,7) abline (h0) fügt eine horizontale Achse zum Plot hinzu Der erste Befehl bestimmt den ACF und speichert ihn in einem Objekt Benannte acfma1 (unsere auswahl des namens). Der Plotbefehl (der 3. Befehl) zeichnet sich gegen die ACF-Werte für die Verzögerungen 1 bis 10 aus. Der ylab-Parameter markiert die y-Achse und der Hauptparameter setzt einen Titel auf den Plot. Um die numerischen Werte des ACF zu sehen, benutzen Sie einfach den Befehl acfma1. Die Simulation und die Plots wurden mit den folgenden Befehlen durchgeführt. Xcarima. sim (n150, list (mac (0.7))) simuliert n 150 Werte aus MA (1) xxc10 fügt 10 hinzu, um Mittel zu machen 10. Simulation standardmäßig 0. plot (x, typeb, mainSimulated MA (1) data) Acf (x, xlimc (1,10), mainACF für simulierte Probendaten) In Beispiel 2 wurden die theoretischen ACF des Modells xt 10 Gew .-% w t-1 .3 w t-2 aufgetragen. Und dann simuliert n 150 Werte aus diesem Modell und plotted die Probe Zeitreihen und die Probe ACF für die simulierten Daten. Die verwendeten R-Befehle waren acfma2ARMAacf (mac (0,5,0,3), lag. max10) acfma2 lags0: 10 plot (Verzögerungen, acfma2, xlimc (1,10), ylabr, typeh, Haupt-ACF für MA (2) mit theta1 0,5, Thex20.3) abline (h0) xcarima. sim (n150, list (mac (0.5, 0.3))) xxc10 plot (x, typeb, main simulierte MA (2) Serie) acf (x, xlimc (1,10), MainACF für simulierte MA (2) Daten) Anhang: Nachweis der Eigenschaften von MA (1) Für interessierte Studierende sind hier Beispiele für theoretische Eigenschaften des MA (1) Modells. Abweichung: (Text (xt) Text (mu wt theta1 w) 0 Text (wt) Text (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Wenn h 1, der vorherige Ausdruck 1 w 2. Für irgendwelche h 2 ist der vorherige Ausdruck 0 Der Grund dafür ist, dass durch die Definition der Unabhängigkeit der Gew. E (w k w j) 0 für jedes k j Da ferner wt den Mittelwert 0, E (w j w j) E (w j 2) w 2 hat. Für eine Zeitreihe, Wenden Sie dieses Ergebnis an, um das oben angegebene ACF zu erhalten. Ein invertierbares MA-Modell ist eines, das als ein unendliches Ordnungs-AR-Modell geschrieben werden kann, das konvergiert, so dass die AR-Koeffizienten zu 0 konvergieren, wenn wir uns unendlich zurück in der Zeit bewegen. Nun zeigen Sie die Invertierbarkeit für das Modell MA (1). Dann ersetzen wir die Beziehung (2) für w t-1 in Gleichung (1) (3) (zt wt theta1 (z - θaw) wt theta1z - θ2w) Zur Zeit t-2. Gleichung (2) wird wir dann die Beziehung (4) für wt-2 in Gleichung (3) (zt wt theta1z-tha21w wt theta1z - tha21 (z-tha1w) wt theta1z - θ12z theta31w) Wenn wir fortfahren würden ( Unendlich), würden wir die unendliche Ordnung AR-Modell erhalten (zt wt theta1 z - theta21z theta31z - theta41z Punkte) Beachten Sie jedoch, dass bei 1 1 die Koeffizienten, die die Verzögerungen von z multiplizieren, in der Größe zunehmen wird (unendlich), wenn wir uns zurück bewegen Zeit. Um dies zu verhindern, brauchen wir 1 lt1. Dies ist die Voraussetzung für ein invertierbares MA (1) Modell. Infinite Order MA Modell In Woche 3 sehen wir, dass ein AR (1) Modell in eine unendliche Reihenfolge umgewandelt werden kann MA Modell: (xt-mu wt phi1w phi21w punkte phik1 w Punkte Summe phij1w) Diese Summierung von vergangenen weißen Rauschen ist bekannt Als die kausale Darstellung eines AR (1). Mit anderen Worten, x t ist eine spezielle Art von MA mit einer unendlichen Anzahl von Begriffen, die in der Zeit zurückgehen. Dies wird als unendliche Ordnung MA oder MA () bezeichnet. Eine endliche Ordnung MA ist eine unendliche Ordnung AR und jede endliche Ordnung AR ist eine unendliche Ordnung MA. Rückruf in Woche 1, stellten wir fest, dass eine Voraussetzung für eine stationäre AR (1) ist, dass 1 lt1. Lets berechnen die Var (x t) mit der Kausaldarstellung. Dieser letzte Schritt verwendet eine grundlegende Tatsache über geometrische Reihen, die (Phi1lt1) ansonsten die Reihe divergiert. Navigation
No comments:
Post a Comment