Thursday 30 November 2017

Moving Average Prozeß Vortragsnoten


Eine kurze Einführung in die moderne Zeitreihe Definition Eine Zeitreihe ist eine zufällige Funktion x t eines Arguments t in einem Satz T. Mit anderen Worten, eine Zeitreihe ist eine Familie von zufälligen Variablen. X t-1 X t. X t1 Entsprechend allen Elementen in der Menge T, wobei T eine abzählbare, unendliche Menge sein soll. Definition Eine beobachtete Zeitreihe t t e T o T wird als Teil einer Realisierung einer Zufallsfunktion x t betrachtet. Eine unendliche Menge möglicher Erkenntnisse, die man beobachten könnte, heißt Ensemble. Um die Dinge rigoroser zu setzen, ist die Zeitreihe (oder zufällige Funktion) eine reelle Funktion x (w, t) der beiden Variablen w und t, wobei wW und t T. Wenn wir den Wert von w festlegen. Wir haben eine reelle Funktion x (t w) der Zeit t, die eine Realisierung der Zeitreihe ist. Wenn wir den Wert von t festlegen, dann haben wir eine zufällige Variable x (wt). Für einen gegebenen Zeitpunkt gibt es eine Wahrscheinlichkeitsverteilung über x. Somit kann eine zufällige Funktion x (w, t) entweder als eine Familie von zufälligen Variablen oder als eine Familie von Realisierungen betrachtet werden. Definition Wir definieren die Verteilungsfunktion der Zufallsvariablen w mit t 0 als P o) x (x). Ebenso können wir die gemeinsame Verteilung für n zufällige Variablen definieren. Die Punkte, die die Zeitreihenanalyse von gewöhnlichen statistischen Analysen unterscheiden, sind folgende (1) Die Abhängigkeit von Beobachtungen zu verschiedenen zeitlichen Zeitpunkten spielt eine wesentliche Rolle. Mit anderen Worten, die Reihenfolge der Beobachtungen ist wichtig. In der gewöhnlichen statistischen Analyse wird davon ausgegangen, dass die Beobachtungen voneinander unabhängig sind. (2) Die Domäne von t ist unendlich. (3) Wir müssen aus einer Realisierung eine Schlussfolgerung ziehen. Die Realisierung der Zufallsvariablen kann nur einmal zu jedem Zeitpunkt beobachtet werden. In der multivariaten Analyse haben wir viele Beobachtungen über eine endliche Anzahl von Variablen. Dieser kritische Unterschied erfordert die Annahme der Stationarität. Definition Die zufällige Funktion x t gilt als streng stationär, wenn alle endlichen dimensionalen Verteilungsfunktionen, die x t definieren, gleich bleiben, auch wenn die ganze Gruppe von Punkten t 1 ist. T 2 T n wird entlang der Zeitachse verschoben. Das heißt, wenn für irgendwelche ganze Zahlen t 1. T 2 T n und k. Grafisch könnte man die Realisierung einer streng stationären Serie als nicht nur die gleiche Ebene in zwei verschiedenen Intervallen, sondern auch die gleiche Verteilungsfunktion, bis hin zu den Parametern, die es definieren, darstellen. Die Annahme der Stationarität macht unser Leben einfacher und weniger kostspielig. Ohne Stationarität müssten wir den Prozeß zu jedem Zeitpunkt häufig abtasten, um eine Charakterisierung der Verteilungsfunktionen in der früheren Definition aufzubauen. Stationarität bedeutet, dass wir unsere Aufmerksamkeit auf einige der einfachsten numerischen Funktionen beschränken können, d. h. die Momente der Verteilungen. Die zentralen Momente sind gegeben durch Definition (i) Der Mittelwert der Zeitreihe t ist d. h. das Moment der ersten Ordnung. (Ii) Die Autokovarianzfunktion von t ist d. h. das zweite Moment um den Mittelwert. Wenn ts dann hast du die Varianz von x t. Wir werden die Autokovarianz einer stationären Reihe bezeichnen, wobei k die Differenz zwischen t und s bezeichnet. (Iii) Die Autokorrelationsfunktion (ACF) von t wird verwendet, um die Autokorrelation einer stationären Reihe zu bezeichnen, wobei k die Differenz zwischen t und s bezeichnet. (Iv) Die partielle Autokorrelation (PACF). Fkk Ist die Korrelation zwischen z t und z tk nach dem Entfernen ihrer gegenseitigen linearen Abhängigkeit von den dazwischenliegenden Variablen z t1. Z t2 Z tk-1 Eine einfache Möglichkeit, die partielle Autokorrelation zwischen z t und z tk zu berechnen, besteht darin, die beiden Regressionen auszuführen und dann die Korrelation zwischen den beiden Restvektoren zu berechnen. Oder nach dem Messen der Variablen als Abweichungen von ihren Mitteln kann die partielle Autokorrelation als der LS-Regressionskoeffizient auf z t in dem Modell gefunden werden, bei dem der Punkt über der Variablen anzeigt, dass er als Abweichung von seinem Mittelwert gemessen wird. (V) Die Yule-Walker-Gleichungen stellen eine wichtige Beziehung zwischen den partiellen Autokorrelationen und den Autokorrelationen dar. Multiplizieren Sie beide Seiten der Gleichung 10 mit z tk-j und nehmen Sie Erwartungen. Diese Operation gibt uns die folgende Differenzgleichung in den Autokovarianzen oder in Bezug auf die Autokorrelationen Diese scheinbar einfache Darstellung ist wirklich ein mächtiges Ergebnis. Nämlich für j1,2. K können wir das ganze Gleichungssystem schreiben, das als die Yule-Walker-Gleichungen bekannt ist. Aus der linearen Algebra wissen Sie, dass die Matrix von rs vollrangig ist. Daher ist es möglich, die Cramers-Regel sukzessive für k1,2 anzuwenden. Um das System für die partiellen Autokorrelationen zu lösen. Die ersten drei sind Wir haben drei wichtige Ergebnisse auf streng stationäre Serie. Die Implikation ist, dass wir jede endliche Realisierung der Sequenz verwenden können, um den Mittelwert zu schätzen. Zweite . Wenn t streng stationär ist und e t 2 lt dann die Implikation ist, dass die Autokovarianz nur von der Differenz zwischen t und s abhängt, nicht von ihrem chronologischen Zeitpunkt in der Zeit. Wir könnten jedes Paar von Intervallen bei der Berechnung der Autokovarianz verwenden, solange die Zeit zwischen ihnen konstant war. Und wir können jede endliche Verwirklichung der Daten verwenden, um die Autokovarianzen zu schätzen. Drittens ist die Autokorrelationsfunktion im Falle einer strengen Stationarität gegeben durch Die Implikation ist, dass die Autokorrelation nur von der Differenz zwischen t und s abhängt, und wieder können sie durch eine endliche Realisierung der Daten geschätzt werden. Wenn es unser Ziel ist, Parameter zu schätzen, die die möglichen Realisierungen der Zeitreihen beschreiben, dann ist vielleicht eine strenge Stationarität zu restriktiv. Zum Beispiel, wenn die Mittelwerte und Kovarianzen von x t konstant und unabhängig vom chronologischen Zeitpunkt sind, dann ist es uns vielleicht nicht wichtig, dass die Verteilungsfunktion für verschiedene Zeitintervalle gleich ist. Definition Eine zufällige Funktion steht im weiten Sinne (oder schwach stationär oder stationär im Khinchins-Sinne oder Kovarianz stationär) bei m 1 (t) m und m 11 (t, s). Strenge Stationarität bedeutet an sich keine schwache Stationarität. Schwache Stationarität bedeutet keine strenge Stationarität. Strenge Stationarität mit E t 2 lt impliziert schwache Stationarität. Ergodische Theoreme beschäftigen sich mit der Frage nach den notwendigen und hinreichenden Bedingungen, um aus einer einzigen Realisierung einer Zeitreihe zu kommen. Grundsätzlich geht es auf eine schwache Stationarität. Theorem Ist t schwach stationär mit mittlerer und kovarianzfunktion, so ist für jeden gegebenen e gt 0 und h gt 0 eine gewisse Anzahl T o vorhanden, so daß für alle T gt T o Wenn und nur wenn diese notwendige und hinreichende Bedingung ist, dass die Autokovarianzen aussterben, in welchem ​​Fall die Stichprobe bedeutet eine konsistente Schätzung für die Bevölkerung bedeuten. Korollar Ist t schwach stationär mit E tk xt 2 lt für jedes t und e tk xtx tsk x ts ist unabhängig von t für irgendeine ganze Zahl s, dann wenn und nur wenn wo eine Folge der Korollar die Annahme ist, dass xtx tk ist Schwach stationär Der Ergodische Satz ist nicht mehr als ein Gesetz von großer Zahl, wenn die Beobachtungen korreliert sind. Man könnte an dieser Stelle über die praktischen Implikationen der Stationarität fragen. Die häufigste Anwendung der Verwendung von Zeitreihentechniken ist die Modellierung makroökonomischer Daten, sowohl theoretisch als auch atheoretisch. Als Beispiel für das erstere könnte man ein Multiplikator-Beschleuniger-Modell haben. Damit das Modell stationär ist, müssen die Parameter bestimmte Werte haben. Ein Test des Modells ist dann, die relevanten Daten zu sammeln und die Parameter zu schätzen. Wenn die Schätzungen nicht mit der Stationarität übereinstimmen, dann muss man entweder das theoretische Modell oder das statisticla-Modell oder beide überdenken. Wir haben jetzt genug Maschinen, um über die Modellierung von univariaten Zeitreihen zu sprechen. Es gibt vier Schritte in den Prozess. 1. Modellierung von theoretischen und experimentellen Erkenntnissen 2. Identifizierung von Modellen basierend auf den Daten (beobachtete Serie) 3. Anpassung der Modelle (Schätzung der Parameter des Modells) 4. Überprüfung des Modells Wenn im vierten Schritt sind wir nicht Zufrieden sind wir zurück zu Schritt eins. Der Prozess ist iterativ, bis eine weitere Überprüfung und Respecifikation keine weitere Ergebnisverbesserung ergibt. Schematisch Definition Einige einfache Operationen beinhalten folgendes: Der Backshift-Operator Bx tx t-1 Der Vorwärtsoperator Fx tx t1 Der Differenzoperator 1 - B xtxt - x t-1 Der Differenzoperator verhält sich in einer Weise, die mit der Konstanten in einer unendlichen Reihe übereinstimmt . Das heißt, seine Umkehrung ist die Grenze einer unendlichen Summe. Das heißt, -1 (1-B) -1 1 (1-B) 1BB 2. Der Integrationsoperator S -1 Da es sich um die Umkehrung des Differenzoperators handelt, dient der Integrationsoperator dazu, die Summe zu konstruieren. MODELLGEBÄUDE In diesem Abschnitt bieten wir Ihnen einen kurzen Überblick über die gängigsten Zeitreihenmodelle. Auf der Grundlage der Kenntnisse des Datenerzeugungsprozesses wählt man eine Klasse von Modellen zur Identifikation und Schätzung aus den folgenden Möglichkeiten. Definition Angenommen, Ex t m ist unabhängig von t. Ein Modell wie mit den Merkmalen heißt das autoregressive Modell der Ordnung p, AR (p). Definition Wenn eine zeitabhängige Variable (stochastischer Prozess) t erfüllt, dann gilt t die Markov-Eigenschaft. Auf der LHS ist die Erwartung auf die unendliche Geschichte von x t. Auf der RHS ist es nur ein Teil der Geschichte bedingt. Aus den Definitionen wird ein AR (p) - Modell gesehen, um die Markov-Eigenschaft zu befriedigen. Mit dem Backshift-Operator können wir unser AR-Modell als Theorem schreiben. Eine notwendige und hinreichende Bedingung für das stationäre AR (p) - Modell ist, dass alle Wurzeln des Polynoms außerhalb des Einheitskreises liegen. Beispiel 1 Betrachten Sie die AR (1) Die einzige Wurzel von 1 - f 1 B 0 ist B 1 f 1. Die Bedingung für die Stationarität erfordert das. Wenn dann die beobachtete Reihe sehr frenetisch erscheinen wird. Z. B. Betrachten, in welchen der weiße Rauschbegriff eine Normalverteilung mit einem Null-Mittelwert und einer Varianz von Eins hat. Die Beobachtungen wechseln mit fast jeder Beobachtung. Wenn auf der anderen Seite dann die beobachtete Serie viel glatter wird. In dieser Reihe neigt eine Beobachtung dazu, über 0 zu liegen, wenn ihr Vorgänger über Null war. Die Varianz von e t ist s e 2 für alle t. Die Varianz von x t. Wenn es null hat, ist gegeben von Da die Serie stationär ist, können wir schreiben. Die Autokovarianzfunktion einer AR (1) - Serie ist also ohne Verlust der Allgemeinheit m 0 zu sehen, wie das in den AR-Parametern aussieht, so werden wir von der Tatsache Gebrauch machen, dass wir xt wie folgt schreiben können. Multiplizieren mit x Tk und nehmen Erwartungen Beachten Sie, dass die Autokovarianzen sterben, wie k wächst. Die Autokorrelationsfunktion ist die Autokovarianz, dividiert durch die Varianz des weißen Rauschterms. Oder, . Mit den früheren Yule-Walker-Formeln für die partiellen Autokorrelationen haben wir für einen AR (1) die Autokorrelationen exponentiell aus und die partiellen Autokorrelationen zeigen eine Spike bei einer Verzögerung und sind danach Null. Beispiel 2 Betrachten Sie das AR (2) Das zugehörige Polynom im Lag-Operator ist die Wurzeln mit der quadratischen Formel gefunden werden. Die Wurzeln sind, wenn die Wurzeln real sind und als Folge wird die Reihe exponentiell in Reaktion auf einen Schock abnehmen. Wenn die Wurzeln komplex sind und die Serie als gedämpfte Zeichenwelle erscheinen wird. Der Satzungstheorem setzt die folgenden Bedingungen auf die AR-Koeffizienten Die Autokovarianz für einen AR (2) - Verfahren mit nullem Mittelwert ist durch die Varianz von xt durchdringt die Autokorrelationsfunktion Da können wir schreiben Ähnlich für die zweite und dritte Autokorrelationen Die andere Autokorrelationen werden rekursiv behoben. Ihr Muster wird durch die Wurzeln der linearen Differenzengleichung zweiter Ordnung bestimmt Wenn die Wurzeln real sind, werden die Autokorrelationen exponentiell abnehmen. Wenn die Wurzeln komplex sind, erscheinen die Autokorrelationen als gedämpfte Sinuswelle. Mit den Yule-Walker-Gleichungen, die Teilautokorrelationen sind wieder, die Autokorrelationen sterben langsam aus. Die partielle Autokorrelation auf der anderen Seite ist ganz unverwechselbar. Es hat Spikes an ein und zwei Lags und ist danach null. Theorem Ist x t ein stationärer AR (p) Prozess, so kann er äquivalent als lineares Filtermodell geschrieben werden. Das heißt, das Polynom im Backshift-Operator kann invertiert werden und das AR (p) als gleitender Durchschnitt der unendlichen Ordnung geschrieben werden. Beispiel Angenommen, z t ist ein AR (1) Prozess mit Null Mittelwert. Was für die aktuelle Periode gilt, muss auch für Vorperioden gelten. So können wir durch rekursive Substitution quadratisch beide Seiten schreiben und Erwartungen nehmen, die rechte Seite verschwindet als k seit f lt 1. Daher konvergiert die Summe in zt im quadratischen Mittel. Wir können das AR (p) Modell als linearen Filter umschreiben, das wir als stationär kennen. Die Autokorrelationsfunktion und die partielle Autokorrelation nehmen im Allgemeinen an, dass eine stationäre Serie z t mit mittlerem Null autoristisch ist. Die Autokorrelationsfunktion eines AR (p) wird gefunden, indem man Erwartungen an und durchdringt durch die Varianz von z t. Dies sagt uns, daß r k eine lineare Kombination der vorherigen Autokorrelationen ist. Wir können dies bei der Anwendung von Cramers-Regel verwenden, um (i) bei der Lösung für f kk. Insbesondere können wir sehen, dass diese lineare Abhängigkeit f kk 0 für k gt p verursacht. Diese Besonderheit der autoregressiven Serien wird sehr nützlich sein, wenn es um die Identifizierung einer unbekannten Serie geht. Wenn du entweder MathCAD oder MathCAD Explorer hast, kannst du mit den hier vorgestellten AR (p) Ideen interaktivieren. Moving Average Models Betrachten wir ein dynamisches Modell, bei dem die Interessensreihe nur von einem Teil der Geschichte des White Noise Term abhängt. Schematisch könnte dies als Definition dargestellt werden. Angenommen, a t ist eine unkorrelierte Folge von i. i.d. Zufällige Variablen mit null mittlerer und endlicher Varianz. Dann ist ein gleitender Mittelwert der Ordnung q, MA (q), durch Theorem gegeben: Ein gleitender Durchschnittsprozess ist immer stationär. Beweis: Anstatt mit einem allgemeinen Beweis zu beginnen, werden wir es für einen bestimmten Fall tun. Angenommen, z t ist MA (1). Dann . Natürlich hat a t eine mittlere und endliche Varianz. Der Mittelwert von z t ist immer Null. Die Autokovarianzen werden gegeben von Sie können sehen, dass der Mittelwert der zufälligen Variablen nicht von der Zeit in irgendeiner Weise abhängt. Sie können auch sehen, dass die Autokovarianz nur vom Offset abhängt, nicht auf wo in der Serie wir starten. Wir können das gleiche Ergebnis allgemeiner durchführen, indem wir mit dem beginnen, das die wechselnde gleitende durchschnittliche Darstellung hat. Betrachten wir zuerst die Varianz von z t. Durch rekursive Substitution können Sie zeigen, dass dies gleich ist Die Summe, die wir kennen, um eine konvergente Serie zu sein, so dass die Varianz endlich ist und unabhängig von der Zeit ist. Die Kovarianzen sind zum Beispiel Sie können auch sehen, dass die Auto-Kovarianzen nur von den relativen Zeitpunkten abhängen, nicht von dem chronologischen Zeitpunkt der Zeit. Unsere Schlussfolgerung aus all dem ist, dass ein MA () - Prozess stationär ist. Für den allgemeinen MA (q) - Verfahren ist die Autokorrelationsfunktion gegeben durch Die partielle Autokorrelationsfunktion wird gleichmäßig auslaufen. Sie können dies sehen, indem Sie den Prozess invertieren, um einen AR () Prozess zu erhalten. Wenn du entweder MathCAD oder MathCAD Explorer hast, kannst du interaktiv mit einigen der hier vorgestellten MA (q) Ideen experimentieren. Mixed Autoregressive - Moving Average Models Definition Angenommen, ein t ist eine unkorrelierte Sequenz von i. i.d. Zufällige Variablen mit null mittlerer und endlicher Varianz. Dann wird ein autoregressiver, gleitender Mittelprozess der Ordnung (p, q), ARMA (p, q) gegeben. Die Wurzeln des autoregressiven Operators müssen alle außerhalb des Einheitskreises liegen. Die Anzahl der Unbekannten ist pq2. Die p und q sind offensichtlich. Die 2 enthält die Stufe des Prozesses, m. Und die Varianz des weißen Rauschbegriffs, sa 2. Angenommen, wir kombinieren unsere AR - und MA-Darstellungen, so dass das Modell ist und die Koeffizienten normalisiert werden, so dass bo 1. Dann wird diese Darstellung als ARMA (p, q) bezeichnet, wenn die Wurzeln von (1) liegen alle außerhalb des Einheitskreises. Angenommen, die y t werden als Abweichungen vom Mittelwert gemessen, so dass wir a fallen können. Dann wird die Autokovarianz-Funktion abgeleitet, wenn jgtq dann die MA-Begriffe fallen in Erwartung zu geben Das heißt, die Autokovarianz-Funktion sieht aus wie eine typische AR für Lags nach q sie sterben glatt nach q, aber wir können nicht sagen, wie 1,2 133, Q wird aussehen Wir können auch die PACF für diese Klasse von Modell untersuchen. Das Modell kann geschrieben werden, da wir dies als MA (inf) - Prozess schreiben können, was darauf hindeutet, dass die PACFs langsam aussterben. Mit einer Arithmetik konnten wir zeigen, dass dies erst nach den ersten P-Spikes des AR-Teils geschieht. Empirisches Gesetz In Wirklichkeit kann eine stationäre Zeitreihe gut durch p 2 und q 2 dargestellt werden. Wenn Ihr Unternehmen eine gute Annäherung an die Realität und die Güte der Passform bietet, ist Ihr Kriterium dann ein verschwenderisches Modell bevorzugt. Wenn Ihr Interesse prädiktive Effizienz ist, dann ist das sparsame Modell bevorzugt. Experimentiere mit den ARMA-Ideen, die oben mit einem MathCAD-Arbeitsblatt vorgestellt wurden. Autoregressive Integrate Moving Average Modelle MA Filter AR Filter Filter integrieren Manchmal ist der Prozess oder die Serie, die wir versuchen zu modellieren, nicht stationär in Levels. Aber es könnte sein, stationäre in, sagen, erste Unterschiede. Das heißt, in ihrer ursprünglichen Form können die Autokovarianzen für die Serie nicht unabhängig vom chronologischen Zeitpunkt sein. Wenn wir aber eine neue Serie konstruieren, die die ersten Unterschiede der Originalreihe ist, so erfüllt diese neue Serie die Definition der Stationarität. Dies ist oft der Fall bei ökonomischen Daten, die stark trendig sind. Definition Angenommen, dass z t nicht stationär ist, aber z t - z t - 1 erfüllt die Definition der Stationarität. Auch bei dem weißen Rauschbegriff hat endliche Mittel und Varianz. Wir können das Modell schreiben, da dies ein ARIMA (p, d, q) Modell genannt wird. P identifiziert die Reihenfolge des AR-Operators, d identifiziert das Einschalten. Q identifiziert die Reihenfolge des MA-Operators. Wenn die Wurzeln von f (B) außerhalb des Einheitskreises liegen, können wir die ARIMA (p, d, q) als linearen Filter umschreiben. I. e. Es kann als MA () geschrieben werden. Wir behalten uns die Diskussion über die Erkennung von Einheitswurzeln für einen anderen Teil der Vorlesungsunterlagen vor. Betrachten wir ein dynamisches System mit x t als Eingangsreihe und y t als Ausgabeserie. Schematisch haben wir diese Modelle sind eine diskrete Analogie von linearen Differentialgleichungen. Wir nehmen die folgende Beziehung an, wo b eine reine Verzögerung anzeigt. Erinnere dich daran, dass (1-B). Durch diese Substitution kann das Modell geschrieben werden. Wenn das Koeffizientenpolynom auf y t invertiert werden kann, kann das Modell geschrieben werden, da V (B) als Impulsantwortfunktion bekannt ist. Wir werden diese Terminologie wieder in unserer späteren Diskussion über Vektor autoregressive kommen. Kointegrations - und Fehlerkorrekturmodelle. MODELL-IDENTIFIKATION Nachdem Sie sich für eine Klasse von Modellen entschieden haben, muss man nun die Reihenfolge der Prozesse identifizieren, die die Daten erzeugen. Das heißt, man muss sich am besten über die Reihenfolge der AR - und MA-Prozesse entscheiden, die die stationären Serien antreiben. Eine stationäre Serie zeichnet sich durch ihre Mittel - und Autokovarianzen aus. Aus analytischen Gründen arbeiten wir meist mit den Autokorrelationen und Teilautokorrelationen. Diese beiden grundlegenden Werkzeuge haben einzigartige Muster für stationäre AR - und MA-Prozesse. Man könnte Stichprobenschätzungen der Autokorrelations - und Teilautokorrelationsfunktionen berechnen und sie mit tabellierten Ergebnissen für Standardmodelle vergleichen. Beispiel Autokovarianz Funktion Beispiel Autokorrelation Funktion Die Probe Teilautokorrelationen werden die Autokorrelationen verwenden und Teilautokorrelationen ist im Prinzip ganz einfach. Angenommen, wir haben eine Serie z t. Mit null gemein, das ist AR (1). Wenn wir die Regression von z t2 auf z t1 und z t ausführen würden, würden wir erwarten, dass der Koeffizient auf z t nicht anders als null war, da diese partielle Autokorrelation Null sein sollte. Auf der anderen Seite sollten die Autokorrelationen für diese Serie exponentiell abnehmen, um die Verzögerungen zu erhöhen (siehe AR (1) Beispiel oben). Angenommen, die Serie ist wirklich ein gleitender Durchschnitt. Die Autokorrelation sollte überall null sein, aber bei der ersten Verzögerung. Die partielle Autokorrelation sollte exponentiell aussterben. Sogar von unserem sehr flüchtigen Rummel durch die Grundlagen der Zeitreihenanalyse ist es offensichtlich, dass es eine Dualität zwischen AR - und MA-Prozessen gibt. Diese Dualität kann in der folgenden Tabelle zusammengefasst werden. Einleitung zu ARIMA: Nichtseasonal-Modelle ARIMA (p, d, q) Prognosegleichung: ARIMA-Modelle sind theoretisch die allgemeinste Klasse von Modellen zur Vorhersage einer Zeitreihe, die gemacht werden kann (Wenn nötig), vielleicht in Verbindung mit nichtlinearen Transformationen wie zB Protokollierung oder Entleerung (falls nötig). Eine zufällige Variable, die eine Zeitreihe ist, ist stationär, wenn ihre statistischen Eigenschaften alle über die Zeit konstant sind. Eine stationäre Serie hat keinen Trend, ihre Variationen um ihre Mittel haben eine konstante Amplitude, und es wackelt in einer konsistenten Weise. D. h. seine kurzzeitigen zufälligen Zeitmuster sehen immer in einem statistischen Sinn gleich aus. Die letztere Bedingung bedeutet, daß ihre Autokorrelationen (Korrelationen mit ihren eigenen vorherigen Abweichungen vom Mittelwert) über die Zeit konstant bleiben oder äquivalent, daß sein Leistungsspektrum über die Zeit konstant bleibt. Eine zufällige Variable dieses Formulars kann (wie üblich) als eine Kombination von Signal und Rauschen betrachtet werden, und das Signal (wenn man offensichtlich ist) könnte ein Muster der schnellen oder langsamen mittleren Reversion oder sinusförmigen Oszillation oder eines schnellen Wechsels im Zeichen sein , Und es könnte auch eine saisonale Komponente haben. Ein ARIMA-Modell kann als 8220filter8221 betrachtet werden, das versucht, das Signal vom Rauschen zu trennen, und das Signal wird dann in die Zukunft extrapoliert, um Prognosen zu erhalten. Die ARIMA-Prognosegleichung für eine stationäre Zeitreihe ist eine lineare (d. h. regressionstypische) Gleichung, bei der die Prädiktoren aus Verzögerungen der abhängigen Variablen und Verzögerungen der Prognosefehler bestehen. Das heißt: vorhergesagter Wert von Y eine Konstante undeiner gewichteten Summe von einem oder mehreren neueren Werten von Y und einer gewichteten Summe von einem oder mehreren neueren Werten der Fehler. Wenn die Prädiktoren nur aus verzögerten Werten von Y bestehen, ist es ein reines autoregressives Modell (8220 selbst-regressed8221), das nur ein Spezialfall eines Regressionsmodells ist und mit Standardregressionssoftware ausgestattet werden kann. Zum Beispiel ist ein autoregressives (8220AR (1) 8221) Modell erster Ordnung für Y ein einfaches Regressionsmodell, bei dem die unabhängige Variable nur Y um eine Periode (LAG (Y, 1) in Statgraphics oder YLAG1 in RegressIt hinterlässt). Wenn einige der Prädiktoren die Fehler der Fehler sind, ist es ein ARIMA-Modell, es ist kein lineares Regressionsmodell, denn es gibt keine Möglichkeit, 828last period8217s error8221 als unabhängige Variable anzugeben: Die Fehler müssen auf einer Periodenperiode berechnet werden Wenn das Modell an die Daten angepasst ist. Aus technischer Sicht ist das Problem bei der Verwendung von verzögerten Fehlern als Prädiktoren, dass die Vorhersagen des Modells8217 nicht lineare Funktionen der Koeffizienten sind. Obwohl sie lineare Funktionen der vergangenen Daten sind. So müssen Koeffizienten in ARIMA-Modellen, die verzögerte Fehler enthalten, durch nichtlineare Optimierungsmethoden (8220hill-climbing8221) geschätzt werden, anstatt nur ein Gleichungssystem zu lösen. Das Akronym ARIMA steht für Auto-Regressive Integrated Moving Average. Die Verzögerungen der stationärisierten Serien in der Prognosegleichung werden als quartalspezifische Begriffe bezeichnet, die Verzögerungen der Prognosefehler werden als quadratische Begrenzungsterme bezeichnet, und eine Zeitreihe, die differenziert werden muss, um stationär zu sein, wird als eine quotintegrierte Quotversion einer stationären Serie bezeichnet. Random-Walk - und Random-Trend-Modelle, autoregressive Modelle und exponentielle Glättungsmodelle sind alle Sonderfälle von ARIMA-Modellen. Ein Nicht-Seasonal-ARIMA-Modell wird als ein Quoten-Modell von quaremA (p, d, q) klassifiziert, wobei p die Anzahl der autoregressiven Terme ist, d die Anzahl der für die Stationarität benötigten Nichtseasondifferenzen und q die Anzahl der verzögerten Prognosefehler in Die Vorhersagegleichung. Die Prognosegleichung wird wie folgt aufgebaut. Zuerst bezeichne y die d-te Differenz von Y. Das bedeutet: Beachten Sie, dass die zweite Differenz von Y (der Fall d2) nicht der Unterschied von 2 Perioden ist. Vielmehr ist es der erste Unterschied zwischen dem ersten Unterschied. Welches das diskrete Analog einer zweiten Ableitung ist, d. h. die lokale Beschleunigung der Reihe und nicht deren lokaler Trend. In Bezug auf y. Die allgemeine Prognosegleichung lautet: Hier werden die gleitenden Durchschnittsparameter (9528217s) so definiert, dass ihre Zeichen in der Gleichung nach der von Box und Jenkins eingeführten Konventionen negativ sind. Einige Autoren und Software (einschließlich der R-Programmiersprache) definieren sie so, dass sie stattdessen Pluszeichen haben. Wenn tatsächliche Zahlen in die Gleichung gesteckt sind, gibt es keine Mehrdeutigkeit, aber it8217s wichtig zu wissen, welche Konvention Ihre Software verwendet, wenn Sie die Ausgabe lesen. Oft werden die Parameter dort mit AR (1), AR (2), 8230 und MA (1), MA (2), 8230 usw. bezeichnet. Um das entsprechende ARIMA-Modell für Y zu identifizieren, beginnen Sie mit der Bestimmung der Reihenfolge der Differenzierung (D) die Serie zu stationieren und die Brutto-Merkmale der Saisonalität zu entfernen, vielleicht in Verbindung mit einer abweichungsstabilisierenden Transformation wie Protokollierung oder Entleerung. Wenn Sie an dieser Stelle anhalten und vorhersagen, dass die differenzierte Serie konstant ist, haben Sie nur einen zufälligen Spaziergang oder ein zufälliges Trendmodell ausgestattet. Allerdings können die stationärisierten Serien immer noch autokorrelierte Fehler aufweisen, was darauf hindeutet, dass in der Prognosegleichung auch eine Anzahl von AR-Terme (p 8805 1) und einigen einigen MA-Terme (q 8805 1) benötigt werden. Der Prozess der Bestimmung der Werte von p, d und q, die am besten für eine gegebene Zeitreihe sind, wird in späteren Abschnitten der Noten (deren Links oben auf dieser Seite), aber eine Vorschau auf einige der Typen diskutiert werden Von nicht-seasonalen ARIMA-Modellen, die häufig angetroffen werden, ist unten angegeben. ARIMA (1,0,0) Autoregressives Modell erster Ordnung: Wenn die Serie stationär und autokorreliert ist, kann man sie vielleicht als Vielfaches ihres eigenen vorherigen Wertes und einer Konstante voraussagen. Die prognostizierte Gleichung in diesem Fall ist 8230which ist Y regressed auf sich selbst verzögerte um einen Zeitraum. Dies ist ein 8220ARIMA (1,0,0) constant8221 Modell. Wenn der Mittelwert von Y Null ist, dann wäre der konstante Term nicht enthalten. Wenn der Steigungskoeffizient 981 & sub1; positiv und kleiner als 1 in der Grße ist (er muß kleiner als 1 in der Grße sein, wenn Y stationär ist), beschreibt das Modell das Mittelwiederkehrungsverhalten, bei dem der nächste Periode8217s-Wert 981 mal als vorher vorausgesagt werden sollte Weit weg von dem Mittelwert als dieser Zeitraum8217s Wert. Wenn 981 & sub1; negativ ist, prognostiziert es ein Mittelrückkehrverhalten mit einem Wechsel von Zeichen, d. h. es sagt auch, daß Y unterhalb der mittleren nächsten Periode liegt, wenn es über dem Mittelwert dieser Periode liegt. In einem autoregressiven Modell zweiter Ordnung (ARIMA (2,0,0)) wäre auch ein Y-t-2-Term auf der rechten Seite und so weiter. Abhängig von den Zeichen und Größen der Koeffizienten könnte ein ARIMA (2,0,0) Modell ein System beschreiben, dessen mittlere Reversion in einer sinusförmig oszillierenden Weise stattfindet, wie die Bewegung einer Masse auf einer Feder, die zufälligen Schocks ausgesetzt ist . ARIMA (0,1,0) zufälliger Spaziergang: Wenn die Serie Y nicht stationär ist, ist das einfachste Modell für sie ein zufälliges Spaziergangmodell, das als Begrenzungsfall eines AR (1) - Modells betrachtet werden kann, in dem das autoregressive Koeffizient ist gleich 1, dh eine Serie mit unendlich langsamer mittlerer Reversion. Die Vorhersagegleichung für dieses Modell kann wie folgt geschrieben werden: wobei der konstante Term die mittlere Periodenänderung (dh die Langzeitdrift) in Y ist. Dieses Modell könnte als ein Nicht-Intercept-Regressionsmodell eingebaut werden, in dem die Die erste Differenz von Y ist die abhängige Variable. Da es (nur) eine nicht-seasonale Differenz und einen konstanten Term enthält, wird es als ein quotARIMA (0,1,0) Modell mit constant. quot eingestuft. Das random-walk-without - drift-Modell wäre ein ARIMA (0,1, 0) Modell ohne Konstante ARIMA (1,1,0) differenzierte Autoregressive Modell erster Ordnung: Wenn die Fehler eines zufälligen Walk-Modells autokorreliert werden, kann das Problem eventuell durch Hinzufügen einer Verzögerung der abhängigen Variablen zu der Vorhersagegleichung behoben werden - - ie Durch den Rücktritt der ersten Differenz von Y auf sich selbst um eine Periode verzögert. Dies würde die folgende Vorhersagegleichung ergeben: die umgewandelt werden kann Dies ist ein autoregressives Modell erster Ordnung mit einer Reihenfolge von Nicht-Seasonal-Differenzen und einem konstanten Term - d. h. Ein ARIMA (1,1,0) Modell. ARIMA (0,1,1) ohne konstante, einfache exponentielle Glättung: Eine weitere Strategie zur Korrektur autokorrelierter Fehler in einem zufälligen Walk-Modell wird durch das einfache exponentielle Glättungsmodell vorgeschlagen. Erinnern Sie sich, dass für einige nichtstationäre Zeitreihen (z. B. diejenigen, die geräuschvolle Schwankungen um ein langsam variierendes Mittel aufweisen), das zufällige Wandermodell nicht so gut wie ein gleitender Durchschnitt von vergangenen Werten ausführt. Mit anderen Worten, anstatt die jüngste Beobachtung als die Prognose der nächsten Beobachtung zu nehmen, ist es besser, einen Durchschnitt der letzten Beobachtungen zu verwenden, um das Rauschen herauszufiltern und das lokale Mittel genauer zu schätzen. Das einfache exponentielle Glättungsmodell verwendet einen exponentiell gewichteten gleitenden Durchschnitt von vergangenen Werten, um diesen Effekt zu erzielen. Die Vorhersagegleichung für das einfache exponentielle Glättungsmodell kann in einer Anzahl von mathematisch äquivalenten Formen geschrieben werden. Eine davon ist die so genannte 8220error Korrektur8221 Form, in der die vorherige Prognose in Richtung des Fehlers eingestellt wird, die es gemacht hat: Weil e t-1 Y t-1 - 374 t-1 per Definition, kann dies wie folgt umgeschrieben werden : Das ist eine ARIMA (0,1,1) - ohne Konstante Prognose Gleichung mit 952 1 1 - 945. Dies bedeutet, dass Sie eine einfache exponentielle Glättung passen können, indem Sie es als ARIMA (0,1,1) Modell ohne Konstant und der geschätzte MA (1) - Koeffizient entspricht 1-minus-alpha in der SES-Formel. Erinnern daran, dass im SES-Modell das Durchschnittsalter der Daten in den 1-Perioden-Prognosen 1 945 beträgt. Dies bedeutet, dass sie dazu neigen, hinter Trends oder Wendepunkten um etwa 1 945 Perioden zurückzukehren. Daraus folgt, dass das Durchschnittsalter der Daten in den 1-Periodenprognosen eines ARIMA (0,1,1) - without-constant-Modells 1 (1 - 952 1) beträgt. So, zum Beispiel, wenn 952 1 0.8, ist das Durchschnittsalter 5. Wenn 952 1 sich nähert, wird das ARIMA (0,1,1) - without-konstantes Modell zu einem sehr langfristigen gleitenden Durchschnitt und als 952 1 Nähert sich 0 wird es zu einem zufälligen Walk-ohne-Drift-Modell. Was ist der beste Weg, um Autokorrelation zu korrigieren: Hinzufügen von AR-Terme oder Hinzufügen von MA-Terme In den vorangegangenen zwei Modellen, die oben diskutiert wurden, wurde das Problem der autokorrelierten Fehler in einem zufälligen Walk-Modell auf zwei verschiedene Arten festgelegt: durch Hinzufügen eines verzögerten Wertes der differenzierten Serie Zur Gleichung oder Hinzufügen eines verzögerten Wertes des Prognosefehlers. Welcher Ansatz ist am besten Eine Faustregel für diese Situation, die später noch ausführlicher erörtert wird, ist, dass eine positive Autokorrelation in der Regel am besten durch Hinzufügen eines AR-Termes zum Modell behandelt wird und eine negative Autokorrelation wird meist am besten durch Hinzufügen eines MA Begriff. In geschäftlichen und ökonomischen Zeitreihen entsteht oftmals eine negative Autokorrelation als Artefakt der Differenzierung. (Im Allgemeinen verringert die Differenzierung die positive Autokorrelation und kann sogar einen Wechsel von positiver zu negativer Autokorrelation verursachen.) So wird das ARIMA (0,1,1) - Modell, in dem die Differenzierung von einem MA-Term begleitet wird, häufiger als ein ARIMA (1,1,0) Modell. ARIMA (0,1,1) mit konstanter, einfacher, exponentieller Glättung mit Wachstum: Durch die Implementierung des SES-Modells als ARIMA-Modell erhalten Sie gewisse Flexibilität. Zunächst darf der geschätzte MA (1) - Koeffizient negativ sein. Dies entspricht einem Glättungsfaktor größer als 1 in einem SES-Modell, was in der Regel nicht durch das SES-Modell-Anpassungsverfahren erlaubt ist. Zweitens haben Sie die Möglichkeit, einen konstanten Begriff im ARIMA-Modell einzubeziehen, wenn Sie es wünschen, um einen durchschnittlichen Trend ungleich Null abzuschätzen. Das ARIMA (0,1,1) - Modell mit Konstante hat die Vorhersagegleichung: Die Prognosen von einem Periodenvorhersage aus diesem Modell sind qualitativ ähnlich denen des SES-Modells, mit der Ausnahme, dass die Trajektorie der Langzeitprognosen typischerweise ein Schräge Linie (deren Steigung gleich mu ist) anstatt einer horizontalen Linie. ARIMA (0,2,1) oder (0,2,2) ohne konstante lineare exponentielle Glättung: Lineare exponentielle Glättungsmodelle sind ARIMA-Modelle, die zwei Nichtseason-Differenzen in Verbindung mit MA-Terme verwenden. Der zweite Unterschied einer Reihe Y ist nicht einfach der Unterschied zwischen Y und selbst, der um zwei Perioden verzögert ist, sondern vielmehr der erste Unterschied der ersten Differenz - i. e. Die Änderung der Änderung von Y in der Periode t. Somit ist die zweite Differenz von Y in der Periode t gleich (Y t - Y t - 1) - (Y t - 1 - Y t - 2) Y t - 2Y t - 1 Y t - 2. Eine zweite Differenz einer diskreten Funktion ist analog zu einer zweiten Ableitung einer stetigen Funktion: sie misst die quotaccelerationquot oder quotcurvaturequot in der Funktion zu einem gegebenen Zeitpunkt. Das ARIMA (0,2,2) - Modell ohne Konstante prognostiziert, dass die zweite Differenz der Serie gleich einer linearen Funktion der letzten beiden Prognosefehler ist: die umgeordnet werden kann: wobei 952 1 und 952 2 die MA (1) und MA (2) Koeffizienten Dies ist ein allgemeines lineares exponentielles Glättungsmodell. Im Wesentlichen das gleiche wie Holt8217s Modell, und Brown8217s Modell ist ein Sonderfall. Es verwendet exponentiell gewichtete Bewegungsdurchschnitte, um sowohl eine lokale Ebene als auch einen lokalen Trend in der Serie abzuschätzen. Die langfristigen Prognosen von diesem Modell konvergieren zu einer geraden Linie, deren Hang hängt von der durchschnittlichen Tendenz, die gegen Ende der Serie beobachtet wird. ARIMA (1,1,2) ohne konstante gedämpfte Trend-lineare exponentielle Glättung. Dieses Modell wird in den beiliegenden Folien auf ARIMA-Modellen dargestellt. Es extrapoliert den lokalen Trend am Ende der Serie, aber erhebt es bei längeren Prognosehorizonten, um eine Note des Konservatismus einzuführen, eine Praxis, die empirische Unterstützung hat. Sehen Sie den Artikel auf quotWhy der Damped Trend Workquot von Gardner und McKenzie und die quotGolden Rulequot Artikel von Armstrong et al. für Details. Es ist grundsätzlich ratsam, an Modellen zu bleiben, bei denen mindestens eines von p und q nicht größer als 1 ist, dh nicht versuchen, ein Modell wie ARIMA (2,1,2) zu passen, da dies wahrscheinlich zu Überfüllung führen wird Und quotcommon-factorquot-Themen, die ausführlicher in den Anmerkungen zur mathematischen Struktur von ARIMA-Modellen diskutiert werden. Spreadsheet-Implementierung: ARIMA-Modelle wie die oben beschriebenen sind einfach in einer Kalkulationstabelle zu implementieren. Die Vorhersagegleichung ist einfach eine lineare Gleichung, die sich auf vergangene Werte der ursprünglichen Zeitreihen und vergangene Werte der Fehler bezieht. So können Sie eine ARIMA-Prognosekalkulationstabelle einrichten, indem Sie die Daten in Spalte A, die Prognoseformel in Spalte B und die Fehler (Daten minus Prognosen) in Spalte C speichern. Die Prognoseformel in einer typischen Zelle in Spalte B wäre einfach Ein linearer Ausdruck, der sich auf Werte in vorangehenden Zeilen der Spalten A und C bezieht, multipliziert mit den entsprechenden AR - oder MA-Koeffizienten, die in Zellen anderswo auf der Kalkulationstabelle gespeichert sind. STAT 497 VORTRAGSHINWEISE 2 1. AUTOCOVARIANCE UND DIE AUTOCORRELATIONSFUNKTIONEN Für einen stationären Prozess ist die Autokovarianz zwischen Y t und Y. Präsentation zum Thema: STAT 497 VORLERUNGSHINWEISE 2 1. AUTOCOVARIANZ UND DIE AUTOCORRELATIONSFUNKTIONEN Für einen stationären Prozess ist die Autokovarianz zwischen Y t und Y. Präsentationstranskript: 2 DIE AUTOCOVARIANCE UND DIE AUTOCORRELATIONSFUNKTIONEN Für ein stationäres Verfahren, die Autokovarianz zwischen Y t und Y tk ist und die Autokorrelationsfunktion 2 3 DIE AUTOCOVARIANCE UND DIE AUTOKORRELATIONSFUNKTIONEN EIGENSCHAFTEN: 1. 2. 3. 4. (notwendige Bedingung) k und k sind positiv semi - definit für jeden Satz von Zeitpunkte t 1, t 2,, tn und beliebige reelle Zahlen 1, 2 ,, n. (PACF) PACF ist die Korrelation zwischen Y t und Y t-k, nachdem ihre gegenseitige lineare Abhängigkeit von den dazwischen liegenden Variablen Y t-1, Y t-2, Y t-k1 entfernt worden ist. German: v3.espacenet. com/textdoc? DB = EPODOC & ... PN = Die bedingte Korrelation wird üblicherweise als Teilautokorrelation in Zeitreihen bezeichnet. 4 5 BERECHNUNG VON PACF 1. REGRESSIONSANSATZ: Betrachten wir ein Modell aus einem null mittleren stationären Prozess, wobei ki die Koeffizienten von Y t ki bezeichnet und etk der null mittlere Fehlerterm ist, der mit Y t ki, i0,1, k korreliert ist . Multiply beide Seiten von Y t kj 5 11 WHITE NOISE (WN) PROCESS Ein Prozess wird als ein weißes Rauschen (WN) - Prozess bezeichnet, wenn es sich um eine Folge von unkorrelierten Zufallsvariablen aus einer festen Verteilung mit konstantem Mittel, konstanter Varianz und Cov (Y T, Y tk) 0 für alle k0. 11 12 WHITE NOISE (WN) PROCESS Es ist ein stationärer Prozess mit Autokovarianzfunktion 12 Grundphänomen: ACFPACF 0, k 0. 13 WHITE NOISE (WN) PROCESS Weißes Rauschen (in der Spektralanalyse): Es wird weißes Licht erzeugt, bei dem alle Frequenzen ( Dh Farben) in gleicher Menge vorhanden sind. Gedächtnisloser Prozess Baustein, aus dem wir kompliziertere Modelle konstruieren können. Es spielt die Rolle einer orthogonalen Basis in der allgemeinen Vektor - und Funktionsanalyse. 13 15 ERGODIZITÄT Kolmogorovs Gesetz der großen Zahl (LLN) sagt, dass, wenn X i iid (, 2) für i 1. n, dann haben wir die folgende Grenze für das Ensemble Durchschnitt In Zeitreihen haben wir Zeitreihen Durchschnitt, nicht Ensemble Durchschnitt . Daher wird der Mittelwert durch Mittelung über die Zeit berechnet. Ist der Zeitreihen-Durchschnitt auf die gleiche Grenze wie das Ensemble-Durchschnitt konvergiert Die Antwort lautet ja, wenn Y t stationär und ergodisch ist. 15 16 ERGODIZITÄT Ein Kovarianz-stationärer Prozess soll für den Mittelwert ergodisch sein, wenn der Zeitreihen-Durchschnitt in die Population konvergiert. Ähnlich, wenn der Stichprobenmittelpunkt eine konsistente Schätzung für das zweite Moment liefert, dann wird der Prozess für das zweite Moment ergodisch sein. 16 17 ERGODIZITÄT Eine hinreichende Bedingung für einen Kovarianz-stationären Prozess, der für den Mittelwert ergodisch ist, ist das. Wenn also der Prozeß Gauß ist, dann stellen auch absolute summierbare Autokovarianzen sicher, daß der Prozeß für alle Momente ergodisch ist. 17 19 DIE BEISPIEL AUTOCORRELATIONSFUNKTION Ein Plot versus k ein Beispielkorrekturramm Für große Stichprobengrößen wird normalerweise mit dem Mittelwert k verteilt und die Varianz wird durch Bartletts Approximation für Prozesse, in denen k 0 für km liegt, angenähert. 19 m Title19 20 DIE BEISPIEL AUTOCORRELATIONSFUNKTION In der Praxis sind wir unbekannt und werden durch ihre Stichprobenschätzungen ersetzt. Daher haben wir den folgenden großen Verzögerungsstandardfehler von. 20 21 DIE BEISPIEL AUTOCORRELATIONSFUNKTION Für ein WN-Verfahren haben wir das 95 Konfidenzintervall für k. Um also den Prozeß zu testen, ist WN oder nicht, zeichne 2n 12 Zeilen auf das Probenkorrekturramm. Wenn alle innerhalb der Grenzen sind, könnte der Prozess WN sein (wir müssen auch die Probe PACF überprüfen). 21 Für einen WN-Prozess muss er nahe Null sein. 22 DIE BEISPIELE AUTOKORRELATIONSFUNKTION Für einen WN-Prozess kann 2n 12 als kritische Grenzen für kk verwendet werden, um die Hypothese eines WN-Prozesses zu testen. 22 23 BACKSHIFT (ODER LAG) OPERATOREN Backshift-Operator, B ist z. B. Random Shock Process: 23 24 MOVING DURCHSCHNITTLICHE REPRÄSENTATION EINER ZEIT SERIE Auch bekannt als Random Shock Form oder Wold (1938) Repräsentation. Sei eine Zeitreihe. Für einen stationären Prozess können wir als eine lineare Kombination von Folge von unkorrelierten (WN) r. v.s EIN ALLGEMEINER LINEARER PROZESS: 24 wo 0 I, ist ein 0 mittlerer WN-Prozess und 27 BEWEGUNG DURCHSCHNITTLICHE REPRÄSENTATION EINER ZEITREIHE Da es sich um unbegrenzte Summen handelt, ist die Voraussetzung für den stationären Zustand. Es ist ein nicht-deterministischer Prozess: Ein Prozess enthält keine deterministischen Komponenten (keine Zufälligkeit in den zukünftigen Zuständen des Systems), die genau aus ihrer eigenen Vergangenheit prognostiziert werden können. 27 28 AUTOCOVARIANCE-GENERIERUNGSFUNKTION Für eine gegebene Folge von Autokovarianzen k, k0, 1, 2 ist die autokovarianzerzeugende Funktion definiert, wo die Varianz eines gegebenen Prozesses 0 der Koeffizient von B 0 und die Autokovarianz der Verzögerung k ist, k die Koeffizient von B k und B k. 28 22 11 31 BEISPIEL a) Schreiben Sie die obige Gleichung in zufälliger Schockform. B) Finden Sie die autokovarianz erzeugende Funktion. 31 32 AUTOREGRESSIVE REPRÄSENTATION EINER ZEITREIHE Diese Darstellung wird auch als INVERTED FORM bezeichnet. Reagiere den Wert von Y t zur Zeit t auf seine eigene Vergangenheit plus einen zufälligen Schock. 32 33 AUTOREGRESSIVE REPRÄSENTATION EINER ZEITREIHE Es ist ein invertierbarer Prozess (es ist wichtig für die Prognose). Nicht jeder stationäre Prozess ist invertierbar (Box und Jenkins, 1978). Die Invertierbarkeit bietet die Einzigartigkeit der Autokorrelationsfunktion. Es bedeutet, dass verschiedene Zeitreihenmodelle voneinander ausgedrückt werden können. 33 34 INVERTIBILITÄTSREGEL MIT DEM RANDOM SHOCK FORM Für einen linearen Prozess, der invertierbar ist, müssen die Wurzeln von (B) 0 als Funktion von B außerhalb des Einheitskreises liegen. Ist eine Wurzel von (B), dann ist 1. (reelle Zahl) der absolute Wert von. (Komplexe Zahl) ist 34 1. (reelle Zahl) ist der absolute Wert von. (Komplexe Zahl) ist 34. 35 INVERTIBILITÄTSREGEL MIT DEM RANDOM SHOCK FORM Es kann stationär sein, wenn der Prozess in einem RSF umgeschrieben werden kann, dh 35 36 STATIONARITÄTSREGELN MIT DEM INVERTED FORM Für einen linearen Prozess, um invertierbar zu sein, Wurzeln von (B) 0 als Funktion von B müssen außerhalb des Einheitskreises liegen. Wenn eine Wurzel von (B), dann 1. 36 1. 36. 37 RANDOM SHOCK FORM UND INVERTED FORM AR und MA Darstellungen sind nicht die Modellform. Weil sie unendlich viele Parameter enthalten, die aus einer endlichen Anzahl von Beobachtungen nicht abzuschätzen sind. 37 38 TIME SERIES MODELLE In der invertierten Form eines Prozesses, wenn nur die endliche Anzahl von Gewichten ungleich Null ist, d. h. der Prozess heißt AR (p) - Verfahren. 38 39 TIME SERIES MODELLE In der Random Shock Form eines Prozesses, wenn nur die endliche Anzahl von Gewichten ungleich Null ist, d. h. der Prozess heißt MA (q) Prozess. 39 41 TIME SERIES MODELS Die Anzahl der Parameter in einem Modell kann groß sein. Eine natürliche Alternative ist der gemischte AR - und MA-Prozess ARMA (p, q) Prozess Für eine feste Anzahl von Beobachtungen, je mehr Parameter in einem Modell, desto effizienter ist die Schätzung der Parameter. Wähle ein einfacheres Modell, um das Phänomen zu beschreiben. 41 Download ppt STAT 497 VORTRAGSHINWEISE 2 1. AUTOCOVARIANCE UND DIE AUTOCORRELATIONSFUNKTIONEN Für einen stationären Prozess ist die Autokovarianz zwischen Y t und Y.

No comments:

Post a Comment