Saturday 28 October 2017

Gleitender Durchschnitt Ma (Q)


8.4 Verschieben von Durchschnittsmodellen Anstatt vergangene Werte der Prognosedatei in einer Regression zu verwenden, verwendet ein gleitendes Durchschnittsmodell vergangene Prognosefehler in einem Regressionsmodell. Y c et the theta e dots theta e, wobei et weißes Rauschen ist. Wir bezeichnen dies als MA (q) - Modell. Natürlich beobachten wir nicht die Werte von et, also ist es nicht wirklich Regression im üblichen Sinne. Man beachte, daß jeder Wert von yt als gewichteter gleitender Durchschnitt der letzten Prognosefehler betrachtet werden kann. Jedoch sollten gleitende Durchschnittsmodelle nicht mit der gleitenden glatten Glättung verwechselt werden, die wir in Kapitel 6 besprochen haben. Ein gleitendes Durchschnittsmodell wird für die Prognose zukünftiger Werte verwendet, während die gleitende gleitende Durchschnittskurve für die Abschätzung des Trendzyklus der vergangenen Werte verwendet wird. Abbildung 8.6: Zwei Beispiele für Daten aus gleitenden Durchschnittsmodellen mit unterschiedlichen Parametern. Links: MA (1) mit yt 20e t 0,8e t-1. Rechts: MA (2) mit y t e t - e t-1 0,8e t-2. In beiden Fällen ist e t normal verteiltes Weißrauschen mit Mittelwert Null und Varianz Eins. Abbildung 8.6 zeigt einige Daten aus einem MA (1) - Modell und einem MA (2) - Modell. Das Ändern der Parameter theta1, dots, thetaq führt zu unterschiedlichen Zeitreihenmustern. Wie bei autoregressiven Modellen wird die Varianz des Fehlerterms et nur den Maßstab der Reihe ändern, nicht die Muster. Es ist möglich, jedes stationäre AR (p) - Modell als MA (infty) - Modell zu schreiben. Beispielsweise können wir dies bei einem AR (1) - Modell demonstrieren: begin yt amp phi1y et amp phi1 (phi1y e) et amp phi12y phi1 e et amp phi13y phi12e phi1 e et amptext ende Provided -1 lt phi1 lt 1 wird der Wert von phi1k kleiner, wenn k größer wird. So erhalten wir schließlich yt und phi1 e phi12 e phi13 e cdots, ein MA (infty) Prozess. Das umgekehrte Ergebnis gilt, wenn wir den MA-Parametern einige Einschränkungen auferlegen. Dann wird das MA-Modell invertierbar. Das heißt, dass wir alle invertierbaren MA (q) Prozess als AR (infty) Prozess schreiben können. Invertible Modelle sind nicht einfach, damit wir von MA-Modellen auf AR-Modelle umwandeln können. Sie haben auch einige mathematische Eigenschaften, die sie in der Praxis einfacher zu verwenden. Die Invertibilitätsbedingungen sind den stationären Einschränkungen ähnlich. Für ein MA (1) Modell: -1lttheta1lt1. Für ein MA (2) - Modell: -1lttheta2lt1, theta2theta1 gt-1, theta1 - theta2 lt 1. Kompliziertere Bedingungen gelten für qge3. Wiederum wird R diese Einschränkungen bei der Schätzung der Modelle berücksichtigen. Moving Average - MA BREAKING DOWN Moving Average - MA Als SMA-Beispiel gilt eine Sicherheit mit folgenden Schlusskursen über 15 Tage: Woche 1 (5 Tage) 20, 22 , 24, 25, 23 Woche 2 (5 Tage) 26, 28, 26, 29, 27 Woche 3 (5 Tage) 28, 30, 27, 29, 28 Eine 10-tägige MA würde die Schlusskurse für den ersten Durchschnitt ausmachen 10 Tage als ersten Datenpunkt. Der nächste Datenpunkt würde den frühesten Preis senken, den Preis am Tag 11 addieren und den Durchschnitt nehmen, und so weiter, wie unten gezeigt. Wie bereits erwähnt, verzögert MAs die aktuelle Preisaktion, weil sie auf vergangenen Preisen basieren, je länger der Zeitraum für die MA ist, desto größer ist die Verzögerung. So wird ein 200-Tage-MA haben eine viel größere Verzögerung als eine 20-Tage-MA, weil es Preise für die letzten 200 Tage enthält. Die Länge der zu verwendenden MA hängt von den Handelszielen ab, wobei kürzere MAs für den kurzfristigen Handel und längerfristige MAs eher für langfristige Anleger geeignet sind. Die 200-Tage-MA ist weithin gefolgt von Investoren und Händlern, mit Pausen über und unter diesem gleitenden Durchschnitt als wichtige Trading-Signale. MAs auch vermitteln wichtige Handelssignale auf eigene Faust, oder wenn zwei Durchschnitte überqueren. Eine steigende MA zeigt an, dass die Sicherheit in einem Aufwärtstrend liegt. Während eine sinkende MA zeigt, dass es in einem Abwärtstrend ist. In ähnlicher Weise wird das Aufwärtsmoment mit einem bulligen Crossover bestätigt. Die auftritt, wenn eine kurzfristige MA über einem längerfristigen MA kreuzt. Abwärts-Momentum wird mit einem bärischen Übergang bestätigt, der auftritt, wenn ein kurzfristiges MA unter einem längerfristigen MA geht. Autoregressive Moving Average ARMA (p, q) Modelle für die Zeitreihenanalyse - Teil 2 In Teil 1 betrachteten wir das Autoregressive Modell Der Ordnung p, auch als AR (p) - Modell bekannt. Wir führten es als eine Erweiterung des Zufallsmodells ein, um eine weitere serielle Korrelation in finanziellen Zeitreihen zu erläutern. Schließlich erkannten wir, dass es nicht genügend flexibel war, um alle Autokorrelationen in den Schlusskursen der Amazon Inc. (AMZN) und des SampP500 US Equity Index wirklich zu erfassen. Der Hauptgrund dafür ist, dass beide Vermögenswerte bedingt heteroskedastisch sind. Was bedeutet, dass sie nicht-stationär sind und Perioden variierender Varianz oder Volatilitäts-Clustering aufweisen, was von dem AR (p) - Modell nicht berücksichtigt wird. In künftigen Artikeln werden wir schließlich die Autoregressive Integrated Moving Average (ARIMA) Modelle sowie die bedingt heteroskedastischen Modelle der ARCH - und GARCH-Familien aufbauen. Diese Modelle werden uns unsere ersten realistischen Versuche zur Prognose von Vermögenspreisen bieten. In diesem Artikel werden wir jedoch die Moving Average der Ordnung q-Modell, bekannt als MA (q) einzuführen. Dies ist ein Teil des allgemeineren ARMA-Modells und als solches müssen wir es verstehen, bevor wir weitergehen. Ich empfehle Ihnen, lesen Sie die vorherigen Artikel in der Zeitreihe Analyse-Sammlung, wenn Sie dies nicht getan haben. Sie können alle hier gefunden werden. Moving Average (MA) Modelle der Ordnung q Ein Moving Average-Modell ähnelt einem Autoregressive-Modell, mit der Ausnahme, dass es sich nicht um eine lineare Kombination aus vergangenen Zeitreihenwerten handelt, sondern um eine lineare Kombination der vergangenen weißen Rauschterme. Intuitiv bedeutet dies, dass das MA-Modell solche zufälligen weißen Rauschschocks direkt bei jedem aktuellen Wert des Modells sieht. Dies steht im Gegensatz zu einem AR (p) - Modell, wo die weißen Rauschschocks nur indirekt gesehen werden. Über Regression auf frühere Ausdrücke der Reihe. Ein wesentlicher Unterschied besteht darin, dass das MA-Modell nur die letzten q-Schocks für ein bestimmtes MA (q) - Modell sehen wird, während das AR (p) - Modell alle vorherigen Schocks berücksichtigt, wenn auch in einer abnehmend schwachen Weise. Definition Mathematisch ist das MA (q) ein lineares Regressionsmodell und ist ähnlich strukturiert nach AR (p): Moving Average Modell der Ordnung q Ein Zeitreihenmodell ist ein gleitendes Durchschnittsmodell der Ordnung q. MA (q), wenn: Anfang xt wt beta1 w ldots betaq w end Wo ist weißes Rauschen mit E (wt) 0 und Varianz sigma2. Wenn wir den Backward Shift Operator betrachten. (Siehe vorhergehender Artikel), so können wir die obigen Funktionen als Funktion phi folgendermaßen umschreiben: begin xt (1 beta1 beta2 2 ldots betaq q) wt phiq () wt end Wir werden in späteren Artikeln die phi-Funktion nutzen. Eigenschaften der zweiten Ordnung Wie bei AR (p) ist der Mittelwert eines MA (q) - Verfahrens gleich Null. Dies ist leicht zu sehen, da der Mittelwert einfach eine Summe von Mitteln von weißen Rauschtermen ist, die alle selbst Null sind. Start Text enspace mux E (xt) Summe E (wi) 0 Ende Anfang Text enspace sigma2w (1 beta21 ldots beta2q) Ende Text enspace rhok links 1 Text enspace k 0 Summe Beta Beta Summe Beta2i Text enspace k 1, ldots, q 0 Text Enspace k gt q Ende rechts. Wo beta0 1. Wurden jetzt einige simulierte Daten generieren und verwenden, um correlograms zu erstellen. Dies wird die obige Formel für rhok etwas konkreter machen. Simulationen und Correlogramme Beginnen wir mit einem MA (1) - Prozess. Wenn wir beta1 0.6 setzen, erhalten wir das folgende Modell: Wie bei den AR (p) - Modellen im vorherigen Artikel können wir R verwenden, um eine solche Reihe zu simulieren und dann das Korrelogramm zu zeichnen. Da wir in der vorigen Zeitreihenanalyse eine Reihe von Übungen durchführen, werde ich den R-Code vollständig schreiben, anstatt ihn aufzuteilen: Die Ausgabe ist wie folgt: Wie wir oben in der Formel für rhok gesehen haben , Für k gt q sollten alle Autokorrelationen Null sein. Da q 1 ist, sollten wir einen signifikanten Peak bei k1 und dann danach signifikante Peaks sehen. Aufgrund der Stichprobenvorhersage sollten wir jedoch erwarten, dass 5 (marginal) signifikante Peaks auf einer Stichproben-Autokorrelationskurve zu sehen sind. Genau das zeigt uns das Korrelogramm. Wir haben einen signifikanten Peak bei k1 und dann unbedeutende Peaks für k gt 1, mit Ausnahme von k4, wo wir einen marginell signifikanten Peak haben. Tatsächlich ist dies eine nützliche Möglichkeit, zu sehen, ob ein MA (q) - Modell geeignet ist. Durch Betrachten des Korrelogramms einer bestimmten Reihe können wir sehen, wie viele sequenzielle Nicht-Null-Verzögerungen existieren. Wenn q solche Lags existieren, dann können wir legitimerweise versuchen, ein MA (q) - Modell an eine bestimmte Serie anzupassen. Da wir Beweise aus unseren simulierten Daten eines MA (1) - Prozesses haben, sollten wir nun versuchen, ein MA (1) - Modell an unsere simulierten Daten anzupassen. Leider gibt es keinen äquivalenten ma Befehl zum autoregressiven Modell ar Befehl in R. Stattdessen müssen wir den allgemeineren arima Befehl benutzen und die autoregressiven und integrierten Komponenten auf Null setzen. Dazu erstellen wir einen 3-Vektor und setzen die ersten beiden Komponenten (die autogressiven und integrierten Parameter) auf Null: Wir erhalten eine nützliche Ausgabe aus dem Befehl arima. Erstens können wir sehen, dass der Parameter als Hut 0.602 geschätzt wurde, der sehr nahe am wahren Wert von beta1 0,6 liegt. Zweitens sind die Standardfehler bereits für uns berechnet, so dass es einfach ist, Konfidenzintervalle zu berechnen. Drittens erhalten wir eine geschätzte Varianz, Log-Likelihood und Akaike Information Criterion (notwendig für Modellvergleich). Der Hauptunterschied zwischen arima und ar ist, dass arima einen Intercept-Term schätzt, da er den Mittelwert der Serie nicht subtrahiert. Daher müssen wir vorsichtig sein, wenn wir Vorhersagen mit dem Befehl arima durchführen. Nun wieder auf diesen Punkt später. Wie ein schneller Check wurden, um Konfidenzintervalle für Hut zu berechnen: Wir können sehen, dass die 95 Konfidenzintervall den wahren Parameterwert von beta1 0,6 enthält und so können wir beurteilen, das Modell eine gute Passform. Offensichtlich sollte das erwartet werden, da wir die Daten an erster Stelle simuliert haben. Wie ändern sich die Dinge, wenn wir das Vorzeichen von beta1 auf -0.6 ändern, können wir die gleiche Analyse durchführen: Die Ausgabe ist wie folgt: Wir können sehen, dass wir bei k1 einen signifikanten Wert haben Peak im Korrelogramm, mit der Ausnahme, dass es eine negative Korrelation zeigt, wie sie von einem MA (1) - Modell mit negativem ersten Koeffizienten erwartet wird. Wiederum sind alle Peaks jenseits k1 unbedeutend. Ermöglicht ein MA (1) - Modell und schätzen den Parameter: Hut -0.730, was eine kleine Unterbewertung von beta1 -0.6 ist. Schließlich lässt sich das Konfidenzintervall berechnen: Wir können sehen, dass der wahre Parameterwert von beta1-0.6 innerhalb des 95 Konfidenzintervalls enthalten ist, was uns den Beweis für ein gutes Modell passt. Lass uns das gleiche Verfahren für einen MA (3) Prozess durchlaufen. Diesmal sollten signifikante Peaks bei k in und unbedeutende Peaks für k gt 3 erwartet werden. Wir verwenden die folgenden Koeffizienten: beta1 0,6, beta2 0,4 und beta3 0,2. Wir können einen MA (3) Prozess von diesem Modell simulieren. Ive erhöhte die Anzahl der zufälligen Proben auf 1000 in dieser Simulation, was es leichter macht, die wahre Autokorrelationsstruktur zu sehen, und zwar auf Kosten der Herstellung der Originalreihe schwerer zu interpretieren: Die Ausgabe ist wie folgt: Wie erwartet sind die ersten drei Spitzen signifikant . Jedoch ist so das vierte. Aber wir können legitim vorschlagen, dass dies auf eine Stichprobe zurückzuführen ist, da wir erwarten, dass 5 der Peaks signifikant über kq hinausgehen. Nun kann ein MA (3) - Modell an die Daten angepasst werden, um zu versuchen, Parameter zu schätzen: Die Schätzwerte Hut 0,544, Hut 0,345 und Hut 0,228 sind nahe an den wahren Werten von beta10,6, beta20,4 bzw. beta30,3. Wir können auch Konfidenzintervalle mit den jeweiligen Standardfehlern erzeugen: In jedem Fall enthalten die 95 Konfidenzintervalle den wahren Parameterwert und wir können schließen, dass wir, wie zu erwarten, gut mit unserem MA (3) - Modell übereinstimmen. Finanzdaten In Teil 1 betrachteten wir Amazon Inc. (AMZN) und den SampP500 US Equity Index. Wir passten das AR (p) - Modell an beide an und fanden, dass das Modell nicht in der Lage war, die Komplexität der seriellen Korrelation effektiv zu erfassen, vor allem im Guss des SampP500, wo Langzeitgedächtniseffekte zu sein scheinen. Ich wont plot die Diagramme wieder für die Preise und Autokorrelation, statt Ill weisen Sie auf die vorherige Post. Amazon Inc. (AMZN) Beginnen wir mit dem Versuch, eine Auswahl von MA (q) - Modellen an AMZN, nämlich mit q in passen. Wie in Teil 1, verwenden Sie quantmod, um die täglichen Preise für AMZN herunterzuladen und sie dann in ein Protokoll umzuwandeln, um Strom von Schlusskursen zurückzugeben: Jetzt können wir den Befehl arima verwenden, um MA (1), MA zu passen (2) und MA (3) - Modellen und schätzen dann die Parameter von jedem. Für MA (1) haben wir: Wir können die Residuen der täglichen Logarithmen und des angepassten Modells darstellen: Beachten Sie, dass wir einige signifikante Peaks bei den Lags k2, k11, k16 und k18 haben, was anzeigt, dass das MA (1) - Modell ist Unwahrscheinlich, dass eine gute Passform für das Verhalten der AMZN-Log-Rückkehr, da dies nicht aussehen wie eine Verwirklichung von weißem Rauschen. Lets try ein MA (2) - Modell: Beide Schätzungen für die Beta-Koeffizienten sind negativ. Wir können die Residuen wieder zeichnen: Wir können sehen, dass es fast Null Autokorrelation in den ersten paar Verzögerungen. Allerdings haben wir fünf marginale signifikante Peaks bei den Verzögerungen k12, k16, k19, k25 und k27. Dies ist naheliegend, dass das MA (2) - Modell viel von der Autokorrelation erfasst, aber nicht alle Langzeitspeicher-Effekte. Wie sieht es mit einem MA (3) - Modell aus? Wiederum können die Residuen geplottet werden: Das MA (3) Residualplot sieht fast identisch mit dem MA (2) - Modell aus. Dies ist nicht verwunderlich, wie das Hinzufügen eines neuen Parameters zu einem Modell, scheinbar erklärt hat viel von den Korrelationen bei kürzeren Verzögerungen, aber das hat nicht viel Einfluss auf die längerfristigen Verzögerungen. Alle diese Beweise deuten darauf hin, dass ein MA (q) - Modell ist unwahrscheinlich, dass es nützlich sein, zu erklären, alle der seriellen Korrelation in Isolation. Zumindest für AMZN. SampP500 Wenn Sie sich erinnern, in Teil 1 sahen wir, dass die erste Reihenfolge differenzierte tägliche Log Rückkehr Struktur des SampP500 besaß viele signifikante Peaks bei verschiedenen Lags, sowohl kurz als auch lang. Dies zeigte sowohl die bedingte Heteroskedastizität (d. H. Die Volatilitäts-Clusterbildung) als auch die Langzeitspeicher-Effekte. Es führte zu dem Schluss, dass das AR (p) - Modell nicht ausreicht, um die gesamte vorhandene Autokorrelation zu erfassen. Wie wir oben gesehen haben, reicht das MA (q) - Modell nicht aus, um zusätzliche Serienkorrelationen in den Resten des eingebauten Modells auf die differenzierten täglichen Log-Preisreihen erster Ordnung zu erfassen. Wir werden nun versuchen, das MA (q) - Modell an den SampP500 anzupassen. Man könnte fragen, warum wir dies tun, wenn wir wissen, dass es unwahrscheinlich, dass eine gute Passform ist. Das ist eine gute Frage. Die Antwort ist, dass wir genau sehen müssen, wie es nicht eine gute Passform ist, denn dies ist der ultimative Prozess, dem wir folgen werden, wenn wir auf sehr viel anspruchsvollere Modelle stoßen, die möglicherweise schwerer zu interpretieren sind. Lets beginnen mit dem Erhalten der Daten und wandeln sie in eine erste Reihe differenzierte Reihe von logarithmisch umgewandelten täglichen Schlusskurse wie im vorherigen Artikel: Wir werden jetzt ein MA (1), MA (2) und MA (3) - Modell zu passen Die Serie, wie wir oben für AMZN. Beginnen wir mit MA (1): Machen wir eine Auftragung der Residuen dieses angepassten Modells: Der erste signifikante Peak tritt bei k2 auf, aber es gibt viel mehr bei k in. Dies ist eindeutig keine Verwirklichung von weißem Rauschen und deshalb müssen wir das MA (1) - Modell als eine für den SampP500 geeignete Potenz ablehnen. (2) Wiederum lassen sich die Residuen dieses angepassten MA (2) - Modells machen: Während der Peak bei k2 verschwunden ist (wie wir es erwarten), bleiben wir mit den signifikanten Peaks bei Viele längere Verzögerungen in den Resten. Noch einmal, finden wir das MA (2) - Modell ist nicht eine gute Passform. Für das MA (3) - Modell ist zu erwarten, dass bei k3 weniger serielle Korrelation als bei der MA (2) zu sehen ist, doch sollten wir auch hier keine Reduzierung weiterer Verzögerungen erwarten. Schließlich lässt sich eine Auftragung der Residuen dieses angepassten MA (3) - Modells machen: Genau das sehen wir im Korrelogramm der Residuen. Daher ist die MA (3), wie bei den anderen Modellen oben, nicht gut für den SampP500 geeignet. Die nächsten Schritte Weve untersuchte nun zwei große Zeitreihenmodelle im Detail, nämlich das autogressive Modell der Ordnung p, AR (p) und dann den Moving Average der Ordnung q, MA (q). Wir haben gesehen, dass sie beide in der Lage sind, einige der Autokorrelation in den Resten der ersten Ordnung differenzierte tägliche Log-Preise von Aktien und Indizes weg zu erklären, aber Volatilitäts-Clustering und Lang-Speicher-Effekte bestehen. Es ist endlich Zeit, unsere Aufmerksamkeit auf die Kombination dieser beiden Modelle, nämlich der Autoregressive Moving Average der Ordnung p, q, ARMA (p, q) zu lenken, um zu sehen, ob es die Situation weiter verbessern wird. Allerdings müssen wir warten, bis der nächste Artikel für eine vollständige Diskussion Klicken Sie unten, um mehr darüber zu erfahren. Die Informationen auf dieser Website ist die Meinung der einzelnen Autoren auf der Grundlage ihrer persönlichen Beobachtung, Forschung und jahrelange Erfahrung. Der Herausgeber und seine Autoren sind nicht registrierte Anlageberater, Rechtsanwälte, CPAs oder andere Finanzdienstleister und machen keine Rechts-, Steuer-, Rechnungswesen, Anlageberatung oder andere professionelle Dienstleistungen. Die Informationen, die von dieser Web site angeboten werden, sind nur allgemeine Ausbildung. Weil jeder Einzelne sachliche Situation anders ist, sollte der Leser seinen persönlichen Berater suchen. Weder der Autor noch der Herausgeber übernehmen jegliche Haftung oder Verantwortung für Fehler oder Auslassungen und haben weder eine Haftung noch Verantwortung gegenüber Personen oder Körperschaften in Bezug auf Schäden, die direkt oder indirekt durch die auf dieser Website enthaltenen Informationen verursacht oder vermutet werden. Benutzung auf eigene Gefahr. Darüber hinaus kann diese Website erhalten finanzielle Entschädigung von den Unternehmen erwähnt durch Werbung, Affiliate-Programme oder auf andere Weise. Preise und Angebote von Inserenten auf dieser Website ändern sich häufig, manchmal ohne Vorankündigung. Während wir uns bemühen, rechtzeitige und genaue Informationen aufrechtzuerhalten, können Angebot Details veraltet sein. Besucher sollten daher die Bedingungen dieser Angebote vor der Teilnahme an ihnen überprüfen. Der Autor und sein Herausgeber haften nicht für die Aktualisierung der Informationen und haften nicht für Inhalte, Produkte und Dienstleistungen von Drittanbietern, auch wenn sie über Hyperlinks oder Anzeigen auf dieser Website aufgerufen werden.

No comments:

Post a Comment