Wednesday 7 June 2017

Exponentiell Gewichtetes Gleitendes Durchschnittsmodell

Weighted Moving Averages: Die Grundlagen Im Laufe der Jahre haben Techniker zwei Probleme mit dem einfachen gleitenden Durchschnitt gefunden. Das erste Problem liegt im Zeitrahmen des gleitenden Durchschnitts (MA). Die meisten technischen Analysten glauben, dass Preis-Aktion. Der Eröffnungs - oder Schlussaktienkurs, reicht nicht aus, um davon abhängen zu können, ob Kauf - oder Verkaufssignale der MAs-Crossover-Aktion richtig vorhergesagt werden. Zur Lösung dieses Problems weisen die Analysten den jüngsten Preisdaten nun mehr Gewicht zu, indem sie den exponentiell geglätteten gleitenden Durchschnitt (EMA) verwenden. (Erfahren Sie mehr bei der Exploration der exponentiell gewogenen gleitenden Durchschnitt.) Ein Beispiel Zum Beispiel, mit einem 10-Tage-MA, würde ein Analytiker den Schlusskurs des 10. Tag nehmen und multiplizieren Sie diese Zahl mit 10, der neunte Tag um neun, der achte Tag um acht und so weiter auf die erste der MA. Sobald die Summe bestimmt worden ist, würde der Analytiker dann die Zahl durch die Addition der Multiplikatoren dividieren. Wenn Sie die Multiplikatoren des 10-Tage-MA-Beispiels hinzufügen, ist die Zahl 55. Dieses Kennzeichen wird als linear gewichteter gleitender Durchschnitt bezeichnet. (Für verwandte Themen lesen Sie in Simple Moving Averages machen Trends Stand Out.) Viele Techniker sind fest davon überzeugt, in der exponentiell geglättet gleitenden Durchschnitt (EMA). Dieser Indikator wurde auf so viele verschiedene Weisen erklärt, dass er Studenten und Investoren gleichermaßen verwirrt. Vielleicht die beste Erklärung kommt von John J. Murphys Technische Analyse der Finanzmärkte, (veröffentlicht von der New York Institute of Finance, 1999): Der exponentiell geglättete gleitende Durchschnitt behebt beide Probleme mit dem einfachen gleitenden Durchschnitt verbunden. Erstens weist der exponentiell geglättete Durchschnitt den neueren Daten ein größeres Gewicht zu. Daher ist es ein gewichteter gleitender Durchschnitt. Doch während es den vergangenen Preisdaten eine geringere Bedeutung zuweist, enthält es in seiner Berechnung alle Daten in der Lebensdauer des Instruments. Zusätzlich ist der Benutzer in der Lage, die Gewichtung anzupassen, um ein größeres oder geringeres Gewicht zu dem letzten Tagespreis zu ergeben, der zu einem Prozentsatz des vorherigen Tageswertes addiert wird. Die Summe der beiden Prozentwerte addiert sich zu 100. Beispielsweise könnte dem letzten Tagespreis ein Gewicht von 10 (.10) zugewiesen werden, das zum vorherigen Tagegewicht von 90 (.90) addiert wird. Das ergibt den letzten Tag 10 der Gesamtgewichtung. Dies wäre das Äquivalent zu einem 20-Tage-Durchschnitt, indem die letzten Tage Preis einen kleineren Wert von 5 (.05). Abbildung 1: Exponentiell geglättete gleitende Durchschnittswerte Die obige Grafik zeigt den Nasdaq Composite Index von der ersten Woche im Aug. 2000 bis zum 1. Juni 2001. Wie Sie deutlich sehen können, ist die EMA, die in diesem Fall die Schlusskursdaten über eine Neun-Tage-Zeitraum, hat endgültige Verkaufssignale am 8. September (gekennzeichnet durch einen schwarzen Pfeil nach unten). Dies war der Tag, an dem der Index unter dem Niveau von 4.000 unterbrach. Der zweite schwarze Pfeil zeigt ein anderes Bein, das die Techniker tatsächlich erwartet hatten. Der Nasdaq konnte nicht genug Volumen und Interesse von den Kleinanlegern erzeugen, um die 3.000 Marke zu brechen. Danach tauchte es wieder zu Boden, um 1619.58 am 4. April. Der Aufwärtstrend vom 12. April ist durch einen Pfeil markiert. Hier schloss der Index bei 1.961,46, und Techniker begannen zu sehen, institutionelle Fondsmanager ab, um einige Schnäppchen wie Cisco, Microsoft und einige der energiebezogenen Fragen abholen. (Lesen Sie unsere verwandten Artikel: Moving Average Umschläge: Raffinieren ein beliebtes Trading-Tool und Moving Average Bounce.) Eine Person, die Derivate, Rohstoffe, Anleihen, Aktien oder Währungen mit einem überdurchschnittlichen Risiko als Gegenleistung handelt. "HINTquot ist ein Akronym, das für für quothigh Einkommen keine Steuern steht. Es wird auf Hochverdiener angewendet, die vermeiden, Bundeseinkommen zu zahlen. Ein Market Maker, dass kauft und verkauft extrem kurzfristige Unternehmensanleihen genannt Commercial Paper. Ein Papierhändler ist in der Regel. Der uneingeschränkte Kauf und Verkauf von Waren und Dienstleistungen zwischen den Ländern ohne die Auferlegung von Zwängen wie. Erfahren der exponentiell gewichteten Moving Average Volatility ist die häufigste Maßnahme des Risikos, aber es kommt in mehreren Geschmacksrichtungen. In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität berechnet. (Um diesen Artikel zu lesen, lesen Sie unter Verwenden der Volatilität, um zukünftiges Risiko zu messen.) Wir verwendeten Googles tatsächliche Aktienkursdaten, um die tägliche Volatilität basierend auf 30 Tagen der Bestandsdaten zu berechnen. In diesem Artikel werden wir auf einfache Volatilität zu verbessern und diskutieren den exponentiell gewichteten gleitenden Durchschnitt (EWMA). Historische Vs. Implied Volatility Erstens, lassen Sie diese Metrik in ein bisschen Perspektive. Es gibt zwei breite Ansätze: historische und implizite (oder implizite) Volatilität. Der historische Ansatz geht davon aus, dass Vergangenheit ist Prolog Wir messen Geschichte in der Hoffnung, dass es prädiktive ist. Die implizite Volatilität dagegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst. Es hofft, dass der Markt am besten weiß und dass der Marktpreis, auch wenn implizit, eine Konsensschätzung der Volatilität enthält. (Für verwandte Erkenntnisse siehe Die Verwendungen und Grenzen der Volatilität.) Wenn wir uns auf die drei historischen Ansätze (auf der linken Seite) konzentrieren, haben sie zwei Schritte gemeinsam: Berechnen Sie die Reihe der periodischen Renditen Berechnen die periodische Rendite. Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rendite in kontinuierlich zusammengesetzten Ausdrücken ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse (d. H. Preis heute geteilt durch den Preis gestern und so weiter). Dies erzeugt eine Reihe von täglichen Renditen, von u i bis u i-m. Je nachdem wie viele Tage (m Tage) wir messen. Das bringt uns zum zweiten Schritt: Hier unterscheiden sich die drei Ansätze. Wir haben gezeigt, dass die einfache Varianz im Rahmen einiger akzeptabler Vereinfachungen der Mittelwert der quadratischen Renditen ist: Beachten Sie, dass diese Summe die periodischen Renditen zusammenfasst und dann diese Summe durch die Anzahl der Tage oder Beobachtungen (m). Also, seine wirklich nur ein Durchschnitt der quadrierten periodischen kehrt zurück. Setzen Sie einen anderen Weg, jede quadratische Rückkehr wird ein gleiches Gewicht gegeben. Wenn also Alpha (a) ein Gewichtungsfaktor (speziell eine 1 / m) ist, dann sieht eine einfache Varianz so aus: Die EWMA verbessert die einfache Varianz Die Schwäche dieses Ansatzes ist, dass alle Renditen das gleiche Gewicht verdienen. Yesterdays (sehr jüngste) Rückkehr hat keinen Einfluss mehr auf die Varianz als die letzten Monate zurück. Dieses Problem wird durch Verwendung des exponentiell gewichteten gleitenden Mittelwerts (EWMA), bei dem neuere Renditen ein größeres Gewicht auf die Varianz aufweisen, festgelegt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) führt Lambda ein. Die als Glättungsparameter bezeichnet wird. Lambda muss kleiner als 1 sein. Unter dieser Bedingung wird anstelle der gleichen Gewichtungen jede quadratische Rendite durch einen Multiplikator wie folgt gewichtet: Beispielsweise neigt die RiskMetrics TM, eine Finanzrisikomanagementgesellschaft, dazu, eine Lambda von 0,94 oder 94 zu verwenden. In diesem Fall wird die erste ( (1 - 0,94) (94) 0 6. Die nächste quadrierte Rückkehr ist einfach ein Lambda-Vielfaches des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5,64. Und das dritte vorherige Tagegewicht entspricht (1-0,94) (0,94) 2 5,30. Das ist die Bedeutung von exponentiell in EWMA: jedes Gewicht ist ein konstanter Multiplikator (d. h. Lambda, der kleiner als eins sein muß) des vorherigen Gewichtes. Dies stellt eine Varianz sicher, die gewichtet oder zu neueren Daten voreingenommen ist. (Weitere Informationen finden Sie im Excel-Arbeitsblatt für die Googles-Volatilität.) Der Unterschied zwischen einfacher Volatilität und EWMA für Google wird unten angezeigt. Einfache Volatilität wiegt effektiv jede periodische Rendite von 0,196, wie in Spalte O gezeigt (wir hatten zwei Jahre tägliche Aktienkursdaten, das sind 509 tägliche Renditen und 1/509 0,196). Aber beachten Sie, dass die Spalte P ein Gewicht von 6, dann 5,64, dann 5,3 und so weiter. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Denken Sie daran: Nachdem wir die Summe der ganzen Reihe (in Spalte Q) haben wir die Varianz, die das Quadrat der Standardabweichung ist. Wenn wir Volatilität wollen, müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und der EWMA im Googles-Fall? Bedeutend: Die einfache Varianz gab uns eine tägliche Volatilität von 2,4, aber die EWMA gab eine tägliche Volatilität von nur 1,4 (Details siehe Tabelle). Offenbar ließ sich die Googles-Volatilität in jüngster Zeit nieder, daher könnte eine einfache Varianz künstlich hoch sein. Die heutige Varianz ist eine Funktion der Pior Tage Variance Youll bemerken wir benötigt, um eine lange Reihe von exponentiell sinkenden Gewichte zu berechnen. Wir werden die Mathematik hier nicht durchführen, aber eine der besten Eigenschaften der EWMA ist, daß die gesamte Reihe zweckmäßigerweise auf eine rekursive Formel reduziert: Rekursiv bedeutet, daß heutige Varianzreferenzen (d. h. eine Funktion der früheren Tagesvarianz) ist. Sie können diese Formel auch in der Kalkulationstabelle zu finden, und es erzeugt genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt: Die heutige Varianz (unter EWMA) ist gleichbedeutend mit der gestrigen Abweichung (gewichtet mit Lambda) plus der gestrigen Rückkehr (gewogen durch ein Minus-Lambda). Beachten Sie, wie wir sind nur das Hinzufügen von zwei Begriffe zusammen: gestern gewichtet Varianz und gestern gewichtet, quadriert zurück. Dennoch ist Lambda unser Glättungsparameter. Ein höheres Lambda (z. B. wie RiskMetrics 94) deutet auf einen langsameren Abfall in der Reihe hin - in relativer Hinsicht werden wir mehr Datenpunkte in der Reihe haben, und sie fallen langsamer ab. Auf der anderen Seite, wenn wir das Lambda reduzieren, deuten wir auf einen höheren Abfall hin: die Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. (In der Kalkulationstabelle ist Lambda ein Eingang, so dass Sie mit seiner Empfindlichkeit experimentieren können). Zusammenfassung Volatilität ist die momentane Standardabweichung einer Aktie und die häufigste Risikomessung. Es ist auch die Quadratwurzel der Varianz. Wir können Varianz historisch oder implizit messen (implizite Volatilität). Bei der historischen Messung ist die einfachste Methode eine einfache Varianz. Aber die Schwäche mit einfacher Varianz ist alle Renditen bekommen das gleiche Gewicht. So stehen wir vor einem klassischen Kompromiss: Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch weit entfernte (weniger relevante) Daten verdünnt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) verbessert die einfache Varianz durch Zuordnen von Gewichten zu den periodischen Renditen. Auf diese Weise können wir beide eine große Stichprobengröße, sondern auch mehr Gewicht auf neuere Renditen. (Um eine Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionic Turtle.) Eine Person, die Derivate, Rohstoffe, Anleihen, Aktien oder Währungen mit einem überdurchschnittlichen Risiko als Gegenleistung handelt. "HINTquot ist ein Akronym, das für für quothigh Einkommen keine Steuern steht. Es wird auf Hochverdiener angewendet, die vermeiden, Bundeseinkommen zu zahlen. Ein Market Maker, dass kauft und verkauft extrem kurzfristige Unternehmensanleihen genannt Commercial Paper. Ein Papierhändler ist in der Regel. Der uneingeschränkte Kauf und Verkauf von Waren und Dienstleistungen zwischen den Ländern ohne die Einführung von Zwängen wie GARCH und EWMA 21. Mai 2010 von David Harper, CFA, FRM, CIPM AIM: Vergleichen, kontrastieren und berechnen parametrische und nicht-parametrische Ansätze für die Schätzung bedingte Volatilität 8230 Einschließlich: GARCH APPROACH Einschließlich: EXPONENTIAL SMOOTHING (EWMA) Exponentielle Glättung (bedingte parametrische) Moderne Methoden setzen mehr Gewicht auf aktuelle Informationen. Sowohl EWMA als auch GARCH legen mehr Wert auf aktuelle Informationen. Da EWMA ein Spezialfall von GARCH ist, verwenden sowohl EWMA als auch GARCH exponentielle Glättung. GARCH (p, q) und insbesondere GARCH (1, 1) GARCH (p, q) ist ein allgemeines autoregressives bedingtes heteroskedastisches Modell. Zu den wichtigsten Aspekten gehören: Autoregressive (AR). Tomorrow8217s Varianz (oder Volatilität) ist eine regressive Funktion von heute8217s variance8212it regresses auf sich Bedingte (C). Tomorrow8217s Varianz hängt8212is bedingt an8212die neueste Varianz. Eine bedingungslose Varianz hängt nicht von der heutigen Heteroskedastik (H) ab. Abweichungen sind nicht konstant, sie Fluß im Laufe der Zeit GARCH regresses auf 8220lagged8221 oder historische Begriffe. Die verzögerten Terme sind entweder Varianz - oder quadratische Renditen. Das generische GARCH (p, q) - Modell regressiert auf (p) quadratischen Renditen und (q) Varianzen. Daher rückt GARCH (1, 1) 8220lags8221 oder regressiert auf der quadrierten Rückkehr der letzten Periode8217s (d. h. nur 1 zurück) und der letzten Periode8217s-Varianz (d. h. nur 1 Varianz). GARCH (1, 1), die durch die folgende Gleichung gegeben ist. Die gleiche GARCH (1, 1) - Formel kann mit griechischen Parametern angegeben werden: Hull schreibt die gleiche GARCH-Gleichung wie folgt: Der erste Term (gVL) ist wichtig, da VL die Langzeit-Varianz ist. Daher ist (gVL) ein Produkt: es ist die gewichtete langfristige durchschnittliche Varianz. Das GARCH-Modell (1, 1) löst für die bedingte Varianz als Funktion von drei Variablen (vorherige Varianz, frühere Rückkehr2 und Langzeitvarianz): Persistenz ist ein in das GARCH-Modell eingebettetes Merkmal. Tipp: In den obigen Formeln ist die Persistenz (b ​​c) oder (alpha-1 beta). Persistenz bezieht sich darauf, wie schnell (oder langsam) die Varianz zurückkehrt oder 8220decays8221 in Richtung zu seinem langfristigen Durchschnitt. Eine hohe Persistenz entspricht einem langsamen Verfall und einem langsamen Rückgang auf die mittlere8221 niedrige Persistenz entspricht einem schnellen Zerfall und einer schnellen 8220-Rückkehr zum Mittel.8221 Eine Persistenz von 1,0 impliziert keine mittlere Reversion. Eine Beharrlichkeit von weniger als 1,0 bedeutet 8220reversion des Mittelwerts, 8221, wo eine geringere Persistenz eine grßere Reversion des Mittels zur Folge hat. Tip: Wie oben ist die Summe der Gewichte, die der verzögerten Varianz und der verzögerten quadrierten Rendite zugeordnet sind, Persistenz (bc Persistenz). Eine hohe Persistenz (größer als Null, aber kleiner als eins) impliziert eine langsame Reversion auf den Mittelwert. Wenn jedoch die Gewichte, die der verzögerten Varianz und der verzögerten quadratischen Rückkehr zugewiesen sind, größer als eins sind, ist das Modell nicht stationär. Ist (bc) größer als 1 (wenn bc gt 1) ist das Modell nicht stationär und nach Hull instabil. In diesem Fall ist EWMA bevorzugt. Linda Allen sagt über GARCH (1, 1): GARCH ist sowohl 8220compact8221 (d. H. Relativ einfach) als auch bemerkenswert genau. GARCH-Modelle dominieren in der wissenschaftlichen Forschung. Viele Variationen der GARCH-Modell wurden versucht, aber nur wenige haben auf das Original verbessert. Der Nachteil des GARCH-Modells ist seine Nichtlinearität sic Beispiel: Lösung für Langzeitvarianz in GARCH (1,1) Betrachten wir die GARCH (1, 1) - Gleichung unten: Angenommen, der Alpha-Parameter 0.2, der Beta-Parameter 0.7, Und beachten Sie, dass Omega 0,2, aber don8217t Fehler Omega (0,2) für die langfristige Varianz Omega ist das Produkt von Gamma und die langfristige Varianz. Also, wenn Alpha-beta 0,9, dann muss gamma 0,1 sein. Da Omega 0,2 ist, wissen wir, dass die Langzeitvarianz 2,0 (0,2 184 0,1 2,0) betragen muss. GARCH (1,1): Mere notation Unterschied zwischen Hull und Allen EWMA EWMA ist ein Spezialfall von GARCH (1,1) und GARCH (1,1) ist eine verallgemeinerte Fall EWMA. Der herausragende Unterschied ist, dass GARCH den zusätzlichen Begriff für mittlere Reversion enthält und EWMA fehlt eine mittlere Reversion. Hier ist, wie wir aus GARCH (1,1) zu EWMA erhalten: Dann lassen wir ein 0 und (bc) 1, so dass die obige Gleichung vereinfacht sich zu: Dies ist auf die Formel jetzt äquivalent ist für exponentiell Durchschnitt (EWMA) gewichteten gleitenden: In EWMA bestimmt der Lambda-Parameter nun das 8220decay: 8221 ein Lambda, das nahe bei einem (hohen Lambda) liegt, zeigt einen langsamen Abfall. Die RiskMetricsTM Ansatz Riskmetrics ist ein Marken Form des exponentiell gewichteten gleitenden Durchschnitt (EWMA) Ansatz: Die optimale (theoretische) Lambda variiert je nach Anlageklasse, aber die gesamte optimalen Parameter von Riskmetrics hat 0,94 gewesen. In der Praxis verwendet Riskmetrics nur ein Dämpfungsfaktor für alle Serien: 183 0,94 für den täglichen Daten 183 0.97 für monatliche Daten (Monat definiert als 25 Handelstage) Technisch sind die täglichen und monatlichen Modelle inkonsistent. Allerdings sind sie beide einfach zu bedienen, sie angenähert das Verhalten der tatsächlichen Daten ganz gut, und sie sind robust, misspecification. Hinweis: GARCH (1, 1), EWMA und RiskMetrics sind jeweils parametrisch und rekursiv. Rekursive EWMA Vorteile und Nachteile von MA (dh STABW) vs. GARCH Grafische Zusammenfassung der parametrischer Methoden, die mehr Gewicht auf die jüngsten Renditen (GARCH amp EWMA) Zusammenfassung Tipps zuordnen: GARCH (1, 1) verallgemeinert Riskmetrics und umgekehrt, Riskmetrics ist beschränkt Fall von GARCH (1,1), wobei a 0 und (bc) 1. GARCH (1, 1) gegeben ist durch: die drei Parameter Gewichte sind und deshalb müssen Summe ein: Tipp: Seien Sie vorsichtig über das erste Glied in der GARCH (1, 1) Gleichung: omega () gamma () (mittlere Langzeitvarianz). Wenn Sie nach der Varianz gefragt werden, müssen Sie eventuell das Gewicht aufteilen, um die durchschnittliche Varianz zu berechnen. Bestimmen Sie, wann und ob ein GARCH oder EWMA-Modell sollte in Volatilitätsschätzung in der Praxis verwendet werden, Varianz Raten daher als Mittel dazu neigen, zurückkehrt, die GARCH (1, 1) Modell ist theoretisch überlegen (8220more ansprechend than8221) mit dem EWMA-Modell. Denken Sie daran, that8217s der große Unterschied: GARCH fügt die Parameter, die Gewichte der langfristige Durchschnitt und somit enthält es Reversion bedeuten. Tipp: GARCH (1, 1) ist bevorzugt, es sei denn, der erste Parameter ist negativ (was impliziert wird, wenn alpha beta gt 1). In diesem Fall ist GARCH (1,1) instabil und EWMA wird bevorzugt. Erklären Sie, wie die GARCH-Schätzungen Prognosen liefern können, die genauer sind. Der gleitende Durchschnitt berechnet die Varianz auf der Basis eines nachlaufenden Beobachtungsfensters, z. B. Die letzten zehn Tage, die letzten 100 Tage. Es gibt zwei Probleme mit dem gleitenden Durchschnitt (MA): Ghosting-Feature: Volatilitätsschocks (plötzliche Erhöhungen) werden abrupt in die MA-Metrik integriert und dann, wenn das hintere Fenster überschreitet, werden sie plötzlich aus der Berechnung fallen gelassen. Dadurch verschiebt sich die MA-Metrik in Abhängigkeit von der gewählten Fensterlänge. Trendinformationen werden nicht übernommen GARCH-Schätzungen verbessern diese Schwächen auf zweierlei Weise: Neuere Beobachtungen werden mit größeren Gewichten verknüpft. Dieses überwindet das Geisterbild, weil ein Volatilitätsschock sofort die Schätzung beeinflußt, aber sein Einfluß wird allmählich im Laufe der Zeit vergehen. Ein Begriff wird hinzugefügt, um die Umkehrung des Mittels einzuschließen. Erklären Sie, wie Persistenz mit der Reversion des Mittelwerts zusammenhängt. Die GARCH (1, 1) - Gleichung: Persistenz ist gegeben durch: GARCH (1, 1) ist instabil, wenn die Persistenz gt 1. Eine Persistenz von 1,0 gibt keine mittlere Reversion an. Eine geringe Persistenz (z. B. 0,6) zeigt einen schnellen Abfall und eine hohe Reversion gegenüber dem Mittel an. Tipp: GARCH (1, 1) hat drei Gewichte, die drei Faktoren zugeordnet sind. Persistenz ist die Summe der Gewichte, die sowohl der verzögerten Varianz als auch der verzögerten quadrierten Rendite zugeordnet sind. Das andere Gewicht wird der Langzeitvarianz zugeordnet. Wenn P-Persistenz und G-Gewicht einer Langzeitvarianz zugewiesen werden, dann PG 1. Wenn daher P (Persistenz) hoch ist, dann ist G (mittlere Reversion) niedrig: die anhaltende Reihe ist nicht stark, bedeutet sie zurückzukehren, zeigt 8220slow decay8221 in Richtung der bedeuten. Wenn P niedrig ist, dann muss G hoch sein: die widersprüchliche Reihe bedeutet stark rückgängig, zeigt 8220rapid decay8221 zum Mittelwert. Die durchschnittliche, unbedingte Varianz im GARCH (1, 1) - Modell ist gegeben durch: Erläutern Sie, wie EWMA systematisch ältere Daten vergisst und die RiskMetrics174 täglichen und monatlichen Zerfallsfaktoren identifiziert. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) ist gegeben durch: Die obige Formel ist eine rekursive Vereinfachung der EWMA-Reihe 8220true8221, die gegeben ist durch: In der EWMA-Reihe ist jedes Gewicht, das den quadrierten Renditen zugeordnet ist, ein konstantes Verhältnis des vorhergehenden Gewichts. Insbesondere ist Lambda (l) das Verhältnis zwischen benachbarten Gewichten. Auf diese Weise werden ältere Daten systematisch diskontiert. Der systematische Rabatt kann schrittweise (langsam) oder abrupt, abhängig von Lambda. Wenn Lambda hoch ist (z. B. 0,99), dann ist die Diskontierung sehr allmählich. Wenn Lambda niedrig ist (beispielsweise 0,7), ist die Diskontierung schlagartiger. Die RiskMetrics TM Zerfallsfaktoren: 0,94 für tägliche Daten 0,97 für monatliche Daten (Monat definiert als 25 Handelstage) Erklären Sie, warum Prognosekorrelationen wichtiger sein können als die Prognose von Volatilitäten. Bei der Messung des Portfolio-Risikos können Korrelationen wichtiger sein als einzelne Instrumentenvolatilität / - varianz. Daher kann in Bezug auf das Portfolio-Risiko eine Korrelationsprognose wichtiger sein als einzelne Volatilitätsprognosen. Verwenden Sie GARCH (1, 1), um die Volatilität zu prognostizieren Die erwartete zukünftige Varianzrate in (t) Perioden vorwärts ist gegeben durch: Beispielsweise wird angenommen, dass eine aktuelle Volatilitätsschätzung (Periode n) durch die folgenden GARCH (1, ) Gleichung: In diesem Beispiel ist alpha das Gewicht (0,1), das der vorherigen quadratischen Rückkehr zugewiesen wurde (die vorherige Rückkehr war 4), beta das Gewicht (0,7), das der vorherigen Varianz (0,0016) zugewiesen wurde. Was ist die erwartete zukünftige Volatilität, in zehn Tagen (n 10) First, für die langfristige Varianz zu lösen. Es ist nicht 0,00008 dieser Begriff ist das Produkt aus der Varianz und seinem Gewicht. Da das Gewicht 0,2 (1 - 0,1 - 0,7) betragen muss, beträgt die Langlaufvarianz 0,0004. Zweitens brauchen wir die aktuelle Varianz (Periode n). Das ist fast schon für uns oben: Jetzt können wir die Formel anwenden, um für die erwartete zukünftige Varianzrate zu lösen: Dies ist die erwartete Varianzrate, so dass die erwartete Volatilität etwa 2,24 beträgt. Beachten Sie, wie dies funktioniert: die aktuelle Volatilität beträgt etwa 3,69 und die langfristige Volatilität ist 2. Die 10-Tage-Forward-Projektion 8220fades8221 die aktuelle Rate näher an die langfristige Rate. Nichtparametrische VolatilitätsprognoseEWMA 101 Der EWMA-Ansatz hat ein attraktives Merkmal: Er benötigt relativ wenig gespeicherte Daten. Um unsere Schätzung an jedem Punkt zu aktualisieren, benötigen wir nur eine vorherige Schätzung der Varianzrate und des jüngsten Beobachtungswertes. Ein weiteres Ziel der EWMA ist es, Veränderungen in der Volatilität nachzuvollziehen. Für kleine Werte beeinflussen jüngste Beobachtungen die Schätzung zeitnah. Für Werte, die näher an einem liegen, ändert sich die Schätzung langsam auf der Grundlage der jüngsten Änderungen in den Renditen der zugrundeliegenden Variablen. Die von JP Morgan erstellte und öffentlich zugängliche RiskMetrics-Datenbank nutzt die EWMA zur Aktualisierung der täglichen Volatilität. WICHTIG: Die EWMA-Formel geht nicht von einem lang anhaltenden durchschnittlichen Varianzniveau aus. So bedeutet das Konzept der Volatilität Reversion nicht von der EWMA erfasst. Die ARCH / GARCH Modelle sind dafür besser geeignet. Lambda Ein sekundäres Ziel der EWMA ist es, Veränderungen in der Volatilität nachzuvollziehen, so dass für kleine Werte die jüngsten Beobachtungen die Schätzung sofort beeinflussen, und für Werte, die näher an einem liegen, ändert sich die Schätzung langsam auf die jüngsten Änderungen der Renditen der zugrunde liegenden Variablen. Die RiskMetrics-Datenbank (erstellt von JP Morgan), die 1994 veröffentlicht wurde, verwendet das EWMA-Modell zur Aktualisierung der täglichen Volatilitätsschätzung. Das Unternehmen festgestellt, dass über eine Reihe von Marktvariablen, gibt dieser Wert der Prognose der Varianz, die am nächsten zu realisierten Varianz Rate kommen. Die realisierten Varianzraten an einem bestimmten Tag wurden als gleichgewichteter Durchschnitt der folgenden 25 Tage berechnet. Um den optimalen Wert von lambda für unseren Datensatz zu berechnen, müssen wir die realisierte Volatilität an jedem Punkt berechnen. Es gibt mehrere Methoden, so wählen Sie ein. Als nächstes wird die Summe der quadratischen Fehler (SSE) zwischen der EWMA-Schätzung und der realisierten Volatilität berechnet. Schließlich minimieren die SSE durch Variieren des Lambdawertes. Klingt einfach Es ist. Die größte Herausforderung besteht darin, einen Algorithmus zur Berechnung der realisierten Volatilität zu vereinbaren. Zum Beispiel wählten die Leute bei RiskMetrics die folgenden 25 Tage, um die realisierte Varianzrate zu berechnen. In Ihrem Fall können Sie einen Algorithmus wählen, der Tägliche Volumen-, HI / LO - und / oder OPEN-CLOSE Preise nutzt. FAQ Q 1: Können wir EWMA nutzen, um die Volatilität mehr als einen Schritt voraus zu schätzen (oder prognostizieren) Die EWMA-Volatilitätsdarstellung setzt keine langfristige Durchschnittsvolatilität voraus, so dass die EWMA für jeden Prognosehorizont über einen Schritt hinaus a Konstanter Wert: Gleitender Durchschnitt und exponentielle Glättungsmodelle Als ein erster Schritt bei der Überwindung von Mittelwertsmodellen, Zufallswegmodellen und linearen Trendmodellen können nicht-saisonale Muster und Trends mit einem gleitenden Durchschnitt oder Glättungsmodell extrapoliert werden. Die grundlegende Annahme hinter Mittelwertbildung und Glättungsmodellen ist, dass die Zeitreihe lokal stationär mit einem sich langsam verändernden Mittelwert ist. Daher nehmen wir einen bewegten (lokalen) Durchschnitt, um den aktuellen Wert des Mittelwerts abzuschätzen und dann als die Prognose für die nahe Zukunft zu verwenden. Dies kann als Kompromiss zwischen dem mittleren Modell und dem random-walk-ohne-Drift-Modell betrachtet werden. Die gleiche Strategie kann verwendet werden, um einen lokalen Trend abzuschätzen und zu extrapolieren. Ein gleitender Durchschnitt wird oft als "quotsmoothedquot" - Version der ursprünglichen Serie bezeichnet, da die kurzzeitige Mittelung die Wirkung hat, die Stöße in der ursprünglichen Reihe zu glätten. Durch Anpassen des Glättungsgrades (die Breite des gleitenden Durchschnitts) können wir hoffen, eine Art von optimaler Balance zwischen der Leistung des Mittelwerts und der zufälligen Wandermodelle zu erreichen. Die einfachste Art der Mittelung Modell ist die. Einfache (gleichgewichtige) Moving Average: Die Prognose für den Wert von Y zum Zeitpunkt t1, der zum Zeitpunkt t gemacht wird, entspricht dem einfachen Mittelwert der letzten m Beobachtungen: (Hier und anderswo werde ich das Symbol 8220Y-hat8221 stehen lassen Für eine Prognose der Zeitreihe Y, die am frühestmöglichen früheren Zeitpunkt durch ein gegebenes Modell durchgeführt wird.) Dieser Mittelwert wird in der Periode t (m1) / 2 zentriert, was bedeutet, daß die Schätzung des lokalen Mittels dazu neigt, hinter dem Wert zu liegen Wahren Wert des lokalen Mittels um etwa (m1) / 2 Perioden. Das Durchschnittsalter der Daten im einfachen gleitenden Durchschnitt ist also (m1) / 2 relativ zu der Periode, für die die Prognose berechnet wird: dies ist die Zeitspanne, in der die Prognosen dazu tendieren, hinter den Wendepunkten in der Region zu liegen Daten. Wenn Sie z. B. die letzten 5 Werte mitteln, werden die Prognosen etwa 3 Perioden spät sein, wenn sie auf Wendepunkte reagieren. Beachten Sie, dass, wenn m1, die einfache gleitende Durchschnitt (SMA) - Modell ist gleichbedeutend mit der random walk-Modell (ohne Wachstum). Wenn m sehr groß ist (vergleichbar der Länge des Schätzzeitraums), entspricht das SMA-Modell dem mittleren Modell. Wie bei jedem Parameter eines Prognosemodells ist es üblich, den Wert von k anzupassen, um den besten Quotienten der Daten zu erhalten, d. H. Die kleinsten Prognosefehler im Durchschnitt. Hier ist ein Beispiel einer Reihe, die zufällige Fluktuationen um ein sich langsam veränderndes Mittel zu zeigen scheint. Erstens können wir versuchen, es mit einem zufälligen Fußmodell, das entspricht einem einfachen gleitenden Durchschnitt von 1 Begriff entspricht: Das zufällige Wandermodell reagiert sehr schnell auf Änderungen in der Serie, aber dabei nimmt er viel von der quotnoisequot in der Daten (die zufälligen Fluktuationen) sowie das Quotsignalquot (das lokale Mittel). Wenn wir stattdessen einen einfachen gleitenden Durchschnitt von 5 Begriffen anwenden, erhalten wir einen glatteren Satz von Prognosen: Der 5-Term-einfache gleitende Durchschnitt liefert in diesem Fall deutlich kleinere Fehler als das zufällige Wegmodell. Das durchschnittliche Alter der Daten in dieser Prognose beträgt 3 ((51) / 2), so dass es dazu neigt, hinter den Wendepunkten um etwa drei Perioden zu liegen. (Zum Beispiel scheint ein Abschwung in Periode 21 aufgetreten zu sein, aber die Prognosen drehen sich erst nach mehreren Perioden später.) Beachten Sie, dass die Langzeitprognosen des SMA-Modells eine horizontale Gerade sind, genau wie beim zufälligen Weg Modell. Somit geht das SMA-Modell davon aus, dass es keinen Trend in den Daten gibt. Während jedoch die Prognosen aus dem Zufallswegmodell einfach dem letzten beobachteten Wert entsprechen, sind die Prognosen des SMA-Modells gleich einem gewichteten Mittelwert der neueren Werte. Die von Statgraphics berechneten Konfidenzgrenzen für die Langzeitprognosen des einfachen gleitenden Durchschnitts werden nicht breiter, wenn der Prognosehorizont zunimmt. Dies ist offensichtlich nicht richtig Leider gibt es keine zugrunde liegende statistische Theorie, die uns sagt, wie sich die Vertrauensintervalle für dieses Modell erweitern sollten. Allerdings ist es nicht zu schwer, empirische Schätzungen der Konfidenzgrenzen für die längerfristigen Prognosen zu berechnen. Beispielsweise können Sie eine Tabellenkalkulation einrichten, in der das SMA-Modell für die Vorhersage von 2 Schritten im Voraus, 3 Schritten voraus usw. innerhalb der historischen Datenprobe verwendet wird. Sie könnten dann die Stichproben-Standardabweichungen der Fehler bei jedem Prognosehorizont berechnen und dann Konfidenzintervalle für längerfristige Prognosen durch Addieren und Subtrahieren von Vielfachen der geeigneten Standardabweichung konstruieren. Wenn wir einen 9-term einfachen gleitenden Durchschnitt ausprobieren, erhalten wir sogar noch bessere Prognosen und mehr eine nacheilende Wirkung: Das Durchschnittsalter beträgt jetzt 5 Perioden ((91) / 2). Wenn wir einen 19-term gleitenden Durchschnitt nehmen, steigt das Durchschnittsalter auf 10 an: Beachten Sie, dass die Prognosen tatsächlich hinter den Wendepunkten um etwa 10 Perioden zurückbleiben. Welches Maß an Glättung ist am besten für diese Serie Hier ist eine Tabelle, die ihre Fehlerstatistiken vergleicht, darunter auch einen 3-Term-Durchschnitt: Modell C, der 5-Term-Gleitender Durchschnitt, ergibt den niedrigsten Wert von RMSE mit einer kleinen Marge über die 3 - term und 9-Term-Mittelwerte, und ihre anderen Statistiken sind fast identisch. So können wir bei Modellen mit sehr ähnlichen Fehlerstatistiken wählen, ob wir ein wenig mehr Reaktionsfähigkeit oder ein wenig mehr Glätte in den Prognosen bevorzugen würden. (Rückkehr nach oben.) Browns Einfache Exponentialglättung (exponentiell gewichteter gleitender Durchschnitt) Das oben beschriebene einfache gleitende Durchschnittsmodell hat die unerwünschte Eigenschaft, daß es die letzten k-Beobachtungen gleich und vollständig ignoriert. Intuitiv sollten vergangene Daten in einer allmählicheren Weise diskontiert werden - zum Beispiel sollte die jüngste Beobachtung ein wenig mehr Gewicht als die zweitletzte erhalten, und die 2. jüngsten sollten ein wenig mehr Gewicht als die 3. jüngsten erhalten, und bald. Das einfache exponentielle Glättungsmodell (SES) erfüllt dies. Es sei 945 eine quotsmoothing constantquot (eine Zahl zwischen 0 und 1). Eine Möglichkeit, das Modell zu schreiben, besteht darin, eine Reihe L zu definieren, die den gegenwärtigen Pegel (d. H. Den lokalen Mittelwert) der Serie, wie er aus Daten bis zu der Zeit geschätzt wird, darstellt. Der Wert von L zur Zeit t wird rekursiv von seinem eigenen vorherigen Wert wie folgt berechnet: Somit ist der aktuelle geglättete Wert eine Interpolation zwischen dem vorher geglätteten Wert und der aktuellen Beobachtung, wobei 945 die Nähe des interpolierten Wertes auf die neueste steuert Überwachung. Die Prognose für die nächste Periode ist einfach der aktuelle geglättete Wert: Äquivalent können wir die nächste Prognose direkt in Form früherer Prognosen und früherer Beobachtungen in einer der folgenden gleichwertigen Versionen ausdrücken. In der ersten Version ist die Prognose eine Interpolation zwischen vorheriger Prognose und vorheriger Beobachtung: In der zweiten Version wird die nächste Prognose durch Anpassung der bisherigen Prognose in Richtung des bisherigen Fehlers um einen Bruchteil 945 erhalten Zeit t. In der dritten Version ist die Prognose ein exponentiell gewichteter (dh diskontierter) gleitender Durchschnitt mit Abzinsungsfaktor 1-945: Die Interpolationsversion der Prognoseformel ist am einfachsten zu verwenden, wenn Sie das Modell in einer Tabellenkalkulation implementieren Einzelne Zelle und enthält Zellverweise, die auf die vorhergehende Prognose, die vorherige Beobachtung und die Zelle mit dem Wert von 945 zeigen. Beachten Sie, dass, wenn 945 1, das SES-Modell zu einem zufälligen Weg-Modell (ohne Wachstum) äquivalent ist. Wenn 945 0 ist, entspricht das SES-Modell dem mittleren Modell, wobei angenommen wird, dass der erste geglättete Wert gleich dem Mittelwert gesetzt ist. (Zurück zum Seitenanfang) Das Durchschnittsalter der Daten in der Simple-Exponential-Glättungsprognose beträgt 1/945 relativ zu dem Zeitraum, für den die Prognose berechnet wird. (Dies sollte nicht offensichtlich sein, kann aber leicht durch die Auswertung einer unendlichen Reihe gezeigt werden.) Die einfache gleitende Durchschnittsprognose neigt daher zu Verzögerungen hinter den Wendepunkten um etwa 1/945 Perioden. Wenn beispielsweise 945 0,5 die Verzögerung 2 Perioden beträgt, wenn 945 0,2 die Verzögerung 5 Perioden beträgt, wenn 945 0,1 die Verzögerung 10 Perioden und so weiter ist. Für ein gegebenes Durchschnittsalter (d. H. Eine Verzögerung) ist die einfache exponentielle Glättungsprognose (SES) der simplen gleitenden Durchschnittsprognose (SMA) etwas überlegen, weil sie relativ viel mehr Gewicht auf die jüngste Beobachtung - i. e stellt. Es ist etwas mehr quresponsivequot zu Änderungen, die sich in der jüngsten Vergangenheit. Zum Beispiel haben ein SMA - Modell mit 9 Terminen und ein SES - Modell mit 945 0,2 beide ein durchschnittliches Alter von 5 Jahren für die Daten in ihren Prognosen, aber das SES - Modell legt mehr Gewicht auf die letzten 3 Werte als das SMA - Modell und am Gleiches gilt für die Werte von mehr als 9 Perioden, wie in dieser Tabelle gezeigt: 822forget8221. Ein weiterer wichtiger Vorteil des SES-Modells gegenüber dem SMA-Modell ist, dass das SES-Modell einen Glättungsparameter verwendet, der kontinuierlich variabel ist und somit leicht optimiert werden kann Indem ein Quotsolverquot-Algorithmus verwendet wird, um den mittleren quadratischen Fehler zu minimieren. Der optimale Wert von 945 im SES-Modell für diese Serie ergibt sich wie folgt: Das Durchschnittsalter der Daten in dieser Prognose beträgt 1 / 0,2961 3,4 Perioden, was ähnlich wie bei einem 6-Term-Simple Moving ist durchschnittlich. Die Langzeitprognosen aus dem SES-Modell sind eine horizontale Gerade. Wie im SMA-Modell und dem Random-Walk-Modell ohne Wachstum. Es ist jedoch anzumerken, dass die von Statgraphics berechneten Konfidenzintervalle nun in einer vernünftigen Weise abweichen und dass sie wesentlich schmaler sind als die Konfidenzintervalle für das Zufallswegmodell. Das SES-Modell geht davon aus, dass die Serie etwas vorhersehbarer ist als das Zufallswandermodell. Ein SES-Modell ist eigentlich ein Spezialfall eines ARIMA-Modells. So dass die statistische Theorie der ARIMA-Modelle eine solide Grundlage für die Berechnung der Konfidenzintervalle für das SES-Modell bildet. Insbesondere ist ein SES-Modell ein ARIMA-Modell mit einer nicht sonderbaren Differenz, einem MA (1) - Term und kein konstanter Term. Ansonsten als quotARIMA (0,1,1) - Modell ohne Konstantquot bekannt. Der MA (1) - Koeffizient im ARIMA-Modell entspricht der Größe 1 - 945 im SES-Modell. Wenn Sie zum Beispiel ein ARIMA-Modell (0,1,1) ohne Konstante an die hier analysierte Serie anpassen, ergibt sich der geschätzte MA (1) - Koeffizient auf 0,7029, was fast genau ein Minus von 0,2961 ist. Es ist möglich, die Annahme eines von Null verschiedenen konstanten linearen Trends zu einem SES-Modell hinzuzufügen. Dazu wird nur ein ARIMA-Modell mit einer Nicht-Seasonal-Differenz und einem MA (1) - Term mit einer Konstanten, d. h. einem ARIMA-Modell (0,1,1) mit konstantem Wert angegeben. Die langfristigen Prognosen haben dann einen Trend, der dem durchschnittlichen Trend über den gesamten Schätzungszeitraum entspricht. Sie können dies nicht in Verbindung mit saisonalen Anpassungen tun, da die saisonalen Anpassungsoptionen deaktiviert sind, wenn der Modelltyp auf ARIMA gesetzt ist. Sie können jedoch einen konstanten langfristigen exponentiellen Trend zu einem einfachen exponentiellen Glättungsmodell (mit oder ohne saisonale Anpassung) hinzufügen, indem Sie die Inflationsanpassungsoption im Prognoseverfahren verwenden. Die prozentuale Zinssatzquote (prozentuale Wachstumsrate) pro Periode kann als der Steigungskoeffizient in einem linearen Trendmodell geschätzt werden, das an die Daten in Verbindung mit einer natürlichen Logarithmuswandlung angepasst ist, oder es kann auf anderen unabhängigen Informationen bezüglich der langfristigen Wachstumsperspektiven beruhen . (Rückkehr nach oben.) Browns Linear (dh doppelt) Exponentielle Glättung Die SMA-Modelle und SES-Modelle gehen davon aus, dass es in den Daten keinen Trend gibt (was in der Regel in Ordnung ist oder zumindest nicht zu schlecht für 1- Wenn die Daten relativ verrauscht sind), und sie können modifiziert werden, um einen konstanten linearen Trend, wie oben gezeigt, zu integrieren. Was ist mit kurzfristigen Trends Wenn eine Serie eine unterschiedliche Wachstumsrate oder ein zyklisches Muster zeigt, das sich deutlich gegen das Rauschen auszeichnet, und wenn es notwendig ist, mehr als eine Periode vorher zu prognostizieren, könnte die Schätzung eines lokalen Trends auch sein Ein Problem. Das einfache exponentielle Glättungsmodell kann verallgemeinert werden, um ein lineares exponentielles Glättungsmodell (LES) zu erhalten, das lokale Schätzungen sowohl des Niveaus als auch des Trends berechnet. Das einfachste zeitvariable Trendmodell ist Browns lineares exponentielles Glättungsmodell, das zwei verschiedene geglättete Serien verwendet, die zu verschiedenen Zeitpunkten zentriert sind. Die Prognoseformel basiert auf einer Extrapolation einer Linie durch die beiden Zentren. (Eine weiterentwickelte Version dieses Modells, Holt8217s, wird unten diskutiert.) Die algebraische Form des Brown8217s linearen exponentiellen Glättungsmodells, wie die des einfachen exponentiellen Glättungsmodells, kann in einer Anzahl von unterschiedlichen, aber äquivalenten Formen ausgedrückt werden. Die quadratische quadratische Form dieses Modells wird gewöhnlich wie folgt ausgedrückt: Sei S die einfach geglättete Reihe, die durch Anwendung einfacher exponentieller Glättung auf Reihe Y erhalten wird. Das heißt, der Wert von S in der Periode t ist gegeben durch: (Erinnern wir uns, Exponentielle Glättung, so würde dies die Prognose für Y in der Periode t1 sein.) Dann sei Squot die doppelt geglättete Folge, die man erhält, indem man eine einfache exponentielle Glättung (unter Verwendung desselben 945) auf die Reihe S anwendet: Schließlich die Prognose für Ytk. Für jedes kgt1 ist gegeben durch: Dies ergibt e & sub1; & sub0; (d. h. Cheat ein Bit und die erste Prognose der tatsächlichen ersten Beobachtung gleich) und e & sub2; Y & sub2; 8211 Y & sub1; Nach denen die Prognosen unter Verwendung der obigen Gleichung erzeugt werden. Dies ergibt die gleichen Anpassungswerte wie die Formel auf der Basis von S und S, wenn diese mit S 1 S 1 Y 1 gestartet wurden. Diese Version des Modells wird auf der nächsten Seite verwendet, die eine Kombination von exponentieller Glättung mit saisonaler Anpassung veranschaulicht. Holt8217s Lineares Exponentialglättung Brown8217s LES-Modell berechnet lokale Schätzungen von Pegel und Trend durch Glätten der letzten Daten, aber die Tatsache, dass dies mit einem einzigen Glättungsparameter erfolgt, legt eine Einschränkung für die Datenmuster fest, die es anpassen kann: den Pegel und den Trend Dürfen nicht zu unabhängigen Preisen variieren. Holt8217s LES-Modell adressiert dieses Problem durch zwei Glättungskonstanten, eine für die Ebene und eine für den Trend. Zu jedem Zeitpunkt t, wie in Brown8217s-Modell, gibt es eine Schätzung L t der lokalen Ebene und eine Schätzung T t der lokalen Trend. Hier werden sie rekursiv aus dem zum Zeitpunkt t beobachteten Wert von Y und den vorherigen Schätzungen von Pegel und Trend durch zwei Gleichungen berechnet, die exponentielle Glättung separat anwenden. Wenn der geschätzte Pegel und der Trend zum Zeitpunkt t-1 L t82091 und T t-1 sind. Dann ist die Prognose für Y tshy, die zum Zeitpunkt t-1 gemacht worden wäre, gleich L t-1 T t-1. Wenn der tatsächliche Wert beobachtet wird, wird die aktualisierte Schätzung des Pegels rekursiv berechnet, indem zwischen Y tshy und seiner Prognose L t-1 T t-1 unter Verwendung von Gewichten von 945 und 1- 945 interpoliert wird. Die Änderung des geschätzten Pegels, Nämlich L t 8209 L t82091. Kann als eine verrauschte Messung des Trends zum Zeitpunkt t interpretiert werden. Die aktualisierte Schätzung des Trends wird dann rekursiv berechnet, indem zwischen L t 8209 L t82091 und der vorherigen Schätzung des Trends T t-1 interpoliert wird. Unter Verwendung der Gewichte von 946 und 1-946: Die Interpretation der Trendglättungskonstanten 946 ist analog zu der Pegelglättungskonstante 945. Modelle mit kleinen Werten von 946 nehmen an, dass sich der Trend mit der Zeit nur sehr langsam ändert, während Modelle mit Größere 946 nehmen an, dass sie sich schneller ändert. Ein Modell mit einem großen 946 glaubt, dass die ferne Zukunft sehr unsicher ist, da Fehler in der Trendschätzung bei der Prognose von mehr als einer Periode ganz wichtig werden. (Rückkehr nach oben) Die Glättungskonstanten 945 und 946 können auf übliche Weise geschätzt werden, indem der mittlere quadratische Fehler der 1-Schritt-Voraus-Prognosen minimiert wird. Wenn dies in Statgraphics getan wird, erweisen sich die Schätzungen als 945 0.3048 und 946 0,008. Der sehr geringe Wert von 946 bedeutet, dass das Modell eine sehr geringe Veränderung im Trend von einer Periode zur nächsten annimmt, so dass dieses Modell im Grunde versucht, einen langfristigen Trend abzuschätzen. In Analogie zum Durchschnittsalter der Daten, die für die Schätzung der lokalen Ebene der Serie verwendet werden, ist das Durchschnittsalter der Daten, die bei der Schätzung des lokalen Trends verwendet werden, proportional zu 1/946, wenn auch nicht exakt gleich es. In diesem Fall ergibt sich 1 / 0,006 125. Dies ist eine sehr genaue Zahl, da die Genauigkeit der Schätzung von 946 nicht wirklich 3 Dezimalstellen beträgt, sondern sie ist von der gleichen Größenordnung wie die Stichprobengröße von 100 , So dass dieses Modell ist im Durchschnitt über eine ganze Menge Geschichte bei der Schätzung der Trend. Das Prognose-Diagramm unten zeigt, dass das LES-Modell einen etwas größeren lokalen Trend am Ende der Serie schätzt als der im SEStrend-Modell geschätzte konstante Trend. Außerdem ist der Schätzwert von 945 fast identisch mit dem, der durch Anpassen des SES-Modells mit oder ohne Trend erhalten wird, so dass dies fast das gleiche Modell ist. Nun, sehen diese aussehen wie vernünftige Prognosen für ein Modell, das soll Schätzung einer lokalen Tendenz Wenn Sie 8220eyeball8221 dieser Handlung, sieht es so aus, als ob der lokale Trend nach unten am Ende der Serie gedreht hat Was ist passiert Die Parameter dieses Modells Wurden durch Minimierung des quadratischen Fehlers von 1-Schritt-Voraus-Prognosen, nicht längerfristigen Prognosen, abgeschätzt, wobei der Trend keinen großen Unterschied macht. Wenn alles, was Sie suchen, 1-Schritt-vor-Fehler sind, sehen Sie nicht das größere Bild der Trends über (sagen) 10 oder 20 Perioden. Um dieses Modell im Einklang mit unserer Augapfel-Extrapolation der Daten zu erhalten, können wir die Trendglättungskonstante manuell anpassen, so dass sie eine kürzere Basislinie für die Trendschätzung verwendet. Wenn wir beispielsweise 946 0,1 setzen, beträgt das durchschnittliche Alter der Daten, die bei der Schätzung des lokalen Trends verwendet werden, 10 Perioden, was bedeutet, dass wir den Trend über die letzten 20 Perioden oder so mitteln. Here8217s, was das Prognose-Plot aussieht, wenn wir 946 0,1 setzen, während 945 0,3 halten. Dies scheint intuitiv vernünftig für diese Serie, obwohl es wahrscheinlich gefährlich, diesen Trend mehr als 10 Perioden in der Zukunft zu extrapolieren. Was ist mit den Fehlerstatistiken Hier ist ein Modellvergleich für die beiden oben gezeigten Modelle sowie drei SES-Modelle. Der optimale Wert von 945 für das SES-Modell beträgt etwa 0,3, aber ähnliche Ergebnisse (mit etwas mehr oder weniger Reaktionsfähigkeit) werden mit 0,5 und 0,2 erhalten. (A) Holts linearer Exp. Glättung mit alpha 0.3048 und beta 0,008 (B) Holts linear exp. Glättung mit alpha 0,3 (E) Einfache exponentielle Glättung mit alpha 0,3 (E) Einfache exponentielle Glättung mit alpha 0,2 Ihre Stats sind nahezu identisch, so dass wir wirklich die Wahl auf der Basis machen können Von 1-Schritt-Vorhersagefehlern innerhalb der Datenprobe. Wir müssen auf andere Überlegungen zurückgreifen. Wenn wir glauben, dass es sinnvoll ist, die aktuelle Trendschätzung auf das, was in den letzten 20 Perioden passiert ist, zugrunde zu legen, können wir für das LES-Modell mit 945 0,3 und 946 0,1 einen Fall machen. Wenn wir agnostisch sein wollen, ob es einen lokalen Trend gibt, dann könnte eines der SES-Modelle leichter zu erklären sein, und würde auch für die nächsten 5 oder 10 Perioden mehr Mittelprognosen geben. (Rückkehr nach oben.) Welche Art von Trend-Extrapolation am besten ist: horizontal oder linear Empirische Evidenz deutet darauf hin, dass es, wenn die Daten bereits für die Inflation angepasst wurden (wenn nötig), unprätent ist, kurzfristige lineare Werte zu extrapolieren Trends sehr weit in die Zukunft. Die heutigen Trends können sich in Zukunft aufgrund unterschiedlicher Ursachen wie Produktveralterung, verstärkte Konkurrenz und konjunkturelle Abschwünge oder Aufschwünge in einer Branche abschwächen. Aus diesem Grund führt eine einfache exponentielle Glättung oft zu einer besseren Out-of-Probe, als ansonsten erwartet werden könnte, trotz ihrer quotnaivequot horizontalen Trend-Extrapolation. Damped Trendmodifikationen des linearen exponentiellen Glättungsmodells werden in der Praxis häufig auch eingesetzt, um in seinen Trendprojektionen eine Note des Konservatismus einzuführen. Das Dämpfungs-Trend-LES-Modell kann als Spezialfall eines ARIMA-Modells, insbesondere eines ARIMA-Modells (1,1,2), implementiert werden. Es ist möglich, Konfidenzintervalle um langfristige Prognosen zu berechnen, die durch exponentielle Glättungsmodelle erzeugt werden, indem man sie als Spezialfälle von ARIMA-Modellen betrachtet. (Achtung: Nicht alle Software berechnet die Konfidenzintervalle für diese Modelle korrekt.) Die Breite der Konfidenzintervalle hängt ab von (i) dem RMS-Fehler des Modells, (ii) der Art der Glättung (einfach oder linear) (iii) dem Wert (S) der Glättungskonstante (n) und (iv) die Anzahl der Perioden vor der Prognose. Im Allgemeinen breiten sich die Intervalle schneller aus, da 945 im SES-Modell größer wird und sich viel schneller ausbreiten, wenn lineare statt einfache Glättung verwendet wird. Dieses Thema wird im Abschnitt "ARIMA-Modelle" weiter erläutert. (Zurück zum Seitenanfang.)


No comments:

Post a Comment