Exploring den exponentiellt viktade flytta genomsnittsvolatiliteten är det vanligaste måttet på risk, men det kommer i flera smaker. I en tidigare artikel visade vi hur man beräkna enkel historisk volatilitet. (För att läsa den här artikeln, se Använd volatilitet för att mäta framtida risk.) Vi använde Googles faktiska aktiekursdata för att beräkna den dagliga volatiliteten baserat på 30 dygns lagerdata. I den här artikeln kommer vi att förbättra den enkla volatiliteten och diskutera exponentialvägt rörligt medelvärde (EWMA). Historisk Vs. Implicit Volatilitet Först, låt oss sätta denna mätning i lite perspektiv. Det finns två breda tillvägagångssätt: historisk och underförstådd (eller implicit) volatilitet. Det historiska tillvägagångssättet förutsätter att förflutet är en prolog som vi mäter historia i hopp om att det är förutsägbart. Implicit volatilitet, å andra sidan, ignorerar historien den löser för volatiliteten implicerad av marknadspriser. Det hoppas att marknaden vet bäst och att marknadspriset innehåller, även om det implicit är, en konsensusuppskattning av volatiliteten. (För relaterad läsning, se Användning och gränser för volatilitet.) Om vi fokuserar på bara de tre historiska tillvägagångssätten (till vänster ovan), har de två steg gemensamt: Beräkna serien av periodisk avkastning Använd ett viktningsschema Först vi beräkna den periodiska avkastningen. Det är typiskt en serie av dagliga avkastningar där varje avkastning uttrycks i fortlöpande sammansatta termer. För varje dag tar vi den naturliga loggen av förhållandet mellan aktiekurserna (dvs. pris idag dividerat med pris igår, och så vidare). Detta ger en serie dagliga avkastningar, från dig till jag i-m. beroende på hur många dagar (m dagar) vi mäter. Det får oss till det andra steget: Det är här de tre metoderna skiljer sig åt. I den föregående artikeln (Använd volatilitet för att mäta framtida risker) visade vi att enligt enkla acceptabla förenklingar är den enkla variansen genomsnittet av de kvadrerade avkastningarna: Observera att summan av varje periodisk avkastning delar upp den totala av antal dagar eller observationer (m). Så det är verkligen bara ett genomsnitt av den kvadrerade periodiska avkastningen. Sätt på ett annat sätt, varje kvadrerad retur ges lika vikt. Så om alfa (a) är en viktningsfaktor (specifikt en 1m) ser en enkel varians något ut så här: EWMA förbättras på enkel varians Svagheten i denna metod är att alla avkastningar tjänar samma vikt. Yesterdays (väldigt ny) avkastning har inget mer inflytande på variansen än förra månaden tillbaka. Detta problem fastställs med hjälp av det exponentiellt vägda glidande medlet (EWMA), i vilket nyare avkastning har större vikt på variansen. Det exponentiellt viktade glidande medlet (EWMA) introducerar lambda. som kallas utjämningsparametern. Lambda måste vara mindre än en. Under detta förhållande, istället för lika vikter, vägs varje kvadrerad avkastning med en multiplikator enligt följande: RiskMetrics TM, ett finansiellt riskhanteringsföretag tenderar till exempel att använda en lambda på 0,94 eller 94. I det här fallet är den första ( senaste) kvadratiska periodiska avkastningen vägs av (1-0,94) (.94) 0 6. Nästa kvadrerade retur är helt enkelt en lambda-multipel av den tidigare vikten i detta fall 6 multiplicerad med 94 5,64. Och den tredje föregående dagens vikt är lika med (1-0,94) (0,94) 2 5,30. Det är betydelsen av exponentiell i EWMA: varje vikt är en konstant multiplikator (dvs lambda, som måste vara mindre än en) av föregående dagsvikt. Detta säkerställer en varians som är viktad eller förspänd mot senare data. (Mer information finns i Excel-kalkylbladet för Googles volatilitet.) Skillnaden mellan helt enkelt volatilitet och EWMA för Google visas nedan. Enkel volatilitet väger effektivt varje periodisk avkastning med 0,196 som visas i kolumn O (vi hade två års daglig aktiekursdata, det vill säga 509 dagliga avkastningar och 1509 0,196). Men märker att kolumn P tilldelar en vikt av 6, sedan 5,64, sedan 5,3 och så vidare. Det är den enda skillnaden mellan enkel varians och EWMA. Kom ihåg: När vi summerar hela serien (i kolumn Q) har vi variansen, vilket är kvadraten av standardavvikelsen. Om vi vill ha volatilitet, måste vi komma ihåg att ta kvadratroten av den variansen. Vad är skillnaden i den dagliga volatiliteten mellan variansen och EWMA i Googles fall Det är signifikant: Den enkla variansen gav oss en daglig volatilitet på 2.4 men EWMA gav en daglig volatilitet på endast 1,4 (se kalkylbladet för detaljer). Uppenbarligen avtog Googles volatilitet mer nyligen, därför kan en enkel varians vara konstant hög. Dagens Varians är en funktion av Pior Days Variance Du märker att vi behövde beräkna en lång serie exponentiellt sjunkande vikter. Vi brukar inte göra matematiken här, men en av EWMA: s bästa egenskaper är att hela serien reduceras bekvämt till en rekursiv formel: Rekursiv betyder att dagens variansreferenser (det vill säga är en funktion av den tidigare dagens varians). Du kan även hitta denna formel i kalkylbladet, och det ger exakt samma resultat som longhandberäkningen. Det står: Dagens varians (under EWMA) motsvarar ysterdays variance (viktad av lambda) plus ysterdays squared return (vägd av en minus lambda). Lägg märke till hur vi bara lägger till två termer tillsammans: Vardagens viktiga varians och gårdagens viktiga, kvadrerade avkastning. Ändå är lambda vår utjämningsparameter. En högre lambda (t ex som RiskMetrics 94) indikerar långsammare sönderfall i serien - relativt sett kommer vi att ha fler datapunkter i serien och de kommer att falla av långsammare. Å andra sidan, om vi reducerar lambda, indikerar vi högre sönderfall: vikterna faller av snabbare och som ett direkt resultat av det snabba förfallet används färre datapunkter. (I kalkylbladet är lambda en ingång, så du kan experimentera med sin känslighet). Sammanfattning Volatilitet är den aktuella standardavvikelsen för ett lager och den vanligaste riskvärdet. Det är också kvadratrot av varians. Vi kan måle variationen historiskt eller implicit (implicit volatilitet). När man mäter historiskt är den enklaste metoden enkel varians. Men svagheten med enkel varians är alla avkastningar får samma vikt. Så vi står inför en klassisk avvägning: vi vill alltid ha mer data, men ju mer data vi har desto mer beräknas vår beräkning utspädd av avlägsna (mindre relevanta) data. Det exponentiellt viktade glidande genomsnittet (EWMA) förbättras på enkel varians genom att tilldela vikter till periodisk avkastning. Genom att göra det kan vi båda använda en stor urvalsstorlek men ge också större vikt till senare avkastning. (För att se en filmhandledning om detta ämne, besök Bionic Turtle.) EWMA-metoden har en attraktiv funktion: det kräver relativt lite lagrad data. För att uppdatera vår uppskattning när som helst behöver vi bara en tidigare uppskattning av variansräntan och det senaste observationsvärdet. Ett sekundärt mål för EWMA är att spåra förändringar i volatiliteten. För små värden påverkar de senaste observationerna uppskattningen omedelbart. För värden som ligger närmare en ändras uppskattningen långsamt baserat på senaste förändringar i avkastningen för den underliggande variabeln. RiskMetrics-databasen (tillverkad av JP Morgan och publicerad tillgänglig) använder EWMA för uppdatering av den dagliga volatiliteten. VIKTIGT: EWMA-formel antar inte en långsiktig genomsnittlig variansnivå. Konceptet om volatilitet betyder att omvändning inte fångas av EWMA. ARCHGARCH-modellerna är bättre lämpade för detta ändamål. Ett sekundärt mål för EWMA är att spåra förändringar i volatiliteten, så för små värden påverkar den senaste observationen uppskattningen snabbt och för värden närmare en ändras uppskattningen långsamt till de senaste förändringarna i avkastningen för den underliggande variabeln. RiskMetrics-databasen (producerad av JP Morgan) och offentliggjord tillgänglig år 1994 använder EWMA-modellen för uppdatering av den dagliga volatilitetsberäkningen. Företaget fann att över en rad marknadsvariabler, ger detta värde en prognos om variansen som kommer närmast realiserad variansränta. De realiserade variansräntorna på en viss dag beräknades som ett lika viktat genomsnitt på de följande 25 dagarna. På samma sätt, för att beräkna det optimala värdet av lambda för vår dataset, måste vi beräkna den realiserade volatiliteten vid varje punkt. Det finns flera metoder, så välj en. Därefter beräkna summan av kvadrerade fel (SSE) mellan EWMA uppskattning och realiserad volatilitet. Slutligen minimera SSE genom att variera lambda-värdet. Låter enkelt Det är. Den största utmaningen är att komma överens om en algoritm för att beräkna realiserad volatilitet. Till exempel valde personerna i RiskMetrics de följande 25 dagarna för att beräkna realiserad variansgrad. I ditt fall kan du välja en algoritm som utnyttjar dagliga volymen, HILO andor OPEN-CLOSE-priser. Q 1: Kan vi använda EWMA för att estimera (eller prognostisera) volatiliteten mer än ett steg före EWMA-volatilitetsrepresentationen antar inte en långsiktig genomsnittlig volatilitet och sålunda, för en prognoshorisont utöver ett steg, returnerar EWMA en konstant värde: Flytta medelvärden Flytta medelvärden Med vanliga dataset är medelvärdet ofta det första och en av de mest användbara, sammanfattande statistiken för att beräkna. När data är i form av en tidsserie är seriemärket en användbar åtgärd, men återspeglar inte dataens dynamiska natur. Medelvärden beräknade över korta perioder, antingen före den aktuella perioden eller centrerad under den aktuella perioden, är ofta mer användbara. Eftersom sådana medelvärden varierar eller flyttas, då den aktuella perioden går från tid t 2, t 3. etc. är de kända som glidande medelvärden (Mas). Ett enkelt glidande medelvärde är (vanligtvis) det obegripade medlet av k tidigare värden. Ett exponentiellt vägt rörligt medelvärde är väsentligen detsamma som ett enkelt rörligt medelvärde, men med bidrag till medelvärdet viktat av deras närhet till den aktuella tiden. Eftersom det inte finns en, men en hel serie av rörliga medelvärden för en given serie, kan maset själva vara ritat på diagram, analyserade som en serie och används vid modellering och prognoser. En rad modeller kan konstrueras med hjälp av glidande medelvärden, och dessa är kända som MA-modeller. Om sådana modeller kombineras med autoregressiva (AR) modeller är de resulterande kompositmodellerna kända som ARMA - eller ARIMA-modeller (jag är för integrerad). Enkla glidande medelvärden Eftersom en tidsserie kan betraktas som en uppsättning värden, kan t 1,2,3,4, n genomsnittet av dessa värden beräknas. Om vi antar att n är ganska stor, och vi väljer ett heltal k som är mycket mindre än n. vi kan beräkna en uppsättning blockmedelvärden eller enkla glidande medelvärden (i ordning k): Varje åtgärd representerar genomsnittet av datavärdena över ett intervall av k-observationer. Observera att den första möjliga MA i ordningen k gt0 är den för t k. Mer generellt kan vi släppa det extra prenumerationen i ovanstående uttryck och skriva: Detta säger att det uppskattade medelvärdet vid tiden t är det enkla genomsnittet av det observerade värdet vid tiden t och de föregående k -1-stegen. Om vikter appliceras som minskar bidraget från observationer som är längre bort i tid, sägs det glidande medlet vara exponentiellt jämna. Flytta medelvärden används ofta som en form av prognoser, varvid det uppskattade värdet för en serie vid tiden t 1, S t1. tas som MA för perioden fram till och med tiden t. t. ex. Dagens uppskattning baseras på ett genomsnitt av tidigare inspelade värden fram till och med gårdagarna (för dagliga data). Enkla glidande medelvärden kan ses som en form av utjämning. I det nedan angivna exemplet har luftföroreningens dataset som visas i introduktionen till detta ämne ökat med en 7 dagars glidande medelvärde (MA) - linje, som visas här i rött. Såsom kan ses, släpper MA-linjen ut topparna och trågen i data och kan vara till stor hjälp när det gäller att identifiera trender. Standarden framåtberäkningsformeln innebär att de första k -1 datapunkterna inte har något MA-värde, men därefter sträcker sig beräkningarna till den slutliga datapunkten i serien. PM10 dagliga medelvärden, Greenwich källa: London Air Quality Network, londonair. org. uk En anledning till att beräkna enkla glidande medelvärden på det sätt som beskrivs är att det gör det möjligt att beräkna värden för alla tidsluckor från tid tk fram till idag, och När en ny mätning erhålls för tid t 1 kan MA för tid t 1 läggas till den redan beräknade uppsättningen. Detta ger ett enkelt förfarande för dynamiska dataset. Det finns emellertid vissa problem med detta tillvägagångssätt. Det är rimligt att hävda att medelvärdet under de senaste 3 perioderna ska vara placerat vid tiden t -1, inte tiden t. och för en MA över ett jämnt antal perioder kanske det borde ligga i mitten mellan två tidsintervaller. En lösning på denna fråga är att använda centrerade MA-beräkningar, där MA vid tiden t är medelvärdet av en symmetrisk uppsättning värden runt t. Trots dess uppenbara meriter används inte detta tillvägagångssätt allmänt eftersom det krävs att data är tillgängliga för framtida händelser, vilket kanske inte är fallet. I fall där analysen helt och hållet består av en befintlig serie, kan användningen av centrerad Mas vara att föredra. Enkla glidande medelvärden kan betraktas som en form av utjämning, avlägsna några högfrekventa komponenter i en tidsserie och markera (men inte ta bort) trender på ett sätt som liknar den allmänna uppfattningen av digital filtrering. Faktum är att glidmedel är en form av linjärt filter. Det är möjligt att tillämpa en glidande medelberäkning till en serie som redan har slätts, dvs utjämning eller filtrering av en redan slätad serie. Till exempel med ett glidande medelvärde av ordning 2 kan vi betrakta det som beräknat med vikter, så MA vid x 2 0,5 x 1 0,5 x 2. På samma sätt kan MA vid x 3 0,5 x 2 0,5 x 3. Om vi Applicera en andra nivå av utjämning eller filtrering, vi har 0,5 x 2 0,5 x 3 0,5 (0,5 x 2 0,5 x 3) 0,25 x 1 0,5 x 2 0,25 x 3 dvs 2-stegs filtrering process (eller convolution) har producerat ett variabelt viktat symmetriskt rörligt medelvärde, med vikter. Flera omvälvningar kan producera ganska komplexa viktade glidmedel, av vilka vissa har visat sig vara särskilt användningsområden inom specialiserade områden, t. ex. i livförsäkringsberäkningar. Flyttande medelvärden kan användas för att avlägsna periodiska effekter om de beräknas med periodens längd som känd. Exempelvis kan säsongsvariationer ofta avlägsnas (om detta är målet) med hjälp av ett symmetriskt 12 månaders glidande medelvärde med alla månader viktade lika mycket, med undantag för det första och det sista som vägs med 12. Detta beror på att det kommer att var 13 månader i den symmetriska modellen (aktuell tid, t. - 6 månader). Totalen är dividerad med 12. Liknande procedurer kan antas för vilken väldefinierad periodicitet som helst. Exponentiellt vägda glidmedel (EWMA) Med den enkla glidande medelformeln: alla observationer är lika viktiga. Om vi kallade dessa lika vikter, alfa t. var och en av k-vikterna skulle motsvara 1 k. så summan av vikterna skulle vara 1 och formeln skulle vara: Vi har redan sett att flera tillämpningar av denna process resulterar i vikten varierande. Med exponentiellt vägda glidmedel är bidraget till medelvärdet från observationer som är mer borttagna i tiden minskat, vilket därmed understryker senare (lokala) händelser. I grunden introduceras en utjämningsparameter, 0lt al1, och formeln revideras till: En symmetrisk version av denna formel skulle vara av formen: Om vikterna i den symmetriska modellen väljas som villkoren för villkoren för binomial expansion, (1212) 2q. de kommer att summeras till 1, och när q blir stor kommer den att approximera normalfördelningen. Detta är en form av kärnviktning, med binomial som fungerar som kärnfunktionen. Den tvåstegsvalsning som beskrivs i föregående stycke är just detta arrangemang, med q 1, vilket ger vikterna. Vid exponentiell utjämning är det nödvändigt att använda en uppsättning vikter som summerar till 1 och som reducerar geometriskt i storlek. De använda vikterna är typiskt av formen: För att visa att dessa vikter uppgår till 1, överväga utvidgningen av 1 som en serie. Vi kan skriva och expandera uttrycket i parentes med binomialformeln (1- x) p. där x (1-) och p -1, vilket ger: Detta ger då en form av viktat glidande medelvärde av formuläret: Denna summering kan skrivas som en återkommande relation: vilket förenklar beräkningen kraftigt och undviker problemet att viktningsregimen bör strängt vara oändlig för vikterna sammanlagt till 1 (för små värden av alfa. detta är vanligtvis inte fallet). Notationen som används av olika författare varierar. Vissa använder bokstaven S för att indikera att formeln i huvudsak är en jämn variabel och skriv: medan kontrollteori litteraturen ofta använder Z snarare än S för exponentiellt viktade eller jämnda värden (se exempelvis Lucas och Saccucci, 1990, LUC1 , och NIST-webbplatsen för mer detaljer och fungerade exempel). De ovan angivna formlerna härstammar från Roberts arbete (1959, ROB1), men Hunter (1986, HUN1) använder ett uttryck av formen: vilket kan vara mer lämpligt för användning vid vissa kontrollförfaranden. Med alfa 1 är medelvärdet bara det uppmätta värdet (eller värdet av föregående dataobjekt). Med 0,5 är uppskattningen det enkla glidande medlet för nuvarande och tidigare mätningar. Vid prognosmodeller är värdet S t. används ofta som uppskattnings - eller prognosvärde för nästa tidsperiod, dvs som uppskattning för x vid tidpunkt t 1. Således har vi: Detta visar att prognosvärdet vid tid t 1 är en kombination av det tidigare exponentiellt viktade glidande medlet plus en komponent som representerar det vägda prediktionsfelet, epsilon. vid tiden t. Antag att en tidsserie ges och en prognos krävs, ett värde för alfa krävs. Detta kan beräknas från befintliga data genom att utvärdera summan av kvadrerade prediktionsfel erhållna med varierande värden av alfa för varje t 2,3. inställning av den första uppskattningen som det första observerade datavärdet, x 1. I kontrollapplikationer är värdet av alfa viktigt eftersom det används vid bestämning av de övre och nedre kontrollgränserna och påverkar den genomsnittliga körlängden (ARL) som förväntas innan dessa kontrollgränser bryts (under antagandet att tidsserierna representerar en uppsättning slumpmässiga, identiskt distribuerade oberoende variabler med gemensam varians). Under dessa omständigheter är variansen av kontrollstatistiken: (Lucas och Saccucci, 1990): Kontrollgränser fastställs vanligtvis som fasta multiplar av denna asymptotiska varians, t. ex. - 3 gånger standardavvikelsen. Om exempelvis alfa 0,25 och de data som övervakas antas ha en Normalfördelning, N (0,1), när den är i kontroll, kommer kontrollgränserna att vara - 1,134 och processen kommer att nå en eller annan gräns i 500 steg i genomsnitt. Lucas och Saccucci (1990 LUC1) härleda ARL för ett brett spektrum av alfavärden och under olika antaganden med användning av Markov Chain-förfaranden. De tabulerar resultaten, inklusive att tillhandahålla ARL, när medelvärdet av kontrollprocessen har skiftats med en del multipel av standardavvikelsen. Till exempel, med ett 0,5 skift med alfa 0,25 är ARL mindre än 50 tidssteg. Tillvägagångssätten som beskrivs ovan är kända som enda exponentiell utjämning. eftersom förfarandena appliceras en gång till tidsserierna och sedan utförs analyser eller kontrollprocesser på den resulterande utjämnade datasatsen. Om datasetet innehåller en trend och eller säsongsbetonade komponenter kan två - eller trestegs exponentiell utjämning användas för att avlägsna (explicit modellering) dessa effekter (se vidare avsnittet Prognoser nedan och NIST-exemplet). CHA1 Chatfield C (1975) Analysen av Times Series: Theory and Practice. Chapman och Hall, London HUN1 Hunter J S (1986) Det exponentiellt vägda glidande medlet. J av Quality Technology, 18, 203-210 LUC1 Lucas J M, Saccucci M S (1990) Exponentiellt viktade rörliga medelkontrollsystem: Egenskaper och förbättringar. Technometrics, 32 (1), 1-12 ROB1 Roberts S W (1959) Kontrolldiagramtester baserat på geometriska rörliga medelvärden. Technometrics, 1, 239-250
No comments:
Post a Comment