Thursday 14 September 2017

Acf Glidande-Medelvärde Processen


Identifiera antalet AR - eller MA-termer i en ARIMA-modell ACF - och PACF-diagram: Efter en tidsserie har skrivits genom differentiering, är nästa steg för att ange en ARIMA-modell att avgöra om AR eller MA-termer är nödvändiga för att korrigera autokorrelation som Återstår i den olika serien. Självklart kan du, med programvara som Statgraphics, bara prova olika kombinationer av termer och se vad som fungerar bäst. Men det finns ett mer systematiskt sätt att göra detta. Genom att titta på autokorrelationsfunktionen (ACF) och partiell autokorrelation (PACF) av de olika serierna kan du preliminärt identifiera antalet AR andor MA termer som behövs. Du är redan bekant med ACF-diagrammet: det är bara ett stapeldiagram över koefficienterna för korrelation mellan en tidsserie och lagar av sig själv. PACF-plot är en plot av de partiella korrelationskoefficienterna mellan serien och lager av sig själv. I allmänhet är quotpartialquot-korrelationen mellan två variabler mängden korrelation mellan dem som inte förklaras av deras ömsesidiga korrelationer med en specificerad uppsättning andra variabler. Om vi ​​till exempel regresserar en variabel Y på andra variabler X1, X2 och X3, är den partiella korrelationen mellan Y och X3 mängden korrelation mellan Y och X3 som inte förklaras av deras gemensamma korrelationer med X1 och X2. Denna partiella korrelation kan beräknas som kvadratroten av reduktionen i variansen som uppnås genom att lägga X3 till regressionen av Y på X1 och X2. En partiell automatisk korrelation är mängden korrelation mellan en variabel och en lag i sig som inte förklaras av korrelationer vid alla lägre ordningslag. Autokorrelationen av en tidsserie Y vid lag 1 är koefficienten för korrelation mellan Y t och Y t - 1. Vilket förmodligen också är sambandet mellan Y t-1 och Y t-2. Men om Y t är korrelerad med Y t -1. Och Y t-1 är lika korrelerad med Y t-2. Då borde vi också förvänta oss att hitta korrelation mellan Y t och Y t-2. Faktum är att den korrelation som vi borde förvänta oss vid lag 2 är exakt kvadraten av lag-1-korrelationen. Korrelationen vid lag 1 citerar således kvoten till lag 2 och förmodligen till högre ordning. Den partiella autokorrelationen vid lag 2 är därför skillnaden mellan den faktiska korrelationen vid lag 2 och den förväntade korrelationen på grund av utbredningen av korrelation vid lag 1. Här är autokorrelationsfunktionen (ACF) i UNITS-serien innan någon skillnad utförs: Autokorrelationerna är signifikanta för ett stort antal lags - men kanske är autokorrelationerna vid lags 2 och över bara beroende av utbredningen av autokorrelationen vid lag 1. Det bekräftas av PACF-plot: Observera att PACF-plot har en signifikant Spik endast vid fördröjning 1, vilket innebär att alla högre-ordens autokorrelationer effektivt förklaras av lag-1 autokorrelationen. De partiella autokorrelationerna i alla lags kan beräknas genom att passa en följd av autoregressiva modeller med ökande antal lags. I synnerhet är den partiella autokorrelationen vid lag k lika med den uppskattade AR (k) - koefficienten i en autoregressiv modell med k-termer - dvs. En multipelregressionsmodell där Y regresseras på LAG (Y, 1), LAG (Y, 2) etc. upp till LAG (Y, k). Således kan du, genom enbart inspektion av PACF, bestämma hur många AR-termer du behöver använda för att förklara autokorrelationsmönstret i en tidsserie: om den partiella autokorrelationen är signifikant vid lag k och inte signifikant vid vilken högre ordning som helst, dvs. Om PACF citerar offquot vid lag k - det här tyder på att du bör försöka montera en autoregressiv modell av order k PACF i UNITS-serien ger ett extremt exempel på cut-off-fenomenet: det har en mycket stor spets vid lag 1 Och inga andra signifikanta spikar, vilket indikerar att en AR (1) modell borde användas i avsaknad av differentiering. AR (1) termen i denna modell kommer emellertid att vara ekvivalent med en första skillnad, eftersom den uppskattade AR (1) - koefficienten (vilken är höjden av PACF-spetsen vid lag 1) kommer att vara nästan exakt lika med 1 . Nu är prognosförhållandet för en AR (1) - modell för en serie Y utan ordningsskillnader: Om AR (1) - koefficienten 981 1 i denna ekvation är lika med 1, motsvarar den att förutsäga att den första skillnaden Av Y är konstant - dvs Det motsvarar ekvationen för den slumpmässiga promenadmodellen med tillväxt: PACF i UNITS-serien säger att om vi inte skiljer det, ska vi passa en AR (1) modell som kommer att visa sig vara likvärdig med att ta En första skillnad. Med andra ord, det berättar för oss att enheter verkligen behöver en ordning för differentiering för att vara stationäriserad. AR - och MA-signaturer: Om PACF visar en skarp avstängning medan ACF avtar långsammare (dvs har betydande spikar vid högre lags), säger vi att den stationära serien visar en kvot-signatur, vilket betyder att autokorrelationsmönstret lättare kan förklaras Genom att lägga till AR-villkor än genom att lägga till MA-termer. Du kommer förmodligen att finna att en AR-signatur ofta är associerad med positiv autokorrelation vid lag 1 - dvs. Det tenderar att uppstå i serie som är något under olika. Anledningen till detta är att en AR-term kan fungera som en quotpartial differencequot i prognosekvationen. I en AR (1) modell verkar AR-termen som en första skillnad om den autoregressiva koefficienten är lika med 1, det gör inget om den autoregressiva koefficienten är noll och den fungerar som en partiell skillnad om koefficienten är mellan 0 och 1. Så, om serien är något underdifferentierad - dvs Om det icke-stationära mönstret av positiv autokorrelation inte helt har eliminerats, kommer den att kvotera forquot en partiell skillnad genom att visa en AR-signatur. Följaktligen har vi följande tumregel för att bestämma när du ska lägga till AR-termer: Regel 6: Om PACF för de olika serierna visar en skarp cutoff andor är lag-1 autokorrelationen positiv - dvs. Om serien verkar något quotunderdifferencedquot - överväg då att lägga till en AR-term till modellen. Den fördröjning som PACF avbryter är det angivna antalet AR-termer. I princip kan varje autokorrelationsmönster avlägsnas från en stationär serie genom att lägga till tillräckligt autoregressiva termer (lags av den stationära serien) till prognosförhållandet, och PACF berättar hur många sådana termer som sannolikt behövs. Detta är dock inte alltid det enklaste sättet att förklara ett givet autokorrelationsmönster: ibland är det mer effektivt att lägga till MA-termer (lags av prognosfel) istället. Autokorrelationsfunktionen (ACF) spelar samma roll för MA-termer som PACF spelar för AR-termer - det vill säga, ACF berättar hur många MA-termer som troligen kommer att behövas för att ta bort återstående autokorrelation från den olika serien. Om autokorrelationen är signifikant vid lag k men inte vid något högre lag - dvs. Om ACF citerar offquot vid lag k - detta indikerar att exakt k MA termer ska användas i prognosekvationen. I det senare fallet säger vi att den stationära serien visar en kvota-signatur, vilket betyder att autokorrelationsmönstret lättare kan förklaras genom att lägga till MA-termer än genom att lägga till AR-termer. En MA-signatur är allmänt associerad med negativ autokorrelation vid lag 1 - dvs. Det tenderar att uppstå i serier som är något över olika. Anledningen till detta är att en MA term kan partiellt avbryta en order av differentiering i prognosen ekvationen. För att se detta, kom ihåg att en ARIMA (0,1,1) modell utan konstant motsvarar en Simple Exponential Smoothing-modell. Prognosekvationen för denna modell är där MA (1) koefficienten 952 1 motsvarar kvantiteten 1 - 945 i SES-modellen. Om 952 1 är lika med 1 motsvarar detta en SES-modell med 945 0, vilket bara är en CONSTANT-modell eftersom prognosen aldrig uppdateras. Detta innebär att när 952 1 är lika med 1, avbryter den faktiskt avvikelsen som normalt möjliggör att SES-prognosen återförankrar sig vid den sista observationen. Å andra sidan, om den glidande medelkoefficienten är lika med 0, minskar denna modell till en slumpmässig promenadmodell - dvs. Det lämnar differentieringsoperationen ensam. Så, om 952 1 är något större än 0, är ​​det som om vi delvis avbryter en ordning med differentiering. Om serien redan är något överstegd - dvs. Om negativ autokorrelation har införts - då kommer det att kvotera forquot en skillnad att delvis avbrytas genom att visa en MA-signatur. (Många armvinklingar pågår här En mer noggrann förklaring till denna effekt finns i den matematiska strukturen i ARIMA Models handout.) Följaktligen följande extra tumregel: Regel 7: Om ACF i den olika serien visar en Skarp avstängning och fördröjningen 1-autokorrelationen är negativ - ie Om serien verkar något quotoverdifferencedquot - överväg då att lägga till en MA term till modellen. Den fördröjning som ACF avbryter är det angivna antalet MA-termer. En modell för UNITS-serien - ARIMA (2,1,0): Tidigare bestämde vi oss för att UNITS-serien behövde (åtminstone) en order av nonseasonal differencing att stationera. Efter att ha tagit en nonseasonal skillnad - dvs. Montera en ARIMA (0,1,0) modell med konstant - ACF - och PACF-diagrammen ser så här ut: Observera att (a) korrelationen vid lag 1 är signifikant och positiv, och (b) PACF visar en skarpare kvotoffot än ACF. I synnerhet har PACF endast två signifikanta toppar, medan ACF har fyra. Sålunda, enligt regel 7 ovan, visar den olika serien en AR (2) signatur. Om vi ​​därför sätter ordningen på AR-termen till 2 - dvs. Passar en ARIMA (2,1,0) modell - vi får följande ACF - och PACF-tomter för rester: Autokorrelationen vid de avgörande lagarna - nämligen lags 1 och 2 - har eliminerats och det finns inget märkbart mönster I högre ordning lags. Tidsseriens plot av residualerna visar en något orolig tendens att vandra bort från medelvärdet: Analysrapporten visar dock att modellen ändå fungerar ganska bra under valideringsperioden, båda AR-koefficienterna skiljer sig avsevärt från noll och standarden Avvikelsen av resthalterna har minskats från 1,54371 till 1,4215 (nästan 10) genom tillsats av AR-termerna. Dessutom finns det inget tecken på en kvotenhet, eftersom summan av AR-koefficienterna (0.2522540.195572) inte ligger nära 1. (Enhetsrotsar diskuteras mer detaljerat nedan.) Det verkar som helhet vara en bra modell . De prognostiserade prognoserna för modellen visar en linjär uppåtgående trend framåt i framtiden. Trenden i de långsiktiga prognoserna beror på att modellen innehåller en icke-säsongsskillnad och en konstant term: denna modell är i grunden en slumpmässig promenad med Tillväxt finjusterad genom tillägg av två autoregressiva termer - dvs Två lager av den olika serien. Lutningen av de långsiktiga prognoserna (dvs genomsnittlig ökning från en period till en annan) är lika med medelperioden i modellöversikten (0,467566). Prognosekvationen är: där 956 är den konstanta termen i modellöversikten (0,258178), är 981 1 AR (1) - koefficienten (0,255224) och 9812 är AR (2) - koefficienten (0,195572). Medelvärde mot konstant: I allmänhet hänvisar kvoten till en ARIMA-modell till medelvärdet av de olika serierna (dvs. den genomsnittliga trenden om ordningen för differentiering är lika med 1), medan quotconstantquot är den konstanta termen som visas På den högra sidan av prognosekvationen. De medelvärda och konstanta termerna är relaterade till ekvationen: CONSTANT MEAN (1 minus summan av AR koefficienterna). I detta fall har vi 0.258178 0.467566 (1 - 0.25224 - 0.195572) Alternativ modell för UNITS-serien - ARIMA (0,2,1): Minns att när vi började analysera UNITS-serien var vi inte helt säkra på Korrekt ordning för differentiering att använda. En ordning av icke-säsongsskillnader gav den lägsta standardavvikelsen (och ett mönster av mild positiv autokorrelation), medan två order av icke-säsongsskillnader gav en mer stationär serier av tidsserier (men med ganska stark negativ autokorrelation). Här är både ACF och PACF i serien med två nonseasonal skillnader: Den enda negativa spetsen vid lag 1 i ACF är en MA (1) signatur, enligt regel 8 ovan. Om vi ​​skulle använda 2 nonseasonal skillnader skulle vi också vilja inkludera en MA (1) term som ger en ARIMA (0,2,1) modell. Enligt regel 5 vill vi också undertrycka den konstanta termen. Här är resultatet av att montera en ARIMA-modell (0,2,1) utan konstant: Observera att den beräknade standardavvikelsen för standardstandard (RMSE) endast är mycket högre för den här modellen än den tidigare (1.46301 här jämfört med 1.45215 tidigare). Prognosekvationen för denna modell är: där theta-1 är MA (1) - koefficienten. Minns att detta liknar en modell med linjär exponentiell utjämning, med MA (1) - koefficienten som motsvarar kvantiteten 2 (1-alfa) i LES-modellen. MA (1) - koefficienten på 0,76 i denna modell tyder på att en LES-modell med alfa i närheten av 0,72 skulle passa ungefär lika bra. Faktum är att när en LES-modell är utrustad med samma data visar det optimala värdet av alpha att vara omkring 0,61, vilket inte är för långt bort. Här är en modell jämförelsesrapport som visar resultaten av monteringen av ARIMA (2,1,0) modellen med konstant, ARIMA (0,2,1) modellen utan konstant, och LES-modellen: De tre modellerna utför nästan identiskt i Uppskattningsperioden och ARIMA (2,1,0) modellen med konstant framstår något bättre än de andra två under valideringsperioden. På grundval av dessa statistiska resultat ensamma skulle det vara svårt att välja bland de tre modellerna. Men om vi plottar de långsiktiga prognoserna som gjorts av ARIMA-modellen (0,2,1) utan konstant (som i huvudsak är desamma som i LES-modellen) ser vi en signifikant skillnad från den tidigare modellen: Prognoserna har en något mindre uppåtgående trend än den tidigare modellen - eftersom den lokala trenden nära slutet av serien är något mindre än den genomsnittliga trenden över hela serien - men konfidensintervallet växer mycket snabbare. Modellen med två order av differentiering förutsätter att trenden i serien är tidsvarierande och därför anser den avlägsna framtiden att vara mycket osäkerare än modellen med endast en ordning med differentiering. Vilken modell ska vi välja? Det beror på antagandena som vi är bekväma att göra med hänsyn till utvecklingen i trenden i data. Modellen med endast en order av differentiering förutsätter en konstant genomsnittlig trend - det är i huvudsak en finjusterad slumpmässig promenadmodell med tillväxt - och det gör därför relativt konservativa trendprognoser. Det är också ganska optimistiskt om den noggrannhet som den kan förutsäga mer än en period framöver. Modellen med två order av differentiering förutsätter en tidsvarierande lokal trend - det är i huvudsak en linjär exponentiell utjämningsmodell - och dess trendprognoser är något mer svaga. Som en allmän regel i denna typ av situation skulle jag rekommendera att välja modellen med den lägre ordningen av differentiering, andra saker är ungefär lika. I praktiken verkar slumpmässiga eller enkla exponentiella utjämningsmodeller ofta fungera bättre än linjära exponentiella utjämningsmodeller. Blandade modeller: I de flesta fall visar den bästa modellen en modell som använder antingen AR-villkor eller bara MA-termer, även om det i vissa fall kan en quotmixedquot-modell med både AR - och MA-termer ge bästa passform till data. Dock måste man ta hand om när man monterar blandade modeller. Det är möjligt för en AR-term och en MA-term att avbryta varandras effekter. Även om båda kan verka signifikanta i modellen (som bedömts av t-statistiken för deras koefficienter). Antag exempelvis att quotcorrectquotmodellen för en tidsserie är en ARIMA (0,1,1) modell, men istället passar du en ARIMA (1,1,2) modell - dvs. Du inkluderar en ytterligare AR-term och en ytterligare MA term. Då kan de ytterligare termerna visa sig vara betydande i modellen, men internt kan de bara arbeta mot varandra. De resulterande parametrisuppskattningarna kan vara tvetydiga och parametrisuppskattningsprocessen kan ta väldigt många (t ex mer än 10) iterationer för konvergering. Följaktligen: Regel 8: Det är möjligt för en AR-term och en MA-term att avbryta varandras effekter, så om en blandad AR-MA-modell verkar passa data, försök även en modell med en färre AR-term och en mindre MA-term - speciellt om parametervärdena i den ursprungliga modellen kräver mer än 10 iterationer för konvergering. Av denna anledning kan ARIMA-modeller inte identifieras med kvadratiska stegvisa metoder som innehåller både AR - och MA-termer. Med andra ord kan du inte börja med att inkludera flera termer av varje slag och sedan slänga ut de vars beräknade koefficienter inte är signifikanta. I stället följer du vanligtvis ett kvotriktigt stegvis tillvägagångssätt, som lägger till termer av ett slag eller det andra, vilket indikeras av utseendet på ACF - och PACF-diagrammen. Enhetsrödor: Om en serie är grovt under - eller överdifferensierad, dvs. Om en hel ordning med differentieringar måste läggas till eller avbrytas, signaleras detta ofta med en kvotenhetskvot i de beräknade AR - eller MA-koefficienterna för modellen. En AR (1) - modell sägs ha en rotationsenhet om den uppskattade AR (1) - koefficienten är nästan exakt lika med 1. (Med quotexactly lika citat menar jag verkligen inte väsentligt annorlunda än vad gäller koefficienterna eget standardfel. ) När detta händer betyder det att termen AR (1) precis efterliknar en första skillnad, i så fall ska du ta bort AR (1) termen och lägga till en ordningsordning i stället. (Det här är exakt vad som skulle hända om du monterade en AR (1) - modell till den obifferensiva UNITS-serien, som tidigare noterat.) I en AR-modell med högre ordning finns en enhetsrots i AR-delen av modellen om summan av AR-koefficienterna är exakt lika med 1. I det här fallet bör du minska ordningen för AR-termen med 1 och lägga till en ordning med differentiering. En tidsserie med enhetsrots i AR-koefficienterna är icke-stationär, dvs. Det behöver en högre ordning med differentiering. Regel 9: Om det finns en rotationsenhet i AR-delen av modellen - dvs. Om summan av AR-koefficienterna är nästan exakt 1 - bör du minska antalet AR-termer med en och öka ordningen för differentiering med en. På samma sätt sägs en MA (1) - modell ha en enhetsrot om den uppskattade MA (1) - koefficienten är exakt lika med 1. När detta händer betyder det att MA (1) termen exakt avbryter en första skillnad, i I vilket fall ska du ta bort MA (1) termen och även minska sorteringsordningen med en. I en MA-modell med högre ordning existerar en enhetsrots om summan av MA-koefficienterna är exakt lika med 1. Regel 10: Om det finns en enhetsrot i MA-delen av modellen - dvs Om summan av MA koefficienterna är nästan exakt 1 - du borde minska antalet MA-termer för en och minska ordningsskillnaden med en. Om du till exempel använder en linjär exponentiell utjämningsmodell (en ARIMA (0,2,2) - modell) när en enkel exponentiell utjämningsmodell (en ARIMA (0,1,1) - modell) skulle ha varit tillräcklig, kanske du finner det Summan av de två MA koefficienterna är väldigt nästan lika med 1. Genom att minska MA-ordningen och sorteringsordningen med en var och en erhåller du den lämpligare SES-modellen. En prognosmodell med enhetsrot i de uppskattade MA-koefficienterna sägs vara noninvertible. Vilket innebär att resterna av modellen inte kan betraktas som uppskattningar av det slumpmässiga felet i quottruequot som genererade tidsserierna. Ett annat symptom på enhetsroten är att prognoserna av modellen kan kväva uppåt eller på annat sätt uppträda bizarrt. Om tidsserien av de långsiktiga prognoserna för modellen ser konstig ut, bör du kontrollera de beräknade koefficienterna för din modell för närvaro av enhetsrot. Regel 11: Om de långsiktiga prognoserna ser ut som oregelbundna eller instabila, kan det finnas en enhetsrot i AR - eller MA-koefficienterna. Inget av dessa problem uppstod med de två modellerna som var monterade här, eftersom vi var försiktiga med att börja med rimliga differensbestämningar och lämpliga antal AR - och MA-koefficienter genom att studera ACF - och PACF-modellerna. Mer detaljerade diskussioner om unit root och cancellation effekter mellan AR och MA termer finns i den matematiska strukturen av ARIMA Models handout. ARMA, ARMA Acf - Pacf Visualizations Som nämnts i föregående inlägg. Jag har arbetat med autoregressiva och flytta genomsnittliga simuleringar. För att testa riktigheten av uppskattningar genom våra simuleringar använder vi acf (Autocorrelation) och pacf (partial autocorrelation) till vår användning. För olika ordningar av AR och MA får vi de olika visualiseringarna med dem, såsom: Exponentiella minskande kurvor. Dampade sinusvågor. Positiva och negativa spikar, etc. Under analys och skrivprov för samma sak tog jag också tid att visualisera den data på ilne och stapeldiagram för att få en tydligare bild: AR (1) process AR (1) - processen är den autoregressiva simuleringen med Beställa p 1, dvs med ett värde av phi. Ideal AR (p) - process representeras av: För att simulera detta, installera statistikprovserier från härifrån. För AR (p) måste acf ge en dämpande sinusvåg. Mönstret är starkt beroende av värdet och tecknet på phi-parametrar. När positivt innehåll i phi-koefficienterna är mer, kommer du att få en sinusvåg från startsidan, annars kommer sinusvåg från negativ sida. Observera, dämpnings sinusviken börjar från positiv sida här: och negativ sida här. Pacf ger spik vid lag 0 (värde 1.0, standard) och från lag 1 till lag k. Exemplet ovan har AR (2) - process. För detta måste vi få spikar i lag 1 - 2 som: MA (1) Process MA (1) Processen är den glidande genomsnittsimuleringen med order q 1. dvs med ett värde Av theta. För att simulera detta, använd masimmetoden från Statsample :: ARIMA :: ARIMA MA (q) process ARMA (p, q) process ARMA (p, q) är en kombination av autoregressiva och rörliga genomsnittssimuleringar. När q 0. processen kallas som ren autoregressiv process när p 0. processen är rent rörlig genomsnittlig. Simulatorn av ARMA kan hittas som armasim i Statsample :: ARIMA :: ARIMA. För ARMA (1, 1) process, här är jämförelserna av visualiseringarna från R och den här koden, som bara gjorde min dag :) Skål, - Ankur Goel Inlagd av Ankur Goel 20 juli. 2013 Senaste inlägg GitHub Repos2.1 Flytta genomsnittsmodeller (MA modeller) Tidsseriemodeller som kallas ARIMA-modeller kan innefatta autoregressiva termer och / eller rörliga genomsnittsvillkor. I vecka 1 lärde vi oss en autoregressiv term i en tidsseriemodell för variabeln x t är ett fördröjt värde av x t. Till exempel är en lag 1-autoregressiv term x t-1 (multiplicerad med en koefficient). Denna lektion definierar glidande medelvärden. En glidande medelfrist i en tidsseriemodell är ett tidigare fel (multiplicerat med en koefficient). Låt (wt overset N (0, sigma2w)), vilket betyder att w t är identiskt oberoende fördelade, var och en med en normal fördelning med medelvärde 0 och samma varians. Den första ordningens rörliga genomsnittsmodell, betecknad med MA (1) är (xt mu wt theta1w) Den andra ordens rörliga genomsnittsmodellen, betecknad med MA (2) är (xt mu wt theta1w theta2w) , Betecknad med MA (q) är (xt mu wt theta1w theta2w punkter thetaqw) Not. Många läroböcker och programvara definierar modellen med negativa tecken före villkoren. Detta ändrar inte de allmänna teoretiska egenskaperna hos modellen, även om den vrider de algebraiska tecknen på uppskattade koefficientvärden och (unsquared) termer i formler för ACF och variationer. Du måste kontrollera din programvara för att kontrollera om negativa eller positiva tecken har använts för att korrekt beräkna den beräknade modellen. R använder positiva tecken i sin underliggande modell, som vi gör här. Teoretiska egenskaper hos en tidsserie med en MA (1) modell Observera att det enda nonzero-värdet i teoretisk ACF är för lag 1. Alla andra autokorrelationer är 0. Således är en prov-ACF med en signifikant autokorrelation endast vid lag 1 en indikator på en möjlig MA (1) - modell. För intresserade studenter är bevis på dessa egenskaper en bilaga till denna handout. Exempel 1 Antag att en MA (1) modell är x t10 w t .7 w t-1. Var (överskridande N (0,1)). Således är koefficienten 1 0,7. Den teoretiska ACF ges av En plot av denna ACF följer. Den visade ploten är den teoretiska ACF för en MA (1) med 1 0,7. I praktiken ger ett prov vanligtvis vanligtvis ett så tydligt mönster. Med hjälp av R simulerade vi n 100 provvärden med hjälp av modellen x t 10 w t .7 w t-1 där W t iid N (0,1). För denna simulering följer en tidsserieplot av provdata. Vi kan inte berätta mycket från denna plot. Provet ACF för den simulerade data följer. Vi ser en spik vid lag 1 följt av allmänt icke-signifikanta värden för lags över 1. Observera att provet ACF inte matchar det teoretiska mönstret för den underliggande MA (1), vilket är att alla autokorrelationer för lags över 1 kommer att vara 0 . Ett annat prov skulle ha en något annorlunda prov ACF som visas nedan, men skulle troligen ha samma breda funktioner. Terapeutiska egenskaper hos en tids serie med en MA (2) modell För MA (2) modellen är teoretiska egenskaper följande: Observera att de enda nonzero-värdena i teoretisk ACF är för lags 1 och 2. Autokorrelationer för högre lags är 0 . En ACF med signifikanta autokorrelationer vid lags 1 och 2, men icke-signifikanta autokorrelationer för högre lags indikerar en möjlig MA (2) modell. Iid N (0,1). Koefficienterna är 1 0,5 och 2 0,3. Eftersom det här är en MA (2), kommer den teoretiska ACF endast att ha nonzero-värden endast på lags 1 och 2. Värdena för de två icke-oberoende autokorrelationerna är A-plot av den teoretiska ACF följer. Såsom nästan alltid är fallet kommer provdata inte att verka så perfekt som teori. Vi simulerade n 150 provvärden för modellen x t 10 w t .5 w t-1 .3 w t-2. Var vet N (0,1). Tidsserierna av data följer. Som med tidsserien för MA (1) provdata kan du inte berätta mycket för det. Provet ACF för den simulerade data följer. Mönstret är typiskt för situationer där en MA (2) modell kan vara användbar. Det finns två statistiskt signifikanta spikar vid lags 1 och 2 följt av icke-signifikanta värden för andra lags. Observera att provet ACF på grund av provtagningsfel inte exakt matchade det teoretiska mönstret. ACF för General MA (q) Modeller En egenskap hos MA (q) modeller är generellt att det finns icke-oberoende autokorrelationer för de första q-lagsna och autokorrelationerna 0 för alla lags gt q. Icke-unikhet av samband mellan värden på 1 och (rho1) i MA (1) Modell. I MA (1) - modellen, för något värde av 1. Den ömsesidiga 1 1 ger samma värde. Använd exempelvis 0,5 för 1. Och använd sedan 1 (0,5) 2 för 1. Du får (rho1) 0,4 i båda fallen. För att tillfredsställa en teoretisk restriktion kallad invertibility. Vi begränsar MA (1) - modellerna till att ha värden med absolutvärdet mindre än 1. I exemplet just givet är 1 0,5 ett tillåtet parametervärde, medan 1 10,5 2 inte kommer att. Omvändbarhet av MA-modeller En MA-modell sägs vara omvändbar om den är algebraiskt ekvivalent med en konvergerande oändlig ordning AR-modell. Genom att konvergera menar vi att AR-koefficienterna minskar till 0 när vi flyttar tillbaka i tiden. Omvändbarhet är en begränsning programmerad i tidsserierprogramvara som används för att uppskatta koefficienterna för modeller med MA-termer. Det är inte något vi söker efter i dataanalysen. Ytterligare information om invertibilitetsbegränsningen för MA (1) - modeller ges i bilagan. Avancerad teorinotation. För en MA (q) modell med en specificerad ACF finns det endast en inverterbar modell. Det nödvändiga villkoret för invertibilitet är att koefficienterna har värden så att ekvationen 1- 1 y-. - q y q 0 har lösningar för y som faller utanför enhetens cirkel. R-kod för exemplen I exempel 1 ritade vi den teoretiska ACF av modellen x t10 wt. 7w t-1. Och sedan simulerade n 150 värden från denna modell och ritade provtidsserierna och provet ACF för de simulerade data. R-kommandona användes för att plotta den teoretiska ACF: acfma1ARMAacf (mac (0.7), lag. max10) 10 satser av ACF för MA (1) med theta1 0,7 lags0: 10 skapar en variabel som heter lags som sträcker sig från 0 till 10. plot (Lags, acfma1, xlimc (1,10), ylabr, typh, huvud ACF för MA (1) med theta1 0,7) abline (h0) lägger till en horisontell axel till plottet Det första kommandot bestämmer ACF och lagrar det i ett objekt Namnet acfma1 (vårt val av namn). Plot-kommandot (3: e kommandot) tomter jämförs med ACF-värdena för lags 1 till 10. ylab-parametern markerar y-axeln och huvudparametern lägger en titel på plottet. För att se de numeriska värdena för ACF använder du bara kommandot acfma1. Simuleringen och tomterna gjordes med följande kommandon. Xcarima. sim (n150, lista (mac (0.7))) Simulerar n 150 värden från MA (1) xxc10 lägger till 10 för att göra medelvärdet 10. Simulering standardvärden betyder 0. plot (x, typeb, mainSimulated MA (1) data) Acf (x, xlimc (1,10), mainACF för simulerad provdata) I exempel 2 ritade vi teoretisk ACF av modellen xt 10 wt5 w t-1, 3 w t-2. Och sedan simulerade n 150 värden från denna modell och ritade provtidsserierna och provet ACF för de simulerade data. De R-kommandon som användes var acfma2ARMAacf (mac (0,5,0,3), lag. max10) acfma2 lags0: 10 plot (lags, acfma2, xlimc (1,10), ylabr, typh, huvud ACF för MA (2) med theta1 0,5, Theta20.3) abline (h0) xcarima. sim (n150, lista (mac (0,5, 0,3)) xxc10 plot (x, typeb, huvudsimulerad MA (2) serie) acf (x, xlimc (1,10) MainACF för simulerade MA (2) data) Bilaga: Bevis på egenskaper hos MA (1) För intresserade studenter, här är bevis för teoretiska egenskaper för MA (1) modellen. Varians: (text (xt) text (mu wt theta1 w) 0 text (wt) text (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) När h 1, föregående uttryck 1 w 2. För varje h 2, föregående uttryck 0 . Orsaken är att, per definition av vägtons oberoende. E (w k w j) 0 för någon k j. Vidare, eftersom w t har medelvärdet 0, E (wjwj) E (wj2) w2. För en tidsserie, Applicera detta resultat för att få ACF ges ovan. En inverterbar MA-modell är en som kan skrivas som en oändlig ordning AR-modell som konvergerar så att AR-koefficienterna konvergerar till 0 när vi rör sig oändligt tillbaka i tiden. Visa väl omvändbarhet för MA (1) modellen. Vi ersätter sedan förhållandet (2) för w t-1 i ekvation (1) (3) (zt wt theta1 (z-tetww) wt theta1z-tet2w) Vid tid t-2. Ekvation (2) blir vi då ersättningsförhållande (4) för w t-2 i ekvation (3) (zt wt theta1z-teteta21w wt theta1z-teteta21 (z-tetww) wt theta1z-theta12z theta31w) Om vi ​​skulle fortsätta infinitely), we would get the infinite order AR model (zt wt theta1 z - theta21z theta31z - theta41z dots ) Note however, that if 1 1, the coefficients multiplying the lags of z will increase (infinitely) in size as we move back in time. To prevent this, we need 1 lt1. This is the condition for an invertible MA(1) model. Infinite Order MA model In week 3, well see that an AR(1) model can be converted to an infinite order MA model: (xt - mu wt phi1w phi21w dots phik1 w dots sum phij1w ) This summation of past white noise terms is known as the causal representation of an AR(1). In other words, x t is a special type of MA with an infinite number of terms going back in time. This is called an infinite order MA or MA(). A finite order MA is an infinite order AR and any finite order AR is an infinite order MA. Recall in Week 1, we noted that a requirement for a stationary AR(1) is that 1 lt1. Lets calculate the Var( x t ) using the causal representation. This last step uses a basic fact about geometric series that requires (phi1lt1) otherwise the series diverges. NavigationTime Series analysis tsa statsmodels. tsa contains model classes and functions that are useful for time series analysis. This currently includes univariate autoregressive models (AR), vector autoregressive models (VAR) and univariate autoregressive moving average models (ARMA). It also includes descriptive statistics for time series, for example autocorrelation, partial autocorrelation function and periodogram, as well as the corresponding theoretical properties of ARMA or related processes. It also includes methods to work with autoregressive and moving average lag-polynomials. Additionally, related statistical tests and some useful helper functions are available. Estimation is either done by exact or conditional Maximum Likelihood or conditional least-squares, either using Kalman Filter or direct filters. Currently, functions and classes have to be imported from the corresponding module, but the main classes will be made available in the statsmodels. tsa namespace. The module structure is within statsmodels. tsa is stattools. empirical properties and tests, acf, pacf, granger-causality, adf unit root test, ljung-box test and others. armodel. univariate autoregressive process, estimation with conditional and exact maximum likelihood and conditional least-squares arimamodel. univariate ARMA process, estimation with conditional and exact maximum likelihood and conditional least-squares vectorar, var. vector autoregressive process (VAR) estimation models, impulse response analysis, forecast error variance decompositions, and data visualization tools kalmanf. estimation classes for ARMA and other models with exact MLE using Kalman Filter armaprocess. properties of arma processes with given parameters, this includes tools to convert between ARMA, MA and AR representation as well as acf, pacf, spectral density, impulse response function and similar sandbox. tsa. fftarma. similar to armaprocess but working in frequency domain tsatools. additional helper functions, to create arrays of lagged variables, construct regressors for trend, detrend and similar. filters. helper function for filtering time series Some additional functions that are also useful for time series analysis are in other parts of statsmodels, for example additional statistical tests. Some related functions are also available in matplotlib, nitime, and scikits. talkbox. Those functions are designed more for the use in signal processing where longer time series are available and work more often in the frequency domain. Descriptive Statistics and Tests stattools. acovf (x, unbiased, demean, fft)

No comments:

Post a Comment