Tuesday 19 December 2017

Autoregressive integrated moving average ppt


Wprowadzenie do ARIMA: modele niesezonowe Równanie prognostyczne ARIMA (p, d, q): Modele ARIMA są, w teorii, najbardziej ogólną klasą modeli do prognozowania szeregów czasowych, które można przekształcić na 8220stacjonarne 8221 przez różnicowanie (jeśli to konieczne), być może w połączeniu z transformacjami nieliniowymi, takimi jak rejestracja lub deflacja (jeśli to konieczne). Zmienna losowa, która jest szeregiem czasowym, jest nieruchoma, jeśli jej właściwości statystyczne są stałe w czasie. Seria stacjonarna nie ma trendu, jej wahania wokół średniej mają stałą amplitudę i poruszają się w spójny sposób. tj. jego krótkoterminowe wzorce czasu losowego zawsze wyglądają tak samo w sensie statystycznym. Ten ostatni warunek oznacza, że ​​jego autokorelacje (korelacje z jego własnymi wcześniejszymi odchyleniami od średniej) pozostają stałe w czasie, lub równoważnie, że jego widmo mocy pozostaje stałe w czasie. Zmienna losowa tej postaci może być oglądana (jak zwykle) jako kombinacja sygnału i szumu, a sygnał (jeśli jest widoczny) może być wzorem szybkiej lub wolnej średniej rewersji, lub sinusoidalnej oscylacji, lub szybkiej przemiany w znaku , a także może mieć składnik sezonowy. Model ARIMA może być postrzegany jako 8220filter8221, który próbuje oddzielić sygnał od szumu, a sygnał jest następnie ekstrapolowany w przyszłość w celu uzyskania prognoz. Równanie prognostyczne ARIMA dla stacjonarnych szeregów czasowych jest równaniem liniowym (to jest typu regresyjnym), w którym predyktory składają się z opóźnień zmiennej zależnej i opóźnień błędów prognoz. Oznacza to: Przewidywaną wartość Y stałej stałej lub ważoną sumę jednej lub więcej ostatnich wartości Y i lub ważoną sumę jednej lub więcej ostatnich wartości błędów. Jeśli predykatory składają się tylko z opóźnionych wartości Y., jest to model czysto autoregresyjny (8220a-regressed8221), który jest tylko szczególnym przypadkiem modelu regresji i który może być wyposażony w standardowe oprogramowanie regresyjne. Na przykład, autoregresyjny model pierwszego rzędu (8220AR (1) 8221) dla Y jest prostym modelem regresji, w którym zmienna niezależna jest po prostu Y opóźniona o jeden okres (LAG (Y, 1) w Statgraphics lub YLAG1 w RegressIt). Jeśli niektóre z predyktorów są opóźnieniami błędów, to model ARIMA NIE jest modelem regresji liniowej, ponieważ nie ma sposobu, aby określić 8220last okres8217s błąd8221 jako zmienną niezależną: błędy muszą być obliczane na podstawie okresu do okresu kiedy model jest dopasowany do danych. Z technicznego punktu widzenia problem z wykorzystaniem opóźnionych błędów jako czynników predykcyjnych polega na tym, że przewidywania model8217 nie są liniowymi funkcjami współczynników. mimo że są liniowymi funkcjami przeszłych danych. Współczynniki w modelach ARIMA, które zawierają opóźnione błędy, muszą być oszacowane przez nieliniowe metody optymalizacji (8220hill-climbing8221), a nie przez samo rozwiązanie układu równań. Akronim ARIMA oznacza Auto-Regressive Integrated Moving Average. Lagi ze stacjonarnej serii w równaniu prognostycznym są nazywane "wartościami dodatnimi", opóźnienia błędów prognoz są nazywane "przesunięciem średniej", a szeregi czasowe, które muszą być różnicowane, aby stały się stacjonarne, są uważane za "podzielone" wersje stacjonarnej serii. Modele Random Walk i Random-Trend, modele autoregresyjne i modele wygładzania wykładniczego są szczególnymi przypadkami modeli ARIMA. Niesezonowy model ARIMA jest klasyfikowany jako model DAIMIMA (p, d, q), gdzie: p to liczba terminów autoregresyjnych, d to liczba niesezonowych różnic potrzebnych do stacjonarności, a q to liczba opóźnionych błędów prognozy w równanie predykcji. Równanie prognostyczne jest skonstruowane w następujący sposób. Po pierwsze, niech y oznacza różnicę d Y. Oznacza to: Zwróć uwagę, że druga różnica Y (przypadek d2) nie jest różnicą od 2 okresów temu. Jest to raczej różnica między pierwszą a różnicą. który jest dyskretnym analogiem drugiej pochodnej, tj. lokalnym przyspieszeniem szeregu, a nie jego lokalnym trendem. Pod względem y. ogólne równanie prognostyczne jest następujące: Tutaj parametry średniej ruchomej (9528217 s) są zdefiniowane w taki sposób, że ich znaki są ujemne w równaniu, zgodnie z konwencją wprowadzoną przez Boxa i Jenkinsa. Niektórzy autorzy i oprogramowanie (w tym język programowania R) definiują je, aby zamiast tego mieli znaki plus. Kiedy rzeczywiste liczby są podłączone do równania, nie ma dwuznaczności, ale ważne jest, aby wiedzieć, którą konwencję używa twoje oprogramowanie podczas odczytu danych wyjściowych. Często parametry są tam oznaczone przez AR (1), AR (2), 8230 i MA (1), MA (2), 8230 itd. Aby zidentyfikować odpowiedni model ARIMA dla Y. zaczynasz od określenia kolejności różnicowania (d) konieczność stacjonowania serii i usunięcia ogólnych cech sezonowości, być może w połączeniu z transformacją stabilizującą warianty, taką jak rejestracja lub deflacja. Jeśli zatrzymasz się w tym momencie i będziesz przewidywał, że zróżnicowana seria jest stała, dopasowałeś jedynie model losowego spaceru lub losowego trendu. Jednak stacjonarne serie mogą nadal mieć błędy związane z auto - korelacjami, co sugeruje, że w równaniu prognostycznym potrzebna jest również pewna liczba terminów AR (p 8805 1) i kilka warunków MA (q 8805 1). Proces określania wartości p, d i q, które są najlepsze dla danej serii czasowej, zostanie omówiony w dalszych sekcjach notatek (których linki znajdują się na górze tej strony), ale podgląd niektórych typów nietypowych modeli ARIMA, które są powszechnie spotykane, podano poniżej. ARIMA (1,0,0) Model autoregresyjny pierwszego rzędu: jeśli seria jest stacjonarna i autokorelowana, być może można ją przewidzieć jako wielokrotność jej poprzedniej wartości plus stałą. Równanie prognostyczne w tym przypadku wynosi 8230, co samo w sobie cofnęło się Y o jeden okres. Jest to model 8220ARIMA (1,0,0) constant8221. Jeżeli średnia z Y wynosi zero, wówczas nie zostałoby uwzględnione stałe wyrażenie. Jeśli współczynnik nachylenia 981 1 jest dodatni i mniejszy niż 1 w skali (musi być mniejszy niż 1 w wielkości, jeśli Y jest nieruchomy), model opisuje zachowanie polegające na odwróceniu średniej, w którym należy przypisać wartość kolejnego okresu 817 razy 981 razy jako daleko od średniej, jak ta wartość okresu. Jeżeli 981 1 jest ujemny, przewiduje zachowanie średniej odwrócenia z naprzemiennością znaków, tj. Przewiduje również, że Y będzie poniżej średniego następnego okresu, jeśli jest powyżej średniej tego okresu. W modelu autoregresyjnym drugiego rzędu (ARIMA (2,0,0)), po prawej stronie pojawi się również termin Y t-2 i tak dalej. W zależności od znaków i wielkości współczynników, model ARIMA (2,0,0) może opisywać układ, którego średnia rewersja zachodzi w sposób oscylacyjny sinusoidalnie, podobnie jak ruch masy na sprężynie poddanej losowym wstrząsom . Próba losowa ARIMA (0,1,0): Jeśli seria Y nie jest nieruchoma, najprostszym możliwym modelem jest model losowego spaceru, który można uznać za ograniczający przypadek modelu AR (1), w którym autoregresyjny Współczynnik jest równy 1, tzn. szeregowi z nieskończenie powolną średnią rewersją. Równanie predykcji dla tego modelu można zapisać jako: gdzie stałym terminem jest średnia zmiana okresu do okresu (tj. Dryf długoterminowy) w Y. Ten model może być dopasowany jako model regresji bez przechwytywania, w którym pierwsza różnica Y jest zmienną zależną. Ponieważ zawiera on (tylko) niesezonową różnicę i stały termin, jest klasyfikowany jako model DAIMA (0,1,0) ze stałą. Często Modelem bezładnego spaceru byłby ARIMA (0,1; 0) model bez stałego ARIMA (1,1,0) różny model autoregresyjny pierwszego rzędu: Jeśli błędy modelu chodzenia swobodnego są autokorelowane, być może problem można rozwiązać, dodając jedno opóźnienie zmiennej zależnej do równania predykcji - - to znaczy przez regresję pierwszej różnicy Y, która sama w sobie jest opóźniona o jeden okres. To przyniosłoby następujące równanie predykcji: które można przekształcić na To jest autoregresyjny model pierwszego rzędu z jednym rzędem niesezonowego różnicowania i stałym terminem - tj. model ARIMA (1,1,0). ARIMA (0,1,1) bez stałego prostego wygładzania wykładniczego: Inna strategia korekcji błędów związanych z autokorelacją w modelu losowego spaceru jest zasugerowana przez prosty model wygładzania wykładniczego. Przypomnijmy, że w przypadku niektórych niestacjonarnych szeregów czasowych (na przykład takich, które wykazują głośne wahania wokół wolno zmieniającej się średniej), model chodzenia losowego nie działa tak dobrze, jak średnia ruchoma wartości z przeszłości. Innymi słowy, zamiast brać ostatnią obserwację jako prognozę następnej obserwacji, lepiej jest użyć średniej z ostatnich kilku obserwacji, aby odfiltrować hałas i dokładniej oszacować średnią miejscową. Prosty model wygładzania wykładniczego wykorzystuje wykładniczo ważoną średnią ruchomą przeszłych wartości, aby osiągnąć ten efekt. Równanie predykcji dla prostego modelu wygładzania wykładniczego można zapisać w wielu matematycznie równoważnych formach. jedną z nich jest tak zwana forma 8220, korekta zera 8221, w której poprzednia prognoza jest korygowana w kierunku popełnionego błędu: Ponieważ e t-1 Y t-1 - 374 t-1 z definicji, można to przepisać jako : co jest równaniem ARIMA (0,1,1) - bez stałej prognozy z 952 1 1 - 945. Oznacza to, że możesz dopasować proste wygładzanie wykładnicze, określając je jako model ARIMA (0,1,1) bez stała, a szacowany współczynnik MA (1) odpowiada 1-minus-alfa w formule SES. Przypomnijmy, że w modelu SES średni wiek danych w prognozach z wyprzedzeniem 1 roku wynosi 1 945. Oznacza to, że będą one pozostawać w tyle za trendami lub punktami zwrotnymi o około 1 945 okresów. Wynika z tego, że średni wiek danych w prognozach 1-okresowych modelu ARIMA (0,1,1) - bez stałej wynosi 1 (1 - 952 1). Tak więc, na przykład, jeśli 952 1 0.8, średnia wieku wynosi 5. Ponieważ 952 1 zbliża się do 1, ARIMA (0,1,1) - bez stałego modelu staje się bardzo długookresową średnią ruchomą, a jako 952 1 zbliża się do 0, staje się modelem losowego chodzenia bez dryfu. Jaki jest najlepszy sposób korekcji autokorelacji: dodawanie terminów AR lub dodawanie terminów MA W dwóch poprzednich modelach omówionych powyżej, problem związanych z autokorelacją błędów w modelu losowego spaceru ustalono na dwa różne sposoby: przez dodanie opóźnionej wartości różnej serii do równania lub dodanie opóźnionej wartości błędu prognozy. Które podejście jest najlepsze Zasada praktyczna dla tej sytuacji, która zostanie omówiona bardziej szczegółowo w dalszej części, polega na tym, że pozytywna autokorelacja jest zwykle najlepiej traktowana przez dodanie do modelu warunku AR, a negatywna autokorelacja jest zwykle najlepiej traktowana przez dodanie Termin magisterski. W biznesowych i ekonomicznych szeregach czasowych negatywna autokorelacja często pojawia się jako artefakt różnicowania. (Ogólnie rzecz biorąc, różnicowanie zmniejsza pozytywną autokorelację, a nawet może spowodować przełączenie z autokorelacji dodatniej na ujemną). Tak więc model ARIMA (0,1,1), w którym różnicowanie jest połączone z terminem MA, jest częściej używany niż Model ARIMA (1,1,0). ARIMA (0,1,1) o stałym prostym wygładzaniu wykładniczym ze wzrostem: Dzięki wdrożeniu modelu SES jako modelu ARIMA można uzyskać pewną elastyczność. Po pierwsze, szacowany współczynnik MA (1) może być ujemny. odpowiada to współczynnikowi wygładzania większemu niż 1 w modelu SES, co zwykle nie jest dozwolone w procedurze dopasowania modelu SES. Po drugie, masz możliwość włączenia stałego warunku w modelu ARIMA, jeśli chcesz, aby oszacować średni niezerowy trend. Model ARIMA (0,1,1) ze stałą ma równanie prognozy: prognozy jednokresowe z tego modelu są jakościowo podobne do tych z modelu SES, z tym że trajektoria prognoz długoterminowych jest zwykle linia nachylenia (której nachylenie jest równe mu) zamiast linii poziomej. ARIMA (0,2,1) lub (0,2,2) bez stałego liniowego wygładzania wykładniczego: liniowe modele wygładzania wykładniczego są modelami ARIMA, które wykorzystują dwie niesezonowe różnice w połączeniu z terminami MA. Druga różnica w serii Y nie jest po prostu różnicą między Y a nią opóźnioną o dwa okresy, ale raczej jest pierwszą różnicą pierwszej różnicy - a. e. zmiana w Y w okresie t. Tak więc druga różnica Y w okresie t jest równa (Y t - Y t-1) - (Y t-1 - Y t-2) Y t - 2Y t-1 Y t-2. Druga różnica funkcji dyskretnej jest analogiczna do drugiej pochodnej funkcji ciągłej: mierzy ona przyspieszenie cytadania lub inną krzywiznę w funkcji w danym punkcie czasu. Model ARIMA (0,2,2) bez stałej przewiduje, że druga różnica szeregu równa się funkcji liniowej dwóch ostatnich błędów prognozy: która może być uporządkowana jako: gdzie 952 1 i 952 2 to MA (1) i Współczynniki MA (2). Jest to ogólny liniowy model wygładzania wykładniczego. w zasadzie taki sam jak model Holt8217s, a model Brown8217s to szczególny przypadek. Wykorzystuje wykładniczo ważone średnie ruchome do oszacowania zarówno lokalnego poziomu, jak i lokalnego trendu w serii. Długoterminowe prognozy z tego modelu zbiegają się do linii prostej, której nachylenie zależy od średniej tendencji obserwowanej pod koniec serii. ARIMA (1,1,2) bez stałego liniowego tłumienia wykładniczego. Ten model jest zilustrowany na załączonych slajdach w modelach ARIMA. Ekstrapoluje lokalny trend na końcu serii, ale spłaszcza go na dłuższych horyzontach prognozy, wprowadzając nutę konserwatyzmu, praktykę, która ma empiryczne wsparcie. Zobacz artykuł na ten temat: "Dlaczego działa Damped Trend" autorstwa Gardnera i McKenziego oraz artykuł "Zgodny z legendą" Armstronga i in. dla szczegółów. Ogólnie zaleca się trzymać modele, w których co najmniej jedno z p i q jest nie większe niż 1, tj. Nie próbować dopasować modelu takiego jak ARIMA (2,1,2), ponieważ może to prowadzić do przeuczenia oraz pytania o współczynniku równomolowym, które omówiono bardziej szczegółowo w uwagach dotyczących struktury matematycznej modeli ARIMA. Implementacja arkusza kalkulacyjnego: modele ARIMA, takie jak opisane powyżej, można łatwo wdrożyć w arkuszu kalkulacyjnym. Równanie predykcji jest po prostu równaniem liniowym, które odnosi się do przeszłych wartości pierwotnych szeregów czasowych i przeszłych wartości błędów. W ten sposób można skonfigurować arkusz kalkulacyjny prognozowania ARIMA, przechowując dane w kolumnie A, formułę prognozowania w kolumnie B i błędy (dane minus prognozy) w kolumnie C. Formuła prognozowania w typowej komórce w kolumnie B byłaby po prostu wyrażenie liniowe odnoszące się do wartości w poprzednich wierszach kolumn A i C, pomnożone przez odpowiednie współczynniki AR lub MA zapisane w komórkach w innym miejscu arkusza kalkulacyjnego. RIMA oznacza Autoregressive Integrated Moving Average models. Jednowymiarowy (pojedynczy wektor) ARIMA to technika prognostyczna, która projektuje przyszłe wartości serii oparte całkowicie na własnej bezwładności. Jego głównym zastosowaniem jest obszar prognozowania krótkoterminowego, wymagający co najmniej 40 historycznych punktów danych. Działa najlepiej, gdy dane wykazują stabilny lub stały wzór w czasie z minimalną liczbą wartości odstających. Czasami nazywany Box-Jenkins (po oryginalnych autorów), ARIMA jest zwykle lepszy od technik wykładniczej wygładzania, gdy dane są rozsądnie długie, a korelacja między wcześniejszymi obserwacjami jest stabilna. Jeśli dane są krótkie lub bardzo zmienne, to niektóre metody wygładzania mogą być lepsze. Jeśli nie masz co najmniej 38 punktów danych, powinieneś rozważyć inną metodę niż ARIMA. Pierwszym krokiem w stosowaniu metodologii ARIMA jest sprawdzenie stacjonarności. Stacjonarność oznacza, że ​​seria pozostaje na dość stałym poziomie w czasie. Jeśli istnieje trend, jak w większości aplikacji ekonomicznych lub biznesowych, twoje dane NIE są stacjonarne. Dane powinny również wykazywać stałą zmienność fluktuacji w czasie. Można to łatwo zauważyć w przypadku serii, która jest silnie sezonowa i rośnie w szybszym tempie. W takim przypadku wzloty i upadki sezonowości staną się bardziej dramatyczne w czasie. Bez spełnienia tych warunków stacjonarności nie można obliczyć wielu obliczeń związanych z procesem. Jeśli wykres danych wskazuje na niestałość, powinieneś odróżnić serię. Różnice są doskonałym sposobem przekształcania niestacjonarnej serii w stacjonarną. Odbywa się to poprzez odjęcie obserwacji w bieżącym okresie od poprzedniego. Jeśli ta transformacja jest wykonywana tylko raz w serii, mówisz, że dane zostały najpierw zmienione. Ten proces zasadniczo eliminuje trend, jeśli twoja seria rośnie w dość stałym tempie. Jeśli rośnie w tempie rosnącym, możesz zastosować tę samą procedurę i ponownie zmienić dane. Twoje dane będą następnie różnicowane. Autokorelacje są wartościami liczbowymi, które wskazują, w jaki sposób seria danych jest z sobą powiązana w czasie. Dokładniej, mierzy on, jak mocno wartości danych w określonej liczbie okresów są ze sobą skorelowane w czasie. Liczba okresów z osobna jest zwykle nazywana opóźnieniem. Na przykład, autokorelacja przy opóźnieniu 1 mierzy, w jaki sposób wartości 1 przedziału czasowego są skorelowane ze sobą w całej serii. Autokorelacja przy opóźnieniu 2 mierzy, w jaki sposób dane w dwóch okresach są skorelowane w całej serii. Korelacje autokorelacji mogą wynosić od 1 do -1. Wartość bliska 1 oznacza wysoką dodatnią korelację, a wartość bliska -1 oznacza wysoką ujemną korelację. Środki te są najczęściej oceniane na wykresach graficznych zwanych korelatorami. Korelagram przedstawia wartości autokorelacji dla danej serii przy różnych opóźnieniach. Jest to określane jako funkcja autokorelacji i jest bardzo ważne w metodzie ARIMA. Metodologia ARIMA próbuje opisać ruchy w stacjonarnych szeregach czasowych jako funkcję tzw. Parametrów autoregresyjnych i średniej ruchomej. Są one nazywane parametrami AR (autoregesywnymi) i MA (średnie ruchome). Model AR z tylko jednym parametrem może być zapisany jako. X (t) A (1) X (t-1) E (t), gdzie X (t) szereg czasowy w badaniu A (1) parametr autoregresyjny rzędu 1 X (t-1) szeregi czasowe opóźnione 1 okres E (t) okres błędu modelu Oznacza to po prostu, że dowolna dana wartość X (t) może być wyjaśniona przez jakąś funkcję jej poprzedniej wartości, X (t-1), plus jakiś niewytłumaczalny błąd losowy, E (t). Jeżeli oszacowana wartość A (1) wynosiła 0,30, wówczas bieżąca wartość serii byłaby powiązana z 30 wartością równą 1 temu. Oczywiście seria może być powiązana z więcej niż jedną przeszłą wartością. Na przykład X (t) A (1) X (t-1) A (2) X (t-2) E (t) Wskazuje, że bieżąca wartość szeregu jest kombinacją dwóch bezpośrednio poprzedzających wartości, X (t-1) i X (t-2) plus pewien losowy błąd E (t). Nasz model jest teraz autoregresyjnym modelem zamówienia 2. Modele średniej ruchomej: Drugi typ modelu Box-Jenkins jest nazywany modelem średniej ruchomej. Chociaż modele te wyglądają bardzo podobnie do modelu AR, koncepcja stojąca za nimi jest zupełnie inna. Parametry średniej ruchomej odnoszą się do tego, co dzieje się w okresie t tylko do błędów losowych, które wystąpiły w poprzednich okresach czasu, tj. E (t-1), E (t-2) itd., A nie do X (t-1), X ( t-2), (Xt-3) jak w podejściu autoregresyjnym. Model średniej ruchomej z jednym terminem MA można zapisać w następujący sposób. X (t) - B (1) E (t-1) E (t) Termin B (1) jest nazywany MA porządku 1. Znak ujemny przed parametrem jest stosowany tylko dla konwencji i jest zwykle drukowany automatycznie przez większość programów komputerowych. Powyższy model mówi po prostu, że dowolna podana wartość X (t) jest bezpośrednio związana tylko z błędem losowym w poprzednim okresie, E (t-1) oraz z bieżącym błędem E (t). Podobnie jak w przypadku modeli autoregresyjnych, modele średniej ruchomej można rozszerzyć na struktury wyższego rzędu obejmujące różne kombinacje i średnie ruchome długości. Metodologia ARIMA pozwala również na budowanie modeli, które łączą jednocześnie parametry autoregresji i średniej ruchomej. Modele te są często określane jako modele mieszane. Mimo że tworzy to bardziej skomplikowane narzędzie do prognozowania, struktura może rzeczywiście lepiej symulować serię i uzyskać dokładniejszą prognozę. Czyste modele sugerują, że struktura składa się tylko z parametrów AR lub MA - nie obydwu. Modele opracowane za pomocą tego podejścia są zwykle nazywane modelami ARIMA, ponieważ używają kombinacji autoregresji (AR), integracji (I) - odnoszącej się do odwrotnego procesu różnicowania w celu wygenerowania prognozy oraz średniej ruchomej (MA). Model ARIMA jest zwykle określany jako ARIMA (p, d, q). Reprezentuje to kolejność komponentów autoregresyjnych (p), liczbę operatorów różnicujących (d) i najwyższą kolejność średniej ruchomej. Na przykład ARIMA (2,1,1) oznacza, że ​​masz autoregresyjny model drugiego rzędu z komponentem ruchomym średnim pierwszego rzędu, którego serię różnicowano raz, aby wywołać niestałość. Wybór odpowiedniej specyfikacji: Głównym problemem w klasycznym Box-Jenkins jest próba określenia, która specyfikacja ARIMA ma używać - i. e. ile parametrów AR i / lub MA ma być uwzględnionych. Tak wiele z Box-Jenkings 1976 poświęcono procesowi identyfikacji. Zależało to od graficznej i numerycznej oceny funkcji autokorelacji i częściowej autokorelacji. Cóż, dla twoich podstawowych modeli zadanie nie jest zbyt trudne. Każdy ma funkcje autokorelacji, które wyglądają w określony sposób. Jednakże, kiedy idziesz w górę złożoności, wzory nie są tak łatwo wykrywane. Aby to utrudnić, Twoje dane reprezentują tylko próbkę leżącego u ich podstaw procesu. Oznacza to, że błędy próbkowania (wartości odstające, błąd pomiaru itp.) Mogą zniekształcać proces identyfikacji teoretycznej. Dlatego tradycyjne modelowanie ARIMA jest sztuką, a nie nauką. Autoregresywne zintegrowane modele średniej ruchomej (ARIMA) Prezentacja PowerPoint PPT - Techniki prognozowania oparte na wygładzaniu wykładniczym Ogólne założenie dla powyższych modeli: dane szeregów czasowych są przedstawione jako suma dwóch różnych komponenty (deterministc amp random) Losowy szum: generowany przez niezależne wstrząsy do procesu W praktyce: kolejne obserwacje wykazują zależność szeregową - modele ARIMA są również znane jako popularna metodologia Box-Jenkinsa. nadaje się do prawie wszystkich szeregów czasowych, wiele razy generuje dokładniejsze prognozy niż inne metody. Jeśli nie ma wystarczającej ilości danych, mogą nie być lepsze w prognozowaniu niż techniki dekompozycji lub wykładniczego wygładzania. Zalecana liczba obserwacji co najmniej 30-50 - Wymagana jest słaba stacjonarność - Równa przestrzeń między interwałami Modele liniowe dla szeregów czasowych - Jest to proces, który konwertuje wejście xt na wyjście yt. Konwersja obejmuje przeszłe, bieżące i przyszłe wartości sygnału wejściowego w postaci sumowania o różnych wagach Niezmienna wartość czasu nie zależy od czasu. Fizycznie możliwa do zrealizowania: wyjście jest liniową funkcją wartości prądu i poprzednich wartości wejściowych. W filtrach liniowych: stacjonarność wejściowych szeregów czasowych jest również odzwierciedlana na wyjściu Szeregi czasowe, które spełniają te warunki, zwykle powracają do średniej i wahają się wokół tej średniej ze stałą wariancją. Uwaga: Ścisła stacjonarność wymaga, oprócz warunków o słabej stacjonarności, że szeregi czasowe muszą spełniać dalsze warunki dotyczące jego rozkładu, w tym skośność, kurtoza itp. - Zrobić snaphoty procesu w różnych punktach czasowych amp obserwować jego zachowanie: jeśli podobne z czasem, a następnie stacjonarne szeregi czasowe - silny wzmacniacz powoli obumierający ACF sugeruje odchylenia od stacjonarności Nieskończone ruchome średnie wejściowe xt stacjonarne proces liniowy z białymi szumami szereg czasowy tt niezależne przypadkowe szoki, z E (t) 0 amp. Nieskończona średnia ruchoma Nieskończona średnia ruchoma służy jako ogólna klasa modeli dla dowolnej stacjonarnej serii czasowej THEOREM (Świat 1938): Żadna nie deterministyczna słabo stacjonarna seria czasowa yt może być reprezentowana jako A stacjonarne szeregi czasowe mogą być postrzegane jako ważona suma obecnych i przeszłych zaburzeń Nieskończona średnia ruchoma : Niepraktyczne oszacowanie nieskończonej masy Bezużyteczne w praktyce, z wyjątkiem szczególnych przypadków: Modele średniej ruchomej (MA) o skończonym zamówieniu. wagi ustawiono na 0, z wyjątkiem skończonej liczby wag ii. Modele autoregresyjne (AR) o skończonym zamówieniu: wagi są generowane przy użyciu tylko skończonej liczby parametrów. Iii. Mieszanka autoregresyjnego autoregresyjnego modelu średniej amortyzacji amplitudy (ARMA) Proces średniej ruchomej (MA) w porządku skończonym Średni ruch procesu rzędu q (MA (q)) MA (q). zawsze nieruchomy, niezależnie od wartości wag. Oczekiwana wartość MA (q) Wariancja MA (q) Autokanaryzacja MA (q) Autorerkulacja MA (q) Pomaga zidentyfikować model MA wzmocnić jego odpowiednią kolejność jako odcięcie po opóźnieniu kr (k) nie zawsze zero po opóźnieniu q staje się bardzo małe w wartości bezwzględnej po opóźnieniu q Proces średniej ruchomej pierwszego rzędu MA (1) Autowowoczesność MA (q) Autorerkulacja MA (q) Średnia wariancja amp. stabilne Krótkie przebiegi, w których kolejne obserwacje mają tendencję do podążania za sobą Obserwacje oscylują sukcesywnie Drugi porządek ruchoma Średnia MA (2) proces Autowariancja z MA (q) Autorerkulacja MA (q) Próbka ACF odcina się po opóźnieniu 2 Polecenie Finite Autoregressive Process Worlds: nieskończona liczba wag, nie jest pomocna w modelowaniu prognozowania wzmacniacza Proces finalny MA Proces: oszacowanie skończonej liczby wag, ustawienie drugiej równej zero Najstarsze zakłócenie przestaje obowiązywać dla następnej obserwacji tylko skończona liczba zakłóceń przyczynia się do obecnej wartości szeregu czasowego z uwzględnieniem wszystkich zakłóceń z przeszłości. używać modeli autoregresyjnych oszacować nieskończenie wiele wag, które podążają za odrębnym wzorcem z niewielką liczbą parametrów Pierwszy porządek procesu autoregresyjnego, AR (1) Załóżmy. Przyczyny zakłóceń, które mają miejsce w przeszłości, są niewielkie w porównaniu z nowszymi zaburzeniami, których doświadczył proces. Odzwierciedlają malejące wielkości wkładu zakłóceń przeszłości, poprzez zestaw nieskończenie wielu wag w malejących wielkościach. takie jak Wykładniczy model zaniku Masy w zaburzeniach począwszy od bieżącego zaburzenia i cofania się w przeszłości: Autoregresyjny proces pierwszego rzędu AR (1) AR (1) stacjonarny, jeśli funkcja autokowariancji AR (1) Funkcja autokorelacji AR (1) ACF dla stacjonarnego procesu AR (1) ma postać rozkładu wykładniczego Obserwacje wykazują ruchy korektowania Autoregresyjny proces drugiego rzędu, AR (2) Ten model może być reprezentowany w nieskończonej postaci MA wzmacniacz zapewnia warunki stacjonarności dla yt w kategoriach 1amp 2 Oblicz masę. Zasada równania różniczkowego liniowego drugiego rzędu Rozwiązanie. w odniesieniu do 2 pierwiastków m1 i m2 od warunku stacjonarności dla sprzężonych kompleksów aib: AR (2) nieskończona reprezentacja MA: A. Rozwiązywanie równań Yule-Walkera rekursywnie B. Rozwiązanie ogólne Uzyskanie go poprzez korzenie m1 amp m2 związane z wielomian Przypadek I: m1, m2 wyraźne korzenie prawdziwe c1, c2: może być otrzymany z (0), (1) postaci ACF: mieszanina 2 wykładniczo zanikowych warunków Można to postrzegać jako skorygowany model AR (1), dla którego pojedyncza ekspresja z wykładniczym zanikiem, jak w AR (1), nie jest wystarczająca do opisania wzoru w ACF, a zatem dodatkowe wyrażenie zaniku jest dodawane przez wprowadzenie drugiego okresu opóźnienia yt-2 Case II: kompleksy m1, m2 w postaciach zespolonych w postaci c1, c2: konkretne stałe Forma ACF: wilgotny sinusoidalny współczynnik tłumienia Częstotliwość R Przypadek III: jeden prawdziwy korzeń m0 m1 m2m0 Forma ACF: rozkład wykładniczy z rozkładem Proces AR (2): yt40.4yt-10.5yt-2et Korzenie wielomianu: prawdziwa postać ACF: mieszanina 2 wykładniczych terminów rozpadu Proces AR (2): yt40.8yt-1-0.5yt-2et Roots Złożone wielomian: Formularz ACF: tłumione zachowanie sinusoidalne Ogólny proces autoregresyjny, AR (p) Rozważmy kolejność pth Model AR Jeśli korzenie wielomianu są mniejsze niż 1 w wartości bezwzględnej AR (P) absolutna sumująca nieskończona reprezentacja MA pod poprzedni stan Masy losowych wstrząsów Dla stacjonarnych równań różniczkowych równania Yule-Walkera AR-p spełnia równania Yule-Walker - ACF można znaleźć z korzenia p powiązanego wielomianu, np. wyraźne amp prawdziwe korzenie. - Zasadniczo korzenie nie będą rzeczywistymi ACF. mieszanina rozkładu wykładniczego i tłumiony sinusoidalny proces MA (q): użyteczne narzędzie do określania kolejności przerw procesowych po opóźnieniu proces k AR (p): mieszanina wykładniczego sinusoidalnego wyrażenia z tłumieniem wykładniczym Brak informacji o kolejności AR częściowej autokorelacji Funkcja trzy zmienne losowe X, Y, Z amp Prosta regresja X na Z amp Y na Z Błędy są uzyskiwane z Częściowa korelacja między X amp Y po ustawieniu dla Z: Korelacja między X wzmacniaczem Y Częściowa korelacja może być postrzegana jako korelacja między dwiema zmiennymi po dopasowaniu do wspólnego czynnika, który ma na nie wpływ Częściowa funkcja autokorelacji (PACF) między yt amp yt-k Autokorelacja między yt amp yt-k po dostosowaniu do yt-1, yt-2, yt-k AR (p ) proces: PACF między yt amp yt-k dla kgtp powinien równać zero stacjonarnym szeregom czasowym yt niekoniecznie procesowi AR Dla dowolnej stałej wartości k. równania Yule-Walker dla ACF procesu AR (p) Dla dowolnego danego k, k 1,2, ostatni współczynnik jest nazywany częściowym współczynnikiem autokorelacji procesu w opóźnieniu k Zidentyfikuj kolejność procesu AR, używając PACF

No comments:

Post a Comment