Friday, 8 December 2017

Identificação de parâmetros de média móvel autorregressivos de séries temporais


Identificação de parâmetros de média móvel autorregressiva de séries temporais 71, 72, 76. Os primeiros trabalhos sobre a estimação de parâmetros também incluíram filtros de autoajuste, 80, 81, 87, 88, 90, 95. Nenhuma dessas contribuições se destaca, mas em Agregado, eles representam uma grande quantidade. Quot Artigo Jan 2017 Brian DO Anderson quotSelecionar a ordem adequada do modelo ARMA é difícil e nunca foi resolvido satisfatoriamente 1. Estimativa da ordem do modelo ARMA é um grande problema por causa de sua ampla gama de aplicações, como em comunicação, processamento de sinal, controle Sistemas, engenharia biomédica, processamento de imagens, compressão, modelagem de fala, estimativa de espectro, radar, sonar e muitas outras áreas 2 3 4 5. Problema importante. Este artigo apresenta um novo algoritmo para a estimativa de um ARMA e autorregressivo com ordens de modelo de entrada exógena (ARX) baseado em uma abordagem de arredondamento que utiliza as funções de piso e teto. A abordagem de arredondamento é implementada para lidar com a precisão de palavras binárias. O algoritmo proposto baseia-se na selecção de uma sequência de células pivôs de uma matriz de MEV que se baseia no valor próprio mínimo de uma matriz de covariância calculada a partir dos dados observados. Ele procura o canto que contém as estimativas das ordens verdadeiras usando o piso e as funções de teto dos valores da célula de pivô e os valores de seus vizinhos. O algoritmo proposto é uma expansão do algoritmo proposto por Liang et al. (IEEE Transaction on Signal Processing, 1993 41 (10): 3003-3009). Patentes recentes e avanços na pesquisa visam a aplicação da decomposição de autovalores na estimativa e na previsão. Entre as patentes discutidas está um método que descreve a estimativa da incerteza de uma máquina de medição em que a matriz de covariância está sujeita a decomposição de valores próprios. Full-text Artigo fevereiro 2010 Khaled E. Al-Qawasmi Adnan Al-Smadi Alaa Al-Hamami diagrama quotBlock do modelo proposto ARMA parâmetro estimador é ilustrado na Fig. 1. Fundamentalmente, diferente dos métodos em 1239, o método sugerido para a estimação dos parâmetros de um modelo ARMA definido como em (1) usa a abordagem de equivalência entre um modelo de MA de ordem infinita e um modelo de ARMA de ordem finita. Para fisicamente realizável, um modelo de MA de ordem suficientemente elevada é empregado e aqui é chamado como modelo equivalente MA (EMA). RESUMO: O trabalho investiga a relação entre os parâmetros de um modelo de média móvel autorregressiva (ARMA) e seu modelo de média móvel equivalente (EMA). Com base nesta relação, propõe-se um novo método para determinar os parâmetros do modelo ARMA a partir dos coeficientes de um modelo EMA de ordem finita. Este método é uma abordagem em três etapas: na primeira etapa, uma recursão simples relacionando os parâmetros do modelo EMA e os coeficientes ceptais de um processo ARMA é derivada para estimar os parâmetros do modelo EMA na segunda etapa, os parâmetros AR são estimados pela resolução O conjunto de equações lineares composto por parâmetros EMA então, os parâmetros MA são obtidos por meio de cálculos simples usando os parâmetros EMA e AR estimados. Simulações incluindo processos de baixa e alta ordem ARMA são dadas para demonstrar o desempenho do novo método. Os resultados finais são comparados com o método existente na literatura sobre alguns critérios de desempenho. Observa-se a partir das simulações que o nosso novo algoritmo produz resultados satisfatórios e aceitáveis. O processo PARMA periódico de média móvel autorregressiva prolonga o processo auto-regressivo clássico de auto-regressão, Processo ARMA média móvel, permitindo que os parâmetros variem com as estações. A identificação do modelo é a identificação de um possível modelo baseado em uma realização disponível, isto é, determinando o tipo do modelo com ordens apropriadas. A Função de Autocorrelação Periódica (PeACF) ea Função de Autocorrelação Parcial Periódica (PePACF) servem como indicadores úteis da correlação ou da dependência entre os valores da série para que desempenhem um papel importante na identificação do modelo. A identificação é baseada na propriedade de corte da Função de Autocorrelação Periódica (PeACF). Derivamos uma expressão explícita para a variância assintótica da amostra PeACF a ser utilizada no estabelecimento de suas bandas. Dessa forma, obteremos neste estudo uma nova estrutura da função de autocorrelação periódica que depende diretamente da variância que derivará para ser usada no estabelecimento de suas bandas para o processo PMA sobre a região de corte e estudamos o lado teórico e Vamos aplicar alguns exemplos simulados com R que concorda bem com os resultados teóricos. Copyright cópia 2017 Hazem I. El Shej Ahmed, Raid B. Salha e Diab I. AL-Awar. Este é um artigo de acesso aberto distribuído sob os termos da Creative Commons Attribution License. Que permite o uso irrestrito, distribuição e reprodução em qualquer meio, desde que o autor original e fonte são creditados. Propósito: Verificar Randomness Autocorrelação plots (Box e Jenkins, pp. 28-32) são uma ferramenta comumente usado para verificar a aleatoriedade em um Conjunto de dados. Esta aleatoriedade é determinada por computar autocorrelações para valores de dados em diferentes intervalos de tempo. Se for aleatória, tais autocorrelações devem ser próximas de zero para qualquer e todas as separações de intervalo de tempo. Se não for aleatório, então uma ou mais das autocorrelações serão significativamente não-zero. Além disso, as parcelas de autocorrelação são usadas na fase de identificação do modelo para os modelos auto-regressivos, modelos de séries temporais móveis de Box-Jenkins. Autocorrelação é apenas uma medida de aleatoriedade Observe que não correlacionado não significa necessariamente aleatório. Os dados que possuem autocorrelação significativa não são aleatórios. No entanto, os dados que não mostram autocorrelação significativa ainda podem exibir não-aleatoriedade de outras maneiras. Autocorrelação é apenas uma medida de aleatoriedade. No contexto da validação do modelo (que é o tipo primário de aleatoriedade que discutimos no Manual), a verificação da autocorrelação é tipicamente um teste suficiente de aleatoriedade, uma vez que os resíduos de um modelo de ajuste inadequado tendem a exibir aleatoriedade não sutil. No entanto, algumas aplicações requerem uma determinação mais rigorosa da aleatoriedade. Nestes casos, uma bateria de testes, que podem incluir verificação de autocorrelação, são aplicados desde que os dados podem ser não-aleatórios de muitas maneiras diferentes e muitas vezes sutis. Um exemplo de onde uma verificação mais rigorosa para aleatoriedade é necessária seria testando geradores de números aleatórios. Amostra Plot: autocorrelações devem ser perto de zero para aleatoriedade. Tal não é o caso neste exemplo e, assim, a suposição de aleatoriedade falha. Este gráfico de autocorrelação de amostra mostra que a série de tempo não é aleatória, mas tem um alto grau de autocorrelação entre observações adjacentes e quase adjacentes. Definição: r (h) versus h As parcelas de autocorrelação são formadas por Eixo vertical: Coeficiente de autocorrelação onde C h é a função de autocovariância e C 0 é a função de variância Note que R h está entre -1 e 1. Note que algumas fontes podem usar o Seguinte fórmula para a função autocovariância Embora esta definição tenha menos viés, a formulação (1 / N) tem algumas propriedades estatísticas desejáveis ​​e é a forma mais comumente utilizada na literatura estatística. Consulte as páginas 20 e 49-50 em Chatfield para obter detalhes. Eixo horizontal: Time lag h (h 1, 2, 3.) A linha acima também contém várias linhas de referência horizontais. A linha do meio está em zero. As outras quatro linhas são 95 e 99 faixas de confiança. Observe que existem duas fórmulas distintas para gerar as bandas de confiança. Se o gráfico de autocorrelação estiver sendo usado para testar a aleatoriedade (ou seja, não há dependência temporal nos dados), recomenda-se a seguinte fórmula: onde N é o tamanho da amostra, z é a função de distribuição cumulativa da distribuição normal padrão e (alfa ) É o nível de significância. Neste caso, as bandas de confiança têm uma largura fixa que depende do tamanho da amostra. Esta é a fórmula que foi usada para gerar as faixas de confiança no gráfico acima. Os gráficos de autocorrelação também são usados ​​na fase de identificação do modelo para a montagem de modelos ARIMA. Neste caso, um modelo de média móvel é assumido para os dados e devem ser geradas as seguintes faixas de confiança: onde k é o atraso, N é o tamanho da amostra, z é a função de distribuição cumulativa da distribuição normal padrão e (alfa) é O nível de significância. Neste caso, as faixas de confiança aumentam à medida que o atraso aumenta. O gráfico de autocorrelação pode fornecer respostas para as seguintes perguntas: Os dados são aleatórios É uma observação relacionada a uma observação adjacente É uma observação relacionada a uma observação duas vezes removido (etc.) É a série de tempo observada ruído branco A série temporal observada é sinusoidal As séries temporais observadas são autorregressivas O que é um modelo apropriado para as séries temporais observadas O modelo é válido e suficiente A fórmula ss / sqrt é válida Importância: Garanta a validade das conclusões de engenharia Aleatoriedade (juntamente com modelo fixo, variação fixa e distribuição fixa) É uma das quatro suposições que tipicamente estão subjacentes a todos os processos de medição. A hipótese de aleatoriedade é extremamente importante pelas três razões a seguir: A maioria dos testes estatísticos padrão depende da aleatoriedade. A validade das conclusões do teste está diretamente ligada à validade do pressuposto aleatório. Muitas fórmulas estatísticas comumente usadas dependem da suposição de aleatoriedade, sendo a fórmula mais comum a fórmula para determinar o desvio padrão da média da amostra: onde s é o desvio padrão dos dados. Embora fortemente usados, os resultados de usar esta fórmula são de nenhum valor a menos que a suposição de aleatoriedade se mantenha. Para dados univariados, o modelo padrão é Se os dados não são aleatórios, este modelo é incorreto e inválido, e as estimativas para os parâmetros (como a constante) tornam-se absurdas e inválidas. Em suma, se o analista não verificar a aleatoriedade, então a validade de muitas das conclusões estatísticas torna-se suspeito. O gráfico de autocorrelação é uma excelente maneira de verificar essa aleatoriedade. Um RIMA significa modelos de média móvel integrada. Univariada (vetor único) ARIMA é uma técnica de previsão que projeta os valores futuros de uma série baseada inteiramente em sua própria inércia. Sua principal aplicação é na área de previsão de curto prazo, exigindo pelo menos 40 pontos de dados históricos. Ele funciona melhor quando seus dados exibem um padrão estável ou consistente ao longo do tempo com uma quantidade mínima de outliers. Às vezes chamado Box-Jenkins (após os autores originais), ARIMA é geralmente superior às técnicas de suavização exponencial quando os dados são razoavelmente longos ea correlação entre as observações passadas é estável. Se os dados forem curtos ou altamente voláteis, então algum método de alisamento pode funcionar melhor. Se você não tiver pelo menos 38 pontos de dados, você deve considerar algum outro método que ARIMA. O primeiro passo na aplicação da metodologia ARIMA é verificar a estacionaridade. A estacionariedade implica que a série permanece a um nível razoavelmente constante ao longo do tempo. Se existe uma tendência, como na maioria das aplicações econômicas ou de negócios, os dados NÃO são estacionários. Os dados também devem mostrar uma variação constante em suas flutuações ao longo do tempo. Isto é facilmente visto com uma série que é fortemente sazonal e crescendo a um ritmo mais rápido. Nesse caso, os altos e baixos da sazonalidade se tornarão mais dramáticos ao longo do tempo. Sem que estas condições de estacionaridade sejam satisfeitas, muitos dos cálculos associados ao processo não podem ser calculados. Se um gráfico gráfico dos dados indica nonstationarity, então você deve diferenciar a série. A diferenciação é uma excelente maneira de transformar uma série não-estacionária em uma estacionária. Isto é feito subtraindo a observação no período atual do anterior. Se essa transformação é feita apenas uma vez para uma série, você diz que os dados foram primeiramente diferenciados. Este processo elimina essencialmente a tendência se sua série está crescendo em uma taxa razoavelmente constante. Se ele está crescendo a uma taxa crescente, você pode aplicar o mesmo procedimento e diferença os dados novamente. Seus dados seriam então segundo diferenciados. Autocorrelações são valores numéricos que indicam como uma série de dados está relacionada a si mesma ao longo do tempo. Mais precisamente, ele mede quão fortemente os valores de dados em um número específico de períodos separados estão correlacionados entre si ao longo do tempo. O número de períodos separados é geralmente chamado de atraso. Por exemplo, uma autocorrelação no intervalo 1 mede como os valores 1 intervalo de tempo são correlacionados um ao outro ao longo da série. Uma autocorrelação no intervalo 2 mede como os dados dois períodos separados estão correlacionados ao longo da série. As autocorrelações podem variar de 1 a -1. Um valor próximo a 1 indica uma alta correlação positiva, enquanto um valor próximo de -1 implica uma correlação negativa elevada. Essas medidas são mais frequentemente avaliadas através de gráficos gráficos chamados correlagramas. Um correlagram traça os valores de autocorrelação para uma dada série em diferentes defasagens. Isto é referido como a função de autocorrelação e é muito importante no método ARIMA. A metodologia ARIMA tenta descrever os movimentos em séries temporais estacionárias como uma função do que são chamados parâmetros auto-regressivos e de média móvel. Estes são referidos como parâmetros AR (autoregessive) e parâmetros MA (média móvel). Um modelo AR com apenas 1 parâmetro pode ser escrito como. X (t) A (1) X (t-1) E (t) onde X (t) séries temporais sob investigação A (1) o parâmetro autorregressivo de ordem 1 X (t-1) (T) o termo de erro do modelo Isto simplesmente significa que qualquer valor dado X (t) pode ser explicado por alguma função de seu valor anterior, X (t-1), mais algum erro aleatório inexplicável, E (t). Se o valor estimado de A (1) fosse .30, então o valor atual da série estaria relacionado a 30 de seu valor 1 período atrás. Naturalmente, a série poderia estar relacionada a mais do que apenas um valor passado. Por exemplo, X (t) A (1) X (t-1) A (2) X (t-2) E (t) Isso indica que o valor atual da série é uma combinação dos dois valores imediatamente anteriores, X (t-1) e X (t-2), mais algum erro aleatório E (t). Nosso modelo é agora um modelo autorregressivo de ordem 2. Modelos de média móvel: Um segundo tipo de modelo Box-Jenkins é chamado de modelo de média móvel. Embora estes modelos parecem muito semelhantes ao modelo AR, o conceito por trás deles é bastante diferente. Os parâmetros de média móvel relacionam o que acontece no período t apenas aos erros aleatórios que ocorreram em períodos de tempo passados, isto é, E (t-1), E (t-2), etc., em vez de X (t-1), X T-2), (Xt-3) como nas abordagens autorregressivas. Um modelo de média móvel com um termo MA pode ser escrito da seguinte forma. O termo B (1) é chamado de MA de ordem 1. O sinal negativo na frente do parâmetro é usado apenas para convenção e geralmente é impresso Automaticamente pela maioria dos programas de computador. O modelo acima diz simplesmente que qualquer valor dado de X (t) está diretamente relacionado somente ao erro aleatório no período anterior, E (t-1) e ao termo de erro atual, E (t). Como no caso de modelos autorregressivos, os modelos de média móvel podem ser estendidos a estruturas de ordem superior cobrindo combinações diferentes e comprimentos médios móveis. A metodologia ARIMA também permite a construção de modelos que incorporem parâmetros de média autorregressiva e média móvel. Estes modelos são frequentemente referidos como modelos mistos. Embora isso torne uma ferramenta de previsão mais complicada, a estrutura pode de fato simular melhor a série e produzir uma previsão mais precisa. Modelos puros implicam que a estrutura consiste apenas de AR ou MA parâmetros - não ambos. Os modelos desenvolvidos por esta abordagem são geralmente chamados de modelos ARIMA porque eles usam uma combinação de auto-regressão (RA), integração (I) - referindo-se ao processo inverso de diferenciação para produzir as operações de previsão e de média móvel (MA). Um modelo ARIMA é geralmente indicado como ARIMA (p, d, q). Isso representa a ordem dos componentes autorregressivos (p), o número de operadores de diferenciação (d) e a ordem mais alta do termo médio móvel. Por exemplo, ARIMA (2,1,1) significa que você tem um modelo autorregressivo de segunda ordem com um componente de média móvel de primeira ordem cuja série foi diferenciada uma vez para induzir a estacionaridade. Escolhendo a Especificação Direita: O principal problema no clássico Box-Jenkins está tentando decidir qual especificação ARIMA usar - i. e. Quantos parâmetros AR e / ou MA devem ser incluídos. Isto é o que muito de Box-Jenkings 1976 foi dedicado ao processo de identificação. Ela dependia da avaliação gráfica e numérica das funções de autocorrelação da amostra e autocorrelação parcial. Bem, para os seus modelos básicos, a tarefa não é muito difícil. Cada um tem funções de autocorrelação que parecem uma certa maneira. No entanto, quando você subir em complexidade, os padrões não são tão facilmente detectados. Para tornar as questões mais difíceis, seus dados representam apenas uma amostra do processo subjacente. Isto significa que os erros de amostragem (outliers, erro de medição, etc.) podem distorcer o processo de identificação teórica. É por isso que a modelagem ARIMA tradicional é uma arte e não uma ciência. A documentação é a média incondicional do processo, e x03C8 (L) é um polinômio racional de operador de intervalo infinito, (1 x03C8 1 L x03C8 2 L 2 x 2026) . Nota: A propriedade Constant de um objeto modelo arima corresponde a c. E não a média incondicional 956. Por decomposição de Wolds 1. A equação 5-12 corresponde a um processo estocástico estacionário desde que os coeficientes x03C8 i sejam absolutamente somaveis. Este é o caso quando o polinômio AR, x03D5 (L). É estável. O que significa que todas as suas raízes estão fora do círculo unitário. Além disso, o processo é causal desde que o polinômio MA é invertido. O que significa que todas as suas raízes estão fora do círculo unitário. Econometrics Toolbox reforça a estabilidade e a invertibilidade dos processos ARMA. Quando você especifica um modelo ARMA usando arima. Você obtém um erro se você inserir coeficientes que não correspondem a um polinômio AR estável ou polinômio MA reversível. Similarmente, a estimativa impõe restrições de estacionaridade e de invertibilidade durante a estimativa. Referências 1 Wold, H. Um estudo na análise de séries estacionárias do tempo. Uppsala, Suécia: Almqvist amp Wiksell, 1938. Selecione o país

No comments:

Post a Comment