Model autoregresyjny (AR): Różnice pomiędzy wersjami
(→AR(1)) |
|||
(Nie pokazano 55 pośrednich wersji utworzonych przez tego samego użytkownika) | |||
Linia 4: | Linia 4: | ||
w których wartość sygnału w danej chwili jest sumą liniowej | w których wartość sygnału w danej chwili jest sumą liniowej | ||
kombinacji <math>M</math> wartości poprzednich i nieskorelowanego szumu <math>\epsilon</math> | kombinacji <math>M</math> wartości poprzednich i nieskorelowanego szumu <math>\epsilon</math> | ||
− | <equation id="eq:41"> | + | |
+ | |||
+ | ::::::<equation id="eq:41"> | ||
<math> | <math> | ||
+ | \displaystyle | ||
s[n] = \sum_{i=1}^M a_i s[n-i] + \epsilon[n] | s[n] = \sum_{i=1}^M a_i s[n-i] + \epsilon[n] | ||
</math> | </math> | ||
</equation> | </equation> | ||
+ | |||
W każdej realizacji tego samego procesu (dla tych samych | W każdej realizacji tego samego procesu (dla tych samych | ||
Linia 16: | Linia 20: | ||
prawdopodobieństwa. | prawdopodobieństwa. | ||
− | [[Plik:klasyczna_rys_6.jpg|thumb|center | + | [[Plik:klasyczna_rys_6.jpg|thumb|668px|center|Trzy przykładowe realizacje procesu AR 3-go rzędu (<math>M=3</math>) o tych samych współczynnikach i wartościach początkowych.]] |
Mimo tego, na podstawie współczynników AR możemy określić wiele | Mimo tego, na podstawie współczynników AR możemy określić wiele | ||
Linia 28: | Linia 32: | ||
==AR(1)== | ==AR(1)== | ||
− | Najprostszym przykładem jest proces AR pierwszego rzędu (nazywany | + | Najprostszym przykładem jest proces AR pierwszego rzędu (nazywany łańcuchem Markowa), w którym wartość w danej chwili zależy wyłącznie od wartości w chwili poprzedniej i szumu: |
<math> | <math> | ||
s[n] = a s[n-1] + \epsilon_n | s[n] = a s[n-1] + \epsilon_n | ||
− | </math> | + | </math>; |
+ | podstawiając trzy kolejne wyrazy | ||
− | |||
<math>s[n] = \epsilon_n + a s[n-1] </math> | <math>s[n] = \epsilon_n + a s[n-1] </math> | ||
+ | |||
<math>s[n-1] = \epsilon_{n-1} + a s[n-2] </math> | <math>s[n-1] = \epsilon_{n-1} + a s[n-2] </math> | ||
+ | |||
<math>s[n-2] = \epsilon_{n-2} + a s[n-3]</math> | <math>s[n-2] = \epsilon_{n-2} + a s[n-3]</math> | ||
+ | |||
dostaniemy | dostaniemy | ||
+ | |||
<math> | <math> | ||
s[n] = | s[n] = | ||
</math> | </math> | ||
+ | |||
<math> | <math> | ||
\epsilon_n + a s[n-1] = | \epsilon_n + a s[n-1] = | ||
</math> | </math> | ||
+ | |||
<math> | <math> | ||
\epsilon_n + a \left( \epsilon_{n-1} + a s[n-2] \right) = | \epsilon_n + a \left( \epsilon_{n-1} + a s[n-2] \right) = | ||
</math> | </math> | ||
+ | |||
<math> | <math> | ||
\epsilon_n + a \left( \epsilon_{n-1} + a (\epsilon_{n-2} + a s[n-3]) \right) = | \epsilon_n + a \left( \epsilon_{n-1} + a (\epsilon_{n-2} + a s[n-3]) \right) = | ||
</math> | </math> | ||
+ | |||
<math> | <math> | ||
Linia 65: | Linia 77: | ||
W ogólnym przypadku <math>N</math> wyrazów będzie to suma | W ogólnym przypadku <math>N</math> wyrazów będzie to suma | ||
+ | |||
<math> | <math> | ||
+ | \displaystyle | ||
s[n] = \sum_{i=0}^{N-1} a^i \epsilon_{n-i} + a^N s[n-N] | s[n] = \sum_{i=0}^{N-1} a^i \epsilon_{n-i} + a^N s[n-N] | ||
</math> | </math> | ||
− | |||
− | <math> | + | Dla <math>N \rightarrow \infty</math> zależność od pierwszego elementu <math>s[n-N]</math> zanika i dostajemy asymptotyczną reprezentację |
+ | |||
+ | |||
+ | <math> \displaystyle | ||
s[n] = \epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2} +\ldots = \sum_{i=0}^{\infty} a^i \epsilon_{n-i} | s[n] = \epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2} +\ldots = \sum_{i=0}^{\infty} a^i \epsilon_{n-i} | ||
</math> | </math> | ||
+ | |||
Jeśli wartość oczekiwana <math>\epsilon_i</math> wynosi 0 (<math>E(\epsilon_i)=0</math>) a wariancja | Jeśli wartość oczekiwana <math>\epsilon_i</math> wynosi 0 (<math>E(\epsilon_i)=0</math>) a wariancja | ||
− | <math>\sigma^2(\epsilon_i)=\sigma_\epsilon^2</math>, to wariancja w punkcie <math>n</math> | + | <math>\sigma^2(\epsilon_i)=\sigma_\epsilon^2</math>, to wariancja <math>s[n]</math> w punkcie <math>n</math> |
− | <math>\begin{matrix} | + | |
+ | <math>\displaystyle | ||
+ | \begin{matrix} | ||
\sigma^2_{s[n]} = E\left( (\epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2}+\ldots+a^{n-1}\epsilon_1)^2\right) =\\ | \sigma^2_{s[n]} = E\left( (\epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2}+\ldots+a^{n-1}\epsilon_1)^2\right) =\\ | ||
+ | \\ | ||
= \sigma_\epsilon^2 \left(1+a^2+a^4+\ldots+a^{2n-2} \right) = | = \sigma_\epsilon^2 \left(1+a^2+a^4+\ldots+a^{2n-2} \right) = | ||
\left\{ | \left\{ | ||
Linia 89: | Linia 109: | ||
\right. | \right. | ||
\end{matrix}</math> | \end{matrix}</math> | ||
+ | |||
+ | |||
+ | bo | ||
+ | |||
+ | <math> | ||
+ | \sum_{k=1}^n b q^{k-1} = \left\{ \begin{matrix}b \frac{1 - q^n}{1 - q} \;\;\;\; \textrm{ dla }\;\;\;q\ne 1,\\ | ||
+ | n b \;\;\;\;\;\;\;\;\; \textrm{ dla }\;\;\;\; q = 1. | ||
+ | \end{matrix} | ||
+ | \right. | ||
+ | </math> | ||
+ | |||
+ | |||
+ | |||
Autokowariancja <math>E(s[n] s[n+\tau])</math> | Autokowariancja <math>E(s[n] s[n+\tau])</math> | ||
− | <math>\begin{matrix} | + | |
+ | <math> | ||
+ | \displaystyle | ||
+ | \begin{matrix} | ||
E\left( (\epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2}+\ldots+a^{n-1}\epsilon_1) | E\left( (\epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2}+\ldots+a^{n-1}\epsilon_1) | ||
(\epsilon_{n+\tau} + a\epsilon_{n+\tau-1} | (\epsilon_{n+\tau} + a\epsilon_{n+\tau-1} | ||
− | |||
+\ldots+a^{n+\tau-1}\epsilon_1)\right) =\\ | +\ldots+a^{n+\tau-1}\epsilon_1)\right) =\\ | ||
+ | \\ | ||
= \sigma_\epsilon^2 \left(a^\tau+a^{\tau+2}+\ldots+a^{\tau+2(n-1)} \right) = | = \sigma_\epsilon^2 \left(a^\tau+a^{\tau+2}+\ldots+a^{\tau+2(n-1)} \right) = | ||
\left\{ | \left\{ | ||
Linia 104: | Linia 140: | ||
\end{matrix} | \end{matrix} | ||
\right. | \right. | ||
− | \end{matrix}</math> | + | \end{matrix} |
+ | </math> | ||
+ | |||
+ | |||
+ | |||
Dla <math>|a|\ne 1</math> przy <math>n\rightarrow\infty</math> | Dla <math>|a|\ne 1</math> przy <math>n\rightarrow\infty</math> | ||
− | <math> | + | <math>\displaystyle |
\sigma^2_{x[n]} \stackrel{n\rightarrow\infty}{\longrightarrow} \frac{\sigma^2_\epsilon}{1-a^2} \;\;\; ; \;\;\; | \sigma^2_{x[n]} \stackrel{n\rightarrow\infty}{\longrightarrow} \frac{\sigma^2_\epsilon}{1-a^2} \;\;\; ; \;\;\; | ||
\sigma_{x[n], x[n+\tau]} \stackrel{n\rightarrow\infty}{\longrightarrow} \frac{\sigma^2_\epsilon a^\tau}{1-a^2} | \sigma_{x[n], x[n+\tau]} \stackrel{n\rightarrow\infty}{\longrightarrow} \frac{\sigma^2_\epsilon a^\tau}{1-a^2} | ||
</math> | </math> | ||
+ | |||
Autokowariancja | Autokowariancja | ||
+ | |||
+ | |||
<math> | <math> | ||
+ | \displaystyle | ||
\rho(\tau) = \frac{ \sigma_{x[n], x[n+\tau]} }{ \sigma^2_{x[n]} } \stackrel{n\rightarrow\infty}{\longrightarrow} a^{|\tau|} | \rho(\tau) = \frac{ \sigma_{x[n], x[n+\tau]} }{ \sigma^2_{x[n]} } \stackrel{n\rightarrow\infty}{\longrightarrow} a^{|\tau|} | ||
</math> | </math> | ||
− | Proces jest asymptotycznie stacjonarny do rzędu 2, czyli wariancja | + | |
− | i średnia nie zależą od czasu. | + | Proces jest '''asymptotycznie stacjonarny do rzędu 2''', czyli wariancja i średnia nie zależą od czasu. |
Dla <math>a=1</math> proces ten obrazuje tzw. błądzenie przypadkowe. | Dla <math>a=1</math> proces ten obrazuje tzw. błądzenie przypadkowe. | ||
Linia 152: | Linia 196: | ||
==Twierdzenie Wienera-Chinczyna== | ==Twierdzenie Wienera-Chinczyna== | ||
Transformata Fouriera funkcji autokorelacji jest równa kwadratowi modułu transformaty Fouriera. | Transformata Fouriera funkcji autokorelacji jest równa kwadratowi modułu transformaty Fouriera. | ||
+ | |||
''Dowód'' | ''Dowód'' | ||
− | |||
− | <math> | + | Kładąc <math>f = g</math> [[Twierdzenia_o_splocie_i_o_próbkowaniu_(aliasing)#label-eq:29|we wzorze na funkcję korelacji sygnałów ''f'' i ''g'']], dostajemy analogznie jak poprzednio |
+ | |||
+ | <math display="block"> | ||
+ | \displaystyle | ||
\mathcal{F} \left( \int_{-\infty}^{\infty} f(t) f(t+\tau) dt \right) = | \mathcal{F} \left( \int_{-\infty}^{\infty} f(t) f(t+\tau) dt \right) = | ||
</math> | </math> | ||
+ | |||
+ | |||
<math> | <math> | ||
+ | \displaystyle | ||
\int_{-\infty}^{\infty} e^{-i\omega \tau} \left( \int_{-\infty}^{\infty} f(t) f(t+\tau) dt \right) d\tau = | \int_{-\infty}^{\infty} e^{-i\omega \tau} \left( \int_{-\infty}^{\infty} f(t) f(t+\tau) dt \right) d\tau = | ||
</math> | </math> | ||
+ | |||
+ | |||
<math> | <math> | ||
+ | \displaystyle | ||
\int_{-\infty}^{\infty} e^{-i\omega(t+\tau)} e^{i\omega t} \int_{-\infty}^{\infty} f(t) f(t+\tau) dt d\tau = | \int_{-\infty}^{\infty} e^{-i\omega(t+\tau)} e^{i\omega t} \int_{-\infty}^{\infty} f(t) f(t+\tau) dt d\tau = | ||
</math> | </math> | ||
+ | |||
+ | |||
<math> | <math> | ||
+ | \displaystyle | ||
\int_{-\infty}^{\infty} e^{-i\omega(t+\tau)} f(t+\tau) d\tau \int_{-\infty}^{\infty} e^{i\omega t} f(t) dt = | \int_{-\infty}^{\infty} e^{-i\omega(t+\tau)} f(t+\tau) d\tau \int_{-\infty}^{\infty} e^{i\omega t} f(t) dt = | ||
</math> | </math> | ||
+ | |||
+ | |||
<math> | <math> | ||
− | + | \displaystyle | |
+ | \hat{f}(\omega) \overline{\hat{f}(\omega)} = |\hat{f}(\omega)|^2 | ||
</math> | </math> | ||
− | |||
− | |||
− | |||
− | Kryterium to karze za zwiększanie | + | |
+ | |||
+ | |||
+ | ==Estymacja współczynników AR i kryterium Akaike'go== | ||
+ | |||
+ | Najtrudniejszym krokiem w estymacji współczynników modelu AR jest wybór rzędu <math>M</math>, czyli pamięci modelu. Pomagają w tym kryteria, których przykładem jest ''Akaike Information Criterion'' AIC: | ||
+ | |||
+ | |||
+ | :::::<math>\displaystyle | ||
+ | \mathrm{AIC}(M)= \frac{2M}{N} + \ln(\sigma^2_{\epsilon}) </math> | ||
+ | |||
+ | |||
+ | gdzie <math>N</math> - liczba próbek sygnału, <math>N</math> — rząd modelu. Kryterium to karze za zwiększanie liczby parametrów i nagradza za zmniejszanie niewytłumaczonej wariancji. | ||
==Parametryczna estymacja widma mocy sygnałów== | ==Parametryczna estymacja widma mocy sygnałów== | ||
Linia 185: | Linia 253: | ||
Pokazaliśmy powyżej (na przykładzie błądzenia przypadkowego), że znając współczynniki (parametry) modelu AR możemy z nich wyliczyć funkcję autokorelacji odpowiadającego im procesu, bez znajomości konkretnej realizacji sygnału. Z kolei z funkcji autokorelacji możemy z pomocą powyższego twierdzenia '''obliczyć''' widmo. To widmo będzie wyliczone a nie estymowane, ale nie odnosi się bezpośrednio do sygnału, od którego zaczynaliśmy, tylko do procesu opisanego '''wyestymowanymi''' parametrami modelu AR. | Pokazaliśmy powyżej (na przykładzie błądzenia przypadkowego), że znając współczynniki (parametry) modelu AR możemy z nich wyliczyć funkcję autokorelacji odpowiadającego im procesu, bez znajomości konkretnej realizacji sygnału. Z kolei z funkcji autokorelacji możemy z pomocą powyższego twierdzenia '''obliczyć''' widmo. To widmo będzie wyliczone a nie estymowane, ale nie odnosi się bezpośrednio do sygnału, od którego zaczynaliśmy, tylko do procesu opisanego '''wyestymowanymi''' parametrami modelu AR. | ||
+ | Ogólnie w statystyce mówimy o: | ||
+ | * estymacji parametrycznej jako znajdowaniu nieznanych wartości parametrów rozkładu, oraz | ||
+ | * estymacji nieparametrycznej jako metodzie znajdowania postaci rozkładu populacji (analogicznie do [https://brain.fuw.edu.pl/edu/index.php/WnioskowanieStatystyczne/Testy_nieprametryczne testów nieparametrycznych]). | ||
+ | |||
+ | Na przykład dla stu obserwacji, co do których zakładamy, że pochodzą z rozkładu normalnego, możemy znaleźć średnią i wariancję (parametry rozkładu) i na tej podstawie estymować prawdopodobieństwo w dowolnym przedziale. Jeśli nie chcemy zakładać postaci rozkładu, nieparametryczną estymatą ''n''-tego percentyla będzie największy z pierwszych ''n'' wyników (dla próby o liczności 100). | ||
<references/> | <references/> | ||
+ | |||
+ | |||
+ | |||
+ | <div align="right"> | ||
+ | [[Estymacja_widma_na_podstawie_FT|⬅]] [[Analiza_sygnałów_-_wykład|⬆]] [[Systemy_liniowe_niezmiennicze_w_czasie_(LTI)|⮕]] | ||
+ | </div> |
Aktualna wersja na dzień 08:20, 8 lis 2024
Spis treści
AS/ Model autoregresyjny (AR)
Model autoregresyjny (rzędu [math]M[/math]) opisuje procesy dyskretne, w których wartość sygnału w danej chwili jest sumą liniowej kombinacji [math]M[/math] wartości poprzednich i nieskorelowanego szumu [math]\epsilon[/math]
- [math] \displaystyle s[n] = \sum_{i=1}^M a_i s[n-i] + \epsilon[n] [/math]
W każdej realizacji tego samego procesu (dla tych samych
współczynników [math]a_i[/math] i wartości początkowych sygnału), [math]\epsilon_t[/math]
są niezależnymi liczbami losowymi, więc o wartości [math]s(t)[/math] w
konkretnej chwili [math]t[/math] możemy mówić tylko językiem
prawdopodobieństwa.
Mimo tego, na podstawie współczynników AR możemy określić wiele ogólnych własności sygnału, np. wartość oczekiwaną [math]\bar{s}[/math] (w praktyce estymowaną przez wartość średnią) i wariancję (jej estymatorem jest suma kwadratów odchyleń wartości sygnału od wartości oczekiwanej), a nawet widmo mocy. Można również rozważać szersze klasy modeli tego typu, jak np. model MA (ruchomej średniej, ang. moving average), gdzie uśredniamy [math]\epsilon_t[/math] zamiast [math]s(t)[/math], czy proces mieszany ARMA, opisany między innymi w klasycznych pozycjach „Analizie szeregów czasowych”, autorstwa Boxa i Jenkinsa oraz w „Metodach analizy szeregów czasowych” autorstwa Piersola i Bendata.
AR(1)
Najprostszym przykładem jest proces AR pierwszego rzędu (nazywany łańcuchem Markowa), w którym wartość w danej chwili zależy wyłącznie od wartości w chwili poprzedniej i szumu: [math] s[n] = a s[n-1] + \epsilon_n [/math]; podstawiając trzy kolejne wyrazy
[math]s[n] = \epsilon_n + a s[n-1] [/math]
[math]s[n-1] = \epsilon_{n-1} + a s[n-2] [/math]
[math]s[n-2] = \epsilon_{n-2} + a s[n-3][/math]
dostaniemy
[math]
s[n] =
[/math]
[math]
\epsilon_n + a s[n-1] =
[/math]
[math]
\epsilon_n + a \left( \epsilon_{n-1} + a s[n-2] \right) =
[/math]
[math]
\epsilon_n + a \left( \epsilon_{n-1} + a (\epsilon_{n-2} + a s[n-3]) \right) =
[/math]
[math]
\epsilon_n + a \epsilon_{n-1} + a^2 \epsilon_{n-2} + a^3 s[n-3]
[/math]
W ogólnym przypadku [math]N[/math] wyrazów będzie to suma
[math]
\displaystyle
s[n] = \sum_{i=0}^{N-1} a^i \epsilon_{n-i} + a^N s[n-N]
[/math]
Dla [math]N \rightarrow \infty[/math] zależność od pierwszego elementu [math]s[n-N][/math] zanika i dostajemy asymptotyczną reprezentację
[math] \displaystyle
s[n] = \epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2} +\ldots = \sum_{i=0}^{\infty} a^i \epsilon_{n-i}
[/math]
Jeśli wartość oczekiwana [math]\epsilon_i[/math] wynosi 0 ([math]E(\epsilon_i)=0[/math]) a wariancja
[math]\sigma^2(\epsilon_i)=\sigma_\epsilon^2[/math], to wariancja [math]s[n][/math] w punkcie [math]n[/math]
[math]\displaystyle
\begin{matrix}
\sigma^2_{s[n]} = E\left( (\epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2}+\ldots+a^{n-1}\epsilon_1)^2\right) =\\
\\
= \sigma_\epsilon^2 \left(1+a^2+a^4+\ldots+a^{2n-2} \right) =
\left\{
\begin{matrix}
\sigma_\epsilon^2 \left(\frac{1-a^{2n}}{1-a^2} \right) & |a|\ne 1\\
n \sigma_\epsilon^2 & |a|=1
\end{matrix}
\right.
\end{matrix}[/math]
bo
[math] \sum_{k=1}^n b q^{k-1} = \left\{ \begin{matrix}b \frac{1 - q^n}{1 - q} \;\;\;\; \textrm{ dla }\;\;\;q\ne 1,\\ n b \;\;\;\;\;\;\;\;\; \textrm{ dla }\;\;\;\; q = 1. \end{matrix} \right. [/math]
Autokowariancja [math]E(s[n] s[n+\tau])[/math]
[math]
\displaystyle
\begin{matrix}
E\left( (\epsilon_n + a\epsilon_{n-1} + a^2\epsilon_{n-2}+\ldots+a^{n-1}\epsilon_1)
(\epsilon_{n+\tau} + a\epsilon_{n+\tau-1}
+\ldots+a^{n+\tau-1}\epsilon_1)\right) =\\
\\
= \sigma_\epsilon^2 \left(a^\tau+a^{\tau+2}+\ldots+a^{\tau+2(n-1)} \right) =
\left\{
\begin{matrix}
\sigma_\epsilon^2 a^\tau \left(\frac{1-a^{2n}}{1-a^2} \right) & |a|\ne 1\\
n \sigma_\epsilon^2 & |a|=1
\end{matrix}
\right.
\end{matrix}
[/math]
Dla [math]|a|\ne 1[/math] przy [math]n\rightarrow\infty[/math]
[math]\displaystyle
\sigma^2_{x[n]} \stackrel{n\rightarrow\infty}{\longrightarrow} \frac{\sigma^2_\epsilon}{1-a^2} \;\;\; ; \;\;\;
\sigma_{x[n], x[n+\tau]} \stackrel{n\rightarrow\infty}{\longrightarrow} \frac{\sigma^2_\epsilon a^\tau}{1-a^2}
[/math]
Autokowariancja
[math]
\displaystyle
\rho(\tau) = \frac{ \sigma_{x[n], x[n+\tau]} }{ \sigma^2_{x[n]} } \stackrel{n\rightarrow\infty}{\longrightarrow} a^{|\tau|}
[/math]
Proces jest asymptotycznie stacjonarny do rzędu 2, czyli wariancja i średnia nie zależą od czasu.
Dla [math]a=1[/math] proces ten obrazuje tzw. błądzenie przypadkowe.
Na podstawie znajomości samego współczynnika [math]a[/math] modelu AR(1) policzyliśmy np. funkcję autokorelacji modelu, co daje już znajomość widma procesu (z przytoczonego poniżej twierdzenia Wienera-Chinczyna). Podobnie w procesach wyższych rzędów (1) znajomość współczynników [math]\{a_i\}_{i=1..M}[/math] daje nam dokładną wiedzę o własnościach generowanych przez nie procesów, bez znajomości sygnału [math]s[n][/math], którego wartości mogą różnić się w kolejnych realizacjach ze względu na element stochastyczny — szum [math]\epsilon[/math].
W praktyce analizy sygnału postępujemy odwrotnie — do konkretnej realizacji dopasowujemy model AR. Głównym problemem jest wybór rzędu modelu, estymacja współczynników [math]a_i[/math] najlepiej pasujących do danego sygnału posiada stabilne rozwiązania.
Twierdzenie Wienera-Chinczyna
Transformata Fouriera funkcji autokorelacji jest równa kwadratowi modułu transformaty Fouriera.
Dowód
Kładąc [math]f = g[/math] we wzorze na funkcję korelacji sygnałów f i g, dostajemy analogznie jak poprzednio
[math] \displaystyle \mathcal{F} \left( \int_{-\infty}^{\infty} f(t) f(t+\tau) dt \right) = [/math]
[math]
\displaystyle
\int_{-\infty}^{\infty} e^{-i\omega \tau} \left( \int_{-\infty}^{\infty} f(t) f(t+\tau) dt \right) d\tau =
[/math]
[math]
\displaystyle
\int_{-\infty}^{\infty} e^{-i\omega(t+\tau)} e^{i\omega t} \int_{-\infty}^{\infty} f(t) f(t+\tau) dt d\tau =
[/math]
[math]
\displaystyle
\int_{-\infty}^{\infty} e^{-i\omega(t+\tau)} f(t+\tau) d\tau \int_{-\infty}^{\infty} e^{i\omega t} f(t) dt =
[/math]
[math]
\displaystyle
\hat{f}(\omega) \overline{\hat{f}(\omega)} = |\hat{f}(\omega)|^2
[/math]
Estymacja współczynników AR i kryterium Akaike'go
Najtrudniejszym krokiem w estymacji współczynników modelu AR jest wybór rzędu [math]M[/math], czyli pamięci modelu. Pomagają w tym kryteria, których przykładem jest Akaike Information Criterion AIC:
- [math]\displaystyle \mathrm{AIC}(M)= \frac{2M}{N} + \ln(\sigma^2_{\epsilon}) [/math]
gdzie [math]N[/math] - liczba próbek sygnału, [math]N[/math] — rząd modelu. Kryterium to karze za zwiększanie liczby parametrów i nagradza za zmniejszanie niewytłumaczonej wariancji.
Parametryczna estymacja widma mocy sygnałów
Pokazaliśmy powyżej (na przykładzie błądzenia przypadkowego), że znając współczynniki (parametry) modelu AR możemy z nich wyliczyć funkcję autokorelacji odpowiadającego im procesu, bez znajomości konkretnej realizacji sygnału. Z kolei z funkcji autokorelacji możemy z pomocą powyższego twierdzenia obliczyć widmo. To widmo będzie wyliczone a nie estymowane, ale nie odnosi się bezpośrednio do sygnału, od którego zaczynaliśmy, tylko do procesu opisanego wyestymowanymi parametrami modelu AR.
Ogólnie w statystyce mówimy o:
- estymacji parametrycznej jako znajdowaniu nieznanych wartości parametrów rozkładu, oraz
- estymacji nieparametrycznej jako metodzie znajdowania postaci rozkładu populacji (analogicznie do testów nieparametrycznych).
Na przykład dla stu obserwacji, co do których zakładamy, że pochodzą z rozkładu normalnego, możemy znaleźć średnią i wariancję (parametry rozkładu) i na tej podstawie estymować prawdopodobieństwo w dowolnym przedziale. Jeśli nie chcemy zakładać postaci rozkładu, nieparametryczną estymatą n-tego percentyla będzie największy z pierwszych n wyników (dla próby o liczności 100).