<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="pl">
	<id>http://brain.fuw.edu.pl/edu/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Durka</id>
	<title>Brain-wiki - Wkład użytkownika [pl]</title>
	<link rel="self" type="application/atom+xml" href="http://brain.fuw.edu.pl/edu/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Durka"/>
	<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php/Specjalna:Wk%C5%82ad/Durka"/>
	<updated>2026-04-16T14:49:40Z</updated>
	<subtitle>Wkład użytkownika</subtitle>
	<generator>MediaWiki 1.34.1</generator>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11710</id>
		<title>WnioskowanieStatystyczne/Test serii</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11710"/>
		<updated>2026-03-29T14:38:45Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Pozostaje jeszcze rozważyć sytuację */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Test serii Walda-Wolfowitza=&lt;br /&gt;
&lt;br /&gt;
Serią nazywamy ciąg jednakowych elementów.  W poniższym przykładzie&lt;br /&gt;
mamy sześć serii (po trzy serie zer i jedynek):&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Nie jest to oczywiście jedyna kombinacja kolejności pięciu zer i pięciu jedynek,&lt;br /&gt;
dająca w wyniku sześć serii. Ponieważ każda pojedyncza kombinacja jest jednakowo&lt;br /&gt;
prawdopodobna (jeśli jest wynikiem niezależnych losowań), to prawdopodobieństwo&lt;br /&gt;
uzyskania danej liczby serii będzie tym większe, im więcej różnych kombinacji&lt;br /&gt;
będzie dawać w wyniku tę liczbę serii. Sformułujmy więc problem ogólnie:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
Mamy &amp;lt;math&amp;gt;N=n_1+n_2&amp;lt;/math&amp;gt; elementów, w tym &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek. &lt;br /&gt;
Na ile sposobów możemy je rozłożyć, aby uzyskać &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii? &lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;kod &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
import matplotlib.pyplot as plt&lt;br /&gt;
import numpy&lt;br /&gt;
&lt;br /&gt;
n1=25 # zera&lt;br /&gt;
n2=30 # jedynki&lt;br /&gt;
n=n1+n2 &lt;br /&gt;
ile_losowan=1000&lt;br /&gt;
&lt;br /&gt;
wynik=numpy.zeros(ile_losowan, dtype=numpy.int32)&lt;br /&gt;
&lt;br /&gt;
for i in range(0, ile_losowan):&lt;br /&gt;
	losowanie=numpy.zeros(n, dtype=numpy.int32)&lt;br /&gt;
	while numpy.sum(losowanie) &amp;lt; n2:&lt;br /&gt;
		losowanie[numpy.random.randint(0,n)]=1&lt;br /&gt;
	#print(numpy.array_str(losowanie,max_line_width=numpy.inf).replace(&amp;quot; &amp;quot;,&amp;quot;&amp;quot;), &amp;quot;\n&amp;quot;)&lt;br /&gt;
	zmiany=1&lt;br /&gt;
	for j in range(1, n):&lt;br /&gt;
		if(losowanie[j] != losowanie[j-1]):&lt;br /&gt;
			zmiany += 1&lt;br /&gt;
	wynik[i]=zmiany&lt;br /&gt;
&lt;br /&gt;
plt.hist(wynik, bins=range(0,n))&lt;br /&gt;
plt.xlabel(&amp;quot;$k$&amp;quot;)&lt;br /&gt;
plt.ylabel(&amp;quot;$P(k)$&amp;quot;)&lt;br /&gt;
plt.title(f&amp;quot;$n_1$ = {n1}, $n_2$ = {n2}, {ile_losowan} losowań&amp;quot;)&lt;br /&gt;
plt.show()&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;animacja dla 1000 &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|[[Plik:Testserii1000.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^3&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
[[Plik:Testserii.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^5&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.log.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek (skala logarytmiczna).]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
[[Plik:Testserii6.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^6&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Wyprowadzenie analityczne==&lt;br /&gt;
&lt;br /&gt;
Wróćmy do prostszego przykładu, zawierającego pięć jedynek i pięć zer. &lt;br /&gt;
Podział na serie możemy interpretować jak przypisanie liczbom od jeden do dziesięciu &lt;br /&gt;
(pozycje w ciągu) zera lub jedynki:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|2&lt;br /&gt;
|3&lt;br /&gt;
|4&lt;br /&gt;
|5&lt;br /&gt;
|6&lt;br /&gt;
|7&lt;br /&gt;
|8&lt;br /&gt;
|9&lt;br /&gt;
|10&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inaczej mówiąc, konkretny ciąg &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; zer i jedynek wyznaczony&lt;br /&gt;
jest przez wylosowanie spośród liczb od jednego do &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; tych&lt;br /&gt;
liczb, którym mają być przypisane jedynki (pozostałym będą przypisane&lt;br /&gt;
zera &amp;amp;mdash; lub odwrotnie). Czyli wszystkich możliwych ciągów&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek będzie tyle, na ile&lt;br /&gt;
sposobów można wylosować &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt;.  Policzmy: pozycję (czyli numer, wypisany w dolnym&lt;br /&gt;
rzędzie powyższej tabeli) pierwszego elementu losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; możliwości, drugiego &amp;amp;mdash; spośród &amp;lt;math&amp;gt;N-1&amp;lt;/math&amp;gt;&lt;br /&gt;
pozostałych możliwości (jedna pozycja jest już zajęta), i tak dalej,&lt;br /&gt;
aż pozycję ostatniego z &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; pozostałych możliwości.  Liczba możliwych wyników&lt;br /&gt;
będzie iloczynem tych wszystkich liczb, czyli wyniesie&lt;br /&gt;
&amp;lt;math&amp;gt;N\cdot(N-1)\cdot(N-2)\cdot\ \dots\ \cdot (N-n_1) =&lt;br /&gt;
N!/(N-n_1)!&amp;lt;/math&amp;gt; Skoro wszystkie jedynki są jednakowe i nie&lt;br /&gt;
rozróżniamy wyników różniących się ich kolejnością, to wynik ten&lt;br /&gt;
musimy podzielić przez liczbę różnych ustawień kolejności elementów&lt;br /&gt;
(liczbę permutacji) zbioru &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt;-elementowego. Wyniesie ona&lt;br /&gt;
&amp;lt;math&amp;gt;n_1\cdot(n_1-1)\cdot\ \dots\ \cdot 1&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&amp;lt;math&amp;gt;n_1!&amp;lt;/math&amp;gt; Ostatecznie jako liczbę różnych ustawień&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; jedynek dostajemy:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{N!}{(N-n_1)!\ n_1!} = \binom{N}{n_1}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jest to znany z [[WnioskowanieStatystyczne/Rozklady-przyklady#Rozkład dwumianowy|rozdziału o rozkładzie dwumianowym]] symbol Newtona &amp;lt;math&amp;gt;\binom{N}{n_1}&amp;lt;/math&amp;gt;. Jego własności&lt;br /&gt;
symetrii zgadzają się z sytuacją, w ktorej &amp;quot;wybierać&amp;quot; możemy albo &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer&lt;br /&gt;
albo &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\binom{N}{n_1}=\binom{n_1+n_2}{n_1}=\frac{(n_1+n_2)!}{n_1! n_2!}=\binom{n_1+n_2}{n_2}=\binom{N}{n_2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje policzyć, ile z tych możliwości (przy ustalonych liczbach&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer) wygeneruje ciąg&lt;br /&gt;
wyników, w którym będzie dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest parzysta===&lt;br /&gt;
będziemy mieć tyle samo serii jedynek i zer (po &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt;). Aby rozmieścić &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek w &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt; seriach musimy wyznaczyć &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; punktów podziału na serie; w powyższym przykładzie będą to (kropki) '''1.1.111''' &amp;amp;mdash; było 6 serii, więc mamy 2 punkty podziału. Inaczej losujemy spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych punktów podziału &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; podziałów, jak wynika z liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;. Daje to &amp;lt;math&amp;gt;\binom{n_1-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości. W miejsca podziału (oznaczone kropkami) wstawiamy serie zer; analogicznie możemy to zrobić na &amp;lt;math&amp;gt;\binom{n_2-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości (w przykładzie: '''00.00.0'''). Liczbę tę należy pomnożyć przez dwa ze względu na możliwość zamiany miejscami zer i jedynek. Prawdopodobieństwo danej liczby serii dostaniemy &amp;amp;mdash; zgodnie z klasyczną definicją prawdopodobieństwa &amp;amp;mdash; dzieląc liczbę wszystkich tych kombinacji &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer, które generują dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, przez liczbę wszystkich możliwych kombinacji: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle &lt;br /&gt;
P=\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}} { \binom{N}{n_1}} \qquad\textrm{dla }\ k\ \textrm{parzystych.} &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest nieparzysta=== &lt;br /&gt;
którychś serii &amp;amp;mdash; zer lub jedynek &amp;amp;mdash; będzie dokładnie o jeden więcej. &amp;lt;equation id=&amp;quot;eq:127&amp;quot;&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{000}\underline{111}&lt;br /&gt;
        &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii jedynek''', mamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii zer i &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii jedynek. &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek dzielimy na &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii, czyli wyznaczamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; punktów podziału spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych &amp;amp;mdash; daje to &amp;lt;math&amp;gt;\binom{n_1-1}{(k-1)/2}&amp;lt;/math&amp;gt; możliwości. Z kolei &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer dzielimy na &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii, co daje &amp;lt;math&amp;gt;\binom{n_2-1}{(k-1)/2-1}&amp;lt;/math&amp;gt; możliwości. Iloczyn tych dwóch wielkości określa liczbę możliwości dających &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, jeśli więcej jest serii jedynek: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:128&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii zer''', to na drodze analogicznego rozumowania dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:129&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prawdopodobieństwo dla przypadku nieparzystej liczby serii będzie sumą tych dwóch wielkości, podzieloną, jak w przypadku parzystego &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;, przez liczbę wszystkich możliwości:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:130&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
P=\frac{\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}}&lt;br /&gt;
{{\binom{N}{n_1}}} &lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
dla &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; nieparzystych.&lt;br /&gt;
&lt;br /&gt;
===Pozostaje jeszcze rozważyć sytuację===&lt;br /&gt;
w której liczba serii jest nieparzysta, jak w punkcie 2., ale mniej liczne&lt;br /&gt;
elementy rozłożone są wyłącznie w serie jednoelementowe, na przykład&lt;br /&gt;
001010010100, czyli liczba serii wynosi &amp;lt;math&amp;gt;2n+1&amp;lt;/math&amp;gt;, gdzie&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jest liczbą mniej licznych elementów (w tym&lt;br /&gt;
przykładzie jedynek). Wtedy znika jeden ze składników sumy z licznika&lt;br /&gt;
powyższego równania, gdyż zachodzić może wyłącznie&lt;br /&gt;
przypadek 2.1 lub 2.2.&lt;br /&gt;
&lt;br /&gt;
Ostatecznie dostajemy następujący wzór na&lt;br /&gt;
prawdopodobieństwo wystąpienia &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii w próbie, w której&lt;br /&gt;
drogą niezależnych losowań wylosowano &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i&lt;br /&gt;
&amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:131&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
P(k\mid n_1, n_2)=\begin{cases} &lt;br /&gt;
\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}}&lt;br /&gt;
{ \binom{N}{n_1}} &lt;br /&gt;
\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ parzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}&lt;br /&gt;
\quad \textrm{dla }\ k\ \textrm{ nieparzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_\textrm{max}-1}{(k-1)/2} &lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{(k-1)/2}}}&lt;br /&gt;
\ \quad\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ nieparzystych i }  &lt;br /&gt;
n_\textrm{min}=\frac{k-1}{2}, &lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;n_\textrm{min}=\min(n_1, n_2)&amp;lt;/math&amp;gt; i&lt;br /&gt;
&amp;lt;math&amp;gt;n_\textrm{max}=\max(n_1, n_2)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wzór ten określa rozkład statystyki, będącej liczbą serii w próbie złożonej &lt;br /&gt;
z dowolnych dwóch rodzajów elementów (oznaczanych powyżej jako '''0''' i '''1'''). Dzięki niemu możemy wreszcie skonstruować kompletny test hipotezy&lt;br /&gt;
mówiącej, że dany ciąg jest wynikiem niezależnych losowań. Przypomnijmy dane &lt;br /&gt;
z [[WnioskowanieStatystyczne/Testy_nieprametryczne|przykładu o nieuczciwym ankieterze]]:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
'''1101101000101001011101101111010110010101001010100011101'''&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W ciągu tym występuje 25 zer i 30 jedynek, układających się w 37&lt;br /&gt;
serii.  Na podstawie wzoru &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; możemy obliczyć&lt;br /&gt;
rozkład prawdopodobieństwa wylosowania ciągu 25 zer i 30 jedynek, w&lt;br /&gt;
którym będzie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii. Możliwe wartości &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;&lt;br /&gt;
będą w tym przypadku zawierać się między 2 (jedna seria zer i jedna&lt;br /&gt;
jedynek) a 51 (ponieważ mniej jest zer, największa liczba serii&lt;br /&gt;
odpowiada przypadkowi, w którym wszystkie zera układają się w serie&lt;br /&gt;
jednoelementowe). Rozkład prawdopodobieństwa dla tego przypadku&lt;br /&gt;
przedstawia poniższy rysunek.&lt;br /&gt;
&lt;br /&gt;
[[Plik:serie.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Rozkład prawdopodobieństw &amp;lt;math&amp;gt;P(k)&amp;lt;/math&amp;gt; liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w niezależnym losowaniu 30 zer i 25 jedynek.]]&lt;br /&gt;
&lt;br /&gt;
Zastosowania testów opartych na tej statystyce nie ograniczają się do&lt;br /&gt;
analizy ciągów zer i jedynek (lub innych dwóch elementów). Poniżej&lt;br /&gt;
przedstawiamy jeszcze dwa testy korzystające ze statystyki &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Testowanie, czy próba jest wynikiem niezależnych losowań==&lt;br /&gt;
&lt;br /&gt;
Podobny problem &amp;amp;mdash; pytanie, czy elementy próby są wynikiem&lt;br /&gt;
niezależnych losowań &amp;amp;mdash; występuje np. przy testowaniu generatorów&lt;br /&gt;
liczb losowych ([[WnioskowanieStatystyczne/Z_komputerem#cite_note-0|będących kluczowym&lt;br /&gt;
elementem metod opisywanych w pierwszej części książki]]). Jednak w&lt;br /&gt;
tej sytuacji mamy do czynienia z ciągiem dowolnych liczb, a nie dwóch&lt;br /&gt;
symboli.&lt;br /&gt;
&lt;br /&gt;
Pomysł jest prosty: ciąg wyników wyrażających się dowolnymi liczbami&lt;br /&gt;
możemy zamienić na ciąg zer i jedynek, wybierając próg &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;&lt;br /&gt;
i przypisując wynikom większym od &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; jedynkę, a mniejszym&lt;br /&gt;
&amp;amp;mdash; zero. Jeśli chcemy mieć tyle samo zer i jedynek, jako&lt;br /&gt;
&amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; możemy wziąć [[WnioskowanieStatystyczne/Momenty#Mediana|medianę]] próby. Do&lt;br /&gt;
takiej serii możemy już z powodzeniem stosować opisany w poprzednim&lt;br /&gt;
rozdziale test oparty na statystyce &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &amp;amp;mdash;&lt;br /&gt;
oczywiście zachowując kolejność elementów w próbie.&lt;br /&gt;
&lt;br /&gt;
==Test zgodności rozkładów w dwóch populacjach==&lt;br /&gt;
&lt;br /&gt;
Mamy dwie próby. Hipoteza zerowa mówi, że zostały wylosowane z tego&lt;br /&gt;
samego rozkładu. Ciąg zer i jedynek tworzymy w następujący sposób:&lt;br /&gt;
&lt;br /&gt;
Elementy obu prób ustawiamy w jeden ciąg w kolejności od najmniejszej&lt;br /&gt;
do największej&amp;lt;ref&amp;gt;Jeśli wartości losowane są z rozkładów ciągłych, to&lt;br /&gt;
wystąpienie jednakowych wartości jest teoretycznie niemożliwe. W&lt;br /&gt;
praktyce wartości zapisujemy ze skończoną dokładnością; zwykle&lt;br /&gt;
przyjmuje się, że jednakowe wartości można pominąć.&amp;lt;/ref&amp;gt;.  Elementom&lt;br /&gt;
pierwszej próby przypisujemy jedynki, a drugiej &amp;amp;mdash; zera.&lt;br /&gt;
&lt;br /&gt;
Jeśli obie próby losowano z tej samej populacji, to liczba serii w tak określonym&lt;br /&gt;
ciągu podlega statystyce &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;, czyli ponownie możemy&lt;br /&gt;
stosować test Walda-Wolfowitza.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
---------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11709</id>
		<title>WnioskowanieStatystyczne/Test serii</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11709"/>
		<updated>2026-03-29T14:35:21Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Pozostaje jeszcze rozważyć sytuację */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Test serii Walda-Wolfowitza=&lt;br /&gt;
&lt;br /&gt;
Serią nazywamy ciąg jednakowych elementów.  W poniższym przykładzie&lt;br /&gt;
mamy sześć serii (po trzy serie zer i jedynek):&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Nie jest to oczywiście jedyna kombinacja kolejności pięciu zer i pięciu jedynek,&lt;br /&gt;
dająca w wyniku sześć serii. Ponieważ każda pojedyncza kombinacja jest jednakowo&lt;br /&gt;
prawdopodobna (jeśli jest wynikiem niezależnych losowań), to prawdopodobieństwo&lt;br /&gt;
uzyskania danej liczby serii będzie tym większe, im więcej różnych kombinacji&lt;br /&gt;
będzie dawać w wyniku tę liczbę serii. Sformułujmy więc problem ogólnie:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
Mamy &amp;lt;math&amp;gt;N=n_1+n_2&amp;lt;/math&amp;gt; elementów, w tym &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek. &lt;br /&gt;
Na ile sposobów możemy je rozłożyć, aby uzyskać &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii? &lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;kod &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
import matplotlib.pyplot as plt&lt;br /&gt;
import numpy&lt;br /&gt;
&lt;br /&gt;
n1=25 # zera&lt;br /&gt;
n2=30 # jedynki&lt;br /&gt;
n=n1+n2 &lt;br /&gt;
ile_losowan=1000&lt;br /&gt;
&lt;br /&gt;
wynik=numpy.zeros(ile_losowan, dtype=numpy.int32)&lt;br /&gt;
&lt;br /&gt;
for i in range(0, ile_losowan):&lt;br /&gt;
	losowanie=numpy.zeros(n, dtype=numpy.int32)&lt;br /&gt;
	while numpy.sum(losowanie) &amp;lt; n2:&lt;br /&gt;
		losowanie[numpy.random.randint(0,n)]=1&lt;br /&gt;
	#print(numpy.array_str(losowanie,max_line_width=numpy.inf).replace(&amp;quot; &amp;quot;,&amp;quot;&amp;quot;), &amp;quot;\n&amp;quot;)&lt;br /&gt;
	zmiany=1&lt;br /&gt;
	for j in range(1, n):&lt;br /&gt;
		if(losowanie[j] != losowanie[j-1]):&lt;br /&gt;
			zmiany += 1&lt;br /&gt;
	wynik[i]=zmiany&lt;br /&gt;
&lt;br /&gt;
plt.hist(wynik, bins=range(0,n))&lt;br /&gt;
plt.xlabel(&amp;quot;$k$&amp;quot;)&lt;br /&gt;
plt.ylabel(&amp;quot;$P(k)$&amp;quot;)&lt;br /&gt;
plt.title(f&amp;quot;$n_1$ = {n1}, $n_2$ = {n2}, {ile_losowan} losowań&amp;quot;)&lt;br /&gt;
plt.show()&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;animacja dla 1000 &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|[[Plik:Testserii1000.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^3&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
[[Plik:Testserii.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^5&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.log.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek (skala logarytmiczna).]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
[[Plik:Testserii6.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^6&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Wyprowadzenie analityczne==&lt;br /&gt;
&lt;br /&gt;
Wróćmy do prostszego przykładu, zawierającego pięć jedynek i pięć zer. &lt;br /&gt;
Podział na serie możemy interpretować jak przypisanie liczbom od jeden do dziesięciu &lt;br /&gt;
(pozycje w ciągu) zera lub jedynki:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|2&lt;br /&gt;
|3&lt;br /&gt;
|4&lt;br /&gt;
|5&lt;br /&gt;
|6&lt;br /&gt;
|7&lt;br /&gt;
|8&lt;br /&gt;
|9&lt;br /&gt;
|10&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inaczej mówiąc, konkretny ciąg &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; zer i jedynek wyznaczony&lt;br /&gt;
jest przez wylosowanie spośród liczb od jednego do &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; tych&lt;br /&gt;
liczb, którym mają być przypisane jedynki (pozostałym będą przypisane&lt;br /&gt;
zera &amp;amp;mdash; lub odwrotnie). Czyli wszystkich możliwych ciągów&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek będzie tyle, na ile&lt;br /&gt;
sposobów można wylosować &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt;.  Policzmy: pozycję (czyli numer, wypisany w dolnym&lt;br /&gt;
rzędzie powyższej tabeli) pierwszego elementu losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; możliwości, drugiego &amp;amp;mdash; spośród &amp;lt;math&amp;gt;N-1&amp;lt;/math&amp;gt;&lt;br /&gt;
pozostałych możliwości (jedna pozycja jest już zajęta), i tak dalej,&lt;br /&gt;
aż pozycję ostatniego z &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; pozostałych możliwości.  Liczba możliwych wyników&lt;br /&gt;
będzie iloczynem tych wszystkich liczb, czyli wyniesie&lt;br /&gt;
&amp;lt;math&amp;gt;N\cdot(N-1)\cdot(N-2)\cdot\ \dots\ \cdot (N-n_1) =&lt;br /&gt;
N!/(N-n_1)!&amp;lt;/math&amp;gt; Skoro wszystkie jedynki są jednakowe i nie&lt;br /&gt;
rozróżniamy wyników różniących się ich kolejnością, to wynik ten&lt;br /&gt;
musimy podzielić przez liczbę różnych ustawień kolejności elementów&lt;br /&gt;
(liczbę permutacji) zbioru &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt;-elementowego. Wyniesie ona&lt;br /&gt;
&amp;lt;math&amp;gt;n_1\cdot(n_1-1)\cdot\ \dots\ \cdot 1&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&amp;lt;math&amp;gt;n_1!&amp;lt;/math&amp;gt; Ostatecznie jako liczbę różnych ustawień&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; jedynek dostajemy:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{N!}{(N-n_1)!\ n_1!} = \binom{N}{n_1}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jest to znany z [[WnioskowanieStatystyczne/Rozklady-przyklady#Rozkład dwumianowy|rozdziału o rozkładzie dwumianowym]] symbol Newtona &amp;lt;math&amp;gt;\binom{N}{n_1}&amp;lt;/math&amp;gt;. Jego własności&lt;br /&gt;
symetrii zgadzają się z sytuacją, w ktorej &amp;quot;wybierać&amp;quot; możemy albo &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer&lt;br /&gt;
albo &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\binom{N}{n_1}=\binom{n_1+n_2}{n_1}=\frac{(n_1+n_2)!}{n_1! n_2!}=\binom{n_1+n_2}{n_2}=\binom{N}{n_2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje policzyć, ile z tych możliwości (przy ustalonych liczbach&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer) wygeneruje ciąg&lt;br /&gt;
wyników, w którym będzie dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest parzysta===&lt;br /&gt;
będziemy mieć tyle samo serii jedynek i zer (po &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt;). Aby rozmieścić &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek w &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt; seriach musimy wyznaczyć &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; punktów podziału na serie; w powyższym przykładzie będą to (kropki) '''1.1.111''' &amp;amp;mdash; było 6 serii, więc mamy 2 punkty podziału. Inaczej losujemy spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych punktów podziału &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; podziałów, jak wynika z liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;. Daje to &amp;lt;math&amp;gt;\binom{n_1-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości. W miejsca podziału (oznaczone kropkami) wstawiamy serie zer; analogicznie możemy to zrobić na &amp;lt;math&amp;gt;\binom{n_2-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości (w przykładzie: '''00.00.0'''). Liczbę tę należy pomnożyć przez dwa ze względu na możliwość zamiany miejscami zer i jedynek. Prawdopodobieństwo danej liczby serii dostaniemy &amp;amp;mdash; zgodnie z klasyczną definicją prawdopodobieństwa &amp;amp;mdash; dzieląc liczbę wszystkich tych kombinacji &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer, które generują dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, przez liczbę wszystkich możliwych kombinacji: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle &lt;br /&gt;
P=\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}} { \binom{N}{n_1}} \qquad\textrm{dla }\ k\ \textrm{parzystych.} &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest nieparzysta=== &lt;br /&gt;
którychś serii &amp;amp;mdash; zer lub jedynek &amp;amp;mdash; będzie dokładnie o jeden więcej. &amp;lt;equation id=&amp;quot;eq:127&amp;quot;&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{000}\underline{111}&lt;br /&gt;
        &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii jedynek''', mamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii zer i &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii jedynek. &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek dzielimy na &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii, czyli wyznaczamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; punktów podziału spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych &amp;amp;mdash; daje to &amp;lt;math&amp;gt;\binom{n_1-1}{(k-1)/2}&amp;lt;/math&amp;gt; możliwości. Z kolei &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer dzielimy na &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii, co daje &amp;lt;math&amp;gt;\binom{n_2-1}{(k-1)/2-1}&amp;lt;/math&amp;gt; możliwości. Iloczyn tych dwóch wielkości określa liczbę możliwości dających &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, jeśli więcej jest serii jedynek: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:128&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii zer''', to na drodze analogicznego rozumowania dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:129&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prawdopodobieństwo dla przypadku nieparzystej liczby serii będzie sumą tych dwóch wielkości, podzieloną, jak w przypadku parzystego &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;, przez liczbę wszystkich możliwości:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:130&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
P=\frac{\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}}&lt;br /&gt;
{{\binom{N}{n_1}}} &lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
dla &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; nieparzystych.&lt;br /&gt;
&lt;br /&gt;
===Pozostaje jeszcze rozważyć sytuację===&lt;br /&gt;
w której liczba serii jest nieparzysta, jak w punkcie 2., ale mniej liczne&lt;br /&gt;
elementy rozłożone są wyłącznie w serie jednoelementowe, na przykład&lt;br /&gt;
001010010100, czyli liczba serii wynosi &amp;lt;math&amp;gt;2n+1&amp;lt;/math&amp;gt;, gdzie&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jest liczbą mniej licznych elementów (w tym&lt;br /&gt;
przykładzie jedynek). Wtedy znika jeden ze składników sumy z licznika&lt;br /&gt;
powyższego równania, gdyż zachodzić może wyłącznie&lt;br /&gt;
przypadek 2.1 lub 2.2.&lt;br /&gt;
&lt;br /&gt;
Ostatecznie dostajemy następujący wzór na&lt;br /&gt;
prawdopodobieństwo wystąpienia &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii w próbie, w której&lt;br /&gt;
drogą niezależnych losowań wylosowano &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i&lt;br /&gt;
&amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:131&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
P(k\mid n_1, n_2)=\begin{cases} &lt;br /&gt;
\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}}&lt;br /&gt;
{ \binom{N}{n_1}} &lt;br /&gt;
\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ parzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}&lt;br /&gt;
\quad \textrm{dla }\ k\ \textrm{ nieparzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_\textrm{max}-1}{(k-1)/2} &lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{(k-1)/2}}}&lt;br /&gt;
\ \quad\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ nieparzystych i }  &lt;br /&gt;
n_\textrm{min}=\frac{k-1}{2}, &lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;n_\textrm{min}=\min(n_1, n_2)&amp;lt;/math&amp;gt; i&lt;br /&gt;
&amp;lt;math&amp;gt;n_\textrm{max}=\max(n_1, n_2)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wzór ten określa rozkład statystyki, będącej liczbą serii w próbie złożonej &lt;br /&gt;
z dowolnych dwóch rodzajów elementów (oznaczanych powyżej jako '''0''' i '''1'''). Dzięki niemu możemy wreszcie skonstruować kompletny test hipotezy&lt;br /&gt;
mówiącej, że dany ciąg jest wynikiem niezależnych losowań. Przypomnijmy dane &lt;br /&gt;
z [[WnioskowanieStatystyczne/Testy_nieprametryczne|przykładu o nieuczciwym ankieterze]]:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
'''1101101000101001011101101111010110010101001010100011101'''&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W ciągu tym występuje 25 zer i 30 jedynek, układających się w 37&lt;br /&gt;
serii.  Na podstawie wzoru &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; możemy obliczyć&lt;br /&gt;
rozkład prawdopodobieństwa wylosowania ciągu 25 zer i 30 jedynek, w&lt;br /&gt;
którym będzie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii. Możliwe wartości &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;&lt;br /&gt;
będą w tym przypadku zawierać się między 2 (jedna seria zer i jedna&lt;br /&gt;
jedynek) a 51 (ponieważ mniej jest zer, największa liczba serii&lt;br /&gt;
odpowiada przypadkowi, w którym wszystkie zera układają się w serie&lt;br /&gt;
jednoelementowe). Rozkład prawdopodobieństwa dla tego przypadku&lt;br /&gt;
przedstawia rysunek &amp;lt;xr id=&amp;quot;fig:132&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:serie.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Rozkład prawdopodobieństw &amp;lt;math&amp;gt;P(k)&amp;lt;/math&amp;gt; liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w niezależnym losowaniu 30 zer i 25 jedynek.]]&lt;br /&gt;
&lt;br /&gt;
Zastosowania testów opartych na tej statystyce nie ograniczają się do&lt;br /&gt;
analizy ciągów zer i jedynek (lub innych dwóch elementów). Poniżej&lt;br /&gt;
przedstawiamy jeszcze dwa testy korzystające ze statystyki &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Testowanie, czy próba jest wynikiem niezależnych losowań==&lt;br /&gt;
&lt;br /&gt;
Podobny problem &amp;amp;mdash; pytanie, czy elementy próby są wynikiem&lt;br /&gt;
niezależnych losowań &amp;amp;mdash; występuje np. przy testowaniu generatorów&lt;br /&gt;
liczb losowych ([[WnioskowanieStatystyczne/Z_komputerem#cite_note-0|będących kluczowym&lt;br /&gt;
elementem metod opisywanych w pierwszej części książki]]). Jednak w&lt;br /&gt;
tej sytuacji mamy do czynienia z ciągiem dowolnych liczb, a nie dwóch&lt;br /&gt;
symboli.&lt;br /&gt;
&lt;br /&gt;
Pomysł jest prosty: ciąg wyników wyrażających się dowolnymi liczbami&lt;br /&gt;
możemy zamienić na ciąg zer i jedynek, wybierając próg &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;&lt;br /&gt;
i przypisując wynikom większym od &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; jedynkę, a mniejszym&lt;br /&gt;
&amp;amp;mdash; zero. Jeśli chcemy mieć tyle samo zer i jedynek, jako&lt;br /&gt;
&amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; możemy wziąć [[WnioskowanieStatystyczne/Momenty#Mediana|medianę]] próby. Do&lt;br /&gt;
takiej serii możemy już z powodzeniem stosować opisany w poprzednim&lt;br /&gt;
rozdziale test oparty na statystyce &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &amp;amp;mdash;&lt;br /&gt;
oczywiście zachowując kolejność elementów w próbie.&lt;br /&gt;
&lt;br /&gt;
==Test zgodności rozkładów w dwóch populacjach==&lt;br /&gt;
&lt;br /&gt;
Mamy dwie próby. Hipoteza zerowa mówi, że zostały wylosowane z tego&lt;br /&gt;
samego rozkładu. Ciąg zer i jedynek tworzymy w następujący sposób:&lt;br /&gt;
&lt;br /&gt;
Elementy obu prób ustawiamy w jeden ciąg w kolejności od najmniejszej&lt;br /&gt;
do największej&amp;lt;ref&amp;gt;Jeśli wartości losowane są z rozkładów ciągłych, to&lt;br /&gt;
wystąpienie jednakowych wartości jest teoretycznie niemożliwe. W&lt;br /&gt;
praktyce wartości zapisujemy ze skończoną dokładnością; zwykle&lt;br /&gt;
przyjmuje się, że jednakowe wartości można pominąć.&amp;lt;/ref&amp;gt;.  Elementom&lt;br /&gt;
pierwszej próby przypisujemy jedynki, a drugiej &amp;amp;mdash; zera.&lt;br /&gt;
&lt;br /&gt;
Jeśli obie próby losowano z tej samej populacji, to liczba serii w tak określonym&lt;br /&gt;
ciągu podlega statystyce &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;, czyli ponownie możemy&lt;br /&gt;
stosować test Walda-Wolfowitza.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
---------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11708</id>
		<title>WnioskowanieStatystyczne/Test serii</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11708"/>
		<updated>2026-03-29T14:33:54Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Pozostaje jeszcze rozważyć sytuację */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Test serii Walda-Wolfowitza=&lt;br /&gt;
&lt;br /&gt;
Serią nazywamy ciąg jednakowych elementów.  W poniższym przykładzie&lt;br /&gt;
mamy sześć serii (po trzy serie zer i jedynek):&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Nie jest to oczywiście jedyna kombinacja kolejności pięciu zer i pięciu jedynek,&lt;br /&gt;
dająca w wyniku sześć serii. Ponieważ każda pojedyncza kombinacja jest jednakowo&lt;br /&gt;
prawdopodobna (jeśli jest wynikiem niezależnych losowań), to prawdopodobieństwo&lt;br /&gt;
uzyskania danej liczby serii będzie tym większe, im więcej różnych kombinacji&lt;br /&gt;
będzie dawać w wyniku tę liczbę serii. Sformułujmy więc problem ogólnie:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
Mamy &amp;lt;math&amp;gt;N=n_1+n_2&amp;lt;/math&amp;gt; elementów, w tym &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek. &lt;br /&gt;
Na ile sposobów możemy je rozłożyć, aby uzyskać &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii? &lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;kod &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
import matplotlib.pyplot as plt&lt;br /&gt;
import numpy&lt;br /&gt;
&lt;br /&gt;
n1=25 # zera&lt;br /&gt;
n2=30 # jedynki&lt;br /&gt;
n=n1+n2 &lt;br /&gt;
ile_losowan=1000&lt;br /&gt;
&lt;br /&gt;
wynik=numpy.zeros(ile_losowan, dtype=numpy.int32)&lt;br /&gt;
&lt;br /&gt;
for i in range(0, ile_losowan):&lt;br /&gt;
	losowanie=numpy.zeros(n, dtype=numpy.int32)&lt;br /&gt;
	while numpy.sum(losowanie) &amp;lt; n2:&lt;br /&gt;
		losowanie[numpy.random.randint(0,n)]=1&lt;br /&gt;
	#print(numpy.array_str(losowanie,max_line_width=numpy.inf).replace(&amp;quot; &amp;quot;,&amp;quot;&amp;quot;), &amp;quot;\n&amp;quot;)&lt;br /&gt;
	zmiany=1&lt;br /&gt;
	for j in range(1, n):&lt;br /&gt;
		if(losowanie[j] != losowanie[j-1]):&lt;br /&gt;
			zmiany += 1&lt;br /&gt;
	wynik[i]=zmiany&lt;br /&gt;
&lt;br /&gt;
plt.hist(wynik, bins=range(0,n))&lt;br /&gt;
plt.xlabel(&amp;quot;$k$&amp;quot;)&lt;br /&gt;
plt.ylabel(&amp;quot;$P(k)$&amp;quot;)&lt;br /&gt;
plt.title(f&amp;quot;$n_1$ = {n1}, $n_2$ = {n2}, {ile_losowan} losowań&amp;quot;)&lt;br /&gt;
plt.show()&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;animacja dla 1000 &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|[[Plik:Testserii1000.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^3&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
[[Plik:Testserii.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^5&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.log.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek (skala logarytmiczna).]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
[[Plik:Testserii6.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^6&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Wyprowadzenie analityczne==&lt;br /&gt;
&lt;br /&gt;
Wróćmy do prostszego przykładu, zawierającego pięć jedynek i pięć zer. &lt;br /&gt;
Podział na serie możemy interpretować jak przypisanie liczbom od jeden do dziesięciu &lt;br /&gt;
(pozycje w ciągu) zera lub jedynki:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|2&lt;br /&gt;
|3&lt;br /&gt;
|4&lt;br /&gt;
|5&lt;br /&gt;
|6&lt;br /&gt;
|7&lt;br /&gt;
|8&lt;br /&gt;
|9&lt;br /&gt;
|10&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inaczej mówiąc, konkretny ciąg &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; zer i jedynek wyznaczony&lt;br /&gt;
jest przez wylosowanie spośród liczb od jednego do &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; tych&lt;br /&gt;
liczb, którym mają być przypisane jedynki (pozostałym będą przypisane&lt;br /&gt;
zera &amp;amp;mdash; lub odwrotnie). Czyli wszystkich możliwych ciągów&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek będzie tyle, na ile&lt;br /&gt;
sposobów można wylosować &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt;.  Policzmy: pozycję (czyli numer, wypisany w dolnym&lt;br /&gt;
rzędzie powyższej tabeli) pierwszego elementu losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; możliwości, drugiego &amp;amp;mdash; spośród &amp;lt;math&amp;gt;N-1&amp;lt;/math&amp;gt;&lt;br /&gt;
pozostałych możliwości (jedna pozycja jest już zajęta), i tak dalej,&lt;br /&gt;
aż pozycję ostatniego z &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; pozostałych możliwości.  Liczba możliwych wyników&lt;br /&gt;
będzie iloczynem tych wszystkich liczb, czyli wyniesie&lt;br /&gt;
&amp;lt;math&amp;gt;N\cdot(N-1)\cdot(N-2)\cdot\ \dots\ \cdot (N-n_1) =&lt;br /&gt;
N!/(N-n_1)!&amp;lt;/math&amp;gt; Skoro wszystkie jedynki są jednakowe i nie&lt;br /&gt;
rozróżniamy wyników różniących się ich kolejnością, to wynik ten&lt;br /&gt;
musimy podzielić przez liczbę różnych ustawień kolejności elementów&lt;br /&gt;
(liczbę permutacji) zbioru &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt;-elementowego. Wyniesie ona&lt;br /&gt;
&amp;lt;math&amp;gt;n_1\cdot(n_1-1)\cdot\ \dots\ \cdot 1&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&amp;lt;math&amp;gt;n_1!&amp;lt;/math&amp;gt; Ostatecznie jako liczbę różnych ustawień&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; jedynek dostajemy:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{N!}{(N-n_1)!\ n_1!} = \binom{N}{n_1}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jest to znany z [[WnioskowanieStatystyczne/Rozklady-przyklady#Rozkład dwumianowy|rozdziału o rozkładzie dwumianowym]] symbol Newtona &amp;lt;math&amp;gt;\binom{N}{n_1}&amp;lt;/math&amp;gt;. Jego własności&lt;br /&gt;
symetrii zgadzają się z sytuacją, w ktorej &amp;quot;wybierać&amp;quot; możemy albo &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer&lt;br /&gt;
albo &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\binom{N}{n_1}=\binom{n_1+n_2}{n_1}=\frac{(n_1+n_2)!}{n_1! n_2!}=\binom{n_1+n_2}{n_2}=\binom{N}{n_2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje policzyć, ile z tych możliwości (przy ustalonych liczbach&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer) wygeneruje ciąg&lt;br /&gt;
wyników, w którym będzie dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest parzysta===&lt;br /&gt;
będziemy mieć tyle samo serii jedynek i zer (po &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt;). Aby rozmieścić &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek w &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt; seriach musimy wyznaczyć &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; punktów podziału na serie; w powyższym przykładzie będą to (kropki) '''1.1.111''' &amp;amp;mdash; było 6 serii, więc mamy 2 punkty podziału. Inaczej losujemy spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych punktów podziału &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; podziałów, jak wynika z liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;. Daje to &amp;lt;math&amp;gt;\binom{n_1-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości. W miejsca podziału (oznaczone kropkami) wstawiamy serie zer; analogicznie możemy to zrobić na &amp;lt;math&amp;gt;\binom{n_2-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości (w przykładzie: '''00.00.0'''). Liczbę tę należy pomnożyć przez dwa ze względu na możliwość zamiany miejscami zer i jedynek. Prawdopodobieństwo danej liczby serii dostaniemy &amp;amp;mdash; zgodnie z klasyczną definicją prawdopodobieństwa &amp;amp;mdash; dzieląc liczbę wszystkich tych kombinacji &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer, które generują dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, przez liczbę wszystkich możliwych kombinacji: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle &lt;br /&gt;
P=\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}} { \binom{N}{n_1}} \qquad\textrm{dla }\ k\ \textrm{parzystych.} &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest nieparzysta=== &lt;br /&gt;
którychś serii &amp;amp;mdash; zer lub jedynek &amp;amp;mdash; będzie dokładnie o jeden więcej. &amp;lt;equation id=&amp;quot;eq:127&amp;quot;&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{000}\underline{111}&lt;br /&gt;
        &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii jedynek''', mamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii zer i &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii jedynek. &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek dzielimy na &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii, czyli wyznaczamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; punktów podziału spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych &amp;amp;mdash; daje to &amp;lt;math&amp;gt;\binom{n_1-1}{(k-1)/2}&amp;lt;/math&amp;gt; możliwości. Z kolei &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer dzielimy na &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii, co daje &amp;lt;math&amp;gt;\binom{n_2-1}{(k-1)/2-1}&amp;lt;/math&amp;gt; możliwości. Iloczyn tych dwóch wielkości określa liczbę możliwości dających &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, jeśli więcej jest serii jedynek: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:128&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii zer''', to na drodze analogicznego rozumowania dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:129&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prawdopodobieństwo dla przypadku nieparzystej liczby serii będzie sumą tych dwóch wielkości, podzieloną, jak w przypadku parzystego &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;, przez liczbę wszystkich możliwości:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:130&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
P=\frac{\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}}&lt;br /&gt;
{{\binom{N}{n_1}}} &lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
dla &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; nieparzystych.&lt;br /&gt;
&lt;br /&gt;
===Pozostaje jeszcze rozważyć sytuację===&lt;br /&gt;
w której liczba serii jest nieparzysta, jak w punkcie 2., ale mniej liczne&lt;br /&gt;
elementy rozłożone są wyłącznie w serie jednoelementowe, na przykład&lt;br /&gt;
001010010100, czyli liczba serii wynosi &amp;lt;math&amp;gt;2n+1&amp;lt;/math&amp;gt;, gdzie&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jest liczbą mniej licznych elementów (w tym&lt;br /&gt;
przykładzie jedynek). Wtedy znika jeden ze składników sumy z licznika&lt;br /&gt;
powyższego równania, gdyż zachodzić może wyłącznie&lt;br /&gt;
przypadek 2.1 lub 2.2.&lt;br /&gt;
&lt;br /&gt;
Ostatecznie dostajemy następujący wzór na&lt;br /&gt;
prawdopodobieństwo wystąpienia &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii w próbie, w której&lt;br /&gt;
drogą niezależnych losowań wylosowano &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i&lt;br /&gt;
&amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:131&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
P(k\mid n_1, n_2)=\begin{cases} &lt;br /&gt;
\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}}&lt;br /&gt;
{ \binom{N}{n_1}} &lt;br /&gt;
\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ parzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}&lt;br /&gt;
\\&lt;br /&gt;
\quad\qquad\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ nieparzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_\textrm{max}-1}{(k-1)/2} &lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{(k-1)/2}}}&lt;br /&gt;
\ \quad\qquad\qquad\qquad\textrm{dla }\ k\ \textrm{ nieparzystych i }  &lt;br /&gt;
n_\textrm{min}=\frac{k-1}{2}, &lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;n_\textrm{min}=\min(n_1, n_2)&amp;lt;/math&amp;gt; i&lt;br /&gt;
&amp;lt;math&amp;gt;n_\textrm{max}=\max(n_1, n_2)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wzór ten określa rozkład statystyki, będącej liczbą serii w próbie złożonej &lt;br /&gt;
z dowolnych dwóch rodzajów elementów (oznaczanych powyżej jako '''0''' i '''1'''). Dzięki niemu możemy wreszcie skonstruować kompletny test hipotezy&lt;br /&gt;
mówiącej, że dany ciąg jest wynikiem niezależnych losowań. Przypomnijmy dane &lt;br /&gt;
z [[WnioskowanieStatystyczne/Testy_nieprametryczne|przykładu o nieuczciwym ankieterze]]:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
'''1101101000101001011101101111010110010101001010100011101'''&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W ciągu tym występuje 25 zer i 30 jedynek, układających się w 37&lt;br /&gt;
serii.  Na podstawie wzoru &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; możemy obliczyć&lt;br /&gt;
rozkład prawdopodobieństwa wylosowania ciągu 25 zer i 30 jedynek, w&lt;br /&gt;
którym będzie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii. Możliwe wartości &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;&lt;br /&gt;
będą w tym przypadku zawierać się między 2 (jedna seria zer i jedna&lt;br /&gt;
jedynek) a 51 (ponieważ mniej jest zer, największa liczba serii&lt;br /&gt;
odpowiada przypadkowi, w którym wszystkie zera układają się w serie&lt;br /&gt;
jednoelementowe). Rozkład prawdopodobieństwa dla tego przypadku&lt;br /&gt;
przedstawia rysunek &amp;lt;xr id=&amp;quot;fig:132&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:serie.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Rozkład prawdopodobieństw &amp;lt;math&amp;gt;P(k)&amp;lt;/math&amp;gt; liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w niezależnym losowaniu 30 zer i 25 jedynek.]]&lt;br /&gt;
&lt;br /&gt;
Zastosowania testów opartych na tej statystyce nie ograniczają się do&lt;br /&gt;
analizy ciągów zer i jedynek (lub innych dwóch elementów). Poniżej&lt;br /&gt;
przedstawiamy jeszcze dwa testy korzystające ze statystyki &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Testowanie, czy próba jest wynikiem niezależnych losowań==&lt;br /&gt;
&lt;br /&gt;
Podobny problem &amp;amp;mdash; pytanie, czy elementy próby są wynikiem&lt;br /&gt;
niezależnych losowań &amp;amp;mdash; występuje np. przy testowaniu generatorów&lt;br /&gt;
liczb losowych ([[WnioskowanieStatystyczne/Z_komputerem#cite_note-0|będących kluczowym&lt;br /&gt;
elementem metod opisywanych w pierwszej części książki]]). Jednak w&lt;br /&gt;
tej sytuacji mamy do czynienia z ciągiem dowolnych liczb, a nie dwóch&lt;br /&gt;
symboli.&lt;br /&gt;
&lt;br /&gt;
Pomysł jest prosty: ciąg wyników wyrażających się dowolnymi liczbami&lt;br /&gt;
możemy zamienić na ciąg zer i jedynek, wybierając próg &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;&lt;br /&gt;
i przypisując wynikom większym od &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; jedynkę, a mniejszym&lt;br /&gt;
&amp;amp;mdash; zero. Jeśli chcemy mieć tyle samo zer i jedynek, jako&lt;br /&gt;
&amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; możemy wziąć [[WnioskowanieStatystyczne/Momenty#Mediana|medianę]] próby. Do&lt;br /&gt;
takiej serii możemy już z powodzeniem stosować opisany w poprzednim&lt;br /&gt;
rozdziale test oparty na statystyce &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &amp;amp;mdash;&lt;br /&gt;
oczywiście zachowując kolejność elementów w próbie.&lt;br /&gt;
&lt;br /&gt;
==Test zgodności rozkładów w dwóch populacjach==&lt;br /&gt;
&lt;br /&gt;
Mamy dwie próby. Hipoteza zerowa mówi, że zostały wylosowane z tego&lt;br /&gt;
samego rozkładu. Ciąg zer i jedynek tworzymy w następujący sposób:&lt;br /&gt;
&lt;br /&gt;
Elementy obu prób ustawiamy w jeden ciąg w kolejności od najmniejszej&lt;br /&gt;
do największej&amp;lt;ref&amp;gt;Jeśli wartości losowane są z rozkładów ciągłych, to&lt;br /&gt;
wystąpienie jednakowych wartości jest teoretycznie niemożliwe. W&lt;br /&gt;
praktyce wartości zapisujemy ze skończoną dokładnością; zwykle&lt;br /&gt;
przyjmuje się, że jednakowe wartości można pominąć.&amp;lt;/ref&amp;gt;.  Elementom&lt;br /&gt;
pierwszej próby przypisujemy jedynki, a drugiej &amp;amp;mdash; zera.&lt;br /&gt;
&lt;br /&gt;
Jeśli obie próby losowano z tej samej populacji, to liczba serii w tak określonym&lt;br /&gt;
ciągu podlega statystyce &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;, czyli ponownie możemy&lt;br /&gt;
stosować test Walda-Wolfowitza.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
---------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11707</id>
		<title>WnioskowanieStatystyczne/Test serii</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11707"/>
		<updated>2026-03-29T14:32:42Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Jeśli liczba serii k jest nieparzysta */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Test serii Walda-Wolfowitza=&lt;br /&gt;
&lt;br /&gt;
Serią nazywamy ciąg jednakowych elementów.  W poniższym przykładzie&lt;br /&gt;
mamy sześć serii (po trzy serie zer i jedynek):&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Nie jest to oczywiście jedyna kombinacja kolejności pięciu zer i pięciu jedynek,&lt;br /&gt;
dająca w wyniku sześć serii. Ponieważ każda pojedyncza kombinacja jest jednakowo&lt;br /&gt;
prawdopodobna (jeśli jest wynikiem niezależnych losowań), to prawdopodobieństwo&lt;br /&gt;
uzyskania danej liczby serii będzie tym większe, im więcej różnych kombinacji&lt;br /&gt;
będzie dawać w wyniku tę liczbę serii. Sformułujmy więc problem ogólnie:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
Mamy &amp;lt;math&amp;gt;N=n_1+n_2&amp;lt;/math&amp;gt; elementów, w tym &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek. &lt;br /&gt;
Na ile sposobów możemy je rozłożyć, aby uzyskać &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii? &lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;kod &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
import matplotlib.pyplot as plt&lt;br /&gt;
import numpy&lt;br /&gt;
&lt;br /&gt;
n1=25 # zera&lt;br /&gt;
n2=30 # jedynki&lt;br /&gt;
n=n1+n2 &lt;br /&gt;
ile_losowan=1000&lt;br /&gt;
&lt;br /&gt;
wynik=numpy.zeros(ile_losowan, dtype=numpy.int32)&lt;br /&gt;
&lt;br /&gt;
for i in range(0, ile_losowan):&lt;br /&gt;
	losowanie=numpy.zeros(n, dtype=numpy.int32)&lt;br /&gt;
	while numpy.sum(losowanie) &amp;lt; n2:&lt;br /&gt;
		losowanie[numpy.random.randint(0,n)]=1&lt;br /&gt;
	#print(numpy.array_str(losowanie,max_line_width=numpy.inf).replace(&amp;quot; &amp;quot;,&amp;quot;&amp;quot;), &amp;quot;\n&amp;quot;)&lt;br /&gt;
	zmiany=1&lt;br /&gt;
	for j in range(1, n):&lt;br /&gt;
		if(losowanie[j] != losowanie[j-1]):&lt;br /&gt;
			zmiany += 1&lt;br /&gt;
	wynik[i]=zmiany&lt;br /&gt;
&lt;br /&gt;
plt.hist(wynik, bins=range(0,n))&lt;br /&gt;
plt.xlabel(&amp;quot;$k$&amp;quot;)&lt;br /&gt;
plt.ylabel(&amp;quot;$P(k)$&amp;quot;)&lt;br /&gt;
plt.title(f&amp;quot;$n_1$ = {n1}, $n_2$ = {n2}, {ile_losowan} losowań&amp;quot;)&lt;br /&gt;
plt.show()&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;animacja dla 1000 &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|[[Plik:Testserii1000.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^3&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
[[Plik:Testserii.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^5&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.log.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek (skala logarytmiczna).]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
[[Plik:Testserii6.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^6&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Wyprowadzenie analityczne==&lt;br /&gt;
&lt;br /&gt;
Wróćmy do prostszego przykładu, zawierającego pięć jedynek i pięć zer. &lt;br /&gt;
Podział na serie możemy interpretować jak przypisanie liczbom od jeden do dziesięciu &lt;br /&gt;
(pozycje w ciągu) zera lub jedynki:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|2&lt;br /&gt;
|3&lt;br /&gt;
|4&lt;br /&gt;
|5&lt;br /&gt;
|6&lt;br /&gt;
|7&lt;br /&gt;
|8&lt;br /&gt;
|9&lt;br /&gt;
|10&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inaczej mówiąc, konkretny ciąg &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; zer i jedynek wyznaczony&lt;br /&gt;
jest przez wylosowanie spośród liczb od jednego do &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; tych&lt;br /&gt;
liczb, którym mają być przypisane jedynki (pozostałym będą przypisane&lt;br /&gt;
zera &amp;amp;mdash; lub odwrotnie). Czyli wszystkich możliwych ciągów&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek będzie tyle, na ile&lt;br /&gt;
sposobów można wylosować &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt;.  Policzmy: pozycję (czyli numer, wypisany w dolnym&lt;br /&gt;
rzędzie powyższej tabeli) pierwszego elementu losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; możliwości, drugiego &amp;amp;mdash; spośród &amp;lt;math&amp;gt;N-1&amp;lt;/math&amp;gt;&lt;br /&gt;
pozostałych możliwości (jedna pozycja jest już zajęta), i tak dalej,&lt;br /&gt;
aż pozycję ostatniego z &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; pozostałych możliwości.  Liczba możliwych wyników&lt;br /&gt;
będzie iloczynem tych wszystkich liczb, czyli wyniesie&lt;br /&gt;
&amp;lt;math&amp;gt;N\cdot(N-1)\cdot(N-2)\cdot\ \dots\ \cdot (N-n_1) =&lt;br /&gt;
N!/(N-n_1)!&amp;lt;/math&amp;gt; Skoro wszystkie jedynki są jednakowe i nie&lt;br /&gt;
rozróżniamy wyników różniących się ich kolejnością, to wynik ten&lt;br /&gt;
musimy podzielić przez liczbę różnych ustawień kolejności elementów&lt;br /&gt;
(liczbę permutacji) zbioru &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt;-elementowego. Wyniesie ona&lt;br /&gt;
&amp;lt;math&amp;gt;n_1\cdot(n_1-1)\cdot\ \dots\ \cdot 1&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&amp;lt;math&amp;gt;n_1!&amp;lt;/math&amp;gt; Ostatecznie jako liczbę różnych ustawień&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; jedynek dostajemy:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{N!}{(N-n_1)!\ n_1!} = \binom{N}{n_1}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jest to znany z [[WnioskowanieStatystyczne/Rozklady-przyklady#Rozkład dwumianowy|rozdziału o rozkładzie dwumianowym]] symbol Newtona &amp;lt;math&amp;gt;\binom{N}{n_1}&amp;lt;/math&amp;gt;. Jego własności&lt;br /&gt;
symetrii zgadzają się z sytuacją, w ktorej &amp;quot;wybierać&amp;quot; możemy albo &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer&lt;br /&gt;
albo &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\binom{N}{n_1}=\binom{n_1+n_2}{n_1}=\frac{(n_1+n_2)!}{n_1! n_2!}=\binom{n_1+n_2}{n_2}=\binom{N}{n_2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje policzyć, ile z tych możliwości (przy ustalonych liczbach&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer) wygeneruje ciąg&lt;br /&gt;
wyników, w którym będzie dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest parzysta===&lt;br /&gt;
będziemy mieć tyle samo serii jedynek i zer (po &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt;). Aby rozmieścić &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek w &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt; seriach musimy wyznaczyć &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; punktów podziału na serie; w powyższym przykładzie będą to (kropki) '''1.1.111''' &amp;amp;mdash; było 6 serii, więc mamy 2 punkty podziału. Inaczej losujemy spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych punktów podziału &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; podziałów, jak wynika z liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;. Daje to &amp;lt;math&amp;gt;\binom{n_1-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości. W miejsca podziału (oznaczone kropkami) wstawiamy serie zer; analogicznie możemy to zrobić na &amp;lt;math&amp;gt;\binom{n_2-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości (w przykładzie: '''00.00.0'''). Liczbę tę należy pomnożyć przez dwa ze względu na możliwość zamiany miejscami zer i jedynek. Prawdopodobieństwo danej liczby serii dostaniemy &amp;amp;mdash; zgodnie z klasyczną definicją prawdopodobieństwa &amp;amp;mdash; dzieląc liczbę wszystkich tych kombinacji &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer, które generują dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, przez liczbę wszystkich możliwych kombinacji: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle &lt;br /&gt;
P=\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}} { \binom{N}{n_1}} \qquad\textrm{dla }\ k\ \textrm{parzystych.} &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest nieparzysta=== &lt;br /&gt;
którychś serii &amp;amp;mdash; zer lub jedynek &amp;amp;mdash; będzie dokładnie o jeden więcej. &amp;lt;equation id=&amp;quot;eq:127&amp;quot;&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{000}\underline{111}&lt;br /&gt;
        &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii jedynek''', mamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii zer i &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii jedynek. &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek dzielimy na &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii, czyli wyznaczamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; punktów podziału spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych &amp;amp;mdash; daje to &amp;lt;math&amp;gt;\binom{n_1-1}{(k-1)/2}&amp;lt;/math&amp;gt; możliwości. Z kolei &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer dzielimy na &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii, co daje &amp;lt;math&amp;gt;\binom{n_2-1}{(k-1)/2-1}&amp;lt;/math&amp;gt; możliwości. Iloczyn tych dwóch wielkości określa liczbę możliwości dających &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, jeśli więcej jest serii jedynek: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:128&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii zer''', to na drodze analogicznego rozumowania dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:129&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prawdopodobieństwo dla przypadku nieparzystej liczby serii będzie sumą tych dwóch wielkości, podzieloną, jak w przypadku parzystego &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;, przez liczbę wszystkich możliwości:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:130&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
P=\frac{\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}}&lt;br /&gt;
{{\binom{N}{n_1}}} &lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
dla &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; nieparzystych.&lt;br /&gt;
&lt;br /&gt;
===Pozostaje jeszcze rozważyć sytuację===&lt;br /&gt;
w której liczba serii jest nieparzysta, jak w punkcie 2., ale mniej liczne&lt;br /&gt;
elementy rozłożone są wyłącznie w serie jednoelementowe, na przykład&lt;br /&gt;
001010010100, czyli liczba serii wynosi &amp;lt;math&amp;gt;2n+1&amp;lt;/math&amp;gt;, gdzie&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jest liczbą mniej licznych elementów (w tym&lt;br /&gt;
przykładzie jedynek). Wtedy znika jeden ze składników sumy z licznika&lt;br /&gt;
powyższego równania, gdyż zachodzić może wyłącznie&lt;br /&gt;
przypadek 2.1 lub 2.2.&lt;br /&gt;
&lt;br /&gt;
Ostatecznie dostajemy następujący wzór na&lt;br /&gt;
prawdopodobieństwo wystąpienia &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii w próbie, w której&lt;br /&gt;
drogą niezależnych losowań wylosowano &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i&lt;br /&gt;
&amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:131&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
P(k\mid n_1, n_2)=\begin{cases} &lt;br /&gt;
\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}}&lt;br /&gt;
{ \binom{N}{n_1}} &lt;br /&gt;
\quad \textrm{dla }\ k\ \textrm{ parzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}&lt;br /&gt;
\\&lt;br /&gt;
\quad\qquad\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ nieparzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_\textrm{max}-1}{(k-1)/2} &lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{(k-1)/2}}}&lt;br /&gt;
\ \quad\qquad\qquad\textrm{dla }\ k\ \textrm{ nieparzystych i }  &lt;br /&gt;
n_\textrm{min}=\frac{k-1}{2}, &lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;n_\textrm{min}=\min(n_1, n_2)&amp;lt;/math&amp;gt; i&lt;br /&gt;
&amp;lt;math&amp;gt;n_\textrm{max}=\max(n_1, n_2)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wzór ten określa rozkład statystyki, będącej liczbą serii w próbie złożonej &lt;br /&gt;
z dowolnych dwóch rodzajów elementów (oznaczanych powyżej jako '''0''' i '''1'''). Dzięki niemu możemy wreszcie skonstruować kompletny test hipotezy&lt;br /&gt;
mówiącej, że dany ciąg jest wynikiem niezależnych losowań. Przypomnijmy dane &lt;br /&gt;
z [[WnioskowanieStatystyczne/Testy_nieprametryczne|przykładu o nieuczciwym ankieterze]]:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
'''1101101000101001011101101111010110010101001010100011101'''&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W ciągu tym występuje 25 zer i 30 jedynek, układających się w 37&lt;br /&gt;
serii.  Na podstawie wzoru &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; możemy obliczyć&lt;br /&gt;
rozkład prawdopodobieństwa wylosowania ciągu 25 zer i 30 jedynek, w&lt;br /&gt;
którym będzie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii. Możliwe wartości &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;&lt;br /&gt;
będą w tym przypadku zawierać się między 2 (jedna seria zer i jedna&lt;br /&gt;
jedynek) a 51 (ponieważ mniej jest zer, największa liczba serii&lt;br /&gt;
odpowiada przypadkowi, w którym wszystkie zera układają się w serie&lt;br /&gt;
jednoelementowe). Rozkład prawdopodobieństwa dla tego przypadku&lt;br /&gt;
przedstawia rysunek &amp;lt;xr id=&amp;quot;fig:132&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:serie.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Rozkład prawdopodobieństw &amp;lt;math&amp;gt;P(k)&amp;lt;/math&amp;gt; liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w niezależnym losowaniu 30 zer i 25 jedynek.]]&lt;br /&gt;
&lt;br /&gt;
Zastosowania testów opartych na tej statystyce nie ograniczają się do&lt;br /&gt;
analizy ciągów zer i jedynek (lub innych dwóch elementów). Poniżej&lt;br /&gt;
przedstawiamy jeszcze dwa testy korzystające ze statystyki &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Testowanie, czy próba jest wynikiem niezależnych losowań==&lt;br /&gt;
&lt;br /&gt;
Podobny problem &amp;amp;mdash; pytanie, czy elementy próby są wynikiem&lt;br /&gt;
niezależnych losowań &amp;amp;mdash; występuje np. przy testowaniu generatorów&lt;br /&gt;
liczb losowych ([[WnioskowanieStatystyczne/Z_komputerem#cite_note-0|będących kluczowym&lt;br /&gt;
elementem metod opisywanych w pierwszej części książki]]). Jednak w&lt;br /&gt;
tej sytuacji mamy do czynienia z ciągiem dowolnych liczb, a nie dwóch&lt;br /&gt;
symboli.&lt;br /&gt;
&lt;br /&gt;
Pomysł jest prosty: ciąg wyników wyrażających się dowolnymi liczbami&lt;br /&gt;
możemy zamienić na ciąg zer i jedynek, wybierając próg &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;&lt;br /&gt;
i przypisując wynikom większym od &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; jedynkę, a mniejszym&lt;br /&gt;
&amp;amp;mdash; zero. Jeśli chcemy mieć tyle samo zer i jedynek, jako&lt;br /&gt;
&amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; możemy wziąć [[WnioskowanieStatystyczne/Momenty#Mediana|medianę]] próby. Do&lt;br /&gt;
takiej serii możemy już z powodzeniem stosować opisany w poprzednim&lt;br /&gt;
rozdziale test oparty na statystyce &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &amp;amp;mdash;&lt;br /&gt;
oczywiście zachowując kolejność elementów w próbie.&lt;br /&gt;
&lt;br /&gt;
==Test zgodności rozkładów w dwóch populacjach==&lt;br /&gt;
&lt;br /&gt;
Mamy dwie próby. Hipoteza zerowa mówi, że zostały wylosowane z tego&lt;br /&gt;
samego rozkładu. Ciąg zer i jedynek tworzymy w następujący sposób:&lt;br /&gt;
&lt;br /&gt;
Elementy obu prób ustawiamy w jeden ciąg w kolejności od najmniejszej&lt;br /&gt;
do największej&amp;lt;ref&amp;gt;Jeśli wartości losowane są z rozkładów ciągłych, to&lt;br /&gt;
wystąpienie jednakowych wartości jest teoretycznie niemożliwe. W&lt;br /&gt;
praktyce wartości zapisujemy ze skończoną dokładnością; zwykle&lt;br /&gt;
przyjmuje się, że jednakowe wartości można pominąć.&amp;lt;/ref&amp;gt;.  Elementom&lt;br /&gt;
pierwszej próby przypisujemy jedynki, a drugiej &amp;amp;mdash; zera.&lt;br /&gt;
&lt;br /&gt;
Jeśli obie próby losowano z tej samej populacji, to liczba serii w tak określonym&lt;br /&gt;
ciągu podlega statystyce &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;, czyli ponownie możemy&lt;br /&gt;
stosować test Walda-Wolfowitza.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
---------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11706</id>
		<title>WnioskowanieStatystyczne/Test serii</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11706"/>
		<updated>2026-03-29T14:30:42Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Jeśli liczba serii k jest nieparzysta */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Test serii Walda-Wolfowitza=&lt;br /&gt;
&lt;br /&gt;
Serią nazywamy ciąg jednakowych elementów.  W poniższym przykładzie&lt;br /&gt;
mamy sześć serii (po trzy serie zer i jedynek):&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Nie jest to oczywiście jedyna kombinacja kolejności pięciu zer i pięciu jedynek,&lt;br /&gt;
dająca w wyniku sześć serii. Ponieważ każda pojedyncza kombinacja jest jednakowo&lt;br /&gt;
prawdopodobna (jeśli jest wynikiem niezależnych losowań), to prawdopodobieństwo&lt;br /&gt;
uzyskania danej liczby serii będzie tym większe, im więcej różnych kombinacji&lt;br /&gt;
będzie dawać w wyniku tę liczbę serii. Sformułujmy więc problem ogólnie:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
Mamy &amp;lt;math&amp;gt;N=n_1+n_2&amp;lt;/math&amp;gt; elementów, w tym &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek. &lt;br /&gt;
Na ile sposobów możemy je rozłożyć, aby uzyskać &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii? &lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;kod &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
import matplotlib.pyplot as plt&lt;br /&gt;
import numpy&lt;br /&gt;
&lt;br /&gt;
n1=25 # zera&lt;br /&gt;
n2=30 # jedynki&lt;br /&gt;
n=n1+n2 &lt;br /&gt;
ile_losowan=1000&lt;br /&gt;
&lt;br /&gt;
wynik=numpy.zeros(ile_losowan, dtype=numpy.int32)&lt;br /&gt;
&lt;br /&gt;
for i in range(0, ile_losowan):&lt;br /&gt;
	losowanie=numpy.zeros(n, dtype=numpy.int32)&lt;br /&gt;
	while numpy.sum(losowanie) &amp;lt; n2:&lt;br /&gt;
		losowanie[numpy.random.randint(0,n)]=1&lt;br /&gt;
	#print(numpy.array_str(losowanie,max_line_width=numpy.inf).replace(&amp;quot; &amp;quot;,&amp;quot;&amp;quot;), &amp;quot;\n&amp;quot;)&lt;br /&gt;
	zmiany=1&lt;br /&gt;
	for j in range(1, n):&lt;br /&gt;
		if(losowanie[j] != losowanie[j-1]):&lt;br /&gt;
			zmiany += 1&lt;br /&gt;
	wynik[i]=zmiany&lt;br /&gt;
&lt;br /&gt;
plt.hist(wynik, bins=range(0,n))&lt;br /&gt;
plt.xlabel(&amp;quot;$k$&amp;quot;)&lt;br /&gt;
plt.ylabel(&amp;quot;$P(k)$&amp;quot;)&lt;br /&gt;
plt.title(f&amp;quot;$n_1$ = {n1}, $n_2$ = {n2}, {ile_losowan} losowań&amp;quot;)&lt;br /&gt;
plt.show()&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;animacja dla 1000 &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|[[Plik:Testserii1000.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^3&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
[[Plik:Testserii.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^5&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.log.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek (skala logarytmiczna).]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
[[Plik:Testserii6.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^6&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Wyprowadzenie analityczne==&lt;br /&gt;
&lt;br /&gt;
Wróćmy do prostszego przykładu, zawierającego pięć jedynek i pięć zer. &lt;br /&gt;
Podział na serie możemy interpretować jak przypisanie liczbom od jeden do dziesięciu &lt;br /&gt;
(pozycje w ciągu) zera lub jedynki:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|2&lt;br /&gt;
|3&lt;br /&gt;
|4&lt;br /&gt;
|5&lt;br /&gt;
|6&lt;br /&gt;
|7&lt;br /&gt;
|8&lt;br /&gt;
|9&lt;br /&gt;
|10&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inaczej mówiąc, konkretny ciąg &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; zer i jedynek wyznaczony&lt;br /&gt;
jest przez wylosowanie spośród liczb od jednego do &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; tych&lt;br /&gt;
liczb, którym mają być przypisane jedynki (pozostałym będą przypisane&lt;br /&gt;
zera &amp;amp;mdash; lub odwrotnie). Czyli wszystkich możliwych ciągów&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek będzie tyle, na ile&lt;br /&gt;
sposobów można wylosować &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt;.  Policzmy: pozycję (czyli numer, wypisany w dolnym&lt;br /&gt;
rzędzie powyższej tabeli) pierwszego elementu losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; możliwości, drugiego &amp;amp;mdash; spośród &amp;lt;math&amp;gt;N-1&amp;lt;/math&amp;gt;&lt;br /&gt;
pozostałych możliwości (jedna pozycja jest już zajęta), i tak dalej,&lt;br /&gt;
aż pozycję ostatniego z &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; pozostałych możliwości.  Liczba możliwych wyników&lt;br /&gt;
będzie iloczynem tych wszystkich liczb, czyli wyniesie&lt;br /&gt;
&amp;lt;math&amp;gt;N\cdot(N-1)\cdot(N-2)\cdot\ \dots\ \cdot (N-n_1) =&lt;br /&gt;
N!/(N-n_1)!&amp;lt;/math&amp;gt; Skoro wszystkie jedynki są jednakowe i nie&lt;br /&gt;
rozróżniamy wyników różniących się ich kolejnością, to wynik ten&lt;br /&gt;
musimy podzielić przez liczbę różnych ustawień kolejności elementów&lt;br /&gt;
(liczbę permutacji) zbioru &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt;-elementowego. Wyniesie ona&lt;br /&gt;
&amp;lt;math&amp;gt;n_1\cdot(n_1-1)\cdot\ \dots\ \cdot 1&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&amp;lt;math&amp;gt;n_1!&amp;lt;/math&amp;gt; Ostatecznie jako liczbę różnych ustawień&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; jedynek dostajemy:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{N!}{(N-n_1)!\ n_1!} = \binom{N}{n_1}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jest to znany z [[WnioskowanieStatystyczne/Rozklady-przyklady#Rozkład dwumianowy|rozdziału o rozkładzie dwumianowym]] symbol Newtona &amp;lt;math&amp;gt;\binom{N}{n_1}&amp;lt;/math&amp;gt;. Jego własności&lt;br /&gt;
symetrii zgadzają się z sytuacją, w ktorej &amp;quot;wybierać&amp;quot; możemy albo &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer&lt;br /&gt;
albo &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\binom{N}{n_1}=\binom{n_1+n_2}{n_1}=\frac{(n_1+n_2)!}{n_1! n_2!}=\binom{n_1+n_2}{n_2}=\binom{N}{n_2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje policzyć, ile z tych możliwości (przy ustalonych liczbach&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer) wygeneruje ciąg&lt;br /&gt;
wyników, w którym będzie dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest parzysta===&lt;br /&gt;
będziemy mieć tyle samo serii jedynek i zer (po &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt;). Aby rozmieścić &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek w &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt; seriach musimy wyznaczyć &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; punktów podziału na serie; w powyższym przykładzie będą to (kropki) '''1.1.111''' &amp;amp;mdash; było 6 serii, więc mamy 2 punkty podziału. Inaczej losujemy spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych punktów podziału &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; podziałów, jak wynika z liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;. Daje to &amp;lt;math&amp;gt;\binom{n_1-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości. W miejsca podziału (oznaczone kropkami) wstawiamy serie zer; analogicznie możemy to zrobić na &amp;lt;math&amp;gt;\binom{n_2-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości (w przykładzie: '''00.00.0'''). Liczbę tę należy pomnożyć przez dwa ze względu na możliwość zamiany miejscami zer i jedynek. Prawdopodobieństwo danej liczby serii dostaniemy &amp;amp;mdash; zgodnie z klasyczną definicją prawdopodobieństwa &amp;amp;mdash; dzieląc liczbę wszystkich tych kombinacji &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer, które generują dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, przez liczbę wszystkich możliwych kombinacji: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle &lt;br /&gt;
P=\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}} { \binom{N}{n_1}} \qquad\textrm{dla }\ k\ \textrm{parzystych.} &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest nieparzysta=== &lt;br /&gt;
którychś serii &amp;amp;mdash; zer lub jedynek &amp;amp;mdash; będzie dokładnie o jeden więcej. &amp;lt;equation id=&amp;quot;eq:127&amp;quot;&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{000}\underline{111}&lt;br /&gt;
        &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii jedynek''', mamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii zer i &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii jedynek. &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek dzielimy na &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii, czyli wyznaczamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; punktów podziału spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych &amp;amp;mdash; daje to &amp;lt;math&amp;gt;\binom{n_1-1}{(k-1)/2}&amp;lt;/math&amp;gt; możliwości. Z kolei &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer dzielimy na &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii, co daje &amp;lt;math&amp;gt;\binom{n_2-1}{(k-1)/2-1}&amp;lt;/math&amp;gt; możliwości. Iloczyn tych dwóch wielkości określa liczbę możliwości dających &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, jeśli więcej jest serii jedynek: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:128&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii zer''', to na drodze analogicznego rozumowania dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:129&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prawdopodobieństwo dla przypadku nieparzystej liczby serii będzie sumą tych dwóch wielkości, podzieloną, jak w przypadku parzystego &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;, przez liczbę wszystkich możliwości:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:130&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\begin{matrix}&lt;br /&gt;
P&amp;amp;\!\!\!\!=&amp;amp;\!\!\!\!\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}} &lt;br /&gt;
\end{matrix}&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
dla &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; nieparzystych.&lt;br /&gt;
&lt;br /&gt;
===Pozostaje jeszcze rozważyć sytuację===&lt;br /&gt;
w której liczba serii jest nieparzysta, jak w punkcie 2., ale mniej liczne&lt;br /&gt;
elementy rozłożone są wyłącznie w serie jednoelementowe, na przykład&lt;br /&gt;
001010010100, czyli liczba serii wynosi &amp;lt;math&amp;gt;2n+1&amp;lt;/math&amp;gt;, gdzie&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jest liczbą mniej licznych elementów (w tym&lt;br /&gt;
przykładzie jedynek). Wtedy znika jeden ze składników sumy z licznika&lt;br /&gt;
powyższego równania, gdyż zachodzić może wyłącznie&lt;br /&gt;
przypadek 2.1 lub 2.2.&lt;br /&gt;
&lt;br /&gt;
Ostatecznie dostajemy następujący wzór na&lt;br /&gt;
prawdopodobieństwo wystąpienia &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii w próbie, w której&lt;br /&gt;
drogą niezależnych losowań wylosowano &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i&lt;br /&gt;
&amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:131&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
P(k\mid n_1, n_2)=\begin{cases} &lt;br /&gt;
\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}}&lt;br /&gt;
{ \binom{N}{n_1}} &lt;br /&gt;
\quad \textrm{dla }\ k\ \textrm{ parzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}&lt;br /&gt;
\\&lt;br /&gt;
\quad\qquad\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ nieparzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_\textrm{max}-1}{(k-1)/2} &lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{(k-1)/2}}}&lt;br /&gt;
\ \quad\qquad\qquad\textrm{dla }\ k\ \textrm{ nieparzystych i }  &lt;br /&gt;
n_\textrm{min}=\frac{k-1}{2}, &lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;n_\textrm{min}=\min(n_1, n_2)&amp;lt;/math&amp;gt; i&lt;br /&gt;
&amp;lt;math&amp;gt;n_\textrm{max}=\max(n_1, n_2)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wzór ten określa rozkład statystyki, będącej liczbą serii w próbie złożonej &lt;br /&gt;
z dowolnych dwóch rodzajów elementów (oznaczanych powyżej jako '''0''' i '''1'''). Dzięki niemu możemy wreszcie skonstruować kompletny test hipotezy&lt;br /&gt;
mówiącej, że dany ciąg jest wynikiem niezależnych losowań. Przypomnijmy dane &lt;br /&gt;
z [[WnioskowanieStatystyczne/Testy_nieprametryczne|przykładu o nieuczciwym ankieterze]]:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
'''1101101000101001011101101111010110010101001010100011101'''&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W ciągu tym występuje 25 zer i 30 jedynek, układających się w 37&lt;br /&gt;
serii.  Na podstawie wzoru &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; możemy obliczyć&lt;br /&gt;
rozkład prawdopodobieństwa wylosowania ciągu 25 zer i 30 jedynek, w&lt;br /&gt;
którym będzie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii. Możliwe wartości &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;&lt;br /&gt;
będą w tym przypadku zawierać się między 2 (jedna seria zer i jedna&lt;br /&gt;
jedynek) a 51 (ponieważ mniej jest zer, największa liczba serii&lt;br /&gt;
odpowiada przypadkowi, w którym wszystkie zera układają się w serie&lt;br /&gt;
jednoelementowe). Rozkład prawdopodobieństwa dla tego przypadku&lt;br /&gt;
przedstawia rysunek &amp;lt;xr id=&amp;quot;fig:132&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:serie.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Rozkład prawdopodobieństw &amp;lt;math&amp;gt;P(k)&amp;lt;/math&amp;gt; liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w niezależnym losowaniu 30 zer i 25 jedynek.]]&lt;br /&gt;
&lt;br /&gt;
Zastosowania testów opartych na tej statystyce nie ograniczają się do&lt;br /&gt;
analizy ciągów zer i jedynek (lub innych dwóch elementów). Poniżej&lt;br /&gt;
przedstawiamy jeszcze dwa testy korzystające ze statystyki &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Testowanie, czy próba jest wynikiem niezależnych losowań==&lt;br /&gt;
&lt;br /&gt;
Podobny problem &amp;amp;mdash; pytanie, czy elementy próby są wynikiem&lt;br /&gt;
niezależnych losowań &amp;amp;mdash; występuje np. przy testowaniu generatorów&lt;br /&gt;
liczb losowych ([[WnioskowanieStatystyczne/Z_komputerem#cite_note-0|będących kluczowym&lt;br /&gt;
elementem metod opisywanych w pierwszej części książki]]). Jednak w&lt;br /&gt;
tej sytuacji mamy do czynienia z ciągiem dowolnych liczb, a nie dwóch&lt;br /&gt;
symboli.&lt;br /&gt;
&lt;br /&gt;
Pomysł jest prosty: ciąg wyników wyrażających się dowolnymi liczbami&lt;br /&gt;
możemy zamienić na ciąg zer i jedynek, wybierając próg &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;&lt;br /&gt;
i przypisując wynikom większym od &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; jedynkę, a mniejszym&lt;br /&gt;
&amp;amp;mdash; zero. Jeśli chcemy mieć tyle samo zer i jedynek, jako&lt;br /&gt;
&amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; możemy wziąć [[WnioskowanieStatystyczne/Momenty#Mediana|medianę]] próby. Do&lt;br /&gt;
takiej serii możemy już z powodzeniem stosować opisany w poprzednim&lt;br /&gt;
rozdziale test oparty na statystyce &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &amp;amp;mdash;&lt;br /&gt;
oczywiście zachowując kolejność elementów w próbie.&lt;br /&gt;
&lt;br /&gt;
==Test zgodności rozkładów w dwóch populacjach==&lt;br /&gt;
&lt;br /&gt;
Mamy dwie próby. Hipoteza zerowa mówi, że zostały wylosowane z tego&lt;br /&gt;
samego rozkładu. Ciąg zer i jedynek tworzymy w następujący sposób:&lt;br /&gt;
&lt;br /&gt;
Elementy obu prób ustawiamy w jeden ciąg w kolejności od najmniejszej&lt;br /&gt;
do największej&amp;lt;ref&amp;gt;Jeśli wartości losowane są z rozkładów ciągłych, to&lt;br /&gt;
wystąpienie jednakowych wartości jest teoretycznie niemożliwe. W&lt;br /&gt;
praktyce wartości zapisujemy ze skończoną dokładnością; zwykle&lt;br /&gt;
przyjmuje się, że jednakowe wartości można pominąć.&amp;lt;/ref&amp;gt;.  Elementom&lt;br /&gt;
pierwszej próby przypisujemy jedynki, a drugiej &amp;amp;mdash; zera.&lt;br /&gt;
&lt;br /&gt;
Jeśli obie próby losowano z tej samej populacji, to liczba serii w tak określonym&lt;br /&gt;
ciągu podlega statystyce &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;, czyli ponownie możemy&lt;br /&gt;
stosować test Walda-Wolfowitza.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
---------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11705</id>
		<title>WnioskowanieStatystyczne/Test serii</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11705"/>
		<updated>2026-03-29T14:28:48Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Wyprowadzenie analityczne */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Test serii Walda-Wolfowitza=&lt;br /&gt;
&lt;br /&gt;
Serią nazywamy ciąg jednakowych elementów.  W poniższym przykładzie&lt;br /&gt;
mamy sześć serii (po trzy serie zer i jedynek):&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Nie jest to oczywiście jedyna kombinacja kolejności pięciu zer i pięciu jedynek,&lt;br /&gt;
dająca w wyniku sześć serii. Ponieważ każda pojedyncza kombinacja jest jednakowo&lt;br /&gt;
prawdopodobna (jeśli jest wynikiem niezależnych losowań), to prawdopodobieństwo&lt;br /&gt;
uzyskania danej liczby serii będzie tym większe, im więcej różnych kombinacji&lt;br /&gt;
będzie dawać w wyniku tę liczbę serii. Sformułujmy więc problem ogólnie:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
Mamy &amp;lt;math&amp;gt;N=n_1+n_2&amp;lt;/math&amp;gt; elementów, w tym &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek. &lt;br /&gt;
Na ile sposobów możemy je rozłożyć, aby uzyskać &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii? &lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;kod &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
import matplotlib.pyplot as plt&lt;br /&gt;
import numpy&lt;br /&gt;
&lt;br /&gt;
n1=25 # zera&lt;br /&gt;
n2=30 # jedynki&lt;br /&gt;
n=n1+n2 &lt;br /&gt;
ile_losowan=1000&lt;br /&gt;
&lt;br /&gt;
wynik=numpy.zeros(ile_losowan, dtype=numpy.int32)&lt;br /&gt;
&lt;br /&gt;
for i in range(0, ile_losowan):&lt;br /&gt;
	losowanie=numpy.zeros(n, dtype=numpy.int32)&lt;br /&gt;
	while numpy.sum(losowanie) &amp;lt; n2:&lt;br /&gt;
		losowanie[numpy.random.randint(0,n)]=1&lt;br /&gt;
	#print(numpy.array_str(losowanie,max_line_width=numpy.inf).replace(&amp;quot; &amp;quot;,&amp;quot;&amp;quot;), &amp;quot;\n&amp;quot;)&lt;br /&gt;
	zmiany=1&lt;br /&gt;
	for j in range(1, n):&lt;br /&gt;
		if(losowanie[j] != losowanie[j-1]):&lt;br /&gt;
			zmiany += 1&lt;br /&gt;
	wynik[i]=zmiany&lt;br /&gt;
&lt;br /&gt;
plt.hist(wynik, bins=range(0,n))&lt;br /&gt;
plt.xlabel(&amp;quot;$k$&amp;quot;)&lt;br /&gt;
plt.ylabel(&amp;quot;$P(k)$&amp;quot;)&lt;br /&gt;
plt.title(f&amp;quot;$n_1$ = {n1}, $n_2$ = {n2}, {ile_losowan} losowań&amp;quot;)&lt;br /&gt;
plt.show()&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;animacja dla 1000 &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|[[Plik:Testserii1000.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^3&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
[[Plik:Testserii.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^5&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.log.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek (skala logarytmiczna).]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
[[Plik:Testserii6.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^6&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Wyprowadzenie analityczne==&lt;br /&gt;
&lt;br /&gt;
Wróćmy do prostszego przykładu, zawierającego pięć jedynek i pięć zer. &lt;br /&gt;
Podział na serie możemy interpretować jak przypisanie liczbom od jeden do dziesięciu &lt;br /&gt;
(pozycje w ciągu) zera lub jedynki:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|2&lt;br /&gt;
|3&lt;br /&gt;
|4&lt;br /&gt;
|5&lt;br /&gt;
|6&lt;br /&gt;
|7&lt;br /&gt;
|8&lt;br /&gt;
|9&lt;br /&gt;
|10&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inaczej mówiąc, konkretny ciąg &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; zer i jedynek wyznaczony&lt;br /&gt;
jest przez wylosowanie spośród liczb od jednego do &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; tych&lt;br /&gt;
liczb, którym mają być przypisane jedynki (pozostałym będą przypisane&lt;br /&gt;
zera &amp;amp;mdash; lub odwrotnie). Czyli wszystkich możliwych ciągów&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek będzie tyle, na ile&lt;br /&gt;
sposobów można wylosować &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt;.  Policzmy: pozycję (czyli numer, wypisany w dolnym&lt;br /&gt;
rzędzie powyższej tabeli) pierwszego elementu losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; możliwości, drugiego &amp;amp;mdash; spośród &amp;lt;math&amp;gt;N-1&amp;lt;/math&amp;gt;&lt;br /&gt;
pozostałych możliwości (jedna pozycja jest już zajęta), i tak dalej,&lt;br /&gt;
aż pozycję ostatniego z &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; pozostałych możliwości.  Liczba możliwych wyników&lt;br /&gt;
będzie iloczynem tych wszystkich liczb, czyli wyniesie&lt;br /&gt;
&amp;lt;math&amp;gt;N\cdot(N-1)\cdot(N-2)\cdot\ \dots\ \cdot (N-n_1) =&lt;br /&gt;
N!/(N-n_1)!&amp;lt;/math&amp;gt; Skoro wszystkie jedynki są jednakowe i nie&lt;br /&gt;
rozróżniamy wyników różniących się ich kolejnością, to wynik ten&lt;br /&gt;
musimy podzielić przez liczbę różnych ustawień kolejności elementów&lt;br /&gt;
(liczbę permutacji) zbioru &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt;-elementowego. Wyniesie ona&lt;br /&gt;
&amp;lt;math&amp;gt;n_1\cdot(n_1-1)\cdot\ \dots\ \cdot 1&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&amp;lt;math&amp;gt;n_1!&amp;lt;/math&amp;gt; Ostatecznie jako liczbę różnych ustawień&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; jedynek dostajemy:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{N!}{(N-n_1)!\ n_1!} = \binom{N}{n_1}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jest to znany z [[WnioskowanieStatystyczne/Rozklady-przyklady#Rozkład dwumianowy|rozdziału o rozkładzie dwumianowym]] symbol Newtona &amp;lt;math&amp;gt;\binom{N}{n_1}&amp;lt;/math&amp;gt;. Jego własności&lt;br /&gt;
symetrii zgadzają się z sytuacją, w ktorej &amp;quot;wybierać&amp;quot; możemy albo &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer&lt;br /&gt;
albo &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\binom{N}{n_1}=\binom{n_1+n_2}{n_1}=\frac{(n_1+n_2)!}{n_1! n_2!}=\binom{n_1+n_2}{n_2}=\binom{N}{n_2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje policzyć, ile z tych możliwości (przy ustalonych liczbach&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer) wygeneruje ciąg&lt;br /&gt;
wyników, w którym będzie dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest parzysta===&lt;br /&gt;
będziemy mieć tyle samo serii jedynek i zer (po &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt;). Aby rozmieścić &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek w &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt; seriach musimy wyznaczyć &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; punktów podziału na serie; w powyższym przykładzie będą to (kropki) '''1.1.111''' &amp;amp;mdash; było 6 serii, więc mamy 2 punkty podziału. Inaczej losujemy spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych punktów podziału &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; podziałów, jak wynika z liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;. Daje to &amp;lt;math&amp;gt;\binom{n_1-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości. W miejsca podziału (oznaczone kropkami) wstawiamy serie zer; analogicznie możemy to zrobić na &amp;lt;math&amp;gt;\binom{n_2-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości (w przykładzie: '''00.00.0'''). Liczbę tę należy pomnożyć przez dwa ze względu na możliwość zamiany miejscami zer i jedynek. Prawdopodobieństwo danej liczby serii dostaniemy &amp;amp;mdash; zgodnie z klasyczną definicją prawdopodobieństwa &amp;amp;mdash; dzieląc liczbę wszystkich tych kombinacji &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer, które generują dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, przez liczbę wszystkich możliwych kombinacji: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle &lt;br /&gt;
P=\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}} { \binom{N}{n_1}} \qquad\textrm{dla }\ k\ \textrm{parzystych.} &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest nieparzysta=== &lt;br /&gt;
którychś serii &amp;amp;mdash; zer lub jedynek &amp;amp;mdash; będzie dokładnie o jeden więcej. &amp;lt;equation id=&amp;quot;eq:127&amp;quot;&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{000}\underline{111}&lt;br /&gt;
        &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii jedynek''', mamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii zer i &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii jedynek. &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek dzielimy na &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii, czyli wyznaczamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; punktów podziału spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych &amp;amp;mdash; daje to &amp;lt;math&amp;gt;\binom{n_1-1}{(k-1)/2}&amp;lt;/math&amp;gt; możliwości. Z kolei &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer dzielimy na &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii, co daje &amp;lt;math&amp;gt;\binom{n_2-1}{(k-1)/2-1}&amp;lt;/math&amp;gt; możliwości. Iloczyn tych dwóch wielkości określa liczbę możliwości dających &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, jeśli więcej jest serii jedynek: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:128&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii zer''', to na drodze analogicznego rozumowania dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:129&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}. &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prawdopodobieństwo dla przypadku nieparzystej liczby serii będzie sumą tych dwóch wielkości, podzieloną, jak w przypadku parzystego &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;, przez liczbę wszystkich możliwości:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:130&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\begin{matrix}&lt;br /&gt;
P&amp;amp;\!\!\!\!=&amp;amp;\!\!\!\!\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}  \\&lt;br /&gt;
&amp;amp;&amp;amp;\textrm{dla }\ k\ \textrm{ nieparzystych.}&lt;br /&gt;
\end{matrix}&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Pozostaje jeszcze rozważyć sytuację===&lt;br /&gt;
w której liczba serii jest nieparzysta, jak w punkcie 2., ale mniej liczne&lt;br /&gt;
elementy rozłożone są wyłącznie w serie jednoelementowe, na przykład&lt;br /&gt;
001010010100, czyli liczba serii wynosi &amp;lt;math&amp;gt;2n+1&amp;lt;/math&amp;gt;, gdzie&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jest liczbą mniej licznych elementów (w tym&lt;br /&gt;
przykładzie jedynek). Wtedy znika jeden ze składników sumy z licznika&lt;br /&gt;
powyższego równania, gdyż zachodzić może wyłącznie&lt;br /&gt;
przypadek 2.1 lub 2.2.&lt;br /&gt;
&lt;br /&gt;
Ostatecznie dostajemy następujący wzór na&lt;br /&gt;
prawdopodobieństwo wystąpienia &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii w próbie, w której&lt;br /&gt;
drogą niezależnych losowań wylosowano &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i&lt;br /&gt;
&amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:131&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
P(k\mid n_1, n_2)=\begin{cases} &lt;br /&gt;
\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}}&lt;br /&gt;
{ \binom{N}{n_1}} &lt;br /&gt;
\quad \textrm{dla }\ k\ \textrm{ parzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}&lt;br /&gt;
\\&lt;br /&gt;
\quad\qquad\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ nieparzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_\textrm{max}-1}{(k-1)/2} &lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{(k-1)/2}}}&lt;br /&gt;
\ \quad\qquad\qquad\textrm{dla }\ k\ \textrm{ nieparzystych i }  &lt;br /&gt;
n_\textrm{min}=\frac{k-1}{2}, &lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;n_\textrm{min}=\min(n_1, n_2)&amp;lt;/math&amp;gt; i&lt;br /&gt;
&amp;lt;math&amp;gt;n_\textrm{max}=\max(n_1, n_2)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wzór ten określa rozkład statystyki, będącej liczbą serii w próbie złożonej &lt;br /&gt;
z dowolnych dwóch rodzajów elementów (oznaczanych powyżej jako '''0''' i '''1'''). Dzięki niemu możemy wreszcie skonstruować kompletny test hipotezy&lt;br /&gt;
mówiącej, że dany ciąg jest wynikiem niezależnych losowań. Przypomnijmy dane &lt;br /&gt;
z [[WnioskowanieStatystyczne/Testy_nieprametryczne|przykładu o nieuczciwym ankieterze]]:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
'''1101101000101001011101101111010110010101001010100011101'''&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W ciągu tym występuje 25 zer i 30 jedynek, układających się w 37&lt;br /&gt;
serii.  Na podstawie wzoru &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; możemy obliczyć&lt;br /&gt;
rozkład prawdopodobieństwa wylosowania ciągu 25 zer i 30 jedynek, w&lt;br /&gt;
którym będzie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii. Możliwe wartości &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;&lt;br /&gt;
będą w tym przypadku zawierać się między 2 (jedna seria zer i jedna&lt;br /&gt;
jedynek) a 51 (ponieważ mniej jest zer, największa liczba serii&lt;br /&gt;
odpowiada przypadkowi, w którym wszystkie zera układają się w serie&lt;br /&gt;
jednoelementowe). Rozkład prawdopodobieństwa dla tego przypadku&lt;br /&gt;
przedstawia rysunek &amp;lt;xr id=&amp;quot;fig:132&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:serie.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Rozkład prawdopodobieństw &amp;lt;math&amp;gt;P(k)&amp;lt;/math&amp;gt; liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w niezależnym losowaniu 30 zer i 25 jedynek.]]&lt;br /&gt;
&lt;br /&gt;
Zastosowania testów opartych na tej statystyce nie ograniczają się do&lt;br /&gt;
analizy ciągów zer i jedynek (lub innych dwóch elementów). Poniżej&lt;br /&gt;
przedstawiamy jeszcze dwa testy korzystające ze statystyki &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Testowanie, czy próba jest wynikiem niezależnych losowań==&lt;br /&gt;
&lt;br /&gt;
Podobny problem &amp;amp;mdash; pytanie, czy elementy próby są wynikiem&lt;br /&gt;
niezależnych losowań &amp;amp;mdash; występuje np. przy testowaniu generatorów&lt;br /&gt;
liczb losowych ([[WnioskowanieStatystyczne/Z_komputerem#cite_note-0|będących kluczowym&lt;br /&gt;
elementem metod opisywanych w pierwszej części książki]]). Jednak w&lt;br /&gt;
tej sytuacji mamy do czynienia z ciągiem dowolnych liczb, a nie dwóch&lt;br /&gt;
symboli.&lt;br /&gt;
&lt;br /&gt;
Pomysł jest prosty: ciąg wyników wyrażających się dowolnymi liczbami&lt;br /&gt;
możemy zamienić na ciąg zer i jedynek, wybierając próg &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;&lt;br /&gt;
i przypisując wynikom większym od &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; jedynkę, a mniejszym&lt;br /&gt;
&amp;amp;mdash; zero. Jeśli chcemy mieć tyle samo zer i jedynek, jako&lt;br /&gt;
&amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; możemy wziąć [[WnioskowanieStatystyczne/Momenty#Mediana|medianę]] próby. Do&lt;br /&gt;
takiej serii możemy już z powodzeniem stosować opisany w poprzednim&lt;br /&gt;
rozdziale test oparty na statystyce &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &amp;amp;mdash;&lt;br /&gt;
oczywiście zachowując kolejność elementów w próbie.&lt;br /&gt;
&lt;br /&gt;
==Test zgodności rozkładów w dwóch populacjach==&lt;br /&gt;
&lt;br /&gt;
Mamy dwie próby. Hipoteza zerowa mówi, że zostały wylosowane z tego&lt;br /&gt;
samego rozkładu. Ciąg zer i jedynek tworzymy w następujący sposób:&lt;br /&gt;
&lt;br /&gt;
Elementy obu prób ustawiamy w jeden ciąg w kolejności od najmniejszej&lt;br /&gt;
do największej&amp;lt;ref&amp;gt;Jeśli wartości losowane są z rozkładów ciągłych, to&lt;br /&gt;
wystąpienie jednakowych wartości jest teoretycznie niemożliwe. W&lt;br /&gt;
praktyce wartości zapisujemy ze skończoną dokładnością; zwykle&lt;br /&gt;
przyjmuje się, że jednakowe wartości można pominąć.&amp;lt;/ref&amp;gt;.  Elementom&lt;br /&gt;
pierwszej próby przypisujemy jedynki, a drugiej &amp;amp;mdash; zera.&lt;br /&gt;
&lt;br /&gt;
Jeśli obie próby losowano z tej samej populacji, to liczba serii w tak określonym&lt;br /&gt;
ciągu podlega statystyce &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;, czyli ponownie możemy&lt;br /&gt;
stosować test Walda-Wolfowitza.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
---------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11704</id>
		<title>WnioskowanieStatystyczne/Test serii</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11704"/>
		<updated>2026-03-29T14:28:06Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Test serii Walda-Wolfowitza */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Test serii Walda-Wolfowitza=&lt;br /&gt;
&lt;br /&gt;
Serią nazywamy ciąg jednakowych elementów.  W poniższym przykładzie&lt;br /&gt;
mamy sześć serii (po trzy serie zer i jedynek):&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Nie jest to oczywiście jedyna kombinacja kolejności pięciu zer i pięciu jedynek,&lt;br /&gt;
dająca w wyniku sześć serii. Ponieważ każda pojedyncza kombinacja jest jednakowo&lt;br /&gt;
prawdopodobna (jeśli jest wynikiem niezależnych losowań), to prawdopodobieństwo&lt;br /&gt;
uzyskania danej liczby serii będzie tym większe, im więcej różnych kombinacji&lt;br /&gt;
będzie dawać w wyniku tę liczbę serii. Sformułujmy więc problem ogólnie:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
Mamy &amp;lt;math&amp;gt;N=n_1+n_2&amp;lt;/math&amp;gt; elementów, w tym &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek. &lt;br /&gt;
Na ile sposobów możemy je rozłożyć, aby uzyskać &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii? &lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;kod &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
import matplotlib.pyplot as plt&lt;br /&gt;
import numpy&lt;br /&gt;
&lt;br /&gt;
n1=25 # zera&lt;br /&gt;
n2=30 # jedynki&lt;br /&gt;
n=n1+n2 &lt;br /&gt;
ile_losowan=1000&lt;br /&gt;
&lt;br /&gt;
wynik=numpy.zeros(ile_losowan, dtype=numpy.int32)&lt;br /&gt;
&lt;br /&gt;
for i in range(0, ile_losowan):&lt;br /&gt;
	losowanie=numpy.zeros(n, dtype=numpy.int32)&lt;br /&gt;
	while numpy.sum(losowanie) &amp;lt; n2:&lt;br /&gt;
		losowanie[numpy.random.randint(0,n)]=1&lt;br /&gt;
	#print(numpy.array_str(losowanie,max_line_width=numpy.inf).replace(&amp;quot; &amp;quot;,&amp;quot;&amp;quot;), &amp;quot;\n&amp;quot;)&lt;br /&gt;
	zmiany=1&lt;br /&gt;
	for j in range(1, n):&lt;br /&gt;
		if(losowanie[j] != losowanie[j-1]):&lt;br /&gt;
			zmiany += 1&lt;br /&gt;
	wynik[i]=zmiany&lt;br /&gt;
&lt;br /&gt;
plt.hist(wynik, bins=range(0,n))&lt;br /&gt;
plt.xlabel(&amp;quot;$k$&amp;quot;)&lt;br /&gt;
plt.ylabel(&amp;quot;$P(k)$&amp;quot;)&lt;br /&gt;
plt.title(f&amp;quot;$n_1$ = {n1}, $n_2$ = {n2}, {ile_losowan} losowań&amp;quot;)&lt;br /&gt;
plt.show()&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;animacja dla 1000 &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|[[Plik:Testserii1000.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^3&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
[[Plik:Testserii.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^5&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.log.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek (skala logarytmiczna).]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
[[Plik:Testserii6.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^6&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Wyprowadzenie analityczne==&lt;br /&gt;
&lt;br /&gt;
Wróćmy do prostszego przykładu, zawierającego pięć jedynek i pięć zer. &lt;br /&gt;
Podział na serie możemy interpretować jak przypisanie liczbom od jeden do dziesięciu &lt;br /&gt;
(pozycje w ciągu) zera lub jedynki:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|2&lt;br /&gt;
|3&lt;br /&gt;
|4&lt;br /&gt;
|5&lt;br /&gt;
|6&lt;br /&gt;
|7&lt;br /&gt;
|8&lt;br /&gt;
|9&lt;br /&gt;
|10&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inaczej mówiąc, konkretny ciąg &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; zer i jedynek wyznaczony&lt;br /&gt;
jest przez wylosowanie spośród liczb od jednego do &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; tych&lt;br /&gt;
liczb, którym mają być przypisane jedynki (pozostałym będą przypisane&lt;br /&gt;
zera &amp;amp;mdash; lub odwrotnie). Czyli wszystkich możliwych ciągów&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek będzie tyle, na ile&lt;br /&gt;
sposobów można wylosować &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt;.  Policzmy: pozycję (czyli numer, wypisany w dolnym&lt;br /&gt;
rzędzie powyższej tabeli) pierwszego elementu losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; możliwości, drugiego &amp;amp;mdash; spośród &amp;lt;math&amp;gt;N-1&amp;lt;/math&amp;gt;&lt;br /&gt;
pozostałych możliwości (jedna pozycja jest już zajęta), i tak dalej,&lt;br /&gt;
aż pozycję ostatniego z &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; pozostałych możliwości.  Liczba możliwych wyników&lt;br /&gt;
będzie iloczynem tych wszystkich liczb, czyli wyniesie&lt;br /&gt;
&amp;lt;math&amp;gt;N\cdot(N-1)\cdot(N-2)\cdot\ \dots\ \cdot (N-n_1) =&lt;br /&gt;
N!/(N-n_1)!&amp;lt;/math&amp;gt; Skoro wszystkie jedynki są jednakowe i nie&lt;br /&gt;
rozróżniamy wyników różniących się ich kolejnością, to wynik ten&lt;br /&gt;
musimy podzielić przez liczbę różnych ustawień kolejności elementów&lt;br /&gt;
(liczbę permutacji) zbioru &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt;-elementowego. Wyniesie ona&lt;br /&gt;
&amp;lt;math&amp;gt;n_1\cdot(n_1-1)\cdot\ \dots\ \cdot 1&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&amp;lt;math&amp;gt;n_1!&amp;lt;/math&amp;gt; Ostatecznie jako liczbę różnych ustawień&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; jedynek dostajemy:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{N!}{(N-n_1)!\ n_1!} = \binom{N}{n_1}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jest to znany z [[WnioskowanieStatystyczne/Rozklady-przyklady#Rozkład dwumianowy|rozdziału o rozkładzie dwumianowym]] symbol Newtona &amp;lt;math&amp;gt;\binom{N}{n_1}&amp;lt;/math&amp;gt;. Jego własności&lt;br /&gt;
symetrii zgadzają się z sytuacją, w ktorej &amp;quot;wybierać&amp;quot; możemy albo &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer&lt;br /&gt;
albo &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\binom{N}{n_1}=\binom{n_1+n_2}{n_1}=\frac{(n_1+n_2)!}{n_1! n_2!}=\binom{n_1+n_2}{n_2}=\binom{N}{n_2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje policzyć, ile z tych możliwości (przy ustalonych liczbach&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer) wygeneruje ciąg&lt;br /&gt;
wyników, w którym będzie dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest parzysta===&lt;br /&gt;
będziemy mieć tyle samo serii jedynek i zer (po &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt;). Aby rozmieścić &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek w &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt; seriach musimy wyznaczyć &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; punktów podziału na serie; w powyższym przykładzie będą to (kropki) '''1.1.111''' &amp;amp;mdash; było 6 serii, więc mamy 2 punkty podziału. Inaczej losujemy spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych punktów podziału &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; podziałów, jak wynika z liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;. Daje to &amp;lt;math&amp;gt;\binom{n_1-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości. W miejsca podziału (oznaczone kropkami) wstawiamy serie zer; analogicznie możemy to zrobić na &amp;lt;math&amp;gt;\binom{n_2-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości (w przykładzie: '''00.00.0'''). Liczbę tę należy pomnożyć przez dwa ze względu na możliwość zamiany miejscami zer i jedynek. Prawdopodobieństwo danej liczby serii dostaniemy &amp;amp;mdash; zgodnie z klasyczną definicją prawdopodobieństwa &amp;amp;mdash; dzieląc liczbę wszystkich tych kombinacji &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer, które generują dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, przez liczbę wszystkich możliwych kombinacji: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle &lt;br /&gt;
P=\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}} { \binom{N}{n_1}} \qquad\textrm{dla }\ k\ \textrm{parzystych.} &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest nieparzysta=== &lt;br /&gt;
którychś serii &amp;amp;mdash; zer lub jedynek &amp;amp;mdash; będzie dokładnie o jeden więcej. &amp;lt;equation id=&amp;quot;eq:127&amp;quot;&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{000}\underline{111}&lt;br /&gt;
        &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii jedynek''', mamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii zer i &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii jedynek. &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek dzielimy na &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii, czyli wyznaczamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; punktów podziału spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych &amp;amp;mdash; daje to &amp;lt;math&amp;gt;\binom{n_1-1}{(k-1)/2}&amp;lt;/math&amp;gt; możliwości. Z kolei &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer dzielimy na &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii, co daje &amp;lt;math&amp;gt;\binom{n_2-1}{(k-1)/2-1}&amp;lt;/math&amp;gt; możliwości. Iloczyn tych dwóch wielkości określa liczbę możliwości dających &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, jeśli więcej jest serii jedynek: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:128&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii zer''', to na drodze analogicznego rozumowania dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:129&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}. &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prawdopodobieństwo dla przypadku nieparzystej liczby serii będzie sumą tych dwóch wielkości, podzieloną, jak w przypadku parzystego &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;, przez liczbę wszystkich możliwości:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:130&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\begin{matrix}&lt;br /&gt;
P&amp;amp;\!\!\!\!=&amp;amp;\!\!\!\!\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}  \\&lt;br /&gt;
&amp;amp;&amp;amp;\textrm{dla }\ k\ \textrm{ nieparzystych.}&lt;br /&gt;
\end{matrix}&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Pozostaje jeszcze rozważyć sytuację===&lt;br /&gt;
w której liczba serii jest nieparzysta, jak w punkcie 2., ale mniej liczne&lt;br /&gt;
elementy rozłożone są wyłącznie w serie jednoelementowe, na przykład&lt;br /&gt;
001010010100, czyli liczba serii wynosi &amp;lt;math&amp;gt;2n+1&amp;lt;/math&amp;gt;, gdzie&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jest liczbą mniej licznych elementów (w tym&lt;br /&gt;
przykładzie jedynek). Wtedy znika jeden ze składników sumy z licznika&lt;br /&gt;
powyższego równania, gdyż zachodzić może wyłącznie&lt;br /&gt;
przypadek 2.1 lub 2.2.&lt;br /&gt;
&lt;br /&gt;
Ostatecznie dostajemy następujący wzór na&lt;br /&gt;
prawdopodobieństwo wystąpienia &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii w próbie, w której&lt;br /&gt;
drogą niezależnych losowań wylosowano &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i&lt;br /&gt;
&amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:131&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
P(k\mid n_1, n_2)=\begin{cases} &lt;br /&gt;
\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}}&lt;br /&gt;
{ \binom{N}{n_1}} &lt;br /&gt;
\quad \textrm{dla }\ k\ \textrm{ parzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}&lt;br /&gt;
\\&lt;br /&gt;
\quad\qquad\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ nieparzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_\textrm{max}-1}{(k-1)/2} &lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{(k-1)/2}}}&lt;br /&gt;
\ \quad\qquad\qquad\textrm{dla }\ k\ \textrm{ nieparzystych i }  &lt;br /&gt;
n_\textrm{min}=\frac{k-1}{2}, &lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;n_\textrm{min}=\min(n_1, n_2)&amp;lt;/math&amp;gt; i&lt;br /&gt;
&amp;lt;math&amp;gt;n_\textrm{max}=\max(n_1, n_2)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wzór ten określa rozkład statystyki, będącej liczbą serii w próbie złożonej &lt;br /&gt;
z dowolnych dwóch rodzajów elementów (oznaczanych powyżej jako '''0''' i '''1'''). Dzięki niemu możemy wreszcie skonstruować kompletny test hipotezy&lt;br /&gt;
mówiącej, że dany ciąg jest wynikiem niezależnych losowań. Przypomnijmy dane &lt;br /&gt;
z [[WnioskowanieStatystyczne/Testy_nieprametryczne|przykładu o nieuczciwym ankieterze]]:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
'''1101101000101001011101101111010110010101001010100011101'''&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W ciągu tym występuje 25 zer i 30 jedynek, układających się w 37&lt;br /&gt;
serii.  Na podstawie wzoru &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; możemy obliczyć&lt;br /&gt;
rozkład prawdopodobieństwa wylosowania ciągu 25 zer i 30 jedynek, w&lt;br /&gt;
którym będzie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii. Możliwe wartości &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;&lt;br /&gt;
będą w tym przypadku zawierać się między 2 (jedna seria zer i jedna&lt;br /&gt;
jedynek) a 51 (ponieważ mniej jest zer, największa liczba serii&lt;br /&gt;
odpowiada przypadkowi, w którym wszystkie zera układają się w serie&lt;br /&gt;
jednoelementowe). Rozkład prawdopodobieństwa dla tego przypadku&lt;br /&gt;
przedstawia rysunek &amp;lt;xr id=&amp;quot;fig:132&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:serie.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Rozkład prawdopodobieństw &amp;lt;math&amp;gt;P(k)&amp;lt;/math&amp;gt; liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w niezależnym losowaniu 30 zer i 25 jedynek.]]&lt;br /&gt;
&lt;br /&gt;
Zastosowania testów opartych na tej statystyce nie ograniczają się do&lt;br /&gt;
analizy ciągów zer i jedynek (lub innych dwóch elementów). Poniżej&lt;br /&gt;
przedstawiamy jeszcze dwa testy korzystające ze statystyki &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Testowanie, czy próba jest wynikiem niezależnych losowań==&lt;br /&gt;
&lt;br /&gt;
Podobny problem &amp;amp;mdash; pytanie, czy elementy próby są wynikiem&lt;br /&gt;
niezależnych losowań &amp;amp;mdash; występuje np. przy testowaniu generatorów&lt;br /&gt;
liczb losowych ([[WnioskowanieStatystyczne/Z_komputerem#cite_note-0|będących kluczowym&lt;br /&gt;
elementem metod opisywanych w pierwszej części książki]]). Jednak w&lt;br /&gt;
tej sytuacji mamy do czynienia z ciągiem dowolnych liczb, a nie dwóch&lt;br /&gt;
symboli.&lt;br /&gt;
&lt;br /&gt;
Pomysł jest prosty: ciąg wyników wyrażających się dowolnymi liczbami&lt;br /&gt;
możemy zamienić na ciąg zer i jedynek, wybierając próg &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;&lt;br /&gt;
i przypisując wynikom większym od &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; jedynkę, a mniejszym&lt;br /&gt;
&amp;amp;mdash; zero. Jeśli chcemy mieć tyle samo zer i jedynek, jako&lt;br /&gt;
&amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; możemy wziąć [[WnioskowanieStatystyczne/Momenty#Mediana|medianę]] próby. Do&lt;br /&gt;
takiej serii możemy już z powodzeniem stosować opisany w poprzednim&lt;br /&gt;
rozdziale test oparty na statystyce &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &amp;amp;mdash;&lt;br /&gt;
oczywiście zachowując kolejność elementów w próbie.&lt;br /&gt;
&lt;br /&gt;
==Test zgodności rozkładów w dwóch populacjach==&lt;br /&gt;
&lt;br /&gt;
Mamy dwie próby. Hipoteza zerowa mówi, że zostały wylosowane z tego&lt;br /&gt;
samego rozkładu. Ciąg zer i jedynek tworzymy w następujący sposób:&lt;br /&gt;
&lt;br /&gt;
Elementy obu prób ustawiamy w jeden ciąg w kolejności od najmniejszej&lt;br /&gt;
do największej&amp;lt;ref&amp;gt;Jeśli wartości losowane są z rozkładów ciągłych, to&lt;br /&gt;
wystąpienie jednakowych wartości jest teoretycznie niemożliwe. W&lt;br /&gt;
praktyce wartości zapisujemy ze skończoną dokładnością; zwykle&lt;br /&gt;
przyjmuje się, że jednakowe wartości można pominąć.&amp;lt;/ref&amp;gt;.  Elementom&lt;br /&gt;
pierwszej próby przypisujemy jedynki, a drugiej &amp;amp;mdash; zera.&lt;br /&gt;
&lt;br /&gt;
Jeśli obie próby losowano z tej samej populacji, to liczba serii w tak określonym&lt;br /&gt;
ciągu podlega statystyce &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;, czyli ponownie możemy&lt;br /&gt;
stosować test Walda-Wolfowitza.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
---------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11703</id>
		<title>WnioskowanieStatystyczne/Test serii</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11703"/>
		<updated>2026-03-29T14:27:49Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Wyprowadzenie analityczne */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Test serii Walda-Wolfowitza=&lt;br /&gt;
&lt;br /&gt;
Serią nazywamy ciąg jednakowych elementów.  W poniższym przykładzie&lt;br /&gt;
mamy sześć serii (po trzy serie zer i jedynek):&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Nie jest to oczywiście jedyna kombinacja kolejności pięciu zer i pięciu jedynek,&lt;br /&gt;
dająca w wyniku sześć serii. Ponieważ każda pojedyncza kombinacja jest jednakowo&lt;br /&gt;
prawdopodobna (jeśli jest wynikiem niezależnych losowań), to prawdopodobieństwo&lt;br /&gt;
uzyskania danej liczby serii będzie tym większe, im więcej różnych kombinacji&lt;br /&gt;
będzie dawać w wyniku tę liczbę serii. Sformułujmy więc problem ogólnie:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
Mamy &amp;lt;math&amp;gt;N=n_1+n_2&amp;lt;/math&amp;gt; elementów, w tym &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek. &lt;br /&gt;
Na ile sposobów możemy je rozłożyć, aby uzyskać &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii? &lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;kod &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
import matplotlib.pyplot as plt&lt;br /&gt;
import numpy&lt;br /&gt;
&lt;br /&gt;
n1=25 # zera&lt;br /&gt;
n2=30 # jedynki&lt;br /&gt;
n=n1+n2 &lt;br /&gt;
ile_losowan=1000&lt;br /&gt;
&lt;br /&gt;
wynik=numpy.zeros(ile_losowan, dtype=numpy.int32)&lt;br /&gt;
&lt;br /&gt;
for i in range(0, ile_losowan):&lt;br /&gt;
	losowanie=numpy.zeros(n, dtype=numpy.int32)&lt;br /&gt;
	while numpy.sum(losowanie) &amp;lt; n2:&lt;br /&gt;
		losowanie[numpy.random.randint(0,n)]=1&lt;br /&gt;
	#print(numpy.array_str(losowanie,max_line_width=numpy.inf).replace(&amp;quot; &amp;quot;,&amp;quot;&amp;quot;), &amp;quot;\n&amp;quot;)&lt;br /&gt;
	zmiany=1&lt;br /&gt;
	for j in range(1, n):&lt;br /&gt;
		if(losowanie[j] != losowanie[j-1]):&lt;br /&gt;
			zmiany += 1&lt;br /&gt;
	wynik[i]=zmiany&lt;br /&gt;
&lt;br /&gt;
plt.hist(wynik, bins=range(0,n))&lt;br /&gt;
plt.xlabel(&amp;quot;$k$&amp;quot;)&lt;br /&gt;
plt.ylabel(&amp;quot;$P(k)$&amp;quot;)&lt;br /&gt;
plt.title(f&amp;quot;$n_1$ = {n1}, $n_2$ = {n2}, {ile_losowan} losowań&amp;quot;)&lt;br /&gt;
plt.show()&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;animacja dla 1000 &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|[[Plik:Testserii1000.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^3&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
[[Plik:Testserii.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^5&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.log.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek (skala logarytmiczna).]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
[[Plik:Testserii6.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^6&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Wyprowadzenie analityczne==&lt;br /&gt;
&lt;br /&gt;
Wróćmy do prostszego przykładu, zawierającego pięć jedynek i pięć zer. &lt;br /&gt;
Podział na serie możemy interpretować jak przypisanie liczbom od jeden do dziesięciu &lt;br /&gt;
(pozycje w ciągu) zera lub jedynki:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|2&lt;br /&gt;
|3&lt;br /&gt;
|4&lt;br /&gt;
|5&lt;br /&gt;
|6&lt;br /&gt;
|7&lt;br /&gt;
|8&lt;br /&gt;
|9&lt;br /&gt;
|10&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inaczej mówiąc, konkretny ciąg &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; zer i jedynek wyznaczony&lt;br /&gt;
jest przez wylosowanie spośród liczb od jednego do &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; tych&lt;br /&gt;
liczb, którym mają być przypisane jedynki (pozostałym będą przypisane&lt;br /&gt;
zera &amp;amp;mdash; lub odwrotnie). Czyli wszystkich możliwych ciągów&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek będzie tyle, na ile&lt;br /&gt;
sposobów można wylosować &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt;.  Policzmy: pozycję (czyli numer, wypisany w dolnym&lt;br /&gt;
rzędzie powyższej tabeli) pierwszego elementu losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; możliwości, drugiego &amp;amp;mdash; spośród &amp;lt;math&amp;gt;N-1&amp;lt;/math&amp;gt;&lt;br /&gt;
pozostałych możliwości (jedna pozycja jest już zajęta), i tak dalej,&lt;br /&gt;
aż pozycję ostatniego z &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; pozostałych możliwości.  Liczba możliwych wyników&lt;br /&gt;
będzie iloczynem tych wszystkich liczb, czyli wyniesie&lt;br /&gt;
&amp;lt;math&amp;gt;N\cdot(N-1)\cdot(N-2)\cdot\ \dots\ \cdot (N-n_1) =&lt;br /&gt;
N!/(N-n_1)!&amp;lt;/math&amp;gt; Skoro wszystkie jedynki są jednakowe i nie&lt;br /&gt;
rozróżniamy wyników różniących się ich kolejnością, to wynik ten&lt;br /&gt;
musimy podzielić przez liczbę różnych ustawień kolejności elementów&lt;br /&gt;
(liczbę permutacji) zbioru &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt;-elementowego. Wyniesie ona&lt;br /&gt;
&amp;lt;math&amp;gt;n_1\cdot(n_1-1)\cdot\ \dots\ \cdot 1&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&amp;lt;math&amp;gt;n_1!&amp;lt;/math&amp;gt; Ostatecznie jako liczbę różnych ustawień&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; jedynek dostajemy:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{N!}{(N-n_1)!\ n_1!} = \binom{N}{n_1}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jest to znany z [[WnioskowanieStatystyczne/Rozklady-przyklady#Rozkład dwumianowy|rozdziału o rozkładzie dwumianowym]] symbol Newtona &amp;lt;math&amp;gt;\binom{N}{n_1}&amp;lt;/math&amp;gt;. Jego własności&lt;br /&gt;
symetrii zgadzają się z sytuacją, w ktorej &amp;quot;wybierać&amp;quot; możemy albo &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer&lt;br /&gt;
albo &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\binom{N}{n_1}=\binom{n_1+n_2}{n_1}=\frac{(n_1+n_2)!}{n_1! n_2!}=\binom{n_1+n_2}{n_2}=\binom{N}{n_2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje policzyć, ile z tych możliwości (przy ustalonych liczbach&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer) wygeneruje ciąg&lt;br /&gt;
wyników, w którym będzie dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest parzysta===&lt;br /&gt;
będziemy mieć tyle samo serii jedynek i zer (po &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt;). Aby rozmieścić &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek w &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt; seriach musimy wyznaczyć &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; punktów podziału na serie; w powyższym przykładzie będą to (kropki) '''1.1.111''' &amp;amp;mdash; było 6 serii, więc mamy 2 punkty podziału. Inaczej losujemy spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych punktów podziału &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; podziałów, jak wynika z liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;. Daje to &amp;lt;math&amp;gt;\binom{n_1-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości. W miejsca podziału (oznaczone kropkami) wstawiamy serie zer; analogicznie możemy to zrobić na &amp;lt;math&amp;gt;\binom{n_2-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości (w przykładzie: '''00.00.0'''). Liczbę tę należy pomnożyć przez dwa ze względu na możliwość zamiany miejscami zer i jedynek. Prawdopodobieństwo danej liczby serii dostaniemy &amp;amp;mdash; zgodnie z klasyczną definicją prawdopodobieństwa &amp;amp;mdash; dzieląc liczbę wszystkich tych kombinacji &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer, które generują dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, przez liczbę wszystkich możliwych kombinacji: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle &lt;br /&gt;
P=\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}} { \binom{N}{n_1}} \qquad\textrm{dla }\ k\ \textrm{parzystych.} &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest nieparzysta=== &lt;br /&gt;
którychś serii &amp;amp;mdash; zer lub jedynek &amp;amp;mdash; będzie dokładnie o jeden więcej. &amp;lt;equation id=&amp;quot;eq:127&amp;quot;&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{000}\underline{111}&lt;br /&gt;
        &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii jedynek''', mamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii zer i &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii jedynek. &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek dzielimy na &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii, czyli wyznaczamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; punktów podziału spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych &amp;amp;mdash; daje to &amp;lt;math&amp;gt;\binom{n_1-1}{(k-1)/2}&amp;lt;/math&amp;gt; możliwości. Z kolei &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer dzielimy na &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii, co daje &amp;lt;math&amp;gt;\binom{n_2-1}{(k-1)/2-1}&amp;lt;/math&amp;gt; możliwości. Iloczyn tych dwóch wielkości określa liczbę możliwości dających &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, jeśli więcej jest serii jedynek: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:128&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii zer''', to na drodze analogicznego rozumowania dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:129&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}. &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prawdopodobieństwo dla przypadku nieparzystej liczby serii będzie sumą tych dwóch wielkości, podzieloną, jak w przypadku parzystego &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;, przez liczbę wszystkich możliwości:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:130&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\begin{matrix}&lt;br /&gt;
P&amp;amp;\!\!\!\!=&amp;amp;\!\!\!\!\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}  \\&lt;br /&gt;
&amp;amp;&amp;amp;\textrm{dla }\ k\ \textrm{ nieparzystych.}&lt;br /&gt;
\end{matrix}&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Pozostaje jeszcze rozważyć sytuację===&lt;br /&gt;
w której liczba serii jest nieparzysta, jak w punkcie 2., ale mniej liczne&lt;br /&gt;
elementy rozłożone są wyłącznie w serie jednoelementowe, na przykład&lt;br /&gt;
001010010100, czyli liczba serii wynosi &amp;lt;math&amp;gt;2n+1&amp;lt;/math&amp;gt;, gdzie&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jest liczbą mniej licznych elementów (w tym&lt;br /&gt;
przykładzie jedynek). Wtedy znika jeden ze składników sumy z licznika&lt;br /&gt;
powyższego równania, gdyż zachodzić może wyłącznie&lt;br /&gt;
przypadek 2.1 lub 2.2.&lt;br /&gt;
&lt;br /&gt;
Ostatecznie dostajemy następujący wzór na&lt;br /&gt;
prawdopodobieństwo wystąpienia &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii w próbie, w której&lt;br /&gt;
drogą niezależnych losowań wylosowano &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i&lt;br /&gt;
&amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:131&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
P(k\mid n_1, n_2)=\begin{cases} &lt;br /&gt;
\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}}&lt;br /&gt;
{ \binom{N}{n_1}} &lt;br /&gt;
\quad \textrm{dla }\ k\ \textrm{ parzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}&lt;br /&gt;
\\&lt;br /&gt;
\quad\qquad\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ nieparzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_\textrm{max}-1}{(k-1)/2} &lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{(k-1)/2}}}&lt;br /&gt;
\ \quad\qquad\qquad\textrm{dla }\ k\ \textrm{ nieparzystych i }  &lt;br /&gt;
n_\textrm{min}=\frac{k-1}{2}, &lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;n_\textrm{min}=\min(n_1, n_2)&amp;lt;/math&amp;gt; i&lt;br /&gt;
&amp;lt;math&amp;gt;n_\textrm{max}=\max(n_1, n_2)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wzór ten określa rozkład statystyki, będącej liczbą serii w próbie złożonej &lt;br /&gt;
z dowolnych dwóch rodzajów elementów (oznaczanych powyżej jako '''0''' i '''1'''). Dzięki niemu możemy wreszcie skonstruować kompletny test hipotezy&lt;br /&gt;
mówiącej, że dany ciąg jest wynikiem niezależnych losowań. Przypomnijmy dane &lt;br /&gt;
z [[WnioskowanieStatystyczne/Testy_nieprametryczne|przykładu o nieuczciwym ankieterze]]:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
'''1101101000101001011101101111010110010101001010100011101'''&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W ciągu tym występuje 25 zer i 30 jedynek, układających się w 37&lt;br /&gt;
serii.  Na podstawie wzoru &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; możemy obliczyć&lt;br /&gt;
rozkład prawdopodobieństwa wylosowania ciągu 25 zer i 30 jedynek, w&lt;br /&gt;
którym będzie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii. Możliwe wartości &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;&lt;br /&gt;
będą w tym przypadku zawierać się między 2 (jedna seria zer i jedna&lt;br /&gt;
jedynek) a 51 (ponieważ mniej jest zer, największa liczba serii&lt;br /&gt;
odpowiada przypadkowi, w którym wszystkie zera układają się w serie&lt;br /&gt;
jednoelementowe). Rozkład prawdopodobieństwa dla tego przypadku&lt;br /&gt;
przedstawia rysunek &amp;lt;xr id=&amp;quot;fig:132&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:serie.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Rozkład prawdopodobieństw &amp;lt;math&amp;gt;P(k)&amp;lt;/math&amp;gt; liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w niezależnym losowaniu 30 zer i 25 jedynek.]]&lt;br /&gt;
&lt;br /&gt;
Zastosowania testów opartych na tej statystyce nie ograniczają się do&lt;br /&gt;
analizy ciągów zer i jedynek (lub innych dwóch elementów). Poniżej&lt;br /&gt;
przedstawiamy jeszcze dwa testy korzystające ze statystyki &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Testowanie, czy próba jest wynikiem niezależnych losowań==&lt;br /&gt;
&lt;br /&gt;
Podobny problem &amp;amp;mdash; pytanie, czy elementy próby są wynikiem&lt;br /&gt;
niezależnych losowań &amp;amp;mdash; występuje np. przy testowaniu generatorów&lt;br /&gt;
liczb losowych ([[WnioskowanieStatystyczne/Z_komputerem#cite_note-0|będących kluczowym&lt;br /&gt;
elementem metod opisywanych w pierwszej części książki]]). Jednak w&lt;br /&gt;
tej sytuacji mamy do czynienia z ciągiem dowolnych liczb, a nie dwóch&lt;br /&gt;
symboli.&lt;br /&gt;
&lt;br /&gt;
Pomysł jest prosty: ciąg wyników wyrażających się dowolnymi liczbami&lt;br /&gt;
możemy zamienić na ciąg zer i jedynek, wybierając próg &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;&lt;br /&gt;
i przypisując wynikom większym od &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; jedynkę, a mniejszym&lt;br /&gt;
&amp;amp;mdash; zero. Jeśli chcemy mieć tyle samo zer i jedynek, jako&lt;br /&gt;
&amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; możemy wziąć [[WnioskowanieStatystyczne/Momenty#Mediana|medianę]] próby. Do&lt;br /&gt;
takiej serii możemy już z powodzeniem stosować opisany w poprzednim&lt;br /&gt;
rozdziale test oparty na statystyce &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &amp;amp;mdash;&lt;br /&gt;
oczywiście zachowując kolejność elementów w próbie.&lt;br /&gt;
&lt;br /&gt;
==Test zgodności rozkładów w dwóch populacjach==&lt;br /&gt;
&lt;br /&gt;
Mamy dwie próby. Hipoteza zerowa mówi, że zostały wylosowane z tego&lt;br /&gt;
samego rozkładu. Ciąg zer i jedynek tworzymy w następujący sposób:&lt;br /&gt;
&lt;br /&gt;
Elementy obu prób ustawiamy w jeden ciąg w kolejności od najmniejszej&lt;br /&gt;
do największej&amp;lt;ref&amp;gt;Jeśli wartości losowane są z rozkładów ciągłych, to&lt;br /&gt;
wystąpienie jednakowych wartości jest teoretycznie niemożliwe. W&lt;br /&gt;
praktyce wartości zapisujemy ze skończoną dokładnością; zwykle&lt;br /&gt;
przyjmuje się, że jednakowe wartości można pominąć.&amp;lt;/ref&amp;gt;.  Elementom&lt;br /&gt;
pierwszej próby przypisujemy jedynki, a drugiej &amp;amp;mdash; zera.&lt;br /&gt;
&lt;br /&gt;
Jeśli obie próby losowano z tej samej populacji, to liczba serii w tak określonym&lt;br /&gt;
ciągu podlega statystyce &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;, czyli ponownie możemy&lt;br /&gt;
stosować test Walda-Wolfowitza.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
---------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11702</id>
		<title>WnioskowanieStatystyczne/Test serii</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11702"/>
		<updated>2026-03-29T14:26:37Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Wyprowadzenie analityczne */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Test serii Walda-Wolfowitza=&lt;br /&gt;
&lt;br /&gt;
Serią nazywamy ciąg jednakowych elementów.  W poniższym przykładzie&lt;br /&gt;
mamy sześć serii (po trzy serie zer i jedynek):&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Nie jest to oczywiście jedyna kombinacja kolejności pięciu zer i pięciu jedynek,&lt;br /&gt;
dająca w wyniku sześć serii. Ponieważ każda pojedyncza kombinacja jest jednakowo&lt;br /&gt;
prawdopodobna (jeśli jest wynikiem niezależnych losowań), to prawdopodobieństwo&lt;br /&gt;
uzyskania danej liczby serii będzie tym większe, im więcej różnych kombinacji&lt;br /&gt;
będzie dawać w wyniku tę liczbę serii. Sformułujmy więc problem ogólnie:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
Mamy &amp;lt;math&amp;gt;N=n_1+n_2&amp;lt;/math&amp;gt; elementów, w tym &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek. &lt;br /&gt;
Na ile sposobów możemy je rozłożyć, aby uzyskać &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii? &lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;kod &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
import matplotlib.pyplot as plt&lt;br /&gt;
import numpy&lt;br /&gt;
&lt;br /&gt;
n1=25 # zera&lt;br /&gt;
n2=30 # jedynki&lt;br /&gt;
n=n1+n2 &lt;br /&gt;
ile_losowan=1000&lt;br /&gt;
&lt;br /&gt;
wynik=numpy.zeros(ile_losowan, dtype=numpy.int32)&lt;br /&gt;
&lt;br /&gt;
for i in range(0, ile_losowan):&lt;br /&gt;
	losowanie=numpy.zeros(n, dtype=numpy.int32)&lt;br /&gt;
	while numpy.sum(losowanie) &amp;lt; n2:&lt;br /&gt;
		losowanie[numpy.random.randint(0,n)]=1&lt;br /&gt;
	#print(numpy.array_str(losowanie,max_line_width=numpy.inf).replace(&amp;quot; &amp;quot;,&amp;quot;&amp;quot;), &amp;quot;\n&amp;quot;)&lt;br /&gt;
	zmiany=1&lt;br /&gt;
	for j in range(1, n):&lt;br /&gt;
		if(losowanie[j] != losowanie[j-1]):&lt;br /&gt;
			zmiany += 1&lt;br /&gt;
	wynik[i]=zmiany&lt;br /&gt;
&lt;br /&gt;
plt.hist(wynik, bins=range(0,n))&lt;br /&gt;
plt.xlabel(&amp;quot;$k$&amp;quot;)&lt;br /&gt;
plt.ylabel(&amp;quot;$P(k)$&amp;quot;)&lt;br /&gt;
plt.title(f&amp;quot;$n_1$ = {n1}, $n_2$ = {n2}, {ile_losowan} losowań&amp;quot;)&lt;br /&gt;
plt.show()&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;animacja dla 1000 &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|[[Plik:Testserii1000.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^3&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
[[Plik:Testserii.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^5&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.log.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek (skala logarytmiczna).]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
[[Plik:Testserii6.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^6&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Wyprowadzenie analityczne==&lt;br /&gt;
&lt;br /&gt;
Wróćmy do prostszego przykładu, zawierającego pięć jedynek i pięć zer. &lt;br /&gt;
Podział na serie możemy interpretować jak przypisanie liczbom od jeden do dziesięciu &lt;br /&gt;
(pozycje w ciągu) zera lub jedynki:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|2&lt;br /&gt;
|3&lt;br /&gt;
|4&lt;br /&gt;
|5&lt;br /&gt;
|6&lt;br /&gt;
|7&lt;br /&gt;
|8&lt;br /&gt;
|9&lt;br /&gt;
|10&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inaczej mówiąc, konkretny ciąg &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; zer i jedynek wyznaczony&lt;br /&gt;
jest przez wylosowanie spośród liczb od jednego do &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; tych&lt;br /&gt;
liczb, którym mają być przypisane jedynki (pozostałym będą przypisane&lt;br /&gt;
zera &amp;amp;mdash; lub odwrotnie). Czyli wszystkich możliwych ciągów&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek będzie tyle, na ile&lt;br /&gt;
sposobów można wylosować &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt;.  Policzmy: pozycję (czyli numer, wypisany w dolnym&lt;br /&gt;
rzędzie powyższej tabeli) pierwszego elementu losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; możliwości, drugiego &amp;amp;mdash; spośród &amp;lt;math&amp;gt;N-1&amp;lt;/math&amp;gt;&lt;br /&gt;
pozostałych możliwości (jedna pozycja jest już zajęta), i tak dalej,&lt;br /&gt;
aż pozycję ostatniego z &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; pozostałych możliwości.  Liczba możliwych wyników&lt;br /&gt;
będzie iloczynem tych wszystkich liczb, czyli wyniesie&lt;br /&gt;
&amp;lt;math&amp;gt;N\cdot(N-1)\cdot(N-2)\cdot\ \dots\ \cdot (N-n_1) =&lt;br /&gt;
N!/(N-n_1)!&amp;lt;/math&amp;gt; Skoro wszystkie jedynki są jednakowe i nie&lt;br /&gt;
rozróżniamy wyników różniących się ich kolejnością, to wynik ten&lt;br /&gt;
musimy podzielić przez liczbę różnych ustawień kolejności elementów&lt;br /&gt;
(liczbę permutacji) zbioru &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt;-elementowego. Wyniesie ona&lt;br /&gt;
&amp;lt;math&amp;gt;n_1\cdot(n_1-1)\cdot\ \dots\ \cdot 1&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&amp;lt;math&amp;gt;n_1!&amp;lt;/math&amp;gt; Ostatecznie jako liczbę różnych ustawień&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; jedynek dostajemy:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{N!}{(N-n_1)!\ n_1!} = \binom{N}{n_1}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jest to znany z [[WnioskowanieStatystyczne/Rozklady-przyklady#Rozkład dwumianowy|rozdziału o rozkładzie dwumianowym]] symbol Newtona &amp;lt;math&amp;gt;\binom{N}{n_1}&amp;lt;/math&amp;gt;. Jego własności&lt;br /&gt;
symetrii zgadzają się z sytuacją, w ktorej &amp;quot;wybierać&amp;quot; możemy albo &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer&lt;br /&gt;
albo &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\binom{N}{n_1}=\binom{n_1+n_2}{n_1}=\frac{(n_1+n_2)!}{n_1! n_2!}=\binom{n_1+n_2}{n_2}=\binom{N}{n_2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje policzyć, ile z tych możliwości (przy ustalonych liczbach&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer) wygeneruje ciąg&lt;br /&gt;
wyników, w którym będzie dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest parzysta===&lt;br /&gt;
będziemy mieć tyle samo serii jedynek i zer (po &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt;). Aby rozmieścić &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek w &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt; seriach musimy wyznaczyć &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; punktów podziału na serie; w powyższym przykładzie będą to (kropki) '''1.1.111''' &amp;amp;mdash; było 6 serii, więc mamy 2 punkty podziału. Inaczej losujemy spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych punktów podziału &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; podziałów, jak wynika z liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;. Daje to &amp;lt;math&amp;gt;\binom{n_1-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości. W miejsca podziału (oznaczone kropkami) wstawiamy serie zer; analogicznie możemy to zrobić na &amp;lt;math&amp;gt;\binom{n_2-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości (w przykładzie: '''00.00.0'''). Liczbę tę należy pomnożyć przez dwa ze względu na możliwość zamiany miejscami zer i jedynek. Prawdopodobieństwo danej liczby serii dostaniemy &amp;amp;mdash; zgodnie z klasyczną definicją prawdopodobieństwa &amp;amp;mdash; dzieląc liczbę wszystkich tych kombinacji &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer, które generują dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, przez liczbę wszystkich możliwych kombinacji: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle &lt;br /&gt;
P=\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}} { \binom{N}{n_1}} \qquad\textrm{dla }\ k\ \textrm{parzystych.} &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest nieparzysta=== &lt;br /&gt;
którychś serii &amp;amp;mdash; zer lub jedynek &amp;amp;mdash; będzie dokładnie o jeden więcej. &amp;lt;equation id=&amp;quot;eq:127&amp;quot;&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\underline{1}\overline{00}\underline{1}\overline{000}\underline{111}&lt;br /&gt;
        &amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii jedynek''', mamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii zer i &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii jedynek. &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek dzielimy na &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii, czyli wyznaczamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; punktów podziału spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych &amp;amp;mdash; daje to &amp;lt;math&amp;gt;\binom{n_1-1}{(k-1)/2}&amp;lt;/math&amp;gt; możliwości. Z kolei &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer dzielimy na &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii, co daje &amp;lt;math&amp;gt;\binom{n_2-1}{(k-1)/2-1}&amp;lt;/math&amp;gt; możliwości. Iloczyn tych dwóch wielkości określa liczbę możliwości dających &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, jeśli więcej jest serii jedynek: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:128&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jeśli więcej jest serii zer''', to na drodze analogicznego rozumowania dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:129&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\displaystyle \binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}. &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prawdopodobieństwo dla przypadku nieparzystej liczby serii będzie sumą tych dwóch wielkości, podzieloną, jak w przypadku parzystego &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;, przez liczbę wszystkich możliwości:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:130&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle\begin{matrix}&lt;br /&gt;
P&amp;amp;\!\!\!\!=&amp;amp;\!\!\!\!\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}  \\&lt;br /&gt;
&amp;amp;&amp;amp;\textrm{dla }\ k\ \textrm{ nieparzystych.}&lt;br /&gt;
\end{matrix}&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Pozostaje jeszcze rozważyć sytuację===&lt;br /&gt;
w której liczba serii jest nieparzysta, jak w punkcie 2., ale mniej liczne&lt;br /&gt;
elementy rozłożone są wyłącznie w serie jednoelementowe, na przykład&lt;br /&gt;
001010010100, czyli liczba serii wynosi &amp;lt;math&amp;gt;2n+1&amp;lt;/math&amp;gt;, gdzie&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jest liczbą mniej licznych elementów (w tym&lt;br /&gt;
przykładzie jedynek). Wtedy znika jeden ze składników sumy z licznika&lt;br /&gt;
powyższego równania, gdyż zachodzić może wyłącznie&lt;br /&gt;
przypadek 2.1 lub 2.2.&lt;br /&gt;
&lt;br /&gt;
Ostatecznie dostajemy następujący wzór na&lt;br /&gt;
prawdopodobieństwo wystąpienia &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii w próbie, w której&lt;br /&gt;
drogą niezależnych losowań wylosowano &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i&lt;br /&gt;
&amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:131&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
P(k\mid n_1, n_2)=\begin{cases} &lt;br /&gt;
\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}}&lt;br /&gt;
{ \binom{N}{n_1}} &lt;br /&gt;
\quad \textrm{dla }\ k\ \textrm{ parzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}&lt;br /&gt;
\\&lt;br /&gt;
\quad\qquad\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ nieparzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_\textrm{max}-1}{(k-1)/2} &lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{(k-1)/2}}}&lt;br /&gt;
\ \quad\qquad\qquad\textrm{dla }\ k\ \textrm{ nieparzystych i }  &lt;br /&gt;
n_\textrm{min}=\frac{k-1}{2}, &lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;n_\textrm{min}=\min(n_1, n_2)&amp;lt;/math&amp;gt; i&lt;br /&gt;
&amp;lt;math&amp;gt;n_\textrm{max}=\max(n_1, n_2)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wzór ten określa rozkład statystyki, będącej liczbą serii w próbie złożonej &lt;br /&gt;
z dowolnych dwóch rodzajów elementów (oznaczanych powyżej jako '''0''' i '''1'''). Dzięki niemu możemy wreszcie skonstruować kompletny test hipotezy&lt;br /&gt;
mówiącej, że dany ciąg jest wynikiem niezależnych losowań. Przypomnijmy dane &lt;br /&gt;
z [[WnioskowanieStatystyczne/Testy_nieprametryczne|przykładu o nieuczciwym ankieterze]]:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
'''1101101000101001011101101111010110010101001010100011101'''&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W ciągu tym występuje 25 zer i 30 jedynek, układających się w 37&lt;br /&gt;
serii.  Na podstawie wzoru &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; możemy obliczyć&lt;br /&gt;
rozkład prawdopodobieństwa wylosowania ciągu 25 zer i 30 jedynek, w&lt;br /&gt;
którym będzie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii. Możliwe wartości &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;&lt;br /&gt;
będą w tym przypadku zawierać się między 2 (jedna seria zer i jedna&lt;br /&gt;
jedynek) a 51 (ponieważ mniej jest zer, największa liczba serii&lt;br /&gt;
odpowiada przypadkowi, w którym wszystkie zera układają się w serie&lt;br /&gt;
jednoelementowe). Rozkład prawdopodobieństwa dla tego przypadku&lt;br /&gt;
przedstawia rysunek &amp;lt;xr id=&amp;quot;fig:132&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:serie.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Rozkład prawdopodobieństw &amp;lt;math&amp;gt;P(k)&amp;lt;/math&amp;gt; liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w niezależnym losowaniu 30 zer i 25 jedynek.]]&lt;br /&gt;
&lt;br /&gt;
Zastosowania testów opartych na tej statystyce nie ograniczają się do&lt;br /&gt;
analizy ciągów zer i jedynek (lub innych dwóch elementów). Poniżej&lt;br /&gt;
przedstawiamy jeszcze dwa testy korzystające ze statystyki &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Testowanie, czy próba jest wynikiem niezależnych losowań==&lt;br /&gt;
&lt;br /&gt;
Podobny problem &amp;amp;mdash; pytanie, czy elementy próby są wynikiem&lt;br /&gt;
niezależnych losowań &amp;amp;mdash; występuje np. przy testowaniu generatorów&lt;br /&gt;
liczb losowych ([[WnioskowanieStatystyczne/Z_komputerem#cite_note-0|będących kluczowym&lt;br /&gt;
elementem metod opisywanych w pierwszej części książki]]). Jednak w&lt;br /&gt;
tej sytuacji mamy do czynienia z ciągiem dowolnych liczb, a nie dwóch&lt;br /&gt;
symboli.&lt;br /&gt;
&lt;br /&gt;
Pomysł jest prosty: ciąg wyników wyrażających się dowolnymi liczbami&lt;br /&gt;
możemy zamienić na ciąg zer i jedynek, wybierając próg &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;&lt;br /&gt;
i przypisując wynikom większym od &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; jedynkę, a mniejszym&lt;br /&gt;
&amp;amp;mdash; zero. Jeśli chcemy mieć tyle samo zer i jedynek, jako&lt;br /&gt;
&amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; możemy wziąć [[WnioskowanieStatystyczne/Momenty#Mediana|medianę]] próby. Do&lt;br /&gt;
takiej serii możemy już z powodzeniem stosować opisany w poprzednim&lt;br /&gt;
rozdziale test oparty na statystyce &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &amp;amp;mdash;&lt;br /&gt;
oczywiście zachowując kolejność elementów w próbie.&lt;br /&gt;
&lt;br /&gt;
==Test zgodności rozkładów w dwóch populacjach==&lt;br /&gt;
&lt;br /&gt;
Mamy dwie próby. Hipoteza zerowa mówi, że zostały wylosowane z tego&lt;br /&gt;
samego rozkładu. Ciąg zer i jedynek tworzymy w następujący sposób:&lt;br /&gt;
&lt;br /&gt;
Elementy obu prób ustawiamy w jeden ciąg w kolejności od najmniejszej&lt;br /&gt;
do największej&amp;lt;ref&amp;gt;Jeśli wartości losowane są z rozkładów ciągłych, to&lt;br /&gt;
wystąpienie jednakowych wartości jest teoretycznie niemożliwe. W&lt;br /&gt;
praktyce wartości zapisujemy ze skończoną dokładnością; zwykle&lt;br /&gt;
przyjmuje się, że jednakowe wartości można pominąć.&amp;lt;/ref&amp;gt;.  Elementom&lt;br /&gt;
pierwszej próby przypisujemy jedynki, a drugiej &amp;amp;mdash; zera.&lt;br /&gt;
&lt;br /&gt;
Jeśli obie próby losowano z tej samej populacji, to liczba serii w tak określonym&lt;br /&gt;
ciągu podlega statystyce &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;, czyli ponownie możemy&lt;br /&gt;
stosować test Walda-Wolfowitza.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
---------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11701</id>
		<title>WnioskowanieStatystyczne/Test serii</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11701"/>
		<updated>2026-03-29T14:12:23Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Test serii Walda-Wolfowitza */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Test serii Walda-Wolfowitza=&lt;br /&gt;
&lt;br /&gt;
Serią nazywamy ciąg jednakowych elementów.  W poniższym przykładzie&lt;br /&gt;
mamy sześć serii (po trzy serie zer i jedynek):&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Nie jest to oczywiście jedyna kombinacja kolejności pięciu zer i pięciu jedynek,&lt;br /&gt;
dająca w wyniku sześć serii. Ponieważ każda pojedyncza kombinacja jest jednakowo&lt;br /&gt;
prawdopodobna (jeśli jest wynikiem niezależnych losowań), to prawdopodobieństwo&lt;br /&gt;
uzyskania danej liczby serii będzie tym większe, im więcej różnych kombinacji&lt;br /&gt;
będzie dawać w wyniku tę liczbę serii. Sformułujmy więc problem ogólnie:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
Mamy &amp;lt;math&amp;gt;N=n_1+n_2&amp;lt;/math&amp;gt; elementów, w tym &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek. &lt;br /&gt;
Na ile sposobów możemy je rozłożyć, aby uzyskać &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii? &lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;kod &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
import matplotlib.pyplot as plt&lt;br /&gt;
import numpy&lt;br /&gt;
&lt;br /&gt;
n1=25 # zera&lt;br /&gt;
n2=30 # jedynki&lt;br /&gt;
n=n1+n2 &lt;br /&gt;
ile_losowan=1000&lt;br /&gt;
&lt;br /&gt;
wynik=numpy.zeros(ile_losowan, dtype=numpy.int32)&lt;br /&gt;
&lt;br /&gt;
for i in range(0, ile_losowan):&lt;br /&gt;
	losowanie=numpy.zeros(n, dtype=numpy.int32)&lt;br /&gt;
	while numpy.sum(losowanie) &amp;lt; n2:&lt;br /&gt;
		losowanie[numpy.random.randint(0,n)]=1&lt;br /&gt;
	#print(numpy.array_str(losowanie,max_line_width=numpy.inf).replace(&amp;quot; &amp;quot;,&amp;quot;&amp;quot;), &amp;quot;\n&amp;quot;)&lt;br /&gt;
	zmiany=1&lt;br /&gt;
	for j in range(1, n):&lt;br /&gt;
		if(losowanie[j] != losowanie[j-1]):&lt;br /&gt;
			zmiany += 1&lt;br /&gt;
	wynik[i]=zmiany&lt;br /&gt;
&lt;br /&gt;
plt.hist(wynik, bins=range(0,n))&lt;br /&gt;
plt.xlabel(&amp;quot;$k$&amp;quot;)&lt;br /&gt;
plt.ylabel(&amp;quot;$P(k)$&amp;quot;)&lt;br /&gt;
plt.title(f&amp;quot;$n_1$ = {n1}, $n_2$ = {n2}, {ile_losowan} losowań&amp;quot;)&lt;br /&gt;
plt.show()&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;animacja dla 1000 &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|[[Plik:Testserii1000.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^3&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
[[Plik:Testserii.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^5&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.log.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek (skala logarytmiczna).]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
[[Plik:Testserii6.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^6&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Wyprowadzenie analityczne==&lt;br /&gt;
&lt;br /&gt;
Wróćmy do prostszego przykładu, zawierającego pięć jedynek i pięć zer. &lt;br /&gt;
Podział na serie możemy interpretować jak przypisanie liczbom od jeden do dziesięciu &lt;br /&gt;
(pozycje w ciągu) zera lub jedynki:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|2&lt;br /&gt;
|3&lt;br /&gt;
|4&lt;br /&gt;
|5&lt;br /&gt;
|6&lt;br /&gt;
|7&lt;br /&gt;
|8&lt;br /&gt;
|9&lt;br /&gt;
|10&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inaczej mówiąc, konkretny ciąg &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; zer i jedynek wyznaczony&lt;br /&gt;
jest przez wylosowanie spośród liczb od jednego do &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; tych&lt;br /&gt;
liczb, którym mają być przypisane jedynki (pozostałym będą przypisane&lt;br /&gt;
zera &amp;amp;mdash; lub odwrotnie). Czyli wszystkich możliwych ciągów&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek będzie tyle, na ile&lt;br /&gt;
sposobów można wylosować &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt;.  Policzmy: pozycję (czyli numer, wypisany w dolnym&lt;br /&gt;
rzędzie powyższej tabeli) pierwszego elementu losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; możliwości, drugiego &amp;amp;mdash; spośród &amp;lt;math&amp;gt;N-1&amp;lt;/math&amp;gt;&lt;br /&gt;
pozostałych możliwości (jedna pozycja jest już zajęta), i tak dalej,&lt;br /&gt;
aż pozycję ostatniego z &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; pozostałych możliwości.  Liczba możliwych wyników&lt;br /&gt;
będzie iloczynem tych wszystkich liczb, czyli wyniesie&lt;br /&gt;
&amp;lt;math&amp;gt;N\cdot(N-1)\cdot(N-2)\cdot\ \dots\ \cdot (N-n_1) =&lt;br /&gt;
N!/(N-n_1)!&amp;lt;/math&amp;gt; Skoro wszystkie jedynki są jednakowe i nie&lt;br /&gt;
rozróżniamy wyników różniących się ich kolejnością, to wynik ten&lt;br /&gt;
musimy podzielić przez liczbę różnych ustawień kolejności elementów&lt;br /&gt;
(liczbę permutacji) zbioru &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt;-elementowego. Wyniesie ona&lt;br /&gt;
&amp;lt;math&amp;gt;n_1\cdot(n_1-1)\cdot\ \dots\ \cdot 1&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&amp;lt;math&amp;gt;n_1!&amp;lt;/math&amp;gt; Ostatecznie jako liczbę różnych ustawień&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; jedynek dostajemy:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\frac{N!}{(N-n_1)!\ n_1!} = \binom{N}{n_1}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Jest to znany z [[WnioskowanieStatystyczne/Rozklady-przyklady#Rozkład dwumianowy|rozdziału o rozkładzie dwumianowym]] symbol Newtona &amp;lt;math&amp;gt;\binom{N}{n_1}&amp;lt;/math&amp;gt;. Jego własności&lt;br /&gt;
symetrii zgadzają się z sytuacją, w ktorej &amp;quot;wybierać&amp;quot; możemy albo &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer&lt;br /&gt;
albo &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\binom{N}{n_1}=\binom{n_1+n_2}{n_1}=\frac{(n_1+n_2)!}{n_1! n_2!}=\binom{n_1+n_2}{n_2}=\binom{N}{n_2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje policzyć, ile z tych możliwości (przy ustalonych liczbach&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer) wygeneruje ciąg&lt;br /&gt;
wyników, w którym będzie dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
#'''Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest parzysta''', to będziemy mieć tyle samo serii jedynek i zer (po &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt;). Aby rozmieścić &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek w &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt; seriach musimy wyznaczyć &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; punktów podziału na serie; w powyższym przykładzie będą to (kropki) '''1.1.111''' &amp;amp;mdash; było 6 serii, więc mamy 2 punkty podziału. Inaczej losujemy spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych punktów podziału &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; podziałów, jak wynika z liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;. Daje to &amp;lt;math&amp;gt;\binom{n_1-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości. W miejsca podziału (oznaczone kropkami) wstawiamy serie zer; analogicznie możemy to zrobić na &amp;lt;math&amp;gt;\binom{n_2-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości (w przykładzie: '''00.00.0'''). Liczbę tę należy pomnożyć przez dwa ze względu na możliwość zamiany miejscami zer i jedynek. Prawdopodobieństwo danej liczby serii dostaniemy &amp;amp;mdash; zgodnie z klasyczną definicją prawdopodobieństwa &amp;amp;mdash; dzieląc liczbę wszystkich tych kombinacji &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer, które generują dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, przez liczbę wszystkich możliwych kombinacji: &amp;lt;math&amp;gt; P=\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}} { \binom{N}{n_1}} \qquad\textrm{dla }\ k\ \textrm{parzystych.} &amp;lt;/math&amp;gt;&lt;br /&gt;
#'''Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest nieparzysta,''' to którychś serii &amp;amp;mdash; zer lub jedynek &amp;amp;mdash; będzie dokładnie o jeden więcej. &amp;lt;equation id=&amp;quot;eq:127&amp;quot;&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{000}\underline{111}&lt;br /&gt;
        &amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
##'''jeśli więcej jest serii jedynek''', mamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii zer i &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii jedynek. &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek dzielimy na &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii, czyli wyznaczamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; punktów podziału spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych &amp;amp;mdash; daje to &amp;lt;math&amp;gt;\binom{n_1-1}{(k-1)/2}&amp;lt;/math&amp;gt; możliwości. Z kolei &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer dzielimy na &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii, co daje &amp;lt;math&amp;gt;\binom{n_2-1}{(k-1)/2-1}&amp;lt;/math&amp;gt; możliwości. Iloczyn tych dwóch wielkości określa liczbę możliwości dających &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, jeśli więcej jest serii jedynek: &amp;lt;equation id=&amp;quot;eq:128&amp;quot;&amp;gt;&amp;lt;math&amp;gt; \binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
##'''jeśli więcej jest serii zer''', to na drodze analogicznego rozumowania dostajemy &amp;lt;equation id=&amp;quot;eq:129&amp;quot;&amp;gt;&amp;lt;math&amp;gt; \binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}. &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prawdopodobieństwo dla przypadku nieparzystej liczby serii będzie sumą tych dwóch wielkości, podzieloną, jak w przypadku parzystego &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;, przez liczbę wszystkich możliwości:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:130&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{matrix}&lt;br /&gt;
P&amp;amp;\!\!\!\!=&amp;amp;\!\!\!\!\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}  \\&lt;br /&gt;
&amp;amp;&amp;amp;\textrm{dla }\ k\ \textrm{ nieparzystych.}&lt;br /&gt;
\end{matrix}&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Pozostaje jeszcze rozważyć sytuację''', w której liczba serii jest&lt;br /&gt;
nieparzysta, jak w punkcie 2., ale mniej liczne&lt;br /&gt;
elementy rozłożone są wyłącznie w serie jednoelementowe, na przykład&lt;br /&gt;
001010010100, czyli liczba serii wynosi &amp;lt;math&amp;gt;2n+1&amp;lt;/math&amp;gt;, gdzie&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jest liczbą mniej licznych elementów (w tym&lt;br /&gt;
przykładzie jedynek). Wtedy znika jeden ze składników sumy z licznika&lt;br /&gt;
powyższego równania, gdyż zachodzić może wyłącznie&lt;br /&gt;
przypadek 2.1 lub 2.2.&lt;br /&gt;
&lt;br /&gt;
Ostatecznie dostajemy następujący wzór na&lt;br /&gt;
prawdopodobieństwo wystąpienia &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii w próbie, w której&lt;br /&gt;
drogą niezależnych losowań wylosowano &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i&lt;br /&gt;
&amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:131&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
P(k\mid n_1, n_2)=\begin{cases} &lt;br /&gt;
\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}}&lt;br /&gt;
{ \binom{N}{n_1}} &lt;br /&gt;
\quad \textrm{dla }\ k\ \textrm{ parzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}&lt;br /&gt;
\\&lt;br /&gt;
\quad\qquad\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ nieparzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_\textrm{max}-1}{(k-1)/2} &lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{(k-1)/2}}}&lt;br /&gt;
\ \quad\qquad\qquad\textrm{dla }\ k\ \textrm{ nieparzystych i }  &lt;br /&gt;
n_\textrm{min}=\frac{k-1}{2}, &lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;n_\textrm{min}=\min(n_1, n_2)&amp;lt;/math&amp;gt; i&lt;br /&gt;
&amp;lt;math&amp;gt;n_\textrm{max}=\max(n_1, n_2)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Wzór ten określa rozkład statystyki, będącej liczbą serii w próbie złożonej &lt;br /&gt;
z dowolnych dwóch rodzajów elementów (oznaczanych powyżej jako '''0''' i '''1'''). Dzięki niemu możemy wreszcie skonstruować kompletny test hipotezy&lt;br /&gt;
mówiącej, że dany ciąg jest wynikiem niezależnych losowań. Przypomnijmy dane &lt;br /&gt;
z [[WnioskowanieStatystyczne/Testy_nieprametryczne|przykładu o nieuczciwym ankieterze]]:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
'''1101101000101001011101101111010110010101001010100011101'''&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W ciągu tym występuje 25 zer i 30 jedynek, układających się w 37&lt;br /&gt;
serii.  Na podstawie wzoru &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; możemy obliczyć&lt;br /&gt;
rozkład prawdopodobieństwa wylosowania ciągu 25 zer i 30 jedynek, w&lt;br /&gt;
którym będzie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii. Możliwe wartości &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;&lt;br /&gt;
będą w tym przypadku zawierać się między 2 (jedna seria zer i jedna&lt;br /&gt;
jedynek) a 51 (ponieważ mniej jest zer, największa liczba serii&lt;br /&gt;
odpowiada przypadkowi, w którym wszystkie zera układają się w serie&lt;br /&gt;
jednoelementowe). Rozkład prawdopodobieństwa dla tego przypadku&lt;br /&gt;
przedstawia rysunek &amp;lt;xr id=&amp;quot;fig:132&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:serie.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Rozkład prawdopodobieństw &amp;lt;math&amp;gt;P(k)&amp;lt;/math&amp;gt; liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w niezależnym losowaniu 30 zer i 25 jedynek.]]&lt;br /&gt;
&lt;br /&gt;
Zastosowania testów opartych na tej statystyce nie ograniczają się do&lt;br /&gt;
analizy ciągów zer i jedynek (lub innych dwóch elementów). Poniżej&lt;br /&gt;
przedstawiamy jeszcze dwa testy korzystające ze statystyki &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Testowanie, czy próba jest wynikiem niezależnych losowań==&lt;br /&gt;
&lt;br /&gt;
Podobny problem &amp;amp;mdash; pytanie, czy elementy próby są wynikiem&lt;br /&gt;
niezależnych losowań &amp;amp;mdash; występuje np. przy testowaniu generatorów&lt;br /&gt;
liczb losowych ([[WnioskowanieStatystyczne/Z_komputerem#cite_note-0|będących kluczowym&lt;br /&gt;
elementem metod opisywanych w pierwszej części książki]]). Jednak w&lt;br /&gt;
tej sytuacji mamy do czynienia z ciągiem dowolnych liczb, a nie dwóch&lt;br /&gt;
symboli.&lt;br /&gt;
&lt;br /&gt;
Pomysł jest prosty: ciąg wyników wyrażających się dowolnymi liczbami&lt;br /&gt;
możemy zamienić na ciąg zer i jedynek, wybierając próg &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;&lt;br /&gt;
i przypisując wynikom większym od &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; jedynkę, a mniejszym&lt;br /&gt;
&amp;amp;mdash; zero. Jeśli chcemy mieć tyle samo zer i jedynek, jako&lt;br /&gt;
&amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; możemy wziąć [[WnioskowanieStatystyczne/Momenty#Mediana|medianę]] próby. Do&lt;br /&gt;
takiej serii możemy już z powodzeniem stosować opisany w poprzednim&lt;br /&gt;
rozdziale test oparty na statystyce &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &amp;amp;mdash;&lt;br /&gt;
oczywiście zachowując kolejność elementów w próbie.&lt;br /&gt;
&lt;br /&gt;
==Test zgodności rozkładów w dwóch populacjach==&lt;br /&gt;
&lt;br /&gt;
Mamy dwie próby. Hipoteza zerowa mówi, że zostały wylosowane z tego&lt;br /&gt;
samego rozkładu. Ciąg zer i jedynek tworzymy w następujący sposób:&lt;br /&gt;
&lt;br /&gt;
Elementy obu prób ustawiamy w jeden ciąg w kolejności od najmniejszej&lt;br /&gt;
do największej&amp;lt;ref&amp;gt;Jeśli wartości losowane są z rozkładów ciągłych, to&lt;br /&gt;
wystąpienie jednakowych wartości jest teoretycznie niemożliwe. W&lt;br /&gt;
praktyce wartości zapisujemy ze skończoną dokładnością; zwykle&lt;br /&gt;
przyjmuje się, że jednakowe wartości można pominąć.&amp;lt;/ref&amp;gt;.  Elementom&lt;br /&gt;
pierwszej próby przypisujemy jedynki, a drugiej &amp;amp;mdash; zera.&lt;br /&gt;
&lt;br /&gt;
Jeśli obie próby losowano z tej samej populacji, to liczba serii w tak określonym&lt;br /&gt;
ciągu podlega statystyce &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;, czyli ponownie możemy&lt;br /&gt;
stosować test Walda-Wolfowitza.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
---------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11700</id>
		<title>WnioskowanieStatystyczne/Test serii</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11700"/>
		<updated>2026-03-29T10:29:34Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Test serii Walda-Wolfowitza */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Test serii Walda-Wolfowitza=&lt;br /&gt;
&lt;br /&gt;
Serią nazywamy ciąg jednakowych elementów.  W poniższym przykładzie&lt;br /&gt;
mamy sześć serii (po trzy serie zer i jedynek):&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Nie jest to oczywiście jedyna kombinacja kolejności pięciu zer i pięciu jedynek,&lt;br /&gt;
dająca w wyniku sześć serii. Ponieważ każda pojedyncza kombinacja jest jednakowo&lt;br /&gt;
prawdopodobna (jeśli jest wynikiem niezależnych losowań), to prawdopodobieństwo&lt;br /&gt;
uzyskania danej liczby serii będzie tym większe, im więcej różnych kombinacji&lt;br /&gt;
będzie dawać w wyniku tę liczbę serii. Sformułujmy więc problem ogólnie:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
Mamy &amp;lt;math&amp;gt;N=n_1+n_2&amp;lt;/math&amp;gt; elementów, w tym &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek. &lt;br /&gt;
Na ile sposobów możemy je rozłożyć, aby uzyskać &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii? &lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;kod &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
import matplotlib.pyplot as plt&lt;br /&gt;
import numpy&lt;br /&gt;
&lt;br /&gt;
n1=25 # zera&lt;br /&gt;
n2=30 # jedynki&lt;br /&gt;
n=n1+n2 &lt;br /&gt;
ile_losowan=1000&lt;br /&gt;
&lt;br /&gt;
wynik=numpy.zeros(ile_losowan, dtype=numpy.int32)&lt;br /&gt;
&lt;br /&gt;
for i in range(0, ile_losowan):&lt;br /&gt;
	losowanie=numpy.zeros(n, dtype=numpy.int32)&lt;br /&gt;
	while numpy.sum(losowanie) &amp;lt; n2:&lt;br /&gt;
		losowanie[numpy.random.randint(0,n)]=1&lt;br /&gt;
	#print(numpy.array_str(losowanie,max_line_width=numpy.inf).replace(&amp;quot; &amp;quot;,&amp;quot;&amp;quot;), &amp;quot;\n&amp;quot;)&lt;br /&gt;
	zmiany=1&lt;br /&gt;
	for j in range(1, n):&lt;br /&gt;
		if(losowanie[j] != losowanie[j-1]):&lt;br /&gt;
			zmiany += 1&lt;br /&gt;
	wynik[i]=zmiany&lt;br /&gt;
&lt;br /&gt;
plt.hist(wynik, bins=range(0,n))&lt;br /&gt;
plt.xlabel(&amp;quot;$k$&amp;quot;)&lt;br /&gt;
plt.ylabel(&amp;quot;$P(k)$&amp;quot;)&lt;br /&gt;
plt.title(f&amp;quot;$n_1$ = {n1}, $n_2$ = {n2}, {ile_losowan} losowań&amp;quot;)&lt;br /&gt;
plt.show()&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;animacja dla 1000 &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|[[Plik:Testserii1000.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^3&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
[[Plik:Testserii.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^5&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.log.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek (skala logarytmiczna).]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
[[Plik:Testserii6.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^6&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wróćmy do prostszego przykładu, zawierającego pięć jedynek i pięć zer. &lt;br /&gt;
Podział na serie możemy interpretować jak przypisanie liczbom od jeden do dziesięciu &lt;br /&gt;
(pozycje w ciągu) zera lub jedynki:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|2&lt;br /&gt;
|3&lt;br /&gt;
|4&lt;br /&gt;
|5&lt;br /&gt;
|6&lt;br /&gt;
|7&lt;br /&gt;
|8&lt;br /&gt;
|9&lt;br /&gt;
|10&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inaczej mówiąc, konkretny ciąg &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; zer i jedynek wyznaczony&lt;br /&gt;
jest przez wylosowanie spośród liczb od jednego do &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; tych&lt;br /&gt;
liczb, którym mają być przypisane jedynki (pozostałym będą przypisane&lt;br /&gt;
zera &amp;amp;mdash; lub odwrotnie). Czyli wszystkich możliwych ciągów&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek będzie tyle, na ile&lt;br /&gt;
sposobów można wylosować &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt;.  Policzmy: pozycję (czyli numer, wypisany w dolnym&lt;br /&gt;
rzędzie powyższej tabeli) pierwszego elementu losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; możliwości, drugiego &amp;amp;mdash; spośród &amp;lt;math&amp;gt;N-1&amp;lt;/math&amp;gt;&lt;br /&gt;
pozostałych możliwości (jedna pozycja jest już zajęta), i tak dalej,&lt;br /&gt;
aż pozycję ostatniego z &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; pozostałych możliwości.  Liczba możliwych wyników&lt;br /&gt;
będzie iloczynem tych wszystkich liczb, czyli wyniesie&lt;br /&gt;
&amp;lt;math&amp;gt;N\cdot(N-1)\cdot(N-2)\cdot\ \dots\ \cdot (N-n_1) =&lt;br /&gt;
N!/(N-n_1)!&amp;lt;/math&amp;gt; Skoro wszystkie jedynki są jednakowe i nie&lt;br /&gt;
rozróżniamy wyników różniących się ich kolejnością, to wynik ten&lt;br /&gt;
musimy podzielić przez liczbę różnych ustawień kolejności elementów&lt;br /&gt;
(liczbę permutacji) zbioru &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt;-elementowego. Wyniesie ona&lt;br /&gt;
&amp;lt;math&amp;gt;n_1\cdot(n_1-1)\cdot\ \dots\ \cdot 1&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&amp;lt;math&amp;gt;n_1!&amp;lt;/math&amp;gt; Ostatecznie jako liczbę różnych ustawień&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; jedynek dostajemy:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\frac{N!}{(N-n_1)!\ n_1!} = \binom{N}{n_1}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Jest to znany z [[WnioskowanieStatystyczne/Rozklady-przyklady#Rozkład dwumianowy|rozdziału o rozkładzie dwumianowym]] symbol Newtona &amp;lt;math&amp;gt;\binom{N}{n_1}&amp;lt;/math&amp;gt;. Jego własności&lt;br /&gt;
symetrii zgadzają się z sytuacją, w ktorej &amp;quot;wybierać&amp;quot; możemy albo &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer&lt;br /&gt;
albo &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\binom{N}{n_1}=\binom{n_1+n_2}{n_1}=\frac{(n_1+n_2)!}{n_1! n_2!}=\binom{n_1+n_2}{n_2}=\binom{N}{n_2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje policzyć, ile z tych możliwości (przy ustalonych liczbach&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer) wygeneruje ciąg&lt;br /&gt;
wyników, w którym będzie dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
#'''Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest parzysta''', to będziemy mieć tyle samo serii jedynek i zer (po &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt;). Aby rozmieścić &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek w &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt; seriach musimy wyznaczyć &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; punktów podziału na serie; w powyższym przykładzie będą to (kropki) '''1.1.111''' &amp;amp;mdash; było 6 serii, więc mamy 2 punkty podziału. Inaczej losujemy spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych punktów podziału &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; podziałów, jak wynika z liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;. Daje to &amp;lt;math&amp;gt;\binom{n_1-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości. W miejsca podziału (oznaczone kropkami) wstawiamy serie zer; analogicznie możemy to zrobić na &amp;lt;math&amp;gt;\binom{n_2-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości (w przykładzie: '''00.00.0'''). Liczbę tę należy pomnożyć przez dwa ze względu na możliwość zamiany miejscami zer i jedynek. Prawdopodobieństwo danej liczby serii dostaniemy &amp;amp;mdash; zgodnie z klasyczną definicją prawdopodobieństwa &amp;amp;mdash; dzieląc liczbę wszystkich tych kombinacji &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer, które generują dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, przez liczbę wszystkich możliwych kombinacji: &amp;lt;math&amp;gt; P=\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}} { \binom{N}{n_1}} \qquad\textrm{dla }\ k\ \textrm{parzystych.} &amp;lt;/math&amp;gt;&lt;br /&gt;
#'''Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest nieparzysta,''' to którychś serii &amp;amp;mdash; zer lub jedynek &amp;amp;mdash; będzie dokładnie o jeden więcej. &amp;lt;equation id=&amp;quot;eq:127&amp;quot;&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{000}\underline{111}&lt;br /&gt;
        &amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
##'''jeśli więcej jest serii jedynek''', mamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii zer i &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii jedynek. &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek dzielimy na &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii, czyli wyznaczamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; punktów podziału spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych &amp;amp;mdash; daje to &amp;lt;math&amp;gt;\binom{n_1-1}{(k-1)/2}&amp;lt;/math&amp;gt; możliwości. Z kolei &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer dzielimy na &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii, co daje &amp;lt;math&amp;gt;\binom{n_2-1}{(k-1)/2-1}&amp;lt;/math&amp;gt; możliwości. Iloczyn tych dwóch wielkości określa liczbę możliwości dających &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, jeśli więcej jest serii jedynek: &amp;lt;equation id=&amp;quot;eq:128&amp;quot;&amp;gt;&amp;lt;math&amp;gt; \binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
##'''jeśli więcej jest serii zer''', to na drodze analogicznego rozumowania dostajemy &amp;lt;equation id=&amp;quot;eq:129&amp;quot;&amp;gt;&amp;lt;math&amp;gt; \binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}. &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prawdopodobieństwo dla przypadku nieparzystej liczby serii będzie sumą tych dwóch wielkości, podzieloną, jak w przypadku parzystego &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;, przez liczbę wszystkich możliwości:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:130&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{matrix}&lt;br /&gt;
P&amp;amp;\!\!\!\!=&amp;amp;\!\!\!\!\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}  \\&lt;br /&gt;
&amp;amp;&amp;amp;\textrm{dla }\ k\ \textrm{ nieparzystych.}&lt;br /&gt;
\end{matrix}&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Pozostaje jeszcze rozważyć sytuację''', w której liczba serii jest&lt;br /&gt;
nieparzysta, jak w punkcie 2., ale mniej liczne&lt;br /&gt;
elementy rozłożone są wyłącznie w serie jednoelementowe, na przykład&lt;br /&gt;
001010010100, czyli liczba serii wynosi &amp;lt;math&amp;gt;2n+1&amp;lt;/math&amp;gt;, gdzie&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jest liczbą mniej licznych elementów (w tym&lt;br /&gt;
przykładzie jedynek). Wtedy znika jeden ze składników sumy z licznika&lt;br /&gt;
powyższego równania, gdyż zachodzić może wyłącznie&lt;br /&gt;
przypadek 2.1 lub 2.2.&lt;br /&gt;
&lt;br /&gt;
Ostatecznie dostajemy następujący wzór na&lt;br /&gt;
prawdopodobieństwo wystąpienia &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii w próbie, w której&lt;br /&gt;
drogą niezależnych losowań wylosowano &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i&lt;br /&gt;
&amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:131&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
P(k\mid n_1, n_2)=\begin{cases} &lt;br /&gt;
\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}}&lt;br /&gt;
{ \binom{N}{n_1}} &lt;br /&gt;
\quad \textrm{dla }\ k\ \textrm{ parzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}&lt;br /&gt;
\\&lt;br /&gt;
\quad\qquad\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ nieparzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_\textrm{max}-1}{(k-1)/2} &lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{(k-1)/2}}}&lt;br /&gt;
\ \quad\qquad\qquad\textrm{dla }\ k\ \textrm{ nieparzystych i }  &lt;br /&gt;
n_\textrm{min}=\frac{k-1}{2}, &lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;n_\textrm{min}=\min(n_1, n_2)&amp;lt;/math&amp;gt; i&lt;br /&gt;
&amp;lt;math&amp;gt;n_\textrm{max}=\max(n_1, n_2)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Wzór ten określa rozkład statystyki, będącej liczbą serii w próbie złożonej &lt;br /&gt;
z dowolnych dwóch rodzajów elementów (oznaczanych powyżej jako '''0''' i '''1'''). Dzięki niemu możemy wreszcie skonstruować kompletny test hipotezy&lt;br /&gt;
mówiącej, że dany ciąg jest wynikiem niezależnych losowań. Przypomnijmy dane &lt;br /&gt;
z [[WnioskowanieStatystyczne/Testy_nieprametryczne|przykładu o nieuczciwym ankieterze]]:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
'''1101101000101001011101101111010110010101001010100011101'''&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W ciągu tym występuje 25 zer i 30 jedynek, układających się w 37&lt;br /&gt;
serii.  Na podstawie wzoru &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; możemy obliczyć&lt;br /&gt;
rozkład prawdopodobieństwa wylosowania ciągu 25 zer i 30 jedynek, w&lt;br /&gt;
którym będzie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii. Możliwe wartości &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;&lt;br /&gt;
będą w tym przypadku zawierać się między 2 (jedna seria zer i jedna&lt;br /&gt;
jedynek) a 51 (ponieważ mniej jest zer, największa liczba serii&lt;br /&gt;
odpowiada przypadkowi, w którym wszystkie zera układają się w serie&lt;br /&gt;
jednoelementowe). Rozkład prawdopodobieństwa dla tego przypadku&lt;br /&gt;
przedstawia rysunek &amp;lt;xr id=&amp;quot;fig:132&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:serie.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Rozkład prawdopodobieństw &amp;lt;math&amp;gt;P(k)&amp;lt;/math&amp;gt; liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w niezależnym losowaniu 30 zer i 25 jedynek.]]&lt;br /&gt;
&lt;br /&gt;
Zastosowania testów opartych na tej statystyce nie ograniczają się do&lt;br /&gt;
analizy ciągów zer i jedynek (lub innych dwóch elementów). Poniżej&lt;br /&gt;
przedstawiamy jeszcze dwa testy korzystające ze statystyki &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Testowanie, czy próba jest wynikiem niezależnych losowań==&lt;br /&gt;
&lt;br /&gt;
Podobny problem &amp;amp;mdash; pytanie, czy elementy próby są wynikiem&lt;br /&gt;
niezależnych losowań &amp;amp;mdash; występuje np. przy testowaniu generatorów&lt;br /&gt;
liczb losowych ([[WnioskowanieStatystyczne/Z_komputerem#cite_note-0|będących kluczowym&lt;br /&gt;
elementem metod opisywanych w pierwszej części książki]]). Jednak w&lt;br /&gt;
tej sytuacji mamy do czynienia z ciągiem dowolnych liczb, a nie dwóch&lt;br /&gt;
symboli.&lt;br /&gt;
&lt;br /&gt;
Pomysł jest prosty: ciąg wyników wyrażających się dowolnymi liczbami&lt;br /&gt;
możemy zamienić na ciąg zer i jedynek, wybierając próg &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;&lt;br /&gt;
i przypisując wynikom większym od &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; jedynkę, a mniejszym&lt;br /&gt;
&amp;amp;mdash; zero. Jeśli chcemy mieć tyle samo zer i jedynek, jako&lt;br /&gt;
&amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; możemy wziąć [[WnioskowanieStatystyczne/Momenty#Mediana|medianę]] próby. Do&lt;br /&gt;
takiej serii możemy już z powodzeniem stosować opisany w poprzednim&lt;br /&gt;
rozdziale test oparty na statystyce &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &amp;amp;mdash;&lt;br /&gt;
oczywiście zachowując kolejność elementów w próbie.&lt;br /&gt;
&lt;br /&gt;
==Test zgodności rozkładów w dwóch populacjach==&lt;br /&gt;
&lt;br /&gt;
Mamy dwie próby. Hipoteza zerowa mówi, że zostały wylosowane z tego&lt;br /&gt;
samego rozkładu. Ciąg zer i jedynek tworzymy w następujący sposób:&lt;br /&gt;
&lt;br /&gt;
Elementy obu prób ustawiamy w jeden ciąg w kolejności od najmniejszej&lt;br /&gt;
do największej&amp;lt;ref&amp;gt;Jeśli wartości losowane są z rozkładów ciągłych, to&lt;br /&gt;
wystąpienie jednakowych wartości jest teoretycznie niemożliwe. W&lt;br /&gt;
praktyce wartości zapisujemy ze skończoną dokładnością; zwykle&lt;br /&gt;
przyjmuje się, że jednakowe wartości można pominąć.&amp;lt;/ref&amp;gt;.  Elementom&lt;br /&gt;
pierwszej próby przypisujemy jedynki, a drugiej &amp;amp;mdash; zera.&lt;br /&gt;
&lt;br /&gt;
Jeśli obie próby losowano z tej samej populacji, to liczba serii w tak określonym&lt;br /&gt;
ciągu podlega statystyce &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;, czyli ponownie możemy&lt;br /&gt;
stosować test Walda-Wolfowitza.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
---------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11699</id>
		<title>WnioskowanieStatystyczne/Test serii</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11699"/>
		<updated>2026-03-29T10:16:30Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Test serii Walda-Wolfowitza */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Test serii Walda-Wolfowitza=&lt;br /&gt;
&lt;br /&gt;
Serią nazywamy ciąg jednakowych elementów.  W poniższym przykładzie&lt;br /&gt;
mamy sześć serii (po trzy serie zer i jedynek):&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Nie jest to oczywiście jedyna kombinacja kolejności pięciu zer i pięciu jedynek,&lt;br /&gt;
dająca w wyniku sześć serii. Ponieważ każda pojedyncza kombinacja jest jednakowo&lt;br /&gt;
prawdopodobna (jeśli jest wynikiem niezależnych losowań), to prawdopodobieństwo&lt;br /&gt;
uzyskania danej liczby serii będzie tym większe, im więcej różnych kombinacji&lt;br /&gt;
będzie dawać w wyniku tę liczbę serii. Sformułujmy więc problem ogólnie:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
Mamy &amp;lt;math&amp;gt;N=n_1+n_2&amp;lt;/math&amp;gt; elementów, w tym &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek. &lt;br /&gt;
Na ile sposobów możemy je rozłożyć, aby uzyskać &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii? &lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;kod &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
import matplotlib.pyplot as plt&lt;br /&gt;
import numpy&lt;br /&gt;
&lt;br /&gt;
n1=25 # zera&lt;br /&gt;
n2=30 # jedynki&lt;br /&gt;
n=n1+n2 &lt;br /&gt;
ile_losowan=1000&lt;br /&gt;
&lt;br /&gt;
wynik=numpy.zeros(ile_losowan, dtype=numpy.int32)&lt;br /&gt;
&lt;br /&gt;
for i in range(0, ile_losowan):&lt;br /&gt;
	losowanie=numpy.zeros(n, dtype=numpy.int32)&lt;br /&gt;
	while numpy.sum(losowanie) &amp;lt; n2:&lt;br /&gt;
		losowanie[numpy.random.randint(0,n)]=1&lt;br /&gt;
	#print(numpy.array_str(losowanie,max_line_width=numpy.inf).replace(&amp;quot; &amp;quot;,&amp;quot;&amp;quot;), &amp;quot;\n&amp;quot;)&lt;br /&gt;
	zmiany=1&lt;br /&gt;
	for j in range(1, n):&lt;br /&gt;
		if(losowanie[j] != losowanie[j-1]):&lt;br /&gt;
			zmiany += 1&lt;br /&gt;
	wynik[i]=zmiany&lt;br /&gt;
&lt;br /&gt;
plt.hist(wynik, bins=range(0,n))&lt;br /&gt;
plt.xlabel(&amp;quot;$k$&amp;quot;)&lt;br /&gt;
plt.ylabel(&amp;quot;$P(k)$&amp;quot;)&lt;br /&gt;
#plt.title(&amp;quot;$n_1 = 30, n_2 = 25$&amp;quot;)&lt;br /&gt;
plt.title(f&amp;quot;$n_1$ = {n1}, $n_2$ = {n2}, {ile_losowan} losowań&amp;quot;)&lt;br /&gt;
plt.show()&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;animacja dla 1000 &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
|[[Plik:Testserii1000.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^3&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
[[Plik:Testserii.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^5&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.log.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek (skala logarytmiczna).]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
[[Plik:Testserii6.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^6&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wróćmy do prostszego przykładu, zawierającego pięć jedynek i pięć zer. &lt;br /&gt;
Podział na serie możemy interpretować jak przypisanie liczbom od jeden do dziesięciu &lt;br /&gt;
(pozycje w ciągu) zera lub jedynki:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|2&lt;br /&gt;
|3&lt;br /&gt;
|4&lt;br /&gt;
|5&lt;br /&gt;
|6&lt;br /&gt;
|7&lt;br /&gt;
|8&lt;br /&gt;
|9&lt;br /&gt;
|10&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inaczej mówiąc, konkretny ciąg &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; zer i jedynek wyznaczony&lt;br /&gt;
jest przez wylosowanie spośród liczb od jednego do &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; tych&lt;br /&gt;
liczb, którym mają być przypisane jedynki (pozostałym będą przypisane&lt;br /&gt;
zera &amp;amp;mdash; lub odwrotnie). Czyli wszystkich możliwych ciągów&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek będzie tyle, na ile&lt;br /&gt;
sposobów można wylosować &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt;.  Policzmy: pozycję (czyli numer, wypisany w dolnym&lt;br /&gt;
rzędzie powyższej tabeli) pierwszego elementu losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; możliwości, drugiego &amp;amp;mdash; spośród &amp;lt;math&amp;gt;N-1&amp;lt;/math&amp;gt;&lt;br /&gt;
pozostałych możliwości (jedna pozycja jest już zajęta), i tak dalej,&lt;br /&gt;
aż pozycję ostatniego z &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; pozostałych możliwości.  Liczba możliwych wyników&lt;br /&gt;
będzie iloczynem tych wszystkich liczb, czyli wyniesie&lt;br /&gt;
&amp;lt;math&amp;gt;N\cdot(N-1)\cdot(N-2)\cdot\ \dots\ \cdot (N-n_1) =&lt;br /&gt;
N!/(N-n_1)!&amp;lt;/math&amp;gt; Skoro wszystkie jedynki są jednakowe i nie&lt;br /&gt;
rozróżniamy wyników różniących się ich kolejnością, to wynik ten&lt;br /&gt;
musimy podzielić przez liczbę różnych ustawień kolejności elementów&lt;br /&gt;
(liczbę permutacji) zbioru &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt;-elementowego. Wyniesie ona&lt;br /&gt;
&amp;lt;math&amp;gt;n_1\cdot(n_1-1)\cdot\ \dots\ \cdot 1&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&amp;lt;math&amp;gt;n_1!&amp;lt;/math&amp;gt; Ostatecznie jako liczbę różnych ustawień&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; jedynek dostajemy:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\frac{N!}{(N-n_1)!\ n_1!} = \binom{N}{n_1}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Jest to znany z [[WnioskowanieStatystyczne/Rozklady-przyklady#Rozkład dwumianowy|rozdziału o rozkładzie dwumianowym]] symbol Newtona &amp;lt;math&amp;gt;\binom{N}{n_1}&amp;lt;/math&amp;gt;. Jego własności&lt;br /&gt;
symetrii zgadzają się z sytuacją, w ktorej &amp;quot;wybierać&amp;quot; możemy albo &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer&lt;br /&gt;
albo &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\binom{N}{n_1}=\binom{n_1+n_2}{n_1}=\frac{(n_1+n_2)!}{n_1! n_2!}=\binom{n_1+n_2}{n_2}=\binom{N}{n_2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje policzyć, ile z tych możliwości (przy ustalonych liczbach&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer) wygeneruje ciąg&lt;br /&gt;
wyników, w którym będzie dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
#'''Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest parzysta''', to będziemy mieć tyle samo serii jedynek i zer (po &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt;). Aby rozmieścić &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek w &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt; seriach musimy wyznaczyć &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; punktów podziału na serie; w powyższym przykładzie będą to (kropki) '''1.1.111''' &amp;amp;mdash; było 6 serii, więc mamy 2 punkty podziału. Inaczej losujemy spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych punktów podziału &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; podziałów, jak wynika z liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;. Daje to &amp;lt;math&amp;gt;\binom{n_1-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości. W miejsca podziału (oznaczone kropkami) wstawiamy serie zer; analogicznie możemy to zrobić na &amp;lt;math&amp;gt;\binom{n_2-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości (w przykładzie: '''00.00.0'''). Liczbę tę należy pomnożyć przez dwa ze względu na możliwość zamiany miejscami zer i jedynek. Prawdopodobieństwo danej liczby serii dostaniemy &amp;amp;mdash; zgodnie z klasyczną definicją prawdopodobieństwa &amp;amp;mdash; dzieląc liczbę wszystkich tych kombinacji &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer, które generują dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, przez liczbę wszystkich możliwych kombinacji: &amp;lt;math&amp;gt; P=\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}} { \binom{N}{n_1}} \qquad\textrm{dla }\ k\ \textrm{parzystych.} &amp;lt;/math&amp;gt;&lt;br /&gt;
#'''Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest nieparzysta,''' to którychś serii &amp;amp;mdash; zer lub jedynek &amp;amp;mdash; będzie dokładnie o jeden więcej. &amp;lt;equation id=&amp;quot;eq:127&amp;quot;&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{000}\underline{111}&lt;br /&gt;
        &amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
##'''jeśli więcej jest serii jedynek''', mamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii zer i &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii jedynek. &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek dzielimy na &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii, czyli wyznaczamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; punktów podziału spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych &amp;amp;mdash; daje to &amp;lt;math&amp;gt;\binom{n_1-1}{(k-1)/2}&amp;lt;/math&amp;gt; możliwości. Z kolei &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer dzielimy na &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii, co daje &amp;lt;math&amp;gt;\binom{n_2-1}{(k-1)/2-1}&amp;lt;/math&amp;gt; możliwości. Iloczyn tych dwóch wielkości określa liczbę możliwości dających &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, jeśli więcej jest serii jedynek: &amp;lt;equation id=&amp;quot;eq:128&amp;quot;&amp;gt;&amp;lt;math&amp;gt; \binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
##'''jeśli więcej jest serii zer''', to na drodze analogicznego rozumowania dostajemy &amp;lt;equation id=&amp;quot;eq:129&amp;quot;&amp;gt;&amp;lt;math&amp;gt; \binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}. &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prawdopodobieństwo dla przypadku nieparzystej liczby serii będzie sumą tych dwóch wielkości, podzieloną, jak w przypadku parzystego &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;, przez liczbę wszystkich możliwości:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:130&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{matrix}&lt;br /&gt;
P&amp;amp;\!\!\!\!=&amp;amp;\!\!\!\!\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}  \\&lt;br /&gt;
&amp;amp;&amp;amp;\textrm{dla }\ k\ \textrm{ nieparzystych.}&lt;br /&gt;
\end{matrix}&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Pozostaje jeszcze rozważyć sytuację''', w której liczba serii jest&lt;br /&gt;
nieparzysta, jak w punkcie 2., ale mniej liczne&lt;br /&gt;
elementy rozłożone są wyłącznie w serie jednoelementowe, na przykład&lt;br /&gt;
001010010100, czyli liczba serii wynosi &amp;lt;math&amp;gt;2n+1&amp;lt;/math&amp;gt;, gdzie&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jest liczbą mniej licznych elementów (w tym&lt;br /&gt;
przykładzie jedynek). Wtedy znika jeden ze składników sumy z licznika&lt;br /&gt;
powyższego równania, gdyż zachodzić może wyłącznie&lt;br /&gt;
przypadek 2.1 lub 2.2.&lt;br /&gt;
&lt;br /&gt;
Ostatecznie dostajemy następujący wzór na&lt;br /&gt;
prawdopodobieństwo wystąpienia &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii w próbie, w której&lt;br /&gt;
drogą niezależnych losowań wylosowano &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i&lt;br /&gt;
&amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:131&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
P(k\mid n_1, n_2)=\begin{cases} &lt;br /&gt;
\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}}&lt;br /&gt;
{ \binom{N}{n_1}} &lt;br /&gt;
\quad \textrm{dla }\ k\ \textrm{ parzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}&lt;br /&gt;
\\&lt;br /&gt;
\quad\qquad\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ nieparzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_\textrm{max}-1}{(k-1)/2} &lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{(k-1)/2}}}&lt;br /&gt;
\ \quad\qquad\qquad\textrm{dla }\ k\ \textrm{ nieparzystych i }  &lt;br /&gt;
n_\textrm{min}=\frac{k-1}{2}, &lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;n_\textrm{min}=\min(n_1, n_2)&amp;lt;/math&amp;gt; i&lt;br /&gt;
&amp;lt;math&amp;gt;n_\textrm{max}=\max(n_1, n_2)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Wzór ten określa rozkład statystyki, będącej liczbą serii w próbie złożonej &lt;br /&gt;
z dowolnych dwóch rodzajów elementów (oznaczanych powyżej jako '''0''' i '''1'''). Dzięki niemu możemy wreszcie skonstruować kompletny test hipotezy&lt;br /&gt;
mówiącej, że dany ciąg jest wynikiem niezależnych losowań. Przypomnijmy dane &lt;br /&gt;
z [[WnioskowanieStatystyczne/Testy_nieprametryczne|przykładu o nieuczciwym ankieterze]]:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
'''1101101000101001011101101111010110010101001010100011101'''&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W ciągu tym występuje 25 zer i 30 jedynek, układających się w 37&lt;br /&gt;
serii.  Na podstawie wzoru &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; możemy obliczyć&lt;br /&gt;
rozkład prawdopodobieństwa wylosowania ciągu 25 zer i 30 jedynek, w&lt;br /&gt;
którym będzie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii. Możliwe wartości &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;&lt;br /&gt;
będą w tym przypadku zawierać się między 2 (jedna seria zer i jedna&lt;br /&gt;
jedynek) a 51 (ponieważ mniej jest zer, największa liczba serii&lt;br /&gt;
odpowiada przypadkowi, w którym wszystkie zera układają się w serie&lt;br /&gt;
jednoelementowe). Rozkład prawdopodobieństwa dla tego przypadku&lt;br /&gt;
przedstawia rysunek &amp;lt;xr id=&amp;quot;fig:132&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:serie.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Rozkład prawdopodobieństw &amp;lt;math&amp;gt;P(k)&amp;lt;/math&amp;gt; liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w niezależnym losowaniu 30 zer i 25 jedynek.]]&lt;br /&gt;
&lt;br /&gt;
Zastosowania testów opartych na tej statystyce nie ograniczają się do&lt;br /&gt;
analizy ciągów zer i jedynek (lub innych dwóch elementów). Poniżej&lt;br /&gt;
przedstawiamy jeszcze dwa testy korzystające ze statystyki &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Testowanie, czy próba jest wynikiem niezależnych losowań==&lt;br /&gt;
&lt;br /&gt;
Podobny problem &amp;amp;mdash; pytanie, czy elementy próby są wynikiem&lt;br /&gt;
niezależnych losowań &amp;amp;mdash; występuje np. przy testowaniu generatorów&lt;br /&gt;
liczb losowych ([[WnioskowanieStatystyczne/Z_komputerem#cite_note-0|będących kluczowym&lt;br /&gt;
elementem metod opisywanych w pierwszej części książki]]). Jednak w&lt;br /&gt;
tej sytuacji mamy do czynienia z ciągiem dowolnych liczb, a nie dwóch&lt;br /&gt;
symboli.&lt;br /&gt;
&lt;br /&gt;
Pomysł jest prosty: ciąg wyników wyrażających się dowolnymi liczbami&lt;br /&gt;
możemy zamienić na ciąg zer i jedynek, wybierając próg &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;&lt;br /&gt;
i przypisując wynikom większym od &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; jedynkę, a mniejszym&lt;br /&gt;
&amp;amp;mdash; zero. Jeśli chcemy mieć tyle samo zer i jedynek, jako&lt;br /&gt;
&amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; możemy wziąć [[WnioskowanieStatystyczne/Momenty#Mediana|medianę]] próby. Do&lt;br /&gt;
takiej serii możemy już z powodzeniem stosować opisany w poprzednim&lt;br /&gt;
rozdziale test oparty na statystyce &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &amp;amp;mdash;&lt;br /&gt;
oczywiście zachowując kolejność elementów w próbie.&lt;br /&gt;
&lt;br /&gt;
==Test zgodności rozkładów w dwóch populacjach==&lt;br /&gt;
&lt;br /&gt;
Mamy dwie próby. Hipoteza zerowa mówi, że zostały wylosowane z tego&lt;br /&gt;
samego rozkładu. Ciąg zer i jedynek tworzymy w następujący sposób:&lt;br /&gt;
&lt;br /&gt;
Elementy obu prób ustawiamy w jeden ciąg w kolejności od najmniejszej&lt;br /&gt;
do największej&amp;lt;ref&amp;gt;Jeśli wartości losowane są z rozkładów ciągłych, to&lt;br /&gt;
wystąpienie jednakowych wartości jest teoretycznie niemożliwe. W&lt;br /&gt;
praktyce wartości zapisujemy ze skończoną dokładnością; zwykle&lt;br /&gt;
przyjmuje się, że jednakowe wartości można pominąć.&amp;lt;/ref&amp;gt;.  Elementom&lt;br /&gt;
pierwszej próby przypisujemy jedynki, a drugiej &amp;amp;mdash; zera.&lt;br /&gt;
&lt;br /&gt;
Jeśli obie próby losowano z tej samej populacji, to liczba serii w tak określonym&lt;br /&gt;
ciągu podlega statystyce &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;, czyli ponownie możemy&lt;br /&gt;
stosować test Walda-Wolfowitza.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
---------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=Plik:Testserii1000.png&amp;diff=11698</id>
		<title>Plik:Testserii1000.png</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=Plik:Testserii1000.png&amp;diff=11698"/>
		<updated>2026-03-29T10:11:04Z</updated>

		<summary type="html">&lt;p&gt;Durka: animacja 7 wyników dla testu serii przy 1000 losowań&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Opis ==&lt;br /&gt;
animacja 7 wyników dla testu serii przy 1000 losowań&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11697</id>
		<title>WnioskowanieStatystyczne/Test serii</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11697"/>
		<updated>2026-03-29T10:09:47Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Test serii Walda-Wolfowitza */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Test serii Walda-Wolfowitza=&lt;br /&gt;
&lt;br /&gt;
Serią nazywamy ciąg jednakowych elementów.  W poniższym przykładzie&lt;br /&gt;
mamy sześć serii (po trzy serie zer i jedynek):&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Nie jest to oczywiście jedyna kombinacja kolejności pięciu zer i pięciu jedynek,&lt;br /&gt;
dająca w wyniku sześć serii. Ponieważ każda pojedyncza kombinacja jest jednakowo&lt;br /&gt;
prawdopodobna (jeśli jest wynikiem niezależnych losowań), to prawdopodobieństwo&lt;br /&gt;
uzyskania danej liczby serii będzie tym większe, im więcej różnych kombinacji&lt;br /&gt;
będzie dawać w wyniku tę liczbę serii. Sformułujmy więc problem ogólnie:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
Mamy &amp;lt;math&amp;gt;N=n_1+n_2&amp;lt;/math&amp;gt; elementów, w tym &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek. &lt;br /&gt;
Na ile sposobów możemy je rozłożyć, aby uzyskać &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii? &lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;kod &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
import matplotlib.pyplot as plt&lt;br /&gt;
import numpy&lt;br /&gt;
&lt;br /&gt;
n1=25 # zera&lt;br /&gt;
n2=30 # jedynki&lt;br /&gt;
n=n1+n2 &lt;br /&gt;
ile_losowan=1000&lt;br /&gt;
&lt;br /&gt;
wynik=numpy.zeros(ile_losowan, dtype=numpy.int32)&lt;br /&gt;
&lt;br /&gt;
for i in range(0, ile_losowan):&lt;br /&gt;
	losowanie=numpy.zeros(n, dtype=numpy.int32)&lt;br /&gt;
	while numpy.sum(losowanie) &amp;lt; n2:&lt;br /&gt;
		losowanie[numpy.random.randint(0,n)]=1&lt;br /&gt;
	#print(numpy.array_str(losowanie,max_line_width=numpy.inf).replace(&amp;quot; &amp;quot;,&amp;quot;&amp;quot;), &amp;quot;\n&amp;quot;)&lt;br /&gt;
	zmiany=1&lt;br /&gt;
	for j in range(1, n):&lt;br /&gt;
		if(losowanie[j] != losowanie[j-1]):&lt;br /&gt;
			zmiany += 1&lt;br /&gt;
	wynik[i]=zmiany&lt;br /&gt;
&lt;br /&gt;
plt.hist(wynik, bins=range(0,n))&lt;br /&gt;
plt.xlabel(&amp;quot;$k$&amp;quot;)&lt;br /&gt;
plt.ylabel(&amp;quot;$P(k)$&amp;quot;)&lt;br /&gt;
#plt.title(&amp;quot;$n_1 = 30, n_2 = 25$&amp;quot;)&lt;br /&gt;
plt.title(f&amp;quot;$n_1$ = {n1}, $n_2$ = {n2}, {ile_losowan} losowań&amp;quot;)&lt;br /&gt;
plt.show()&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Plik:Testserii1000.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^3&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
&lt;br /&gt;
[[Plik:Testserii.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^5&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.log.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek (skala logarytmiczna).]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
[[Plik:Testserii6.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^6&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wróćmy do prostszego przykładu, zawierającego pięć jedynek i pięć zer. &lt;br /&gt;
Podział na serie możemy interpretować jak przypisanie liczbom od jeden do dziesięciu &lt;br /&gt;
(pozycje w ciągu) zera lub jedynki:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|2&lt;br /&gt;
|3&lt;br /&gt;
|4&lt;br /&gt;
|5&lt;br /&gt;
|6&lt;br /&gt;
|7&lt;br /&gt;
|8&lt;br /&gt;
|9&lt;br /&gt;
|10&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inaczej mówiąc, konkretny ciąg &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; zer i jedynek wyznaczony&lt;br /&gt;
jest przez wylosowanie spośród liczb od jednego do &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; tych&lt;br /&gt;
liczb, którym mają być przypisane jedynki (pozostałym będą przypisane&lt;br /&gt;
zera &amp;amp;mdash; lub odwrotnie). Czyli wszystkich możliwych ciągów&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek będzie tyle, na ile&lt;br /&gt;
sposobów można wylosować &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt;.  Policzmy: pozycję (czyli numer, wypisany w dolnym&lt;br /&gt;
rzędzie powyższej tabeli) pierwszego elementu losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; możliwości, drugiego &amp;amp;mdash; spośród &amp;lt;math&amp;gt;N-1&amp;lt;/math&amp;gt;&lt;br /&gt;
pozostałych możliwości (jedna pozycja jest już zajęta), i tak dalej,&lt;br /&gt;
aż pozycję ostatniego z &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; pozostałych możliwości.  Liczba możliwych wyników&lt;br /&gt;
będzie iloczynem tych wszystkich liczb, czyli wyniesie&lt;br /&gt;
&amp;lt;math&amp;gt;N\cdot(N-1)\cdot(N-2)\cdot\ \dots\ \cdot (N-n_1) =&lt;br /&gt;
N!/(N-n_1)!&amp;lt;/math&amp;gt; Skoro wszystkie jedynki są jednakowe i nie&lt;br /&gt;
rozróżniamy wyników różniących się ich kolejnością, to wynik ten&lt;br /&gt;
musimy podzielić przez liczbę różnych ustawień kolejności elementów&lt;br /&gt;
(liczbę permutacji) zbioru &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt;-elementowego. Wyniesie ona&lt;br /&gt;
&amp;lt;math&amp;gt;n_1\cdot(n_1-1)\cdot\ \dots\ \cdot 1&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&amp;lt;math&amp;gt;n_1!&amp;lt;/math&amp;gt; Ostatecznie jako liczbę różnych ustawień&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; jedynek dostajemy:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\frac{N!}{(N-n_1)!\ n_1!} = \binom{N}{n_1}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Jest to znany z [[WnioskowanieStatystyczne/Rozklady-przyklady#Rozkład dwumianowy|rozdziału o rozkładzie dwumianowym]] symbol Newtona &amp;lt;math&amp;gt;\binom{N}{n_1}&amp;lt;/math&amp;gt;. Jego własności&lt;br /&gt;
symetrii zgadzają się z sytuacją, w ktorej &amp;quot;wybierać&amp;quot; możemy albo &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer&lt;br /&gt;
albo &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\binom{N}{n_1}=\binom{n_1+n_2}{n_1}=\frac{(n_1+n_2)!}{n_1! n_2!}=\binom{n_1+n_2}{n_2}=\binom{N}{n_2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje policzyć, ile z tych możliwości (przy ustalonych liczbach&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer) wygeneruje ciąg&lt;br /&gt;
wyników, w którym będzie dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
#'''Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest parzysta''', to będziemy mieć tyle samo serii jedynek i zer (po &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt;). Aby rozmieścić &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek w &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt; seriach musimy wyznaczyć &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; punktów podziału na serie; w powyższym przykładzie będą to (kropki) '''1.1.111''' &amp;amp;mdash; było 6 serii, więc mamy 2 punkty podziału. Inaczej losujemy spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych punktów podziału &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; podziałów, jak wynika z liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;. Daje to &amp;lt;math&amp;gt;\binom{n_1-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości. W miejsca podziału (oznaczone kropkami) wstawiamy serie zer; analogicznie możemy to zrobić na &amp;lt;math&amp;gt;\binom{n_2-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości (w przykładzie: '''00.00.0'''). Liczbę tę należy pomnożyć przez dwa ze względu na możliwość zamiany miejscami zer i jedynek. Prawdopodobieństwo danej liczby serii dostaniemy &amp;amp;mdash; zgodnie z klasyczną definicją prawdopodobieństwa &amp;amp;mdash; dzieląc liczbę wszystkich tych kombinacji &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer, które generują dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, przez liczbę wszystkich możliwych kombinacji: &amp;lt;math&amp;gt; P=\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}} { \binom{N}{n_1}} \qquad\textrm{dla }\ k\ \textrm{parzystych.} &amp;lt;/math&amp;gt;&lt;br /&gt;
#'''Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest nieparzysta,''' to którychś serii &amp;amp;mdash; zer lub jedynek &amp;amp;mdash; będzie dokładnie o jeden więcej. &amp;lt;equation id=&amp;quot;eq:127&amp;quot;&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{000}\underline{111}&lt;br /&gt;
        &amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
##'''jeśli więcej jest serii jedynek''', mamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii zer i &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii jedynek. &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek dzielimy na &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii, czyli wyznaczamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; punktów podziału spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych &amp;amp;mdash; daje to &amp;lt;math&amp;gt;\binom{n_1-1}{(k-1)/2}&amp;lt;/math&amp;gt; możliwości. Z kolei &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer dzielimy na &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii, co daje &amp;lt;math&amp;gt;\binom{n_2-1}{(k-1)/2-1}&amp;lt;/math&amp;gt; możliwości. Iloczyn tych dwóch wielkości określa liczbę możliwości dających &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, jeśli więcej jest serii jedynek: &amp;lt;equation id=&amp;quot;eq:128&amp;quot;&amp;gt;&amp;lt;math&amp;gt; \binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
##'''jeśli więcej jest serii zer''', to na drodze analogicznego rozumowania dostajemy &amp;lt;equation id=&amp;quot;eq:129&amp;quot;&amp;gt;&amp;lt;math&amp;gt; \binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}. &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prawdopodobieństwo dla przypadku nieparzystej liczby serii będzie sumą tych dwóch wielkości, podzieloną, jak w przypadku parzystego &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;, przez liczbę wszystkich możliwości:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:130&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{matrix}&lt;br /&gt;
P&amp;amp;\!\!\!\!=&amp;amp;\!\!\!\!\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}  \\&lt;br /&gt;
&amp;amp;&amp;amp;\textrm{dla }\ k\ \textrm{ nieparzystych.}&lt;br /&gt;
\end{matrix}&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Pozostaje jeszcze rozważyć sytuację''', w której liczba serii jest&lt;br /&gt;
nieparzysta, jak w punkcie 2., ale mniej liczne&lt;br /&gt;
elementy rozłożone są wyłącznie w serie jednoelementowe, na przykład&lt;br /&gt;
001010010100, czyli liczba serii wynosi &amp;lt;math&amp;gt;2n+1&amp;lt;/math&amp;gt;, gdzie&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jest liczbą mniej licznych elementów (w tym&lt;br /&gt;
przykładzie jedynek). Wtedy znika jeden ze składników sumy z licznika&lt;br /&gt;
powyższego równania, gdyż zachodzić może wyłącznie&lt;br /&gt;
przypadek 2.1 lub 2.2.&lt;br /&gt;
&lt;br /&gt;
Ostatecznie dostajemy następujący wzór na&lt;br /&gt;
prawdopodobieństwo wystąpienia &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii w próbie, w której&lt;br /&gt;
drogą niezależnych losowań wylosowano &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i&lt;br /&gt;
&amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:131&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
P(k\mid n_1, n_2)=\begin{cases} &lt;br /&gt;
\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}}&lt;br /&gt;
{ \binom{N}{n_1}} &lt;br /&gt;
\quad \textrm{dla }\ k\ \textrm{ parzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}&lt;br /&gt;
\\&lt;br /&gt;
\quad\qquad\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ nieparzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_\textrm{max}-1}{(k-1)/2} &lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{(k-1)/2}}}&lt;br /&gt;
\ \quad\qquad\qquad\textrm{dla }\ k\ \textrm{ nieparzystych i }  &lt;br /&gt;
n_\textrm{min}=\frac{k-1}{2}, &lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;n_\textrm{min}=\min(n_1, n_2)&amp;lt;/math&amp;gt; i&lt;br /&gt;
&amp;lt;math&amp;gt;n_\textrm{max}=\max(n_1, n_2)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Wzór ten określa rozkład statystyki, będącej liczbą serii w próbie złożonej &lt;br /&gt;
z dowolnych dwóch rodzajów elementów (oznaczanych powyżej jako '''0''' i '''1'''). Dzięki niemu możemy wreszcie skonstruować kompletny test hipotezy&lt;br /&gt;
mówiącej, że dany ciąg jest wynikiem niezależnych losowań. Przypomnijmy dane &lt;br /&gt;
z [[WnioskowanieStatystyczne/Testy_nieprametryczne|przykładu o nieuczciwym ankieterze]]:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
'''1101101000101001011101101111010110010101001010100011101'''&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W ciągu tym występuje 25 zer i 30 jedynek, układających się w 37&lt;br /&gt;
serii.  Na podstawie wzoru &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; możemy obliczyć&lt;br /&gt;
rozkład prawdopodobieństwa wylosowania ciągu 25 zer i 30 jedynek, w&lt;br /&gt;
którym będzie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii. Możliwe wartości &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;&lt;br /&gt;
będą w tym przypadku zawierać się między 2 (jedna seria zer i jedna&lt;br /&gt;
jedynek) a 51 (ponieważ mniej jest zer, największa liczba serii&lt;br /&gt;
odpowiada przypadkowi, w którym wszystkie zera układają się w serie&lt;br /&gt;
jednoelementowe). Rozkład prawdopodobieństwa dla tego przypadku&lt;br /&gt;
przedstawia rysunek &amp;lt;xr id=&amp;quot;fig:132&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:serie.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Rozkład prawdopodobieństw &amp;lt;math&amp;gt;P(k)&amp;lt;/math&amp;gt; liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w niezależnym losowaniu 30 zer i 25 jedynek.]]&lt;br /&gt;
&lt;br /&gt;
Zastosowania testów opartych na tej statystyce nie ograniczają się do&lt;br /&gt;
analizy ciągów zer i jedynek (lub innych dwóch elementów). Poniżej&lt;br /&gt;
przedstawiamy jeszcze dwa testy korzystające ze statystyki &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Testowanie, czy próba jest wynikiem niezależnych losowań==&lt;br /&gt;
&lt;br /&gt;
Podobny problem &amp;amp;mdash; pytanie, czy elementy próby są wynikiem&lt;br /&gt;
niezależnych losowań &amp;amp;mdash; występuje np. przy testowaniu generatorów&lt;br /&gt;
liczb losowych ([[WnioskowanieStatystyczne/Z_komputerem#cite_note-0|będących kluczowym&lt;br /&gt;
elementem metod opisywanych w pierwszej części książki]]). Jednak w&lt;br /&gt;
tej sytuacji mamy do czynienia z ciągiem dowolnych liczb, a nie dwóch&lt;br /&gt;
symboli.&lt;br /&gt;
&lt;br /&gt;
Pomysł jest prosty: ciąg wyników wyrażających się dowolnymi liczbami&lt;br /&gt;
możemy zamienić na ciąg zer i jedynek, wybierając próg &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;&lt;br /&gt;
i przypisując wynikom większym od &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; jedynkę, a mniejszym&lt;br /&gt;
&amp;amp;mdash; zero. Jeśli chcemy mieć tyle samo zer i jedynek, jako&lt;br /&gt;
&amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; możemy wziąć [[WnioskowanieStatystyczne/Momenty#Mediana|medianę]] próby. Do&lt;br /&gt;
takiej serii możemy już z powodzeniem stosować opisany w poprzednim&lt;br /&gt;
rozdziale test oparty na statystyce &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &amp;amp;mdash;&lt;br /&gt;
oczywiście zachowując kolejność elementów w próbie.&lt;br /&gt;
&lt;br /&gt;
==Test zgodności rozkładów w dwóch populacjach==&lt;br /&gt;
&lt;br /&gt;
Mamy dwie próby. Hipoteza zerowa mówi, że zostały wylosowane z tego&lt;br /&gt;
samego rozkładu. Ciąg zer i jedynek tworzymy w następujący sposób:&lt;br /&gt;
&lt;br /&gt;
Elementy obu prób ustawiamy w jeden ciąg w kolejności od najmniejszej&lt;br /&gt;
do największej&amp;lt;ref&amp;gt;Jeśli wartości losowane są z rozkładów ciągłych, to&lt;br /&gt;
wystąpienie jednakowych wartości jest teoretycznie niemożliwe. W&lt;br /&gt;
praktyce wartości zapisujemy ze skończoną dokładnością; zwykle&lt;br /&gt;
przyjmuje się, że jednakowe wartości można pominąć.&amp;lt;/ref&amp;gt;.  Elementom&lt;br /&gt;
pierwszej próby przypisujemy jedynki, a drugiej &amp;amp;mdash; zera.&lt;br /&gt;
&lt;br /&gt;
Jeśli obie próby losowano z tej samej populacji, to liczba serii w tak określonym&lt;br /&gt;
ciągu podlega statystyce &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;, czyli ponownie możemy&lt;br /&gt;
stosować test Walda-Wolfowitza.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
---------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11696</id>
		<title>WnioskowanieStatystyczne/Test serii</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Test_serii&amp;diff=11696"/>
		<updated>2026-03-29T10:08:04Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Test serii Walda-Wolfowitza */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Test serii Walda-Wolfowitza=&lt;br /&gt;
&lt;br /&gt;
Serią nazywamy ciąg jednakowych elementów.  W poniższym przykładzie&lt;br /&gt;
mamy sześć serii (po trzy serie zer i jedynek):&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Nie jest to oczywiście jedyna kombinacja kolejności pięciu zer i pięciu jedynek,&lt;br /&gt;
dająca w wyniku sześć serii. Ponieważ każda pojedyncza kombinacja jest jednakowo&lt;br /&gt;
prawdopodobna (jeśli jest wynikiem niezależnych losowań), to prawdopodobieństwo&lt;br /&gt;
uzyskania danej liczby serii będzie tym większe, im więcej różnych kombinacji&lt;br /&gt;
będzie dawać w wyniku tę liczbę serii. Sformułujmy więc problem ogólnie:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
Mamy &amp;lt;math&amp;gt;N=n_1+n_2&amp;lt;/math&amp;gt; elementów, w tym &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek. &lt;br /&gt;
Na ile sposobów możemy je rozłożyć, aby uzyskać &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii? &lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;kod &amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
import matplotlib.pyplot as plt&lt;br /&gt;
import numpy&lt;br /&gt;
&lt;br /&gt;
n1=25 # zera&lt;br /&gt;
n2=30 # jedynki&lt;br /&gt;
n=n1+n2 &lt;br /&gt;
ile_losowan=1000&lt;br /&gt;
&lt;br /&gt;
wynik=numpy.zeros(ile_losowan, dtype=numpy.int32)&lt;br /&gt;
&lt;br /&gt;
for i in range(0, ile_losowan):&lt;br /&gt;
	losowanie=numpy.zeros(n, dtype=numpy.int32)&lt;br /&gt;
	while numpy.sum(losowanie) &amp;lt; n2:&lt;br /&gt;
		losowanie[numpy.random.randint(0,n)]=1&lt;br /&gt;
	#print(numpy.array_str(losowanie,max_line_width=numpy.inf).replace(&amp;quot; &amp;quot;,&amp;quot;&amp;quot;), &amp;quot;\n&amp;quot;)&lt;br /&gt;
	zmiany=1&lt;br /&gt;
	for j in range(1, n):&lt;br /&gt;
		if(losowanie[j] != losowanie[j-1]):&lt;br /&gt;
			zmiany += 1&lt;br /&gt;
	wynik[i]=zmiany&lt;br /&gt;
&lt;br /&gt;
plt.hist(wynik, bins=range(0,n))&lt;br /&gt;
plt.xlabel(&amp;quot;$k$&amp;quot;)&lt;br /&gt;
plt.ylabel(&amp;quot;$P(k)$&amp;quot;)&lt;br /&gt;
#plt.title(&amp;quot;$n_1 = 30, n_2 = 25$&amp;quot;)&lt;br /&gt;
plt.title(f&amp;quot;$n_1$ = {n1}, $n_2$ = {n2}, {ile_losowan} losowań&amp;quot;)&lt;br /&gt;
plt.show()&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Plik:Testserii.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^5&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
[[Plik:Testserii_10.9.log.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^9&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek (skala logarytmiczna).]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
[[Plik:Testserii6.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Histogram liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w &amp;lt;math&amp;gt;10^6&amp;lt;/math&amp;gt; niezależnych losowaniach 30 zer i 25 jedynek.]]&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wróćmy do prostszego przykładu, zawierającego pięć jedynek i pięć zer. &lt;br /&gt;
Podział na serie możemy interpretować jak przypisanie liczbom od jeden do dziesięciu &lt;br /&gt;
(pozycje w ciągu) zera lub jedynki:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''1'''&lt;br /&gt;
|'''0'''&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|2&lt;br /&gt;
|3&lt;br /&gt;
|4&lt;br /&gt;
|5&lt;br /&gt;
|6&lt;br /&gt;
|7&lt;br /&gt;
|8&lt;br /&gt;
|9&lt;br /&gt;
|10&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inaczej mówiąc, konkretny ciąg &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; zer i jedynek wyznaczony&lt;br /&gt;
jest przez wylosowanie spośród liczb od jednego do &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; tych&lt;br /&gt;
liczb, którym mają być przypisane jedynki (pozostałym będą przypisane&lt;br /&gt;
zera &amp;amp;mdash; lub odwrotnie). Czyli wszystkich możliwych ciągów&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek będzie tyle, na ile&lt;br /&gt;
sposobów można wylosować &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt;.  Policzmy: pozycję (czyli numer, wypisany w dolnym&lt;br /&gt;
rzędzie powyższej tabeli) pierwszego elementu losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; możliwości, drugiego &amp;amp;mdash; spośród &amp;lt;math&amp;gt;N-1&amp;lt;/math&amp;gt;&lt;br /&gt;
pozostałych możliwości (jedna pozycja jest już zajęta), i tak dalej,&lt;br /&gt;
aż pozycję ostatniego z &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; elementów losujemy spośród&lt;br /&gt;
&amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; pozostałych możliwości.  Liczba możliwych wyników&lt;br /&gt;
będzie iloczynem tych wszystkich liczb, czyli wyniesie&lt;br /&gt;
&amp;lt;math&amp;gt;N\cdot(N-1)\cdot(N-2)\cdot\ \dots\ \cdot (N-n_1) =&lt;br /&gt;
N!/(N-n_1)!&amp;lt;/math&amp;gt; Skoro wszystkie jedynki są jednakowe i nie&lt;br /&gt;
rozróżniamy wyników różniących się ich kolejnością, to wynik ten&lt;br /&gt;
musimy podzielić przez liczbę różnych ustawień kolejności elementów&lt;br /&gt;
(liczbę permutacji) zbioru &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt;-elementowego. Wyniesie ona&lt;br /&gt;
&amp;lt;math&amp;gt;n_1\cdot(n_1-1)\cdot\ \dots\ \cdot 1&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&amp;lt;math&amp;gt;n_1!&amp;lt;/math&amp;gt; Ostatecznie jako liczbę różnych ustawień&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i &amp;lt;math&amp;gt;N-n_1&amp;lt;/math&amp;gt; jedynek dostajemy:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\frac{N!}{(N-n_1)!\ n_1!} = \binom{N}{n_1}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Jest to znany z [[WnioskowanieStatystyczne/Rozklady-przyklady#Rozkład dwumianowy|rozdziału o rozkładzie dwumianowym]] symbol Newtona &amp;lt;math&amp;gt;\binom{N}{n_1}&amp;lt;/math&amp;gt;. Jego własności&lt;br /&gt;
symetrii zgadzają się z sytuacją, w ktorej &amp;quot;wybierać&amp;quot; możemy albo &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer&lt;br /&gt;
albo &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\binom{N}{n_1}=\binom{n_1+n_2}{n_1}=\frac{(n_1+n_2)!}{n_1! n_2!}=\binom{n_1+n_2}{n_2}=\binom{N}{n_2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje policzyć, ile z tych możliwości (przy ustalonych liczbach&lt;br /&gt;
&amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer) wygeneruje ciąg&lt;br /&gt;
wyników, w którym będzie dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{00}\underline{111}&lt;br /&gt;
         \overline{0}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
#'''Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest parzysta''', to będziemy mieć tyle samo serii jedynek i zer (po &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt;). Aby rozmieścić &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek w &amp;lt;math&amp;gt;k/2&amp;lt;/math&amp;gt; seriach musimy wyznaczyć &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; punktów podziału na serie; w powyższym przykładzie będą to (kropki) '''1.1.111''' &amp;amp;mdash; było 6 serii, więc mamy 2 punkty podziału. Inaczej losujemy spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych punktów podziału &amp;lt;math&amp;gt;k/2-1&amp;lt;/math&amp;gt; podziałów, jak wynika z liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;. Daje to &amp;lt;math&amp;gt;\binom{n_1-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości. W miejsca podziału (oznaczone kropkami) wstawiamy serie zer; analogicznie możemy to zrobić na &amp;lt;math&amp;gt;\binom{n_2-1}{k/2-1}&amp;lt;/math&amp;gt; możliwości (w przykładzie: '''00.00.0'''). Liczbę tę należy pomnożyć przez dwa ze względu na możliwość zamiany miejscami zer i jedynek. Prawdopodobieństwo danej liczby serii dostaniemy &amp;amp;mdash; zgodnie z klasyczną definicją prawdopodobieństwa &amp;amp;mdash; dzieląc liczbę wszystkich tych kombinacji &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek i &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer, które generują dokładnie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, przez liczbę wszystkich możliwych kombinacji: &amp;lt;math&amp;gt; P=\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}} { \binom{N}{n_1}} \qquad\textrm{dla }\ k\ \textrm{parzystych.} &amp;lt;/math&amp;gt;&lt;br /&gt;
#'''Jeśli liczba serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; jest nieparzysta,''' to którychś serii &amp;amp;mdash; zer lub jedynek &amp;amp;mdash; będzie dokładnie o jeden więcej. &amp;lt;equation id=&amp;quot;eq:127&amp;quot;&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\underline{1}\overline{00}\underline{1}\overline{000}\underline{111}&lt;br /&gt;
        &amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
##'''jeśli więcej jest serii jedynek''', mamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii zer i &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii jedynek. &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; jedynek dzielimy na &amp;lt;math&amp;gt;(k-1)/2+1&amp;lt;/math&amp;gt; serii, czyli wyznaczamy &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; punktów podziału spośród &amp;lt;math&amp;gt;n_1-1&amp;lt;/math&amp;gt; możliwych &amp;amp;mdash; daje to &amp;lt;math&amp;gt;\binom{n_1-1}{(k-1)/2}&amp;lt;/math&amp;gt; możliwości. Z kolei &amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; zer dzielimy na &amp;lt;math&amp;gt;(k-1)/2&amp;lt;/math&amp;gt; serii, co daje &amp;lt;math&amp;gt;\binom{n_2-1}{(k-1)/2-1}&amp;lt;/math&amp;gt; możliwości. Iloczyn tych dwóch wielkości określa liczbę możliwości dających &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii, jeśli więcej jest serii jedynek: &amp;lt;equation id=&amp;quot;eq:128&amp;quot;&amp;gt;&amp;lt;math&amp;gt; \binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
##'''jeśli więcej jest serii zer''', to na drodze analogicznego rozumowania dostajemy &amp;lt;equation id=&amp;quot;eq:129&amp;quot;&amp;gt;&amp;lt;math&amp;gt; \binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}. &amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Prawdopodobieństwo dla przypadku nieparzystej liczby serii będzie sumą tych dwóch wielkości, podzieloną, jak w przypadku parzystego &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;, przez liczbę wszystkich możliwości:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:130&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{matrix}&lt;br /&gt;
P&amp;amp;\!\!\!\!=&amp;amp;\!\!\!\!\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}  \\&lt;br /&gt;
&amp;amp;&amp;amp;\textrm{dla }\ k\ \textrm{ nieparzystych.}&lt;br /&gt;
\end{matrix}&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Pozostaje jeszcze rozważyć sytuację''', w której liczba serii jest&lt;br /&gt;
nieparzysta, jak w punkcie 2., ale mniej liczne&lt;br /&gt;
elementy rozłożone są wyłącznie w serie jednoelementowe, na przykład&lt;br /&gt;
001010010100, czyli liczba serii wynosi &amp;lt;math&amp;gt;2n+1&amp;lt;/math&amp;gt;, gdzie&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jest liczbą mniej licznych elementów (w tym&lt;br /&gt;
przykładzie jedynek). Wtedy znika jeden ze składników sumy z licznika&lt;br /&gt;
powyższego równania, gdyż zachodzić może wyłącznie&lt;br /&gt;
przypadek 2.1 lub 2.2.&lt;br /&gt;
&lt;br /&gt;
Ostatecznie dostajemy następujący wzór na&lt;br /&gt;
prawdopodobieństwo wystąpienia &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii w próbie, w której&lt;br /&gt;
drogą niezależnych losowań wylosowano &amp;lt;math&amp;gt;n_1&amp;lt;/math&amp;gt; zer i&lt;br /&gt;
&amp;lt;math&amp;gt;n_2&amp;lt;/math&amp;gt; jedynek:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:131&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
P(k\mid n_1, n_2)=\begin{cases} &lt;br /&gt;
\frac{ 2\binom{n_1-1}{k/2-1} \binom{n_2-1}{k/2-1}}&lt;br /&gt;
{ \binom{N}{n_1}} &lt;br /&gt;
\quad \textrm{dla }\ k\ \textrm{ parzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_1-1}{(k-1)/2} \binom{n_2-1}{(k-1)/2-1} +&lt;br /&gt;
\binom{n_1-1}{(k-1)/2-1} \binom{n_2-1}{(k-1)/2}&lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{n_1}}}&lt;br /&gt;
\\&lt;br /&gt;
\quad\qquad\qquad\qquad\qquad\qquad \textrm{dla }\ k\ \textrm{ nieparzystych}&lt;br /&gt;
\\ &lt;br /&gt;
\frac{&lt;br /&gt;
\binom{n_\textrm{max}-1}{(k-1)/2} &lt;br /&gt;
}&lt;br /&gt;
{{ \binom{N}{(k-1)/2}}}&lt;br /&gt;
\ \quad\qquad\qquad\textrm{dla }\ k\ \textrm{ nieparzystych i }  &lt;br /&gt;
n_\textrm{min}=\frac{k-1}{2}, &lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/equation&amp;gt;&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;n_\textrm{min}=\min(n_1, n_2)&amp;lt;/math&amp;gt; i&lt;br /&gt;
&amp;lt;math&amp;gt;n_\textrm{max}=\max(n_1, n_2)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Wzór ten określa rozkład statystyki, będącej liczbą serii w próbie złożonej &lt;br /&gt;
z dowolnych dwóch rodzajów elementów (oznaczanych powyżej jako '''0''' i '''1'''). Dzięki niemu możemy wreszcie skonstruować kompletny test hipotezy&lt;br /&gt;
mówiącej, że dany ciąg jest wynikiem niezależnych losowań. Przypomnijmy dane &lt;br /&gt;
z [[WnioskowanieStatystyczne/Testy_nieprametryczne|przykładu o nieuczciwym ankieterze]]:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
'''1101101000101001011101101111010110010101001010100011101'''&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W ciągu tym występuje 25 zer i 30 jedynek, układających się w 37&lt;br /&gt;
serii.  Na podstawie wzoru &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; możemy obliczyć&lt;br /&gt;
rozkład prawdopodobieństwa wylosowania ciągu 25 zer i 30 jedynek, w&lt;br /&gt;
którym będzie &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; serii. Możliwe wartości &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt;&lt;br /&gt;
będą w tym przypadku zawierać się między 2 (jedna seria zer i jedna&lt;br /&gt;
jedynek) a 51 (ponieważ mniej jest zer, największa liczba serii&lt;br /&gt;
odpowiada przypadkowi, w którym wszystkie zera układają się w serie&lt;br /&gt;
jednoelementowe). Rozkład prawdopodobieństwa dla tego przypadku&lt;br /&gt;
przedstawia rysunek &amp;lt;xr id=&amp;quot;fig:132&amp;quot;&amp;gt; %i&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:serie.png|center|thumb|600px|&amp;lt;figure id=&amp;quot;fig:132&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Rozkład prawdopodobieństw &amp;lt;math&amp;gt;P(k)&amp;lt;/math&amp;gt; liczby serii &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; w niezależnym losowaniu 30 zer i 25 jedynek.]]&lt;br /&gt;
&lt;br /&gt;
Zastosowania testów opartych na tej statystyce nie ograniczają się do&lt;br /&gt;
analizy ciągów zer i jedynek (lub innych dwóch elementów). Poniżej&lt;br /&gt;
przedstawiamy jeszcze dwa testy korzystające ze statystyki &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Testowanie, czy próba jest wynikiem niezależnych losowań==&lt;br /&gt;
&lt;br /&gt;
Podobny problem &amp;amp;mdash; pytanie, czy elementy próby są wynikiem&lt;br /&gt;
niezależnych losowań &amp;amp;mdash; występuje np. przy testowaniu generatorów&lt;br /&gt;
liczb losowych ([[WnioskowanieStatystyczne/Z_komputerem#cite_note-0|będących kluczowym&lt;br /&gt;
elementem metod opisywanych w pierwszej części książki]]). Jednak w&lt;br /&gt;
tej sytuacji mamy do czynienia z ciągiem dowolnych liczb, a nie dwóch&lt;br /&gt;
symboli.&lt;br /&gt;
&lt;br /&gt;
Pomysł jest prosty: ciąg wyników wyrażających się dowolnymi liczbami&lt;br /&gt;
możemy zamienić na ciąg zer i jedynek, wybierając próg &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt;&lt;br /&gt;
i przypisując wynikom większym od &amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; jedynkę, a mniejszym&lt;br /&gt;
&amp;amp;mdash; zero. Jeśli chcemy mieć tyle samo zer i jedynek, jako&lt;br /&gt;
&amp;lt;math&amp;gt;M&amp;lt;/math&amp;gt; możemy wziąć [[WnioskowanieStatystyczne/Momenty#Mediana|medianę]] próby. Do&lt;br /&gt;
takiej serii możemy już z powodzeniem stosować opisany w poprzednim&lt;br /&gt;
rozdziale test oparty na statystyce &amp;lt;xr id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &amp;amp;mdash;&lt;br /&gt;
oczywiście zachowując kolejność elementów w próbie.&lt;br /&gt;
&lt;br /&gt;
==Test zgodności rozkładów w dwóch populacjach==&lt;br /&gt;
&lt;br /&gt;
Mamy dwie próby. Hipoteza zerowa mówi, że zostały wylosowane z tego&lt;br /&gt;
samego rozkładu. Ciąg zer i jedynek tworzymy w następujący sposób:&lt;br /&gt;
&lt;br /&gt;
Elementy obu prób ustawiamy w jeden ciąg w kolejności od najmniejszej&lt;br /&gt;
do największej&amp;lt;ref&amp;gt;Jeśli wartości losowane są z rozkładów ciągłych, to&lt;br /&gt;
wystąpienie jednakowych wartości jest teoretycznie niemożliwe. W&lt;br /&gt;
praktyce wartości zapisujemy ze skończoną dokładnością; zwykle&lt;br /&gt;
przyjmuje się, że jednakowe wartości można pominąć.&amp;lt;/ref&amp;gt;.  Elementom&lt;br /&gt;
pierwszej próby przypisujemy jedynki, a drugiej &amp;amp;mdash; zera.&lt;br /&gt;
&lt;br /&gt;
Jeśli obie próby losowano z tej samej populacji, to liczba serii w tak określonym&lt;br /&gt;
ciągu podlega statystyce &amp;lt;xr&lt;br /&gt;
id=&amp;quot;eq:131&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;, czyli ponownie możemy&lt;br /&gt;
stosować test Walda-Wolfowitza.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
---------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Testy_nieprametryczne&amp;diff=11695</id>
		<title>WnioskowanieStatystyczne/Testy nieprametryczne</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Testy_nieprametryczne&amp;diff=11695"/>
		<updated>2026-03-29T08:50:38Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Testy nieparametryczne */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Testy nieparametryczne==&lt;br /&gt;
&lt;br /&gt;
We [[WnioskowanieStatystyczne/wstep|wstępie]] mówiliśmy, że jedną z podstawowych wad&lt;br /&gt;
klasycznych testów statystycznych jest niemal wszechobecne założenie o&lt;br /&gt;
pochodzeniu danych z populacji o rozkładzie gaussowskim.&lt;br /&gt;
&lt;br /&gt;
Faktycznie, w wyprowadzeniu statystyki najczęściej stosowanego [[WnioskowanieStatystyczne/Test_t|testu &amp;lt;math&amp;gt;t&amp;lt;/math&amp;gt;]] korzystamy ''explicite''  z tego założenia &amp;amp;mdash; jeśli nie jest ono spełnione, test da wyniki nieprawdziwe.&lt;br /&gt;
&lt;br /&gt;
Podobnie [[WnioskowanieStatystyczne/Test_chi2|rozkład &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt;]] wprowadzamy&lt;br /&gt;
jako sumę kwadratów zmiennych pochodzących z rozkładu&lt;br /&gt;
normalnego. Jednak jeśli przyjrzeć się dokładniej założeniom&lt;br /&gt;
[[WnioskowanieStatystyczne/Test_chi2#Test_.CF.872_Pearsona|testu &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt; Pearsona]] &lt;br /&gt;
okaże się, że jedynym warunkiem jest, by ilości zliczeń w&lt;br /&gt;
poszczególnych komórkach tabeli (bądź binach histogramu) nie były&lt;br /&gt;
nadmiernie małe. Wynika to ze specyficznej postaci danych wejściowych&lt;br /&gt;
&amp;amp;mdash; statystyka &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt; Pearsona nie jest oparta&lt;br /&gt;
bezpośrednio na danych, lecz na zliczeniach przypadków. W każdym razie&lt;br /&gt;
jest to przykład testu, którego poprawność nie zależy od założenia o&lt;br /&gt;
normalności rozkładów danych.&lt;br /&gt;
&lt;br /&gt;
W takich dziedzinach jak medycyna, psychologia czy&lt;br /&gt;
socjologia mamy zwykle do czynienia z danymi, o których trudno&lt;br /&gt;
powiedzieć ''a priori'' z jakiego rozkładu pochodzą, a wysoki koszt&lt;br /&gt;
lub trudności z dokładnym powtórzeniem eksperymentów powodują, że&lt;br /&gt;
samych danych bywa za mało do sprawdzenia hipotezy o normalności&lt;br /&gt;
rozkładu (na przykład [[WnioskowanieStatystyczne/Test_chi2|testem &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt;]]).&lt;br /&gt;
&amp;lt;ref&amp;gt; Istnieją również testy statystyczne,&lt;br /&gt;
które weryfikują hipotezę o normalności rozkładu nawet dla bardzo&lt;br /&gt;
małych próbek, jednak niezależnie od reguł należy zawsze pamiętać o&lt;br /&gt;
zdrowym rozsądku. Wszak o kształcie rozkładu populacji, z której&lt;br /&gt;
losujemy próbę, mówi histogram, a histogram kilku czy nawet kilkunastu&lt;br /&gt;
przypadków nie niesie dość informacji, aby odpowiedzialnie móc coś&lt;br /&gt;
powiedzieć o kształcie rozkładu. Dlatego wyniki testów normalności dla&lt;br /&gt;
bardzo małych próbek należy traktować ostrożnie.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
To zapotrzebowanie doprowadziło do powstania w ramach statystyki&lt;br /&gt;
klasycznej ''testów nieparametrycznych'', które do poprawnego&lt;br /&gt;
działania nie wymagają spełnienia hipotezy o normalności rozkładu&lt;br /&gt;
danych. Osiągane jest to zwykle kosztem&lt;br /&gt;
[[WnioskowanieStatystyczne/Weryfikacja hipotez#Poziom_istotno.C5.9Bci_i_moc_testu|mniejszej mocy testów]], jednak w obliczu groźby popełnienia grubego błędu metodycznego, jakim jest zastosowanie testu parametrycznego do danych&lt;br /&gt;
nie spełniających jego założeń, jest to zwykle cena warta zapłacenia.&lt;br /&gt;
&lt;br /&gt;
Pierwszym przykładem z tej grupy jest opisany już&lt;br /&gt;
[[WnioskowanieStatystyczne/Test_chi2#Test_.CF.872_Pearsona|test &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt; Pearsona]]. &lt;br /&gt;
Poniżej wprowadzimy jeszcze dwa testy nieparametryczne;&lt;br /&gt;
pierwszy z nich &amp;quot;wymyślimy&amp;quot; i opracujemy od początku do końca &amp;amp;mdash;&lt;br /&gt;
od analizy problemu, przez pomysł na rozwiązanie, aż do kompletnych&lt;br /&gt;
wzorów na rozkład prawdopobieństwa wybranej statystyki.&lt;br /&gt;
&lt;br /&gt;
===Przykład &amp;amp;mdash; nieuczciwy ankieter ===&lt;br /&gt;
&lt;br /&gt;
Zadaniem ankietera w badaniach przedwyborczych (np. przed referendum)&lt;br /&gt;
jest pytanie losowo wybranych obywateli, czy mają zamiar głosować &amp;quot;za&amp;quot;&lt;br /&gt;
czy &amp;quot;przeciw&amp;quot;. Czy na podstawie wyników ankiet, będących wyłącznie&lt;br /&gt;
ciągiem jedynek (&amp;quot;za&amp;quot;) i zer (&amp;quot;przeciw&amp;quot;), na przykład:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
1101101000101001011101101111010110010101001010100011101&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
można sprawdzić, czy ankietowane osoby wybierano w prawidłowy sposób?&lt;br /&gt;
Czy można też wykryć nieuczciwego ankietera, który zamiast pracowicie&lt;br /&gt;
przeprowadzać ankiety &amp;quot;wymyślił&amp;quot; ich wyniki?&lt;br /&gt;
&lt;br /&gt;
Aby wyniki &amp;quot;odpytania&amp;quot; stosunkowo niewielkiej grupy wyborców mogły&lt;br /&gt;
odzwierciedlać wyniki przyszłych wyborów, grupa musi być wybrana&lt;br /&gt;
dostatecznie &amp;quot;przypadkowo&amp;quot;. Na przykład, nie ma sensu przeprowadzenie&lt;br /&gt;
ankiet wyłącznie wśród studentów i wnioskowanie na ich podstawie o&lt;br /&gt;
wynikach wyborów ogólnonarodowych. Tylko jeśli ankietowana grupa jest&lt;br /&gt;
przypadkowo wybranym podzbiorem populacji wszystkich wyborców, średnia&lt;br /&gt;
opinii tej grupy będzie dobrym estymatorem średniej opinii wszystkich&lt;br /&gt;
wyborców (populacji).&lt;br /&gt;
&lt;br /&gt;
W statystyce używamy pojęcia ''próby prostej'', będącej wynikiem&lt;br /&gt;
niezależnych losowań z tej samej populacji (lub z tego samego&lt;br /&gt;
rozkładu). Na podstawie samych wyników trudno wykryć, czy próbę&lt;br /&gt;
losowano np. tylko spośród mieszkańców miast, zamiast spośród&lt;br /&gt;
wszystkich uprawnionych do głosowania.  Natomiast dość skutecznie&lt;br /&gt;
możemy testować niezależność kolejnych losowań; intuicja podpowiada, &lt;br /&gt;
że nie wszystkie z poniższych ciągów są &amp;quot;jednakowo prawdopodobne&amp;quot;&amp;lt;ref&amp;gt;formalnie wszystkie trzy ciągi są jednakowo prawdopodobne&amp;lt;/ref&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
00101101001110101001 &lt;br /&gt;
&lt;br /&gt;
11111111110000000000&lt;br /&gt;
&lt;br /&gt;
10101010101010101010&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
choć wszystkie trzy ciągi zawierają te same liczby jedynek i zer &amp;amp;mdash; oczywiście, jeśli mówimy o wynikach&lt;br /&gt;
niezależnych losowań.&amp;lt;ref&amp;gt;Jeśli pierwszych dziesięć opinii zbierzemy&lt;br /&gt;
wśród młodych bezrobotnych a drugie dziesięć wśród emerytów (dwie&lt;br /&gt;
długie serie jednakowych opinii), to wynik drugi będzie bardziej&lt;br /&gt;
prawdopodobny, ale taki wybór ankietowanych nie jest zgodny z ideą&lt;br /&gt;
próby prostej.&amp;lt;/ref&amp;gt; W drugim wyniku mamy zera i jedynki zgrupowane w&lt;br /&gt;
dwie długie serie &amp;amp;mdash; to właśnie wydaje się mało prawdopodobne, w&lt;br /&gt;
porównaniu z większą ilością serii w pierwszym ciągu. Aby dokładnie&lt;br /&gt;
oszacować poziom istotności dla hipotezy, że dana próba jest prosta,&lt;br /&gt;
pozostaje wyliczyć rozkład prawdopodobieństwa uzyskania różnych liczb&lt;br /&gt;
serii w ciągach zer i jedynek będących wynikiem niezależnych losowań z&lt;br /&gt;
tej samej populacji.  Ten właśnie pomysł leży u podstaw testu serii.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
--------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Testy_nieprametryczne&amp;diff=11694</id>
		<title>WnioskowanieStatystyczne/Testy nieprametryczne</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Testy_nieprametryczne&amp;diff=11694"/>
		<updated>2026-03-29T08:45:49Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Przykład &amp;amp;mdash; nieuczciwy ankieter */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Testy nieparametryczne==&lt;br /&gt;
&lt;br /&gt;
We [[WnioskowanieStatystyczne/wstep|wstępie]] mówiliśmy, że jedną z podstawowych wad&lt;br /&gt;
klasycznych testów statystycznych jest niemal wszechobecne założenie o&lt;br /&gt;
pochodzeniu danych z populacji o rozkładzie gaussowskim.&lt;br /&gt;
&lt;br /&gt;
Faktycznie, w wyprowadzeniu statystyki najczęściej stosowanego [[WnioskowanieStatystyczne/Test_t|testu &amp;lt;math&amp;gt;t&amp;lt;/math&amp;gt;]] korzystamy ''explicite''  z tego założenia &amp;amp;mdash; jeśli nie jest ono spełnione, test da wyniki nieprawdziwe.&lt;br /&gt;
&lt;br /&gt;
Podobnie [[WnioskowanieStatystyczne/Test_chi2|rozkład &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt;]] wprowadzamy&lt;br /&gt;
jako sumę kwadratów zmiennych pochodzących z rozkładu&lt;br /&gt;
normalnego. Jednak jeśli przyjrzeć się dokładniej założeniom&lt;br /&gt;
[[WnioskowanieStatystyczne/Test_chi2#Test_.CF.872_Pearsona|testu &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt; Pearsona]] &lt;br /&gt;
okaże się, że jedynym warunkiem jest, by ilości zliczeń w&lt;br /&gt;
poszczególnych komórkach tabeli (bądź binach histogramu) nie były&lt;br /&gt;
nadmiernie małe. Wynika to ze specyficznej postaci danych wejściowych&lt;br /&gt;
&amp;amp;mdash; statystyka &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt; Pearsona nie jest oparta&lt;br /&gt;
bezpośrednio na danych, lecz na zliczeniach przypadków. W każdym razie&lt;br /&gt;
jest to przykład testu, którego poprawność nie zależy od założenia o&lt;br /&gt;
normalności rozkładów danych.&lt;br /&gt;
&lt;br /&gt;
W takich dziedzinach jak medycyna, psychologia czy&lt;br /&gt;
socjologia mamy zwykle do czynienia z danymi, o których trudno&lt;br /&gt;
powiedzieć ''a priori'' z jakiego rozkładu pochodzą, a wysoki koszt&lt;br /&gt;
lub trudności z dokładnym powtórzeniem eksperymentów powodują, że&lt;br /&gt;
samych danych bywa za mało do sprawdzenia hipotezy o normalności&lt;br /&gt;
rozkładu (na przykład [[WnioskowanieStatystyczne/Test_chi2|testem &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt;]]).&lt;br /&gt;
&amp;lt;ref&amp;gt; Istnieją również testy statystyczne,&lt;br /&gt;
które weryfikują hipotezę o normalności rozkładu nawet dla bardzo&lt;br /&gt;
małych próbek, jednak niezależnie od reguł należy zawsze pamiętać o&lt;br /&gt;
zdrowym rozsądku. Wszak o kształcie rozkładu populacji, z której&lt;br /&gt;
losujemy próbę, mówi histogram, a histogram kilku czy nawet kilkunastu&lt;br /&gt;
przypadków nie niesie dość informacji, aby odpowiedzialnie móc coś&lt;br /&gt;
powiedzieć o kształcie rozkładu. Dlatego wyniki testów normalności dla&lt;br /&gt;
bardzo małych próbek należy traktować ostrożnie.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
To zapotrzebowanie doprowadziło do powstania w ramach statystyki&lt;br /&gt;
klasycznej ''testów nieparametrycznych'', które do poprawnego&lt;br /&gt;
działania nie wymagają spełnienia hipotezy o normalności rozkładu&lt;br /&gt;
danych. Osiągane jest to zwykle kosztem&lt;br /&gt;
[[WnioskowanieStatystyczne/Weryfikacja hipotez#Poziom_istotno.C5.9Bci_i_moc_testu|mniejszej mocy testów]], jednak w obliczu groźby popełnienia grubego błędu metodycznego, jakim jest zastosowanie testu parametrycznego do danych&lt;br /&gt;
nie spełniających jego założeń, jest to zwykle cena warta zapłacenia.&lt;br /&gt;
&lt;br /&gt;
Pierwszym przykładem z tej grupy jest opisany już&lt;br /&gt;
[[WnioskowanieStatystyczne/Test_chi2#Test_.CF.872_Pearsona|test &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt; Pearsona]]. &lt;br /&gt;
Poniżej wprowadzimy jeszcze dwa testy nieparametryczne;&lt;br /&gt;
pierwszy z nich &amp;quot;wymyślimy&amp;quot; i opracujemy od początku do końca &amp;amp;mdash;&lt;br /&gt;
od analizy problemu, przez pomysł na rozwiązanie, aż do kompletnych&lt;br /&gt;
wzorów na rozkład prawdopobieństwa wybranej statystyki.&lt;br /&gt;
&lt;br /&gt;
===Przykład &amp;amp;mdash; nieuczciwy ankieter ===&lt;br /&gt;
&lt;br /&gt;
Zadaniem ankietera w badaniach przedwyborczych (np. przed referendum)&lt;br /&gt;
jest pytanie losowo wybranych obywateli, czy mają zamiar głosować &amp;quot;za&amp;quot;&lt;br /&gt;
czy &amp;quot;przeciw&amp;quot;. Czy na podstawie wyników ankiet, będących wyłącznie&lt;br /&gt;
ciągiem jedynek (&amp;quot;za&amp;quot;) i zer (&amp;quot;przeciw&amp;quot;), na przykład:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
1101101000101001011101101111010110010101001010100011101&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
można sprawdzić, czy ankietowane osoby wybierano w prawidłowy sposób?&lt;br /&gt;
Czy można też wykryć nieuczciwego ankietera, który zamiast pracowicie&lt;br /&gt;
przeprowadzać ankiety &amp;quot;wymyślił&amp;quot; ich wyniki?&lt;br /&gt;
&lt;br /&gt;
Aby wyniki &amp;quot;odpytania&amp;quot; stosunkowo niewielkiej grupy wyborców mogły&lt;br /&gt;
odzwierciedlać wyniki przyszłych wyborów, grupa musi być wybrana&lt;br /&gt;
dostatecznie &amp;quot;przypadkowo&amp;quot;. Na przykład, nie ma sensu przeprowadzenie&lt;br /&gt;
ankiet wyłącznie wśród studentów i wnioskowanie na ich podstawie o&lt;br /&gt;
wynikach wyborów ogólnonarodowych. Tylko jeśli ankietowana grupa jest&lt;br /&gt;
przypadkowo wybranym podzbiorem populacji wszystkich wyborców, średnia&lt;br /&gt;
opinii tej grupy będzie dobrym estymatorem średniej opinii wszystkich&lt;br /&gt;
wyborców (populacji).&lt;br /&gt;
&lt;br /&gt;
W statystyce używamy pojęcia ''próby prostej'', będącej wynikiem&lt;br /&gt;
niezależnych losowań z tej samej populacji (lub z tego samego&lt;br /&gt;
rozkładu). Na podstawie samych wyników trudno wykryć, czy próbę&lt;br /&gt;
losowano np. tylko spośród mieszkańców miast, zamiast spośród&lt;br /&gt;
wszystkich uprawnionych do głosowania.  Natomiast dość skutecznie&lt;br /&gt;
możemy testować niezależność kolejnych losowań; intuicja podpowiada, &lt;br /&gt;
że nie wszystkie z poniższych ciągów są &amp;quot;jednakowo prawdopodobne&amp;quot;&amp;lt;ref&amp;gt;formalnie oba ciągi są jednakowo prawdopodobne&amp;lt;/ref&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
00101101001110101001 &lt;br /&gt;
&lt;br /&gt;
11111111110000000000&lt;br /&gt;
&lt;br /&gt;
10101010101010101010&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
choć wszystkie trzy ciągi zawierają te same liczby jedynek i zer &amp;amp;mdash; oczywiście, jeśli mówimy o wynikach&lt;br /&gt;
niezależnych losowań.&amp;lt;ref&amp;gt;Jeśli pierwszych dziesięć opinii zbierzemy&lt;br /&gt;
wśród młodych bezrobotnych a drugie dziesięć wśród emerytów (dwie&lt;br /&gt;
długie serie jednakowych opinii), to wynik drugi będzie bardziej&lt;br /&gt;
prawdopodobny, ale taki wybór ankietowanych nie jest zgodny z ideą&lt;br /&gt;
próby prostej.&amp;lt;/ref&amp;gt; W drugim wyniku mamy zera i jedynki zgrupowane w&lt;br /&gt;
dwie długie serie &amp;amp;mdash; to właśnie wydaje się mało prawdopodobne, w&lt;br /&gt;
porównaniu z większą ilością serii w pierwszym ciągu. Aby dokładnie&lt;br /&gt;
oszacować poziom istotności dla hipotezy, że dana próba jest prosta,&lt;br /&gt;
pozostaje wyliczyć rozkład prawdopodobieństwa uzyskania różnych liczb&lt;br /&gt;
serii w ciągach zer i jedynek będących wynikiem niezależnych losowań z&lt;br /&gt;
tej samej populacji.  Ten właśnie pomysł leży u podstaw testu serii.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
--------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Testy_nieprametryczne&amp;diff=11693</id>
		<title>WnioskowanieStatystyczne/Testy nieprametryczne</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Testy_nieprametryczne&amp;diff=11693"/>
		<updated>2026-03-29T08:33:44Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Testy nieparametryczne */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Testy nieparametryczne==&lt;br /&gt;
&lt;br /&gt;
We [[WnioskowanieStatystyczne/wstep|wstępie]] mówiliśmy, że jedną z podstawowych wad&lt;br /&gt;
klasycznych testów statystycznych jest niemal wszechobecne założenie o&lt;br /&gt;
pochodzeniu danych z populacji o rozkładzie gaussowskim.&lt;br /&gt;
&lt;br /&gt;
Faktycznie, w wyprowadzeniu statystyki najczęściej stosowanego [[WnioskowanieStatystyczne/Test_t|testu &amp;lt;math&amp;gt;t&amp;lt;/math&amp;gt;]] korzystamy ''explicite''  z tego założenia &amp;amp;mdash; jeśli nie jest ono spełnione, test da wyniki nieprawdziwe.&lt;br /&gt;
&lt;br /&gt;
Podobnie [[WnioskowanieStatystyczne/Test_chi2|rozkład &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt;]] wprowadzamy&lt;br /&gt;
jako sumę kwadratów zmiennych pochodzących z rozkładu&lt;br /&gt;
normalnego. Jednak jeśli przyjrzeć się dokładniej założeniom&lt;br /&gt;
[[WnioskowanieStatystyczne/Test_chi2#Test_.CF.872_Pearsona|testu &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt; Pearsona]] &lt;br /&gt;
okaże się, że jedynym warunkiem jest, by ilości zliczeń w&lt;br /&gt;
poszczególnych komórkach tabeli (bądź binach histogramu) nie były&lt;br /&gt;
nadmiernie małe. Wynika to ze specyficznej postaci danych wejściowych&lt;br /&gt;
&amp;amp;mdash; statystyka &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt; Pearsona nie jest oparta&lt;br /&gt;
bezpośrednio na danych, lecz na zliczeniach przypadków. W każdym razie&lt;br /&gt;
jest to przykład testu, którego poprawność nie zależy od założenia o&lt;br /&gt;
normalności rozkładów danych.&lt;br /&gt;
&lt;br /&gt;
W takich dziedzinach jak medycyna, psychologia czy&lt;br /&gt;
socjologia mamy zwykle do czynienia z danymi, o których trudno&lt;br /&gt;
powiedzieć ''a priori'' z jakiego rozkładu pochodzą, a wysoki koszt&lt;br /&gt;
lub trudności z dokładnym powtórzeniem eksperymentów powodują, że&lt;br /&gt;
samych danych bywa za mało do sprawdzenia hipotezy o normalności&lt;br /&gt;
rozkładu (na przykład [[WnioskowanieStatystyczne/Test_chi2|testem &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt;]]).&lt;br /&gt;
&amp;lt;ref&amp;gt; Istnieją również testy statystyczne,&lt;br /&gt;
które weryfikują hipotezę o normalności rozkładu nawet dla bardzo&lt;br /&gt;
małych próbek, jednak niezależnie od reguł należy zawsze pamiętać o&lt;br /&gt;
zdrowym rozsądku. Wszak o kształcie rozkładu populacji, z której&lt;br /&gt;
losujemy próbę, mówi histogram, a histogram kilku czy nawet kilkunastu&lt;br /&gt;
przypadków nie niesie dość informacji, aby odpowiedzialnie móc coś&lt;br /&gt;
powiedzieć o kształcie rozkładu. Dlatego wyniki testów normalności dla&lt;br /&gt;
bardzo małych próbek należy traktować ostrożnie.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
To zapotrzebowanie doprowadziło do powstania w ramach statystyki&lt;br /&gt;
klasycznej ''testów nieparametrycznych'', które do poprawnego&lt;br /&gt;
działania nie wymagają spełnienia hipotezy o normalności rozkładu&lt;br /&gt;
danych. Osiągane jest to zwykle kosztem&lt;br /&gt;
[[WnioskowanieStatystyczne/Weryfikacja hipotez#Poziom_istotno.C5.9Bci_i_moc_testu|mniejszej mocy testów]], jednak w obliczu groźby popełnienia grubego błędu metodycznego, jakim jest zastosowanie testu parametrycznego do danych&lt;br /&gt;
nie spełniających jego założeń, jest to zwykle cena warta zapłacenia.&lt;br /&gt;
&lt;br /&gt;
Pierwszym przykładem z tej grupy jest opisany już&lt;br /&gt;
[[WnioskowanieStatystyczne/Test_chi2#Test_.CF.872_Pearsona|test &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt; Pearsona]]. &lt;br /&gt;
Poniżej wprowadzimy jeszcze dwa testy nieparametryczne;&lt;br /&gt;
pierwszy z nich &amp;quot;wymyślimy&amp;quot; i opracujemy od początku do końca &amp;amp;mdash;&lt;br /&gt;
od analizy problemu, przez pomysł na rozwiązanie, aż do kompletnych&lt;br /&gt;
wzorów na rozkład prawdopobieństwa wybranej statystyki.&lt;br /&gt;
&lt;br /&gt;
===Przykład &amp;amp;mdash; nieuczciwy ankieter ===&lt;br /&gt;
&lt;br /&gt;
Zadaniem ankietera w badaniach przedwyborczych (np. przed referendum)&lt;br /&gt;
jest pytanie losowo wybranych obywateli, czy mają zamiar głosować &amp;quot;za&amp;quot;&lt;br /&gt;
czy &amp;quot;przeciw&amp;quot;. Czy na podstawie wyników ankiet, będących wyłącznie&lt;br /&gt;
ciągiem jedynek (&amp;quot;za&amp;quot;) i zer (&amp;quot;przeciw&amp;quot;), na przykład:&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
1101101000101001011101101111010110010101001010100011101&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
można sprawdzić, czy ankietowane osoby wybierano w prawidłowy sposób?&lt;br /&gt;
Czy można też wykryć nieuczciwego ankietera, który zamiast pracowicie&lt;br /&gt;
przeprowadzać ankiety &amp;quot;wymyślił&amp;quot; ich wyniki?&lt;br /&gt;
&lt;br /&gt;
Aby wyniki &amp;quot;odpytania&amp;quot; stosunkowo niewielkiej grupy wyborców mogły&lt;br /&gt;
odzwierciedlać wyniki przyszłych wyborów, grupa musi być wybrana&lt;br /&gt;
dostatecznie &amp;quot;przypadkowo&amp;quot;. Na przykład, nie ma sensu przeprowadzenie&lt;br /&gt;
ankiet wyłącznie wśród studentów i wnioskowanie na ich podstawie o&lt;br /&gt;
wynikach wyborów ogólnonarodowych. Tylko jeśli ankietowana grupa jest&lt;br /&gt;
przypadkowo wybranym podzbiorem populacji wszystkich wyborców, średnia&lt;br /&gt;
opinii tej grupy będzie dobrym estymatorem średniej opinii wszystkich&lt;br /&gt;
wyborców (populacji).&lt;br /&gt;
&lt;br /&gt;
W statystyce używamy pojęcia ''próby prostej'', będącej wynikiem&lt;br /&gt;
niezależnych losowań z tej samej populacji (lub z tego samego&lt;br /&gt;
rozkładu). Na podstawie samych wyników trudno wykryć, czy próbę&lt;br /&gt;
losowano np. tylko spośród mieszkańców miast, zamiast spośród&lt;br /&gt;
wszystkich uprawnionych do głosowania.  Natomiast dość skutecznie&lt;br /&gt;
możemy testować niezależność kolejnych losowań; intuicja podpowiada, &lt;br /&gt;
że bardziej prawdopodobny&amp;lt;ref&amp;gt;formalnie oba ciągi są jednakowo prawdopodobne&amp;lt;/ref&amp;gt; jest ciąg&lt;br /&gt;
00101101001110101001 niż 11111111110000000000, choć oba zawierają te&lt;br /&gt;
same liczby jedynek i zer &amp;amp;mdash; oczywiście, jeśli mówimy o wynikach&lt;br /&gt;
niezależnych losowań.&amp;lt;ref&amp;gt;Jeśli pierwszych dziesięć opinii zbierzemy&lt;br /&gt;
wśród młodych bezrobotnych a drugie dziesięć wśród emerytów (dwie&lt;br /&gt;
długie serie jednakowych opinii), to wynik drugi będzie bardziej&lt;br /&gt;
prawdopodobny, ale taki wybór ankietowanych nie jest zgodny z ideą&lt;br /&gt;
próby prostej.&amp;lt;/ref&amp;gt; W drugim wyniku mamy zera i jedynki zgrupowane w&lt;br /&gt;
dwie długie serie &amp;amp;mdash; to właśnie wydaje się mało prawdopodobne, w&lt;br /&gt;
porównaniu z większą ilością serii w pierwszym ciągu. Aby dokładnie&lt;br /&gt;
oszacować poziom istotności dla hipotezy, że dana próba jest prosta,&lt;br /&gt;
pozostaje wyliczyć rozkład prawdopodobieństwa uzyskania różnych liczb&lt;br /&gt;
serii w ciągach zer i jedynek będących wynikiem niezależnych losowań z&lt;br /&gt;
tej samej populacji.  Ten właśnie pomysł leży u podstaw testu serii.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
--------------&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11692</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11692"/>
		<updated>2026-03-25T15:49:15Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wariancji */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&amp;amp;nbsp;&amp;amp;nbsp;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w książce &amp;quot;Wnioskowanie statystyczne&amp;quot; L. Gajek i M. Kałuszka, WNT 2000.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n} \underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=\\&lt;br /&gt;
\quad\;\;\;\;\;\: = E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;math&amp;gt;\sigma_\overline{x}^2 = E(\overline{x}^2) - \mu^2&amp;lt;/math&amp;gt;. &lt;br /&gt;
Ponieważ &amp;lt;math&amp;gt; \sigma^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_{x_i} &amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{1}{n}\sigma^{2}_{x_i} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(n E\left(x_{i}^2\right) - n E\left(\overline{x}^{2}\right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n \left(\sigma^2_{x_i} + \mu^2\right) -n \left( \frac{1}{n}\sigma^2_{x_i} + \mu^2 \right) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na wariancję wartości średniej w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości średniej próby&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11691</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11691"/>
		<updated>2026-03-25T15:45:41Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wariancji */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&amp;amp;nbsp;&amp;amp;nbsp;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w książce &amp;quot;Wnioskowanie statystyczne&amp;quot; L. Gajek i M. Kałuszka, WNT 2000.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n} \underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=\\&lt;br /&gt;
\quad\;\;\;\;\;\: = E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;math&amp;gt;\sigma_\overline{x}^2 = E(\overline{x}^2) - \mu^2&amp;lt;/math&amp;gt;. &lt;br /&gt;
Ponieważ &amp;lt;math&amp;gt; \sigma^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_{x_i} &amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{1}{n}\sigma^{2}_{x_i} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(n E\left(x_{i}^2\right) - n E\left(\overline{x}^{2}\right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n \left(\sigma^2_{x_i} - \mu^2\right) -n \left( \frac{1}{n}\sigma^2_{x_i} - \mu^2 \right) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na wariancję wartości średniej w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości średniej próby&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11690</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11690"/>
		<updated>2026-03-25T15:43:05Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wariancji */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&amp;amp;nbsp;&amp;amp;nbsp;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w książce &amp;quot;Wnioskowanie statystyczne&amp;quot; L. Gajek i M. Kałuszka, WNT 2000.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n} \underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=\\&lt;br /&gt;
\quad\;\;\;\;\;\: = E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;math&amp;gt;\sigma_\overline{x}^2 = E(\overline{x}^2) - \mu^2&amp;lt;/math&amp;gt;. &lt;br /&gt;
Ponieważ &amp;lt;math&amp;gt; \sigma^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_{x_i} &amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{1}{n}\sigma^{2}_{x_i} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(n E\left(x_{i}^2\right) - n E\left(\overline{x}^{2}\right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n \left(\sigma^2_{x_i} - \mu^2\right) -n \left( \frac{1}{n}\sigma^2_{x_i} - \mu^2 \right) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na wariancję wartości średniej w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości średniej próby&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11689</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11689"/>
		<updated>2026-03-25T15:40:56Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wariancji */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&amp;amp;nbsp;&amp;amp;nbsp;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w książce &amp;quot;Wnioskowanie statystyczne&amp;quot; L. Gajek i M. Kałuszka, WNT 2000.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n} \underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=\\&lt;br /&gt;
\quad\;\;\;\;\;\: = E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;math&amp;gt;\sigma_\overline{x}^2 = E(\overline{x}^2) - \mu^2&amp;lt;/math&amp;gt;. &lt;br /&gt;
Ponieważ &amp;lt;math&amp;gt; \sigma^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_{x_i} &amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{1}{n}\sigma^{2}_{x_i} = E(x_i^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(n E\left(x_{i}^2\right) - n E\left(\overline{x}^{2}\right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n \left(\sigma^2_{x_i} - \mu^2\right) -n \left( \frac{1}{n}\sigma^2_{x_i} - \mu^2 \right) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na wariancję wartości średniej w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości średniej próby&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11688</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11688"/>
		<updated>2026-03-25T15:39:00Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wariancji */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&amp;amp;nbsp;&amp;amp;nbsp;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w książce &amp;quot;Wnioskowanie statystyczne&amp;quot; L. Gajek i M. Kałuszka, WNT 2000.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n} \underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=\\&lt;br /&gt;
\quad\;\;\;\;\;\: = E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;math&amp;gt;\sigma_\overline{x}^2 = E(\overline{x}^2) - \mu^2&amp;lt;/math&amp;gt;. &lt;br /&gt;
Ponieważ &amp;lt;math&amp;gt; \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x_i &amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{1}{n}\sigma^{2}_{x_i} = E({x_I}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(n E\left(x_{i}^2\right) - n E\left(\overline{x}^{2}\right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n \left(\sigma^2_{x_i} - \mu^2\right) -n \left( \frac{1}{n}\sigma^2_{x_i} - \mu^2 \right) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na wariancję wartości średniej w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości średniej próby&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11683</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11683"/>
		<updated>2026-03-20T09:18:52Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wariancji */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&amp;amp;nbsp;&amp;amp;nbsp;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w książce &amp;quot;Wnioskowanie statystyczne&amp;quot; L. Gajek i M. Kałuszka, WNT 2000.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n} \underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=\\&lt;br /&gt;
\quad\;\;\;\;\;\: = E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x }&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{1}{n}\sigma^{2}_\overline{x} = E({x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(n E\left(x_{i}^2\right) - n E\left(\overline{x}^{2}\right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n \left(\sigma^2_{x_i} - \mu^2\right) -n \left( \frac{1}{n}\sigma^2_{x_i} - \mu^2 \right) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na wariancję wartości średniej w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości średniej próby&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=Wnioskowanie_Statystyczne_-_wyk%C5%82ad&amp;diff=11673</id>
		<title>Wnioskowanie Statystyczne - wykład</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=Wnioskowanie_Statystyczne_-_wyk%C5%82ad&amp;diff=11673"/>
		<updated>2026-03-13T10:06:28Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Wnioskowanie statystyczne (wykład) */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:Przedmioty specjalizacyjne]]&lt;br /&gt;
&amp;lt;!-- program ćwiczeń:&lt;br /&gt;
https://docs.google.com/document/d/1PHoVNlKhBkOVmkJzgvm7Tu7nF-aXlhWAEXTJbv5qqQY/edit --&amp;gt;&lt;br /&gt;
=Wnioskowanie statystyczne (wykład)=&lt;br /&gt;
'''UWAGA: wymagane zaliczenie Technologii Informacyjnych i Komunikacyjnych z ćwiczeniami z programowania w Pythonie w wymiarze 45 godzin ćwiczeń'''&lt;br /&gt;
# &lt;br /&gt;
## [[WnioskowanieStatystyczne/Rozklady|Rozkłady gęstości prawdopodobieństwa]]&lt;br /&gt;
## [[WnioskowanieStatystyczne/Momenty|Wariancja, mediana...]]&lt;br /&gt;
## [[WnioskowanieStatystyczne/Rozklady-przyklady|Przykładowe rozkłady]] — ''przed 2. ćwiczeniami''&lt;br /&gt;
# &lt;br /&gt;
## [[WnioskowanieStatystyczne/CLT|Centralne Twierdzenie Graniczne]] — ''przed 3. ćwiczeniami''&lt;br /&gt;
#  &lt;br /&gt;
## [[WnioskowanieStatystyczne/wstep|Wstęp]]&lt;br /&gt;
## [[WnioskowanieStatystyczne/Klasyczna_teoria|Teoria klasyczna]]&lt;br /&gt;
## [[WnioskowanieStatystyczne/Statystyki_i_estymatory|Statystyki i estymatory]]&lt;br /&gt;
#&lt;br /&gt;
##  [[WnioskowanieStatystyczne/Weryfikacja_hipotez|Weryfikacja hipotez statystycznych]] &lt;br /&gt;
## [[WnioskowanieStatystyczne/Test_t|Test ''t'' Studenta]]&lt;br /&gt;
#&lt;br /&gt;
## [[WnioskowanieStatystyczne/Test_chi2|Test &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt;]]&lt;br /&gt;
#&lt;br /&gt;
##  [[WnioskowanieStatystyczne/Z_komputerem|Monte Carlo]]&lt;br /&gt;
#&lt;br /&gt;
##  [[WnioskowanieStatystyczne/Testy_nieprametryczne|Testy nieparametryczne]]&lt;br /&gt;
## [[WnioskowanieStatystyczne/Test_serii|Test serii]]&lt;br /&gt;
## [[WnioskowanieStatystyczne/Test_Wilcoxona|Test Wilcoxona-Manna-Whitneya]]&lt;br /&gt;
#&lt;br /&gt;
## [[WnioskowanieStatystyczne/Testy_permutacyjne|Testy permutacyjne]]&lt;br /&gt;
## [[WnioskowanieStatystyczne/Bootstrap|Bootstrap]]&lt;br /&gt;
#&lt;br /&gt;
##  [[WnioskowanieStatystyczne/MLF|Metoda największej wiarygodności]]&lt;br /&gt;
##  [[WnioskowanieStatystyczne/Regresja_liniowa|Regresja liniowa]]&lt;br /&gt;
#&lt;br /&gt;
##  [[WnioskowanieStatystyczne/Interpretacja współczynnika korelacji|Interpretacja współczynnika korelacji]]&lt;br /&gt;
## [[WnioskowanieStatystyczne/Analiza_wariancji|Analiza wariancji]]&lt;br /&gt;
#&lt;br /&gt;
## [[WnioskowanieStatystyczne/ROC|TP, FP, ROC]]&lt;br /&gt;
#&lt;br /&gt;
## [[WnioskowanieStatystyczne/Bonferroni|Problem porównań wielokrotnych — miejskie legendy i przepowiednie]]&lt;br /&gt;
#&lt;br /&gt;
## [[WnioskowanieStatystyczne/Prawdopodobienstwo|Prawdopodobieństwo]]&lt;br /&gt;
## [[WnioskowanieStatystyczne/Twierdzenie_Bayesa|Twierdzenie Bayesa]]&lt;br /&gt;
## [[WnioskowanieStatystyczne/Effect_size|Wielkość efektu]]&lt;br /&gt;
# &lt;br /&gt;
## [[WnioskowanieStatystyczne/Elementy_statystyki_wielowymiarowej|PCA, MANOVA, analiza skupień]]&lt;br /&gt;
## [[Sztuczne sieci neuronowe (ANN )|LDA, LR, ANN]]&lt;br /&gt;
## [[Algorytmy Genetyczne|Algorytmy Genetyczne]]&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
# Maris, E., Oostenveld, R. (2007). [https://www.researchgate.net/publication/6316066_Nonparametric_statistical_testing_of_EEG-_and_MEG-data Nonparametric statistical testing of EEG- and MEG-data]. Journal of Neuroscience Methods, 164(1), 177–190.&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
{{color|green|'''Całość podręcznika jest udostępniona na licencji [http://creativecommons.org/licenses/by-sa/3.0/pl Creative Commons Uznanie autorstwa-Na tych samych zasadach 3.0 Polska].'''}} [[Grafika:CC-88x31.png]] &lt;br /&gt;
Na podstawie książki [https://www.fuw.edu.pl/~durka/ksiazki/statystyka/index.html Wstęp do współczesnej statystyki]. Autor: [http://durka.name Piotr Durka].&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
*[https://drive.google.com/drive/folders/1d9KI-_RZUJSmZEnGk8cgIXp825XFVf93 slajdy z wykładów]&lt;br /&gt;
* [https://drive.google.com/drive/folders/17gUnDAzVKY1CRQ4ExTqsjwYgXTJ-eWnq zapisy wideo zajęć zdalnych w 2021]&lt;br /&gt;
* książka [https://www.deeplearningbook.org &amp;quot;Deep Learning&amp;quot;] Ian Goodfellow, Yoshua Bengio and Aaron Courville&lt;br /&gt;
&lt;br /&gt;
=Egzamin i zaliczenie=&lt;br /&gt;
Do egzaminu podchodzą osoby, które zaliczą [[Wnioskowanie_Statystyczne_-_ćwiczenia | ćwiczenia]] — w braku zaliczonych ćwiczeń wynik egzaminu z wykładu nie &amp;quot;przenosi się&amp;quot; na przyszły rok. Egzamin składał się będzie z:&lt;br /&gt;
#  testu jednokrotnego wyboru (&amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; pytań, każde z czterema odpowiedziami do wyboru, 1 punkt za odpowiedź poprawną, zero punktów za odpowiedź błędną lub jej brak, z korektą dla &amp;lt;math&amp;gt;p&amp;lt;/math&amp;gt; poprawnych odpowiedzi &lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
p_{\% kor} = \frac{p - N/4}{N - N/4}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
i &lt;br /&gt;
#kilku pytań otwartych (po 2—4 punkty). &lt;br /&gt;
&lt;br /&gt;
Próg zaliczenia (dst) wynosi 50% (po korekcie na odpowiedzi przypadkowe w części testowej). Progi dla pozostałych ocen będą ustalone a posteriori na podstawie statystyk.&lt;br /&gt;
&lt;br /&gt;
Ocena końcowa z przedmiotu = średnia ocen z ćwiczeń i z wykładu, pod warunkiem zaliczenia ćwiczeń '''i''' wykładu (koniunkcja warunków).&lt;br /&gt;
&lt;br /&gt;
==Organizacja egzaminu==&lt;br /&gt;
&lt;br /&gt;
'''Egzamin rozpocznie się 27 czerwca 2025 o godzinie 10 w sali 1.01 (Pasteura 5).''' &lt;br /&gt;
&lt;br /&gt;
* nie wychodzimy z sali w trakcie egzaminu — bardzo proszę o przygotowanie się pod tym kątem :) &lt;br /&gt;
* nie ściągamy. To niemodne i passé, a przeprowadzenie egzaminu w przyjaznej atmosferze leży w Waszym interesie&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
* osoby, które uczestniczyły intelektualnie w wykładzie (popartym obszernymi materiałami dostępnymi w Internecie) powinny napisać test w ok. godziny, ale &amp;quot;na zapas&amp;quot; gwarantujemy w sumie 90 minut od momentu rozdania testów. &lt;br /&gt;
--&amp;gt;&lt;br /&gt;
* dla zachowania przyjaznej atmosfery i oddalenia pokus nieetycznych zachowań, torby/teczki/ubrania nie pozostawione w szatni zostawiamy na podłodze na froncie sali. Do ławki zabieramy ze sobą tylko długopis (lub dwa) oraz dowolne ID ze zdjęciem, które okazujemy na ew. prośbę Prowadzących (elegancko jest od razu położyć ID na brzegu ławki po podpisaniu testu)&lt;br /&gt;
* w ławkach siadamy, zajmując dostępną przestrzeń możliwie równomiernie według wskazań Prowadzących, poczynając od pierwszych ławek&lt;br /&gt;
* nie jest dopuszczalny kontakt z urządzeniami komunikacyjnymi i/lub elektronicznymi. Jeśli ktoś oczekuje pilnego telefonu w czasie egzaminu, powinien ten fakt zgłosić Prowadzącym _przed_ rozpoczęciem egzaminu. W pozostałych wypadkach telefony (po wyciszeniu a najlepiej wyłączeniu) itp. urządzenia potencjalnie komunikacyjne i elektroniczne pozostawiamy w torbach lub ew. w kieszeniach i nie wyjmujemy w czasie egzaminu. Do wykonania nielicznych wyliczeń wystarczy głowa, ew. długopis&lt;br /&gt;
* odpowiedzi na pytania testowe będziemy wpisywać &amp;quot;na czysto&amp;quot; w tabelce przed samym oddaniem testu, strony z pytaniami testowymi można dowolnie pomazać, oznaczenia na pytaniach nie będą brane pod uwagę przy sprawdzaniu&lt;br /&gt;
* odpowiedzi do pytań otwartych wpisujemy maksymalnie czytelnie i &amp;quot;na czysto&amp;quot;. Nieczytelne i niewyraźne wywody nie będą sprawdzane. Kartki użyte jako brudnopis przed oddaniem przekreślamy.&lt;br /&gt;
* oddajemy kompletne arkusze wraz z notatkami i brudnopisami, nie jest dozwolone robienie kopii &amp;quot;na pamiątkę&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==Tematy do przemyślenia przed egzaminem == &lt;br /&gt;
Dla ustalenia uwagi, na przykład:&lt;br /&gt;
* Sformułuj Centralne Twierdzenie Graniczne. &lt;br /&gt;
* Wypisz i przedyskutuj definicje prawdopodobieństwa.&lt;br /&gt;
* Wypisz założenia wersji Centralnego Twierdzenia Granicznego, którą można stosunkowo prosto udowodnić (twierdzenie Lindeberga-Levy'ego). Udowodnij lub spróbuj nakreślić szkic dowodu.&lt;br /&gt;
* Oblicz wartość oczekiwaną rozkładu równomiernego, określonego na odcinku [0, 2], danego wzorami  p(''x'') =  0,5 dla &amp;lt;math&amp;gt;0\leq x\leq 2&amp;lt;/math&amp;gt; i p(''x'') =  0 dla ''x''&amp;gt;2  lub  ''x''&amp;lt;0.&lt;br /&gt;
* Oblicz wariancję rozkładu równomiernego określonego na odcinku [0, 2], danego wzorami  p(''x'') =  0,5 dla &amp;lt;math&amp;gt;0\leq x\leq 2&amp;lt;/math&amp;gt; i p(''x'') =  0 dla ''x''&amp;gt;2 lub  ''x''&amp;lt;0&lt;br /&gt;
* Co to jest &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt;?&lt;br /&gt;
* Wypisz / wyprowadź wzory na wartość oczekiwaną i wariancję rozkładu Poissona.&lt;br /&gt;
* Z rozkładu dwumianowego wylicz prawdopodobieństwo, że wśród czworga dzieci będą co najmniej trzy dziewczynki — zakładając, że prawdopodobieństwa urodzenia dziecka każdej płci są równe.&lt;br /&gt;
* Testy parametryczne i nieparametryczne: wady, zalety, przykłady.&lt;br /&gt;
* Co ma wspólnego poziom istotności testu z poprawką Bonferroniego?&lt;br /&gt;
* Co to jest i jak obliczamy moc testu?&lt;br /&gt;
* Opisz w punktach (zwięźle i konkretnie) procedurę weryfikacji hipotezy o różnicy średnich dwóch grup wyników &amp;lt;math&amp;gt;\{x_{i}, i=1\dots N\}&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\{y_{j}, j=1\dots M\}&amp;lt;/math&amp;gt; metodą repróbkowania (resampling).&lt;br /&gt;
* Wyprowadź wzór na średnią ''N'' pomiarów &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; o różnych wariancjach &amp;lt;math&amp;gt;\sigma_{i}^2&amp;lt;/math&amp;gt; z metody największej wiarygodności.&lt;br /&gt;
* Dany jest zbiór rozłącznych hipotez &amp;lt;math&amp;gt;H_{i}&amp;lt;/math&amp;gt; pokrywających całą przestrzeń zdarzeń &amp;lt;math&amp;gt;\Omega&amp;lt;/math&amp;gt;: &amp;lt;math&amp;gt;\sum_{i}H_{i}=\Omega&amp;lt;/math&amp;gt; oraz prawdopodobieństwa wyniku eksperymentu W w świetle każdej z hipotez &amp;lt;math&amp;gt;H_{i}&amp;lt;/math&amp;gt;, czyli &amp;lt;math&amp;gt;P(W\mid H_{i})&amp;lt;/math&amp;gt;. Korzystając z tych oznaczeń, wypisz i wyprowadź twierdzenie Bayesa, czyli wzór na prawdopodobieństwo prawdziwości hipotezy &amp;lt;math&amp;gt;H_{j}&amp;lt;/math&amp;gt; w świetle wyników eksperymentu W.&lt;br /&gt;
* Wyjaśnij różnicę między poziomem istotności hipotezy o różnicy średnich a rozmiarem efektu, wyliczonymi dla tych samych danych.&lt;br /&gt;
* Opisz w kategoriach wejścia i wyjścia algorytmy realizujące: regresję liniową, regresję logistyczną, liniową analizę dyskryminacyjną, analizę skupień, analizę wariancji i analizę składowych głównych.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11672</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11672"/>
		<updated>2026-03-12T15:06:58Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wariancji */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&amp;amp;nbsp;&amp;amp;nbsp;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w książce &amp;quot;Wnioskowanie statystyczne&amp;quot; L. Gajek i M. Kałuszka, WNT 2000.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n} \underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=\\&lt;br /&gt;
\quad\;\;\;\;\;\: = E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x }&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{1}{n}\sigma^{2}_\overline{x} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(n E\left(x_{i}^2\right) - n E\left(\overline{x}^{2}\right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n \left(\sigma^2_{x_i} - \mu^2\right) -n \left( \frac{1}{n}\sigma^2_{x_i} - \mu^2 \right) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na wariancję wartości średniej w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości średniej próby&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11671</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11671"/>
		<updated>2026-03-12T15:04:49Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wariancji */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&amp;amp;nbsp;&amp;amp;nbsp;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w książce &amp;quot;Wnioskowanie statystyczne&amp;quot; L. Gajek i M. Kałuszka, WNT 2000.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n} \underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=\\&lt;br /&gt;
\quad\;\;\;\;\;\: = E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x }&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{1}{n}\sigma^{2}_\overline{x} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(n E\left(x_{i}^2\right) - n E\left(\overline{x}^{2}\right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n (\sigma^2_{x_i} - \mu^2) -n ( \frac{1}{n}\sigma^2_{x_i} - \mu^2 ) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na&lt;br /&gt;
wariancję wartości średniej &amp;lt;xr id=&amp;quot;eq:91&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;&lt;br /&gt;
w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości&lt;br /&gt;
średniej próby&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11670</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11670"/>
		<updated>2026-03-12T15:02:34Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wariancji */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&amp;amp;nbsp;&amp;amp;nbsp;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w książce &amp;quot;Wnioskowanie statystyczne&amp;quot; L. Gajek i M. Kałuszka, WNT 2000.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n} \underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=\\&lt;br /&gt;
\quad\;\;\;\;\;\: = E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x }&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{1}{n}\sigma^{2}_\overline{x} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(n E(x_{i}^2) - n E(\overline{x}^{2}) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n (\sigma^2_{x_i} - \mu^2) -n ( \frac{1}{n}\sigma^2_{x_i} - \mu^2 ) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na&lt;br /&gt;
wariancję wartości średniej &amp;lt;xr id=&amp;quot;eq:91&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;&lt;br /&gt;
w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości&lt;br /&gt;
średniej próby&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11669</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11669"/>
		<updated>2026-03-12T14:59:15Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wariancji */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&amp;amp;nbsp;&amp;amp;nbsp;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w książce &amp;quot;Wnioskowanie statystyczne&amp;quot; L. Gajek i M. Kałuszka, WNT 2000.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n} \underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=\\&lt;br /&gt;
\quad\quad= E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x }&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{1}{n}\sigma^{2}_\overline{x} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(n E(x_{i}^2) - n E(\overline{x}^{2}) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n (\sigma^2_{x_i} - \mu^2) -n ( \frac{1}{n}\sigma^2_{x_i} - \mu^2 ) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na&lt;br /&gt;
wariancję wartości średniej &amp;lt;xr id=&amp;quot;eq:91&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;&lt;br /&gt;
w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości&lt;br /&gt;
średniej próby&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11668</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11668"/>
		<updated>2026-03-12T14:54:28Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wariancji */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&amp;amp;nbsp;&amp;amp;nbsp;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w książce &amp;quot;Wnioskowanie statystyczne&amp;quot; L. Gajek i M. Kałuszka, WNT 2000.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n} \underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu&lt;br /&gt;
)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x }&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{1}{n}\sigma^{2}_\overline{x} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &amp;amp;nbsp;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle = &lt;br /&gt;
\frac{1}{n} \left(n E(x_{i}^2) - n E(\overline{x}^{2}) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n (\sigma^2_{x_i} - \mu^2) -n ( \frac{1}{n}\sigma^2_{x_i} - \mu^2 ) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na&lt;br /&gt;
wariancję wartości średniej &amp;lt;xr id=&amp;quot;eq:91&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;&lt;br /&gt;
w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości&lt;br /&gt;
średniej próby&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11666</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11666"/>
		<updated>2026-03-12T14:45:43Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wartości oczekiwanej */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&amp;amp;nbsp;&amp;amp;nbsp;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w książce &amp;quot;Wnioskowanie statystyczne&amp;quot; L. Gajek i M. Kałuszka, WNT 2000.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}&lt;br /&gt;
\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu&lt;br /&gt;
)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
{ \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x }&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\frac{1}{n}\sigma^{2}_\overline{x} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &lt;br /&gt;
&amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(n E(x_{i}^2) - n E(\overline{x}^{2}) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n (\sigma^2_{x_i} - \mu^2) -n ( \frac{1}{n}\sigma^2_{x_i} - \mu^2 ) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na&lt;br /&gt;
wariancję wartości średniej &amp;lt;xr id=&amp;quot;eq:91&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;&lt;br /&gt;
w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości&lt;br /&gt;
średniej próby&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11665</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11665"/>
		<updated>2026-03-12T14:42:15Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wartości oczekiwanej */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&amp;amp;nbsp;&amp;amp;nbsp;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=195&amp;amp;hot=1 &amp;quot;Wnioskowaniu statystycznym&amp;quot; Gajka i Kałuszki].&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}&lt;br /&gt;
\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu&lt;br /&gt;
)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
{ \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x }&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\frac{1}{n}\sigma^{2}_\overline{x} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &lt;br /&gt;
&amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(n E(x_{i}^2) - n E(\overline{x}^{2}) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n (\sigma^2_{x_i} - \mu^2) -n ( \frac{1}{n}\sigma^2_{x_i} - \mu^2 ) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na&lt;br /&gt;
wariancję wartości średniej &amp;lt;xr id=&amp;quot;eq:91&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;&lt;br /&gt;
w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości&lt;br /&gt;
średniej próby&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11664</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11664"/>
		<updated>2026-03-12T14:40:50Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wartości oczekiwanej */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&amp;amp;nbsp;&amp;amp;nbsp;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej &amp;lt;xr id=&amp;quot;eq:89&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=195&amp;amp;hot=1 &amp;quot;Wnioskowaniu statystycznym&amp;quot; Gajka i Kałuszki].&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}&lt;br /&gt;
\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu&lt;br /&gt;
)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
{ \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x }&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\frac{1}{n}\sigma^{2}_\overline{x} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &lt;br /&gt;
&amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(n E(x_{i}^2) - n E(\overline{x}^{2}) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n (\sigma^2_{x_i} - \mu^2) -n ( \frac{1}{n}\sigma^2_{x_i} - \mu^2 ) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na&lt;br /&gt;
wariancję wartości średniej &amp;lt;xr id=&amp;quot;eq:91&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;&lt;br /&gt;
w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości&lt;br /&gt;
średniej próby&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11663</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11663"/>
		<updated>2026-03-12T14:40:15Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wartości oczekiwanej */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&amp;amp;nbsp;&amp;amp;nbsp;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej &amp;lt;xr id=&amp;quot;eq:89&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=195&amp;amp;hot=1 &amp;quot;Wnioskowaniu statystycznym&amp;quot; Gajka i Kałuszki].&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}&lt;br /&gt;
\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu&lt;br /&gt;
)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
{ \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x }&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\frac{1}{n}\sigma^{2}_\overline{x} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &lt;br /&gt;
&amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(n E(x_{i}^2) - n E(\overline{x}^{2}) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n (\sigma^2_{x_i} - \mu^2) -n ( \frac{1}{n}\sigma^2_{x_i} - \mu^2 ) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na&lt;br /&gt;
wariancję wartości średniej &amp;lt;xr id=&amp;quot;eq:91&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;&lt;br /&gt;
w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości&lt;br /&gt;
średniej próby&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11662</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11662"/>
		<updated>2026-03-12T14:36:03Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Estymator wartości oczekiwanej */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów ciągłych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dla rozkładów dyskretnych wartość oczekiwana &amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{| role=&amp;quot;presentation&amp;quot; class=&amp;quot;wikitable mw-collapsible mw-collapsed&amp;quot;&lt;br /&gt;
| &amp;lt;strong&amp;gt;Prawo wielkich liczb (opcjonalnie)&amp;lt;/strong&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| Do zgodności estymatora wartości oczekiwanej &amp;lt;xr id=&amp;quot;eq:89&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=195&amp;amp;hot=1 &amp;quot;Wnioskowaniu statystycznym&amp;quot; Gajka i Kałuszki].&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
==Prawo wielkich liczb (opcjonalnie)==&lt;br /&gt;
&lt;br /&gt;
Do zgodności estymatora wartości oczekiwanej &amp;lt;xr id=&amp;quot;eq:89&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; odnosi się również prawo wielkich liczb. Mówi ono, że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \exists {\varepsilon, \eta} \forall{n&amp;gt;n_0}&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaymath&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=195&amp;amp;hot=1 &amp;quot;Wnioskowaniu statystycznym&amp;quot; Gajka i Kałuszki].&lt;br /&gt;
&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}&lt;br /&gt;
\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu&lt;br /&gt;
)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
{ \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x }&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\frac{1}{n}\sigma^{2}_\overline{x} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &lt;br /&gt;
&amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(n E(x_{i}^2) - n E(\overline{x}^{2}) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n (\sigma^2_{x_i} - \mu^2) -n ( \frac{1}{n}\sigma^2_{x_i} - \mu^2 ) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na&lt;br /&gt;
wariancję wartości średniej &amp;lt;xr id=&amp;quot;eq:91&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;&lt;br /&gt;
w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości&lt;br /&gt;
średniej próby&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11661</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11661"/>
		<updated>2026-03-12T14:11:01Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Statystyki i estymatory */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:90&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
==Prawo wielkich liczb==&lt;br /&gt;
&lt;br /&gt;
Do zgodności estymatora wartości oczekiwanej &amp;lt;xr id=&amp;quot;eq:89&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; odnosi się również prawo wielkich liczb. Mówi ono,&amp;lt;ref&amp;gt;Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=195&amp;amp;hot=1 &amp;quot;Wnioskowaniu statystycznym&amp;quot; Gajka i Kałuszki].&amp;lt;/ref&amp;gt;&lt;br /&gt;
że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}&lt;br /&gt;
\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu&lt;br /&gt;
)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
{ \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x }&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\frac{1}{n}\sigma^{2}_\overline{x} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &lt;br /&gt;
&amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(n E(x_{i}^2) - n E(\overline{x}^{2}) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n (\sigma^2_{x_i} - \mu^2) -n ( \frac{1}{n}\sigma^2_{x_i} - \mu^2 ) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na&lt;br /&gt;
wariancję wartości średniej &amp;lt;xr id=&amp;quot;eq:91&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;&lt;br /&gt;
w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości&lt;br /&gt;
średniej próby&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11660</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11660"/>
		<updated>2026-03-12T14:09:33Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Statystyki i estymatory */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:89&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:90&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
==Prawo wielkich liczb==&lt;br /&gt;
&lt;br /&gt;
Do zgodności estymatora wartości oczekiwanej &amp;lt;xr id=&amp;quot;eq:89&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; odnosi się również prawo wielkich liczb. Mówi ono,&amp;lt;ref&amp;gt;Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=195&amp;amp;hot=1 &amp;quot;Wnioskowaniu statystycznym&amp;quot; Gajka i Kałuszki].&amp;lt;/ref&amp;gt;&lt;br /&gt;
że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}&lt;br /&gt;
\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu&lt;br /&gt;
)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
{ \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x }&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\frac{1}{n}\sigma^{2}_\overline{x} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &lt;br /&gt;
&amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(n E(x_{i}^2) - n E(\overline{x}^{2}) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n (\sigma^2_{x_i} - \mu^2) -n ( \frac{1}{n}\sigma^2_{x_i} - \mu^2 ) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na&lt;br /&gt;
wariancję wartości średniej &amp;lt;xr id=&amp;quot;eq:91&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;&lt;br /&gt;
w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości&lt;br /&gt;
średniej próby&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11659</id>
		<title>WnioskowanieStatystyczne/Statystyki i estymatory</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Statystyki_i_estymatory&amp;diff=11659"/>
		<updated>2026-03-12T14:09:05Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Statystyki i estymatory */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Statystyki i estymatory==&lt;br /&gt;
Funkcję &amp;lt;math&amp;gt;S(x_{1},x_{2},...x_{n})&amp;lt;/math&amp;gt;  określoną na elementach próby  &amp;lt;math&amp;gt;\{x_i\}&amp;lt;/math&amp;gt;&lt;br /&gt;
zwiemy '''statystyką'''. Obliczane w praktyce statystyki służą &lt;br /&gt;
weryfikacji hipotez statystycznych (zwiemy je wtedy '''statystykami testowymi''' &amp;amp;mdash; tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji&lt;br /&gt;
zmiennej &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, z której pobierana jest próba. W tym drugim przypadku zwiemy je&lt;br /&gt;
'''estymatorami'''. Na przykład wartość średnia próby  &lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:89&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
może być estymatorem wartości oczekiwanej populacji &amp;lt;math&amp;gt;\mu=E(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''nieobciążonym''', jeśli dla każdej&lt;br /&gt;
wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; jego wartość oczekiwana jest równa&lt;br /&gt;
wartości estymowanego parametru (oznaczmy go np. &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\forall n \ E(S(x_{1}...x_{n}))=\beta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Estymator zwiemy '''zgodnym''', jeśli przy wielkości próby dążącej do&lt;br /&gt;
nieskończoności jego wariancja dąży do zera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Estymator wartości oczekiwanej==&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Estymator wartości oczekiwanej postaci&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest nieobciążony i zgodny.&lt;br /&gt;
&lt;br /&gt;
'''Dowód:'''&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})&lt;br /&gt;
=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu&lt;br /&gt;
=\frac{1}{n}n\mu =\mu &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma ^{2}\left( \overline{x}\right) =&lt;br /&gt;
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =&lt;br /&gt;
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-&lt;br /&gt;
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jeśli elementy próby są niezależne, to &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:90&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gdzie &amp;lt;math&amp;gt;\delta_{ij}&amp;lt;/math&amp;gt; oznacza deltę Kroneckera &lt;br /&gt;
(&amp;lt;math&amp;gt;\delta_{ij}=1\ \textrm{ dla }\ i=j,&lt;br /&gt;
\delta_{ij}=0\ \textrm{ dla }\ i\neq j&amp;lt;/math&amp;gt;), czyli:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}\left( \overline{x}\right) &lt;br /&gt;
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right) &lt;br /&gt;
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right) &lt;br /&gt;
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x_i)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma ^{2}(x_{i})=\sigma^{2}(x)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:91&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{&lt;br /&gt;
\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
==Prawo wielkich liczb==&lt;br /&gt;
&lt;br /&gt;
Do zgodności estymatora wartości oczekiwanej &amp;lt;xr id=&amp;quot;eq:89&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; odnosi się również prawo wielkich liczb. Mówi ono,&amp;lt;ref&amp;gt;Jest to tzw. słabe prawo wielkich liczb; mocne prawo wielkich liczb mówi, że &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu .&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Dokładniejsze formulacje i dowody można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=195&amp;amp;hot=1 &amp;quot;Wnioskowaniu statystycznym&amp;quot; Gajka i Kałuszki].&amp;lt;/ref&amp;gt;&lt;br /&gt;
że &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
wartość średnia &amp;lt;math&amp;gt;\overline{x}=\frac{1}{n}\sum\limits_{i=1}^{n} x_i&amp;lt;/math&amp;gt;, obliczona z odpowiednio dużej próby (o liczności co najmniej &amp;lt;math&amp;gt;n_0&amp;lt;/math&amp;gt;), pobieranej z populacji o skończonej wariancji, może być&lt;br /&gt;
dowolnie bliska wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Co to znaczy &amp;quot;odpowiednio duża próba&amp;quot; i &amp;quot;dowolnie bliska&amp;quot;?&lt;br /&gt;
&lt;br /&gt;
Jeśli chcemy, żeby wartość średnia nie odbiegała od &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; o więcej niż &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; z prawdopodobieństwem ,,prawie jeden&amp;quot;, czyli &amp;lt;math&amp;gt;1-\eta&amp;lt;/math&amp;gt;, to dla wybranych (dowolnie małych, dodatnich) &amp;lt;math&amp;gt;\varepsilon &amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\eta&amp;lt;/math&amp;gt; istnieje takie&lt;br /&gt;
&amp;lt;math&amp;gt;n_{0}&amp;lt;/math&amp;gt;, że dla każdego &amp;lt;math&amp;gt;n&amp;gt;n_{0}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:92&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| &amp;lt;\varepsilon&lt;br /&gt;
\right) &amp;gt; 1-\eta.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Estymator wariancji==&lt;br /&gt;
Spróbujmy skonstruować estymator wariancji z próby jako &amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}&lt;br /&gt;
\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.&amp;lt;/math&amp;gt; &lt;br /&gt;
 &lt;br /&gt;
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma^{2}(x_i)=E((x_i-\mu&lt;br /&gt;
)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Czyli &amp;lt;equation id=&amp;quot;eq:64&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\sigma ^{2}(x_i) = E(x_i^{2})-\left\{ E(x_i)\right\} ^{2} = E(x_i^{2}) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wynika stąd w szczególności, że &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(x_i^{2}) = \sigma_{x_i}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Analogicznie dla wariancji wartości średniej&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
 E(\overline{x}^2) = \sigma_\overline{x}^2 + \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
{ \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x }&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\frac{1}{n}\sigma^{2}_\overline{x} = E(\overline{x}^2) - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
czyli &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
E(\overline{x}^2) = \frac{1}{n}\sigma^{2}_{x_i} - \mu^2&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji &lt;br /&gt;
&amp;lt;math&amp;gt; s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right) &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; = &lt;br /&gt;
\frac{1}{n} \left(n E(x_{i}^2) - n E(\overline{x}^{2}) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
podstawiając wyprowadzone wcześniej wzory na &amp;lt;math&amp;gt;E(x_{i}^2)&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;E(\overline{x}^{2})&amp;lt;/math&amp;gt; dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
E\left( s_o^{2}\right) =  \frac{1}{n} \left( n (\sigma^2_{x_i} - \mu^2) -n ( \frac{1}{n}\sigma^2_{x_i} - \mu^2 ) \right)&lt;br /&gt;
=\frac{n-1}{n}\sigma^{2}_{x_i}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
czyli nie jest dla każdej wielkości próby &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; wartość oczekiwana tego estymatora wyniesie &amp;lt;math&amp;gt;\sigma^2(x)&amp;lt;/math&amp;gt;. Tak więc &amp;lt;math&amp;gt;s_o^2&amp;lt;/math&amp;gt; jest estymatorem obciążonym. &lt;br /&gt;
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:93&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-&lt;br /&gt;
\overline{x})^{2} }&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Estymator wariancji wartości średniej===&lt;br /&gt;
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na&lt;br /&gt;
wariancję wartości średniej &amp;lt;xr id=&amp;quot;eq:91&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt;&lt;br /&gt;
w miejsce &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;, dostajemy wzór na estymator wariancji wartości&lt;br /&gt;
średniej próby&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pierwiastek tej wielkości &lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:94a&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
s_{\overline{x}} = \sqrt{&lt;br /&gt;
\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
jest estymatorem '''odchylenia standardowego wartości średniej'''.&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Klasyczna_teoria&amp;diff=11655</id>
		<title>WnioskowanieStatystyczne/Klasyczna teoria</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/Klasyczna_teoria&amp;diff=11655"/>
		<updated>2026-03-06T15:48:53Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Założenia i ograniczenia teorii klasycznej */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Założenia i ograniczenia teorii klasycznej== &lt;br /&gt;
Klasyczna statystyka powstawała w czasach, gdy obliczenia wykonywano&lt;br /&gt;
wyłącznie na papierze &amp;amp;mdash; albo za pomocą suwaków logarytmicznych itp.,&lt;br /&gt;
ale bez komputerów.  Analityczny opis prawdopodobieństw prowadzi, z&lt;br /&gt;
wyjątkiem najprostszych przykładów, do skomplikowanych wzorów. W&lt;br /&gt;
dodatku opiera się zwykle na silnie upraszczających założeniach &amp;amp;mdash;&lt;br /&gt;
najczęściej punktem wyjścia jest przyjęcie, że dane podlegają&lt;br /&gt;
[[WnioskowanieStatystyczne/CLT|rozkładowi Gaussa]]&lt;br /&gt;
zwanemu też rozkładem normalnym lub krzywą dzwonową. &amp;lt;ref&amp;gt;Oczywiście&lt;br /&gt;
założenie to przyjmujemy, jeśli nie znamy rozkładu badanej&lt;br /&gt;
populacji. Jego znajomość jest jednak w praktyce dość rzadka i dlatego&lt;br /&gt;
pozostaje przyjąć wybór uzasadniony dla przypadków, w których mamy do&lt;br /&gt;
czynienia z [[WnioskowanieStatystyczne/Centralne_Twierdzenie_Graniczne|sumowaniem dużej&lt;br /&gt;
liczby małych błędów]], czyli rozkład Gaussa.  &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jednak &amp;quot;długie wzory&amp;quot; to nie jedyny problem statystyki klasycznej.&lt;br /&gt;
Już na długo przed pojawieniem się współczesnych metod opartych na&lt;br /&gt;
komputerach, podstawy teorii statystyki były przedmiotem gorących&lt;br /&gt;
dyskusji &amp;amp;mdash; poczynając od samej [[WnioskowanieStatystyczne/Prawdopodobienstwo|definicji&lt;br /&gt;
prawdopodobieństwa]]. Główną alternatywą dla najbardziej&lt;br /&gt;
rozpowszechnionej statystyki klasycznej (zwanej również częstościową,&lt;br /&gt;
od sposobu definiowania prawdopodobieństwa) jest&lt;br /&gt;
[[WnioskowanieStatystyczne/Twierdzenie_Bayesa|podejście Bayesowskie]]. Jest ono bardziej&lt;br /&gt;
eleganckie z filozoficznego punktu widzenia (choć dla niektórych&lt;br /&gt;
immanentnie obecny element subiektywności jest trudny do&lt;br /&gt;
zaakceptowania), jednak nie w każdym przypadku podaje konkretne&lt;br /&gt;
recepty na obliczanie prawdopodobieństwa.&lt;br /&gt;
&lt;br /&gt;
Wreszcie są również sytuacje, w których stopień skomplikowania&lt;br /&gt;
uniemożliwia wyprowadzenie jakichkolwiek wzorów analitycznych, przez&lt;br /&gt;
co powyższe podejścia stają się bezsilne i jako jedyna recepta&lt;br /&gt;
pozostaje &amp;quot;brutalna siła&amp;quot; obliczeniowa.&lt;br /&gt;
&lt;br /&gt;
Z drugiej strony, jeśli dla danego problemu znane jest poprawne&lt;br /&gt;
rozwiązanie klasyczne, bywa ono nie tylko szybsze, ale i dokładniejsze&lt;br /&gt;
niż symulacje czy repróbkowanie. Jeśli wynik wyraża się nawet bardzo&lt;br /&gt;
skomplikowanym wzorem, można go obliczyć bez porównania szybciej,&amp;lt;ref&amp;gt;&lt;br /&gt;
Nawet jeśli we wzorach występują trudne do obliczenia całki, gdyż&lt;br /&gt;
wartości częściej używanych całek zapisywano w tablicach. Jeszcze do&lt;br /&gt;
niedawna większość podręczników statystyki zawierała tablice całek&lt;br /&gt;
funkcji Gaussa, funkcji &amp;lt;math&amp;gt;\Gamma&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt;&lt;br /&gt;
itp. Dziś wszystkimi obliczeniami zajmuje się komputer, my możemy&lt;br /&gt;
skupić się na sednie problemu i poprawnym wyborze metody.&amp;lt;/ref&amp;gt; niż&lt;br /&gt;
setki czy tysiące powtórzeń znacznie prostszego wzoru, będące podstawą&lt;br /&gt;
metod repróbkowania opisywanych w poprzedniej części.&lt;br /&gt;
&lt;br /&gt;
Ponadto metody klasyczne są wciąż podstawowym językiem&lt;br /&gt;
wyrażania istotności wyników i weryfikacji hipotez w większości&lt;br /&gt;
zastosowań statystyki. Dlatego też współczesny kurs powinien zawierać&lt;br /&gt;
zarówno elementy repróbkowania, jak i statystyki klasycznej. &lt;br /&gt;
Ich znajomość pozwoli na wybranie metody odpowiedniej (lub&lt;br /&gt;
najprostszej) dla konkretnego problemu.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
--------------------------&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/wstep&amp;diff=11654</id>
		<title>WnioskowanieStatystyczne/wstep</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/wstep&amp;diff=11654"/>
		<updated>2026-03-06T15:46:15Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Wstęp */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
==Wstęp==&lt;br /&gt;
Nigdy w historii matematyki tak wielu nie popełniało tak licznych błędów w tak niewielu zastosowaniach. To parafraza wypowiedzi Winstona Churchilla (w brytyjskim parlamencie 20 sierpnia 1940 roku), ale tutaj chodzi o statystykę. Dlaczego? &lt;br /&gt;
* Zdecydowana większość ludzi korzystających z metod statystycznych to specjaliści w zupełnie innych dziedzinach, względem których statystyka pełni rolę służebną.&lt;br /&gt;
*  Klasyczna teoria statystyki powstawała ponad pół wieku temu i z braku podówczas komputerów opiera się na zaawansowanych metodach analitycznych (czytaj: długich i skomplikowanych wzorach) oraz koniecznych do ich wyprowadzenia założeniach, nie zawsze spełnianych w praktyce. &lt;br /&gt;
* Próba wyjaśnienia tej złożonej teorii na kursie lub w podręczniku dla nie-statystyków kończy się zwykle katalogiem przepisów ''kiedy stosować który test''. Niestety, żaden katalog nie uwzględni wszystkich przypadków, z którymi możemy mieć do czynienia, i nie zastąpi zrozumienia podstaw. Na przykład studium 50 artykułów w najbardziej prestiżowym czasopiśmie medycznym ([http://content.nejm.org/ New England Journal of Medicine]), w których wykorzystano do analizy wyników test ''t'' wykazało, że w ponad połowie z nich użycie tego testu było nieprawidłowe &amp;amp;mdash; cytat za książką [http://www.juliansimon.com/writings/Resampling_Philosophy/ Juliana L. Simona &amp;amp;bdquo;The Philosophy and Practice of Resampling Statistics&amp;quot;].&lt;br /&gt;
* Główną konsekwencją rozpowszechnienia komputerów jest ułatwienie dostępu do tych skomplikowanych metod: z wczytaniem danych do specjalizowanego pakietu statystycznego jakoś sobie poradzimy, potem tylko trzeba &amp;amp;bdquo;doklikać się&amp;amp;rdquo; do jakiegoś testu i... komputer zawsze &amp;amp;bdquo;wyrzuci&amp;amp;rdquo; jakiś wynik. Ale komputer nie przyjmie odpowiedzialności za dobór metody do problemu i poprawne sformułowanie hipotezy.&lt;br /&gt;
&lt;br /&gt;
Na szczęście komputery niosą tu również dobrą nowinę. Są  nią nowe, rewolucyjnie proste i intuicyjne metody&lt;br /&gt;
oparte na idei repróbkowania (ang. ''resampling'') &amp;amp;mdash; testy permutacyjne i bootstrap &amp;amp;mdash; oraz możliwość szerokiego stosowania&lt;br /&gt;
symulacji Monte Carlo. Uwalniając użytkownika od skomplikowanej teorii i wzorów pozwalają skupić się na istocie pytania, na które&lt;br /&gt;
statystyka ma odpowiedzieć. Ponadto działają często w sytuacjach, w których tradycyjne metody analityczne zawodzą (jak np. bootstrap w szacowaniu błędów złożonych funkcji).&lt;br /&gt;
&lt;br /&gt;
Ideę testów permutacyjnych po raz pierwszy zaproponował R. A. Fischer w latach 1930-tych jako teoretyczny argument za testem [[WnioskowanieStatystyczne/Test_t|&amp;lt;math&amp;gt;t&amp;lt;/math&amp;gt; Studenta]] (student to w tym przypadku pseudonim [https://pl.wikipedia.org/wiki/William_Sealy_Gosset Williama Gosseta]); symulacje [[WnioskowanieStatystyczne/Z_komputerem#.22Prawdziwe.22_Monte_Carlo|Monte Carlo]] ([[wikipedia:Stanisław Ulam|Stanisław Ulam]]) zaczęto stosować po II wojnie światowej, gdy pojawiły się pierwsze komputery. Idee repróbkowania ([[wikipedia:Julian L Simon|Julian L. Simon]]) i bootstrapu ([[wikipedia:Bradley Efron|Bradley Efron]]) w dzisiejszej postaci sformułowano w latach 80. XX wieku, jednak praktyczne możliwości wykorzystania tych metod na szerszą skalę pojawiły się dopiero w latach 90. dzięki rozwojowi technologii komputerowej.&lt;br /&gt;
&lt;br /&gt;
Nowe metody oparte są na &amp;amp;bdquo;brutalnej mocy&amp;amp;rdquo; obliczeniowej. Kilkadziesiąt lat temu fakt ten uniemożliwiał ich praktyczne zastosowanie (pewnie dlatego nie zawracano sobie podówczas głowy ich wymyślaniem). Kilkanaście lat temu stanowiło to poważną przeszkodę w ich rozpowszechnieniu. Dzisiaj stosowanie tych metod może Tobie co najwyżej uświadomić, że komputer na Twoim biurku ma w sobie więcej mocy obliczeniowej niż maszyna do pisania, którą na co dzień zastępuje. &lt;br /&gt;
&lt;br /&gt;
To &amp;amp;bdquo;brutalne&amp;amp;rdquo; podejście nie zachwyca, jak się łatwo domyślić, wyrafinowaną elegancją matematyczną (zachwyca raczej prostotą). Być może to właśnie jest przyczyną jego relatywnie małej popularności, szczególnie wśród wykształconych matematycznie przedstawicieli nauk przyrodniczych. Ale nawet wśród nich większość zgadza się, że statystyka pełni w stosunku do innych nauk rolę służebną &amp;amp;mdash; choć  często kluczowo ważną.&lt;br /&gt;
&lt;br /&gt;
Wreszcie niekwestionowanym walorem tych metod jest ich ogromna wartość dydaktyczna, umożliwiająca zrozumienie podstaw &amp;amp;bdquo;przed&amp;amp;rdquo; zmierzeniem się z komplikacjami matematycznymi i ideowymi statystyki klasycznej.&lt;br /&gt;
&lt;br /&gt;
==Co znajdziemy w tej książce i jak z niej korzystać==&lt;br /&gt;
&lt;br /&gt;
Pierwsza część to luźne i bezstresowe (bez użycia wzorów) wprowadzenie  podstawowych pojęć statystyki, dzięki którym dochodzimy &amp;amp;mdash; wciąż bez żadnego wzoru &amp;amp;mdash; do całkiem poważnych i przydatnych zastosowań metody Monte Carlo i repróbkowania (testów permutacyjnych i bootstrapu).&lt;br /&gt;
Celem tej części jest:&lt;br /&gt;
* zapoznanie Czytelnika z najnowszymi trendami w statystyce,  &lt;br /&gt;
* umożliwienie samodzielnego i poprawnego rozwiązywania wielu problemów statystycznych w sposób intuicyjny drogą symulacji komputerowych, co pozwala na  skoncentrowanie się na poprawnym sformułowaniu problemu (hipotezy) i znacząco  zmniejsza szansę popełnienia grubego błędu metodycznego,  &lt;br /&gt;
* wprowadzenie w sposób intuicyjny i na konkretnych przykładach  pojęć z klasycznej teorii statystyki (jak np. poziom istotności i moc testu), co ułatwi zrozumienie części drugiej.  &lt;br /&gt;
&lt;br /&gt;
W części drugiej całki itp. są już nie do uniknięcia; jednak liczba wzorów podawanych bez dowodu ograniczona jest do koniecznego minimum. Znajdziemy tam:&lt;br /&gt;
* podstawy wystarczające do zrozumienia klasycznej &amp;amp;mdash; i wciąż najbardziej  powszechnej &amp;amp;mdash; metodologii weryfikacji hipotez statystycznych;  stanowi ona podstawę większości zastosowań wnioskowania  statystycznego, czyli &amp;amp;bdquo;testów statystycznych&amp;quot;,  &lt;br /&gt;
* dokładne i poparte przykładami omówienie najczęściej stosowanych  testów: &amp;lt;math&amp;gt;t&amp;lt;/math&amp;gt; Studenta, &amp;lt;math&amp;gt;\chi^2&amp;lt;/math&amp;gt; dla tabel i dopasowania rozkładu, testu serii  Walda&amp;amp;ndash;Wolfowitza i testu rang Wilcoxona&amp;amp;ndash;Manna&amp;amp;ndash;Whitneya,   &lt;br /&gt;
*  wyprowadzenie od podstaw statystyki [[WnioskowanieStatystyczne/Test_serii|testu serii]], co pozwala na  prześledzenie kompletnej drogi powstawania metody statystycznej również w podejściu klasycznym,  &lt;br /&gt;
*oparty na wielu dokładnie analizowanych przykładach opis  podstawowego schematu weryfikacji hipotez statystycznych, na którym opierają się  wszystkie powszechnie stosowane testy statystyczne.  &lt;br /&gt;
&lt;br /&gt;
Do zrozumienia części pierwszej nie jest wymagane praktycznie żadne&lt;br /&gt;
przygotowanie matematyczne. Dla samodzielnego zastosowania opisywanych w niej&lt;br /&gt;
metod konieczne jest zastosowanie dowolnego języka programowania bądź&lt;br /&gt;
specjalizowanego pakietu statystycznego.&lt;br /&gt;
&lt;br /&gt;
Przyswojenie podstawowych pojęć wprowadzonych w części&lt;br /&gt;
pierwszej  znacznie ułatwia zrozumienie części drugiej, w której&lt;br /&gt;
korzysta się już z pojęcia całki i podstaw kombinatoryki.&lt;br /&gt;
&lt;br /&gt;
Pierwsza część książki oparta jest na intensywnym wykorzystaniu&lt;br /&gt;
komputerów. Dodatek A opisuje ogólne ograniczenia,&lt;br /&gt;
którym podlegają wszelkie rozwiązania problemów za pomocą maszyn liczących.&lt;br /&gt;
&lt;br /&gt;
Na koniec Dodatek B zawiera oryginalne teksty wszystkich programów, wykorzystanych do tworzenia&lt;br /&gt;
rysunków i wykonywania obliczeń prezentowanych w tej książce, w języku &lt;br /&gt;
''Matlab''. Jest to język wysokiego poziomu o stosunkowo intuicyjnej&lt;br /&gt;
składni, dzięki czemu teksty te mogą stanowić uzupełnienie opisywanych&lt;br /&gt;
algorytmów również dla osób nie korzystających z pakietu ''Matlab''. &lt;br /&gt;
Studiowanie tych programów nie jest bynajmniej konieczne do zrozumienia&lt;br /&gt;
prezentowanych w książce zagadnień. Programy te, jak również inne związane z książką materiały i ewentualne uaktualnienia, znaleźć można w Internecie pod adresem [http://statystyka.durka.info http://statystyka.durka.info].&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=SVAROG_i_empi&amp;diff=11653</id>
		<title>SVAROG i empi</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=SVAROG_i_empi&amp;diff=11653"/>
		<updated>2026-03-06T13:37:24Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* ⬆ SVAROG */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=[[Analiza_sygnałów_-_lecture|⬆]] SVAROG=&lt;br /&gt;
[[Plik:Svarog elektrowlosy EEG transp.png|frameless|x250px]]&lt;br /&gt;
&lt;br /&gt;
Svarog (Signal Viewer, Recorder and Analyzer on GPL) to tworzony na Wydziale Fizyki UW i w firmie BrainTech program do wyświetlania i analizy wielozmiennych sygnałów (głównie elektrofizjologiczych), dostępny na licencji GPL. Jest to prawdopodobnie najlepsza w świecie [https://pl.wikipedia.org/wiki/Wolne_i_otwarte_oprogramowanie FOSSS] przeglądarka EEG, której interfejs dopasowano do preferencji elektroencefalografistów. Ponadto, w ramach Funduszu Inicjatyw Dydaktycznych UW, program uzupełniono o implementacje wykorzystywanych w analizie EEG metod, których samodzielne programowanie nie mieści się w ramach ćwiczeń, jak np. [[Falki_(wavelets)|transformacja falkowa]], [[Spektrogram|STFT]], [[Analiza_sygnałów_wielowymiarowych#Analiza_składowych_niezależnych_(ICA)|ICA]], [[Analiza_sygnałów_wielowymiarowych#Wielozmienny_model_AR|DTF]] i [[Reprezentacje_przybliżone#Algorytm_matching_pursuit_i_słowniki_czas-częstość|matching pursuit]].&lt;br /&gt;
&lt;br /&gt;
Strona projektu, zawierająca kod źródłowy, to https://gitlab.com/fuw_software/svarog4. Potrzebne do korzystania z programu skompilowane pliki znajdują się w &amp;quot;artefakcie&amp;quot; na stronie https://gitlab.com/fuw_software/svarog4/-/artifacts&lt;br /&gt;
&lt;br /&gt;
Po rozpakowaniu archiwum &amp;lt;code&amp;gt;target.zip&amp;lt;/code&amp;gt; utworzy się folder svarog, w którym znajdziemy główny plik svarog-standalone.jar (Java ARchive). Ten plik — jeśli w systemie jest skonfigurowane środowisko wykonawcze Javy (Java Runtime Environment, JRE) — można zwykle uruchomić podwójnym kliknięciem. Wyjątkiem będzie tutaj pierwsze uruchomienie, gdyż współczesne systemy ze względów bezpieczeństwa ograniczają uruchamianie programów z nieznanych źródeł. Dlatego przy pierwszym uruchomieniu system zwykle wyświetli ostrzeżenie. &amp;lt;!--Gdy wyrazimy świadomą zgodę, następne uruchomienia nie będą już jej wymagały. --&amp;gt;&lt;br /&gt;
&lt;br /&gt;
W przypadku kłopotów z uruchomieniem programu można skorzystać ze starszych wersji, które dystrybuowano razem z wirtualną maszyną Javy dla głównych systemów, dostępnych pod adresem https://gitlab.com/fuw_software/svarog2-packager/-/releases.&lt;br /&gt;
&lt;br /&gt;
[[Plik:Svarog_FFT.png|frameless|700px]]&lt;br /&gt;
&lt;br /&gt;
=empi=&lt;br /&gt;
Jednym z poleceń, które znajdziemy w menu Svaroga, jest dekompozycja wybranego odcinka sygnału algorytmem [[Reprezentacje_przybli%C5%BCone#Algorytm_matching_pursuit_i_słowniki_czas-częstość|matching pursuit]]. Ta funkcja technicznie różni się od pozostałych, gdyż wywołuje zewnętrzny program [[Reprezentacje_przybliżone#empi_.E2.80.94_implementacja_MMP|empi]], napisany w C++ ze wsparciem dla GPU, a nie w Javie, więc musi być kompilowany dla konkretnych systemów operacyjnych. Dlatego w podfolderach folderu svarog/mp znajdziemy binaria programu empi, skompilowane dla najważniejszych systemów. Aby wybrać właściwą wersję, należy uruchomić w Svarogu opcję &amp;quot;Preferences&amp;quot; z menu &amp;quot;Tools&amp;quot;, gdzie w zakładce &amp;quot;Tools&amp;quot; znajduje się możliwość skonfigurowania ścieżki do właściwego kompilatu empi.&lt;br /&gt;
&lt;br /&gt;
Nawet po prawidłowym skonfigurowaniu ścieżki, pierwsze uruchomienie dekompozycji MP z poziomu Svaroga może zwrócić błąd. Wynika on stąd, że, podobnie jak sam Svarog, program empi również nie pochodzi ze &amp;quot;znanego systemowi&amp;quot; źródła, w związku z czym stanowi potencjalne niebezpieczeństwo. Dlatego przed pierwszym wywołaniem tej funkcji z poziomu Svaroga trzeba najpierw uruchomić sam program empi i udzielić odpowiedniej zgody — w przypadku systemu MacOS wymaga to np. otwarcia okna ustawień systemowych i wyrażenia odp. zgody w zakładce &amp;quot;prywatność i ochrona&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==empi do pracy wsadowej==&lt;br /&gt;
Empi w badaniach naukowych wykorzystujemy zwykle do dekompozycji sygnałów, której wyniki (czyli parametry dopasowanych do sygnału funkcji Gabora) zapisujemy w plikach z rozszerzeniem .db czyli bazach danych struktur. Pliki te mogą być wczytywane do Svaroga w celu wyświetlenie dekompozycji w przestrzeni czas-częstość, ale często pracujemy też bezpośrednio na parametrach dopasowanych do sygnału funkcji. Przykładowe skrypty w Pythonie i Matlabie dostępne są pod adresem https://github.com/develancer/empi/tree/master/demo&lt;br /&gt;
&lt;br /&gt;
==Literatura==&lt;br /&gt;
* S. Mallat and Z. Zhang (1993) Matching pursuit with time-frequency dictionaries. IEEE Transactions on Signal Processing, 41:3397-3415.&lt;br /&gt;
* Piotr Różański (2024) [https://dl.acm.org/doi/10.1145/3674832 empi: GPU-Accelerated Matching Pursuit with Continuous Dictionaries]. ACM Transactions on Mathematical Software Vol. 50, No. 3.&lt;br /&gt;
* [https://biomedical-engineering-online.biomedcentral.com/articles/10.1186/1475-925X-12-94 Multivariate matching pursuit in optimal Gabor dictionaries: theory and software with interface for EEG/MEG via Svarog]&lt;br /&gt;
* [https://journal.frontiersin.org/article/10.3389/fnhum.2015.00258/full Spindles in Svarog: framework and software for parametrization of EEG transients].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div align=&amp;quot;right&amp;quot;&amp;gt;&lt;br /&gt;
[[Analiza_sygnałów_-_lecture|⬆]]&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11650</id>
		<title>WnioskowanieStatystyczne/CLT</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11650"/>
		<updated>2026-03-05T17:24:26Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Rozkład Gaussa */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
==Rozkład Gaussa==&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa (zwany też rozkładem normalnym lub krzywą dzwonową) zależy od&lt;br /&gt;
parametrów &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;. Jego gęstość prawdopodobieństwa określona jest wzorem:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;\displaystyle&lt;br /&gt;
 p(x)=N(\mu, \sigma)= \frac{1}{\sqrt{2\pi }\sigma }e^{\frac{-(x-\mu )^{2}}{2\sigma ^{2}}}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parametry te są tak dobrane, że wartość oczekiwana wynosi&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;, a wariancja &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:Rozklad_gaussa.png|600px|thumb|left|&amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
standardowy rozkład Gaussa o zerowej średniej (&amp;lt;math&amp;gt;\mu=0&amp;lt;/math&amp;gt;) i&lt;br /&gt;
jednostkowej wariancji (&amp;lt;math&amp;gt;\sigma=1&amp;lt;/math&amp;gt;).]]&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa dla zerowej wartości oczekiwanej i jednostkowej&lt;br /&gt;
wariancji (&amp;lt;math&amp;gt;\mu=0, \sigma^2=1&amp;lt;/math&amp;gt;) zwiemy &lt;br /&gt;
''standardowym rozkładem Gaussa'' &lt;br /&gt;
i oznaczamy zwykle &amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;.&lt;br /&gt;
Na wykresie zaznaczono na nim m. in. wartość całki od &amp;lt;math&amp;gt;-\infty&amp;lt;/math&amp;gt; do&lt;br /&gt;
&amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;, czyli prawdopodobieństwo, że wylosowana z tego&lt;br /&gt;
rozkładu liczba będzie mniejsza niż &amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;. Jak widać, wynosi&lt;br /&gt;
ono ok. 16%, a jeśli weźmiemy pod uwagę również wartości większe od 1,&lt;br /&gt;
będzie to aż 32%! Oznacza to, że przy losowaniu wielu liczb z tego&lt;br /&gt;
rozkładu niemal 1/3 wyników może znaleźć się w odległości&lt;br /&gt;
większej niż &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt; od wartości oczekiwanej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:80&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
 x\in N(\mu,\sigma)\quad \Rightarrow \quad &lt;br /&gt;
\begin{cases}&lt;br /&gt;
P(\left| x-\mu \right| \geq \sigma )\approx 0,\!317,\\ &lt;br /&gt;
P(\left| x-\mu \right| \geq 2\sigma )\ \approx 0,\!046,\\&lt;br /&gt;
 \ P(\left| x-\mu \right| \geq 3\sigma )\approx 0,\!003.&lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!-- Gęstość prawdopodobieństwa dana równaniem&lt;br /&gt;
&amp;lt;xr id=&amp;quot;eq:78&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; zanika w nieskończoności tylko&lt;br /&gt;
asymptotycznie, i dlatego w świetle tego rozkładu prawdopodobieństwo&lt;br /&gt;
wylosowania ''dowolnej'' wartości będzie niezerowe (choć dla&lt;br /&gt;
większości niezmiernie małe). Prowadzi to czasem do paradoksów, jak&lt;br /&gt;
np. niezerowe prawdopodobieństwo ujemnej masy.&amp;lt;ref&amp;gt;Gaussowski&lt;br /&gt;
rozkład pomiarów jakiejkolwiek masy, określony dodatnimi wartościami&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;, będzie wykazywał nieujemne &amp;amp;mdash;&lt;br /&gt;
choć zapewne bardzo małe &amp;amp;mdash; prawdopodobieństwo również dla ujemnych&lt;br /&gt;
wartości zmiennej losowej, którą w tym przypadku będzie mierzona&lt;br /&gt;
masa.&amp;lt;/ref&amp;gt; Jest to cena za korzystanie ze zwięzłej i eleganckiej&lt;br /&gt;
postaci analitycznej rozkładu. --&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na ''Centralne Twierdzenie Graniczne'', mówiące o asysmptotycznym rozkładzie sumy dużej liczby niezależnych zmiennych losowych, których rozkłady spełniają pewne warunki. Udowodnimy je w najprostszym przypadku, kiedy wszystkie te zmienne pochodzą z tego samego rozkładu gęstości prawdopodobieństwa. Na potrzeby tego dowodu musimy najpierw wprowadzić pojęcie funkcji charakterystycznej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na&lt;br /&gt;
''Centralne Twierdzenie Graniczne'', według którego rozkład zmiennej losowej &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;, będącej sumą dużej liczby zmiennych losowych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; (czyli &amp;lt;math&amp;gt;y=\sum_{i=1}^{N} x_i&amp;lt;/math&amp;gt;) dąży, przy liczbie sumowanych zmiennych dążących do&lt;br /&gt;
nieskończoności (czyli &amp;lt;math&amp;gt;N\rightarrow\infty&amp;lt;/math&amp;gt;), do rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
Poniżej przytoczymy dowód tego&lt;br /&gt;
twierdzenia dla uproszczonego przypadku sumy zmiennych pochodzących z&lt;br /&gt;
tego samego rozkładu.&amp;lt;ref&amp;gt;Dokładniejsze sformułowania Twierdzenia&lt;br /&gt;
można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=1488&amp;amp;hot=1 książce &amp;quot;Probabilistyka. Rachunek Prawdopodobieństwa. Statystyka matematyczna. Procesy stochastyczne&amp;quot; Agnieszki i Edmunda Plucińskich].&amp;lt;/ref&amp;gt;&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funkcja charakterystyczna rozkładu prawdopodobieństwa==&lt;br /&gt;
&lt;br /&gt;
Dla zmiennej losowej &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; jest to wartość oczekiwana wyrażenia &amp;lt;math&amp;gt;e^{itz}&amp;lt;/math&amp;gt;, gdzie &amp;lt;math&amp;gt;i=\sqrt{-1}&amp;lt;/math&amp;gt;. Dla rozkładów ciągłych jest to [[Przekształcenie_Fouriera|transformata Fouriera]] funkcji gęstości prawdopodobieństwa &amp;lt;math&amp;gt;f(z)&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi_z (t)=E(e^{itz})=\underset{-\infty }{\overset{\infty }{\int }}&lt;br /&gt;
e^{itz}f\left( z\right) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Użyteczne będą poniższe związki, które wyprowadzić można bezpośrednio z definicji:&lt;br /&gt;
&lt;br /&gt;
====Funkcja charakterystyczna rozkładu sumy zmiennych niezależnych====&lt;br /&gt;
Dla ''niezależnych'' zmiennych &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:85&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
z=x+y\Rightarrow \phi_{z}(t)&lt;br /&gt;
=\phi_{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dowód:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{z}(t)&lt;br /&gt;
= E(e^{it(x+y)})=E(e^{itx}\cdot e^{ity})&lt;br /&gt;
= E(e^{itx})\cdot E(e^{ity})=\phi _{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Pochodna funkcji charakterystycznej====&lt;br /&gt;
Bezpośrednio z definicji — różniczkujemy po &amp;lt;math&amp;gt;dt&amp;lt;/math&amp;gt;, więc przy każdym różniczkowaniu spada nam z wykładnika &amp;lt;math&amp;gt;i z&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; zostaje pod całką a &amp;lt;math&amp;gt;i&amp;lt;/math&amp;gt; jako stała wychodzi przed całkę — widać, że:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:pochodna_funkcji_tworzacej&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{d^{n}\phi (t)}{dt^{n}}=i^{n}\underset{}{\underset{-\infty }{\overset{&lt;br /&gt;
\infty }{\int }}z^{n}}\ e^{itz}f(z) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Związek pochodnej funkcji charakterystycznej z momentami zmiennej losowej====&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;-ta pochodna funkcji charakterystycznej w zerze (czyli dla &amp;lt;math&amp;gt;t=0&amp;lt;/math&amp;gt;) wynosi&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:84&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}}\ e^{i 0 x} f(z) dz = &lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}} f(z) dz = &lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Twierdzenie Lindeberga&amp;amp;ndash;Lévy'ego==&lt;br /&gt;
Zakładamy, że &amp;lt;math&amp;gt;x_{i}&amp;lt;/math&amp;gt; są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i wariancji &amp;lt;math&amp;gt;\sigma^{2}&amp;lt;/math&amp;gt;, czyli wszystkie sumowane zmienne &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa, o którym nie zakładamy nic ponad to, że ma skończone &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;.&lt;br /&gt;
Wielkość&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:82&amp;quot;&amp;gt; &amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} &lt;br /&gt;
&amp;lt;/math&amp;gt; &amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
dla &amp;lt;math&amp;gt;n\rightarrow \infty&amp;lt;/math&amp;gt; zbiega do rozkładu normalnego o zerowej wartości średniej i jednostkowej wariancji.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Dowód twierdzenia Lindeberga&amp;amp;ndash;Lévy'ego===&lt;br /&gt;
Rozważmy zmienną &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; o zerowej wartości oczekiwanej i jednostkowej wariancji&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
y_{i} = \dfrac{x_{i}-\mu}{\sigma} .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Funkcję charakterystyczną rozkładu zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\phi_{y_i}(z) = E(e^{i z y_i}) &amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
możemy rozwinąć w szereg Taylora wokół &amp;lt;math&amp;gt;z=0&amp;lt;/math&amp;gt;&amp;lt;equation id=&amp;quot;eq:86&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi_{y_i}(z)=\underset{n=0}{\overset{\infty }{\sum }}\frac{\phi^{(n)}(0)}{n!}z^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Z wyprowadzonej wcześniej własności funkcji charakterystycznej &amp;lt;xr id=&amp;quot;eq:84&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
wynika, że&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(0)}(0)= i^0 E(x^0) = 1&amp;lt;/math&amp;gt;, &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(1)}(0) = i^1 E(x^1) = i E(x) = 0&amp;lt;/math&amp;gt; (wartość oczekiwana &amp;lt;math&amp;gt; y_i&amp;lt;/math&amp;gt;),  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(2)}(0)=  i^2 E(x^2) = -1&amp;lt;/math&amp;gt; (&amp;lt;math&amp;gt;i^2&amp;lt;/math&amp;gt; * wariancja), &lt;br /&gt;
&lt;br /&gt;
czyli funkcja charakterystyczna zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; rozwinięta w szereg Taylora &amp;lt;xr id=&amp;quot;eq:86&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; do wyrazów drugiego rzędu będzie miała postać&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:87&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi_{y_i}(z)=1-\frac{z^{2}}{2}+\cdots .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wrócmy do występującej w twierdzeniu sumy &amp;lt;math&amp;gt;S&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} = &lt;br /&gt;
\dfrac{1}{\sigma \sqrt{n}} \sum\limits_{i=1}^{n}(x_{i} -\mu) = &lt;br /&gt;
\dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n}\dfrac{x_{i} -\mu}{\sigma}&lt;br /&gt;
 = \dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jej funkcja charakterystyczna to&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \phi_S(z) = E(e^{izS}) = E\left(e^{iz \frac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=  E\left(\prod_{i=1}^{n} e^{iz \frac{1}{\sqrt{n}}  y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; są wzajemnie niezależne,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \phi_S(z)=  \prod_{i=1}^{n} E\left( e^{i\frac{z}{\sqrt{n}} y_i }  \right)&lt;br /&gt;
= \prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right)&lt;br /&gt;
 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \phi_S(z)=&lt;br /&gt;
\prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) = &lt;br /&gt;
\left( \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) \right)^n = &lt;br /&gt;
\left( 1-\frac{(z/\sqrt{n})^{2}}{2}+\cdots \right)^n = &lt;br /&gt;
\left( 1-\frac{z^2}{2n}+\cdots \right)^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Przy przejściu z &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; do nieskończoności (i pomijaniu wyrazów rzędu wyższego niż drugi) dostajemy&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle &lt;br /&gt;
\phi_y(z)\rightarrow&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\left(1-\frac{z^2}{2n}\right)^n=&lt;br /&gt;
e^{\frac{-z^{2}}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
bo &lt;br /&gt;
&amp;lt;math&amp;gt;e^x=\lim_{n\rightarrow\infty} (1+x/n)^n&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje pokazać, że jest to postać funkcji charakterystycznej rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
====Transformata Fouriera funkcji Gaussa====&lt;br /&gt;
Funkcja charakterystyczna rozkładu normalnego o wartości oczekiwanej 0 i jednostkowej wariancji będzie miała postać&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t)=&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \left( \cos(tx) + i \sin(tx) \right) e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx + &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty  i \sin(tx)  e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ funkcja &amp;lt;math&amp;gt;\sin(x)&amp;lt;/math&amp;gt; jest antysymetryczna, druga całka znika. Dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dla części symetrycznej znajdujemy w tablicach całkę oznaczoną &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{0}^{\infty} e^{-a^2 x^2} \cos(b x) dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{-\tfrac{b^2}{4a^2}} } {2 a}&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
po wymnożeniu przez 2 i podstawieniu &amp;lt;math&amp;gt; b=t&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;a^2=\frac{1}{2}&amp;lt;/math&amp;gt; dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^{\infty}  e^{-\frac{1}{2} x^2} \cos(t x)  dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{ -\frac{t^2} { 4 \frac{1}{2} } } } {\frac{1}{\sqrt{2}}}&lt;br /&gt;
=&lt;br /&gt;
\sqrt{2\pi} e^{-\frac{t^2}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt; , czyli&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi _{x}(t) =&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
e^{-t^2 / 2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
W analizie sygnałów wynik ten będzie oznaczał, że transformacja Fouriera funkcji Gaussa jest funkcją Gaussa. W tym konkretnym przypadku otrzymaliśmy funkcję tożsamą z funkcją charakterystyczną rozkładu rozważanej sumy zmiennych, czyli rozkład ten będzie (w przypadku granicznym) miał postać funkcji Gaussa.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Plik:Ctg.png|300px|thumb|left|&amp;lt;figure id=&amp;quot;fig:ctg&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Ilustracja działania Centralnego Twierdzenia Granicznego. Zmienną&lt;br /&gt;
&amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; bierzemy z rozkładu równomiernego, kolejne histogramy przedstawiają sumę 2, 3 i 4&lt;br /&gt;
zmiennych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; dla 10 000 losowań. Widać dużą zgodność z dopasowanym rozkładem&lt;br /&gt;
normalnym (ciągła linia) już dla niewielu sumowanych zmiennych.&lt;br /&gt;
]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;Rysunek %i&amp;lt;/xr&amp;gt; ilustruje powyższe twierdzenie dla&lt;br /&gt;
przypadku sumy zmiennych pochodzących z rozkładu równomiernego. Jak&lt;br /&gt;
widać, już dla sumy 3 zmiennych rozkład wydaje się bardzo podobny do&lt;br /&gt;
normalnego. Niestety, często istotne bywają różnice dla wartości bardzo dużych lub bardzo małych. Otóż według&lt;br /&gt;
[[WnioskowanieStatystyczne/Rozklady-przyklady#label-eq:78|wzoru]] wartości gęstości&lt;br /&gt;
prawdopodobieństwa rozkładu normalnego dążą do zera dla dużych&lt;br /&gt;
wartości bezwzględnych zmiennej asymptotycznie, lecz zera faktycznie&lt;br /&gt;
nie osiągają. Inaczej mówiąc, prawdopodobieństwo wylosowania dowolnie&lt;br /&gt;
dużej wartości z rozkładu Gaussa będzie małe, ale nie zerowe. Za to&lt;br /&gt;
suma np. czterech zmiennych z rozkładu równomiernego od zera do&lt;br /&gt;
jedynki (prawy dolny wykres &amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rys. %i&amp;lt;/xr&amp;gt;) nie&lt;br /&gt;
przekroczy nigdy wartości 4, czyli prawdopodobieństwo dla&lt;br /&gt;
&amp;lt;math&amp;gt;x&amp;gt;4&amp;lt;/math&amp;gt; będzie dokładnie zerem. I choć w skali &amp;lt;xr&lt;br /&gt;
id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rysunku %i&amp;lt;/xr&amp;gt; efekt ten jest prawie niewidoczny, warto&lt;br /&gt;
pamiętać, że testy oparte na założeniu normalności rozkładów często&lt;br /&gt;
operują właśnie w okolicach tych &amp;quot;ogonów&amp;quot;, gdzie przybliżenie&lt;br /&gt;
rozkładu normalnego, uzyskane za pomocą tej prostej procedury,&lt;br /&gt;
zawodzi.&lt;br /&gt;
&lt;br /&gt;
-----------------------&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11649</id>
		<title>WnioskowanieStatystyczne/CLT</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11649"/>
		<updated>2026-03-05T17:20:27Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Dowód twierdzenia Lindeberga&amp;amp;ndash;Lévy'ego */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
==Rozkład Gaussa==&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa (zwany też rozkładem normalnym lub krzywą dzwonową) zależy od&lt;br /&gt;
parametrów &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;. Jego gęstość prawdopodobieństwa określona jest wzorem:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;\displaystyle&lt;br /&gt;
 p(x)=N(\mu, \sigma)= \frac{1}{\sqrt{2\pi }\sigma }e^{\frac{-(x-\mu )^{2}}{2\sigma ^{2}}}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parametry te są tak dobrane, że wartość oczekiwana wynosi&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;, a wariancja &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:Rozklad_gaussa.png|600px|thumb|left|&amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
standardowy rozkład Gaussa o zerowej średniej (&amp;lt;math&amp;gt;\mu=0&amp;lt;/math&amp;gt;) i&lt;br /&gt;
jednostkowej wariancji (&amp;lt;math&amp;gt;\sigma=1&amp;lt;/math&amp;gt;).]]&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa dla zerowej wartości oczekiwanej i jednostkowej&lt;br /&gt;
wariancji (&amp;lt;math&amp;gt;\mu=0, \sigma^2=1&amp;lt;/math&amp;gt;) zwiemy &lt;br /&gt;
''standardowym rozkładem Gaussa'' &lt;br /&gt;
i oznaczamy zwykle &amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;.&lt;br /&gt;
Na wykresie zaznaczono na nim m. in. wartość całki od &amp;lt;math&amp;gt;-\infty&amp;lt;/math&amp;gt; do&lt;br /&gt;
&amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;, czyli prawdopodobieństwo, że wylosowana z tego&lt;br /&gt;
rozkładu liczba będzie mniejsza niż &amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;. Jak widać, wynosi&lt;br /&gt;
ono ok. 16%, a jeśli weźmiemy pod uwagę również wartości większe od 1,&lt;br /&gt;
będzie to aż 32%! Oznacza to, że przy losowaniu wielu liczb z tego&lt;br /&gt;
rozkładu niemal 1/3 wyników może znaleźć się w odległości&lt;br /&gt;
większej niż &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt; od wartości oczekiwanej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:80&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
 x\in N(\mu,\sigma)\quad \Rightarrow \quad &lt;br /&gt;
\begin{cases}&lt;br /&gt;
P(\left| x-\mu \right| \geq \sigma )\approx 0,\!317,\\ &lt;br /&gt;
P(\left| x-\mu \right| \geq 2\sigma )\ \approx 0,\!046,\\&lt;br /&gt;
 \ P(\left| x-\mu \right| \geq 3\sigma )\approx 0,\!003.&lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!-- Gęstość prawdopodobieństwa dana równaniem&lt;br /&gt;
&amp;lt;xr id=&amp;quot;eq:78&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; zanika w nieskończoności tylko&lt;br /&gt;
asymptotycznie, i dlatego w świetle tego rozkładu prawdopodobieństwo&lt;br /&gt;
wylosowania ''dowolnej'' wartości będzie niezerowe (choć dla&lt;br /&gt;
większości niezmiernie małe). Prowadzi to czasem do paradoksów, jak&lt;br /&gt;
np. niezerowe prawdopodobieństwo ujemnej masy.&amp;lt;ref&amp;gt;Gaussowski&lt;br /&gt;
rozkład pomiarów jakiejkolwiek masy, określony dodatnimi wartościami&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;, będzie wykazywał nieujemne &amp;amp;mdash;&lt;br /&gt;
choć zapewne bardzo małe &amp;amp;mdash; prawdopodobieństwo również dla ujemnych&lt;br /&gt;
wartości zmiennej losowej, którą w tym przypadku będzie mierzona&lt;br /&gt;
masa.&amp;lt;/ref&amp;gt; Jest to cena za korzystanie ze zwięzłej i eleganckiej&lt;br /&gt;
postaci analitycznej rozkładu. --&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na ''Centralne Twierdzenie Graniczne'', mówiące o asysmptotycznym rozkładzie sumy dużej liczby niezależnych zmiennych losowych, których rozkłady spełniają pewne warunki. Udowodnimy je w najprostszym przypadku, kiedy wszystkie te zmienne pochodzą z tego samego rozkładu gęstości prawdopodobieństwa. Na potrzeby tego dowodu musimy najpierw wprowadzić pojęcie funkcji charakterystycznej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na&lt;br /&gt;
''Centralne Twierdzenie Graniczne'', według którego rozkład zmiennej losowej &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;, będącej sumą dużej liczby zmiennych losowych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; (czyli &amp;lt;math&amp;gt;y=\sum_{i=1}^{N} x_i&amp;lt;/math&amp;gt;) dąży, przy liczbie sumowanych zmiennych dążących do&lt;br /&gt;
nieskończoności (czyli &amp;lt;math&amp;gt;N\rightarrow\infty&amp;lt;/math&amp;gt;), do rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
Poniżej przytoczymy dowód tego&lt;br /&gt;
twierdzenia dla uproszczonego przypadku sumy zmiennych pochodzących z&lt;br /&gt;
tego samego rozkładu.&amp;lt;ref&amp;gt;Dokładniejsze sformułowania Twierdzenia&lt;br /&gt;
można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=1488&amp;amp;hot=1 książce &amp;quot;Probabilistyka. Rachunek Prawdopodobieństwa. Statystyka matematyczna. Procesy stochastyczne&amp;quot; Agnieszki i Edmunda Plucińskich].&amp;lt;/ref&amp;gt;&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funkcja charakterystyczna rozkładu prawdopodobieństwa==&lt;br /&gt;
&lt;br /&gt;
Dla zmiennej losowej &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; jest to wartość oczekiwana wyrażenia &amp;lt;math&amp;gt;e^{itz}&amp;lt;/math&amp;gt;, gdzie &amp;lt;math&amp;gt;i=\sqrt{-1}&amp;lt;/math&amp;gt;. Dla rozkładów ciągłych jest to [[Przekształcenie_Fouriera|transformata Fouriera]] funkcji gęstości prawdopodobieństwa &amp;lt;math&amp;gt;f(z)&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi_z (t)=E(e^{itz})=\underset{-\infty }{\overset{\infty }{\int }}&lt;br /&gt;
e^{itz}f\left( z\right) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Użyteczne będą poniższe związki, które wyprowadzić można bezpośrednio z definicji:&lt;br /&gt;
&lt;br /&gt;
====Funkcja charakterystyczna rozkładu sumy zmiennych niezależnych====&lt;br /&gt;
Dla ''niezależnych'' zmiennych &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:85&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
z=x+y\Rightarrow \phi_{z}(t)&lt;br /&gt;
=\phi_{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dowód:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{z}(t)&lt;br /&gt;
= E(e^{it(x+y)})=E(e^{itx}\cdot e^{ity})&lt;br /&gt;
= E(e^{itx})\cdot E(e^{ity})=\phi _{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Pochodna funkcji charakterystycznej====&lt;br /&gt;
Bezpośrednio z definicji — różniczkujemy po &amp;lt;math&amp;gt;dt&amp;lt;/math&amp;gt;, więc przy każdym różniczkowaniu spada nam z wykładnika &amp;lt;math&amp;gt;i z&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; zostaje pod całką a &amp;lt;math&amp;gt;i&amp;lt;/math&amp;gt; jako stała wychodzi przed całkę — widać, że:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:pochodna_funkcji_tworzacej&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{d^{n}\phi (t)}{dt^{n}}=i^{n}\underset{}{\underset{-\infty }{\overset{&lt;br /&gt;
\infty }{\int }}z^{n}}\ e^{itz}f(z) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Związek pochodnej funkcji charakterystycznej z momentami zmiennej losowej====&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;-ta pochodna funkcji charakterystycznej w zerze (czyli dla &amp;lt;math&amp;gt;t=0&amp;lt;/math&amp;gt;) wynosi&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:84&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}}\ e^{i 0 x} f(z) dz = &lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}} f(z) dz = &lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Twierdzenie Lindeberga&amp;amp;ndash;Lévy'ego==&lt;br /&gt;
Zakładamy, że &amp;lt;math&amp;gt;x_{i}&amp;lt;/math&amp;gt; są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i wariancji &amp;lt;math&amp;gt;\sigma^{2}&amp;lt;/math&amp;gt;, czyli wszystkie sumowane zmienne &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa, o którym nie zakładamy nic ponad to, że ma skończone &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;.&lt;br /&gt;
Wielkość&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:82&amp;quot;&amp;gt; &amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} &lt;br /&gt;
&amp;lt;/math&amp;gt; &amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
dla &amp;lt;math&amp;gt;n\rightarrow \infty&amp;lt;/math&amp;gt; zbiega do rozkładu normalnego o zerowej wartości średniej i jednostkowej wariancji.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Dowód twierdzenia Lindeberga&amp;amp;ndash;Lévy'ego===&lt;br /&gt;
Rozważmy zmienną &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; o zerowej wartości oczekiwanej i jednostkowej wariancji&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
y_{i} = \dfrac{x_{i}-\mu}{\sigma} .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Funkcję charakterystyczną rozkładu zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\phi_{y_i}(z) = E(e^{i z y_i}) &amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
możemy rozwinąć w szereg Taylora wokół &amp;lt;math&amp;gt;z=0&amp;lt;/math&amp;gt;&amp;lt;equation id=&amp;quot;eq:86&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi_{y_i}(z)=\underset{n=0}{\overset{\infty }{\sum }}\frac{\phi^{(n)}(0)}{n!}z^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Z wyprowadzonej wcześniej własności funkcji charakterystycznej &amp;lt;xr id=&amp;quot;eq:84&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
wynika, że&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(0)}(0)= i^0 E(x^0) = 1&amp;lt;/math&amp;gt;, &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(1)}(0) = i^1 E(x^1) = i E(x) = 0&amp;lt;/math&amp;gt; (wartość oczekiwana &amp;lt;math&amp;gt; y_i&amp;lt;/math&amp;gt;),  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(2)}(0)=  i^2 E(x^2) = -1&amp;lt;/math&amp;gt; (&amp;lt;math&amp;gt;i^2&amp;lt;/math&amp;gt; * wariancja), &lt;br /&gt;
&lt;br /&gt;
czyli funkcja charakterystyczna zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; rozwinięta w szereg Taylora &amp;lt;xr id=&amp;quot;eq:86&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; do wyrazów drugiego rzędu będzie miała postać&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:87&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi_{y_i}(z)=1-\frac{z^{2}}{2}+\cdots .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wrócmy do występującej w twierdzeniu sumy &amp;lt;math&amp;gt;S&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} = &lt;br /&gt;
\dfrac{1}{\sigma \sqrt{n}} \sum\limits_{i=1}^{n}(x_{i} -\mu) = &lt;br /&gt;
\dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n}\dfrac{x_{i} -\mu}{\sigma}&lt;br /&gt;
 = \dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jej funkcja charakterystyczna to&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \phi_S(z) = E(e^{izS}) = E\left(e^{iz \frac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
=  E\left(\prod_{i=1}^{n} e^{iz \frac{1}{\sqrt{n}}  y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; są wzajemnie niezależne,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \phi_S(z)=  \prod_{i=1}^{n} E\left( e^{i\frac{z}{\sqrt{n}} y_i }  \right)&lt;br /&gt;
= \prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right)&lt;br /&gt;
 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \phi_S(z)=&lt;br /&gt;
\prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) = &lt;br /&gt;
\left( \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) \right)^n = &lt;br /&gt;
\left( 1-\frac{(z/\sqrt{n})^{2}}{2}+\cdots \right)^n = &lt;br /&gt;
\left( 1-\frac{z^2}{2n}+\cdots \right)^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Przy przejściu z &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; do nieskończoności (i pomijaniu wyrazów rzędu wyższego niż drugi) dostajemy&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle &lt;br /&gt;
\phi_y(z)\rightarrow&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\left(1-\frac{z^2}{2n}\right)^n=&lt;br /&gt;
e^{\frac{-z^{2}}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
bo &lt;br /&gt;
&amp;lt;math&amp;gt;e^x=\lim_{n\rightarrow\infty} (1+x/n)^n&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje pokazać, że jest to postać funkcji charakterystycznej rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
====Transformata Fouriera funkcji Gaussa====&lt;br /&gt;
Funkcja charakterystyczna rozkładu normalnego o wartości oczekiwanej 0 i jednostkowej wariancji będzie miała postać&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t)=&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \left( \cos(tx) + i \sin(tx) \right) e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx + &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty  i \sin(tx)  e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ funkcja &amp;lt;math&amp;gt;\sin(x)&amp;lt;/math&amp;gt; jest antysymetryczna, druga całka znika. Dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dla części symetrycznej znajdujemy w tablicach całkę oznaczoną &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{0}^{\infty} e^{-a^2 x^2} \cos(b x) dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{-\tfrac{b^2}{4a^2}} } {2 a}&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
po wymnożeniu przez 2 i podstawieniu &amp;lt;math&amp;gt; b=t&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;a^2=\frac{1}{2}&amp;lt;/math&amp;gt; dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^{\infty}  e^{-\frac{1}{2} x^2} \cos(t x)  dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{ -\frac{t^2} { 4 \frac{1}{2} } } } {\frac{1}{\sqrt{2}}}&lt;br /&gt;
=&lt;br /&gt;
\sqrt{2\pi} e^{-\frac{t^2}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt; , czyli&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi _{x}(t) =&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
e^{-t^2 / 2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
W analizie sygnałów wynik ten będzie oznaczał, że transformacja Fouriera funkcji Gaussa jest funkcją Gaussa. W tym konkretnym przypadku otrzymaliśmy funkcję tożsamą z funkcją charakterystyczną rozkładu rozważanej sumy zmiennych, czyli rozkład ten będzie (w przypadku granicznym) miał postać funkcji Gaussa.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Plik:Ctg.png|300px|thumb|left|&amp;lt;figure id=&amp;quot;fig:ctg&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Ilustracja działania Centralnego Twierdzenia Granicznego. Zmienną&lt;br /&gt;
&amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; bierzemy z rozkładu równomiernego, kolejne histogramy przedstawiają sumę 2, 3 i 4&lt;br /&gt;
zmiennych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; dla 10 000 losowań. Widać dużą zgodność z dopasowanym rozkładem&lt;br /&gt;
normalnym (ciągła linia) już dla niewielu sumowanych zmiennych.&lt;br /&gt;
]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;Rysunek %i&amp;lt;/xr&amp;gt; ilustruje powyższe twierdzenie dla&lt;br /&gt;
przypadku sumy zmiennych pochodzących z rozkładu równomiernego. Jak&lt;br /&gt;
widać, już dla sumy 3 zmiennych rozkład wydaje się bardzo podobny do&lt;br /&gt;
normalnego. Niestety, często istotne bywają różnice dla wartości bardzo dużych lub bardzo małych. Otóż według&lt;br /&gt;
[[WnioskowanieStatystyczne/Rozklady-przyklady#label-eq:78|wzoru]] wartości gęstości&lt;br /&gt;
prawdopodobieństwa rozkładu normalnego dążą do zera dla dużych&lt;br /&gt;
wartości bezwzględnych zmiennej asymptotycznie, lecz zera faktycznie&lt;br /&gt;
nie osiągają. Inaczej mówiąc, prawdopodobieństwo wylosowania dowolnie&lt;br /&gt;
dużej wartości z rozkładu Gaussa będzie małe, ale nie zerowe. Za to&lt;br /&gt;
suma np. czterech zmiennych z rozkładu równomiernego od zera do&lt;br /&gt;
jedynki (prawy dolny wykres &amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rys. %i&amp;lt;/xr&amp;gt;) nie&lt;br /&gt;
przekroczy nigdy wartości 4, czyli prawdopodobieństwo dla&lt;br /&gt;
&amp;lt;math&amp;gt;x&amp;gt;4&amp;lt;/math&amp;gt; będzie dokładnie zerem. I choć w skali &amp;lt;xr&lt;br /&gt;
id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rysunku %i&amp;lt;/xr&amp;gt; efekt ten jest prawie niewidoczny, warto&lt;br /&gt;
pamiętać, że testy oparte na założeniu normalności rozkładów często&lt;br /&gt;
operują właśnie w okolicach tych &amp;quot;ogonów&amp;quot;, gdzie przybliżenie&lt;br /&gt;
rozkładu normalnego, uzyskane za pomocą tej prostej procedury,&lt;br /&gt;
zawodzi.&lt;br /&gt;
&lt;br /&gt;
-----------------------&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11648</id>
		<title>WnioskowanieStatystyczne/CLT</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11648"/>
		<updated>2026-03-05T17:16:37Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Dowód twierdzenia Lindeberga&amp;amp;ndash;Lévy'ego */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
==Rozkład Gaussa==&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa (zwany też rozkładem normalnym lub krzywą dzwonową) zależy od&lt;br /&gt;
parametrów &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;. Jego gęstość prawdopodobieństwa określona jest wzorem:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;\displaystyle&lt;br /&gt;
 p(x)=N(\mu, \sigma)= \frac{1}{\sqrt{2\pi }\sigma }e^{\frac{-(x-\mu )^{2}}{2\sigma ^{2}}}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parametry te są tak dobrane, że wartość oczekiwana wynosi&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;, a wariancja &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:Rozklad_gaussa.png|600px|thumb|left|&amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
standardowy rozkład Gaussa o zerowej średniej (&amp;lt;math&amp;gt;\mu=0&amp;lt;/math&amp;gt;) i&lt;br /&gt;
jednostkowej wariancji (&amp;lt;math&amp;gt;\sigma=1&amp;lt;/math&amp;gt;).]]&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa dla zerowej wartości oczekiwanej i jednostkowej&lt;br /&gt;
wariancji (&amp;lt;math&amp;gt;\mu=0, \sigma^2=1&amp;lt;/math&amp;gt;) zwiemy &lt;br /&gt;
''standardowym rozkładem Gaussa'' &lt;br /&gt;
i oznaczamy zwykle &amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;.&lt;br /&gt;
Na wykresie zaznaczono na nim m. in. wartość całki od &amp;lt;math&amp;gt;-\infty&amp;lt;/math&amp;gt; do&lt;br /&gt;
&amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;, czyli prawdopodobieństwo, że wylosowana z tego&lt;br /&gt;
rozkładu liczba będzie mniejsza niż &amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;. Jak widać, wynosi&lt;br /&gt;
ono ok. 16%, a jeśli weźmiemy pod uwagę również wartości większe od 1,&lt;br /&gt;
będzie to aż 32%! Oznacza to, że przy losowaniu wielu liczb z tego&lt;br /&gt;
rozkładu niemal 1/3 wyników może znaleźć się w odległości&lt;br /&gt;
większej niż &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt; od wartości oczekiwanej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:80&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
 x\in N(\mu,\sigma)\quad \Rightarrow \quad &lt;br /&gt;
\begin{cases}&lt;br /&gt;
P(\left| x-\mu \right| \geq \sigma )\approx 0,\!317,\\ &lt;br /&gt;
P(\left| x-\mu \right| \geq 2\sigma )\ \approx 0,\!046,\\&lt;br /&gt;
 \ P(\left| x-\mu \right| \geq 3\sigma )\approx 0,\!003.&lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!-- Gęstość prawdopodobieństwa dana równaniem&lt;br /&gt;
&amp;lt;xr id=&amp;quot;eq:78&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; zanika w nieskończoności tylko&lt;br /&gt;
asymptotycznie, i dlatego w świetle tego rozkładu prawdopodobieństwo&lt;br /&gt;
wylosowania ''dowolnej'' wartości będzie niezerowe (choć dla&lt;br /&gt;
większości niezmiernie małe). Prowadzi to czasem do paradoksów, jak&lt;br /&gt;
np. niezerowe prawdopodobieństwo ujemnej masy.&amp;lt;ref&amp;gt;Gaussowski&lt;br /&gt;
rozkład pomiarów jakiejkolwiek masy, określony dodatnimi wartościami&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;, będzie wykazywał nieujemne &amp;amp;mdash;&lt;br /&gt;
choć zapewne bardzo małe &amp;amp;mdash; prawdopodobieństwo również dla ujemnych&lt;br /&gt;
wartości zmiennej losowej, którą w tym przypadku będzie mierzona&lt;br /&gt;
masa.&amp;lt;/ref&amp;gt; Jest to cena za korzystanie ze zwięzłej i eleganckiej&lt;br /&gt;
postaci analitycznej rozkładu. --&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na ''Centralne Twierdzenie Graniczne'', mówiące o asysmptotycznym rozkładzie sumy dużej liczby niezależnych zmiennych losowych, których rozkłady spełniają pewne warunki. Udowodnimy je w najprostszym przypadku, kiedy wszystkie te zmienne pochodzą z tego samego rozkładu gęstości prawdopodobieństwa. Na potrzeby tego dowodu musimy najpierw wprowadzić pojęcie funkcji charakterystycznej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na&lt;br /&gt;
''Centralne Twierdzenie Graniczne'', według którego rozkład zmiennej losowej &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;, będącej sumą dużej liczby zmiennych losowych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; (czyli &amp;lt;math&amp;gt;y=\sum_{i=1}^{N} x_i&amp;lt;/math&amp;gt;) dąży, przy liczbie sumowanych zmiennych dążących do&lt;br /&gt;
nieskończoności (czyli &amp;lt;math&amp;gt;N\rightarrow\infty&amp;lt;/math&amp;gt;), do rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
Poniżej przytoczymy dowód tego&lt;br /&gt;
twierdzenia dla uproszczonego przypadku sumy zmiennych pochodzących z&lt;br /&gt;
tego samego rozkładu.&amp;lt;ref&amp;gt;Dokładniejsze sformułowania Twierdzenia&lt;br /&gt;
można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=1488&amp;amp;hot=1 książce &amp;quot;Probabilistyka. Rachunek Prawdopodobieństwa. Statystyka matematyczna. Procesy stochastyczne&amp;quot; Agnieszki i Edmunda Plucińskich].&amp;lt;/ref&amp;gt;&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funkcja charakterystyczna rozkładu prawdopodobieństwa==&lt;br /&gt;
&lt;br /&gt;
Dla zmiennej losowej &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; jest to wartość oczekiwana wyrażenia &amp;lt;math&amp;gt;e^{itz}&amp;lt;/math&amp;gt;, gdzie &amp;lt;math&amp;gt;i=\sqrt{-1}&amp;lt;/math&amp;gt;. Dla rozkładów ciągłych jest to [[Przekształcenie_Fouriera|transformata Fouriera]] funkcji gęstości prawdopodobieństwa &amp;lt;math&amp;gt;f(z)&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi_z (t)=E(e^{itz})=\underset{-\infty }{\overset{\infty }{\int }}&lt;br /&gt;
e^{itz}f\left( z\right) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Użyteczne będą poniższe związki, które wyprowadzić można bezpośrednio z definicji:&lt;br /&gt;
&lt;br /&gt;
====Funkcja charakterystyczna rozkładu sumy zmiennych niezależnych====&lt;br /&gt;
Dla ''niezależnych'' zmiennych &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:85&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
z=x+y\Rightarrow \phi_{z}(t)&lt;br /&gt;
=\phi_{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dowód:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{z}(t)&lt;br /&gt;
= E(e^{it(x+y)})=E(e^{itx}\cdot e^{ity})&lt;br /&gt;
= E(e^{itx})\cdot E(e^{ity})=\phi _{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Pochodna funkcji charakterystycznej====&lt;br /&gt;
Bezpośrednio z definicji — różniczkujemy po &amp;lt;math&amp;gt;dt&amp;lt;/math&amp;gt;, więc przy każdym różniczkowaniu spada nam z wykładnika &amp;lt;math&amp;gt;i z&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; zostaje pod całką a &amp;lt;math&amp;gt;i&amp;lt;/math&amp;gt; jako stała wychodzi przed całkę — widać, że:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:pochodna_funkcji_tworzacej&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{d^{n}\phi (t)}{dt^{n}}=i^{n}\underset{}{\underset{-\infty }{\overset{&lt;br /&gt;
\infty }{\int }}z^{n}}\ e^{itz}f(z) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Związek pochodnej funkcji charakterystycznej z momentami zmiennej losowej====&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;-ta pochodna funkcji charakterystycznej w zerze (czyli dla &amp;lt;math&amp;gt;t=0&amp;lt;/math&amp;gt;) wynosi&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:84&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}}\ e^{i 0 x} f(z) dz = &lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}} f(z) dz = &lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Twierdzenie Lindeberga&amp;amp;ndash;Lévy'ego==&lt;br /&gt;
Zakładamy, że &amp;lt;math&amp;gt;x_{i}&amp;lt;/math&amp;gt; są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i wariancji &amp;lt;math&amp;gt;\sigma^{2}&amp;lt;/math&amp;gt;, czyli wszystkie sumowane zmienne &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa, o którym nie zakładamy nic ponad to, że ma skończone &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;.&lt;br /&gt;
Wielkość&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:82&amp;quot;&amp;gt; &amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} &lt;br /&gt;
&amp;lt;/math&amp;gt; &amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
dla &amp;lt;math&amp;gt;n\rightarrow \infty&amp;lt;/math&amp;gt; zbiega do rozkładu normalnego o zerowej wartości średniej i jednostkowej wariancji.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Dowód twierdzenia Lindeberga&amp;amp;ndash;Lévy'ego===&lt;br /&gt;
Rozważmy zmienną &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; o zerowej wartości oczekiwanej i jednostkowej wariancji&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
y_{i} = \dfrac{x_{i}-\mu}{\sigma} .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Funkcję charakterystyczną rozkładu zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\phi_{y_i}(z) = E(e^{i z y_i}) &amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
możemy rozwinąć w szereg Taylora wokół &amp;lt;math&amp;gt;z=0&amp;lt;/math&amp;gt;&amp;lt;equation id=&amp;quot;eq:86&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi_{y_i}(z)=\underset{n=0}{\overset{\infty }{\sum }}\frac{\phi^{(n)}(0)}{n!}z^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
Z wyprowadzonej wcześniej własności funkcji charakterystycznej &amp;lt;xr id=&amp;quot;eq:84&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
wynika, że&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(0)}(0)= i^0 E(x^0) = 1&amp;lt;/math&amp;gt;, &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(1)}(0) = i^1 E(x^1) = i E(x) = 0&amp;lt;/math&amp;gt; (wartość oczekiwana &amp;lt;math&amp;gt; y_i&amp;lt;/math&amp;gt;),  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(2)}(0)=  i^2 E(x^2) = -1&amp;lt;/math&amp;gt; (&amp;lt;math&amp;gt;i^2&amp;lt;/math&amp;gt; * wariancja), &lt;br /&gt;
&lt;br /&gt;
czyli funkcja charakterystyczna zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; rozwinięta w szereg Taylora &amp;lt;xr id=&amp;quot;eq:86&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; do wyrazów drugiego rzędu będzie miała postać&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:87&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi_{y_i}(z)=1-\frac{z^{2}}{2}+\cdots .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wrócmy do występującej w twierdzeniu sumy &amp;lt;math&amp;gt;S&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} = &lt;br /&gt;
\dfrac{1}{\sigma \sqrt{n}} \sum\limits_{i=1}^{n}(x_{i} -\mu) = &lt;br /&gt;
\dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n}\dfrac{x_{i} -\mu}{\sigma}&lt;br /&gt;
 = \dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jej funkcja charakterystyczna &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z) = E(e^{izS}) = E\left(e^{iz \frac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
=  E\left(\prod_{i=1}^{n} e^{iz \frac{1}{\sqrt{n}}  y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; są wzajemnie niezależne,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z)=  \prod_{i=1}^{n} E\left( e^{i\frac{z}{\sqrt{n}} y_i }  \right)&lt;br /&gt;
= \prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right)&lt;br /&gt;
 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z)=&lt;br /&gt;
\prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) = &lt;br /&gt;
\left( \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) \right)^n = &lt;br /&gt;
\left( 1-\frac{(z/\sqrt{n})^{2}}{2}+\cdots \right)^n = &lt;br /&gt;
\left( 1-\frac{z^2}{2n}+\cdots \right)^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Przy przejściu z &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; do nieskończoności (i pomijaniu wyrazów rzędu wyższego niż drugi) dostajemy&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_y(z)\rightarrow&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\left(1-\frac{z^2}{2n}\right)^n=&lt;br /&gt;
e^{\frac{-z^{2}}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
bo &lt;br /&gt;
&amp;lt;math&amp;gt;e^x=\lim_{n\rightarrow\infty} (1+x/n)^n&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje pokazać, że jest to postać funkcji charakterystycznej rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
====Transformata Fouriera funkcji Gaussa====&lt;br /&gt;
Funkcja charakterystyczna rozkładu normalnego o wartości oczekiwanej 0 i jednostkowej wariancji będzie miała postać&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t)=&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \left( \cos(tx) + i \sin(tx) \right) e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx + &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty  i \sin(tx)  e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ funkcja &amp;lt;math&amp;gt;\sin(x)&amp;lt;/math&amp;gt; jest antysymetryczna, druga całka znika. Dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dla części symetrycznej znajdujemy w tablicach całkę oznaczoną &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{0}^{\infty} e^{-a^2 x^2} \cos(b x) dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{-\tfrac{b^2}{4a^2}} } {2 a}&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
po wymnożeniu przez 2 i podstawieniu &amp;lt;math&amp;gt; b=t&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;a^2=\frac{1}{2}&amp;lt;/math&amp;gt; dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^{\infty}  e^{-\frac{1}{2} x^2} \cos(t x)  dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{ -\frac{t^2} { 4 \frac{1}{2} } } } {\frac{1}{\sqrt{2}}}&lt;br /&gt;
=&lt;br /&gt;
\sqrt{2\pi} e^{-\frac{t^2}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt; , czyli&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t) =&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
e^{-t^2 / 2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
W analizie sygnałów wynik ten będzie oznaczał, że transformacja Fouriera funkcji Gaussa jest funkcją Gaussa. W tym konkretnym przypadku otrzymaliśmy funkcję tożsamą z funkcją charakterystyczną rozkładu rozważanej sumy zmiennych, czyli rozkład ten będzie (w przypadku granicznym) miał postać funkcji Gaussa.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Plik:Ctg.png|300px|thumb|left|&amp;lt;figure id=&amp;quot;fig:ctg&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Ilustracja działania Centralnego Twierdzenia Granicznego. Zmienną&lt;br /&gt;
&amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; bierzemy z rozkładu równomiernego, kolejne histogramy przedstawiają sumę 2, 3 i 4&lt;br /&gt;
zmiennych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; dla 10 000 losowań. Widać dużą zgodność z dopasowanym rozkładem&lt;br /&gt;
normalnym (ciągła linia) już dla niewielu sumowanych zmiennych.&lt;br /&gt;
]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;Rysunek %i&amp;lt;/xr&amp;gt; ilustruje powyższe twierdzenie dla&lt;br /&gt;
przypadku sumy zmiennych pochodzących z rozkładu równomiernego. Jak&lt;br /&gt;
widać, już dla sumy 3 zmiennych rozkład wydaje się bardzo podobny do&lt;br /&gt;
normalnego. Niestety, często istotne bywają różnice dla wartości bardzo dużych lub bardzo małych. Otóż według&lt;br /&gt;
[[WnioskowanieStatystyczne/Rozklady-przyklady#label-eq:78|wzoru]] wartości gęstości&lt;br /&gt;
prawdopodobieństwa rozkładu normalnego dążą do zera dla dużych&lt;br /&gt;
wartości bezwzględnych zmiennej asymptotycznie, lecz zera faktycznie&lt;br /&gt;
nie osiągają. Inaczej mówiąc, prawdopodobieństwo wylosowania dowolnie&lt;br /&gt;
dużej wartości z rozkładu Gaussa będzie małe, ale nie zerowe. Za to&lt;br /&gt;
suma np. czterech zmiennych z rozkładu równomiernego od zera do&lt;br /&gt;
jedynki (prawy dolny wykres &amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rys. %i&amp;lt;/xr&amp;gt;) nie&lt;br /&gt;
przekroczy nigdy wartości 4, czyli prawdopodobieństwo dla&lt;br /&gt;
&amp;lt;math&amp;gt;x&amp;gt;4&amp;lt;/math&amp;gt; będzie dokładnie zerem. I choć w skali &amp;lt;xr&lt;br /&gt;
id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rysunku %i&amp;lt;/xr&amp;gt; efekt ten jest prawie niewidoczny, warto&lt;br /&gt;
pamiętać, że testy oparte na założeniu normalności rozkładów często&lt;br /&gt;
operują właśnie w okolicach tych &amp;quot;ogonów&amp;quot;, gdzie przybliżenie&lt;br /&gt;
rozkładu normalnego, uzyskane za pomocą tej prostej procedury,&lt;br /&gt;
zawodzi.&lt;br /&gt;
&lt;br /&gt;
-----------------------&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11647</id>
		<title>WnioskowanieStatystyczne/CLT</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11647"/>
		<updated>2026-03-05T17:16:02Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Dowód twierdzenia Lindeberga&amp;amp;ndash;Lévy'ego */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
==Rozkład Gaussa==&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa (zwany też rozkładem normalnym lub krzywą dzwonową) zależy od&lt;br /&gt;
parametrów &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;. Jego gęstość prawdopodobieństwa określona jest wzorem:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;\displaystyle&lt;br /&gt;
 p(x)=N(\mu, \sigma)= \frac{1}{\sqrt{2\pi }\sigma }e^{\frac{-(x-\mu )^{2}}{2\sigma ^{2}}}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parametry te są tak dobrane, że wartość oczekiwana wynosi&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;, a wariancja &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:Rozklad_gaussa.png|600px|thumb|left|&amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
standardowy rozkład Gaussa o zerowej średniej (&amp;lt;math&amp;gt;\mu=0&amp;lt;/math&amp;gt;) i&lt;br /&gt;
jednostkowej wariancji (&amp;lt;math&amp;gt;\sigma=1&amp;lt;/math&amp;gt;).]]&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa dla zerowej wartości oczekiwanej i jednostkowej&lt;br /&gt;
wariancji (&amp;lt;math&amp;gt;\mu=0, \sigma^2=1&amp;lt;/math&amp;gt;) zwiemy &lt;br /&gt;
''standardowym rozkładem Gaussa'' &lt;br /&gt;
i oznaczamy zwykle &amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;.&lt;br /&gt;
Na wykresie zaznaczono na nim m. in. wartość całki od &amp;lt;math&amp;gt;-\infty&amp;lt;/math&amp;gt; do&lt;br /&gt;
&amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;, czyli prawdopodobieństwo, że wylosowana z tego&lt;br /&gt;
rozkładu liczba będzie mniejsza niż &amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;. Jak widać, wynosi&lt;br /&gt;
ono ok. 16%, a jeśli weźmiemy pod uwagę również wartości większe od 1,&lt;br /&gt;
będzie to aż 32%! Oznacza to, że przy losowaniu wielu liczb z tego&lt;br /&gt;
rozkładu niemal 1/3 wyników może znaleźć się w odległości&lt;br /&gt;
większej niż &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt; od wartości oczekiwanej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:80&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
 x\in N(\mu,\sigma)\quad \Rightarrow \quad &lt;br /&gt;
\begin{cases}&lt;br /&gt;
P(\left| x-\mu \right| \geq \sigma )\approx 0,\!317,\\ &lt;br /&gt;
P(\left| x-\mu \right| \geq 2\sigma )\ \approx 0,\!046,\\&lt;br /&gt;
 \ P(\left| x-\mu \right| \geq 3\sigma )\approx 0,\!003.&lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!-- Gęstość prawdopodobieństwa dana równaniem&lt;br /&gt;
&amp;lt;xr id=&amp;quot;eq:78&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; zanika w nieskończoności tylko&lt;br /&gt;
asymptotycznie, i dlatego w świetle tego rozkładu prawdopodobieństwo&lt;br /&gt;
wylosowania ''dowolnej'' wartości będzie niezerowe (choć dla&lt;br /&gt;
większości niezmiernie małe). Prowadzi to czasem do paradoksów, jak&lt;br /&gt;
np. niezerowe prawdopodobieństwo ujemnej masy.&amp;lt;ref&amp;gt;Gaussowski&lt;br /&gt;
rozkład pomiarów jakiejkolwiek masy, określony dodatnimi wartościami&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;, będzie wykazywał nieujemne &amp;amp;mdash;&lt;br /&gt;
choć zapewne bardzo małe &amp;amp;mdash; prawdopodobieństwo również dla ujemnych&lt;br /&gt;
wartości zmiennej losowej, którą w tym przypadku będzie mierzona&lt;br /&gt;
masa.&amp;lt;/ref&amp;gt; Jest to cena za korzystanie ze zwięzłej i eleganckiej&lt;br /&gt;
postaci analitycznej rozkładu. --&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na ''Centralne Twierdzenie Graniczne'', mówiące o asysmptotycznym rozkładzie sumy dużej liczby niezależnych zmiennych losowych, których rozkłady spełniają pewne warunki. Udowodnimy je w najprostszym przypadku, kiedy wszystkie te zmienne pochodzą z tego samego rozkładu gęstości prawdopodobieństwa. Na potrzeby tego dowodu musimy najpierw wprowadzić pojęcie funkcji charakterystycznej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na&lt;br /&gt;
''Centralne Twierdzenie Graniczne'', według którego rozkład zmiennej losowej &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;, będącej sumą dużej liczby zmiennych losowych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; (czyli &amp;lt;math&amp;gt;y=\sum_{i=1}^{N} x_i&amp;lt;/math&amp;gt;) dąży, przy liczbie sumowanych zmiennych dążących do&lt;br /&gt;
nieskończoności (czyli &amp;lt;math&amp;gt;N\rightarrow\infty&amp;lt;/math&amp;gt;), do rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
Poniżej przytoczymy dowód tego&lt;br /&gt;
twierdzenia dla uproszczonego przypadku sumy zmiennych pochodzących z&lt;br /&gt;
tego samego rozkładu.&amp;lt;ref&amp;gt;Dokładniejsze sformułowania Twierdzenia&lt;br /&gt;
można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=1488&amp;amp;hot=1 książce &amp;quot;Probabilistyka. Rachunek Prawdopodobieństwa. Statystyka matematyczna. Procesy stochastyczne&amp;quot; Agnieszki i Edmunda Plucińskich].&amp;lt;/ref&amp;gt;&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funkcja charakterystyczna rozkładu prawdopodobieństwa==&lt;br /&gt;
&lt;br /&gt;
Dla zmiennej losowej &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; jest to wartość oczekiwana wyrażenia &amp;lt;math&amp;gt;e^{itz}&amp;lt;/math&amp;gt;, gdzie &amp;lt;math&amp;gt;i=\sqrt{-1}&amp;lt;/math&amp;gt;. Dla rozkładów ciągłych jest to [[Przekształcenie_Fouriera|transformata Fouriera]] funkcji gęstości prawdopodobieństwa &amp;lt;math&amp;gt;f(z)&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi_z (t)=E(e^{itz})=\underset{-\infty }{\overset{\infty }{\int }}&lt;br /&gt;
e^{itz}f\left( z\right) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Użyteczne będą poniższe związki, które wyprowadzić można bezpośrednio z definicji:&lt;br /&gt;
&lt;br /&gt;
====Funkcja charakterystyczna rozkładu sumy zmiennych niezależnych====&lt;br /&gt;
Dla ''niezależnych'' zmiennych &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:85&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
z=x+y\Rightarrow \phi_{z}(t)&lt;br /&gt;
=\phi_{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dowód:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{z}(t)&lt;br /&gt;
= E(e^{it(x+y)})=E(e^{itx}\cdot e^{ity})&lt;br /&gt;
= E(e^{itx})\cdot E(e^{ity})=\phi _{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Pochodna funkcji charakterystycznej====&lt;br /&gt;
Bezpośrednio z definicji — różniczkujemy po &amp;lt;math&amp;gt;dt&amp;lt;/math&amp;gt;, więc przy każdym różniczkowaniu spada nam z wykładnika &amp;lt;math&amp;gt;i z&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; zostaje pod całką a &amp;lt;math&amp;gt;i&amp;lt;/math&amp;gt; jako stała wychodzi przed całkę — widać, że:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:pochodna_funkcji_tworzacej&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{d^{n}\phi (t)}{dt^{n}}=i^{n}\underset{}{\underset{-\infty }{\overset{&lt;br /&gt;
\infty }{\int }}z^{n}}\ e^{itz}f(z) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Związek pochodnej funkcji charakterystycznej z momentami zmiennej losowej====&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;-ta pochodna funkcji charakterystycznej w zerze (czyli dla &amp;lt;math&amp;gt;t=0&amp;lt;/math&amp;gt;) wynosi&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:84&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}}\ e^{i 0 x} f(z) dz = &lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}} f(z) dz = &lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Twierdzenie Lindeberga&amp;amp;ndash;Lévy'ego==&lt;br /&gt;
Zakładamy, że &amp;lt;math&amp;gt;x_{i}&amp;lt;/math&amp;gt; są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i wariancji &amp;lt;math&amp;gt;\sigma^{2}&amp;lt;/math&amp;gt;, czyli wszystkie sumowane zmienne &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa, o którym nie zakładamy nic ponad to, że ma skończone &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;.&lt;br /&gt;
Wielkość&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:82&amp;quot;&amp;gt; &amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} &lt;br /&gt;
&amp;lt;/math&amp;gt; &amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
dla &amp;lt;math&amp;gt;n\rightarrow \infty&amp;lt;/math&amp;gt; zbiega do rozkładu normalnego o zerowej wartości średniej i jednostkowej wariancji.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Dowód twierdzenia Lindeberga&amp;amp;ndash;Lévy'ego===&lt;br /&gt;
Rozważmy zmienną &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; o zerowej wartości oczekiwanej i jednostkowej wariancji&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
y_{i} = \dfrac{x_{i}-\mu}{\sigma} .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Funkcję charakterystyczną rozkładu zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\phi_{y_i}(z) = E(e^{i z y_i}) &amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
możemy rozwinąć w szereg Taylora wokół &amp;lt;math&amp;gt;z=0&amp;lt;/math&amp;gt;&amp;lt;equation id=&amp;quot;eq:86&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi_{y_i}(z)=\underset{n=0}{\overset{\infty }{\sum }}\frac{\phi^{(n)}(0)}{n!}z^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
Z wyprowadzonej wcześniej własności funkcji charakterystycznej &amp;lt;xr id=&amp;quot;eq:84&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
wynika, że&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(0)}(0)= i^0 E(x^0) = 1&amp;lt;/math&amp;gt;, &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(1)}(0) = i^1 E(x^1) = i E(x) = 0&amp;lt;/math&amp;gt; (wartość oczekiwana &amp;lt;math&amp;gt; y_i&amp;lt;/math&amp;gt;),  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(2)}(0)=  i^2 E(x^2) = -1&amp;lt;/math&amp;gt; (&amp;lt;math&amp;gt;i^2&amp;lt;/math&amp;gt; * wariancja), &lt;br /&gt;
&lt;br /&gt;
czyli funkcja charakterystyczna zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; rozwinięta w szereg Taylora &amp;lt;xr id=&amp;quot;eq:86&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; do wyrazów drugiego rzędu będzie miała postać&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:87&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_{y_i}(z)=1-\frac{z^{2}}{2}+\cdots .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wrócmy do występującej w twierdzeniu sumy &amp;lt;math&amp;gt;S&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} = &lt;br /&gt;
\dfrac{1}{\sigma \sqrt{n}} \sum\limits_{i=1}^{n}(x_{i} -\mu) = &lt;br /&gt;
\dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n}\dfrac{x_{i} -\mu}{\sigma}&lt;br /&gt;
 = \dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jej funkcja charakterystyczna &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z) = E(e^{izS}) = E\left(e^{iz \frac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
=  E\left(\prod_{i=1}^{n} e^{iz \frac{1}{\sqrt{n}}  y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; są wzajemnie niezależne,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z)=  \prod_{i=1}^{n} E\left( e^{i\frac{z}{\sqrt{n}} y_i }  \right)&lt;br /&gt;
= \prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right)&lt;br /&gt;
 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z)=&lt;br /&gt;
\prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) = &lt;br /&gt;
\left( \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) \right)^n = &lt;br /&gt;
\left( 1-\frac{(z/\sqrt{n})^{2}}{2}+\cdots \right)^n = &lt;br /&gt;
\left( 1-\frac{z^2}{2n}+\cdots \right)^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Przy przejściu z &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; do nieskończoności (i pomijaniu wyrazów rzędu wyższego niż drugi) dostajemy&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_y(z)\rightarrow&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\left(1-\frac{z^2}{2n}\right)^n=&lt;br /&gt;
e^{\frac{-z^{2}}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
bo &lt;br /&gt;
&amp;lt;math&amp;gt;e^x=\lim_{n\rightarrow\infty} (1+x/n)^n&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje pokazać, że jest to postać funkcji charakterystycznej rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
====Transformata Fouriera funkcji Gaussa====&lt;br /&gt;
Funkcja charakterystyczna rozkładu normalnego o wartości oczekiwanej 0 i jednostkowej wariancji będzie miała postać&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t)=&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \left( \cos(tx) + i \sin(tx) \right) e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx + &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty  i \sin(tx)  e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ funkcja &amp;lt;math&amp;gt;\sin(x)&amp;lt;/math&amp;gt; jest antysymetryczna, druga całka znika. Dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dla części symetrycznej znajdujemy w tablicach całkę oznaczoną &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{0}^{\infty} e^{-a^2 x^2} \cos(b x) dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{-\tfrac{b^2}{4a^2}} } {2 a}&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
po wymnożeniu przez 2 i podstawieniu &amp;lt;math&amp;gt; b=t&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;a^2=\frac{1}{2}&amp;lt;/math&amp;gt; dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^{\infty}  e^{-\frac{1}{2} x^2} \cos(t x)  dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{ -\frac{t^2} { 4 \frac{1}{2} } } } {\frac{1}{\sqrt{2}}}&lt;br /&gt;
=&lt;br /&gt;
\sqrt{2\pi} e^{-\frac{t^2}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt; , czyli&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t) =&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
e^{-t^2 / 2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
W analizie sygnałów wynik ten będzie oznaczał, że transformacja Fouriera funkcji Gaussa jest funkcją Gaussa. W tym konkretnym przypadku otrzymaliśmy funkcję tożsamą z funkcją charakterystyczną rozkładu rozważanej sumy zmiennych, czyli rozkład ten będzie (w przypadku granicznym) miał postać funkcji Gaussa.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Plik:Ctg.png|300px|thumb|left|&amp;lt;figure id=&amp;quot;fig:ctg&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Ilustracja działania Centralnego Twierdzenia Granicznego. Zmienną&lt;br /&gt;
&amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; bierzemy z rozkładu równomiernego, kolejne histogramy przedstawiają sumę 2, 3 i 4&lt;br /&gt;
zmiennych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; dla 10 000 losowań. Widać dużą zgodność z dopasowanym rozkładem&lt;br /&gt;
normalnym (ciągła linia) już dla niewielu sumowanych zmiennych.&lt;br /&gt;
]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;Rysunek %i&amp;lt;/xr&amp;gt; ilustruje powyższe twierdzenie dla&lt;br /&gt;
przypadku sumy zmiennych pochodzących z rozkładu równomiernego. Jak&lt;br /&gt;
widać, już dla sumy 3 zmiennych rozkład wydaje się bardzo podobny do&lt;br /&gt;
normalnego. Niestety, często istotne bywają różnice dla wartości bardzo dużych lub bardzo małych. Otóż według&lt;br /&gt;
[[WnioskowanieStatystyczne/Rozklady-przyklady#label-eq:78|wzoru]] wartości gęstości&lt;br /&gt;
prawdopodobieństwa rozkładu normalnego dążą do zera dla dużych&lt;br /&gt;
wartości bezwzględnych zmiennej asymptotycznie, lecz zera faktycznie&lt;br /&gt;
nie osiągają. Inaczej mówiąc, prawdopodobieństwo wylosowania dowolnie&lt;br /&gt;
dużej wartości z rozkładu Gaussa będzie małe, ale nie zerowe. Za to&lt;br /&gt;
suma np. czterech zmiennych z rozkładu równomiernego od zera do&lt;br /&gt;
jedynki (prawy dolny wykres &amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rys. %i&amp;lt;/xr&amp;gt;) nie&lt;br /&gt;
przekroczy nigdy wartości 4, czyli prawdopodobieństwo dla&lt;br /&gt;
&amp;lt;math&amp;gt;x&amp;gt;4&amp;lt;/math&amp;gt; będzie dokładnie zerem. I choć w skali &amp;lt;xr&lt;br /&gt;
id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rysunku %i&amp;lt;/xr&amp;gt; efekt ten jest prawie niewidoczny, warto&lt;br /&gt;
pamiętać, że testy oparte na założeniu normalności rozkładów często&lt;br /&gt;
operują właśnie w okolicach tych &amp;quot;ogonów&amp;quot;, gdzie przybliżenie&lt;br /&gt;
rozkładu normalnego, uzyskane za pomocą tej prostej procedury,&lt;br /&gt;
zawodzi.&lt;br /&gt;
&lt;br /&gt;
-----------------------&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11646</id>
		<title>WnioskowanieStatystyczne/CLT</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11646"/>
		<updated>2026-03-05T17:15:32Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Dowód twierdzenia Lindeberga&amp;amp;ndash;Lévy'ego */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
==Rozkład Gaussa==&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa (zwany też rozkładem normalnym lub krzywą dzwonową) zależy od&lt;br /&gt;
parametrów &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;. Jego gęstość prawdopodobieństwa określona jest wzorem:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;\displaystyle&lt;br /&gt;
 p(x)=N(\mu, \sigma)= \frac{1}{\sqrt{2\pi }\sigma }e^{\frac{-(x-\mu )^{2}}{2\sigma ^{2}}}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parametry te są tak dobrane, że wartość oczekiwana wynosi&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;, a wariancja &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:Rozklad_gaussa.png|600px|thumb|left|&amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
standardowy rozkład Gaussa o zerowej średniej (&amp;lt;math&amp;gt;\mu=0&amp;lt;/math&amp;gt;) i&lt;br /&gt;
jednostkowej wariancji (&amp;lt;math&amp;gt;\sigma=1&amp;lt;/math&amp;gt;).]]&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa dla zerowej wartości oczekiwanej i jednostkowej&lt;br /&gt;
wariancji (&amp;lt;math&amp;gt;\mu=0, \sigma^2=1&amp;lt;/math&amp;gt;) zwiemy &lt;br /&gt;
''standardowym rozkładem Gaussa'' &lt;br /&gt;
i oznaczamy zwykle &amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;.&lt;br /&gt;
Na wykresie zaznaczono na nim m. in. wartość całki od &amp;lt;math&amp;gt;-\infty&amp;lt;/math&amp;gt; do&lt;br /&gt;
&amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;, czyli prawdopodobieństwo, że wylosowana z tego&lt;br /&gt;
rozkładu liczba będzie mniejsza niż &amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;. Jak widać, wynosi&lt;br /&gt;
ono ok. 16%, a jeśli weźmiemy pod uwagę również wartości większe od 1,&lt;br /&gt;
będzie to aż 32%! Oznacza to, że przy losowaniu wielu liczb z tego&lt;br /&gt;
rozkładu niemal 1/3 wyników może znaleźć się w odległości&lt;br /&gt;
większej niż &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt; od wartości oczekiwanej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:80&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
 x\in N(\mu,\sigma)\quad \Rightarrow \quad &lt;br /&gt;
\begin{cases}&lt;br /&gt;
P(\left| x-\mu \right| \geq \sigma )\approx 0,\!317,\\ &lt;br /&gt;
P(\left| x-\mu \right| \geq 2\sigma )\ \approx 0,\!046,\\&lt;br /&gt;
 \ P(\left| x-\mu \right| \geq 3\sigma )\approx 0,\!003.&lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!-- Gęstość prawdopodobieństwa dana równaniem&lt;br /&gt;
&amp;lt;xr id=&amp;quot;eq:78&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; zanika w nieskończoności tylko&lt;br /&gt;
asymptotycznie, i dlatego w świetle tego rozkładu prawdopodobieństwo&lt;br /&gt;
wylosowania ''dowolnej'' wartości będzie niezerowe (choć dla&lt;br /&gt;
większości niezmiernie małe). Prowadzi to czasem do paradoksów, jak&lt;br /&gt;
np. niezerowe prawdopodobieństwo ujemnej masy.&amp;lt;ref&amp;gt;Gaussowski&lt;br /&gt;
rozkład pomiarów jakiejkolwiek masy, określony dodatnimi wartościami&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;, będzie wykazywał nieujemne &amp;amp;mdash;&lt;br /&gt;
choć zapewne bardzo małe &amp;amp;mdash; prawdopodobieństwo również dla ujemnych&lt;br /&gt;
wartości zmiennej losowej, którą w tym przypadku będzie mierzona&lt;br /&gt;
masa.&amp;lt;/ref&amp;gt; Jest to cena za korzystanie ze zwięzłej i eleganckiej&lt;br /&gt;
postaci analitycznej rozkładu. --&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na ''Centralne Twierdzenie Graniczne'', mówiące o asysmptotycznym rozkładzie sumy dużej liczby niezależnych zmiennych losowych, których rozkłady spełniają pewne warunki. Udowodnimy je w najprostszym przypadku, kiedy wszystkie te zmienne pochodzą z tego samego rozkładu gęstości prawdopodobieństwa. Na potrzeby tego dowodu musimy najpierw wprowadzić pojęcie funkcji charakterystycznej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na&lt;br /&gt;
''Centralne Twierdzenie Graniczne'', według którego rozkład zmiennej losowej &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;, będącej sumą dużej liczby zmiennych losowych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; (czyli &amp;lt;math&amp;gt;y=\sum_{i=1}^{N} x_i&amp;lt;/math&amp;gt;) dąży, przy liczbie sumowanych zmiennych dążących do&lt;br /&gt;
nieskończoności (czyli &amp;lt;math&amp;gt;N\rightarrow\infty&amp;lt;/math&amp;gt;), do rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
Poniżej przytoczymy dowód tego&lt;br /&gt;
twierdzenia dla uproszczonego przypadku sumy zmiennych pochodzących z&lt;br /&gt;
tego samego rozkładu.&amp;lt;ref&amp;gt;Dokładniejsze sformułowania Twierdzenia&lt;br /&gt;
można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=1488&amp;amp;hot=1 książce &amp;quot;Probabilistyka. Rachunek Prawdopodobieństwa. Statystyka matematyczna. Procesy stochastyczne&amp;quot; Agnieszki i Edmunda Plucińskich].&amp;lt;/ref&amp;gt;&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funkcja charakterystyczna rozkładu prawdopodobieństwa==&lt;br /&gt;
&lt;br /&gt;
Dla zmiennej losowej &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; jest to wartość oczekiwana wyrażenia &amp;lt;math&amp;gt;e^{itz}&amp;lt;/math&amp;gt;, gdzie &amp;lt;math&amp;gt;i=\sqrt{-1}&amp;lt;/math&amp;gt;. Dla rozkładów ciągłych jest to [[Przekształcenie_Fouriera|transformata Fouriera]] funkcji gęstości prawdopodobieństwa &amp;lt;math&amp;gt;f(z)&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi_z (t)=E(e^{itz})=\underset{-\infty }{\overset{\infty }{\int }}&lt;br /&gt;
e^{itz}f\left( z\right) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Użyteczne będą poniższe związki, które wyprowadzić można bezpośrednio z definicji:&lt;br /&gt;
&lt;br /&gt;
====Funkcja charakterystyczna rozkładu sumy zmiennych niezależnych====&lt;br /&gt;
Dla ''niezależnych'' zmiennych &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:85&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
z=x+y\Rightarrow \phi_{z}(t)&lt;br /&gt;
=\phi_{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dowód:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{z}(t)&lt;br /&gt;
= E(e^{it(x+y)})=E(e^{itx}\cdot e^{ity})&lt;br /&gt;
= E(e^{itx})\cdot E(e^{ity})=\phi _{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Pochodna funkcji charakterystycznej====&lt;br /&gt;
Bezpośrednio z definicji — różniczkujemy po &amp;lt;math&amp;gt;dt&amp;lt;/math&amp;gt;, więc przy każdym różniczkowaniu spada nam z wykładnika &amp;lt;math&amp;gt;i z&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; zostaje pod całką a &amp;lt;math&amp;gt;i&amp;lt;/math&amp;gt; jako stała wychodzi przed całkę — widać, że:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:pochodna_funkcji_tworzacej&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{d^{n}\phi (t)}{dt^{n}}=i^{n}\underset{}{\underset{-\infty }{\overset{&lt;br /&gt;
\infty }{\int }}z^{n}}\ e^{itz}f(z) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Związek pochodnej funkcji charakterystycznej z momentami zmiennej losowej====&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;-ta pochodna funkcji charakterystycznej w zerze (czyli dla &amp;lt;math&amp;gt;t=0&amp;lt;/math&amp;gt;) wynosi&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:84&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}}\ e^{i 0 x} f(z) dz = &lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}} f(z) dz = &lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Twierdzenie Lindeberga&amp;amp;ndash;Lévy'ego==&lt;br /&gt;
Zakładamy, że &amp;lt;math&amp;gt;x_{i}&amp;lt;/math&amp;gt; są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i wariancji &amp;lt;math&amp;gt;\sigma^{2}&amp;lt;/math&amp;gt;, czyli wszystkie sumowane zmienne &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa, o którym nie zakładamy nic ponad to, że ma skończone &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;.&lt;br /&gt;
Wielkość&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:82&amp;quot;&amp;gt; &amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} &lt;br /&gt;
&amp;lt;/math&amp;gt; &amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
dla &amp;lt;math&amp;gt;n\rightarrow \infty&amp;lt;/math&amp;gt; zbiega do rozkładu normalnego o zerowej wartości średniej i jednostkowej wariancji.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Dowód twierdzenia Lindeberga&amp;amp;ndash;Lévy'ego===&lt;br /&gt;
Rozważmy zmienną &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; o zerowej wartości oczekiwanej i jednostkowej wariancji&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
y_{i} = \dfrac{x_{i}-\mu}{\sigma} .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Funkcję charakterystyczną rozkładu zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\phi_{y_i}(z) = E(e^{i z y_i}) &amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
możemy rozwinąć w szereg Taylora wokół &amp;lt;math&amp;gt;z=0&amp;lt;/math&amp;gt;\displaystyle&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:86&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_{y_i}(z)=\underset{n=0}{\overset{\infty }{\sum }}\frac{\phi^{(n)}(0)}{n!}z^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
Z wyprowadzonej wcześniej własności funkcji charakterystycznej &amp;lt;xr id=&amp;quot;eq:84&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
wynika, że&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(0)}(0)= i^0 E(x^0) = 1&amp;lt;/math&amp;gt;, &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(1)}(0) = i^1 E(x^1) = i E(x) = 0&amp;lt;/math&amp;gt; (wartość oczekiwana &amp;lt;math&amp;gt; y_i&amp;lt;/math&amp;gt;),  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(2)}(0)=  i^2 E(x^2) = -1&amp;lt;/math&amp;gt; (&amp;lt;math&amp;gt;i^2&amp;lt;/math&amp;gt; * wariancja), &lt;br /&gt;
&lt;br /&gt;
czyli funkcja charakterystyczna zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; rozwinięta w szereg Taylora &amp;lt;xr id=&amp;quot;eq:86&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; do wyrazów drugiego rzędu będzie miała postać&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:87&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_{y_i}(z)=1-\frac{z^{2}}{2}+\cdots .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wrócmy do występującej w twierdzeniu sumy &amp;lt;math&amp;gt;S&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} = &lt;br /&gt;
\dfrac{1}{\sigma \sqrt{n}} \sum\limits_{i=1}^{n}(x_{i} -\mu) = &lt;br /&gt;
\dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n}\dfrac{x_{i} -\mu}{\sigma}&lt;br /&gt;
 = \dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jej funkcja charakterystyczna &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z) = E(e^{izS}) = E\left(e^{iz \frac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
=  E\left(\prod_{i=1}^{n} e^{iz \frac{1}{\sqrt{n}}  y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; są wzajemnie niezależne,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z)=  \prod_{i=1}^{n} E\left( e^{i\frac{z}{\sqrt{n}} y_i }  \right)&lt;br /&gt;
= \prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right)&lt;br /&gt;
 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z)=&lt;br /&gt;
\prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) = &lt;br /&gt;
\left( \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) \right)^n = &lt;br /&gt;
\left( 1-\frac{(z/\sqrt{n})^{2}}{2}+\cdots \right)^n = &lt;br /&gt;
\left( 1-\frac{z^2}{2n}+\cdots \right)^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Przy przejściu z &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; do nieskończoności (i pomijaniu wyrazów rzędu wyższego niż drugi) dostajemy&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_y(z)\rightarrow&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\left(1-\frac{z^2}{2n}\right)^n=&lt;br /&gt;
e^{\frac{-z^{2}}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
bo &lt;br /&gt;
&amp;lt;math&amp;gt;e^x=\lim_{n\rightarrow\infty} (1+x/n)^n&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje pokazać, że jest to postać funkcji charakterystycznej rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
====Transformata Fouriera funkcji Gaussa====&lt;br /&gt;
Funkcja charakterystyczna rozkładu normalnego o wartości oczekiwanej 0 i jednostkowej wariancji będzie miała postać&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t)=&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \left( \cos(tx) + i \sin(tx) \right) e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx + &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty  i \sin(tx)  e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ funkcja &amp;lt;math&amp;gt;\sin(x)&amp;lt;/math&amp;gt; jest antysymetryczna, druga całka znika. Dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dla części symetrycznej znajdujemy w tablicach całkę oznaczoną &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{0}^{\infty} e^{-a^2 x^2} \cos(b x) dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{-\tfrac{b^2}{4a^2}} } {2 a}&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
po wymnożeniu przez 2 i podstawieniu &amp;lt;math&amp;gt; b=t&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;a^2=\frac{1}{2}&amp;lt;/math&amp;gt; dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^{\infty}  e^{-\frac{1}{2} x^2} \cos(t x)  dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{ -\frac{t^2} { 4 \frac{1}{2} } } } {\frac{1}{\sqrt{2}}}&lt;br /&gt;
=&lt;br /&gt;
\sqrt{2\pi} e^{-\frac{t^2}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt; , czyli&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t) =&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
e^{-t^2 / 2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
W analizie sygnałów wynik ten będzie oznaczał, że transformacja Fouriera funkcji Gaussa jest funkcją Gaussa. W tym konkretnym przypadku otrzymaliśmy funkcję tożsamą z funkcją charakterystyczną rozkładu rozważanej sumy zmiennych, czyli rozkład ten będzie (w przypadku granicznym) miał postać funkcji Gaussa.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Plik:Ctg.png|300px|thumb|left|&amp;lt;figure id=&amp;quot;fig:ctg&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Ilustracja działania Centralnego Twierdzenia Granicznego. Zmienną&lt;br /&gt;
&amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; bierzemy z rozkładu równomiernego, kolejne histogramy przedstawiają sumę 2, 3 i 4&lt;br /&gt;
zmiennych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; dla 10 000 losowań. Widać dużą zgodność z dopasowanym rozkładem&lt;br /&gt;
normalnym (ciągła linia) już dla niewielu sumowanych zmiennych.&lt;br /&gt;
]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;Rysunek %i&amp;lt;/xr&amp;gt; ilustruje powyższe twierdzenie dla&lt;br /&gt;
przypadku sumy zmiennych pochodzących z rozkładu równomiernego. Jak&lt;br /&gt;
widać, już dla sumy 3 zmiennych rozkład wydaje się bardzo podobny do&lt;br /&gt;
normalnego. Niestety, często istotne bywają różnice dla wartości bardzo dużych lub bardzo małych. Otóż według&lt;br /&gt;
[[WnioskowanieStatystyczne/Rozklady-przyklady#label-eq:78|wzoru]] wartości gęstości&lt;br /&gt;
prawdopodobieństwa rozkładu normalnego dążą do zera dla dużych&lt;br /&gt;
wartości bezwzględnych zmiennej asymptotycznie, lecz zera faktycznie&lt;br /&gt;
nie osiągają. Inaczej mówiąc, prawdopodobieństwo wylosowania dowolnie&lt;br /&gt;
dużej wartości z rozkładu Gaussa będzie małe, ale nie zerowe. Za to&lt;br /&gt;
suma np. czterech zmiennych z rozkładu równomiernego od zera do&lt;br /&gt;
jedynki (prawy dolny wykres &amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rys. %i&amp;lt;/xr&amp;gt;) nie&lt;br /&gt;
przekroczy nigdy wartości 4, czyli prawdopodobieństwo dla&lt;br /&gt;
&amp;lt;math&amp;gt;x&amp;gt;4&amp;lt;/math&amp;gt; będzie dokładnie zerem. I choć w skali &amp;lt;xr&lt;br /&gt;
id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rysunku %i&amp;lt;/xr&amp;gt; efekt ten jest prawie niewidoczny, warto&lt;br /&gt;
pamiętać, że testy oparte na założeniu normalności rozkładów często&lt;br /&gt;
operują właśnie w okolicach tych &amp;quot;ogonów&amp;quot;, gdzie przybliżenie&lt;br /&gt;
rozkładu normalnego, uzyskane za pomocą tej prostej procedury,&lt;br /&gt;
zawodzi.&lt;br /&gt;
&lt;br /&gt;
-----------------------&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11645</id>
		<title>WnioskowanieStatystyczne/CLT</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11645"/>
		<updated>2026-03-05T17:14:19Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Rozkład Gaussa */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
==Rozkład Gaussa==&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa (zwany też rozkładem normalnym lub krzywą dzwonową) zależy od&lt;br /&gt;
parametrów &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;. Jego gęstość prawdopodobieństwa określona jest wzorem:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;\displaystyle&lt;br /&gt;
 p(x)=N(\mu, \sigma)= \frac{1}{\sqrt{2\pi }\sigma }e^{\frac{-(x-\mu )^{2}}{2\sigma ^{2}}}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parametry te są tak dobrane, że wartość oczekiwana wynosi&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;, a wariancja &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:Rozklad_gaussa.png|600px|thumb|left|&amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
standardowy rozkład Gaussa o zerowej średniej (&amp;lt;math&amp;gt;\mu=0&amp;lt;/math&amp;gt;) i&lt;br /&gt;
jednostkowej wariancji (&amp;lt;math&amp;gt;\sigma=1&amp;lt;/math&amp;gt;).]]&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa dla zerowej wartości oczekiwanej i jednostkowej&lt;br /&gt;
wariancji (&amp;lt;math&amp;gt;\mu=0, \sigma^2=1&amp;lt;/math&amp;gt;) zwiemy &lt;br /&gt;
''standardowym rozkładem Gaussa'' &lt;br /&gt;
i oznaczamy zwykle &amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;.&lt;br /&gt;
Na wykresie zaznaczono na nim m. in. wartość całki od &amp;lt;math&amp;gt;-\infty&amp;lt;/math&amp;gt; do&lt;br /&gt;
&amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;, czyli prawdopodobieństwo, że wylosowana z tego&lt;br /&gt;
rozkładu liczba będzie mniejsza niż &amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;. Jak widać, wynosi&lt;br /&gt;
ono ok. 16%, a jeśli weźmiemy pod uwagę również wartości większe od 1,&lt;br /&gt;
będzie to aż 32%! Oznacza to, że przy losowaniu wielu liczb z tego&lt;br /&gt;
rozkładu niemal 1/3 wyników może znaleźć się w odległości&lt;br /&gt;
większej niż &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt; od wartości oczekiwanej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:80&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
 x\in N(\mu,\sigma)\quad \Rightarrow \quad &lt;br /&gt;
\begin{cases}&lt;br /&gt;
P(\left| x-\mu \right| \geq \sigma )\approx 0,\!317,\\ &lt;br /&gt;
P(\left| x-\mu \right| \geq 2\sigma )\ \approx 0,\!046,\\&lt;br /&gt;
 \ P(\left| x-\mu \right| \geq 3\sigma )\approx 0,\!003.&lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!-- Gęstość prawdopodobieństwa dana równaniem&lt;br /&gt;
&amp;lt;xr id=&amp;quot;eq:78&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; zanika w nieskończoności tylko&lt;br /&gt;
asymptotycznie, i dlatego w świetle tego rozkładu prawdopodobieństwo&lt;br /&gt;
wylosowania ''dowolnej'' wartości będzie niezerowe (choć dla&lt;br /&gt;
większości niezmiernie małe). Prowadzi to czasem do paradoksów, jak&lt;br /&gt;
np. niezerowe prawdopodobieństwo ujemnej masy.&amp;lt;ref&amp;gt;Gaussowski&lt;br /&gt;
rozkład pomiarów jakiejkolwiek masy, określony dodatnimi wartościami&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;, będzie wykazywał nieujemne &amp;amp;mdash;&lt;br /&gt;
choć zapewne bardzo małe &amp;amp;mdash; prawdopodobieństwo również dla ujemnych&lt;br /&gt;
wartości zmiennej losowej, którą w tym przypadku będzie mierzona&lt;br /&gt;
masa.&amp;lt;/ref&amp;gt; Jest to cena za korzystanie ze zwięzłej i eleganckiej&lt;br /&gt;
postaci analitycznej rozkładu. --&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na ''Centralne Twierdzenie Graniczne'', mówiące o asysmptotycznym rozkładzie sumy dużej liczby niezależnych zmiennych losowych, których rozkłady spełniają pewne warunki. Udowodnimy je w najprostszym przypadku, kiedy wszystkie te zmienne pochodzą z tego samego rozkładu gęstości prawdopodobieństwa. Na potrzeby tego dowodu musimy najpierw wprowadzić pojęcie funkcji charakterystycznej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na&lt;br /&gt;
''Centralne Twierdzenie Graniczne'', według którego rozkład zmiennej losowej &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;, będącej sumą dużej liczby zmiennych losowych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; (czyli &amp;lt;math&amp;gt;y=\sum_{i=1}^{N} x_i&amp;lt;/math&amp;gt;) dąży, przy liczbie sumowanych zmiennych dążących do&lt;br /&gt;
nieskończoności (czyli &amp;lt;math&amp;gt;N\rightarrow\infty&amp;lt;/math&amp;gt;), do rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
Poniżej przytoczymy dowód tego&lt;br /&gt;
twierdzenia dla uproszczonego przypadku sumy zmiennych pochodzących z&lt;br /&gt;
tego samego rozkładu.&amp;lt;ref&amp;gt;Dokładniejsze sformułowania Twierdzenia&lt;br /&gt;
można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=1488&amp;amp;hot=1 książce &amp;quot;Probabilistyka. Rachunek Prawdopodobieństwa. Statystyka matematyczna. Procesy stochastyczne&amp;quot; Agnieszki i Edmunda Plucińskich].&amp;lt;/ref&amp;gt;&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funkcja charakterystyczna rozkładu prawdopodobieństwa==&lt;br /&gt;
&lt;br /&gt;
Dla zmiennej losowej &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; jest to wartość oczekiwana wyrażenia &amp;lt;math&amp;gt;e^{itz}&amp;lt;/math&amp;gt;, gdzie &amp;lt;math&amp;gt;i=\sqrt{-1}&amp;lt;/math&amp;gt;. Dla rozkładów ciągłych jest to [[Przekształcenie_Fouriera|transformata Fouriera]] funkcji gęstości prawdopodobieństwa &amp;lt;math&amp;gt;f(z)&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi_z (t)=E(e^{itz})=\underset{-\infty }{\overset{\infty }{\int }}&lt;br /&gt;
e^{itz}f\left( z\right) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Użyteczne będą poniższe związki, które wyprowadzić można bezpośrednio z definicji:&lt;br /&gt;
&lt;br /&gt;
====Funkcja charakterystyczna rozkładu sumy zmiennych niezależnych====&lt;br /&gt;
Dla ''niezależnych'' zmiennych &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:85&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
z=x+y\Rightarrow \phi_{z}(t)&lt;br /&gt;
=\phi_{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dowód:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{z}(t)&lt;br /&gt;
= E(e^{it(x+y)})=E(e^{itx}\cdot e^{ity})&lt;br /&gt;
= E(e^{itx})\cdot E(e^{ity})=\phi _{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Pochodna funkcji charakterystycznej====&lt;br /&gt;
Bezpośrednio z definicji — różniczkujemy po &amp;lt;math&amp;gt;dt&amp;lt;/math&amp;gt;, więc przy każdym różniczkowaniu spada nam z wykładnika &amp;lt;math&amp;gt;i z&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; zostaje pod całką a &amp;lt;math&amp;gt;i&amp;lt;/math&amp;gt; jako stała wychodzi przed całkę — widać, że:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:pochodna_funkcji_tworzacej&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{d^{n}\phi (t)}{dt^{n}}=i^{n}\underset{}{\underset{-\infty }{\overset{&lt;br /&gt;
\infty }{\int }}z^{n}}\ e^{itz}f(z) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Związek pochodnej funkcji charakterystycznej z momentami zmiennej losowej====&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;-ta pochodna funkcji charakterystycznej w zerze (czyli dla &amp;lt;math&amp;gt;t=0&amp;lt;/math&amp;gt;) wynosi&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:84&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}}\ e^{i 0 x} f(z) dz = &lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}} f(z) dz = &lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Twierdzenie Lindeberga&amp;amp;ndash;Lévy'ego==&lt;br /&gt;
Zakładamy, że &amp;lt;math&amp;gt;x_{i}&amp;lt;/math&amp;gt; są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i wariancji &amp;lt;math&amp;gt;\sigma^{2}&amp;lt;/math&amp;gt;, czyli wszystkie sumowane zmienne &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa, o którym nie zakładamy nic ponad to, że ma skończone &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;.&lt;br /&gt;
Wielkość&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:82&amp;quot;&amp;gt; &amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} &lt;br /&gt;
&amp;lt;/math&amp;gt; &amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
dla &amp;lt;math&amp;gt;n\rightarrow \infty&amp;lt;/math&amp;gt; zbiega do rozkładu normalnego o zerowej wartości średniej i jednostkowej wariancji.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Dowód twierdzenia Lindeberga&amp;amp;ndash;Lévy'ego===&lt;br /&gt;
Rozważmy zmienną &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; o zerowej wartości oczekiwanej i jednostkowej wariancji&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
y_{i} = \dfrac{x_{i}-\mu}{\sigma} .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Funkcję charakterystyczną rozkładu zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\phi_{y_i}(z) = E(e^{i z y_i}) &amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
możemy rozwinąć w szereg Taylora wokół &amp;lt;math&amp;gt;z=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:86&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_{y_i}(z)=\underset{n=0}{\overset{\infty }{\sum }}\frac{\phi^{(n)}(0)}{n!}z^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
Z wyprowadzonej wcześniej własności funkcji charakterystycznej &amp;lt;xr id=&amp;quot;eq:84&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
wynika, że&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(0)}(0)= i^0 E(x^0) = 1&amp;lt;/math&amp;gt;, &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(1)}(0) = i^1 E(x^1) = i E(x) = 0&amp;lt;/math&amp;gt; (wartość oczekiwana &amp;lt;math&amp;gt; y_i&amp;lt;/math&amp;gt;),  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(2)}(0)=  i^2 E(x^2) = -1&amp;lt;/math&amp;gt; (&amp;lt;math&amp;gt;i^2&amp;lt;/math&amp;gt; * wariancja), &lt;br /&gt;
&lt;br /&gt;
czyli funkcja charakterystyczna zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; rozwinięta w szereg Taylora &amp;lt;xr id=&amp;quot;eq:86&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; do wyrazów drugiego rzędu będzie miała postać&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:87&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_{y_i}(z)=1-\frac{z^{2}}{2}+\cdots .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wrócmy do występującej w twierdzeniu sumy &amp;lt;math&amp;gt;S&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} = &lt;br /&gt;
\dfrac{1}{\sigma \sqrt{n}} \sum\limits_{i=1}^{n}(x_{i} -\mu) = &lt;br /&gt;
\dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n}\dfrac{x_{i} -\mu}{\sigma}&lt;br /&gt;
 = \dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jej funkcja charakterystyczna &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z) = E(e^{izS}) = E\left(e^{iz \frac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
=  E\left(\prod_{i=1}^{n} e^{iz \frac{1}{\sqrt{n}}  y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; są wzajemnie niezależne,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z)=  \prod_{i=1}^{n} E\left( e^{i\frac{z}{\sqrt{n}} y_i }  \right)&lt;br /&gt;
= \prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right)&lt;br /&gt;
 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z)=&lt;br /&gt;
\prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) = &lt;br /&gt;
\left( \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) \right)^n = &lt;br /&gt;
\left( 1-\frac{(z/\sqrt{n})^{2}}{2}+\cdots \right)^n = &lt;br /&gt;
\left( 1-\frac{z^2}{2n}+\cdots \right)^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Przy przejściu z &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; do nieskończoności (i pomijaniu wyrazów rzędu wyższego niż drugi) dostajemy&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_y(z)\rightarrow&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\left(1-\frac{z^2}{2n}\right)^n=&lt;br /&gt;
e^{\frac{-z^{2}}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
bo &lt;br /&gt;
&amp;lt;math&amp;gt;e^x=\lim_{n\rightarrow\infty} (1+x/n)^n&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje pokazać, że jest to postać funkcji charakterystycznej rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
====Transformata Fouriera funkcji Gaussa====&lt;br /&gt;
Funkcja charakterystyczna rozkładu normalnego o wartości oczekiwanej 0 i jednostkowej wariancji będzie miała postać&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t)=&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \left( \cos(tx) + i \sin(tx) \right) e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx + &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty  i \sin(tx)  e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ funkcja &amp;lt;math&amp;gt;\sin(x)&amp;lt;/math&amp;gt; jest antysymetryczna, druga całka znika. Dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dla części symetrycznej znajdujemy w tablicach całkę oznaczoną &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{0}^{\infty} e^{-a^2 x^2} \cos(b x) dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{-\tfrac{b^2}{4a^2}} } {2 a}&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
po wymnożeniu przez 2 i podstawieniu &amp;lt;math&amp;gt; b=t&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;a^2=\frac{1}{2}&amp;lt;/math&amp;gt; dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^{\infty}  e^{-\frac{1}{2} x^2} \cos(t x)  dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{ -\frac{t^2} { 4 \frac{1}{2} } } } {\frac{1}{\sqrt{2}}}&lt;br /&gt;
=&lt;br /&gt;
\sqrt{2\pi} e^{-\frac{t^2}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt; , czyli&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t) =&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
e^{-t^2 / 2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
W analizie sygnałów wynik ten będzie oznaczał, że transformacja Fouriera funkcji Gaussa jest funkcją Gaussa. W tym konkretnym przypadku otrzymaliśmy funkcję tożsamą z funkcją charakterystyczną rozkładu rozważanej sumy zmiennych, czyli rozkład ten będzie (w przypadku granicznym) miał postać funkcji Gaussa.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Plik:Ctg.png|300px|thumb|left|&amp;lt;figure id=&amp;quot;fig:ctg&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Ilustracja działania Centralnego Twierdzenia Granicznego. Zmienną&lt;br /&gt;
&amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; bierzemy z rozkładu równomiernego, kolejne histogramy przedstawiają sumę 2, 3 i 4&lt;br /&gt;
zmiennych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; dla 10 000 losowań. Widać dużą zgodność z dopasowanym rozkładem&lt;br /&gt;
normalnym (ciągła linia) już dla niewielu sumowanych zmiennych.&lt;br /&gt;
]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;Rysunek %i&amp;lt;/xr&amp;gt; ilustruje powyższe twierdzenie dla&lt;br /&gt;
przypadku sumy zmiennych pochodzących z rozkładu równomiernego. Jak&lt;br /&gt;
widać, już dla sumy 3 zmiennych rozkład wydaje się bardzo podobny do&lt;br /&gt;
normalnego. Niestety, często istotne bywają różnice dla wartości bardzo dużych lub bardzo małych. Otóż według&lt;br /&gt;
[[WnioskowanieStatystyczne/Rozklady-przyklady#label-eq:78|wzoru]] wartości gęstości&lt;br /&gt;
prawdopodobieństwa rozkładu normalnego dążą do zera dla dużych&lt;br /&gt;
wartości bezwzględnych zmiennej asymptotycznie, lecz zera faktycznie&lt;br /&gt;
nie osiągają. Inaczej mówiąc, prawdopodobieństwo wylosowania dowolnie&lt;br /&gt;
dużej wartości z rozkładu Gaussa będzie małe, ale nie zerowe. Za to&lt;br /&gt;
suma np. czterech zmiennych z rozkładu równomiernego od zera do&lt;br /&gt;
jedynki (prawy dolny wykres &amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rys. %i&amp;lt;/xr&amp;gt;) nie&lt;br /&gt;
przekroczy nigdy wartości 4, czyli prawdopodobieństwo dla&lt;br /&gt;
&amp;lt;math&amp;gt;x&amp;gt;4&amp;lt;/math&amp;gt; będzie dokładnie zerem. I choć w skali &amp;lt;xr&lt;br /&gt;
id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rysunku %i&amp;lt;/xr&amp;gt; efekt ten jest prawie niewidoczny, warto&lt;br /&gt;
pamiętać, że testy oparte na założeniu normalności rozkładów często&lt;br /&gt;
operują właśnie w okolicach tych &amp;quot;ogonów&amp;quot;, gdzie przybliżenie&lt;br /&gt;
rozkładu normalnego, uzyskane za pomocą tej prostej procedury,&lt;br /&gt;
zawodzi.&lt;br /&gt;
&lt;br /&gt;
-----------------------&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11644</id>
		<title>WnioskowanieStatystyczne/CLT</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11644"/>
		<updated>2026-03-05T17:14:01Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Funkcja charakterystyczna rozkładu prawdopodobieństwa */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
==Rozkład Gaussa==&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa (zwany też rozkładem normalnym lub krzywą dzwonową) zależy od&lt;br /&gt;
parametrów &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;. Jego gęstość prawdopodobieństwa określona jest wzorem:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;&lt;br /&gt;
 p(x)=N(\mu, \sigma)= \frac{1}{\sqrt{2\pi }\sigma }e^{\frac{-(x-\mu )^{2}}{2\sigma ^{2}}}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parametry te są tak dobrane, że wartość oczekiwana wynosi&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;, a wariancja &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:Rozklad_gaussa.png|600px|thumb|left|&amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
standardowy rozkład Gaussa o zerowej średniej (&amp;lt;math&amp;gt;\mu=0&amp;lt;/math&amp;gt;) i&lt;br /&gt;
jednostkowej wariancji (&amp;lt;math&amp;gt;\sigma=1&amp;lt;/math&amp;gt;).]]&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa dla zerowej wartości oczekiwanej i jednostkowej&lt;br /&gt;
wariancji (&amp;lt;math&amp;gt;\mu=0, \sigma^2=1&amp;lt;/math&amp;gt;) zwiemy &lt;br /&gt;
''standardowym rozkładem Gaussa'' &lt;br /&gt;
i oznaczamy zwykle &amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;.&lt;br /&gt;
Na wykresie zaznaczono na nim m. in. wartość całki od &amp;lt;math&amp;gt;-\infty&amp;lt;/math&amp;gt; do&lt;br /&gt;
&amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;, czyli prawdopodobieństwo, że wylosowana z tego&lt;br /&gt;
rozkładu liczba będzie mniejsza niż &amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;. Jak widać, wynosi&lt;br /&gt;
ono ok. 16%, a jeśli weźmiemy pod uwagę również wartości większe od 1,&lt;br /&gt;
będzie to aż 32%! Oznacza to, że przy losowaniu wielu liczb z tego&lt;br /&gt;
rozkładu niemal 1/3 wyników może znaleźć się w odległości&lt;br /&gt;
większej niż &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt; od wartości oczekiwanej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:80&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
 x\in N(\mu,\sigma)\quad \Rightarrow \quad &lt;br /&gt;
\begin{cases}&lt;br /&gt;
P(\left| x-\mu \right| \geq \sigma )\approx 0,\!317,\\ &lt;br /&gt;
P(\left| x-\mu \right| \geq 2\sigma )\ \approx 0,\!046,\\&lt;br /&gt;
 \ P(\left| x-\mu \right| \geq 3\sigma )\approx 0,\!003.&lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!-- Gęstość prawdopodobieństwa dana równaniem&lt;br /&gt;
&amp;lt;xr id=&amp;quot;eq:78&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; zanika w nieskończoności tylko&lt;br /&gt;
asymptotycznie, i dlatego w świetle tego rozkładu prawdopodobieństwo&lt;br /&gt;
wylosowania ''dowolnej'' wartości będzie niezerowe (choć dla&lt;br /&gt;
większości niezmiernie małe). Prowadzi to czasem do paradoksów, jak&lt;br /&gt;
np. niezerowe prawdopodobieństwo ujemnej masy.&amp;lt;ref&amp;gt;Gaussowski&lt;br /&gt;
rozkład pomiarów jakiejkolwiek masy, określony dodatnimi wartościami&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;, będzie wykazywał nieujemne &amp;amp;mdash;&lt;br /&gt;
choć zapewne bardzo małe &amp;amp;mdash; prawdopodobieństwo również dla ujemnych&lt;br /&gt;
wartości zmiennej losowej, którą w tym przypadku będzie mierzona&lt;br /&gt;
masa.&amp;lt;/ref&amp;gt; Jest to cena za korzystanie ze zwięzłej i eleganckiej&lt;br /&gt;
postaci analitycznej rozkładu. --&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na ''Centralne Twierdzenie Graniczne'', mówiące o asysmptotycznym rozkładzie sumy dużej liczby niezależnych zmiennych losowych, których rozkłady spełniają pewne warunki. Udowodnimy je w najprostszym przypadku, kiedy wszystkie te zmienne pochodzą z tego samego rozkładu gęstości prawdopodobieństwa. Na potrzeby tego dowodu musimy najpierw wprowadzić pojęcie funkcji charakterystycznej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na&lt;br /&gt;
''Centralne Twierdzenie Graniczne'', według którego rozkład zmiennej losowej &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;, będącej sumą dużej liczby zmiennych losowych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; (czyli &amp;lt;math&amp;gt;y=\sum_{i=1}^{N} x_i&amp;lt;/math&amp;gt;) dąży, przy liczbie sumowanych zmiennych dążących do&lt;br /&gt;
nieskończoności (czyli &amp;lt;math&amp;gt;N\rightarrow\infty&amp;lt;/math&amp;gt;), do rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
Poniżej przytoczymy dowód tego&lt;br /&gt;
twierdzenia dla uproszczonego przypadku sumy zmiennych pochodzących z&lt;br /&gt;
tego samego rozkładu.&amp;lt;ref&amp;gt;Dokładniejsze sformułowania Twierdzenia&lt;br /&gt;
można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=1488&amp;amp;hot=1 książce &amp;quot;Probabilistyka. Rachunek Prawdopodobieństwa. Statystyka matematyczna. Procesy stochastyczne&amp;quot; Agnieszki i Edmunda Plucińskich].&amp;lt;/ref&amp;gt;&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funkcja charakterystyczna rozkładu prawdopodobieństwa==&lt;br /&gt;
&lt;br /&gt;
Dla zmiennej losowej &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; jest to wartość oczekiwana wyrażenia &amp;lt;math&amp;gt;e^{itz}&amp;lt;/math&amp;gt;, gdzie &amp;lt;math&amp;gt;i=\sqrt{-1}&amp;lt;/math&amp;gt;. Dla rozkładów ciągłych jest to [[Przekształcenie_Fouriera|transformata Fouriera]] funkcji gęstości prawdopodobieństwa &amp;lt;math&amp;gt;f(z)&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi_z (t)=E(e^{itz})=\underset{-\infty }{\overset{\infty }{\int }}&lt;br /&gt;
e^{itz}f\left( z\right) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Użyteczne będą poniższe związki, które wyprowadzić można bezpośrednio z definicji:&lt;br /&gt;
&lt;br /&gt;
====Funkcja charakterystyczna rozkładu sumy zmiennych niezależnych====&lt;br /&gt;
Dla ''niezależnych'' zmiennych &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:85&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
z=x+y\Rightarrow \phi_{z}(t)&lt;br /&gt;
=\phi_{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dowód:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{z}(t)&lt;br /&gt;
= E(e^{it(x+y)})=E(e^{itx}\cdot e^{ity})&lt;br /&gt;
= E(e^{itx})\cdot E(e^{ity})=\phi _{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Pochodna funkcji charakterystycznej====&lt;br /&gt;
Bezpośrednio z definicji — różniczkujemy po &amp;lt;math&amp;gt;dt&amp;lt;/math&amp;gt;, więc przy każdym różniczkowaniu spada nam z wykładnika &amp;lt;math&amp;gt;i z&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; zostaje pod całką a &amp;lt;math&amp;gt;i&amp;lt;/math&amp;gt; jako stała wychodzi przed całkę — widać, że:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:pochodna_funkcji_tworzacej&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{d^{n}\phi (t)}{dt^{n}}=i^{n}\underset{}{\underset{-\infty }{\overset{&lt;br /&gt;
\infty }{\int }}z^{n}}\ e^{itz}f(z) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Związek pochodnej funkcji charakterystycznej z momentami zmiennej losowej====&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;-ta pochodna funkcji charakterystycznej w zerze (czyli dla &amp;lt;math&amp;gt;t=0&amp;lt;/math&amp;gt;) wynosi&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:84&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}}\ e^{i 0 x} f(z) dz = &lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}} f(z) dz = &lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Twierdzenie Lindeberga&amp;amp;ndash;Lévy'ego==&lt;br /&gt;
Zakładamy, że &amp;lt;math&amp;gt;x_{i}&amp;lt;/math&amp;gt; są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i wariancji &amp;lt;math&amp;gt;\sigma^{2}&amp;lt;/math&amp;gt;, czyli wszystkie sumowane zmienne &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa, o którym nie zakładamy nic ponad to, że ma skończone &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;.&lt;br /&gt;
Wielkość&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:82&amp;quot;&amp;gt; &amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} &lt;br /&gt;
&amp;lt;/math&amp;gt; &amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
dla &amp;lt;math&amp;gt;n\rightarrow \infty&amp;lt;/math&amp;gt; zbiega do rozkładu normalnego o zerowej wartości średniej i jednostkowej wariancji.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Dowód twierdzenia Lindeberga&amp;amp;ndash;Lévy'ego===&lt;br /&gt;
Rozważmy zmienną &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; o zerowej wartości oczekiwanej i jednostkowej wariancji&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
y_{i} = \dfrac{x_{i}-\mu}{\sigma} .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Funkcję charakterystyczną rozkładu zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\phi_{y_i}(z) = E(e^{i z y_i}) &amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
możemy rozwinąć w szereg Taylora wokół &amp;lt;math&amp;gt;z=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:86&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_{y_i}(z)=\underset{n=0}{\overset{\infty }{\sum }}\frac{\phi^{(n)}(0)}{n!}z^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
Z wyprowadzonej wcześniej własności funkcji charakterystycznej &amp;lt;xr id=&amp;quot;eq:84&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
wynika, że&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(0)}(0)= i^0 E(x^0) = 1&amp;lt;/math&amp;gt;, &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(1)}(0) = i^1 E(x^1) = i E(x) = 0&amp;lt;/math&amp;gt; (wartość oczekiwana &amp;lt;math&amp;gt; y_i&amp;lt;/math&amp;gt;),  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(2)}(0)=  i^2 E(x^2) = -1&amp;lt;/math&amp;gt; (&amp;lt;math&amp;gt;i^2&amp;lt;/math&amp;gt; * wariancja), &lt;br /&gt;
&lt;br /&gt;
czyli funkcja charakterystyczna zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; rozwinięta w szereg Taylora &amp;lt;xr id=&amp;quot;eq:86&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; do wyrazów drugiego rzędu będzie miała postać&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:87&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_{y_i}(z)=1-\frac{z^{2}}{2}+\cdots .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wrócmy do występującej w twierdzeniu sumy &amp;lt;math&amp;gt;S&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} = &lt;br /&gt;
\dfrac{1}{\sigma \sqrt{n}} \sum\limits_{i=1}^{n}(x_{i} -\mu) = &lt;br /&gt;
\dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n}\dfrac{x_{i} -\mu}{\sigma}&lt;br /&gt;
 = \dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jej funkcja charakterystyczna &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z) = E(e^{izS}) = E\left(e^{iz \frac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
=  E\left(\prod_{i=1}^{n} e^{iz \frac{1}{\sqrt{n}}  y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; są wzajemnie niezależne,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z)=  \prod_{i=1}^{n} E\left( e^{i\frac{z}{\sqrt{n}} y_i }  \right)&lt;br /&gt;
= \prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right)&lt;br /&gt;
 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z)=&lt;br /&gt;
\prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) = &lt;br /&gt;
\left( \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) \right)^n = &lt;br /&gt;
\left( 1-\frac{(z/\sqrt{n})^{2}}{2}+\cdots \right)^n = &lt;br /&gt;
\left( 1-\frac{z^2}{2n}+\cdots \right)^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Przy przejściu z &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; do nieskończoności (i pomijaniu wyrazów rzędu wyższego niż drugi) dostajemy&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_y(z)\rightarrow&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\left(1-\frac{z^2}{2n}\right)^n=&lt;br /&gt;
e^{\frac{-z^{2}}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
bo &lt;br /&gt;
&amp;lt;math&amp;gt;e^x=\lim_{n\rightarrow\infty} (1+x/n)^n&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje pokazać, że jest to postać funkcji charakterystycznej rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
====Transformata Fouriera funkcji Gaussa====&lt;br /&gt;
Funkcja charakterystyczna rozkładu normalnego o wartości oczekiwanej 0 i jednostkowej wariancji będzie miała postać&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t)=&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \left( \cos(tx) + i \sin(tx) \right) e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx + &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty  i \sin(tx)  e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ funkcja &amp;lt;math&amp;gt;\sin(x)&amp;lt;/math&amp;gt; jest antysymetryczna, druga całka znika. Dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dla części symetrycznej znajdujemy w tablicach całkę oznaczoną &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{0}^{\infty} e^{-a^2 x^2} \cos(b x) dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{-\tfrac{b^2}{4a^2}} } {2 a}&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
po wymnożeniu przez 2 i podstawieniu &amp;lt;math&amp;gt; b=t&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;a^2=\frac{1}{2}&amp;lt;/math&amp;gt; dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^{\infty}  e^{-\frac{1}{2} x^2} \cos(t x)  dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{ -\frac{t^2} { 4 \frac{1}{2} } } } {\frac{1}{\sqrt{2}}}&lt;br /&gt;
=&lt;br /&gt;
\sqrt{2\pi} e^{-\frac{t^2}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt; , czyli&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t) =&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
e^{-t^2 / 2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
W analizie sygnałów wynik ten będzie oznaczał, że transformacja Fouriera funkcji Gaussa jest funkcją Gaussa. W tym konkretnym przypadku otrzymaliśmy funkcję tożsamą z funkcją charakterystyczną rozkładu rozważanej sumy zmiennych, czyli rozkład ten będzie (w przypadku granicznym) miał postać funkcji Gaussa.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Plik:Ctg.png|300px|thumb|left|&amp;lt;figure id=&amp;quot;fig:ctg&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Ilustracja działania Centralnego Twierdzenia Granicznego. Zmienną&lt;br /&gt;
&amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; bierzemy z rozkładu równomiernego, kolejne histogramy przedstawiają sumę 2, 3 i 4&lt;br /&gt;
zmiennych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; dla 10 000 losowań. Widać dużą zgodność z dopasowanym rozkładem&lt;br /&gt;
normalnym (ciągła linia) już dla niewielu sumowanych zmiennych.&lt;br /&gt;
]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;Rysunek %i&amp;lt;/xr&amp;gt; ilustruje powyższe twierdzenie dla&lt;br /&gt;
przypadku sumy zmiennych pochodzących z rozkładu równomiernego. Jak&lt;br /&gt;
widać, już dla sumy 3 zmiennych rozkład wydaje się bardzo podobny do&lt;br /&gt;
normalnego. Niestety, często istotne bywają różnice dla wartości bardzo dużych lub bardzo małych. Otóż według&lt;br /&gt;
[[WnioskowanieStatystyczne/Rozklady-przyklady#label-eq:78|wzoru]] wartości gęstości&lt;br /&gt;
prawdopodobieństwa rozkładu normalnego dążą do zera dla dużych&lt;br /&gt;
wartości bezwzględnych zmiennej asymptotycznie, lecz zera faktycznie&lt;br /&gt;
nie osiągają. Inaczej mówiąc, prawdopodobieństwo wylosowania dowolnie&lt;br /&gt;
dużej wartości z rozkładu Gaussa będzie małe, ale nie zerowe. Za to&lt;br /&gt;
suma np. czterech zmiennych z rozkładu równomiernego od zera do&lt;br /&gt;
jedynki (prawy dolny wykres &amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rys. %i&amp;lt;/xr&amp;gt;) nie&lt;br /&gt;
przekroczy nigdy wartości 4, czyli prawdopodobieństwo dla&lt;br /&gt;
&amp;lt;math&amp;gt;x&amp;gt;4&amp;lt;/math&amp;gt; będzie dokładnie zerem. I choć w skali &amp;lt;xr&lt;br /&gt;
id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rysunku %i&amp;lt;/xr&amp;gt; efekt ten jest prawie niewidoczny, warto&lt;br /&gt;
pamiętać, że testy oparte na założeniu normalności rozkładów często&lt;br /&gt;
operują właśnie w okolicach tych &amp;quot;ogonów&amp;quot;, gdzie przybliżenie&lt;br /&gt;
rozkładu normalnego, uzyskane za pomocą tej prostej procedury,&lt;br /&gt;
zawodzi.&lt;br /&gt;
&lt;br /&gt;
-----------------------&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11643</id>
		<title>WnioskowanieStatystyczne/CLT</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11643"/>
		<updated>2026-03-05T17:13:42Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Związek pochodnej funkcji charakterystycznej z momentami zmiennej losowej */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
==Rozkład Gaussa==&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa (zwany też rozkładem normalnym lub krzywą dzwonową) zależy od&lt;br /&gt;
parametrów &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;. Jego gęstość prawdopodobieństwa określona jest wzorem:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;&lt;br /&gt;
 p(x)=N(\mu, \sigma)= \frac{1}{\sqrt{2\pi }\sigma }e^{\frac{-(x-\mu )^{2}}{2\sigma ^{2}}}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parametry te są tak dobrane, że wartość oczekiwana wynosi&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;, a wariancja &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:Rozklad_gaussa.png|600px|thumb|left|&amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
standardowy rozkład Gaussa o zerowej średniej (&amp;lt;math&amp;gt;\mu=0&amp;lt;/math&amp;gt;) i&lt;br /&gt;
jednostkowej wariancji (&amp;lt;math&amp;gt;\sigma=1&amp;lt;/math&amp;gt;).]]&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa dla zerowej wartości oczekiwanej i jednostkowej&lt;br /&gt;
wariancji (&amp;lt;math&amp;gt;\mu=0, \sigma^2=1&amp;lt;/math&amp;gt;) zwiemy &lt;br /&gt;
''standardowym rozkładem Gaussa'' &lt;br /&gt;
i oznaczamy zwykle &amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;.&lt;br /&gt;
Na wykresie zaznaczono na nim m. in. wartość całki od &amp;lt;math&amp;gt;-\infty&amp;lt;/math&amp;gt; do&lt;br /&gt;
&amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;, czyli prawdopodobieństwo, że wylosowana z tego&lt;br /&gt;
rozkładu liczba będzie mniejsza niż &amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;. Jak widać, wynosi&lt;br /&gt;
ono ok. 16%, a jeśli weźmiemy pod uwagę również wartości większe od 1,&lt;br /&gt;
będzie to aż 32%! Oznacza to, że przy losowaniu wielu liczb z tego&lt;br /&gt;
rozkładu niemal 1/3 wyników może znaleźć się w odległości&lt;br /&gt;
większej niż &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt; od wartości oczekiwanej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:80&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
 x\in N(\mu,\sigma)\quad \Rightarrow \quad &lt;br /&gt;
\begin{cases}&lt;br /&gt;
P(\left| x-\mu \right| \geq \sigma )\approx 0,\!317,\\ &lt;br /&gt;
P(\left| x-\mu \right| \geq 2\sigma )\ \approx 0,\!046,\\&lt;br /&gt;
 \ P(\left| x-\mu \right| \geq 3\sigma )\approx 0,\!003.&lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!-- Gęstość prawdopodobieństwa dana równaniem&lt;br /&gt;
&amp;lt;xr id=&amp;quot;eq:78&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; zanika w nieskończoności tylko&lt;br /&gt;
asymptotycznie, i dlatego w świetle tego rozkładu prawdopodobieństwo&lt;br /&gt;
wylosowania ''dowolnej'' wartości będzie niezerowe (choć dla&lt;br /&gt;
większości niezmiernie małe). Prowadzi to czasem do paradoksów, jak&lt;br /&gt;
np. niezerowe prawdopodobieństwo ujemnej masy.&amp;lt;ref&amp;gt;Gaussowski&lt;br /&gt;
rozkład pomiarów jakiejkolwiek masy, określony dodatnimi wartościami&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;, będzie wykazywał nieujemne &amp;amp;mdash;&lt;br /&gt;
choć zapewne bardzo małe &amp;amp;mdash; prawdopodobieństwo również dla ujemnych&lt;br /&gt;
wartości zmiennej losowej, którą w tym przypadku będzie mierzona&lt;br /&gt;
masa.&amp;lt;/ref&amp;gt; Jest to cena za korzystanie ze zwięzłej i eleganckiej&lt;br /&gt;
postaci analitycznej rozkładu. --&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na ''Centralne Twierdzenie Graniczne'', mówiące o asysmptotycznym rozkładzie sumy dużej liczby niezależnych zmiennych losowych, których rozkłady spełniają pewne warunki. Udowodnimy je w najprostszym przypadku, kiedy wszystkie te zmienne pochodzą z tego samego rozkładu gęstości prawdopodobieństwa. Na potrzeby tego dowodu musimy najpierw wprowadzić pojęcie funkcji charakterystycznej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na&lt;br /&gt;
''Centralne Twierdzenie Graniczne'', według którego rozkład zmiennej losowej &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;, będącej sumą dużej liczby zmiennych losowych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; (czyli &amp;lt;math&amp;gt;y=\sum_{i=1}^{N} x_i&amp;lt;/math&amp;gt;) dąży, przy liczbie sumowanych zmiennych dążących do&lt;br /&gt;
nieskończoności (czyli &amp;lt;math&amp;gt;N\rightarrow\infty&amp;lt;/math&amp;gt;), do rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
Poniżej przytoczymy dowód tego&lt;br /&gt;
twierdzenia dla uproszczonego przypadku sumy zmiennych pochodzących z&lt;br /&gt;
tego samego rozkładu.&amp;lt;ref&amp;gt;Dokładniejsze sformułowania Twierdzenia&lt;br /&gt;
można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=1488&amp;amp;hot=1 książce &amp;quot;Probabilistyka. Rachunek Prawdopodobieństwa. Statystyka matematyczna. Procesy stochastyczne&amp;quot; Agnieszki i Edmunda Plucińskich].&amp;lt;/ref&amp;gt;&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funkcja charakterystyczna rozkładu prawdopodobieństwa==&lt;br /&gt;
&lt;br /&gt;
Dla zmiennej losowej &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; jest to wartość oczekiwana wyrażenia &amp;lt;math&amp;gt;e^{itz}&amp;lt;/math&amp;gt;, gdzie &amp;lt;math&amp;gt;i=\sqrt{-1}&amp;lt;/math&amp;gt;. Dla rozkładów ciągłych jest to [[Przekształcenie_Fouriera|transformata Fouriera]] funkcji gęstości prawdopodobieństwa &amp;lt;math&amp;gt;f(z)&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_z (t)=E(e^{itz})=\underset{-\infty }{\overset{\infty }{\int }}&lt;br /&gt;
e^{itz}f\left( z\right) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Użyteczne będą poniższe związki, które wyprowadzić można bezpośrednio z definicji:&lt;br /&gt;
&lt;br /&gt;
====Funkcja charakterystyczna rozkładu sumy zmiennych niezależnych====&lt;br /&gt;
Dla ''niezależnych'' zmiennych &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:85&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
z=x+y\Rightarrow \phi_{z}(t)&lt;br /&gt;
=\phi_{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dowód:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{z}(t)&lt;br /&gt;
= E(e^{it(x+y)})=E(e^{itx}\cdot e^{ity})&lt;br /&gt;
= E(e^{itx})\cdot E(e^{ity})=\phi _{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Pochodna funkcji charakterystycznej====&lt;br /&gt;
Bezpośrednio z definicji — różniczkujemy po &amp;lt;math&amp;gt;dt&amp;lt;/math&amp;gt;, więc przy każdym różniczkowaniu spada nam z wykładnika &amp;lt;math&amp;gt;i z&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; zostaje pod całką a &amp;lt;math&amp;gt;i&amp;lt;/math&amp;gt; jako stała wychodzi przed całkę — widać, że:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:pochodna_funkcji_tworzacej&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{d^{n}\phi (t)}{dt^{n}}=i^{n}\underset{}{\underset{-\infty }{\overset{&lt;br /&gt;
\infty }{\int }}z^{n}}\ e^{itz}f(z) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Związek pochodnej funkcji charakterystycznej z momentami zmiennej losowej====&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;-ta pochodna funkcji charakterystycznej w zerze (czyli dla &amp;lt;math&amp;gt;t=0&amp;lt;/math&amp;gt;) wynosi&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:84&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}}\ e^{i 0 x} f(z) dz = &lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}} f(z) dz = &lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Twierdzenie Lindeberga&amp;amp;ndash;Lévy'ego==&lt;br /&gt;
Zakładamy, że &amp;lt;math&amp;gt;x_{i}&amp;lt;/math&amp;gt; są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i wariancji &amp;lt;math&amp;gt;\sigma^{2}&amp;lt;/math&amp;gt;, czyli wszystkie sumowane zmienne &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa, o którym nie zakładamy nic ponad to, że ma skończone &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;.&lt;br /&gt;
Wielkość&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:82&amp;quot;&amp;gt; &amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} &lt;br /&gt;
&amp;lt;/math&amp;gt; &amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
dla &amp;lt;math&amp;gt;n\rightarrow \infty&amp;lt;/math&amp;gt; zbiega do rozkładu normalnego o zerowej wartości średniej i jednostkowej wariancji.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Dowód twierdzenia Lindeberga&amp;amp;ndash;Lévy'ego===&lt;br /&gt;
Rozważmy zmienną &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; o zerowej wartości oczekiwanej i jednostkowej wariancji&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
y_{i} = \dfrac{x_{i}-\mu}{\sigma} .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Funkcję charakterystyczną rozkładu zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\phi_{y_i}(z) = E(e^{i z y_i}) &amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
możemy rozwinąć w szereg Taylora wokół &amp;lt;math&amp;gt;z=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:86&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_{y_i}(z)=\underset{n=0}{\overset{\infty }{\sum }}\frac{\phi^{(n)}(0)}{n!}z^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
Z wyprowadzonej wcześniej własności funkcji charakterystycznej &amp;lt;xr id=&amp;quot;eq:84&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
wynika, że&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(0)}(0)= i^0 E(x^0) = 1&amp;lt;/math&amp;gt;, &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(1)}(0) = i^1 E(x^1) = i E(x) = 0&amp;lt;/math&amp;gt; (wartość oczekiwana &amp;lt;math&amp;gt; y_i&amp;lt;/math&amp;gt;),  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(2)}(0)=  i^2 E(x^2) = -1&amp;lt;/math&amp;gt; (&amp;lt;math&amp;gt;i^2&amp;lt;/math&amp;gt; * wariancja), &lt;br /&gt;
&lt;br /&gt;
czyli funkcja charakterystyczna zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; rozwinięta w szereg Taylora &amp;lt;xr id=&amp;quot;eq:86&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; do wyrazów drugiego rzędu będzie miała postać&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:87&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_{y_i}(z)=1-\frac{z^{2}}{2}+\cdots .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wrócmy do występującej w twierdzeniu sumy &amp;lt;math&amp;gt;S&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} = &lt;br /&gt;
\dfrac{1}{\sigma \sqrt{n}} \sum\limits_{i=1}^{n}(x_{i} -\mu) = &lt;br /&gt;
\dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n}\dfrac{x_{i} -\mu}{\sigma}&lt;br /&gt;
 = \dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jej funkcja charakterystyczna &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z) = E(e^{izS}) = E\left(e^{iz \frac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
=  E\left(\prod_{i=1}^{n} e^{iz \frac{1}{\sqrt{n}}  y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; są wzajemnie niezależne,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z)=  \prod_{i=1}^{n} E\left( e^{i\frac{z}{\sqrt{n}} y_i }  \right)&lt;br /&gt;
= \prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right)&lt;br /&gt;
 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z)=&lt;br /&gt;
\prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) = &lt;br /&gt;
\left( \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) \right)^n = &lt;br /&gt;
\left( 1-\frac{(z/\sqrt{n})^{2}}{2}+\cdots \right)^n = &lt;br /&gt;
\left( 1-\frac{z^2}{2n}+\cdots \right)^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Przy przejściu z &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; do nieskończoności (i pomijaniu wyrazów rzędu wyższego niż drugi) dostajemy&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_y(z)\rightarrow&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\left(1-\frac{z^2}{2n}\right)^n=&lt;br /&gt;
e^{\frac{-z^{2}}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
bo &lt;br /&gt;
&amp;lt;math&amp;gt;e^x=\lim_{n\rightarrow\infty} (1+x/n)^n&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje pokazać, że jest to postać funkcji charakterystycznej rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
====Transformata Fouriera funkcji Gaussa====&lt;br /&gt;
Funkcja charakterystyczna rozkładu normalnego o wartości oczekiwanej 0 i jednostkowej wariancji będzie miała postać&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t)=&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \left( \cos(tx) + i \sin(tx) \right) e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx + &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty  i \sin(tx)  e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ funkcja &amp;lt;math&amp;gt;\sin(x)&amp;lt;/math&amp;gt; jest antysymetryczna, druga całka znika. Dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dla części symetrycznej znajdujemy w tablicach całkę oznaczoną &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{0}^{\infty} e^{-a^2 x^2} \cos(b x) dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{-\tfrac{b^2}{4a^2}} } {2 a}&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
po wymnożeniu przez 2 i podstawieniu &amp;lt;math&amp;gt; b=t&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;a^2=\frac{1}{2}&amp;lt;/math&amp;gt; dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^{\infty}  e^{-\frac{1}{2} x^2} \cos(t x)  dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{ -\frac{t^2} { 4 \frac{1}{2} } } } {\frac{1}{\sqrt{2}}}&lt;br /&gt;
=&lt;br /&gt;
\sqrt{2\pi} e^{-\frac{t^2}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt; , czyli&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t) =&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
e^{-t^2 / 2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
W analizie sygnałów wynik ten będzie oznaczał, że transformacja Fouriera funkcji Gaussa jest funkcją Gaussa. W tym konkretnym przypadku otrzymaliśmy funkcję tożsamą z funkcją charakterystyczną rozkładu rozważanej sumy zmiennych, czyli rozkład ten będzie (w przypadku granicznym) miał postać funkcji Gaussa.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Plik:Ctg.png|300px|thumb|left|&amp;lt;figure id=&amp;quot;fig:ctg&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Ilustracja działania Centralnego Twierdzenia Granicznego. Zmienną&lt;br /&gt;
&amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; bierzemy z rozkładu równomiernego, kolejne histogramy przedstawiają sumę 2, 3 i 4&lt;br /&gt;
zmiennych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; dla 10 000 losowań. Widać dużą zgodność z dopasowanym rozkładem&lt;br /&gt;
normalnym (ciągła linia) już dla niewielu sumowanych zmiennych.&lt;br /&gt;
]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;Rysunek %i&amp;lt;/xr&amp;gt; ilustruje powyższe twierdzenie dla&lt;br /&gt;
przypadku sumy zmiennych pochodzących z rozkładu równomiernego. Jak&lt;br /&gt;
widać, już dla sumy 3 zmiennych rozkład wydaje się bardzo podobny do&lt;br /&gt;
normalnego. Niestety, często istotne bywają różnice dla wartości bardzo dużych lub bardzo małych. Otóż według&lt;br /&gt;
[[WnioskowanieStatystyczne/Rozklady-przyklady#label-eq:78|wzoru]] wartości gęstości&lt;br /&gt;
prawdopodobieństwa rozkładu normalnego dążą do zera dla dużych&lt;br /&gt;
wartości bezwzględnych zmiennej asymptotycznie, lecz zera faktycznie&lt;br /&gt;
nie osiągają. Inaczej mówiąc, prawdopodobieństwo wylosowania dowolnie&lt;br /&gt;
dużej wartości z rozkładu Gaussa będzie małe, ale nie zerowe. Za to&lt;br /&gt;
suma np. czterech zmiennych z rozkładu równomiernego od zera do&lt;br /&gt;
jedynki (prawy dolny wykres &amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rys. %i&amp;lt;/xr&amp;gt;) nie&lt;br /&gt;
przekroczy nigdy wartości 4, czyli prawdopodobieństwo dla&lt;br /&gt;
&amp;lt;math&amp;gt;x&amp;gt;4&amp;lt;/math&amp;gt; będzie dokładnie zerem. I choć w skali &amp;lt;xr&lt;br /&gt;
id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rysunku %i&amp;lt;/xr&amp;gt; efekt ten jest prawie niewidoczny, warto&lt;br /&gt;
pamiętać, że testy oparte na założeniu normalności rozkładów często&lt;br /&gt;
operują właśnie w okolicach tych &amp;quot;ogonów&amp;quot;, gdzie przybliżenie&lt;br /&gt;
rozkładu normalnego, uzyskane za pomocą tej prostej procedury,&lt;br /&gt;
zawodzi.&lt;br /&gt;
&lt;br /&gt;
-----------------------&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
	<entry>
		<id>http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11642</id>
		<title>WnioskowanieStatystyczne/CLT</title>
		<link rel="alternate" type="text/html" href="http://brain.fuw.edu.pl/edu/index.php?title=WnioskowanieStatystyczne/CLT&amp;diff=11642"/>
		<updated>2026-03-05T17:13:22Z</updated>

		<summary type="html">&lt;p&gt;Durka: /* Pochodna funkcji charakterystycznej */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
[[Wnioskowanie_Statystyczne_-_wykład]]&lt;br /&gt;
&lt;br /&gt;
==Rozkład Gaussa==&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa (zwany też rozkładem normalnym lub krzywą dzwonową) zależy od&lt;br /&gt;
parametrów &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;. Jego gęstość prawdopodobieństwa określona jest wzorem:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;&lt;br /&gt;
 p(x)=N(\mu, \sigma)= \frac{1}{\sqrt{2\pi }\sigma }e^{\frac{-(x-\mu )^{2}}{2\sigma ^{2}}}.&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parametry te są tak dobrane, że wartość oczekiwana wynosi&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt;, a wariancja &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Plik:Rozklad_gaussa.png|600px|thumb|left|&amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;, czyli&lt;br /&gt;
standardowy rozkład Gaussa o zerowej średniej (&amp;lt;math&amp;gt;\mu=0&amp;lt;/math&amp;gt;) i&lt;br /&gt;
jednostkowej wariancji (&amp;lt;math&amp;gt;\sigma=1&amp;lt;/math&amp;gt;).]]&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa dla zerowej wartości oczekiwanej i jednostkowej&lt;br /&gt;
wariancji (&amp;lt;math&amp;gt;\mu=0, \sigma^2=1&amp;lt;/math&amp;gt;) zwiemy &lt;br /&gt;
''standardowym rozkładem Gaussa'' &lt;br /&gt;
i oznaczamy zwykle &amp;lt;math&amp;gt;N(0,1)&amp;lt;/math&amp;gt;.&lt;br /&gt;
Na wykresie zaznaczono na nim m. in. wartość całki od &amp;lt;math&amp;gt;-\infty&amp;lt;/math&amp;gt; do&lt;br /&gt;
&amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;, czyli prawdopodobieństwo, że wylosowana z tego&lt;br /&gt;
rozkładu liczba będzie mniejsza niż &amp;lt;math&amp;gt;-1&amp;lt;/math&amp;gt;. Jak widać, wynosi&lt;br /&gt;
ono ok. 16%, a jeśli weźmiemy pod uwagę również wartości większe od 1,&lt;br /&gt;
będzie to aż 32%! Oznacza to, że przy losowaniu wielu liczb z tego&lt;br /&gt;
rozkładu niemal 1/3 wyników może znaleźć się w odległości&lt;br /&gt;
większej niż &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt; od wartości oczekiwanej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:80&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
 x\in N(\mu,\sigma)\quad \Rightarrow \quad &lt;br /&gt;
\begin{cases}&lt;br /&gt;
P(\left| x-\mu \right| \geq \sigma )\approx 0,\!317,\\ &lt;br /&gt;
P(\left| x-\mu \right| \geq 2\sigma )\ \approx 0,\!046,\\&lt;br /&gt;
 \ P(\left| x-\mu \right| \geq 3\sigma )\approx 0,\!003.&lt;br /&gt;
\end{cases}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!-- Gęstość prawdopodobieństwa dana równaniem&lt;br /&gt;
&amp;lt;xr id=&amp;quot;eq:78&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; zanika w nieskończoności tylko&lt;br /&gt;
asymptotycznie, i dlatego w świetle tego rozkładu prawdopodobieństwo&lt;br /&gt;
wylosowania ''dowolnej'' wartości będzie niezerowe (choć dla&lt;br /&gt;
większości niezmiernie małe). Prowadzi to czasem do paradoksów, jak&lt;br /&gt;
np. niezerowe prawdopodobieństwo ujemnej masy.&amp;lt;ref&amp;gt;Gaussowski&lt;br /&gt;
rozkład pomiarów jakiejkolwiek masy, określony dodatnimi wartościami&lt;br /&gt;
&amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;, będzie wykazywał nieujemne &amp;amp;mdash;&lt;br /&gt;
choć zapewne bardzo małe &amp;amp;mdash; prawdopodobieństwo również dla ujemnych&lt;br /&gt;
wartości zmiennej losowej, którą w tym przypadku będzie mierzona&lt;br /&gt;
masa.&amp;lt;/ref&amp;gt; Jest to cena za korzystanie ze zwięzłej i eleganckiej&lt;br /&gt;
postaci analitycznej rozkładu. --&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na ''Centralne Twierdzenie Graniczne'', mówiące o asysmptotycznym rozkładzie sumy dużej liczby niezależnych zmiennych losowych, których rozkłady spełniają pewne warunki. Udowodnimy je w najprostszym przypadku, kiedy wszystkie te zmienne pochodzą z tego samego rozkładu gęstości prawdopodobieństwa. Na potrzeby tego dowodu musimy najpierw wprowadzić pojęcie funkcji charakterystycznej.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&lt;br /&gt;
Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na&lt;br /&gt;
''Centralne Twierdzenie Graniczne'', według którego rozkład zmiennej losowej &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;, będącej sumą dużej liczby zmiennych losowych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; (czyli &amp;lt;math&amp;gt;y=\sum_{i=1}^{N} x_i&amp;lt;/math&amp;gt;) dąży, przy liczbie sumowanych zmiennych dążących do&lt;br /&gt;
nieskończoności (czyli &amp;lt;math&amp;gt;N\rightarrow\infty&amp;lt;/math&amp;gt;), do rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
Poniżej przytoczymy dowód tego&lt;br /&gt;
twierdzenia dla uproszczonego przypadku sumy zmiennych pochodzących z&lt;br /&gt;
tego samego rozkładu.&amp;lt;ref&amp;gt;Dokładniejsze sformułowania Twierdzenia&lt;br /&gt;
można znaleźć np. w [http://www.wnt.com.pl/product.php?action=0&amp;amp;prod_id=1488&amp;amp;hot=1 książce &amp;quot;Probabilistyka. Rachunek Prawdopodobieństwa. Statystyka matematyczna. Procesy stochastyczne&amp;quot; Agnieszki i Edmunda Plucińskich].&amp;lt;/ref&amp;gt;&lt;br /&gt;
--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Funkcja charakterystyczna rozkładu prawdopodobieństwa==&lt;br /&gt;
&lt;br /&gt;
Dla zmiennej losowej &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; jest to wartość oczekiwana wyrażenia &amp;lt;math&amp;gt;e^{itz}&amp;lt;/math&amp;gt;, gdzie &amp;lt;math&amp;gt;i=\sqrt{-1}&amp;lt;/math&amp;gt;. Dla rozkładów ciągłych jest to [[Przekształcenie_Fouriera|transformata Fouriera]] funkcji gęstości prawdopodobieństwa &amp;lt;math&amp;gt;f(z)&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_z (t)=E(e^{itz})=\underset{-\infty }{\overset{\infty }{\int }}&lt;br /&gt;
e^{itz}f\left( z\right) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Użyteczne będą poniższe związki, które wyprowadzić można bezpośrednio z definicji:&lt;br /&gt;
&lt;br /&gt;
====Funkcja charakterystyczna rozkładu sumy zmiennych niezależnych====&lt;br /&gt;
Dla ''niezależnych'' zmiennych &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:85&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
z=x+y\Rightarrow \phi_{z}(t)&lt;br /&gt;
=\phi_{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dowód:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{z}(t)&lt;br /&gt;
= E(e^{it(x+y)})=E(e^{itx}\cdot e^{ity})&lt;br /&gt;
= E(e^{itx})\cdot E(e^{ity})=\phi _{x}\left( t\right) \cdot \phi_{y}(t).&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Pochodna funkcji charakterystycznej====&lt;br /&gt;
Bezpośrednio z definicji — różniczkujemy po &amp;lt;math&amp;gt;dt&amp;lt;/math&amp;gt;, więc przy każdym różniczkowaniu spada nam z wykładnika &amp;lt;math&amp;gt;i z&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; zostaje pod całką a &amp;lt;math&amp;gt;i&amp;lt;/math&amp;gt; jako stała wychodzi przed całkę — widać, że:&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:pochodna_funkcji_tworzacej&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\displaystyle&lt;br /&gt;
\frac{d^{n}\phi (t)}{dt^{n}}=i^{n}\underset{}{\underset{-\infty }{\overset{&lt;br /&gt;
\infty }{\int }}z^{n}}\ e^{itz}f(z) dz&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Związek pochodnej funkcji charakterystycznej z momentami zmiennej losowej====&lt;br /&gt;
&amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;-ta pochodna funkcji charakterystycznej w zerze (czyli dla &amp;lt;math&amp;gt;t=0&amp;lt;/math&amp;gt;) wynosi&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:84&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}}\ e^{i 0 x} f(z) dz = &lt;br /&gt;
i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}z^{n}} f(z) dz = &lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Twierdzenie Lindeberga&amp;amp;ndash;Lévy'ego==&lt;br /&gt;
Zakładamy, że &amp;lt;math&amp;gt;x_{i}&amp;lt;/math&amp;gt; są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i wariancji &amp;lt;math&amp;gt;\sigma^{2}&amp;lt;/math&amp;gt;, czyli wszystkie sumowane zmienne &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa, o którym nie zakładamy nic ponad to, że ma skończone &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;\sigma&amp;lt;/math&amp;gt;.&lt;br /&gt;
Wielkość&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:82&amp;quot;&amp;gt; &amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} &lt;br /&gt;
&amp;lt;/math&amp;gt; &amp;lt;/equation&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
dla &amp;lt;math&amp;gt;n\rightarrow \infty&amp;lt;/math&amp;gt; zbiega do rozkładu normalnego o zerowej wartości średniej i jednostkowej wariancji.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Dowód twierdzenia Lindeberga&amp;amp;ndash;Lévy'ego===&lt;br /&gt;
Rozważmy zmienną &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; o zerowej wartości oczekiwanej i jednostkowej wariancji&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
y_{i} = \dfrac{x_{i}-\mu}{\sigma} .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Funkcję charakterystyczną rozkładu zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\phi_{y_i}(z) = E(e^{i z y_i}) &amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
możemy rozwinąć w szereg Taylora wokół &amp;lt;math&amp;gt;z=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:86&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_{y_i}(z)=\underset{n=0}{\overset{\infty }{\sum }}\frac{\phi^{(n)}(0)}{n!}z^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
Z wyprowadzonej wcześniej własności funkcji charakterystycznej &amp;lt;xr id=&amp;quot;eq:84&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; &lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi^{(n)}(0)=&lt;br /&gt;
i^{n}E(z^{n})&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
wynika, że&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(0)}(0)= i^0 E(x^0) = 1&amp;lt;/math&amp;gt;, &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(1)}(0) = i^1 E(x^1) = i E(x) = 0&amp;lt;/math&amp;gt; (wartość oczekiwana &amp;lt;math&amp;gt; y_i&amp;lt;/math&amp;gt;),  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_{y_i}^{(2)}(0)=  i^2 E(x^2) = -1&amp;lt;/math&amp;gt; (&amp;lt;math&amp;gt;i^2&amp;lt;/math&amp;gt; * wariancja), &lt;br /&gt;
&lt;br /&gt;
czyli funkcja charakterystyczna zmiennej &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; rozwinięta w szereg Taylora &amp;lt;xr id=&amp;quot;eq:86&amp;quot;&amp;gt;(%i)&amp;lt;/xr&amp;gt; do wyrazów drugiego rzędu będzie miała postać&lt;br /&gt;
&amp;lt;equation id=&amp;quot;eq:87&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_{y_i}(z)=1-\frac{z^{2}}{2}+\cdots .&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;/equation&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wrócmy do występującej w twierdzeniu sumy &amp;lt;math&amp;gt;S&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; &lt;br /&gt;
S=\dfrac{ \sum\limits_{i=1}^{n}x_{i}\; -\; n\mu}{\sigma \sqrt{n}} = &lt;br /&gt;
\dfrac{1}{\sigma \sqrt{n}} \sum\limits_{i=1}^{n}(x_{i} -\mu) = &lt;br /&gt;
\dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n}\dfrac{x_{i} -\mu}{\sigma}&lt;br /&gt;
 = \dfrac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jej funkcja charakterystyczna &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z) = E(e^{izS}) = E\left(e^{iz \frac{1}{\sqrt{n}} \sum\limits_{i=1}^{n} y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
=  E\left(\prod_{i=1}^{n} e^{iz \frac{1}{\sqrt{n}}  y_i}  \right)&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; są wzajemnie niezależne,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z)=  \prod_{i=1}^{n} E\left( e^{i\frac{z}{\sqrt{n}} y_i }  \right)&lt;br /&gt;
= \prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right)&lt;br /&gt;
 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ zmienne &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; pochodzą z tego samego rozkładu prawdopodobieństwa,&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_S(z)=&lt;br /&gt;
\prod_{i=1}^{n} \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) = &lt;br /&gt;
\left( \phi_{y_i}\left(\frac{z}{\sqrt{n}}\right) \right)^n = &lt;br /&gt;
\left( 1-\frac{(z/\sqrt{n})^{2}}{2}+\cdots \right)^n = &lt;br /&gt;
\left( 1-\frac{z^2}{2n}+\cdots \right)^n&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Przy przejściu z &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; do nieskończoności (i pomijaniu wyrazów rzędu wyższego niż drugi) dostajemy&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi_y(z)\rightarrow&lt;br /&gt;
\underset{n\rightarrow \infty }{\lim }\left(1-\frac{z^2}{2n}\right)^n=&lt;br /&gt;
e^{\frac{-z^{2}}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
bo &lt;br /&gt;
&amp;lt;math&amp;gt;e^x=\lim_{n\rightarrow\infty} (1+x/n)^n&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pozostaje pokazać, że jest to postać funkcji charakterystycznej rozkładu Gaussa.&lt;br /&gt;
&lt;br /&gt;
====Transformata Fouriera funkcji Gaussa====&lt;br /&gt;
Funkcja charakterystyczna rozkładu normalnego o wartości oczekiwanej 0 i jednostkowej wariancji będzie miała postać&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t)=&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \left( \cos(tx) + i \sin(tx) \right) e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx + &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty  i \sin(tx)  e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ponieważ funkcja &amp;lt;math&amp;gt;\sin(x)&amp;lt;/math&amp;gt; jest antysymetryczna, druga całka znika. Dostajemy &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^2}{2}} dx = &lt;br /&gt;
\dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^2}{2}} dx &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dla części symetrycznej znajdujemy w tablicach całkę oznaczoną &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{0}^{\infty} e^{-a^2 x^2} \cos(b x) dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{-\tfrac{b^2}{4a^2}} } {2 a}&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
po wymnożeniu przez 2 i podstawieniu &amp;lt;math&amp;gt; b=t&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;a^2=\frac{1}{2}&amp;lt;/math&amp;gt; dostajemy&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\int\limits_{-\infty}^{\infty}  e^{-\frac{1}{2} x^2} \cos(t x)  dx &lt;br /&gt;
=&lt;br /&gt;
\frac{ \sqrt{\pi} e^{ -\frac{t^2} { 4 \frac{1}{2} } } } {\frac{1}{\sqrt{2}}}&lt;br /&gt;
=&lt;br /&gt;
\sqrt{2\pi} e^{-\frac{t^2}{2}}&lt;br /&gt;
&amp;lt;/math&amp;gt; , czyli&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\phi _{x}(t) =&lt;br /&gt;
\int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx =&lt;br /&gt;
e^{-t^2 / 2}&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
W analizie sygnałów wynik ten będzie oznaczał, że transformacja Fouriera funkcji Gaussa jest funkcją Gaussa. W tym konkretnym przypadku otrzymaliśmy funkcję tożsamą z funkcją charakterystyczną rozkładu rozważanej sumy zmiennych, czyli rozkład ten będzie (w przypadku granicznym) miał postać funkcji Gaussa.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Plik:Ctg.png|300px|thumb|left|&amp;lt;figure id=&amp;quot;fig:ctg&amp;quot;&amp;gt;&amp;lt;/figure&amp;gt;Ilustracja działania Centralnego Twierdzenia Granicznego. Zmienną&lt;br /&gt;
&amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; bierzemy z rozkładu równomiernego, kolejne histogramy przedstawiają sumę 2, 3 i 4&lt;br /&gt;
zmiennych &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; dla 10 000 losowań. Widać dużą zgodność z dopasowanym rozkładem&lt;br /&gt;
normalnym (ciągła linia) już dla niewielu sumowanych zmiennych.&lt;br /&gt;
]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;Rysunek %i&amp;lt;/xr&amp;gt; ilustruje powyższe twierdzenie dla&lt;br /&gt;
przypadku sumy zmiennych pochodzących z rozkładu równomiernego. Jak&lt;br /&gt;
widać, już dla sumy 3 zmiennych rozkład wydaje się bardzo podobny do&lt;br /&gt;
normalnego. Niestety, często istotne bywają różnice dla wartości bardzo dużych lub bardzo małych. Otóż według&lt;br /&gt;
[[WnioskowanieStatystyczne/Rozklady-przyklady#label-eq:78|wzoru]] wartości gęstości&lt;br /&gt;
prawdopodobieństwa rozkładu normalnego dążą do zera dla dużych&lt;br /&gt;
wartości bezwzględnych zmiennej asymptotycznie, lecz zera faktycznie&lt;br /&gt;
nie osiągają. Inaczej mówiąc, prawdopodobieństwo wylosowania dowolnie&lt;br /&gt;
dużej wartości z rozkładu Gaussa będzie małe, ale nie zerowe. Za to&lt;br /&gt;
suma np. czterech zmiennych z rozkładu równomiernego od zera do&lt;br /&gt;
jedynki (prawy dolny wykres &amp;lt;xr id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rys. %i&amp;lt;/xr&amp;gt;) nie&lt;br /&gt;
przekroczy nigdy wartości 4, czyli prawdopodobieństwo dla&lt;br /&gt;
&amp;lt;math&amp;gt;x&amp;gt;4&amp;lt;/math&amp;gt; będzie dokładnie zerem. I choć w skali &amp;lt;xr&lt;br /&gt;
id=&amp;quot;fig:ctg&amp;quot;&amp;gt;rysunku %i&amp;lt;/xr&amp;gt; efekt ten jest prawie niewidoczny, warto&lt;br /&gt;
pamiętać, że testy oparte na założeniu normalności rozkładów często&lt;br /&gt;
operują właśnie w okolicach tych &amp;quot;ogonów&amp;quot;, gdzie przybliżenie&lt;br /&gt;
rozkładu normalnego, uzyskane za pomocą tej prostej procedury,&lt;br /&gt;
zawodzi.&lt;br /&gt;
&lt;br /&gt;
-----------------------&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Durka</name></author>
		
	</entry>
</feed>