podczas prawdopodobieństwa
Transkrypt
podczas prawdopodobieństwa
Metody probabilistyczne – opracowane notatki
1. Zdefiniuj zmienną losową, rozkład prawdopodobieństwa. Przy jakich założeniach funkcje:
F(x) = sin(x), F(x) = a − e − x mogą być dystrybuantami?
2. Podaj twierdzenie Lindeberga – Lévy`ego. Jakie jest jego znaczenie w estymacji wartości
średniej?
3. Zdefiniować proces Markova. Co go w pełni charakteryzuje?
4. Partia pudełek zapałek zawiera 100 000 pudełek zapałek. Dostawca twierdzi, że w pudełku
są średnio 54 zapałki. Stwierdzić, czy hipotezę tę można odrzucić na poziomie istotności α =
0.02.
5. Podać definicję zmiennych losowych niezależnych dla N zmiennych (X1, X2, ..., XN).
Rozpatrzmy dwukrotny rzut monetą. Sprawdzić, czy zmienne losowe X i Y
charakteryzujące odpowiednio pierwszy i drugi rzut są niezależne
6. Zdefiniuj proces stacjonarny w szerszym i w węższym sensie. Podaj związek między nimi.
7. Opisać sposób wyznaczania minimalnej liczności próby zapewniającej zadaną dokładność
estymacji wartości średniej cechy X w próbie generalnej.
8. Podać aksjomatykę Kołmogorowa, opisać jak tworzymy σ - algebrę
. Zdefiniować
prawdopodobieństwo warunkowe i udowodnić, że spełnia te aksjomaty.
9. Zdefiniować warunkowy rozkład prawdopodobieństwa zmiennej losowej Y pod warunkiem,
że zmienna losowa X przyjęła określoną wartość oraz warunkową wartość średnią przy tym
założeniu.
10. Sformułować słabe prawo wielkich liczb Markowa i podać (krótko) jego związek z teorią
estymacji.
11. Zdefiniować proces losowy o niezależnych przyrostach i proces Markowa. Podać związek
między nimi.
12. Zdefiniuj rozkłady brzegowe zmiennej losowej X. Podaj dystrybuantę dla typu skokowego,
ciągłego i w przypadku ogólnym.
13. W pewnym urządzeniu trzeba przeciętnie 7 razy w roku (~7000h pracy) wymieniać pewien
podzespół. Zakładając, że liczba wymian tego podzespołu w danym okresie ma rozkład
Poissona, wyliczyć prawdopodobieństwo tego, że konieczność wymiany podzespołu wstąpi
po 100 godzinach pracy.
14. Oblicz E(X) i D2(X) rozkładu Poissona.
15. Podaj własności wariancji i udowodnij, że suma wariancji jest równa wariancji sumy
zmiennych.
1. Zdefiniuj zmienną losową, rozkład prawdopodobieństwa. Przy jakich założeniach funkcje:
F(x) = sin(x), F(x) = a − e − x mogą być dystrybuantami?
Zmienną losową nazywamy funkcję rzeczywistą X określoną na przestrzeni zdarzeń elementarnych
Ω i taką, że przeciwobrazy zbiorów borelowskich na prostej (w R1) otrzymane za pomocą tej
funkcji są zdarzeniami losowymi; wystarczy wymagać, by przeciwobrazy wszystkich zbiorów
(przedziałów) postaci (-∞, x) były zdarzeniami losowymi (każdy zbiór borelowski w R1 można
uzyskać za pomocą przeliczalnej liczby działań na takich podzbiorach).
Inaczej mówiąc zmienna losowa X to funkcja działająca z Ω w R1 taka, że:
∀ { ω : X ωa } ∈ Ἇ
a
Widzimy więc, że zmienna losowa jest funkcją mierzalną względem prawdopodobieństwa.
(transformacją Ω w R1)
Rozkładem prawdopodobieństwa zmiennej losowej X nazywamy prawdopodobieństwo
indukowane, czyli funkcję zbioru daną wzorem:
−1
P x S =P [ X S ]=P [ω : X ω∈S ] , S ∈ Ἇ x
Aby funkcja
F x =sin x
była dystrybuantą spełnione muszą być następujące warunki:
a) być funkcją nieujemną
b) być funkcją niemalejącą
c) być funkcją co najmniej lewostronnie ciągłą
Warunki te spełnione są w I ćwiartce tj. gdy
x ∈〈0,
π
〉
2
Dla x<0 funkcja przyjmuje wartość 0, a dla x>π/2 wartość 1.
Dla funkcji F(x) = a − e − x wystarczy, że a będzie równe 1, a wartość funkcji dla x<=0 przyjmiemy
0. Oczywiście dla x<0 funkcja przyjmuje wartość 0.
Aby to zrozumieć należy przekształcić funkcję ex , ale pewnie większość woli tylko
wykuć na pamięć ;) Jeśli jednak ktoś by chciał, służę wykresami.
2. Podaj twierdzenie Lindeberga – Lévy`ego. Jakie jest jego znaczenie w estymacji wartości
średniej?
W notatkach możecie je znaleźć jako centralne twierdzenie graniczne.
Niech X1, X2, ... będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie
prawdopodobieństwa., przy czym E(Xi) = m, D2(Xi) = σ2 ≠ 0, i=1,2,...
Utwórzmy zmienną losową:
n
Y n=∑ X i
i=1
Oczywiście E(Yn) = n m; D2(Yn) = n σ2 ;
Unormujmy zmienną losową Yn definiując zmienną losową Zn wzorem:
Y n −m n
Z n=
σ n
Przy powyższych założeniach ciąg zmiennych losowych Z1, Z2, ...jest zbieżny według dystrybuant
do zmiennej losowej Z o rozkładzie N(0,1), czyli
1
∀ lim F n z =
z n∞
2 π
z
2
z
−
2
∫e
dz
−∞
gdzie Fn(z) jest dystrybuantą zmiennej losowej Zn.
Jeśli mamy więc jakiś nieznany rozkład, dla odpowiednio dużej próby możemy przyjąć, że jest to
rozkład normalny, co znacznie ułatwia np. Estymację wartości średniej.
3. Zdefiniować proces Markova. Co go w pełni charakteryzuje?
Proces losowy X(t) nazywamy procesem Markova, jeśli dla dowolnego n, dowolnego układu chwil
t1 < t2 < .. < tn oraz dla dowolnych liczb rzeczywistych x1, x2, ..., xn zachodzi:
P X t n x n ∣ X t n−1 = x n−1 , X t n−2 = x n−2 , ... , X t 1 = x 1
=
P X t n x n ∣ X t n−1 = x n−1
Oznacza to, że dystrybuanta warunkowa procesu Markova w dowolnej chwili tn zależy tylko od
chwili obecnej oraz ustalonej wartości tego procesu w chwili tn-1 . Jest to tzw. własność braku
pamięci lub własność Markova.
Proces Markova jest w pełni opisany przez swoją dystrybuantę warunkową lub też przez łączną
dystrybuantę [X(t), X(s)] wraz z dystrybuantą początkową F(s,y) = P[X(s)<y].
Widzimy zatem, że proces Markova jest w pełni scharakteryzowany przez jego rozkłady
dwuwymiarowe.
4. Partia pudełek zapałek zawiera 100 000 pudełek zapałek. Dostawca twierdzi, że w pudełku
są średnio 54 zapałki. Stwierdzić, czy hipotezę tę można odrzucić na poziomie istotności α =
0.02.
Nie jest znany rozkład liczby zapałek w pudełku, więc wylosowana próba musi być duża. W tym
wypadku otrzymujemy informację, że pobrano próbę o liczności 100 sztuk. Z tej próby otrzymano
mn = 51,21, a σn' = 2,45.
Dalsze rozważania są moją interpretacją tego, co wyczytałem z notatek oraz z pliku:
http://jay.au.poznan.pl/~strabel/dydaktyka/statystyka/partesis.pdf Czytasz i
używasz na własną odpowiedzialność!!
Hipoteza zerowa ma postać:
H0 : μ = 54
Hipoteza alternatywna ma postać:
H1 : μ ≠ 54
Znajdujemy liczbę t korzystając ze wzoru:
M −m0
t=∣ n
n ∣
σM
n
t≈11,387755
Tak obliczoną wartość t porównujemy z wartością krytyczną tα
Ponieważ na egzaminie nie będziemy posiadali ani kalkulatorów, ani tablic rozkładu normalnego
zakładam, że będzie można zostawić ten ułamek samemu sobie i napisać tylko, że jeśli obliczona
przez nas wartość będzie większa niż tα odczytane z tablic rozkładu normalnego, to powinniśmy
hipotezę odrzucić na tym poziomie istotności, w przeciwnym przypadku nie ma podstaw by tę
hipotezę odrzucić.
Opracowanie wg Krysickiego:
Badana cecha ma rozkład N(μ,σ) o obu parametrach nieznanych (w naszym przypadku rozkład
nie jest znany, ale n jest duże, więc możemy korzystać chyba z tego sposobu
korzystać). Weryfikujemy hipotezę H0 : μ = 54 wobec hipotezy alternatywnej H1 : μ ≠ 54. Poziom
istotności α = 0,02. Do weryfikacji tej hipotezy stosujemy test oparty na statystyce:
X − 0
t=
∗ n−1
S
która przy założeniu prawdziwości hipotezy H0 ma rozkład t Studenta o n-1 stopniach swobody.
W tym przypadku zbiorem krytycznym jest suma przedziałów (-∞, -a), (a, ∞) gdzie a = t(1-α/2, n-1)
jest kwantylem rzędu 1-α/2 rozkładu t Studenta o n-1 stopniach swobody. Jeżeli t obliczone wg
powyższego wzoru należy do zbioru krytycznego, to hipotezę H0 należy odrzucić, w przeciwnym
przypadku nie należy ani jej przyjmować, ani odrzucać.
5. Podać definicję zmiennych losowych niezależnych dla N zmiennych (X1, X2, ..., XN).
Rozpatrzmy dwukrotny rzut monetą. Sprawdzić, czy zmienne losowe X i Y charakteryzujące
odpowiednio pierwszy i drugi rzut są niezależne.
Zmienne losowe nazywamy niezależnymi, jeśli dla dowolnych zbiorów borelowskich S1, S2, ..., Sn
odpowiednio na osiach x1, x2, ..., xn zdarzenia
Z i ={ω: X i ω∈S i } i=1,2,... , n
spełniają warunek
P Z 1 ∩Z 2 ∩...∩Z n =P Z 1 ∗P Z 2 ∗...∗P Z n
Zdefiniujmy następujące zmienne losowe:
X= 1, jeśli na pierwszej monecie wypadł orzeł i X=0, jeśli wypadła reszka.
Y= 1, jeśli na drugiej monecie wypadł orzeł i Y=0, jeśli wypadła reszka.
Prawdopodobieństwo tego, że X=1 wynosi ½. Tak samo jest w przypadku zmiennej losowej Y.
Prawdopodobieństwo tego, że na obu monetach wypadnie orzeł wynosi ¼. Otrzymujemy więc
równianie: Łatwo zauważyć, że prawdopodobieństwo warunkowe jest równe prawdopodobieństwu
bezwarunkowemu.
1
2
1
P X =0=
2
1
P Y =1=
2
1
P Y =0=
2
P X =1=
1
4
1
P X =1,Y =0=
4
1
P X =0, Y =1=
4
1
P X =0, Y =0=
4
P X =1, Y =1=
Można więc zauważyć , że
∀
x , y ∈{0,1}
P X ∗P Y =P X , Y
6. Zdefiniuj proces stacjonarny w szerszym i w węższym sensie. Podaj związek między nimi.
Proces X(t) nazywamy stacjonarnym w węższym sensie jeśli dla dowolnego n, dowolnego
t 1 , t 2 , ..., t n ∈T oraz dla dowolnego ∆ takiego, że ∀i t i∆∈T zachodzi:
F x 1 ,t 1 ; x 2 ,t 2 ; ... ; x n , t n = F x1 ,t 1 ∆ ; x 2 ,t 2 ∆ ;... ; x n ,t n ∆
Proces losowy X(t) dla którego istnieją: wartość średnia m(t) i funkcja korelacji Rx(t1,t2) nazywamy
stacjonarnym w szerszym sensie jeśli:
mt =m
R x t 1 ,t 2 = R x τ , τ =t 2−t 1
Proces losowy stacjonarny w węższym sensie dla którego E [X 2 t ]∞ jest również stacjonarny
w szerszym sensie. Dla procesów normalnych (gaussowskich) prawdziwe jest też twierdzenie
odwrotne.
7. Opisać sposób wyznaczania minimalnej liczności próby zapewniającej zadaną dokładność
estymacji wartości średniej cechy X w próbie generalnej.
Przy założeniu, że cecha X w populacji generalnej ma rozkład N(μ,σ), gdzie σ jest znane
dokładność estymacji wyraża się wzorem:
d = y α∗
2
σ
n
gdzie yα/2 znajdujemy z tablic rozkładu N(0,1) jako spełniające równanie:
α
F y =1− , p u =1−α
2
Stąd minimalną liczność próby wyraża się wzorem:
'
y α ∗σ n
n min =
2
d
2
gdzie d jest zadaną dokładnością estymacji.
Jeśli X ma rozkład normalny, ale σ nie jest znane, to yα/2 znajdujemy z tablic rozkładu t-studenta o
n-1 stopniach swobody. Przy czym, jeśli n>=30 możemy korzystać z tablic rozkładu N(0,1).
W celu wyliczenia minimalnej liczności próby musimy znać wartość σ 'n . Jeśli nie jest ona znana,
to musimy albo pobrać wstępną próbę, w celu znalezienia wartości, a dopiero później pobranie
2
próby właściwej, albo przyjąć nmin =16∗t α . Prowadzi to jednak do stosunkowo dużych n .
2
min
8. Podać aksjomatykę Kołmogorowa, opisać jak tworzymy σ - algebrę
prawdopodobieństwo warunkowe i udowodnić, że spełnia te aksjomaty
. Zdefiniować
Niech Ω będzie dowolnym zbiorem. Elementy ω1 , ω2 ,...∈ Ω nazywamy zdarzeniami
elementarnymi. Niech Ἇ będzie sigma-algebrą podzbiorów Ω. Elementy A1 , A2 , ...∈Ἇ
nazywamy zdarzeniami losowymi. Dla każdego zdarzenia A∈Ἇ określona jest liczba
rzeczywista P(A), zwana prawdopodobieństwem zdarzenia A, spełniająca następujące aksjoamty:
A1.
A2.
0≤P A≤1
P Ω=1
A3.
A1 , A2 , ...∈ Ἇ∧ Ai ∩A j =∅ , i≠ j⇒[ P U Ai=∑ P Ai ]
∞
∞
i=1
i =1
Jeśli Ω jest skończona lub przeliczalna to w charakterze Ἇ bierzemy sigma-algebrę wszystkich
podzbiorów Ω, w przeciwnym przypadku weźmiemy sigma-algebrę podzbiorów borelowskich
zbioru Ω.
Jeśli P(B)>0 to prawdopodobieństwo warunkowe zdarzenia A, pod warunkiem, ze zaszło zdażenie
B definiujemy jako:
P A∣B=
P A∩ B
P B
Tak zdefiniowane prawdopodobieństwo spełnia aksjomaty A1, A2, A3.
P A∩B≤ P B , P B0
P A∣B∗P B=P A∩B≤P B
P A∣B≤1
0≤ P A∩B≤ P B
0≤P A∣B∗P B≤P B
0≤ P A∣B≤1
P Ω∣B=
∞
∞
∞
P U Ai∣B=
i=1
∑ P Ai∣B∗P B
P U Ai∩ B
i =1
P B
P Ω∩B
=1
P B
=
i=1
P B
∞
=∑ P Ai∣B
i =1
9. Zdefiniować warunkowy rozkład prawdopodobieństwa zmiennej losowej Y pod warunkiem,
że zmienna losowa X przyjęła określoną wartość oraz warunkową wartość średnią przy tym
założeniu.
Jeśli zmienna losowa (X,Y) jest typu skokowego, to warunkową dystrybuantę zmiennej losowej Y
pod warunkiem, że zmienna losowa X przyjmie wartość xi definiujemy wzorem:
F y∣x i = ∑ p yk ∣x i gdzie
yk y
P Y = y k , X = xi p ik
=
P X =x i
pi ●
jest warunkową funkcją prawdopodobieństwa.
p y k∣x i =P Y = y k∣X = x i=
k=1, 2, 3, ...
Jeśli zmienna losowa (X,Y) jest typu ciągłego to, przy pewnych założeniach dotyczących granicy,
warunkową dystrybuantę zmiennej losowej Y pod warunkiem, że zmienna losowa X przyjmie
wartość xi definiujemy wzorem:
y
F y∣X = xi = ∫ f y∣x i dy gdzie
−∞
f y∣x i=
f x i , y
f 1 xi
f 1 x i 0
jest warunkową funkcją gęstości.
Warunkowa wartość średnia:
∞
E Y∣X = x i=∫ y dF y∣x i
−∞
To oczywiście można jeszcze rozwinąć, zapisując wzór dla obu przypadków, tj.
zmiennej typu ciągłego i skokowego, czyli:
10. Sformułować słabe prawo wielkich liczb Markowa i podać (krótko) jego związek z teorią
estymacji.
Niech X1, X2, ... będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie
prawdopodobieństwa., przy czym E(Xi) = m, D2(Xi) = σ2 , i=1,2,...
Utwórzmy zmienną losową:
n
1
M n= ∑ X i
n i=1
Oczywiście:
n
∑ mi
E M n = i =1
n
n
∑ i2
D2 M n= i=1 2
n
Jeśli przy powyższych założeniach
lim D 2 M n =0
n∞
to
∀ lim P M n− E M n ≥=0
0
n ∞
czyli ciąg zmiennych losowych M1, M2, ... jest zbieżny według prawdopodobieństwa do E(Mn),
czyli do zmiennej losowej o rozkładzie jednopunktowym.
Do dopracowania – związek z teorią estymacji – każdy wie o co chodzi, nikt nie wie jak
to dobrze zapisać.
Dowód by sn00zer:
Dowód: dla każdego
i niech
(tw. Czybyszewa) ponieważ jest spełniony warunek
(tzw. Warunek Markowa)
to z (*) otrzymujemy
11. Zdefiniować proces losowy o niezależnych przyrostach i proces Markowa. Podać związek
między nimi.
Proces losowy X(t) nazwyamy procesem o przyrostach niezależnych jeżeli dla dowolnego ,
dowolnego układu chwil t 1t 2..t n∈T zmienne losowe
X t 1 , X t 2 − X t 1 , ... , X t n − X t n−1 są niezależne.
Proces losowy X(t) nazywamy procesem Markova, jeśli dla dowolnego n, dowolnego układu chwil
t1 < t2 < .. < tn oraz dla dowolnych liczb rzeczywistych x1, x2, ..., xn zachodzi:
P X t n x n ∣ X t n−1 = x n−1 , X t n−2 = x n−2 , ... , X t 1 = x 1
=
P X t n x n ∣ X t n−1 = x n−1
Proces losowy o przyrostach niezależnych taki, że
Markova, ale nie odwrotnie.
P [ X t 1 =c ]=1 c−stała jest procesem
12. Zdefiniuj rozkłady brzegowe zmiennej losowej X. Podaj dystrybuantę dla typu skokowego,
ciągłego i w przypadku ogólnym.
Jeżeli dla zmiennej losowej (X,Y) interesuje nas rozkład tylko jednej ze zmiennych składowych
podczas gdy druga może przyjmować dowolne wartości to mówimy o rozkładzie brzegowym.
Jeśli (X,Y) jest typu skokowego
∀ pi ●=P X = xi = P X = x i ,Y = y1 P X =x i ,Y = y2 ...=∑ p ik
i
k
Kropka oznacza zmienną, która przyjmuje dowolne wartości.
Jeśli natomiast zmienna losowa (X,Y) jest typu ciągłego to funkcja gęstości rozkładu brzegowego
zmiennej X wyraża się wzorem:
∞
f 1 x = ∫ f x , y dy
−∞
Ogólnie dla zmiennej losowej (X,Y) o dystrybuancie F(x,y) dystrybuanta rozkładu brzegowego
zmiennej losowej X ma postać:
F 1 x = F x ,∞ =P X x , Y ∞
Jeśli zmienna losowa jest typu skokowego
F 1 x = ∑ p i●= ∑ ∑ pik
x i x
xi x
k
Jeśli jest typu ciągłego:
x
x
∞
F 1 x= ∫ f 1 x dx= ∫ ∫ f x , y dy dx
−∞
−∞ −∞
Analogicznie dla zmiennej losowej Y:
13. W pewnym urządzeniu trzeba przeciętnie 7 razy w roku (~7000h pracy) wymieniać pewien
podzespół. Zakładając, że liczba wymian tego podzespołu w danym okresie ma rozkład
Poissona, wyliczyć prawdopodobieństwo tego, że konieczność wymiany podzespołu wstąpi po
100 godzinach pracy.
Korzystamy ze wzoru:
e−ƛ∗ƛ k
P X =k =
k!
n=100
n∗ p=ƛ
7
p=
=0,001
7000
ƛ=100∗0,001=0,1
k =0liczba napraw w tym okresie
−1
1 0
e 10 ∗
−1
10
P X =0=
=e 10
0!
Obliczona wartość mówi nam jakie jest prawdopodobieństwo, że w czasie 100h nie
zajdzie konieczność naprawy (liczba awarii w czasie 100h jest równa 0). Kwestią
dyskusyjną jest jak rozumieć treść zadania. Wg mnie musimy podać właśnie taką
wartość – awaria nastąpi najwcześniej po 100 godzinach, nie wcześniej. Ale oczywiście
każdy pisze co chce ;)
14. Oblicz E(X) i D2(X) rozkładu Poissona.
∞
E X =∑
k =1
ƛ k −ƛ
k
e =ƛ e−ƛ
k!
∞
ƛk −1
∑ k −1 ! =ƛ
k =1
ƛ
Szereg MacLaurina=e
D 2 X = E X 2 −E 2 X
2
∞
E X =∑
k =1
∞
ƛ k −ƛ
∑k k! e
k=1
2
ƛ k −ƛ
k
e
k!
2
2
k =k k −1k
=
ƛ k −2
e ƛ ∑
ƛ
k
−2
!
k =1
−ƛ
2
∞
D 2 X =ƛ
∞
e ∑
−ƛ
k =1
k
∞
k∗ k −1 ƛ
k ƛk
∑
k!
k
!
k =1
ƛ k −1
∑ k −1 ! =e−ƛ∗e ƛ∗ƛ 2 ƛ=ƛ2 ƛ
k =1
∞
15. Podaj własności wariancji i udowodnij, że suma wariancji jest równa wariancji sumy
zmiennych.
Wariancja D 2 ( X ) ma następujące własności:
•
•
•
D 2 ( X + c) = D 2 ( X )
( )
D2 ( X ) = E X 2 − E 2 ( X )
Λ D 2 ( X ) < E( X − c)
2
c≠ m
Nierówność CZYBYSZEWA
•
2
Jeśli D ( X ) < ∞ , to dla każdego ε > 0 zachodzi
2
•
σ
P {ω: │ X −m │≥ε}≤ 2
ε
Dowód:
D 2 ( X + Y ) = E (( X + Y ) 2 ) − E 2 ( X + Y ) = E ( X 2 + 2 XY + Y 2 ) − ( E ( X ) + E (Y )) 2 =
= E ( X 2 ) + 2 E ( XY ) + E (Y 2 ) − E 2 ( X ) − 2 E ( X ) E (Y ) − E 2 (Y ) =
dla zmiennych niezależnych wartość średnia iloczynu jest równa iloczynowi wartości średnich
= E ( X 2 ) + 2 E ( X ) E (Y ) + E (Y 2 ) − E 2 ( X ) − 2 E ( X ) E (Y ) − E 2 (Y ) =
= E ( X 2 ) − E 2 ( X ) + E (Y 2 ) − E 2 (Y ) = D 2 ( X ) + D 2 (Y )