ISBN: 83-910055-5-0
Transkrypt
ISBN: 83-910055-5-0
SKRYPTY INSTYTUTU MATEMATYCZNEGO
TYTU
Elementarny wykªad z rachunku prawdopodobie«stwa
z zadaniami
Wydanie trzecie poszerzone
AUTOR
Maªgorzata Majsnerowska
REDAKCJA TECHNICZNA
Maªgorzata Majsnerowska
PROJEKT OKADKI
Mirosªawa Bohuszewicz
DRUK
AM Druk
c
COPYRIGHT by Instytut Matematyczny
Uniwersytet Wrocªawski
Wrocªaw 2002
ISBN: 83-910055-5-0
Spis tre±ci
Przedmowa
1. Algebra zbiorów i kombinatoryka
1.1. Zbiory i dziaªania na zbiorach
1.2. Fundamentalna zasada mno»enia
1.3. Podstawowe modele kombinatoryczne
1.4. Zadania
2. Prawdopodobie«stwo
2.1. Denicje i podstawowe wªasno±ci
2.2. Prawdopodobie«stwo warunkowe
2.3. Niezale»no±¢ zdarze«
2.4. Zadania
3. Zmienne losowe i ich rozkªady
3.1. Podstawowe denicje
3.2. Niezale»no±¢ zmiennych losowych
3.3. Zmienne losowe dyskretne
3.4. Zmienne losowe z g¦sto±ci¡
3.5. Wektory losowe
3.6. Sumy niezale»nych zmiennych losowych
3.7. Zadania
4. Momenty i transformaty
4.1. Warto±¢ oczekiwana i wariancja
4.2. Funkcja tworz¡ca i funkcja charakterystyczna
4.3. Zadania
5
7
7
9
9
14
17
17
24
29
32
36
36
39
39
43
51
55
56
62
62
72
78
4
5. Zbie»no±¢ zmiennych losowych i twierdzenia graniczne
5.1. Informacja o sªabej zbie»no±ci
5.2. Twierdzenie Poissona
5.3. Centralne Twierdzenie Graniczne
5.4. Zagadnienia estymacji
5.5. Prawo Wielkich Liczb
5.6. Zadania
Odpowiedzi do zada«
81
81
82
83
87
90
93
97
Zadania dodatkowe wraz z odpowiedziami
102
Wa»niejsze rozkªady i ich charakterystki
110
Bibliograa
112
Przedmowa do wydania trzeciego
Skrypt powstaª w oparciu o wykªad z rachunku prawdopodobie«stwa, który prowadziªam w ostatnich latach dla studentów matematyki specjalno±ci nauczycielskiej na
Uniwersytecie Wrocªawskim. Przeznaczony jest wi¦c przede wszystkim dla tej grupy
Czytelników, chocia» mo»e by¢ równie» przydatny dla studentów kierunków technicznych oraz dla tych wszystkich, którzy chcieliby si¦ zapozna¢ z podstawowymi
poj¦ciami i metodami elementarnego rachunku prawdopodobie«stwa.
Do zrozumienia tre±ci skryptu wystarczy podstawowy kurs teorii mnogo±ci i analizy matematycznej; zastosowany aparat nie obejmuje teorii miary ani funkcji zespolonych.
Na tre±¢ ksi¡»ki skªadaj¡ si¦ nast¦puj¡ce tematy: algebra zbiorów i kombinatoryka, prawdopodobie«stwo, zmienne losowe i ich rozkªady, momenty i transformaty
oraz twierdzenia graniczne. Ka»dy z nich staraªam si¦ zilustrowa¢ licznymi przykªadami oraz zadaniami umieszczonymi na ko«cu rozdziaªów. Do prawie wszystkich
podane s¡ odpowiedzi, czasem wskazówki rozwi¡za«. Drugie wydanie poszerzone zostaªo o pi¦¢dziesi¡t dodatkowych zada« zebranych wraz z odpowiedziami w ko«cowej
cz¦±ci ksi¡»ki. Niniejsze trzecie zawiera ponadto oddzielny podrozdziaª po±wi¦cony
sumom niezale»nych zmiennych losowych, kilkana±cie nowych przykªadów i zada«,
jak równie» zestawienie wa»niejszych rozkªadów, ich momentów i transformat.
Wedªug znanego powiedzenia, to czytelnicy sprawiaj¡, »e ksi¡»ka jest dobra. Na
pewno, powiedzmy ostro»niej, mog¡ pomóc, by staªa si¦ lepsza. Tak te» byªo w przypadku tego skryptu i jego pierwszych Czytelników { Profesorów Ilony i Bolesªawa
Kopoci«skich, którym za uwagi, rady i sugestie chc¦ raz jeszcze wyrazi¢ swoj¡ wdzi¦czno±¢. Bardzo cenne byªy równie» dla mnie »yczliwa krytyka i propozycje poprawek
zawarte w recenzji Profesora Wiesªawa Dziubdzieli. Za ko«cowe uwagi dzi¦kuj¦ tak»e
Profesorowi Tomaszowi Rolskiemu oraz mojemu M¦»owi, który pomógª mi ponadto
w technicznym przygotowaniu do druku tekstu skryptu.
Wrocªaw, sierpie« 2002 r.
Maªgorzata Majsnerowska
6
Rozdziaª 1
Algebra zbiorów i kombinatoryka
1.1 Zbiory i dziaªania na zbiorach
Zbiór jest poj¦ciem pierwotnym u»ywanym zarówno w matematyce, jak i w j¦-
zyku potocznym dla okre±lenia wszystkich tych objektów, rzeczy, osób, punktów, itd.,
zwanych ogólnie elementami, które posiadaj¡ okre±lon¡ wªasno±¢. Jako przykªady
mog¡ sªu»y¢ zbiory:
pretendentów do tronu bior¡cych udziaª w wolnej elekcji,
±redniowiecznych zamków na Dolnym l¡sku,
bakterii szczepu podlegaj¡cych okre±lonym mutacjom,
rozwi¡za« nierówno±ci sin x 51 ,
wyników 500 zawodników w biegu marato«skim.
W matematyce zbiory oznaczamy zazwyczaj wielkimi literami alfabetu ªaci«skiego
(rzadziej greckiego), a ich opis sªowny zast¦pujemy nast¦puj¡cym zapisem A = fx :
W (x)g, co oznacza, »e zbiór A tworz¡ elementy maj¡ce wªasno±¢ W . Zgodnie z t¡ konwencj¡ zbiór z przykªadu czwartego mo»emy przedstawi¢ jako D = fx : sin x 15 g.
Zbiór, do którego nie nale»y »aden element nazywamy pustym i oznaczamy przez ;.
Liczb¦ elementów zbioru A, inaczej liczebno±¢ zbioru A oznaczamy przez jAj. Liczebno±¢ zbioru mo»e by¢ zerem, liczb¡ naturaln¡ lub niesko«czono±ci¡.
Zapis x 2 A oznacza, »e x jest elementem zbioru A; x 62 A jest tego zaprzeczeniem.
Je±li ka»dy element zbioru A jest elementem zbioru B , to mówimy, »e zbiór A zawiera si¦ w zbiorze B , co oznaczamy przez A B . Zbiór A nazywamy wtedy
7
ROZDZIA 1. ALGEBRA ZBIORÓW I KOMBINATORYKA
8
podzbiorem zbioru B . Je±li A B oraz B A, to mówimy, »e zbiory A i B s¡
równe, co oznaczamy przez A = B .
Zbiory mo»emy dodawa¢, mno»y¢ i odejmowa¢, otrzymuj¡c nowe zbiory.
Zbiór elementów, które nale»¡ b¡d¹ do A b¡d¹ do B , nazywamy sum¡ zbiorów i
oznaczamy przez A [ B , czyli A [ B = fx : x 2 A _ x 2 B g.
Zbiór elementów, które nale»¡ jednocze±nie do obu zbiorów A oraz B nazywamy
iloczynem zbiorów i oznaczamy przez A \ B , czyli A \ B = fx : x 2 A ^ x 2 B g.
Je±li A \ B = ;, to zbiory s¡ rozª¡czne.
Zbiór elementów nale»¡cych do A i nie nale»¡cych do B , nazywamy ró»nic¡ zbiorów
i oznaczamy przez A n B , czyli A n B = fx : x 2 A ^ x 62 B g.
Je±li zbiór A jest podzbiorem pewnego ustalonego zbioru , to zbiór n A = fx :
x 2 ^ x 62 Ag nazywamy dopeªnieniem zbioru A i oznaczamy przez A0. Inaczej,
x 2 A0 , x 62 A.
Dziaªania na zbiorach podlegaj¡ nast¦puj¡cym prawom:
przemienno±ci dodawania
A [ B = B [ A;
(1.1)
przemienno±ci mno»enia
A \ B = B \ A;
(1.2)
(A [ B ) [ C = A [ (B [ C ) = A [ B [ C;
(1.3)
ª¡czno±ci dodawania
ª¡czno±ci mno»enia
(A \ B ) \ C = A \ (B \ C ) = A \ B \ C;
(1.4)
rozdzielno±ci mno»enia wzgl¦dem dodawania
(A [ B ) \ C = (A \ C ) [ (B \ C );
(1.5)
rozdzielno±ci dodawania wzgl¦dem mno»enia
(A \ B ) [ C = (A [ C ) \ (B [ C );
(1.6)
de Morgana
(A \ B )0 = A0 [ B 0 ;
(A [ B )0 = A0 \ B 0 :
(1.7)
(1.8)
1.2. FUNDAMENTALNA ZASADA MNOENIA
1.2 Fundamentalna zasada mno»enia
9
Kombinatoryka, jako jedno z podstawowych narz¦dzi elementarnego rachunku
prawdopodobie«stwa, to, krótko mówi¡c, sztuka wyznaczania i liczenia mo»liwo±ci,
przypadków, wariantów, itp. Przed wprowadzeniem podstawowych poj¦¢ i modeli
kombinatorycznych poznamy gªówn¡ zasad¦ kombinatoryki czyli fundamentaln¡
zasad¦ mno»enia.
Nale»y dokona¢ wielokrotnego wyboru, przy czym
w I kroku wybieramy spo±ród m1 mo»liwo±ci,
w II kroku wybieramy spo±ród m2 mo»liwo±ci,
:::
w k-tym kroku wybieramy spo±ród mk mo»liwo±ci.
Je±li kolejne wybory dokonywane s¡ niezale»nie, to liczba wszystkich wyników tego
wielokrotnego wyboru jest postaci
m1 m2 : : : mk :
(1.9)
Przykªad 1.2.1. Na szczyt góry M mo»na dosta¢ si¦ jedynie wychodz¡c z obozu I u
jej podnó»a i przechodz¡c przez dwa obozy po±rednie II i III. Z I do II prowadz¡ 3
trasy, z II do III { 4 trasy, natomiast z III na szczyt góry mo»na dosta¢ si¦ 2 trasami.
Obliczmy, ile ró»nych wycieczek startuj¡cych z obozu I, a maj¡cych za cel wierzchoªek
góry M mo»na zorganizowa¢.
Tras¦ wycieczki okre±limy, dokonuj¡c dwukrotnie wyboru przej±cia do nast¦pnego
obozu, a nast¦pnie na szczyt. Zatem wedªug reguªy (1.9) mamy
3 4 2 = 24
takie trasy.
1.3 Podstawowe modele kombinatoryczne
Rozwa»my n-elementowy zbiór A = fa1; a2 ; : : : ; ang. Je±li elementy zbioru A ustawimy w okre±lonej kolejno±ci, np. a7 ; a5; : : : ; an; a1, to otrzymamy ci¡g n-elementowy
oznaczany jako (a7 ; a5; : : : ; an; a1). Widzimy, »e dla okre±lenia zbioru wystarczy poda¢
jego elementy. Je±li istotna jest tak»e kolejno±¢ ich wyst¦powania, to ka»de uporz¡dkowanie wyznacza inny ci¡g.
10
ROZDZIA 1. ALGEBRA ZBIORÓW I KOMBINATORYKA
1. Zbiór A mo»na uporz¡dkowa¢ na
n (n 1) (n 2) : : : 2 1 = n!
(1.10)
sposobów. Innymi sªowy, ze zbioru A mo»na utworzy¢ n! ci¡gów n-elementowych zwanych permutacjami zbioru A.
Rozwa»ymy teraz dwa sposoby losowania elementów zbioru A: losowanie bez zwracania wylosowanego elementu oraz losowanie ze zwracaniem wylosowanego elementu.
Przy obu reguªach losowania w pierwszym przypadku uwzgl¦dniamy kolejno±¢ losowanych elementów, w drugim natomiast jest ona dla nas nieistotna.
2. Losuj¡c k razy (k n) elementy ze zbioru A bez zwracania, otrzymujemy
n (n 1) : : : (n (k 1))
ró»nych ci¡gów zwanych k-elementowymi wariacjami bez powtórze«
oraz
!
n (n 1) : : : (n (k 1)) = n! = n
k!
k!(n k)! k
(1.11)
(1.12)
ró»nych zbiorów zwanych k-elementowymi kombinacjami (bez powtórze«).
3. Losuj¡c k razy (k dowolne) elementy ze zbioru A ze zwracaniem, otrzymujemy
n| n {z: : : n} = nk
k razy
(1.13)
ró»nych ci¡gów zwanych k-elementowymi wariacjami z powtórzeniami
oraz
!
n+k 1
(1.14)
k
ró»nych zbiorów zwanych k-elementowymi kombinacjami z powtórzeniami .
Zauwa»my, »e, jak wskazuje nazwa otrzymanych zgodnie z t¡ reguª¡ losowania ci¡gów
i zbiorów, mog¡ one zawiera¢ powtarzaj¡ce si¦ wielokrotnie elementy zbioru A.
Rozwa»my jeszcze uogólnienie modelu z punktu 1.
4. Zbiór A, który dzieli si¦ na k podzbiorów takich, »e
pierwszy skªada si¦ z m1 nierozró»nialnych elementów,
drugi skªada si¦ z m2 nierozró»nialnych elementów,
:::
1.3. PODSTAWOWE MODELE KOMBINATORYCZNE
k-ty skªada si¦ z mk nierozró»nialnych elementów,
przy czym
m1 + m2 + : : : + mk = n;
mo»na uporz¡dkowa¢ na
!
!
!
n n m1 n m1 m2 : : : n m1 : : : mk
m1
m2
m3
mk
11
!
= m !m n! !: : : m !
1
2
k
(1.15)
sposobów. Wzór (1.15) przedstawia liczb¦ permutacji z powtórzeniami zbioru A.
Przykªad 1.3.1. Niech A = fa1; a2; a3 ; a4g i k = 2. Sprawd¹my dla tych danych
prawdziwo±¢ wzorów (1.10) { (1.15).
1. Zbiór A mo»na uporz¡dkowa¢ na
1
4 3 2 1 = 4!
sposobów, poniewa» jako pierwszy mo»e wyst¡pi¢ ka»dy z 4 elementów zbioru A, jako
drugi ka»dy z 3 pozostaªych, jako trzeci ka»dy z 2 pozostaªych, a czwarte miejsce musi
by¢ zaj¦te przez jedyny nie wyst¦puj¡cy dotychczas element. Fundamentalna zasada
mno»enia (1.9) daje wi¦c powy»szy wynik.
2. Losuj¡c ze zbioru A bez zwracania 2 elementy, otrzymamy
4 3 = 12
ró»nych ci¡gów 2-elementowych (uzasadnienie jak wy»ej) oraz
43 =6
2!
ró»nych zbiorów 2-elementowych. Wida¢ to na poni»szym diagramie:
(a1 ; a2 );(a1 ; a3 );(a1 ; a4 );(a2 ; a1 );(a2 ; a3 );(a2 ; a4 );(a3 ; a1 );(a3 ; a2 );(a3 ; a4 );(a4 ; a1 );(a4 ; a2 ); (a4 ; a3 )
........
.........
.........
......
......
...
..
....
......
....
..
....
........
........
......
......
.........
......
..
........
.......
...........
..
.........
......
....
........
......
......
.........
...
.........
.........
.............
........
..
.........
...... ...........
......
........
....
........
............
........
......
........
......... ...
......
.........
....
.........
.............
.........
........
..........
......
.........
........
....
...... ...........
............ ....
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
..
......
...
......
......
.....
........
...
.......
.........
..................
......
.. ................
...........
..
........
.......
........
....
........
......
.
........
...........
...
........
........
...
........
........
...............
.........
...... ....... .......................
.......
........
.. ...............
......... ...
......
......
.....................
........
........
........
..........
......
......
........
....
.........
........
........
......... ...........
......
.............................
............
........
.
.
.
.
.
.
.
.. ..............
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.. .
.
......
..................
........
.
.......
.
.
.......
....
........
............
......
........
........
..
.......... .. .................
......... .. ...............
........................ ..........
........ .. .............. ................ ..
....... ... ...........
................
.......... .......
.
........... ..........................
..............
..........................
...................................
.........
.......
..................
...................
fa1 ; a2 g;fa1 ; a3 g;fa1 ; a4 g;fa2 ; a3 g;fa2 ; a4 g;fa3 ; a4 g:
Na przykªad, dwa ci¡gi (a1; a2 ) oraz (a2; a1) \przechodz¡" w jeden tylko zbiór fa1; a2 g,
gdy przestaje nas interesowa¢ kolejno±¢ tworz¡cych je elementów a1 oraz a2 .
3. Losuj¡c ze zbioru A ze zwracaniem 2 elementy, otrzymamy
4 4 = 16
12
ROZDZIA 1. ALGEBRA ZBIORÓW I KOMBINATORYKA
ró»nych ci¡gów 2-elementowych, poniewa» na obu miejscach w ci¡gu mo»e wyst¡pi¢
ka»dy z 4 elementów zbioru A oraz 10 nast¦puj¡cych zbiorów 2-elementowych:
fa1; a1 g; fa2; a2g; fa3; a3g; fa4; a4 g; fa1; a2g; fa1; a3g; fa1; a4 g; fa2; a3g; fa2; a4g; fa3; a4 g:
Nie jest przypadkiem, »e
!
!
4 + 2 1 = 5 = 10:
2
2
4. Podzielmy elementy zbioru A na 3 podzbiory A1; A2; A3 o liczebno±ci 1, 1 oraz
2 odpowiednio, tak, by elementy w zbiorze A3 byªy nierozró»nialne. Uczynimy to,
wybieraj¡c 1 element spo±ród 4 tworz¡c podzbiór A1 , nast¦pnie 1 element spo±ród 3
pozostaªych tworz¡c A2 i traktuj¡c potem jako jednakowe pozostaªe dwa elementy {
b¦d¡ one tworzy¢ podzbiór A3 . Na mocy (1.9) powy»sz¡ procedur¦ mo»na przeprowadzi¢ na
!
!
!
4 3 2 = 4! = 12
1!1!2!
1 1 2
sposobów. Powy»sze wyra»enie mo»na tak»e interpretowa¢ jako liczb¦ wszystkich uporz¡dkowa« 4-elementowego zbioru A utworzonego z trzech podzbiorów zawieraj¡cych
odpowiednio 1, 1 oraz 2 jednakowe, ale ró»ne od pozostaªych elementy.
Przykªad pozwala widzie¢ prawdziwo±¢ wzorów (1.10) { (1.15) poza wyj¡tkiem relacji
(1.14). Uzupeªnimy teraz t¦ luk¦.
Dowód wzoru (1.14). Zauwa»my, »e otrzymanie zbioru o k elementach mog¡cych wyst¦powa¢ wielokrotnie, a pochodz¡cych ze zbioru n-elementowego jest równoznaczne z losowym rozmieszczeniem k nierozró»nialnych kul w n ponumerowanych
komórkach (umawiamy si¦, »e wylosowanie elementu a1 ze zbioru A oznacza wªo»enie
kuli do I komórki, elementu a2 { do II komórki, : : : , elementu an { do n-tej komórki).
Ka»de rozmieszczenie mo»na z kolei przedstawi¢ gracznie jako kombinacj¦ kresek i
kropek np. j j jj oznaczaj¡cych odpowiednio kule (kropki) i komórki (kreski na oznaczenie ±ciany komórki). W my±l tej konwencji, wynik losowania fa1 ; a1g w
przykªadzie 1.3.1 b¦dzie zapisany jako jjj, wynik fa2 ; a3g jako jjj, a wynik fa4 ; a4g
jako jjj : Wracaj¡c do ogólnego przypadku, razem mamy wi¦c k (liczba kropek) i
n 1 (liczba kresek) znaków. Jedno rozmieszczenie jest jednoznacznie ustalone przez
wybranie k spo±ród wszystkich n 1+ k znaków. Zgodnie ze wzorem (1.12) wszystkich
wyborów mamy
!
!
n 1+k = n+k 1 :
k
k
1.3. PODSTAWOWE MODELE KOMBINATORYCZNE
13
Wzór (1.14) jest zatem udowodniony.
Przeanalizujemy teraz pi¦¢ zada« kombinatorycznych, do rozwi¡zania których
zastosujemy wzory (1.9) { (1.15).
Przykªad 1.3.2.
(a) N osób, w±ród których s¡ A i B, mo»na ustawi¢ w kolejce na N! sposobów (wzór
(1.10)). Ustawie«, w których mi¦dzy A i B znajduj¡ si¦ dokªadnie 2 osoby (zakªadamy,
»e N 4 oraz A wyst¦puje przed B) jest
!
(N 2)! 2! (N 4)! = (N 2)! (N 3):
(N 3) N 2 2 2! (N 2 2)! = (N 3) 2!(
N 4)!
Rzeczywi±cie, w ka»dym takim ustawieniu musi wyst¡pi¢ \segment" skªadaj¡cy si¦
z osoby A, dwóch innych osób i osoby B. Zatem A mo»e znajdowa¢ si¦ w kolejce na
ka»dym miejscu o numerze
od 1 do N 3 wª¡cznie. Gdy ustalimy ju» pozycj¦ dla A,
N
2
wybieramy na 2 2! sposobów 2 osoby maj¡ce sta¢ mi¦dzy A i B. Ich kolejno±¢ jest
istotna, wi¦c stosujemy wzór (1.11). Pozostaªe N 4 osoby ustawiamy na pozostaªych
N 4 miejscach na (N 4)! sposobów (wzór (1.10)).
(b) Przyjmuj¡c, »e alfabet ma 26 liter, mo»emy zgodnie z (1.13) uªo»y¢
{ 262 ró»nych inicjaªów 2-literowych;
{ 263 ró»nych inicjaªów 3-literowych.
Aby przy u»yciu 3-literowych inicjaªów mo»na byªo odró»ni¢ 1 mln osób, alfabet
musiaªby mie¢ n = 100 liter. Rzeczywi±cie, n3 = 1 000 000 dla n = 100.
(c) Nale»y umie±ci¢ n kul w n ponumerowanych komórkach tak, by dokªadnie jedna
pozostaªa pusta.
Je±li kul nie rozró»niamy, mo»liwo±ci rozmieszcze« jest n(n 1), poniewa» ka»demu
wyborowi komórki, która ma pozosta¢ pusta, a mo»e ni¡ by¢ ka»da z n komórek,
odpowiada wybór jednej z pozostaªych n 1 komórek, która b¦dzie zawiera¢ 2 kule.
Je±li natomiast kule rozró»niamy, takich rozmieszcze« b¦dzie
!
n
n (n 1) 2 (n 2)! = n(n 1) n2! :
Ka»demu bowiem opisanemu wy»ej wyborowi komórek odpowiada jeszcze wybór 2
spo±ród n kul, które b¦d¡ umieszczone razem (wzór (1.12)) oraz ka»de z (n 2)!
ustawie« pozostaªych n 2 kul w n 2 komórkach (wzór (1.10)).
(d) Dziesi¦ciu pasa»erów (zakªadamy, »e s¡ nierozró»nialni) mo»e opu±ci¢ wind¦ jad¡c¡
14
ROZDZIA 1. ALGEBRA ZBIORÓW I KOMBINATORYKA
od I do VII pi¦tra na
!
!
7 + 10 1 = 16 = 8008
10
10
sposobów. Rzeczywi±cie, je±li posªu»ymy si¦ modelem o k = 10 kulach, które nale»y
rozmie±ci¢ w n = 7 komórkach, to zastosowanie wzoru (1.14) daje powy»sz¡ odpowied¹.
Je±li dodatkowo za»¡damy, aby na ka»dym pi¦trze wysiadª przynajmniej jeden pasa»er, to takich rozmieszcze« b¦dzie
!
!
10 1 = 9 = 84:
7 1
6
Stosuj¡c bowiem w dalszym ci¡gu model rozmieszczania k nierozró»nialnych kul w n
komórkach, widzimy, »e w omawianym przypadku ka»de rozmieszczenie jest równowa»ne z wyborem n 1 miejsc (dla kresek { ±cianek komórek) spo±ród k 1 miejsc
(tyle jest miejsc mi¦dzy k kropkami { kulami).
(e) Ze sªowa METODYKA mo»na utworzy¢ 8! ró»nych \sªów" (tzn. ci¡gów literowych) 8-literowych (wzór (1.10)).
Ze sªowa REPRYWATYZACJA natomiast utworzymy zgodnie ze wzorem (1.15)
14!
3!2!2! 1!
: : 1!} = 3 632 428 800
| :{z
7 razy
\sªów" 14-literowych, poniewa» litera A wyst¦puje 3 razy, R { 2 razy, Y { 2 razy, a pozostaªe litery tworz¡ ju» 1-elementowe \podzbiory" zbioru liter rozpatrywanego sªowa.
1.4 Zadania
1. Poka», »e (A0 )0 = A:
2. Korzystaj¡c z praw rachunku zda«, poka» prawdziwo±¢ równo±ci (1.1) { (1.8).
3. Trasa komiwoja»era przebiega przez trzy miejscowo±ci A, B oraz C, przy czym
przez ka»d¡ z nich dwukrotnie. Oblicz, ile tras rozpoczyna si¦ i ko«czy w miejscowo±ci B.
1.4. ZADANIA
15
4. Pewn¡ prac¦ nale»y podzieli¢ mi¦dzy trzy dziewcz¦ta, czterech chªopców i pi¦ciu
m¦»czyzn. Oblicz, na ile sposobów mo»na to zrobi¢, dysponuj¡c trzema stanowiskami pracy dla dziewcz¡t, czterema dla chªopców i pi¦cioma dla m¦»czyzn.
5. W ostatnim etapie Konkursu Chopinowskiego jury decyduje o kolejno±ci 6 nalistów. Przyjmijmy, »e jeden z nalistów mo»e ponadto dosta¢ nagrod¦ za
najlepsze wykonanie mazurków. Oblicz, ile jest mo»liwych rozstrzygni¦¢ naªu,
je±li nie s¡ przyznawane miejsca ex aequo.
6. Oblicz, na ile sposobów mo»na powkªada¢ cztery listy do czterech zaadresowanych kopert tak, by do wªa±ciwego adresata traªy wszystkie listy, trzy listy,
dwa listy, jeden list oraz tak, by »aden list nie traª do wªa±ciwego adresata.
7. Danych jest n ró»nych przedmiotów. Oblicz, na ile sposobów zbiór ten mo»na
podzieli¢
(a) mi¦dzy dwie osoby A i B,
(b) na dwie cz¦±ci.
W obu przypadkach dopuszczamy podziaªy skrajnie niesprawiedliwe.
8. Danych jest k przedmiotów typu I oraz l przedmiotów typu II. Oblicz, na ile
sposobów mo»na je wszystkie rozmie±ci¢ w n ró»nych szuadach.
9. Litery alfabetu Morse'a s¡ utworzone z ci¡gów kropek i kresek z dozwolonym
powtarzaniem. Oblicz, ile liter mo»na utworzy¢ z co najwy»ej dziesi¦ciu symboli.
10. W kinie jest dwie±cie miejsc. Oblicz, na ile sposobów mo»na tam rozmie±ci¢
pi¦¢dziesi¦ciu widzów, zakªadaj¡c, »e ich nie rozró»niamy.
11. Grupa dwudziestu studentek i dziesi¦ciu studentów ma utworzy¢ sze±cio-osobowy
komitet organizuj¡cy Juwenalia. Oblicz, ile mo»e powsta¢ komitetów, do których wejd¡ zarówno panie, jak i panowie.
12. Oblicz, ile jest mo»liwych siedmiocyfrowych numerów telefonicznych rozpoczynaj¡cych si¦ od 34.
13. Pewna choroba powoduje zmiany komórkowe podzielone na cztery ró»ne kategorie. Oblicz
(a) ile jest mo»liwych wyników bada« czterech pacjentów,
16
ROZDZIA 1. ALGEBRA ZBIORÓW I KOMBINATORYKA
(b) ile z nich oznacza, »e u wszystkich choroba spowodowaªa te same zmiany,
(c) ile z nich oznacza, »e dokªadnie dwóch pacjentów ma te same zmiany.
14. Oblicz, ile jest wszystkich liczb czterocyfrowych, w których nie wyst¦puje cyfra
2, a »adne dwie kolejne cyfry nie s¡ jednakowe.
15. Trzech rowerzystów wioz¡cych ró»ne baga»e jedzie jeden za drugim na ró»nych
rowerach. Co godzin¦ nast¦puje zmiana kolejno±ci w szyku lub zmiana baga»u
lub zmiana rowerów. Jazda trwa tak dªugo, a» wyczerpane zostan¡ wszystkie
mo»liwo±ci. Oblicz, ile godzin jad¡ rowerzy±ci.
16. Oblicz, na ile sposobów mo»na ustawi¢ w biblioteczce dwa dzieªa trzy-tomowe
i trzy dzieªa cztero-tomowe w taki sposób, by tomy poszczególnych prac nie
byªy rozdzielone.
17. Na trzech ko«cowych przystankach autobus wiezie dwóch pasa»erów. Oblicz, ile
jest przypadków, »e
(a) ka»dy wysi¡dzie na innym przystanku,
(b) dokªadnie jeden pasa»er dojedzie do ostatniego przystanku.
18. Oblicz, na ile sposobów mo»na uªo»y¢ w rz¦dzie pi¦¢ kul biaªych, cztery kule
czarne i trzy kule »óªte. A je±li mamy do dyspozycji cztery kule biaªe, trzy
czarne i pi¦¢ »óªtych?
19. Oblicz, na ile sposobów mo»na podzieli¢ dwudziestu harcerzy na cztery jednakowo liczne grupy. Na ile sposobów mog¡ by¢ oni rozdzieleni do czterech
podobozów, je±li do ka»dego ma tra¢ pi¦ciu harcerzy?
20. Maj¡c do dyspozycji siedem spóªgªosek i pi¦¢ samogªosek, tworzymy \sªowa" o
czterech spóªgªoskach i pi¦ciu samogªoskach. Oblicz, ile takich \sªów" uªo»ymy.
21. Rozwa»aj¡c wszystkie mo»liwo±ci wyboru k studentów z grupy m pa« oraz n
panów, poka», »e
!
!
!
!
!
!
!
n+m = n m + n m +:::+ n m :
k
0 k
1 k 1
k 0
Podstawiaj¡c k = m = n, poka», »e
!
n n!2
2n = X
:
n
k=0 k
Rozdziaª 2
Prawdopodobie«stwo
2.1 Denicje i podstawowe wªasno±ci
Rozwa»my do±wiadczenie losowe, czyli takie, którego poszczególne wyniki zale»¡
od pewnego mechanizmu losowego. Za typowe do±wiadczenia losowe zwykªo si¦ uwa»a¢ rzuty monet¡ lub kostk¡, rozdawanie kart z potasowanej talii, losowanie kul z
urny, loteri¦, gr¦ w ruletk¦, traanie do celu na tarczy strzelniczej.
Oznaczmy przez zbiór mo»liwych wyników w do±wiadczeniu losowym. B¦dziemy je
nazywa¢ zdarzeniami elementarnymi, { przestrzeni¡ zdarze« (elementarnych). Podzbiór A przestrzeni zdarze« nazywamy zdarzeniem, a jego elementy
{ zdarzeniami elementarnymi sprzyjaj¡cymi zdarzeniu A. Zbiór pusty ; nosi
nazw¦ zdarzenia niemo»liwego, dopeªnienie A0 zbioru A zdarze« elementarnych
nazywamy zdarzeniem przeciwnym do A. Iloczyn zdarze« A \ B odpowiada jednoczesnemu zaj±ciu zdarze« A i B , a suma zdarze« A i B { zaj±ciu co najmniej
jednego z nich. Je±li A \ B = ;, to mówimy, »e zdarzenia A i B wykluczaj¡
si¦. Zauwa»my, »e dziaªania dodawania, mno»enia i brania dopeªnie« na zdarzeniach
podlegaj¡ prawom (1.1) { (1.8).
Poj¦cie prawdopodobie«stwa wprowadzimy naprzód dla sko«czonej przestrzeni
zdarze« elementarnych = f! ; : : : ; !ng:
Denicja 2.1.1. Funkcj¦ P przyporz¡dkowuj¡c¡ ka»demu zdarzeniu elementarnemu
!i warto±¢ P (!i); i = 1; : : : ; n; tak¡, »e
1
P (!i) 0; i = 1; : : : ; n oraz
n
X
i
P (!i) = 1
=1
nazywamy prawdopodobie«stwem dyskretnym sko«czonym.
17
(2.1)
ROZDZIA 2. PRAWDOPODOBIESTWO
18
Dla dowolnego zdarzenia A prawdopodobie«stwo okre±lamy jako
P (A) =
X
fi !i 2Ag
P (!i):
(2.2)
:
W szczególno±ci, je±li przyjmiemy P (!i) = n ; i = 1; : : : ; n; to powy»szy wzór przyjmie
posta¢
j;
P (A) = jjA
(2.3)
j
1
znan¡ jako klasyczna denicja prawdopodobie«stwa.
Zauwa»my, »e prawdopodobie«stwo dane wzorem (2.2) ma nast¦puj¡ce wªasno±ci:
1. jest wielko±ci¡ nieujemn¡,
2. prawdopodobie«stwo sumy sko«czonej liczby zdarze« parami wykluczaj¡cych si¦
jest równe sumie prawdopodobie«stw tych zdarze«,
3. prawdopodobie«stwo przestrzeni zdarze« wynosi 1.
Rozwa»ymy teraz dwa przykªady prawdopodobie«stwa dyskretnego sko«czonego.
Przykªad 2.1.1.
(a) Przy rzucie trzema kostkami: biaª¡, zielon¡ i br¡zow¡ zdarzeniem elementarnym
jest 3-elementowy ci¡g, którego pierwszy wyraz oznacza wynik na kostce biaªej, drugi
{ na zielonej, a trzeci { na br¡zowej. Przestrze« zdarze« mo»emy wi¦c zapisa¢ w
postaci
= f! = (x ; x ; x ) : xi = 1; : : : ; 6; i = 1; 2; 3g
1
2
3
Znajd¹my prawdopodobie«stwo zdarzenia A polegaj¡cego na tym, »e suma \wyrzuconych" oczek wynosi co najmniej 17.
Zdarzenie A opiszemy jako
A = f! 2 : x + x + x 17g:
1
2
3
Je±li wszystkie kostki s¡ symetryczne, przypisanie ka»demu wynikowi (zdarzeniu elementarnemu) jednakowego prawdopodobie«stwa jest uzasadnione. Mo»emy wi¦c zastosowa¢ wzór (2.3). Na mocy (1.13) widzimy, »e j
j = 6 . Dla obliczenia liczebno±ci
zdarzenia A, zauwa»my, »e tworz¡ go nast¦puj¡ce zdarzenia elementarne: (6,6,6) oraz
(5,6,6), (6,5,6), (6,6,5), a zatem jAj = 4. Zgodnie wi¦c z podan¡ denicj¡
1:
P (A) = 64 = 54
3
3
2.1. DEFINICJE I PODSTAWOWE WASNOCI
19
(b) W totolotku wybieramy 6 liczb spo±ród f1; 2; : : : ; 49g: Zyskujemy udziaª w I
nagrodzie (oznaczmy to zdarzenie przez A), je±li wytypujemy wszystkie liczby (jest
ich tak»e sze±¢) otrzymane w publicznym losowaniu. Obliczmy prawdopodobie«stwo
tego zdarzenia.
Zgodnie z (1.12) mamy j
j =
= 13 983 816 oraz jAj = 1. St¡d na mocy (2.3)
49
6
P (A) = 1 = 0:0000000715:
49
6
(c) Mi¦dzy troje dzieci dzielimy losowo dwana±cie zabawek. Obliczmy prawdopodobie«stwo zdarzenia A; »e ka»de z nich otrzyma cztery zabawki.
Przestrze« zdarze« zwi¡zan¡ z tym do±wiadczeniem mo»emy zapisa¢ w postaci
= f! = (x ; x ; : : : ; x ) : xi = 1; 2; 3; i = 1; 2; : : : ; 12g:
1
2
12
Jej liczno±¢ na mocy wzoru (1.13) wynosi j
j = 3 = 531 441; natomiast z (1.15)
widzimy, »e jAj =
; sk¡d
12
12!
4!4!4!
P (A) = (4!)12!3 = 0:065:
3
12
Przykªad 2.1.2. Przy rzucie dwoma nierozró»nialnymi kostkami zdarzeniem elementarnym jest 2-elementowy zbiór. Przestrze« zdarze« tego do±wiadczenia losowego
przedstawia si¦ nast¦puj¡co:
= f! = fx ; x g : xi = 1; : : : ; 6; i = 1; 2g
= ff1; 1g; f2; 2g; f3; 3g; f4; 4g; f5; 5g; f6; 6g; f1; 2g; f1; 3g; f1; 4g; f1; 5g; f1; 6g;
f2; 3g; f2; 4g; f2; 5g; f2; 6g; f3; 4g; f3; 5g; f3; 6g; f4; 5g; f4; 6g; f5; 6gg:
1
2
Tak wi¦c j
j = 21. Znajd¹my prawdopodobie«stwo zdarzenia A polegaj¡cego na tym,
»e mniejszy z wyników wynosi co najmniej 5, czyli zdarzenia postaci
A = f! 2 : minfx ; x g 5g:
1
2
Wydaje si¦, »e w tym do±wiadczeniu losowym wyniki nie s¡ jednakowo prawdopodobne (mo»emy si¦ spodziewa¢, »e np. wynik f1,2g pojawi si¦ cz¦±ciej ni» f1,1g) i
posªugiwanie si¦ wzorem (2.3) jest nieuzasadnione. W celu okre±lenia prawdopodobie«stwa na przestrzeni zdeniujemy je naprzód dla poszczególnych zdarze« elementarnych w nast¦puj¡cy sposób:
ROZDZIA 2. PRAWDOPODOBIESTWO
20
Tab. 1.
!i f1,1g : : : f6,6g f1,2g : : : f1,6g f2,3g : : : f2,6g : : : f5,6g
:::
:::
:::
:::
P (!i)
1
1
2
2
2
2
2
36
36
36
36
36
36
36
Tak zadane prawdopodobie«stwo speªnia warunki (2.1), poniewa»
P (!i) 0; i = 1; 2; : : : ; 21 oraz
X
21
i
=1
1 + 15 2 = 1:
P (!i) = 6 36
36
Rozwa»ane zdarzenie A tworz¡ nast¦puj¡ce zdarzenia elementarne: f5; 5g; f6; 6g oraz
f5; 6g; a zatem zgodnie ze wzorem (2.2) jego prawdopodobie«stwo wynosi
1 + 2 = 1:
P (A) = 2 36
36 9
Nietrudno zauwa»y¢, »e odpowiednio zmodykowana denicja 2.1.1 mo»e by¢ równie»
stosowana w przypadku przeliczalnej przestrzeni zdarze«.
Przykªad 2.1.3. Rozwa»my do±wiadczenie losowe polegaj¡ce na rzucaniu symetryczn¡ monet¡ do momentu pierwszego pojawienia si¦ orªa. Zdarzeniem elementarnym jest tu wi¦c numer rzutu, w którym po raz pierwszy wypadnie orzeª, a przestrze«
mo»emy przedstawi¢ jako:
= f! ; ! ; : : :g = f1; 2; : : :; g:
1
2
Prawdopodobie«stwo zdarze« elementarnych okre±lamy nast¦puj¡co:
P (!i) = P (i) = 21i ; i = 1; 2; : : : ;
a dla dowolnego zdarzenia A zgodnie ze wzorem (2.2). atwo wida¢,»e
1
1 1
X
X
P (!i) 0; i = 1; 2; : : : ; oraz
P (!i) = 2i = 12 1 1 = 1:
i
i
1
=1
=1
2
Jest to przykªad prawdopodobie«stwa dyskretnego niesko«czonego.
W przeciwie«stwie do powy»szych przykªadów wielu zagadnieniom praktycznym
nie odpowiada model pozwalaj¡cy zastosowa¢ denicj¦ 2.1.1, przede wszystkim z powodu wi¦kszej ni» przeliczalna liczebno±ci przestrzeni zdarze«. Przykªady przedstawione s¡ przy ko«cu tego paragrafu. Podamy wi¦c teraz ogóln¡ denicj¦ prawdopodobie«stwa nie podlegaj¡c¡ tym ograniczeniom, zachowuj¡c¡ jednak naturalne wªasno±ci
2.1. DEFINICJE I PODSTAWOWE WASNOCI
21
1 { 3 prawdopodobie«stwa okre±lonego wzorem (2.2). Do jej wysªowienia potrzebne
b¦dzie poj¦cie -ciaªa odnosz¡ce si¦ do rodziny podzbiorów przestrzeni zdarze«.
Denicja 2.1.2. Niepust¡ rodzin¦ F podzbiorów zbioru speªniaj¡c¡ warunki
(i) je±li A 2 F ; to A0 2 F ;
(ii) je±li An 2 F ; n = 1; 2; : : : ; to S1
n An 2 F
nazywamy -ciaªem.
Jest to wi¦c niepusta rodzina zbiorów (zdarze«) zamkni¦ta na branie dopeªnie« i niesko«czonych sum. Warto tu jeszcze nadmieni¢, »e w przypadku sko«czonego zbioru
zazwyczaj rozwa»anym -ciaªem jest rodzina wszystkich jego podzbiorów.
Denicja 2.1.3. Funkcj¦ rzeczywist¡ P okre±lon¡ na podzbiorach przestrzeni zdarze« tworz¡cych -ciaªo F , maj¡c¡ wªasno±ci
(P1) P (A) 0,
(P2) je±li Ai \ Aj = ;; i 6= j; to
P(
1
[
n
An) =
=1
1
X
n
P (An);
=1
(P3) P (
) = 1
nazywamy prawdopodobie«stwem.
Trójk¦ (
; F ; P ) nazywamy przestrzeni¡ probabilistyczn¡, a wªasno±ci (P1) {
(P3) aksjomatami prawdopodobie«stwa. Rozpoznajemy, »e pierwszy i ostatni
pokrywaj¡ si¦ z analogicznymi wªasno±ciami prawdopodobie«stwa danego wzorem
(2.2) i oznaczaj¡ odpowiednio, »e prawdopodobie«stwo jest funkcj¡ nieujemn¡ oraz
»e jej warto±¢ na przestrzeni zdarze« elementarnych wynosi 1. Drugi z aksjomatów,
zwany warunkiem przeliczalnej addytywno±ci, mówi o tym, »e na zdarzeniach
parami wykluczaj¡cych si¦ prawdopodobie«stwo sumy niesko«czonego ci¡gu zdarze«
jest równe sumie prawdopodobie«stw tych zdarze«. Jego szczególnym przypadkiem
(P2') jest wªasno±¢ 2 poprzednio zdeniowanego prawdopodobie«stwa zwana sko«czon¡ addytywno±ci¡. Odnosi si¦ bowiem do sko«czonego ci¡gu zdarze«:
(P2') je±li Ai \ Aj = ;; i 6= j = 1; 2; : : : ; N; N < 1; to
N
[
P(
n
=1
An) =
N
X
n
P (An):
=1
Zauwa»my, »e warunek (P2') otrzymujemy z (P2) przyjmuj¡c An = ;; n = N +1; : : : ,
co w poª¡czeniu z poprzednimi spostrze»eniami dowodzi prawdziwo±ci nast¦puj¡cego
ROZDZIA 2. PRAWDOPODOBIESTWO
22
stwierdzenia dotycz¡cego relacji obu denicji prawdopodobie«stwa.
Uwaga 2.1.4. Funkcja dana wzorem (2.2) speªnia aksjomaty (P1), (P2) i (P3). Innymi sªowy, jest przykªadem prawdopodobie«stwa okre±lonego w denicji 2.1.3.
Przedstawimy teraz najwa»niejsze wªasno±ci prawdopodobie«stwa wynikaj¡ce z aksjomatów (P1) { (P3).
Je±li A B; to P (A) P (B );
(monotoniczno±¢)
P (A0) = 1 P (A);
P (A) 1;
P (A [ B ) = P (A) + P (B ) P (A \ B );
n
[
n
X
i
i
P ( Ai) Dowody.
=1
P (Ai) (nierówno±¢ Boole'a).
(2.4)
(2.5)
(2.6)
(2.7)
(2.8)
=1
(i) Je±li A B , to B = A [ (B n A), przy czym zdarzenia A oraz B n A wykluczaj¡ si¦.
St¡d na mocy sko«czonej addytywno±ci (aksjomat (P2')) P (B ) = P (A) + P (B n A).
Bior¡c z kolei pod uwag¦ postulat (P1), widzimy, »e P (B n A) 0, czyli
P (B ) P (A) = P (B n A) 0;
(2.9)
co jest równowa»ne nierówno±ci (2.4).
(ii) Równo±¢ (2.5) wynika bezpo±rednio z równo±ci we wzorze (2.9), je±li przyjmiemy
B = oraz skorzystamy z aksjomatu (P3).
(iii) Nierówno±¢ (2.6) jest szczególnym przypadkiem (2.4), je±li przyjmiemy B = oraz skorzystamy z tego, »e P (
) = 1.
(iv) Zauwa»my, »e dla dowolnych zdarze« A oraz B , ich sum¦ mo»emy przedstawi¢ w
nast¦puj¡cy sposób
A [ B = A [ (B n (A \ B ));
przy czym zdarzenia A oraz B n (A \ B ) wykluczaj¡ si¦. Na mocy (P2') i (2.9) zachodzi
P (A [ B ) = P (A) + P (B n (A \ B )) = P (A) + P (B ) P (A \ B );
poniewa» A \ B B . Prawdziwa jest zatem równo±¢ (2.7).
(v) Nierówno±¢ (2.8) udowodnimy metod¡ indukcji zupeªnej.
2.1. DEFINICJE I PODSTAWOWE WASNOCI
23
Dla n = 2 wynika ona bezpo±rednio z (2.7) oraz tego, »e P (A \ B ) 0.
Zakªadaj¡c prawdziwo±¢ nierówno±ci dla n, zauwa»my, »e na mocy prawa ª¡czno±ci
dodawania zdarze« (1.3) i ponownie wzoru (2.7) mamy
n[
P(
+1
i
n
[
n
[
Ai) = P ( Ai) + P (An ) P (( Ai) \ An ):
+1
i
=1
=1
+1
i
=1
Prawdziwo±¢ tezy dla n + 1 otrzymujemy z zaªo»enia indukcyjnego oraz tego, »e
wyra»enie P ((Sni Ai) \ An ) jest nieujemne.
=1
+1
Podamy teraz zapowiedziane przykªady modeli losowych, w których nie mo»na
okre±li¢ prawdopodobie«stwa wedªug denicji 2.1.1.
Przykªad 2.1.4.
(a) Rozwa»my przestrze« zdarze« elementarnych postaci
= fpunkty koªa K (0; 5) o ±rodku w (0,0) i promieniu 5g
= f(x; y) : x + y 25g:
2
2
Dla A dowolnego podzbioru K (0; 5), dla którego okre±lone jest pole S (A), prawdopodobie«stwo deniujemy jako
P (A) = S (KS ((0A;)5)) :
Jest to tzw. prawdopodobie«stwo geometryczne.
(b) Jako konkretny przykªad modelu z prawdopodobie«stwem geometrycznym rozwa»my nast¦puj¡ce zadanie o spotkaniu. Dwie osoby A i B przychodz¡ w okre±lone
miejsce, ka»da w dowolnej chwili mi¦dzy godzin¡ 10 a 10 . Obliczmy prawdopodobie«stwo tego, »e czas od momentu pojawienia si¦ pierwszej z nich do przybycia
drugiej nie b¦dzie dªu»szy ni» 10 minut.
Sformalizujemy rozwa»an¡ sytuacj¦ nast¦puj¡co:
30
= f! = (x; y) : 0 x; y 30g;
co oznacza, »e zdarzeniem elementarnym jest punkt kwadratu, którego wspóªrz¦dne
x; y okre±laj¡ chwile przybycia osób A i B , odpowiednio. Rozpatrywane zdarzenie C
zapisujemy jako
C = f! 2 : jx yj 10g
ROZDZIA 2. PRAWDOPODOBIESTWO
24
i zgodnie z przyj¦t¡ denicj¡ prawdopodobie«stwa geometrycznego obliczamy
C) = 5 :
P (C ) = SS((
)
9
(c) Niech teraz = < = fx : 1 < x < 1g; a f b¦dzie funkcj¡ rzeczywist¡ tak¡, »e
f (x) 0; x 2 <;
R1
1 f (x)dx = 1:
Dla A dowolnego podzbioru <, dla którego caªka jest okre±lona, prawdopodobie«stwo
deniujemy jako
Z
P (A) = f (x)dx:
A
Aksjomaty (P1) { (P3) dla P (A) sprawdzamy, wykorzystuj¡c odpowiednio wªasno±ci pola i caªki. Zauwa»my tak»e, »e prawdopodobie«stwo okre±lone jako caªka jest
uogólnieniem poj¦cia prawdopodobie«stwa geometrycznego z punktu (a).
2.2 Prawdopodobie«stwo warunkowe
Rozwa»my do±wiadczenie losowe i zwi¡zan¡ z nim przestrze« probabilistyczn¡
(
; F ; P ). Je±li interesuj¡ nas wyniki do±wiadczenia nale»¡ce do ustalonego podzbioru
B przestrzeni , dla którego P (B ) > 0, to mo»emy zredukowa¢ wyj±ciow¡ przestrze«
probabilistyczn¡ do przestrzeni (B; FB ; P (jB )); gdzie FB = fA \ B; A 2 Fg oraz
\ B) ;
P (AjB ) = P (PA(B
)
A 2 F:
(2.10)
Wyra»enie dane wzorem (2.10) nazywamy warunkowym prawdopodobie«stwem
zdarzenia A pod warunkiem, »e zaszªo zdarzenie B lub krócej prawdopodobie«stwem A pod warunkiem B .
Przykªad 2.2.1. Rozwa»my rodziny maj¡ce trójk¦ dzieci. Je±li oznaczymy przez c
chªopca, a przez d dziewczynk¦, to mo»liwe potomstwo takich rodzin daje zbiór
= f(c; c; c); (c; c; d); (c; d; c); (d; c; c); (c; d; d); (d; c; d); (d; d; c); (d; d; d)g.
Tak wi¦c j
j = 8 i przyjmujemy, »e zdarzenia elementarne s¡ jednakowo prawdopodobne. Przypu±¢my, »e w losowo wybranej rodzinie najstarszy jest syn (zdarzenie S ).
Odpowiedzmy na pytanie, jakie jest prawdopodobie«stwo, »e najmªodszym dzieckiem
2.2. PRAWDOPODOBIESTWO WARUNKOWE
25
jest dziewczynka (zdarzenie D)?
Rozwa»my now¡ przestrze« zdarze« elementarnych S = f(c; c; c); (c; c; d); (c; d; c);
(c; d; d)g i jej podzbiór { zdarzenie DS = f(c; c; d); (c; d; d)g: Zgodnie ze wzorem (2.3)
Sj = 2 = 1 :
P (DS ) = jD
jS j 4 2
T¦ sam¡ odpowied¹ otrzymamy korzystaj¡c ze wzoru (2.10). Rzeczywi±cie, mamy
wtedy
P (DjS ) = P (PD(S\)S ) = = 12 :
2
8
4
8
Wró¢my do równo±ci (2.10) deniuj¡cej prawdopodobie«stwo warunkowe. Zapisana w równowa»nej postaci daje wzór na prawdopodobie«stwo iloczynu zdarze«
A oraz B
P (A \ B ) = P (AjB ) P (B ); o ile P (B ) > 0;
(2.11)
który uogólnimy dla dowolnych n zdarze«.
Twierdzenie 2.2.1. Je±li P (A \ : : : \ An ) > 0, to
1
1
P (A \: : :\An ) = P (AnjA \: : :\An )P (An jA \: : : \An ): : :P (A jA )P (A ):
(2.12)
Dowód przeprowadzimy metod¡ indukcji zupeªnej. Dla n = 2 jest to wzór (2.11).
Zaªó»my, »e wzór (2.12) zachodzi dla n. Stosuj¡c prawo przemienno±ci mno»enia zbiorów (1.2), wzór (2.11) dla A = An i B = A \ : : : \ An oraz zaªo»enie indukcyjne,
otrzymujemy
1
1
1
1
+1
1
2
2
1
1
1
P (A \ : : : \ An \ An ) = P (An jA \ : : : \ An ) P (A \ : : : \ An)
=P (An jA \ : : : \ An) P (AnjA \ : : : \ An ) : : : P (A jA ) P (A );
1
+1
+1
1
+1
1
1
1
1
2
1
1
czyli wzór (2.12) dla n + 1:
Zaªó»my teraz, »e przestrze« daje si¦ przedstawi¢ w postaci
= Sni Bi; P (Bi) > 0; Bi \ Bj = ;; i 6= j:
=1
O ci¡gu zdarze« fBi; i = 1; : : : ; ng mówimy, »e tworzy rozbicie (ukªad zupeªny)
przestrzeni . Poj¦cia tego u»yjemy do wysªowienia dwóch nast¦pnych twierdze«.
Równo±¢ w pierwszym nosi nazw¦ wzoru na prawdopodobie«stwo caªkowite.
ROZDZIA 2. PRAWDOPODOBIESTWO
26
Twierdzenie 2.2.2. Je±li ci¡g zdarze« fBi; i = 1; : : : ; ng tworzy rozbicie przestrzeni
, to dla dowolnego zdarzenia A 2 F zachodzi równo±¢
P (A) =
n
X
i
P (AjBi) P (Bi):
(2.13)
=1
Dowód. Dla dowolnego zdarzenia A sprawdzamy ci¡g równo±ci
P (A) = P (A \ ) = P (A \ Sni Bi) = P (Sni (A \ Bi))
= Pni P (A \ Bi) = Pni P (AjBi) P (Bi):
=1
=1
=1
=1
Trzeci¡ równo±¢ uzasadnia prawo rozdzielno±ci mno»enia wzgl¦dem dodawania zdarze« (1.5), czwart¡ { postulat (P2'), tzn. sko«czona addytywno±¢ prawdopodobie«stwa, pi¡t¡ { relacja (2.11).
Przykªad 2.2.2. W hotelu znajduj¡ si¦ dwie windy I i II, przy czym I dziaªa (zdarzenie A) z prawdopodobie«stwem , II dziaªa (zdarzenia B ) z prawdopodobie«stwem
, a je±li nie dziaªa II, to I nie jest zepsuta z prawdopodobie«stwem :
Z powy»szej tre±ci wynika, »e
P (A) = , P (A0) = , P (B ) = , P (B 0) = oraz P (AjB 0) = :
Rozwa»my nast¦puj¡ce pytania:
Jakie jest prawdopodobie«stwo, »e dziaªa II, gdy I jest zepsuta?
Jakie jest prawdopodobie«stwo, »e dziaªa co najmniej jedna z wind?
Odpowied¹ na pierwsze pytanie daje ci¡g nast¦puj¡cych równo±ci: (porównaj rys. 1)
1
2
1
1
3
2
1
1
1
2
1
2
2
3
3
2
P (B jA0) = P PBA\A0 0 = P B P PA0A\B
P B P A P A\B0 = P B P A P AjB0 P B0
P A0
P A0
1
1 12
3
2 2 3
(
)
(
(
)
[
(
)
(
[
1
2
]
(
)
= :
1
3
)]
(
)
(
)
(
(
)
[
(
)
(
(
)
)
)
)
(
)]
=
=
........................................
.........
....
.......
...
......
..
.....
.....
.
.
.
.
.
.
..
....
.
.
...
.
....
..
.
.
.
.
...
....
.
.
.
.
...
....................................
....
.......... ...
....
....
........
..
.
.....
.....
...
...
......
.....
.
..
.....
.....
.
.
.
.
.
.
.
.
.
.
.
.
..
.
..
..
...
......
.....
...
....
......
....
..
.........
........
....
................................
...
.
....
....
...
.
.
.
.
.
....
..
.....
..
....
..
....
..
.....
..
......
.
..
.
.
.
.
..
....
......
........
....................................
A0 \ B
A\B
A \ B0
Rys. 1.
W drugim pytaniu chodzi o P (A [ B ). Korzystaj¡c z przedstawienia sumy A [ B przez
zdarzenia wykluczaj¡ce si¦, mamy
P (A [ B ) = P (B ) + P (A \ B 0) = 31 + 13 = 23 :
Przykªad 2.2.3. Student doje»d»a na zaj¦cia rowerem (zdarzenie R) raz na dwa dni,
autobusem (zdarzenie A) raz na trzy dni oraz tramwajem (zdarzenie T ) raz na sze±¢
2.2. PRAWDOPODOBIESTWO WARUNKOWE
27
dni. Je±li jedzie rowerem, spó¹nia si¦ raz na 60 przypadków, je±li autobusem { raz na 20
przypadków, je±li tramwajem { raz na 10 przypadków. Jakie jest prawdopodobie«stwo
spó¹nienia si¦ studenta (zdarzenie S )?
Informacje zawarte w tre±ci przykªadu piszemy w postaci
P (S jR) = ; P (S jA) = ; P (S jT ) = :
P (R) = ; P (A) = ; P (T ) = ;
Korzystaj¡c ze wzoru na prawdopodobie«stwo caªkowite (2.13), otrzymujemy
1
1
1
1
1
1
2
3
6
60
20
10
P (S ) = P (S jR) P (R) + P (S jA) P (A) + P (S jT ) P (T )
= + + = :
1
1
1
1
1
1
1
60
2
20
3
10
6
24
Wzór na prawdopodobie«stwo caªkowite ma swoj¡ przejrzyst¡ ilustracj¦ graczn¡,
zwan¡ drzewem modelu. Dla rozwa»anego przykªadu otrzymujemy je nast¦puj¡co
(patrz rys. 2). Z wierzchoªka drzewa prowadzimy trzy \gaª¦zie" oznaczaj¡ce kolejno
mo»liwo±ci dojazdu studenta na uczelni¦. Zaznaczamy je odpowiednio literami R; A
oraz T , oznaczaj¡cymi rozwa»ane w zadaniu zdarzenia. Ka»de z nich stanowi warunek,
przy którym student mo»e albo zd¡»y¢ na zaj¦cia (Z ) albo si¦ spó¹ni¢ (S ). Odnotowujemy te dwie mo»liwe sytuacje zaznaczaj¡c na drzewie stochastycznym nast¦pne
\pi¦tro gaª¦zi" i podpisuj¡c ka»d¡ z nich odpowiednio Z lub S .
1
2 ........
R
1
..
60 ...
..
..
...
.
......
....
S
..
..
.
..
..
....
.. ....
...........
..
.....
..
.....
..
.....
.
......
..
.....
.r
...
.....
.
......
.
.
.
.
.
......
..
.....
.
.
...
.
.
.
.....
.
...
.....
.
.
...
.
1 ...
1
.....
...
......
3 ....
6
..
.
......
.
..
......
.
.
..
.
.
.
...... .
...
.. ...
.......
.........
.
...
.....
...
.....
A
.
....
.. ....
..
..
..
..
..
..
..
..
...
..
..
..
..
...
..
..
..
..
..
..
.
.........
....
1
..
20 ...
..
..
...
.
........
...
Z
S
..
..
.
..
..
.
....
.. ....
..
..
...
..
..
..
..
..
..
..
..
..
..
...
..
..
..
..
..
..
.
.........
....
Z
1
.
10 ....
.
..
..
.....
.....
...
S
..
..
.
..
..
T
.
....
.. .....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.. .
..........
.
.....
Z
Rys. 2.
Przerywana kreska pokazuje wszystkie mo»liwo±ci zrealizowania zdarzenia S . Uwzgl¦dniaj¡c zaznaczone na diagramie prawdopodobie«stwa bezwarunkowe ; ; oraz prawdopodobie«stwa warunkowe ; ; ; odczytujemy, »e zdarzenie S zachodzi z prawdopodobie«stwem
1 1+ 1 1+ 1 1= 1:
60 2 20 3 10 6 24
1
1
1
60
20
10
1
1
1
2
3
6
ROZDZIA 2. PRAWDOPODOBIESTWO
28
Z poj¦ciem warunkowego prawdopodobie«stwa wi¡»e si¦ tak»e wzór Bayesa.
Podamy go w zapowiedzianym ju» twierdzeniu.
Twierdzenie 2.2.3. Przy zaªo»eniach poprzedniego twierdzenia 2.2.2 dla dowolnego
zdarzenia A 2 F takiego, »e P (A) > 0 zachodzi równo±¢
P (BijA) = PnP (PAj(BAij)B P) (PB(i)B ) ;
i
=1
i
i = 1; : : : ; n:
i
(2.14)
Dowód. Na mocy wzorów (2.10) i (2.11) oraz twierdzenia 2.2.2 otrzymujemy
P (BijA) = P (PB(i A\)A) = P (PA(\A)Bi) = PnP (PAj(BAij)B P) (PB(i)B ) ;
i
i
i
=1
czyli tez¦ twierdzenia.
Wzór (2.14) nosi równie» nazw¦ wzoru na prawdopodobie«stwo przyczyny.
Miano to uzasadniaj¡ nast¦puj¡ce przykªady.
Przykªad 2.2.4. Badaj¡c chorego, lekarz nie mo»e postawi¢ jednoznacznej diagnozy.
Zaobserwowane objawy mog¡ by¢ bowiem wynikiem pewnej gro¹nej choroby, mog¡
te» by¢ jednak spowodowane innymi przej±ciowymi czynnikami. Wiadomo, »e podejrzewana choroba wyst¦puje w populacji, z której pochodzi pacjent, z prawdopodooraz powoduje zaobserwowane zmiany z prawdopodobie«stwem : Z
bie«stwem
innych powodów wyst¦puj¡ one przeci¦tnie jeden raz na sto przypadków. Obliczmy
prawdopodobie«stwo, »e badany pacjent zapadª na podejrzewan¡ chorob¦.
Zadanie nasze polega wi¦c na znalezieniu prawdopodobie«stwa przyczyny (choroba)
pod warunkiem, »e zaobserwowali±my jej skutek (okre±lone symptomy). Zapisuj¡c
odpowiednio przez C oraz S zdarzenia oznaczaj¡ce chorob¦ pacjenta oraz pojawienie
si¦ u niego okre±lonych objawów, mo»emy przyj¡¢:
P (C ) = ; P (C 0) = ; P (S jC ) = ; P (S jC 0) = :
Zastosowanie wzoru (2.14) w postaci
1
4
1000
5
1
999
4
1
1000
1000
5
100
80 = 0:074
= 1079
P (C jS ) = P (S jC ) PP ((CS j)C+) PP(S(CjC) 0) P (C 0) = + pozwala nam stwierdzi¢, »e jedynie z prawdopodobie«stwem 0.074 zaobserwowane
objawy wskazuj¡ na ow¡ gro¹n¡ chorob¦ .
Przykªad 2.2.5. W±ród studentów III roku przyst¦puj¡cych do egzaminu 25% jest
±wietnie przygotowanych (grupa A), poªowa przygotowaªa si¦ cz¦±ciowo (grupa B ),
pozostaªe 25% zna wymagany materiaª bardzo sªabo (grupa C ). Z grupy A zdaje
4
1
5
1000
4
1
1
999
5
1000
100
1000
2.3. NIEZALENO ZDARZE
29
ka»dy student, z grupy B { co drugi, z grupy C { co pi¡ty. Przypu±¢my, »e losowo
wskazany student nie zdaª egzaminu (zdarzenie Z 0). Obliczmy, z jakim prawdopodobie«stwem nale»y on do grupy B .
Pytamy zatem o prawdopodobie«stwo przyczyny (cz¦±ciowe przygotowanie), je±li zaobserwowali±my skutek (\oblanie" egzaminu), czyli pytamy o P (B jZ 0).
Z tre±ci przykªadu mamy P (A) = P (C ) = ; P (B ) = ; a korzystaj¡c z wynikaj¡cej
bezpo±rednio ze wzoru (2.10) równo±ci
P (Z 0jW ) = 1 P (Z jW );
otrzymujemy tak»e P (Z 0jA) = 0; P (Z 0jB ) = ; P (Z 0jC ) = :
Zatem stosuj¡c wzór (2.14), znajdujemy
P (B jZ 0) = P Z 0jA P A PP ZZ00jjBB PP BB P Z 0jC P C
1 1
= 12 221 2 45 41 = :
Odpowied¹ ta oznacza, »e w±ród studentów, którym nie powiodªo si¦ na egzaminie,
ci, którzy przygotowali si¦ tylko cz¦±ciowo, stanowi¡ wi¦cej ni» poªow¦, mianowicie .
Porównajmy, »e w±ród wszystkich studentów jest ich dokªadnie poªowa.
(
)
(
)+
1
1
4
2
1
4
2
5
(
)
(
)
(
)
(
)+
(
)
(
)
5
0+
9
+
5
9
2.3 Niezale»no±¢ zdarze«
Niech A; B 2 F b¦d¡ zdarzeniami takimi, »e
P (AjB ) = P (A);
tzn. prawdopodobie«stwo zaj±cia zdarzenia A pod warunkiem, »e zaszªo zdarzenie B ,
jest takie samo, jak bezwarunkowe prawdopodobie«stwo zdarzenia A: Inaczej mówi¡c,
zdarzenie B nie ma wpªywu na prawdopodobie«stwo zaj±cia zdarzenia A, czyli A jest
niezale»ne od B . Zgodnie ze wzorem (2.11) mo»emy przedstawi¢ powy»sz¡ równo±¢
jako
P (A \ B ) = P (A) P (B )
(2.15)
i przyjmujemy j¡ za denicj¦ niezale»no±ci dwóch zdarze« A; B:
Uogólniaj¡c, deniujemy niezale»no±¢ rodziny zdarze«.
Denicja 2.3.1. Niech C b¦dzie dowoln¡ rodzin¡ zdarze«. Je±li dla ka»dej sko«czonej
podrodziny fA ; : : : ; Ang zdarze« z C speªniony jest warunek
1
n
\
n
Y
i
i
P ( Ai) =
=1
=1
P (Ai);
(2.16)
ROZDZIA 2. PRAWDOPODOBIESTWO
30
to rodzin¦ t¦ nazywamy rodzin¡ zdarze« niezale»nych.
Nale»y tutaj podkre±li¢, »e niezale»no±¢ zdarze« okre±lona równo±ci¡ (2.16) jest wªasno±ci¡ silniejsz¡ ni» tzw. niezale»no±¢ parami zdarze« oznaczaj¡ca zachodzenie
dla ka»dej pary z rozpatrywanej rodziny zdarze« równo±ci (2.15). Pokazuje to tak»e
pierwszy z poni»szych przykªadów.
Przykªad 2.3.1. Niech = f! ; ! ; ! ; ! g, F oznacza rodzin¦ wszystkich podzbiorów oraz P (f!ig) = , i = 1; : : : ; 4: Rozwa»my zdarzenia
1
2
3
4
1
4
A = f! ; ! g;
1
2
B = f! ; ! g;
2
3
C = f! ; ! g:
3
1
Rodzina C = fA; B; C g nie jest rodzin¡ zdarze« niezale»nych, poniewa»
P (A \ B \ C ) = P (;) = 0 6= P (A) P (B ) P (C ) = ;
1
8
jakkolwiek ka»da para zdarze« jest par¡ zdarze« niezale»nych, na przykªad
P (A \ B ) = P (f! g) = = P (A) P (B ) = :
2
1
1
1
4
2
2
Przykªad 2.3.2. Je±li fA ; : : : ; Ak g stanowi rodzin¦ zdarze« niezale»nych, to rodzina
zdarze« przeciwnych fA0 ; : : : ; A0k g tak»e stanowi rodzin¦ zdarze« niezale»nych.
1
1
Dowód pozostawiamy jako ¢wiczenie.
Przykªad 2.3.3. Dwa miejsca A i B poª¡czone s¡ trzema ±cie»kami, na których jest
pi¦¢ mostów zwodzonych usytuowanych wedªug nast¦puj¡cego planu (patrz rys. 3):
0:2
0:2
.r
.r
.....
.....
....
....
.....
.....
..r
..............................................r
..............................................r
..r
..........................................................................................................................................................................................r
...r
..
..
..
..
..
.
.
..
..
..
..
..
.
..
..
..
.
..
.
...r
..
..
.
.
.
.
..
.
.....
.
.
..
.
.
.
.
..r
..............................................r
..................................................................................................................................................................r
..r
.............................................................................................................................................................................................r
.............................................r
..
.
..
..
..
..
..
.
..
..
.
..
..
..
..
..
.r
.r
..
..
.....
.....
..
..
.....
.....
..
..
....r
.....
.....
..r
..........................................................................................................................................................................................r
..r
..............................................r
..............................................r
0:4
A
B
0:1
0:5
Rys. 3.
Mosty podnoszone s¡ niezale»nie z prawdopodobie«stwami zaznaczonymi na planie.
Obliczmy prawdopodobie«stwo zdarzenia D; »e cho¢ jedna ±cie»ka jest przejezdna.
Oznaczmy przez Di zdarzenie, »e i-ta ±cie»ka jest przejezdna. Wtedy na mocy prawa
de Morgana (1.8)
P (D) = P (D [ D [ D ) = 1 P (D0 \ D0 \ D0 ):
1
2
3
1
2
3
2.4. ZADANIA
31
Z danych na planie i zaªo»onej niezale»no±ci mamy
P (D0 ) = 1 P (D ) = 1 (1 0:2) = 0:36;
P (D0 ) = 0:4;
P (D0 ) = 1 P (D ) = 1 (1 0:1) (1 0:5) = 0:55
2
1
1
2
3
3
i ostatecznie P (D) = 1 0:36 0:4 0:55 = 0:921:
Przykªad 2.3.4. Dwaj gracze rzucaj¡ na zmian¦ dwoma kostkami. Je±li gracz A,
który rozpoczyna gr¦, otrzyma sum¦ oczek równ¡ 6 przed uzyskaniem przez gracza
B sumy oczek równej 7, to wygrywa. Obliczmy prawdopodobie«stwo zdarzenia A
oznaczaj¡cego wygran¡ gracza A.
Wprowad¹my zdarzenia Bi , polegaj¡ce na tym, »e gra zako«czy si¦ w i tym rzucie,
i = 1; 3; 5; : : : : Na mocy wzoru na prawdopodobie«stwo caªkowite (2.13) mamy
P (A) =
X
i
P (A \ Bi):
Poniewa» zdarzenie A \ Bi oznacza, »e we wszystkich próbach o numerach mniejszych
ni» i zarówno gracz A, jak i B nie uzyskaª wymaganej sumy oczek i dopiero w i tym
rzucie suma oczek otrzymana przez gracza A wynosi 6, oraz wyniki poszczególnych
prób s¡ niezale»ne, wi¦c
Zatem
i 21
31
30
31
30
31
30
5
5
31
30
P (A \ Bi) = 36 36 36 36 : : : 36 36 36 = 36 36 36 :
1 31 30 k 30
X
5
P (A) = 36
= :
36 36
61
k
=0
2.4 Zadania
1. Pracownik wytwarza n elementów pewnego urz¡dzenia. Niech Ai; i = 1; 2; : : : ; n;
oznacza zdarzenie, »e i-ty element jest wadliwy. Za pomoc¡ wprowadzonych
zdarze« przedstaw zdarzenia oznaczaj¡ce, »e:
(a) »aden z elementów nie jest wadliwy,
(b) co najmniej jeden z elementów jest wadliwy,
(c) tylko jeden element jest wadliwy,
(d) dokªadnie dwa elementy s¡ wadliwe,
(e) co najwy»ej dwa elementy s¡ wadliwe.
ROZDZIA 2. PRAWDOPODOBIESTWO
32
2. Z urny zawieraj¡cej pi¦¢ kul biaªych, trzy pomara«czowe oraz dwie niebieskie
wyci¡gamy losowo dwie kule. Opisz przestrze« zdarze« elementarnych odpowiadaj¡c¡ temu do±wiadczeniu i oblicz prawdopodobie«stwo otrzymania zestawu
bez kuli biaªej.
3. Rzucamy trzema kostkami do gry. Oblicz prawdopodobie«stwo jednakowej liczby
oczek na dokªadnie dwóch kostkach.
4. Oblicz prawdopodobie«stwo, »e w±ród siedmiu losowo wybranych osób znajd¡
si¦ co najmniej dwie osoby, które urodziªy si¦ w tym samym dniu tygodnia.
5. Niech zdarzenia A; B; C oznaczaj¡ odpowiednio:
A { otrzymanie co najmniej jednej szóstki przy rzucie sze±cioma kostkami,
B { otrzymanie co najmniej dwóch szóstek przy rzucie dwunastoma kostkami,
C { otrzymanie co najmniej trzech szóstek przy rzucie osiemnastoma kostkami.
Sprawd¹, czy zdarzenia A; B; C s¡ jednakowo prawdopodobne.
6. Z urny zawieraj¡cej 16 kul czarnych i 2 biaªe losujemy m kul (bez zwracania).
Podaj najmniejsz¡ warto±¢ liczby m, dla której prawdopodobie«stwo otrzymania co najmniej raz kuli biaªej jest wi¦ksze od .
1
2
7. (Zadanie Banacha) Pewien matematyk nosi przy sobie dwa pudeªka zapaªek.
Ilekro¢ chce on zapali¢ papierosa, wyci¡ga pudeªko z losowo wybranej kieszeni.
Znajd¹ prawdopodobie«stwo, »e w chwili, gdy po raz pierwszy wyci¡gnie on
puste pudeªko, drugie b¦dzie zawieraªo r zapaªek, r = 0; 1; : : : ; n; n jest tu
liczb¡ zapaªek, znajduj¡cych si¦ na pocz¡tku w ka»dym z pudeªek.
8. Niech = f1; 2; 3; 4; 5g. Sprawd¹, czy nast¦puj¡ce rodziny podzbiorów :
(a) F = f;; ; f3gg,
(b) F = f;; ; f1; 2; 3g; f3; 4; 5gg
tworz¡ -ciaªa. Je±li nie, uzupeªnij je w sposób minimalny, aby otrzyma¢ -ciaªa.
1
2
9. Niech = [0; 2], F = f;; ; [0; 1]; (1; 2]g, F = f;; ; [0; ); [ ; 2]g: Sprawd¹,
czy rodziny F ; F ; F [ F tworz¡ -ciaªa.
1
1
2
2
1
1
1
2
2
2
10. Udowodnij nierówno±¢ Bonferroniego, »e dla dowolnych zdarze« A; B zachodzi P (A \ B ) P (A) + P (B ) 1:
2.4. ZADANIA
33
11. Maj¡c dane P (A) = ; P (B ) = ; P (A \ B ) = ; znajd¹ prawdopodobie«stwa:
P (A0); P (A0 [ B ); P (A [ B 0); P (A \ B 0 ); P (A0 [ B 0):
1
1
1
3
4
6
12. Podaj i udowodnij wzór na prawdopodobie«stwo sumy trzech dowolnych zdarze«.
13. Wiedz¡c, »e 50% studentów zaliczyªo wykªad A, 40% { wykªad B , 30% {wykªad
C , 35% { wykªady A i B , 20% { wykªady B i C , 25% { wykªady A i C oraz 15%
{ wszystkie trzy wykªady, podaj, ile procent studentów zaliczyªo co najmniej
jeden z wykªadów.
14. Udowodnij wªasno±¢ ci¡gªo±ci prawdopodobie«stwa:
je±li An An ; n = 1; 2; : : : ; oraz S1
n An = A; to limn!1 P (An) = P (A);
T1
je±li An An ; n = 1; 2; : : : ; oraz n An = A; to limn!1 P (An) = P (A):
+1
=1
+1
=1
15. Kawaªek drutu dªugo±ci 20 cm zgi¦to pod k¡tem prostym w losowo wzi¦tym
punkcie, a potem jeszcze w dwóch punktach tak, by utworzyªa si¦ ramka prostok¡tna o obwodzie 20 cm. Opisz przestrze« zdarze« elementarnych tego modelu
i oblicz prawdopodobie«stwo, »e pole obszaru ograniczonego ramk¡ nie przekroczy 21 cm :
2
16. Na pªaszczy¹nie poprowadzono proste równolegªe odlegªe o 2a: Na pªaszczyzn¦
t¦ rzucamy monet¦ o promieniu r a: Opisz przestrze« zdarze« elementarnych
tego modelu i oblicz prawdopodobie«stwo tego, »e »adna prosta nie przetnie
monety.
17. Kij o dªugo±ci 1 m podzielono losowo na trzy cz¦±ci. Oblicz prawdopodobie«stwo
tego, »e z tych cz¦±ci mo»na zbudowa¢ trójk¡t.
18. Reguªy ameryka«skiej gry CREPS s¡ nast¦puj¡ce. Gracz rzuca dwoma kostkami
i wygrywa ju» w pierwszym rzucie, je±li wypadnie suma oczek 7 lub 11; gracz
przegrywa, gdy suma ta b¦dzie równa 2; 3 lub 12; ka»dy inny wynik jest zapami¦tywany jako jego "oczko\. Przy zapami¦tanym wyniku pierwszego rzutu gracz
powtarza rzuty par¡ kostek a» do momentu, kiedy ponownie osi¡gnie "oczko\
(co oznacza wygran¡) lub pojawi si¦ suma oczek 7 (co oznacza przegran¡).
Oblicz prawdopodobie«stwo wygranej.
19. Profesor N podró»uje z Moskwy do Las Vegas, zmieniaj¡c samoloty w Pary»u i
Nowym Yorku. W ka»dym miejscu (nie licz¡c Las Vegas) jego baga» mo»e by¢
34
ROZDZIA 2. PRAWDOPODOBIESTWO
omyªkowo nadany na inny samolot z prawdopodobie«stwem p. Na lotnisku w Las
Vegas okazuje si¦, »e baga» profesora nie dotarª. Oblicz prawdopodobie«stwo,
»e pomyªk¦ popeªniono odpowiednio w Moskwie, Pary»u, Nowym Yorku.
20. W miasteczku uniwersyteckim znajduj¡ si¦ trzy biblioteki. W ka»dej z nich
poszukiwana przez studenta S ksi¡»ka znajduje si¦ z prawdopodobie«stwem
0:6, ale mo»e by¢ wypo»yczona przez kogo± innego z prawdopodobie«stwem
0:25: Podaj szanse studenta S na zdobycie tej ksi¡»ki.
21. Z dwu urn jedna jest pusta, a druga zawiera 4 ponumerowane kule. Z trzeciej, dodatkowej urny, losujemy ze zwracaniem kartki z numerami kul. Kul¦ o
wylosowanym numerze przekªadamy z jednej urny do drugiej. Oblicz prawdopodobie«stwo, »e po 4 losowaniach w obu urnach b¦d¡ po dwie kule.
22. Na egzaminie student losuje jedno spo±ród 10 pyta«. Opanowaª tylko jeden
temat. Na chwil¦ przed egzaminem jedno z pyta« gdzie± si¦ zawieruszyªo. Oce«,
czy szanse studenta zmalaªy. A gdyby umiaª odpowiedzie¢ na 5 pyta«, a zgubiªo
si¦ a» 8 pyta«?
23. List mo»e znajdowa¢ si¦ z jednakowym prawdopodobie«stwem w jednym z
trzech segregatorów. Prawdopodobie«stwo, »e przeszukuj¡c szybko i-ty segregator, znajdziemy list, je±li jest tam naprawd¦, wynosi pi. Oblicz prawdopodobie«stwo, »e list znajduje si¦ w drugim segregatorze, mimo, »e przegl¡daj¡c ten
segregator nie znale¹li±my listu.
24. Telegraczne przekazywanie informacji polega na wysyªaniu sygnaªów \0" albo
\1". Zaªó»my, »e przy wysyªaniu sygnaªu \0" przekªamanie nast¦puje w 2 przypadkach na 15, a przy wysyªaniu \1"- w 1 przypadku na 10. Wiedz¡c, »e otrzymano \0" oraz, »e stosunek liczby wysyªanych \0" do \1" jest równy 5 do 3,
oblicz prawdopodobie«stwo, »e wysªano \0".
25. W jednej szkatuªce s¡ 3 monety zªote i 1 srebrna, a w drugiej 2 zªote i 2 srebrne.
Masz prawo wybra¢ jedn¡ z tych szkatuªek, a przedtem mo»esz dokona¢ próbnego losowania 2 monet z jednej z nich. Wylosowaªe± dwie ró»ne monety. Któr¡
szkatuªk¦ wybierasz? Oce« prawdopodobie«stwo, »e Twój wybór jest trafny.
26. Trzech strzelców oddaªo po jednym strzale. Prawdopodobie«stwa trae« s¡
równe odpowiednio 0.6, 0.5, 0.4. Oblicz prawdopodobie«stwo, »e trzeci strze-
2.4. ZADANIA
35
lec traª, je±li cel zostaª traony
(a) jednym pociskiem,
(b) dwoma pociskami,
(c) trzema pociskami.
27. Wszystkie wyroby wchodz¡ce w skªad jednej z dwóch partii wyrobów s¡ dobrej
jako±ci, w drugiej z tych partii 25% to braki. Wyrób wylosowany z wybranej
losowo partii okazaª si¦ dobrej jako±ci. Oblicz prawdopodobie«stwo, »e drugi
wzi¦ty z tej samej partii b¦dzie wybrakowany, je±li pierwszy wyrób zostaª zwrócony po sprawdzeniu do swojej partii.
28. Spo±ród osób zasiadaj¡cych w zespole orzekaj¡cym dwaj czªonkowie poprawnie
oceniaj¡ sytuacj¦ z prawdopodobie«stwem p, a ich oceny s¡ niezale»ne (ocena
jest dychotomiczna: winny, niewinny). Trzeci czªonek komisji nie wnika w meritum sprawy i ocenia losowo rzucaj¡c monet¡ (winny, je±li wypadnie orzeª).
Orzeczenie komisji przechodzi wi¦kszo±ci¡ gªosów jej czªonków. T¦ komisj¦ proponuje si¦ zast¡pi¢ przez jednego tylko s¦dziego, który z prawdopodobie«stwem
p feruje orzeczenia zgodne z prawd¡. Zadecyduj, czy taka zmiana poprawia, czy
pogarsza rzetelno±¢ orzecze«, czyli porównaj prawdopodobie«stwa zgodnego z
prawd¡ orzeczenia niewinno±ci.
29. Zbadaj, który z fragmentów o±wietlenia choinkowego przedstawionych na rysunku 4 ma wi¦ksz¡ niezawodno±¢ (prawdopodobie«stwo dziaªania) przy zaªo»eniu, »e »arówki dziaªaj¡ niezale»nie i niezawodno±¢ ka»dej z nich wynosi p.
....
...
....
..... ...................................... ...................................... ................................
............................
.
.
.
... ...
... ...
... ..
.
.
.
.
.........
........
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........................
............................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... ................................... ......................................................
.
.
..................................................
... ...
.. ...
.........
........
...
....
..... .....
..... .....
............................
.
... ...............................
... ...............................
.
.
.
.
.........
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........................................................
.
.. ..
.
.
...............
.
... ..............................
.
.
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... ..................................... ...............................
.
.
.
............................
... ...
... ....
.........
.......
Rys. 4.
30. Udowodnij uwag¦ z przykªadu 2.3.2.
Rozdziaª 3
Zmienne losowe i ich rozkªady
3.1 Podstawowe denicje
Podamy teraz okre±lenie jednego z podstawowych poj¦¢ rachunku prawdopodobie«stwa, mianowicie zmiennej losowej. Obrazowo mówi¡c, jest to funkcja przyjmuj¡ca
warto±ci rzeczywiste w zale»no±ci od pewnego mechanizmu losowego. Dla przykªadu:
zmienn¡ losow¡ jest wysoko±¢ wygranej w loterii, liczba wypadków drogowych w czasie danego weekendu, suma wspóªrz¦dnych miejsca traenia na tarczy strzelniczej,
najwy»szy w ci¡gu miesi¡ca poziom rzeki w ustalonym miejscu jej biegu.
Formalne okre±lenie wykorzystuje poj¦cie przestrzeni probabilistycznej (
; F ; P ).
Denicja 3.1.1. Funkcj¦ X : (
; F ; P ) ! < speªniaj¡c¡ dla ka»dego a 2 < warunek
f! : X (!) ag 2 F
(3.1)
nazywamy zmienn¡ losow¡.
Zmienna losowa jest wi¦c funkcj¡ okre±lon¡ na przestrzeni probabilistycznej tak¡, »e
przeciwobrazy póªprostych ( 1; a] maj¡ okre±lone prawdopodobie«stwo (s¡ bowiem
elementami -ciaªa F ). Oznacza to, »e dla ka»dej warto±ci rzeczywistej a mo»emy
obliczy¢ prawdopodobie«stwo zdarzenia (a st¡d wszystkich innych zdarze« wyra»aj¡cych si¦ przez zdarzenia tej postaci), na którym zmienna losowa X przyjmuje warto±ci
nie wi¦ksze od a. Pami¦taj¡c, »e prawdopodobie«stwo dowolnego zdarzenia jest liczb¡
z przedziaªu [0; 1], widzimy, »e z ka»d¡ zmienn¡ losow¡ zwi¡zana jest pewna funkcja
rzeczywista o dziedzinie rzeczywistej.
Denicja 3.1.2. Niech X b¦dzie zmienn¡ losow¡ okre±lon¡ na (
; F ; P ): Funkcj¦
F : < ! [0; 1] dan¡ wzorem
F (x) = P (f! : X (!) xg)
(3.2)
36
3.1. PODSTAWOWE DEFINICJE
37
nazywamy dystrybuant¡ zmiennej losowej X .
Zazwyczaj stosuje si¦ skrócony zapis
F (x) = P (X x):
Dystrybuanta jest podstawowym narz¦dziem badania zmiennej losowej. Okre±la bowiem jej rozkªad, czyli zakres warto±ci i prawdopodobie«stwa, z jakimi s¡ one przyjmowane.
Wªasno±ci dystrybuanty poznamy nieco pó¹niej, naprzód celem zilustrowania powy»szych denicji rozwa»ymy kilka przykªadów zmiennych losowych.
Przykªad 3.1.1. Przypomnijmy omawiane w przykªadzie 2.1.1 do±wiadczenie losowe
polegaj¡ce na rzucie trzema ró»nymi kostkami. Przestrze« probabilistyczna zwi¡zana
z tym do±wiadczeniem jest postaci:
= f! = (x ; x ; x ) : xi = 1; 2; : : : ; 6; i = 1; 2; 3g;
F { wszystkie podzbiory ,
P (f!g) = 3 oraz dla dowolnego A 2 F : P (A) = 3 jAj:
Okre±lmy teraz
1
2
3
1
1
6
X (! ) = x ;
1
1
6
X (!) = x ;
2
2
X (!) = x :
3
3
(3.3)
Ka»da z tak okre±lonych funkcji jest zmienn¡ losow¡, poniewa» -ciaªo F zawiera
wszystkie podzbiory przestrzeni :
Przykªad 3.1.2. Rozwa»my do±wiadczenie polegaj¡ce na losowym wyborze punktu
z kwadratu K = [0; 1] [0; 1]: Przestrze« probabilistyczna odpowiadaj¡ca temu do±wiadczeniu jest postaci
= K = f! = (x; y) : x; y 2 [0; 1]g;
F { podzbiory A K , dla których okre±lone jest pole S (A),
P (A) = S (A), A 2 F .
Okre±lmy teraz
X (!) = x; Y (!) = y:
(3.4)
Obie te funkcje s¡ zmiennymi losowymi, poniewa» na przykªad dla X mamy
8
>
a0
< ;;
f! : X (!) ag = :> [0; a] [0; 1]; 0 a 1
;
a1
a zatem otrzymane zbiory s¡ elementami -ciaªa F :
Znajdziemy teraz dystrybuanty rozwa»anych wy»ej zmiennych losowych.
ROZDZIA 3. ZMIENNE LOSOWE I ICH ROZKADY
38
Przykªad 3.1.3. (Kontynuacja przykªadu 3.1.1). Zajmiemy si¦ dystrybuant¡ F (x)
1
zmiennej losowej X . Zgodnie ze wzorem (3.2) mamy
1
P (X x) =
1
8
>
>
>
>
>
>
>
>
<
>
>
>
>
>
>
>
>
:
0;
P (X
P (X
P (X
:::
P (X
x<1
1x<2
= 1) = 3 = ;
2x<3
= 1) + P (X = 2) = 3 = ;
= 1) + P (X = 2) + P (X = 3) = 3 = ; 3 x < 4
1
1 6 6
1
1
1
1
6
6
2 6 6
1
2
6
1
6
3 6 6
1
3
6
6
= 1) + P (X = 2) + : : : + P (X = 6) = 1;
1
1
x 6:
Dokªadnie takie same dystrybuanty maj¡ pozostaªe zmienne losowe okre±lone za pomoc¡ wzoru (3.3). Sprawdzenie tego pozostawiamy jako ¢wiczenie.
Przykªad 3.1.4. (Kontynuacja przykªadu 3.1.2). Wyznaczymy dystrybuant¦ pierwszej z okre±lonych zmiennych losowych. Otó»
0;
x<0
F (x) = P (X x) = > S ([0; x] [0; 1]) = x; 0 x < 1
:
S (K ) = 1;
x 1:
8
>
<
Zmienna losowa Y zadana wzorem (3.4) ma tak¡ sam¡ dystrybuant¦.
Widzimy, »e ta sama dystrybuanta mo»e odpowiada¢ dwom zmiennym losowym. Innymi sªowy, ró»ne modele losowe mog¡ prowadzi¢ poprzez ró»ne zmienne losowe do
tej samej dystrybuanty i tego samego rozkªadu prawdopodobie«stwa. Znaj¡c zatem
dystrybuant¦ (rozkªad) zmiennej losowej, mo»emy \zapomnie¢" o przestrzeni probabilistycznej, na której zostaªa okre±lona.
Poznamy teraz podstawowe wªasno±ci dystrybuanty.
Twierdzenie 3.1.3.
(a) Dystrybuanta F jest funkcj¡ niemalej¡c¡.
(b) Dystrybuanta F jest funkcj¡ prawostronnie ci¡gª¡.
(c) Istniej¡ granice limx! 1 F (x) = 0, limx!1 F (x) = 1.
Dowód.
(a) Zauwa»my, »e je±li x x , to fX x g fX x g: Korzystaj¡c wi¦c z
wªasno±ci monotoniczno±ci prawdopodobie«stwa (2.4) mamy F (x ) = P (X x ) P (X x ) = F (x ):
(b) Niech x 2 < oraz fn; n = 1; 2; : : : ; g b¦dzie nierosn¡cym ci¡giem liczb dodatnich
takich, »e limn!1 n = 0: Okre±lmy Cn = fX x + ng i zauwa»my, »e fCn; n =
1; 2; : : : ; g jest ci¡giem zdarze« takich, »e Cn Cn; n = 1; 2; : : : ; oraz Tn Cn =
1
2
1
2
1
2
2
+1
1
3.2. NIEZALENO ZMIENNYCH LOSOWYCH
39
fX xg. Na mocy ci¡gªo±ci prawdopodobie«stwa (zadanie 2.14) mamy wi¦c
F (x) = P (X x) = P ( Cn) = nlim
!1 P (X x + n ) = nlim
!1 F (x + n ):
\
n
(c) Poka»emy pierwsz¡ z równo±ci, drug¡ dowodzi si¦ analogicznie.
lim F (x) = x!lim1 P (X x) = nlim
!1 P (X x n) = P ( (X x n)) = P (;) = 0:
x! 1
\
n
Przy trzeciej z powy»szych równo±ci korzystamy ponownie z ci¡gªo±ci prawdopodobie«stwa.
3.2 Niezale»no±¢ zmiennych losowych
Poj¦cie niezale»no±ci zdarze« rozci¡ga si¦ w naturalny sposób na zmienne losowe.
Denicja 3.2.1. Niech H b¦dzie rodzin¡ zmiennych losowych okre±lonych na wspólnej przestrzeni probabilistycznej. Je±li dla dowolnej sko«czonej podrodziny fX ; : : : ; Xk g
H i dowolnych x ; : : : ; xk 2 < speªniony jest warunek
1
1
P (X x ; X x ; : : : ; Xk xk ) =
1
1
2
2
k
Y
i
P (Xi xi );
(3.5)
=1
to rodzin¦ H nazywamy rodzin¡ zmiennych losowych niezale»nych.
Zauwa»my, »e warunek (3.5) oznacza niezale»no±¢ rodziny zdarze« fA ; : : : ; Ak g powi¡zanych z rozwa»anymi zmiennymi losowymi relacjami Ai = fXi xig; i =
1; : : : ; k:
1
Wró¢my raz jeszcze do zmiennych losowych danych wzorem (3.4).
Przykªad 3.2.1. (Kontynuacja przykªadu 3.1.2). Poka»emy, »e zmienne losowe X; Y
s¡ niezale»ne. Rzeczywi±cie, dla dowolnych 0 u; v 1 zachodzi
P (X u; Y v) = S (f(x; y) : x u; y vg) = u v = P (X u) P (Y v):
3.3 Zmienne losowe dyskretne
W±ród zmiennych losowych wyró»niamy dwie podstawowe klasy: zmienne losowe
dyskretne oraz zmienne losowe z g¦sto±ci¡. Trzecim typem zmiennych losowych s¡
tzw. zmienne losowe singularne, maj¡ce przede wszystkim znaczenie teoretyczne wykraczj¡ce poza tematyk¦ tego skryptu.
ROZDZIA 3. ZMIENNE LOSOWE I ICH ROZKADY
40
W tym paragrae omówimy zmienne losowe dyskretne, rozpoczynaj¡c od podania
okre±lenia oraz przykªadów \przedstawicieli" tej klasy.
Denicja 3.3.1. Zmienn¡ losow¡ X : (
; F ; P ) ! fxn; n = 1; 2; : : :g nazywamy
zmienn¡ losow¡ dyskretn¡.
Jest to wi¦c zmienna losowa przyjmuj¡c¡ sko«czon¡ lub przeliczaln¡ liczb¦ warto±ci.
Niech
pn = P (f! : X (!) = xn g) = P (X = xn); n = 1; 2; : : : :
Ci¡g par f(xn; pn); n = 1; 2; : : :g nazywamy rozkªadem zmiennej losowej X .
Bezpo±rednio z tego okre±lenia wynika, »e pn 0; n = 1; 2; : : : ; oraz
X
n
pn =
X
n
[
P (X = xn) = P ( (X = xn)) = P (
) = 1;
n
(3.6)
przy czym w zale»no±ci od ci¡gu fxn; n = 1; 2; : : :g b¦d¡cego zbiorem warto±ci zmiennej losowej powy»sze sumy s¡ sko«czone b¡d¹ niesko«czone. Widzimy zatem, »e rozkªad ka»dej zmiennej losowej dyskretnej jest przykªadem prawdopodobie«stwa dyskretnego rozwa»anego w podrozdziale 2.1.
Ponadto
F (x) = P (X x) =
X
fn xxn g
:
P (X = x n ) =
X
fn xn xg
pn;
x 2 <:
:
To okre±la jednoznaczn¡ odpowiednio±¢ mi¦dzy rozkªadem a dystrybuant¡ zmiennej
losowej dyskretnej. Dystrybuanta zmiennej losowej dyskretnej jest funkcj¡ schodkow¡
maj¡c¡ skoki wielko±ci pn w punktach xn ; n = 1; 2; : : : (porównaj przykªad 3.1.3).
Dla zmiennych losowych dyskretnych warunek niezale»no±ci z denicji 3.2.1 sprowadza si¦ do nast¦puj¡cego:
P (X = x ; : : : ; Xn = xn ) = Qnk P (Xk = xk ); xk 2 <; k = 1; 2; : : : ; n: (3.5')
1
1
=1
Wprowadzimy teraz kilka najwa»niejszych zmiennych losowych dyskretnych.
Zmienna losowa X zero-jedynkowa (Bernoulliego) o rozkªadzie B(1; p) postaci
P (X = 1) = 1 P (X = 0) = p; 0 p 1:
(3.7)
Zmienn¡ losow¡ Bernoulliego mo»emy uwa»a¢ za indykator pewnego zdarzenia
A o prawdopodobie«stwie P (A) = p, czyli
(
! 2 A; czyli z prawdopodobie«stwem p
X (!) = 1A(!) = 10 dla
dla ! 62 A; czyli z prawdopodobie«stwem 1 p:
3.3. ZMIENNE LOSOWE DYSKRETNE
41
Zmienna losowa X dwumianowa o rozkªadzie B(n; p) postaci
pk = P (X = k) = nk pk (1 p)n k ; k = 0; 1; : : : ; n; 0 p 1: (3.8)
Zmienna losowa dwumianowa mo»e by¢ interpretowana jako liczba sukcesów w
n niezale»nych próbach, z których ka»da ko«czy si¦ albo \sukcesem" (z prawdopodobie«stwem p) albo \pora»k¡" (z prawdopodobie«stwem 1 p), czyli w
tzw. schemacie Bernoulliego.
!
Zmienna losowa X geometryczna o rozkªadzie G (p) postaci
pk = P (X = k) = p(1 p)k ;
1
k = 1; 2; : : : ; 0 < p 1:
(3.9)
Ta z kolei zmienna losowa jest interpretowana jako czas oczekiwania na pierwszy
sukces w schemacie Bernoulliego (pó¹niej wyja±nimy to dokªadniej).
Zmienna losowa X Poissona o rozkªadzie P () postaci
k
pk = P (X = k) = e k! ; k = 0; 1; : : : ; > 0:
(3.10)
Zmienna losowa o tym rozkªadzie wyst¦puje w praktyce jako liczba realizacji
tzw. zdarze« rzadkich. Jest ona tak»e (jak to pó¹niej poka»emy) liczb¡ sukcesów w schemacie Bernoulliego, gdy liczba prób ro±nie nieograniczenie, a prawdopodobie«stwo sukcesu maleje tak, »e ich iloczyn d¡»y do pewnej sko«czonej
warto±ci.
Zmienna losowa X hipergeometryczna o rozkªadzie H(M; N; n) postaci
P (X = k) =
M N
k n k
M N
n
+
;
k = 0; 1; : : : ; min (n; M ):
Zmienna losowa hipergeometryczna zwi¡zana jest z tzw. schematem urnowym i oznacza liczb¦ elementów jednego typu wyst¦puj¡cych w n-elementowej
próbie wylosowanej z urny zawieraj¡cej M elementów jednego typu oraz N
elementów drugiego typu.
Stwierdzenie, »e zmienna losowa X ma rozkªad L wygodnie jest zapisa¢ jako
X L:
ROZDZIA 3. ZMIENNE LOSOWE I ICH ROZKADY
42
Wyja±nimy teraz podane wy»ej interpretacje zmiennych losowych, dostrzegaj¡c
pewne zwi¡zki zachodz¡ce mi¦dzy nimi. I tak:
Zmienna losowa X dwumianowa mo»e by¢ przedstawiona jako
Sn = X + : : : + Xn;
(3.11)
1
gdzie zmienne losowe X ; : : : ; Xn s¡ niezale»ne i maj¡ rozkªad B(1; p) postaci (3.7).
Dokªadniej, obie zmienne losowe X oraz Sn maj¡ ten sam rozkªad dany wzorem (3.8).
Na mocy niezale»no±ci mamy bowiem
1
P (Sn = k) =
X
fi1 ;:::;ik g
P (Xi1 = 1; : : : ; Xik = 1; Xik+1 = 0; : : : ; Xin = 0)
=
= n pk (1 p)n k ;
k
fi1 ;:::;ik g
gdzie k = 0; 1; : : : ; n a sumowanie przebiega po wszystkich k-elementowych podzbiorach n-elementowego zbioru indeksów.
Podobnie, zmienna losowa X geometryczna ma taki sam rozkªad, jak zmienna losowa
T = inf fn : Xn = 1g, gdzie fXn; n = 1; 2; : : :g tworz¡ ci¡g niezale»nych zmiennych losowych o jednakowym rozkªadzie B(1; p). Werykuj¡c prawdziwo±¢ tego stwierdzenia,
otrzymujemy na mocy niezale»no±ci i wzoru (3.7)
X
pk (1
!
p)n k
P (T = k) = P (X = 0; : : : ; Xk = 0; Xk = 1) = (1 p)k p;
1
1
1
k = 1; 2; : : : :
Poznamy jeszcze w nast¦pnym twierdzeniu wa»n¡ wªasno±¢ zmiennej losowej geometrycznej, tzw. wªasno±¢ braku pami¦ci. Mo»na pokaza¢ (pozostawiamy to jako
zadanie), »e jest to wªasno±¢ charakteryzuj¡ca t¦ zmienn¡ w klasie zmiennych losowych dyskretnych. Inaczej mówi¡c, zmienna losowa geometryczna jest jedyn¡ w tej
klasie maj¡c¡ wªasno±¢ braku pami¦ci.
Twierdzenie 3.3.2. Dla zmiennej losowej T geometrycznej oraz ka»dego n zachodzi
0
P (T n + kjT > n ) = P (T k);
0
k = 1; 2; : : : :
0
Dowód. Dla k = 1; 2; : : : obliczymy naprzód
P (T k) = 1 P (T k 1) = 1
kX
1
i
=1
St¡d
(3.12)
kX
p(1 p)i = 1 1 p p (1 p)i = (1 p)k :
i
1
1
1
=1
n + k)
P (T n + kjT > n ) = P (T Pn(T +k;nT +1)n + 1) = PP ((TT n + 1)
0
0
0
0
0
0
0
3.4. ZMIENNE LOSOWE Z GSTOCI
43
= (1 p)k = P (T k);
co ko«czy dowód twierdzenia.
Wªasno±¢ braku pami¦ci zmiennej losowej geometrycznej staje si¦ zrozumiaªa w kontek±cie jej interpretacji zwi¡zanej ze schematem Bernoulliego. Ilustrujemy to opisem
konkretnej sytuacji.
Przykªad 3.3.1. Jeste±my w wysokich górach i czekamy na pogodny dzie«, by wej±¢
na najwy»szy w okolicy szczyt. Pogoda zmienia si¦ tu szybko, wi¦c zaªo»enie o niezale»no±ci stanu pogody w poszczególnych dniach wydaje si¦ uzasadnione. Je±li nasze
oczekiwania trwaj¡ ju» siedem dni, jakie jest prawdopodobie«stwo, »e przedªu»¡ si¦
jeszcze o co najmniej dwa dni? Przyjmijmy, »e o tej porze roku pogodny dzie« zdarza
si¦ przeci¦tnie raz na pi¦¢ dni.
Oznaczmy
(
i-ty dzie« jest sªoneczny,
Xi = 10;; gdy
i = 1; 2; : : : :
w przeciwnym razie;
Z podanych warunków mamy niezale»no±¢ zmiennych losowych Xi oraz P (Xi = 1) =
= 1 P (Xi = 0); i = 1; 2; : : : : Niech T 1 b¦dzie liczb¡ dni do pierwszego sªonecznego dnia. Nale»y obliczy¢ P (T 10jT > 7).
Posªu»my si¦ wspomnian¡ interpretacj¡ zmiennej losowej T . Skoro to, co b¦dzie dziaªo
si¦ jutro, nie zale»y od przeszªo±ci (co najmniej siedem dni deszczowych), to mo»emy zapomnie¢ o przeszªo±ci i rozpocz¡¢ oczekiwania \od nowa". Zatem odpowied¹
na nasze pytanie sprowadza si¦ do znalezienia bezwarunkowego prawdopodobie«stwa
P (T 3):
Obliczenie warunkowego prawdopodobie«stwa P (T 10jT > 7) wprost z denicji
(analogicznie, jak w dowodzie twierdzenia 3.3.2) prowadzi, rzecz jasna, do tego samego wyniku.
1
1
5
3.4 Zmienne losowe z g¦sto±ci¡
Jak ju» wspomnieli±my, drugim typem zmiennych losowych, którymi b¦dziemy
si¦ zajmowa¢, s¡ zmienne losowe z g¦sto±ci¡.
Denicja 3.4.1. Niech X b¦dzie zmienn¡ losow¡ o dystrybuancie F . Je±li istnieje
nieujemna funkcja f speªniaj¡ca dla ka»dego x 2 < warunek
F (x) =
Z
x
1
f (t) dt;
(3.13)
ROZDZIA 3. ZMIENNE LOSOWE I ICH ROZKADY
44
to o zmiennej losowej X mówimy, »e jej rozkªadem jest g¦sto±¢ f i nazywamy j¡
zmienn¡ losow¡ z g¦sto±ci¡.
Bezpo±rednio z powy»szej zale»no±ci otrzymujemy dla wszystkich poza by¢ mo»e sko«czon¡ lub przeliczaln¡ liczb¡ punktów x 2 < równo±¢
f (x) = F 0(x):
(3.14)
Podobnie wi¦c jak dla zmiennej losowej dyskretnej, istnieje wzajemna odpowiednio±¢
mi¦dzy dystrybuant¡ a rozkªadem zmiennej losowej z g¦sto±ci¡. Zauwa»my równie»,
»e z (3.13) wynika dla dowolnych a b
P (a < X b) = F (b) F (a) = ab f (x) dx;
R
(3.13')
a wi¦c powy»sze prawdopodobie«stwo jest polem obszaru mi¦dzy wykresem g¦sto±ci
f a odcinkiem [a; b] na prostej < oraz (porównaj (3.6) i przykªad 2.1.4 (c))
Z
Z x
1
f (t) dt = xlim
!1 1 f (t) dt = xlim
!1 F (x) = 1:
1
(3.15)
Do najwa»niejszych zmiennych losowych z g¦sto±ci¡ nale»¡:
Zmienna losowa X jednostajna na odcinku [a,b] o rozkªadzie U [a; b] z g¦sto±ci¡
axb
(3.16)
0; poza tym:
Zmienna losowa o tym rozkªadzie opisuje losowanie punktów z odcinka [a,b],
przy czym prawdopodobie«stwo, »e wylosowane punkty wypeªni¡ ustalony zbiór
A [a; b] jest proporcjonalne do pola tego zbioru i nie zale»y od jego poªo»enia
w odcinku [a,b].
f (x) =
(
b a;
1
Zmienna losowa X wykªadnicza o rozkªadzie E (); > 0 z g¦sto±ci¡
x
0
f (x) = e0; ; xpoza
(3.17)
tym:
(
Zmienna losowa wykªadnicza odpowiada czasowi oczekiwania na zjawiska rzadko
wyst¦puj¡ce, a jej rozkªad jest szczególnym przypadkiem rozkªadu gamma
(n; ); n = 1; 2; : : : ; > 0 z g¦sto±ci¡
f (x) =
(
(
n
n
1)!
xn e x; x 0
0;
poza tym:
1
(3:170)
3.4. ZMIENNE LOSOWE Z GSTOCI
45
Zmienna losowa X normalna o rozkªadzie N (m; ); m 2 <; > 0 z g¦sto±ci¡
2
f (x) = p1 expf (x 2m) g; x 2 <:
(3.18)
2
Jest to najcz¦±ciej spotykana w zastosowaniach zmienna losowa. Zgodnie z jej
rozkªadem ksztaªtuj¡ si¦ zazwyczaj wielko±ci zyczne, bª¦dy pomiarów, tak»e
cechy przyrodnicze zbiorowo±ci. O jej najwa»niejszym znaczeniu teoretycznym
b¦dzie mowa w rozdziale 5.
Zmienn¡ losow¡ X o rozkªadzie N (0; 1) nazywamy zmienn¡ losow¡ normaln¡
standardow¡.
2
2
Poka»emy dla przykªadu, »e funkcja dana wzorem (3.18) jest g¦sto±ci¡. Sprawdzenie tego dla funkcji danych wzorami (3.16) i (3.17) zostawiamy jako ¢wiczenie.
Nieujemno±¢ rozpatrywanej funkcji wynika bezpo±rednio z denicji, pozostaje wi¦c
do sprawdzenia warunek (3.15). Oznaczmy
I =
Z
2
1 1
p expf
1 2
(x m) g dx :
2
!2
2
2
Zatem
Z 1
(
x
m
)
1 expf (y m) g dy:
p
I =
g
dx
2
2
1 2
Stosuj¡c naprzód podstawienie
xp m = t;
yp m = s
2
2
i przechodz¡c nast¦pnie do wspóªrz¦dnych biegunowych
Z
2
1 1
p expf
1 2
2
2
2
2
t = r cos ';
s = r sin ';
' r sin ' = r;
dla którego to przeksztaªcenia jakobian jest postaci jJ j = cos
sin ' r cos ' mamy
Z 1 Z 1
Z Z 1
I = 1
e t2 s2 dtds = 1
re r2 drd'
1 1
Z Z 1
= 21
(e r2 )0 drd' = 1:
2
(
+
2
)
0
0
2
0
0
1 p expf
1 2
x m g dx = 1 (bowiem dla nieujemnej
St¡d otrzymujemy ju», »e I =
2
funkcji podcaªkowej rozwa»ana caªka nie mo»e by¢ równa 1):
R
1
2
(
)
2
ROZDZIA 3. ZMIENNE LOSOWE I ICH ROZKADY
46
Zgodnie ze wzorem (3.13) dystrybuant¦ zmiennej losowej otrzymujemy z jej g¦sto±ci przez caªkowanie. W przypadku zmiennej losowej jednostajnej lub wykªadniczej
nie nastr¦cza to trudno±ci. Inaczej jest, gdy interesuje nas dystrybuanta zmiennej
losowej normalnej o rozkªadzie N (m; ), czyli
2
F (x) =
Z
p1 expf (t 2m) g dt; x 2 <:
1 2
x
2
2
Tu nie mo»emy poda¢ jawnego wzoru na funkcj¦ F i dlatego rozkªad N (m; ) zostaª
stablicowany dla wybranej pary parametrów, mianowicie m = 0 i = 1. Okazuje si¦
bowiem, »e
je±li Y N (m; ); to X = Y m N (0; 1);
(3.19)
czyli ka»d¡ zmienn¡ losow¡ normaln¡ mo»emy wyrazi¢ poprzez \reprezentanta" tej
klasy, to jest zmienn¡ losow¡ normaln¡ standardow¡. Dowód relacji pozostawiamy
jako ¢wiczenie.
Przyjrzyjmy si¦ teraz tablicy rozkªadu N (0; 1) (patrz tab. 2).
Pierwsza od lewej pionowa kolumna zawiera warto±ci argumentu x 0 podane z
dokªadno±ci¡ do 0.1. Kolejne kolumny zajmuj¡ warto±ci funkcji
Z x
1
(3.20)
expf t2 g dt;
(x) = p
2
2
2
2
0
pomno»one przez 10 dla argumentu x zmieniaj¡cego si¦ co 0.01. Zauwa»my, »e warto±¢ funkcji w ustalonym punkcie x jest jako caªka oznaczona równa polu obszaru
ograniczonego wykresem g¦sto±ci, prost¡ x = x , osi¡ x-ów i osi¡ y-ów, jak to wida¢
na rysunku 5.
4
0
0
=
( )
.. y
....
f x
.
....
....
.
.
.....
...........
.
..... .
.
.
.
.
.
.
.
. .. .....
. . ....
....
.
..........
..
.
.
...
.
............
..
.
.
..
..
.........
.
..
.
.
.
.............
.
..
.
.
.
..
.
............
.
.
..
.
...............
.
..
.
.
.............
.....
.
..
.
.
..
. ....
.............
..
.
.
.
.
.............
. ....
.
.
...
.............
. ....
.
..
.
.
.
..
.
.............
.
..
...
.
.
.
.
...
.
.............
..
.
.
.
.
...
.
.............
.
.
.
...
...
.
.
.
.
....
.
.............
.
....
.
.
...
.
.
.............
....
.
...
.
.
.
.
.
....
.............
.....
.
....
.
.
.
.
.
.
.
......
.............
.
......
.
.
................................................................
.............................................
.
...................................................................................................
.
......
.
.
.
.
x0
x
.
.
.
.
0
Rys. 5.
Je±li przez (x) oznaczymy dystrybuant¦ zmiennej losowej normalnej standardowej,
to poniewa» g¦sto±¢ tej zmiennej losowej, czyli funkcja p expf t2 g, jest symetryczna, wi¦c
1
2
2
3.4. ZMIENNE LOSOWE Z GSTOCI
x
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
3.0
0.00
0000
0398
0793
1179
1554
1915
2257
2580
2881
3159
3413
3643
3849
4032
4192
4332
4452
4554
4641
4713
4772
4821
4861
4893
4918
4938
4953
4965
4974
4981
4987
0.01
0040
0438
0832
1217
1591
1950
2291
2611
2910
3186
3438
3665
3869
4049
4207
4345
4463
4564
4649
4719
4778
4826
4864
4896
4920
4940
4955
4966
4975
4982
4987
0.02
0080
0478
0871
1255
1628
1985
2324
2642
2939
3212
3461
3686
3888
4066
4222
4357
4474
4573
4656
4726
4783
4830
4868
4898
4922
4941
4956
4967
4976
4982
4987
0.03
0120
0517
0910
1293
1664
2019
2357
2673
2967
3238
3485
3708
3907
4082
4236
4370
4484
4582
4664
4732
4788
4834
4871
4901
4925
4943
4957
4968
4977
4983
4988
Tab. 2.
0.04
0160
0557
0948
1331
1700
2054
2389
2704
2995
3264
3508
3729
3925
4099
4251
4382
4495
4591
4671
4738
4793
4838
4875
4904
4927
4945
4959
4969
4977
4984
4988
47
0.05
0199
0596
0987
1368
1736
2088
2422
2734
3023
3289
3531
3749
3944
4115
4265
4394
4505
4599
4678
4744
4798
4842
4878
4906
4929
4946
4960
4970
4978
4984
4989
0.06
0239
0636
1026
1406
1772
2123
2454
2764
3051
3315
3554
3770
3962
4131
4279
4406
4515
4608
4686
4750
4803
4846
4881
4909
4931
4948
4961
4971
4979
4985
4989
0.07
0279
0675
1064
1443
1808
2157
2486
2794
3078
3340
3577
3790
3980
4147
4292
4418
4525
4616
4693
4756
4808
4850
4884
4911
4932
4949
4962
4972
4979
4985
4989
0.08
0319
0714
1103
1480
1844
2190
2517
2823
3106
3365
3599
3810
3997
4162
4306
4429
4535
4625
4699
4761
4812
4854
4887
4913
4934
4951
4963
4973
4980
4986
4990
0.09
0359
0753
1141
1517
1879
2224
2549
2852
3133
3389
3621
3830
4015
4177
4319
4441
4545
4633
4706
4767
4817
4857
4890
4916
4936
4952
4964
4974
4981
4986
4990
Z
(0) = p1
expf t2 g dt = 0:5;
2 1
a st¡d zwi¡zek mi¦dzy dystrybuant¡ (x) i funkcj¡ (x) przedstawia si¦ nast¦puj¡co:
(
x); x 0;
(x) = 00::55 + (
(3.21)
( x); x < 0:
0
2
ROZDZIA 3. ZMIENNE LOSOWE I ICH ROZKADY
48
Zilustrujemy teraz na kilku przykªadach, jak posªugiwa¢ si¦ tablic¡ rozkªadu
N (0; 1).
Przykªad 3.4.1 Niech X N (0; 1). Znajd¹my prawdopodobie«stwa:
p = P (X < 1:52);
p = P (X > 0:76);
p = P (X < 1:03);
p = P ( 1:07 < X < 2:07):
Wygodnie b¦dzie posªu»y¢ si¦ rysunkami. Prawdopodobie«stwa, które mamy obliczy¢, odpowiadaj¡ polom obszarów zaznaczonych na rysunkach 6 { 9, odpowiednio.
Stosuj¡c wzór (3.21), widzimy, »e
1
2
3
4
=
( )
....
y
f x
...
....
....
.
.
..
..........
........
.. ....
.
...... .
.
.
.
.
.. . ....
.
... . . .
.
... . . .
...
... ....
.... . . .
............
........ .
.
.. . . . .
.............
.
.......... .
.
.
.
.
.......
......
.
... ........ .
.. . ...........
... . . . . .
... . . . . .
.................
.
.. .......... .
.
.
.
.
.
........
.........
.... . . . . . .
.. . . ...........
.. ........... .
.
.. . . . . . . .
.............. ....
.
................. .
.
.
.
.
.
. . ..
.
.
.....................
.. . . . . . . . .
................. .
.. . . . . . . . ...
.
.... . . . . . . . .
.......................
.
... ................ .
.
.
.
.
.
. . . . ....
.
.
...................
..
................. . . .
.. . . . . . . . ..
. ......
.... . . . . . . ..... .
.
....
..... . . . . . . . . . .
...................
....
.
.......................... .
.
.
.
.
.
.
.
. . . ..
.
.....
.
...................
............................ .
......
.
.
.
.
.
.
.
.
... . . . . . . . . . . . . . .
.. . . . . . . . ..
.
.
. . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
...................................................................................................
............................................................................................................
.
.
.
.
x
.
:
.
.
0
1 52
Rys. 6.
p = 0:5 + (1:52) = 0:5 + 0:4357 = 0:9357;
1
=
( )
...
f x
....
....y
...
.
.
......
........
. .......
.... .
.
.
.
.
.
....
.
..
.
...
.
...
.
..
.
...
.
..
.
..
.
...
.
..
.
.
..
..
.
..
.
..
.
.
.
.....
.
.
..
.
.
.
. ...
.
.
.
..
.
.
.......
.
.
.
...
.
.
.
... ....
.
.
.
.
...
.........
.
.
.
..
.
.
.
..... ....
.
.
.
...
.
.
..........
.
.
.
..
.
.
...........
.
.
.
.
.
..
.
.
..............
.
.
.
...
.
.
..............
.
.
.
..
.
.
.
.
.................
.
.
.
.
....
.
.
.
.
...................
.
.
.
....
.
.
.
.
.
.......................
.
.
.
...
.
..
.
.
.
.
.
.
.
........................
....
.
.
.
.
...................................................................................
..............................
...................................................................................................
.
......
.
.
.
.
x
.
:
.
.
.
0 0 76
Rys. 7.
p = 1 (0:76) = 0:5 (0:76) = 0:5 0:2764 = 0:2236;
2
=
( )
.
.... y
f x
....
...
...
.
.
.
.........
.......
. .....
.... .
.
.
.
.
....
.
.
.
...
...
.
.
...
..
.
.
...
...
.
.
..
..
.
.
...
...
.
.
..
..
.
.
.
..
.
...
.
..
.
.
..
.
..
.
.
...
.
.
.
.
..
..
.
.
..
.
..
.
..
.
....
.
.
.
...
.
.
....
.
.
.
..
.
.
...
.
......
.
.
..
.
.
......
.
.
.
...
.
.
.
.
........
...
.
.
.
.
.
..
.
.
.
...
... ......
.
.
.
.
...
.
..........
.
.
.
.
....
.
.
..............
...
.
.
.
.
....
.
.
................
.
.
....
.
.
.
.
.
.....
.
..................
.
.
.
......
.
.
.
.
..... . . . . . . .
.
.
.
. . . . . . . ..
.........................................................................................................
.
....................................................................................................
.
...
.
.
.
.
x
:
.
.
.
1 03
0
Rys. 8.
p = ( 1:03) = 0:5 (1:03) = 0:5 0:3485 = 0:1515;
3
3.4. ZMIENNE LOSOWE Z GSTOCI
49
=
( )
.
f x
......y
....
.
...
.
..
..........
........
. . ....
.........
.
.
.
.
.
.
.
.... . .............
. . . ...
.... . . .
.
... . . ..
............
..........
. . . . ...
... . . . .
. . . ..
............
.
.
.............
.............
.
.
.
.. . . . ...
.
...............
..............
.
. . . . . ..
...............
.
.
.
. ...............
.
.. .............
. . . . . . ..................
...
.. . . . . . ....
.. ..............
. . . . . . ..
... .
.
.
.
.
.
.
.
.
.
.
. .................
. . . . . . ..
.. .
..............
.. . . . . . . ...
... .
......................
...
..............
. . . . . . . ..
.
...
.
.
.
.
.
.
.
.
.
.
. . . . . . .. ......................
.
.
.. . . . . . . . . ....
...
. . . . ..
.
.
.
..
...
.. . . . . .............................
.
....
..............
. . . . . . . . . . ..
....
.
.
.
.
.
.
.
.
.
.
.
.
. .........................
.
......
. . . . . . ..
.
.....
.
.........................
. ......
..............
......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. ..
.
.
............................
....................................................................................................
...............................................................................
...
.
.
.
.
x
.
:
:
.
.
1 07
0
2 07
Rys. 9.
p = (2:07) ( 1:07) = 0:5 + (2:07) 0:5 + (1:07) = 0:8385:
4
Przykªad 3.4.2. Niech Y N (5; 4). Znajd¹my prawdopodobie«stwo zdarzenia
f1:5 < Y < 6g.
Zgodnie z (3.19) zmienna losowa X = Y ma rozkªad N (0; 1), a wi¦c
5
2
1
:
5
5
Y
5
6
5
P (1:5 < Y < 6) = P
< 2 < 2 = P ( 1:75 < X < 0:5)
2
= (0:5) ( 1:75) = (0:5) + (1:75) = 0:1915 + 0:46 = 0:6515:
Przykªad 3.4.3. Niech Y N (2; 9). Znajd¹my x takie, by P (Y < x ) = 0:63:
Przechodz¡c jak w poprzednim przykªadzie do zmiennej losowej X N (0; 1), mamy
0
0
na mocy (3.21)
0:63 = P X < x 3 2 = 0:5 + x 3 2 :
W tablicy rozkªadu N (0; 1) szukamy warto±ci równej lub najbli»szej x0 = 0:13;
inaczej mówi¡c szukamy (0:13). Widzimy, »e odpowiada ona argumentowi x =
0:33: Zatem x0 = 0:33; a st¡d x = 2:99:
Dwa nast¦pne przykªady ilustruj¡ tak»e praktyczne zastosowanie rozkªadu N (m; ).
Przykªad 3.4.4. Przyjmuje si¦, »e wzrost czªowieka jest zmienn¡ losow¡ normaln¡
z parametrami m = 167 (cm) i = 3 (cm). Obliczmy, jaki procent stanowi¡ ludzie
maj¡cy wzrost:
(a) mniejszy ni» 167 cm,
(b) wi¦kszy ni» 170 cm.
Rozpatrujemy zmienn¡ losow¡ Y N (167; 9). Zgodnie z (3.19) zmienna losowa
X=Y
ma rozkªad N (0; 1), a st¡d
(a) P (Y < 167) = P (X < 0) = (0) = 0:5;
(b) P (Y > 170) = P (X > 1) = 0:5 (1) = 0:5 0:3413 = 0:1587.
0
0
2
3
1
2
3
0
2
167
3
ROZDZIA 3. ZMIENNE LOSOWE I ICH ROZKADY
50
Oznacza to, »e do pierwszej grupy nale»y 50% populacji ludzkiej, do drugiej natomiast
prawie 16%.
Przykªad 3.4.5. Maszyna produkuje ±ruby, których dªugo±¢ jest zmienn¡ losow¡
normaln¡ z parametrami m = 5 (cm) i = 0:2 (cm). Przyjmuj¡c, »e ±ruba speªnia wymagane normy techniczne, je±li jej dªugo±¢ mie±ci si¦ w przedziale (4:8; 5:2),
znajd¹my, jaki procent wszystkich produktów maszyny stanowi¡ braki.
Dla rozwa»anych zmiennych losowych Y N (5; 0:04) oraz X = Y : N (0; 1) obliczamy
P (Y 62 (4:8; 5:2)) = 1 P (Y 2 (4:8; 5:2)) = 1 P ( 1 < X < 1) = 1 2(1) = 0:3174:
Maszyna produkuje wi¦c prawie 32% braków.
Na koniec tego podrozdziaªu wyprowadzimy jeszcze wzory na dystrybuant¦ i
g¦sto±¢ funkcji zmiennej losowej.
Niech X b¦dzie zmienn¡ losow¡ o g¦sto±ci f i dystrybuancie F , a h : < ! < niech
oznacza funkcj¦ maj¡c¡ funkcj¦ odwrotn¡ h na zbiorze warto±ci zmiennej losowej
X . Dla ustalenia uwagi przyjmijmy, »e h jest ±ci±le rosn¡ca. Wtedy
5
0 2
1
Y = h(X );
Y (!) = h(X (!))
dokªadniej
jako zªo»enie odwzorowa« h X jest zmienn¡ losow¡ o dystrybuancie
G(y) = P (h(X ) y) = P (X h (y)) = F (h (y)); y 2 <:
1
1
Je±li h jest ró»niczkowalna, to zmienna losowa Y = h(X ) ma g¦sto±¢ postaci
1
g(y) = G0(y) = (F (h (y)))0 = F 0(h (y)) (h (y))0 = f (h (y)) (h (y))0; y 2 <:
1
1
1
1
1
Przykªad 3.4.6. Niech dªugo±¢ boku kwadratu b¦dzie zmienn¡ losow¡ X jednostajn¡
na odcinku [0; a] (tzn. X U [0; a]). Znajd¹my dystrybuant¦ i g¦sto±¢ zmiennej losowej Y b¦d¡cej polem kwadratu.
Oznaczmy przez F dystrybuant¦ oraz przez f g¦sto±¢ zmiennej losowej X . Zatem
zgodnie ze wzorem (3.16) dla zmiennej losowej jednostajnej na [0; a] mamy
F (x) = xa ; f (x) = a1 ; 0 x a:
Poniewa» Y = X ; wi¦c h(x) = x oraz w rozwa»anej dziedzinie [0; a] funkcja h jest
±ci±le rosn¡ca. Zatem h istnieje i h (y) = py ; 0 y a : Mo»emy wobec tego
2
2
1
1
2
3.5. WEKTORY LOSOWE
51
zastosowa¢ ogólne wzory, otrzymuj¡c dystrybuant¦ zmiennej losowej Y
8
0; y < 0
>
< p
p
G(y) = P (Y y) = F ( y) = > ay ; 0 y a
:
1; y > a :
2
2
Jej g¦sto±¢ jest postaci
g(y) = G0 (y) = f (py) (py)0 =
apy ;
(
1
2
0;
0<ya
poza tym:
2
Nast¦pny przykªad pokazuje, jak maj¡c dowoln¡ ±ci±le rosn¡c¡ dystrybuant¦ F , wygenerowa¢ zmienn¡ losow¡ o rozkªadzie F . Zaªo»enie o ±cisªej monotoniczno±ci funkcji
F mo»na opu±ci¢, wprowadzaj¡c poj¦cie tzw. uogólnionej funkcji odwrotnej.
Przykªad 3.4.7. Niech F b¦dzie ±ci±le rosn¡ca dystrybuant¡, a U zmienn¡ losow¡
jednostajn¡ na odcinku [0; 1] (tzn. U U [0; 1]). Zmienna losowa X = F (U ) ma
dystrybuant¦ F .
Rzeczywi±cie, dla ka»dego x 2 < mamy
1
P (X x) = P (F (U ) x) = P (U F (x)) = F (x):
1
3.5 Wektory losowe
Podobnie, jak w analizie matematycznej rozwa»amy wielowymiarowe funkcje, tak
w rachunku prawdopodobie«stwa badamy wielowymiarowe zmienne losowe zwane
wektorami losowymi. Dla prostoty rozpatrywa¢ tutaj b¦dziemy wektory losowe
o dwóch skªadowych.
Podamy teraz kolejno okre±lenia kilku poj¦¢, których jednowymiarowe analogony s¡
nam ju» znane.
Denicja 3.5.1. Niech X; Y b¦d¡ zmiennymi losowymi okre±lonymi na przestrzeni
probabilistycznej (
; F ; P ): Funkcj¦ Z = (X; Y ) : (
; F ; P ) ! < dan¡ wzorem
2
Z (!) = (X (!); Y (!))
nazywamy 2-wymiarowym wektorem losowym.
Funkcj¦ F : < ! [0; 1] dan¡ wzorem
2
F (x; y) = P (X x; Y y)
(3.22)
ROZDZIA 3. ZMIENNE LOSOWE I ICH ROZKADY
52
nazywamy dystrybuant¡ wektora losowego Z = (X; Y ):
Bezpo±rednio z jej okre±lenia otrzymujemy nast¦puj¡ce uogólnienie wzoru (3.13') na
przypadek dwuwymiarowy. Mianowicie, dla a b ; a b
1
1
2
2
P (a < X b ; a < Y b ) = F (b ; b ) F (a ; b ) F (b ; a ) + F (a ; a ):
1
1
2
2
1
2
1
2
1
2
1
2
Je±li zmienna losowa X przyjmuje co najwy»ej przeliczalnie wiele warto±ci x ; x ; : : : ;
a zmienna losowa Y co najwy»ej przeliczalnie wiele warto±ci y ; y ; : : : ; to rozkªad
(ª¡czny) wektora losowego (X,Y) okre±lony jest przez nieujemny ci¡g podwójny
1
1
pi;j = P (X = xi ; Y = yj ); i; j = 1; 2; : : : ; taki, »e
XX
i
j
2
2
pi;j = 1:
(3.23)
Wektor losowy (X; Y ) nazywamy wtedy dyskretnym wektorem losowym .
Je±li natomiast istnieje funkcja f : < ! < speªniaj¡ca dla ka»dej pary (x; y) 2 <
warunki
2
F (x; y) =
Z
x
1
Z
y
1
f (u; v) dudv
2
+
oraz
Z
1Z1
f (u; v) dudv = 1;
1 1
(3.24)
to mówimy, »e wektor losowy (X; Y ) ma g¦sto±¢ (ª¡czn¡) f.
Podobnie, jak w przypadku jednowymiarowym (porównaj (3.14)), otrzymujemy, »e
dla wszystkich poza by¢ mo»e sko«czon¡ lub przeliczaln¡ liczb¡ punktów (x; y) 2 <
zachodzi równo±¢
(x; y) :
f (x; y) = @F@x@y
2
Rozwa»my dla ka»dego i oraz j
pi =
X
j
pi;j
oraz
qj =
X
i
pi;j :
(3.25)
Wówczas pi = P (X = xi ); qj = P (Y = yj ), wi¦c pi 0; qj 0 oraz na mocy
(3.23), Pi pi = Pj qj = Pi Pj pi;j = 1. Zatem ci¡gi fpig oraz fqj g tworz¡ rozkªady
prawdopodobie«stwa zwane odpowiednio rozkªadem brzegowym zmiennej losowej X oraz rozkªadem brzegowym zmiennej losowej Y .
Analogicznie okre±lamy rozkªady (g¦sto±ci) brzegowe dla wektora losowego (X; Y ) z
g¦sto±ci¡. Zatem funkcje
f (x) =
1
Z
1
f (x; y) dy;
1
x2<
oraz
f (y) =
2
Z
1
f (x; y) dx;
1
y 2 <;
(3.26)
3.5. WEKTORY LOSOWE
53
nazywamy odpowiednio g¦sto±ci¡ brzegow¡ zmiennej losowej X oraz g¦sto±ci¡
brzegow¡ zmiennej losowej Y .
Poj¦cie rozkªadów brzegowych pozwala w przejrzysty sposób wyrazi¢ niezale»no±¢
skªadowych wektora losowego. Rzeczywi±cie, na mocy wzorów (3.5) i (3.5') mo»na
pokaza¢, »e wªasno±¢ ta jest równowa»na nast¦puj¡cym warunkom:
(a) w przypadku wektora losowego dyskretnego
pi;j = pi qj ;
i; j = 1; 2; : : : ;
(3.27)
(b) w przypadku wektora losowego z g¦sto±ci¡
f (x; y) = f (x) f (y);
1
x; y 2 <:
2
(3.28)
Widzimy wi¦c, »e przy zaªo»eniu niezale»no±ci rozkªad ª¡czny jest iloczynem rozkªadów brzegowych. Udowodnimy dla przykªadu przypadek (b).
Zaªó»my, »e zmienne losowe X i Y s¡ niezale»ne o g¦sto±ciach f i f , odpowiednio.
Wtedy na mocy wzoru (3.5) mamy
1
2
F (x; y) = P (X x; Y y) = P (X x) P (Y y) =
Z
x
1
f (u) du Z
y
1
1
f (v) dv =
Z
x
1
Z
y
1
1
f (u) f (v) dudv; x; y 2 <;
1
2
co oznacza, »e wektor losowy (X; Y ) ma g¦sto±¢ f (x; y) = f (x)f (y); czyli prawdziwy
jest wzór (3.28).
Na odwrót, zaªó»my, »e dla ª¡cznej g¦sto±ci wektora (X; Y ) oraz pewnych funkcji f
i f zachodzi wzór (3.28). Obliczmy
1
2
1
2
F (x) = P (X x) = P (X x; Y < +1) =
1
Z
1
f
1 1
x
Z
Z
x
Z
1
f
1
Z
1
f (u; v) dudv =
1 1
x
Z
Z
x
(u) f (v) dudv =
f (u) du (v) dv =
f (u) du; x 2 <:
1
1
To oznacza, »e zmienna losowa X ma g¦sto±¢ f . Podobnie pokazujemy, »e zmienna
losowa Y ma g¦sto±¢ f . Prawdziwe s¡ zatem równo±ci
1
2
1
2
1
1
2
P (X x; Y y) =
Z
x
1
Z
y
1
Z
x
1
Z
y
1
f (u; v) dudv =
f (u) f (v) dudv = P (X x) P (Y y); x; y 2 <:
1
2
oznaczaj¡ce, »e zachodzi wzór (3.5).
ROZDZIA 3. ZMIENNE LOSOWE I ICH ROZKADY
54
Na zako«czenie tego podrozdziaªu rozwa»ymy dwa wektory losowe.
Przykªad 3.5.1.
(a) Przyjmijmy, »e wektor losowy (X; Y ) ma rozkªad postaci
Tab. 3.
X nY
1
5
7
1 2
a 0:25
0:1 0:15
0:4 0
Wyznaczmy nieznan¡ warto±¢ a, rozkªady brzegowe tego wektora oraz sprawd¹my
niezale»no±¢ jego skªadowych.
Z warunku (3.23) wynika, »e a = 1 (0:1 + 0:25 + 0:1 + 0:15 + 0:4) = 0:1:
Przykªadowo obliczmy rozkªad brzegowy zmiennej losowej X . Otó»
p = P (X = 1) = P (X = 1; Y = 1) + P (X = 1; Y = 2) = 0:1 + 0:25 = 0:35;
p = P (X = 5) = 0:25; p = P (X = 7) = 0:4:
1
2
3
Podobnie otrzymujemy
q = P (Y = 1) = 0:6; q = P (Y = 2) = 0:4:
1
2
Otrzymane rozkªady brzegowe wygodnie jest dopisa¢ do tablicy rozkªadu ª¡cznego w
sposób przedstawiony w tablicy 4.
Wspólny zapis rozkªadu ª¡cznego i rozkªadów brzegowych pozwala nam szybko sprawdzi¢ niezale»no±¢ skªadowych rozpatrywanego wektora losowego. Mianowicie, zgodnie
ze wzorem (3.27) iloczyn ka»dej pary (pi; qj ) musi równa¢ si¦ warto±ci pi;j .
Tab. 4.
X nY
1
5
7
qj
1 2
0:1 0:25
0:1 0:15
0:4 0
0:6 0:4
pi
0:35
0:25
0:4
1
W naszym przykªadzie warunek ten nie jest speªniony cho¢by dla i = 3; j = 2; zatem
3.6. SUMY NIEZALENYCH ZMIENNYCH LOSOWYCH
55
zmienne losowe X oraz Y s¡ zale»ne.
(b) Jako drugi rozwa»my wektor losowy (X; Y ) z g¦sto±ci¡ postaci
y
<x<y<1
f (x) = e0; ; 0poza
tym:
(
Korzystaj¡c z (3.26), znajd¹my naprzód g¦sto±ci brzegowe. Mamy kolejno
f (x) =
f (y ) =
1
2
1 f (x; y ) dy = R 1 e y dy = e x ;
1
x
R1
Ry
y
y
1 f (x; y ) dx = e dx = ye ;
x > 0;
y > 0:
R
0
Z ich postaci ªatwo ju» wida¢, »e skªadowe rozwa»anego wektora losowego s¡ zale»ne,
poniewa» warunek niezale»no±ci (3.28) nie jest speªniony np. w punkcie (2,1):
0 = f (2; 1) 6= f (2) f (1) = e :
1
3
2
3.6 Sumy niezale»nych zmiennych losowych
Zbadamy teraz rozkªady sum niezale»nych zmiennych losowych.
Niech X oraz Y b¦d¡ niezale»nymi zmiennymi losowymi dyskretnymi. Wtedy
P (X + Y = z ) =
X
x
P (X = x; Y = z x) =
X
x
P (X = x) P (Y = z x): (3.29)
Przykªad 3.6.1. Niech rozwa»ane niezale»ne zmienne losowe X i Y maj¡ obie rozkªad
G (p): Zgodnie ze wzorami: powy»szym oraz (3.9) rozkªad ich sumy T = X + Y
przedstawia si¦ nast¦puj¡co:
P (T = k) =
kX
1
l
P (X = l)P (Y = k l) =
=1
kX
1
l
p(1 p)l p(1 p)k
1
l
1
= (k 1)p (1 p)k ;
2
=1
przy czym k = 2; 3; : : :
Niech z kolei X oraz Y b¦d¡ niezale»nymi zmiennymi losowymi o ª¡cznej g¦sto±ci
f (x; y) oraz g¦sto±ciach i dystrybuantach brzegowych f ; F i f ; F , odpowiednio.
Wtedy rozkªad sumy Z = X + Y znajdujemy nast¦puj¡co:
1
1
2
2
P (Z z) = P (X + Y z) = P ((X; Y ) 2 Tz ); Tz = f(x; y) : x 2 <; y z xg;
czyli
F (z ) = P ( Z z ) =
Z
Z 1 Z z x
1Zz x
f (x; y) dydx =
f
1 1
1 1
1
(x) f (y) dydx =
2
2
ROZDZIA 3. ZMIENNE LOSOWE I ICH ROZKADY
56
Z
1
f
1
1
(x)
Z
z x
1
f (y) dydx =
Z
2
1
f
1
1
St¡d otrzymujemy ju» tzw. wzór splotowy:
(x)F (z x) dx:
2
d 1 f (x)F (z x) dx = 1 f (x)f (z x) dx:
f (z) = dz
(3.30)
1
1
Jako ilustracj¦ jego zastosowania rozwa»ymy nast¦puj¡cy
Przykªad 3.6.2. Niech X i Y b¦d¡ niezale»nymi zmiennymi losowymi o jednakowym
rozkªadzie U [0; 1]. Znajd¹my rozkªad { g¦sto±¢ f ich sumy Z = X + Y:
Po pierwsze zauwa»my, »e Z 2 [0; 2], co oznacza, »e f (z) = 0 dla z poza [0; 2].
Dla z 2 [0; 2] mamy natomiast zgodnie z (3.30) oraz (3.16)
Z
1
f (z) =
Z
2
Z
1
f
1
1
1
(x)f (z x) dx =
2
Z
Tz
2
1 dx;
gdzie Tz = fx 2 < : 0 x 1; 0 z x 1g = fx 2 < : 0 x 1; z 1 x zg:
St¡d
(
Rz
z1
f (x) = R 11dxdx==2z; z; 10 <
z 2:
0
1
z
1
Ze wzgl¦du na wykres wyprowadzonej g¦sto±ci otrzymany rozkªad nazywa si¦ trójk¡tny.
3.7 Zadania
1. Podaj formalne okre±lenie i dystrybuanty zmiennych losowych opisanych nast¦puj¡cymi do±wiadczeniami losowymi:
(a) rzucamy trzema rozró»nialnymi kostkami, X oznacza najmniejszy z wyników,
(b) wybieramy losowo punkt z kwadratu jednostkowego, X i Y oznaczaj¡ odpowiednio wspóªrz¦dne tego punktu, a Z ich sum¦.
2. Niech = f! ; ! ; ! g; P (f! g) = P (f! g) = ; P (f! g) =
1
1
2
3
1
3
2
4
X (! ) = 1; X (! ) = 2; X (! ) = 0;
Y (! ) = 2; Y (! ) = 0; Y (! ) = 1;
Z (! ) = 0; Z (! ) = 1; Z (! ) = 2:
1
2
3
1
2
3
1
2
3
1
2
oraz niech
3.7. ZADANIA
57
Porównaj rozkªady zmiennych losowych X + Y i Y + Z oraz X
Y i Y Z.
q
Podaj rozkªad i dystrybuant¦ zmiennej losowej X + Y Z oraz (X + Y )Z .
2
2
3. Mamy 100 kartek ponumerowanych liczbami 0; 1; 2; : : : ; 99: Wybieramy losowo
jedn¡ z nich. Niech X oznacza sum¦ cyfr na wybranej kartce, a F dystrybuant¦
tej zmiennej losowej. Podaj rozkªad zmiennej losowej X oraz znajd¹ warto±¢
dystrybuanty F (15).
4. Niech dystrybuanta zmiennej losowej X b¦dzie postaci
8
>
x<0
< 0;
F (x) = P (X x) = > ; 0 x < 1
:
1; x 1
Znajd¹ rozkªad zmiennej losowej X oraz podaj przykªad modelu losowego i
opisuj¡cej model zmiennej losowej o tym rozkªadzie.
1
2
5. Poka», »e ci¡gi zdeniowane wzorami (3.8) { (3.10) s¡ rozkªadami prawdopodobie«stwa.
6. Niech zmienna losowa X ma rozkªad postaci
P (X = n) = pn = n(n c+ 1) ; n = 1; 2; : : : :
Wyznacz warto±¢ c tak, by ci¡g f(n; pn); n = 1; 2; : : :g byª rozkªadem prawdopodobie«stwa, podaj dystrybuant¦ zmiennej losowej X oraz oblicz prawdopodobie«stwo P (X m); m = 1; 2; : : : :
7. Prawdopodobie«stwo traenia do celu w jednym strzale wynosi ; oddano niezale»nie 12 strzaªów. Oblicz, jakie jest prawdopodobie«stwo, »e cel zostaª traony
przynajmniej dwukrotnie.
1
5
8. Wiadomo z obserwacji, »e 5% pasa»erów rezerwuj¡cych miejsce na pewien lot nie
pojawia si¦. Linia lotnicza sprzedaje wi¦c 52 bilety na samolot mog¡cy zabra¢ 50
pasa»erów. Oblicz prawdopodobie«stwo, »e w danym locie znajdzie si¦ miejsce
dla wszystkich pasa»erów, którzy zgªosz¡ si¦ przed odlotem samolotu.
9. Niech X b¦dzie zmienn¡ losow¡ dwumianow¡ o rozkªadzie B(n; p). Poka», »e
najbardziej prawdopodobn¡ warto±ci¡ przyjmowan¡ przez X jest k:
(a) równe (n + 1)p 1 lub (n + 1)p , je±li (n + 1)p jest caªkowite,
(b) speªniaj¡ce warunek (n + 1)p 1 < k < (n + 1)p , w przeciwnym razie.
ROZDZIA 3. ZMIENNE LOSOWE I ICH ROZKADY
58
10. Oblicz, jak dªugi powinien by¢ ci¡g cyfr losowych, tzn. ilu losowa« ze zwracaniem ze zbioru cyfr musimy dokona¢, aby prawdopodobie«stwo pojawienia si¦
(wyst¡pienia co najmniej jeden raz) cyfry 5 wynosiªo co najmniej 0.95?
Jakie jest prawdopodobie«stwo, »e 5 pojawi si¦ po raz pierwszy jako pi¡ty element tego ci¡gu?
11. Niech T b¦dzie zmienn¡ losow¡ dyskretn¡ o warto±ciach naturalnych speªniaj¡c¡
dla ka»dego naturalnego n warunek (3.12). Przyjmuj¡c dla k = 1; 2; : : : ; (k) =
P (T k); poka», »e (1) = 1 oraz (k) = ((2))k ; k = 2; 3; : : : : Wykluczaj¡c
przypadek (2) = 1 i kªad¡c (2) = 1 p; 0 < p 1; udowodnij, »e rozkªad zmiennej losowej T wyra»a si¦ wzorem (3.9), czyli jest to zmienna losowa
geometryczna z parametrem p.
0
1
12. Niech liczba bª¦dów drukarskich na pojedynczej stronie ksi¡»ki b¦dzie zmienn¡
losow¡ Poissona z parametrem = 2. Oblicz prawdopodobie«stwo, »e na danej
stronie znajduje si¦ co najmniej jeden bª¡d.
13. Niech liczba wypadków zdarzaj¡cych si¦ na autostradzie w ci¡gu doby b¦dzie
zmienn¡ losow¡ Poissona z parametrem = 5. Oblicz prawdopodobie«stwo, »e
dzi± nie zdarzy si¦ »aden wypadek.
14. Poka», »e je±li X jest zmienn¡ losow¡ z g¦sto±ci¡, to dla ka»dego x 2 < zachodzi
P (X = x ) = 0.
0
0
15. Wyznacz warto±¢ c, dla której funkcja
; x 10
f (x) = c=x
0; poza tym:
(
2
jest g¦sto±ci¡ zmiennej losowej X , podaj jej dystrybuant¦ oraz znajd¹ prawdopodobie«stwo P (X > 20).
16. Poka», »e funkcje zdeniowane wzorami (3.16) i (3.17) s¡ g¦sto±ciami i znajd¹
odpowiadaj¡ce im dystrybuanty.
17. Udowodnij wªasno±¢ braku pami¦ci dla zmiennej losowej wykªadniczej.
18. Udowodnij prawdziwo±¢ relacji (3.19).
3.7. ZADANIA
59
19. Niech X b¦dzie zmienn¡ losow¡ normaln¡ o rozkªadzie N (m; ): Oblicz prawdopodobie«stwo P (jX mj 3):
2
20. Niech X b¦dzie zmienn¡ losow¡ normaln¡ o rozkªadzie N (7; 9). Oblicz prawdopodobie«stwo, »e zmienna losowa X przyjmuje warto±ci
(a) mniejsze od 8.5,
(b) wi¦ksze od 3.7,
(c) le»¡ce mi¦dzy 2.5 a 11.2.
21. Niech X b¦dzie zmienn¡ losow¡ normaln¡ o rozkªadzie N (95; ): Znajd¹ warto±¢ , je±li wiadomo, »e 20% obszaru pod wykresem g¦sto±ci le»y na prawo od
103.4.
2
22. Niech X b¦dzie zmienn¡ losow¡ normaln¡ o rozkªadzie N (m; (24:5) ). Znajd¹
warto±¢ m, je±li prawdopodobie«stwo tego, »e zmienna losowa X przyjmuje
warto±ci mniejsze od 60.0 jest równe 0.3745.
2
23. Zmienna losowa X ma dystrybuant¦ F . Znajd¹ dystrybuant¦ zmiennej losowej
Z = aX + b; a; b 2 <.
24. Niech X b¦dzie zmienn¡ losow¡ wykªadnicz¡ o rozkªadzie E (2) oraz niech Y =
2X . Znajd¹ g¦sto±¢ zmiennej losowej Y i oblicz P (1 Y 5):
25. Niech X b¦dzie zmienn¡ losow¡ jednostajn¡ o rozkªadzie U [
kªad zmiennej losowej Y = sin X:
; ]. Znajd¹ roz2
2
26. Poka», »e je±li X jest zmienn¡ losow¡ dodatni¡ o g¦sto±ci f , to X ma g¦sto±¢
postaci f ( x )=x .
1
1
2
27. Dystrybuanta wektora losowego (X; Y ) jest postaci
(
F (x; y) = 1 2
x
2 y+2
0;
x y;
x 0; y 0
poza tym:
(a) Oblicz prawdopodobie«stwo, »e wektor losowy (X; Y ) przyjmuje warto±ci z
prostok¡ta ograniczonego prostymi x = 1, x = 2, y = 3 oraz y = 5.
(b) Znajd¹ g¦sto±¢ tego wektora losowego oraz g¦sto±ci brzegowe. Czy zmienne
losowe X i Y s¡ niezale»ne?
ROZDZIA 3. ZMIENNE LOSOWE I ICH ROZKADY
60
28. G¦sto±ci¡ wektora losowego (X; Y ) jest
f (x; y) = 21 expf 12 (x + y )g; x; y 2 <:
(a) Oblicz P (X 1).
(b) Oblicz prawdopodobie«stwo, »e punkt (X; Y ) znajduje si¦ wewn¡trz koªa o
±rodku (0; 0) i promieniu 1.
2
2
29. Znajd¹ rozkªady brzegowe oraz sprawd¹ niezale»no±¢ skªadowych wektora losowego o g¦sto±ci
p
f (x; y) = 3 expf x
2xy 4y g;
2
2
x; y 2 <:
30. Rozkªad wektora losowego (X; Y ) jest dany nast¦puj¡co:
P (X = 1; Y = 1) = P (X = 1; Y = 2) = P (X = 2; Y = 2) = :
Znajd¹ dystrybuanty F (x; y); F (x); F (y) oraz sprawd¹, czy zmienne losowe
X i Y s¡ niezale»ne.
1
3
1
2
31. Zmienne losowe X i Y s¡ niezale»nymi zmiennymi losowymi wykªadniczymi z
parametrami 1 i , odpowiednio. Wyznacz ich ª¡czny rozkªad.
1
2
32. G¦sto±¢ wektora losowego (X; Y ) jest postaci
f (x; y) =
(
3
4
x + 2xy + y; 0 < x < 1; 0 < y < 1
0;
poza tym:
1
4
Oblicz P (X > jY > ):
1
1
2
2
33. Liczby a i b wybierane s¡ niezale»nie zgodnie z rozkªadem U [ 1; 1]: Oblicz
prawdopodobie«stwo, »e pierwiastki równania kwadratowego x + 2ax + b = 0
s¡ rzeczywiste.
2
34. Zmienne losowe Xi; i = 1; : : : ; n; s¡ niezale»ne o dystrybuantach Fi; i =
1; : : : ; n . Znajd¹ dystrybuanty nast¦puj¡cych zmiennych losowych:
Z = min
X oraz T = max
X:
in i
in i
1
1
Poka» w szczególno±ci, »e je±li rozwa»ane zmienne losowe maj¡ jednakowy rozkªad E (), to zmienna losowa Z ma rozkªad E (n):
3.7. ZADANIA
61
35. Niech X i Y b¦d¡ niezale»nymi zmiennymi losowymi o jednakowym rozkªadzie
przyjmuj¡cymi warto±ci 1, 2, 3, 4 z prawdopodobie«stwami 0.1, 0.2, 0.3, 0.4,
odpowiednio. Znajd¹ rozkªad ich sumy.
36. Niech X i Y b¦d¡ niezale»nymi zmiennymi losowymi o jednakowym rozkªadzie
z g¦sto±ci¡ f (x) = 2x dla 0 < x < 1. Znajd¹ rozkªad ich sumy.
37. Niech X i Y b¦d¡ niezale»nymi zmiennymi losowymi o jednakowym rozkªadzie
E (). Poka», »e g¦sto±¢ f ich sumy Z = X + Y jest postaci
z
0
f (z) = ze0; ; zpoza
tym:
(
2
Uogólniaj¡c ten wynik na sum¦ n skªadników, zauwa», porównuj¡c ze wzorem
(3.17'), »e otrzymany rozkªad jest rozkªadem (n; ): Nosi on te» nazw¦ rozkªadu Erlanga rz¦du n.
38. Niech X i Y b¦d¡ niezale»nymi zmiennymi losowymi o rozkªadach (n; ) oraz
(m; ); odpowiednio. Korzystaj¡c z poprzedniego zadania, uzasadnij, »e ich
suma ma rozkªad (n + m; ):
39. Niech X oraz Y b¦d¡ niezale»nymi zmiennymi losowymi, Y jednostajn¡ na
odcinku [0,1], a X o dystrybuancie F i g¦sto±ci f . Poka», »e ich suma ma
g¦sto±¢ g(x) = F (x) F (x 1):
40. Niech X b¦dzie zmienn¡ losow¡ jednostajn¡ na [0,1], a Y niezale»n¡ od niej o
rozkªadzie P (Y = 1) = P (Y = 1) = : Stosuj¡c wzór na prawdopodobie«stwo
caªkowite, poka», »e rozkªadem ich sumy Z = X + Y jest
1
2
F (z ) =
8
>
<
>
:
1
2
(z + 1); 1 z 0
;
0z1
z;
1 z 2:
1
2
1
2
Rozdziaª 4
Momenty i transformaty
4.1
Warto±¢ oczekiwana i wariancja
W wielu zagadnieniach praktycznych istnieje potrzeba opisania zmiennej losowej przez jedn¡ charakterystyk¦ liczbow¡ oddaj¡c¡ jej najbardziej typowe, przeci¦tne
warto±ci. Interesowa¢ nas mo»e na przykªad, jak dªugo czekamy zazwyczaj na przyjazd tramwaju, jakie s¡ ±rednie zbiory truskawek, na ile przeci¦tnie dni sªonecznych
mo»e liczy¢ wczasowicz w sierpniu. Takie wªa±nie znaczenie ma poj¦cie, które teraz
deniujemy.
Denicja 4.1.1.
(i) Niech X b¦dzie zmienn¡ losow¡ dyskretn¡ o rozkªadzie f(xk ; pk ); k = 1; 2; :::g:
Je±li Pk jxk jpk < 1, to istnieje warto±¢ oczekiwana E(X ) zmiennej losowej X
dana wzorem
X
E(X ) = xk pk :
(4.1)
k
R
(ii) Niech X b¦dzie zmienn¡ losow¡ z g¦sto±ci¡ f . Je±li 11 jxjf (x) dx < 1, to istnieje
warto±¢ oczekiwana E(X ) zmiennej losowej X dana wzorem
E(X ) =
Z1
1
xf (x) dx:
(4.2)
Warto±¢ oczekiwan¡ nazywamy te» ±redni¡ lub pierwszym momentem zmiennej
losowej.
Wynikaj¡ce bezpo±rednio z powy»szych denicji wªasno±ci warto±ci oczekiwanej
formuªujemy w lemacie, którego dowód pozostawiamy jako ¢wiczenie.
Lemat 4.1.2. Je±li istnieje warto±¢ oczekiwana E(X ) zmiennej losowej X , to
(a) E(aX + b) = aE (X ) + b; a; b 2 <,
62
4.1. WARTO OCZEKIWANA I WARIANCJA
63
(b) jE(X )j E(jX j),
(c) Je±li P (X 0) = 1, to E(X ) 0:
Przykªad 4.1.1.
(a) Niech zmienna losowa X ma rozkªad P (X = xk ) = N ; k = 1; : : : ; N: Wtedy
1
E(X ) =
N
X
k
=1
N
X
1
1
xk N = N xk :
k
(4.3)
=1
W tym przypadku warto±¢ oczekiwana jest ±redni¡ arytmetyczn¡ warto±ci zmiennej
losowej.
Zauwa»my, »e w ±wietle tego przykªadu mo»na patrze¢ na warto±¢ oczekiwan¡ jako na
uogólnienie ±redniej arytmetycznej stosowane wtedy, gdy warto±ci xk ; k = 1; : : : ; N;
nie s¡ jednakowo prawdopodobne.
(b) W grze w ruletk¦ stawiaj¡c 1 na czarne, wygrywamy t¦ kwot¦ z prawdopodobie«stwem , a tracimy j¡ z prawdopodobie«stwem : St¡d wygrana, jakiej mo»emy
oczekiwa¢ w jednej grze, wynosi
E(X ) = 1 18 + ( 1) 20 = 0:0526:
38
38
(c) Niech T b¦dzie zmienn¡ losow¡ geometryczn¡ z parametrem p = (porównaj
wzór (3.9)). T jest wi¦c na przykªad numerem rzutu symetryczn¡ monet¡, w którym
po raz pierwszy wypadnie orzeª. Znajd¹my warto±¢ oczekiwan¡ zmiennej losowej T .
Wychodz¡c z denicji mamy obliczy¢
1
X
E(T ) = k 1k :
2
k
18
20
38
38
1
2
=1
k
W tym celu we¹my rozwini¦cie w szereg funkcji x x = P1
k x ; jxj < 1. W rozwa»anym zbiorze szereg ten jest jednostajnie zbie»ny i ró»niczkuj¡c wyraz po wyrazie,
otrzymujemy
1
X
kxk = ( 1 x x )0 = (1 1 x) :
k
St¡d
1
X
kxk = (1 x x) :
=0
1
1
2
=1
k
2
=1
Podstawiaj¡c x = , otrzymujemy E(T ) = 2: Przy przyj¦tej interpretacji zmiennej
losowej T oznacza to, »e pierwsze pojawienie si¦ orªa ma zazwyczaj miejsce w drugim
rzucie.
1
2
ROZDZIA 4. MOMENTY I TRANSFORMATY
64
(d) Obliczaj¡c warto±ci oczekiwane zmiennych losowych dwumianowej i Poissona,
otrzymujemy E (X ) = np dla X B(n; p) oraz E (X ) = dla X P ():
(e) Niech T b¦dzie z kolei zmienn¡ losow¡ wykªadnicz¡ z parametrem > 0. Pami¦taj¡c, »e g¦sto±¢ zmiennej losowej T jest postaci f (u) = e u; u > 0; (porównaj wzór
(3.17)), obliczamy warto±¢ oczekiwan¡ E(T ):
Z1
Z1
Z1
E(T ) =
uf (u) du = ue u du = 1 te t dt = 1 :
1
Zatem parametr jest odwrotno±ci¡ warto±ci oczekiwanej.
Zaªó»my teraz dla przykªadu, »e na maªo ruchliwej szosie czekamy na przejazd pierwszego samochodu. Czas do tego zdarzenia jest rozwa»an¡ zmienn¡ losow¡ T . Parametr
b¦d¡cy, jak wªa±nie pokazali±my, odwrotno±ci¡ warto±ci oczekiwanej, mo»e by¢ interpretowany jako intensywno±¢ zachodzenia zdarzenia, na które czekamy.
(f) Uogólniaj¡c, obliczmy warto±¢ oczekiwan¡ zmiennej losowej X o rozkªadzie (n; );
> 0 z g¦sto±ci¡ (wzór (3.17')) f (x) = nn xn e x; x 0: Mamy
0
0
1
Z1
(
1)!
Z 1 n
n
n
n
x
n e x dx = n I = n ;
x
e
dx
=
x
E(X ) =
(n 1)!
n!
n poniewa» In jest caªk¡ z g¦sto±ci rozkªadu (n + 1; ):
(g) Pewna rzeka wylewa ka»dego roku. Niech dolny poziom rzeki b¦dzie ustawiony na
wysoko±ci 1, o górnym zaªo»ymy, »e jest zmienn¡ losow¡ o dystrybuancie
F (y) = P (Y y) = 1 y1 ; 1 y < 1:
Zauwa»my, »e F speªnia wszystkie warunki stawiane dystrybuancie, w szczególno±ci
granica limy!1 F (y) jest równa 1. W celu wyznaczenia E(Y ); czyli ±redniego górnego
poziomu rzeki, znajdujemy najpierw f (y) = F 0(y) = y3 ; 1 y < 1. Zatem
Z1 2
E(Y ) = y y dy = 2:
+1
0
0
2
2
3
1
(h) Na koniec rozwa»my jeszcze zmienn¡ losow¡ X o rozkªadzie Cauchy'ego z g¦sto±ci¡
f (x) = (1 +1 x ) ; x 2 <:
2
Okazuje si¦, »e warto±¢ oczekiwana tej zmiennej losowej nie istnieje, poniewa»
Z1
Z1
jxj dx = 1:
E(jX j) =
j
xjf (x) dx =
1
1 (1 + x )
2
4.1. WARTO OCZEKIWANA I WARIANCJA
65
Rzeczywi±cie,
E(jX j) Z1
1
jxj
(1 + x ) dx 2
Z1
1
jxj dx = 1 Z 1 1 dx = 1:
(2x )
2
x
2
1
Warto±¢ oczekiwan¡ okre±lamy równie» dla wektora losowego.
Denicja 4.1.3. Dwuwymiarowy wektor postaci
E(X; Y ) = (E(X ); E(Y ));
(4.4)
gdzie E(X ) i E(Y ) s¡ okre±lone tak, jak w denicji 4.1.1, nazywamy warto±ci¡
oczekiwan¡ wektora losowego (X; Y ):
Przykªad 4.1.2. (Kontynuacja przykªadu 3.5.1.) Wykorzystuj¡c znalezione rozkªady
brzegowe, obliczmy warto±ci oczekiwane rozwa»anych wektorów losowych.
(a) E(X ) = 1 0:35 + 5 0:25 + 7 0:4 = 4:4 oraz E(Y ) = 1 0:6 + 2 0:4 = 1:4; a st¡d
E(X; Y ) = (4:4; 1:4):
(b) E(X ) = 1 na mocy przykªadu 4.1.1 (e), poniewa» X E (1): Nast¦pnie E(Y ) =
R1
y e y dy = 2; a st¡d
E(X; Y ) = (1; 2):
2
0
Przeksztaªcenie zmiennej losowej lub wektora losowego zmienia ich warto±¢ oczekiwan¡ w odpowiedni sposób. Mianowicie:
(i) Je±li X jest zmienn¡ losow¡ dyskretn¡ o rozkªadzie f(xk ; pk ); k = 1; 2; :::g; to
zmienna losowa Y = h(X ) przyjmuje warto±¢ h(xk ) wtedy, gdy zmienna losowa X
przyjmuje warto±¢ xk , czyli z prawdopodobie«stwem pk ; k = 1; 2; : : : ; a zatem zgodnie
ze wzorem (4.1)
E(Y ) = E[h(X )] =
X
k
h(xk )pk ;
o ile
X
k
jh(xk )jpk < 1;
(4.5)
(ii) Je±li X jest natomiast zmienn¡ losow¡ z g¦sto±ci¡ f , to
E(Y ) = E[h(X )] =
Z1
1
h(x)f (x) dx; o ile
Z1
1
jh(x)jf (x) dx < 1:
(4.6)
ROZDZIA 4. MOMENTY I TRANSFORMATY
66
Podobnie, w przypadku wektorów losowych mamy
(i) dla wektora losowego dyskretnego o rozkªadzie P (X = xi ; Y = yj ) = pi;j ;
E[h(X; Y )] =
XX
i
j
h(xi ; yj )pi;j ;
(4.7)
(ii) dla wektora losowego z g¦sto±ci¡ f (x; y)
E[h(X; Y )] =
Z1Z1
1
1
h(x; y)f (x; y) dxdy;
(4.8)
o ile powy»sze sumy i caªki s¡ bezwzgl¦dnie zbie»ne.
Jako przykªad zastosowania powy»szych relacji udowodnimy wzory na warto±¢ oczekiwan¡ sumy i iloczynu zmiennych losowych.
Twierdzenie 4.1.4. Je±li X; Y s¡ zmiennymi losowymi o warto±ciach oczekiwanych
E(X ) i E(Y ) , to
E(X + Y ) = E(X ) + E(Y ):
(4.9)
Je±li ponadto zmienne losowe X i Y s¡ niezale»ne, to
E(X Y ) = E(X ) E(Y ):
(4.10)
Dowód. Wzór (4.9) poka»emy dla zmiennych losowych dyskretnych o ª¡cznym rozkªadzie fpi;j ; i; j = 1; 2; : : :g. Niech funkcja h : < ! < b¦dzie dana wzorem h(x; y) =
2
x + y: Zgodnie z (4.7) mamy wi¦c
E(X + Y ) = E[h(X; Y )] =
XX
i
j
i
j
h(xi ; yj )pi;j =
xi P (X = xi ; Y = yj ) +
X
i
XX
xi P (X = xi ) +
X
j
XX
XX
i
j
i
XX
i
j
jxi + yj jpi;j yj P (Y = yj ) = E(X ) + E(Y ):
XX
i
(xi + yj )P (Xi = xi; Y = yj ) =
yj P (X = xi; Y = yj ) =
Zauwa»my, »e E(jX + Y j) < 1, poniewa»
E(jX + Y j) =
j
j
jxi jpi;j +
XX
i
j
jyj jpi;j = E(jX j) + E(jY j):
Wzór (4.10) udowodnimy dla zmiennych losowych o ª¡cznej g¦sto±ci f (x; y).
Niech teraz funkcja h okre±lona b¦dzie jako h(x; y) = x y: Zgodnie z (4.8) otrzymujemy
E(X Y ) = E[h(X; Y )] =
Z1Z1
1
1
h(x; y)f (x; y) dxdy =
Z1Z1
1
1
xyf (x)f (y) dxdy;
1
2
4.1. WARTO OCZEKIWANA I WARIANCJA
67
poniewa» na mocy niezale»no±ci mo»emy skorzysta¢ z (3.28) i przedstawi¢ ª¡czn¡
g¦sto±¢ f (x; y) wektora losowego (X; Y ) jako iloczyn g¦sto±ci brzegowych f (x) oraz
f (y): Ostatecznie mamy zatem
1
2
E(X Y ) =
Z1
1
xf (x) dx 1
Z1
1
yf (y) dy = E(X ) E(Y ):
2
Warunek E(jX Y j) < 1 jest speªniony, poniewa» jx yj = jxj jyj i rozpatrywane
zmienne losowe maj¡ warto±ci oczekiwane.
Oprócz warto±ci oczekiwanej informuj¡cej, jak wiemy, jakiej przeci¦tnie warto±ci
zmiennej losowej nale»y si¦ spodziewa¢, do liczbowego opisu zmiennej losowej sªu»y
zazwyczaj jeszcze jedna charakterystyka. Okre±la ona stopie« rozproszenia warto±ci
rozpatrywanej zmiennej losowej w stosunku do jej warto±ci oczekiwanej. Jej formaln¡
denicj¦ poprzedzi wprowadzenie jeszcze jednego poj¦cia.
Denicja 4.1.5.
Warto±¢ oczekiwan¡ E(X r ) zmiennej losowej X r nazywamy r-tym momentem zmiennej losowej X; r = 1; 2; : : : :
Je±li istnieje drugi moment E(X ) zmiennej losowej X , to wyra»enie
2
(X ) = E[X E(X )]
2
(4.11)
2
nazywamy wariancj¡ zmiennej losowej X .
Dodatni pierwiastek z wariancji
q
(X ) = + (X )
(4.12)
2
nazywamy odchyleniem standardowym zmiennej losowej X .
Zauwa»my, »e odchylenie standardowe jest dobrze zdeniowane, poniewa» z okre±lenia
(4.11) i lematu 4.1.2 wariancja jako warto±¢ oczekiwana kwadratu zmiennej losowej
jest nieujemna. Wida¢ tak»e, »e im odchylenie standardowe jest mniejsze, tym warto±ci przyjmowane przez zmienn¡ losow¡ s¡ bardziej skoncentrowane wokóª E(X ).
Stwierdzenie to precyzuje nast¦puj¡ca nierówno±¢:
P (jX E(X )j < k (X )) 1 k1 ; k > 0;
znana jako nierówno±¢ Czebyszewa. Jej dowód przedstawimy w rozdziale 5, skupiaj¡c si¦ teraz na interpretacji (X ): Otó», przyj¡wszy k = 3, widzimy, »e dla ka»dej
zmiennej losowej w odlegªo±ci mniejszej ni» 3 odchylenia standardowe od jej warto±ci
2
ROZDZIA 4. MOMENTY I TRANSFORMATY
68
oczekiwanej znajduje si¦ co najmniej , czyli 88% jej warto±ci. Gdy poªo»ymy k = 5 ,
odczytujemy, »e w przedziale (E(X ) 5(X ); E(X ) + 5(X ) ) le»y ju» 96% warto±ci
zmiennej losowej X; itd.
Przykªad 4.1.3. Przypu±¢my, »e prawdopodobie«stwo zdania egzaminu z teorii prawdopodobie«stwa wynosi 0.8, oceny poszczególnych studentów nie zale»¡ od rezultatów
kolegów. Oszacujmy z prawdopodobie«stwem równym przynajmniej liczb¦ osób,
które zdaªy egzamin, je±li do egzaminu przyst¡piªo 200 studentów.
Oznaczmy przez X liczb¦ osób, o których mowa. Z zaªo»e« wynika, »e X B(200; 0:8).
Z cz¦±ci (d) przykªadu 4.1.1 q
wiemy, »e E(X ) = np = 160; w przykªadzie 4.1.5 obliczymy natomiast, »e (X ) = np(1 p) = 5:65: Podstawiaj¡c te dane do nierówno±ci
Czebyszewa, otrzymujemy
P (jX 160j < k 5:65) 1 k1 = 1 15
:
16
Zatem k = 4, a powy»sza nierówno±¢ przyjmuje posta¢
P (160 4 5:65 < X < 160 + 4 5:65) 15
;
16
czyli
P (137:4 < X < 182:6) 15
16 :
Z prawdopodobie«stwem równym co najmniej mo»emy wi¦c twierdzi¢, »e liczba
osób, które zdaªy egzamin, jest zawarta mi¦dzy 138 a 182.
Przejd¹my teraz do omówienia wªasno±ci wariancji oraz przykªadów.
Lemat 4.1.6. Je±li istnieje drugi moment E(X ) zmiennej losowej X , to
(a) wariancja dana jest wzorem
8
9
15
16
2
15
16
2
(X ) = E(X ) [E(X )] ;
2
2
(4.13)
2
a st¡d [E(jX j)] E(X ):
(b) (aX ) = a (X ) oraz (X + a) = (X );
Dowód. Z okre±lenia (4.11) mamy
2
2
2
2
2
2
(X ) = E[(X E(X )] = E(X
2
2
a 2 <:
2
2E(X ) X + [E(X )] ) =
2
2
E(X ) 2[E(X )] + [E(X )] = E(X ) [E(X )] ;
czyli prawdziwy jest wzór (4.13).
Zatem (jX j) = E(jX j ) [E(jX j)] 0 lub [E(jX j)] E(jX j ) = E(X ):
2
2
2
2
2
2
2
2
2
2
2
4.1. WARTO OCZEKIWANA I WARIANCJA
69
Zauwa»my, »e z powy»szego wynika tak»e, »e je±li istnieje drugi moment, to istnieje
te» pierwszy, czyli warto±¢ oczekiwana E(X ): Rzeczywi±cie, je±li E(X ) < 1; to
E(jX j) < 1; co oznacza, »e istnieje E(X ):
Formalny dowód cz¦±ci (b) lematu pozostawiamy jako ¢wiczenie. Zauwa»my jednak,
»e druga z równo±ci jest intuicyjnie oczywista. Skoro wariancja ÿmierzy\ rozproszenie
warto±ci zmiennej losowej { nie ulegnie ono przecie» zmianie, gdy wszystkie warto±ci
zmiennej losowej zostan¡ przesuni¦te o staª¡ a.
Podobnie jak dla warto±ci oczekiwanej wyprowadzimy teraz wzory na wariancj¦ sumy
zmiennych losowych.
Twierdzenie 4.1.7. Je±li X i Y s¡ niezale»nymi zmiennymi losowymi o wariancjach
(X ) i (Y ); to
(X + Y ) = (X ) + (Y ):
(4.14)
2
2
2
2
2
2
Dowód. Zauwa»my naprzód, »e je±li zmienna losowa X ma warto±¢ oczekiwan¡
E(X ) =
6 0, to zgodnie z lematem 4.1.2 zmienna losowa X = X E(X ) ma war-
to±¢ oczekiwan¡ E(X ) = 0 oraz wariancje obu zmiennych losowych X i X s¡ na
mocy lematu 4.1.6 jednakowe.
Mo»emy zatem zaªo»y¢, »e dla rozwa»anych w twierdzeniu zmiennych losowych mamy
E(X ) = E(Y ) = 0: Wtedy tak»e E(X Y ) = E(X ) E(Y ) = 0; wi¦c
(X + Y ) = E[(X + Y ) ] [E(X + Y )] = E[(X + Y ) ] =
2
2
2
2
E(X + 2XY + Y ) = E(X ) + E(Y ) = (X ) + (Y ):
2
2
2
2
2
2
Pokazali±my zatem, »e wariancja sumy zmiennych losowych jest równa sumie wariancji, ale przy dodatkowym zaªo»eniu niezale»no±ci rozpatrywanych zmiennych losowych.
Je±li natomiast X i Y s¡ dowolnymi zmiennymi losowymi o wariancjach (X ) i
(Y ), to
2
2
(X + Y ) = E(X ) + E(Y ) + 2E(X Y ) [E(X )]
2
2
2
2
[E(Y )]
2
2E(X ) E(Y ) =
(X ) + (Y ) + 2[E(X Y ) E(X ) E(Y )]:
2
2
Denicja 4.1.8. Wyra»enie
Cov(X; Y ) = E(X Y ) E(X ) E(Y )
(4.15)
ROZDZIA 4. MOMENTY I TRANSFORMATY
70
nazywamy kowariancj¡ zmiennych losowych X i Y .
Wyra»enie
X; Y )
(4.16)
(X; Y ) = Cov(
(X )(Y )
jest okre±lane mianem wspóªczynnika korelacji zmiennych losowych X i Y .
Je±li zachodzi (X; Y ) = 0, to mówimy, »e zmienne losowe X i Y s¡ nieskorelowane.
Z okre±lenia kowariancji oraz twierdzenia 4.1.4 widzimy, »e niezale»ne zmienne losowe
s¡ nieskorelowane. Poka»emy na przykªadzie, »e nie jest prawdziwe stwierdzenie odwrotne.
Przykªad 4.1.4. Niech wektor losowy (X; Y ) ma g¦sto±¢ postaci
(
+y 1
f (x; y) = 0;; xpoza
tym:
Mówimy wtedy, »e punkt losowy (X; Y ) ma rozkªad jednostajny na kole o ±rodku
(0; 0) i promieniu 1.
Zbadajmy naprzód niezale»no±¢ zmiennych losowych (X; Y ).
Zgodnie ze wzorami (3.26) ich g¦sto±ci brzegowe s¡ nast¦puj¡ce:
Z1
Z p x2 1
p
1 x 1;
f (x) =
f (x; y) dy = p 2 dy = 2 1 x ;
x
1
Z1
Z p y2 1
q
f (y) =
f (x; y) dx = p 2 dx = 2 1 y ;
1 y 1:
1
y
Widzimy zatem, »e f (x) f (y) 6= f (x; y), a zatem na mocy (3.28) stwierdzamy, »e
zmienne losowe X i Y s¡ zale»ne.
Jednocze±nie ich wspóªczynnik korelacji (X; Y ) jest równy 0. Rzeczywi±cie,
Z p
Z1
E(X ) =
xf (x) dx = 2 x 1 x dx = 0 = E(Y );
1
Z1Z1
Z Z p y2
1
E(X Y ) =
xyf (x; y) dxdy = y p 2 x dx dy = 0:
1 1
y
St¡d
Cov(X; Y ) = 0 i tak»e (X; Y ) = 0:
1
2
2
1
2
1
1
1
2
2
1
1
2
1
2
1
1
1
1
1
1
Wspóªczynnik korelacji jest najcz¦±ciej stosowan¡, ale tak»e nadu»ywan¡ w praktyce
miar¡ zale»no±ci zmiennych losowych. Nie bierze si¦ bowiem pod uwag¦ faktu, »e
mierzy on jedynie stopie« zale»no±ci liniowej rozwa»anych zmiennych losowych (porównaj zadanie 4.9). atwo to zobaczy¢, rozpatruj¡c przykªad zmiennych losowych:
4.1. WARTO OCZEKIWANA I WARIANCJA
71
X o momentach E(X ) = E(X ) = 0; (X ) 6= 0 oraz Y = X , dla których, mimo
oczywistej zale»no±ci, wspóªczynnik korelacji wynosi zero.
Niedopuszczalne jest tak»e interpretowanie du»ych warto±ci wspóªczynnika korelacji jako ±wiadcz¡cych o istnieniu zale»no±ci przyczynowo-skutkowej mi¦dzy rozpatrywanymi zjawiskami losowymi. Klasycznym ju» przykªadem przytaczanym tutaj
dla ilustracji jest silne skorelowanie liczby bocianów »yj¡cych w wioskach angielskich
pewnego hrabstwa oraz liczby urodzin zarejestrowanych w tych samych miejscowo±ciach. Fakt ten nie wyja±nia oczywi±cie sk¡d si¦ bior¡ dzieci { zwi¦kszone warto±ci
obu zmiennych losowych (liczby bocianów i dzieci) s¡ skutkiem wspólnej przyczyny,
czyli wzrostu zaludnienia w danym rejonie.
Na koniec tego podrozdziaªu poka»emy, jak wzory na warto±¢ oczekiwan¡ i wariancj¦ sumy zmiennych losowych pozwalaj¡ w inny ni» bezpo±rednio z denicji sposób
znale¹¢ te charakterystyki dla zmiennej losowej dwumianowej. Zajmiemy si¦ tak»e
zagadnieniem koincydencji.
Przykªad 4.1.5. Niech zmienna losowa X b¦dzie dwumianowa o rozkªadzie B(n; p):
Przypomnijmy, »e zgodnie ze wzorem (3.11) X mo»na przedstawi¢ jako Sn = Pnk Xk ;
gdzie X ; : : : ; Xk s¡ niezale»nymi zmiennymi losowymi o rozkªadzie P (Xk = 1) =
1 P (Xk = 0) = p; k = 1; : : : ; n: Mamy wi¦c E(Xk ) = p oraz (Xk ) = p(1 p); k =
1; : : : ; n; a st¡d na mocy oczywistego uogólnienia wzorów (4.9) i (4.14) na dowoln¡
sko«czon¡ liczb¦ zmiennych losowych otrzymujemy dalej
3
2
=1
1
2
n
X
E(X ) = E(Sn) =
(X ) = (Sn) =
2
2
k
n
X
k
E(Xk ) = np;
=1
(Xk ) = np(1 p):
2
=1
Przykªad 4.1.6. (Zagadnienie koincydencji) Przypu±¢my, »e obok uªo»onej w rz¦-
dzie n-elementowej talii kart rozkªadamy drug¡ tali¦ potasown¡. Oznaczmy przez Ai
zdarzenie, »e obok i-tej karty z pierwszej talii wyst¡pi taka sama z drugiej, czyli, »e
w i-tej parze wyst¡pi koincydencja, i = 1; : : : ; n: Wtedy
P (Ai) = (n n! 1)! = n1 ; P (Ai \ Aj ) = (n n! 2)! = n(n1 1) ; i 6= j:
Niech X b¦dzie liczb¡ koincydencji. Zauwa»my, »e X = Pni 1Ai ; gdzie 1A oznacza
indykator zbioru A: Mamy zatem
n
n
X
X
E(X ) = E(1Ai ) = P (Ai) = n 1 = 1
n
i
i
=1
=1
=1
ROZDZIA 4. MOMENTY I TRANSFORMATY
72
oraz
n
X
E(X ) = E(
2
i
=1
n
X
i
=1
E(1Ai ) + 2
2
X
i6 j
n
X
2
2
i6 j
i
=1
E(1Ai 1Aj ) =
=
X
1Ai ) = E( 1Ai + 2 1Ai 1Aj ) =
=
n
X
i
=1
!
P (Ai) + 2
X
i6 j
P (Ai \ Aj ) =
=
n n1 + 2 n2 n(n1 1) = 1 + 1 = 2:
St¡d i z powy»szego otrzymujemy ostatecznie
E(X ) = 1
oraz
(X ) = 2 1 = 1:
2
2
Pokazali±my wi¦c, »e niezale»nie od wielko±ci talii zarówno warto±¢ oczekiwana, jak
i odchylenie standardowe liczby koincydencji wynosi 1:
4.2
Funkcja tworz¡ca i funkcja charakterystyczna
Oprócz omawianej ju» dystrybuanty bardzo wygodnym i skutecznym narz¦dziem
badania zmiennej losowej s¡ tzw. transformaty jej rozkªadu. Poznamy teraz dwie z
nich { funkcj¦ tworz¡c¡ oraz funkcj¦ charakterystyczn¡. Pierwsz¡ z nich okre±la si¦
jedynie dla zmiennych losowych o warto±ciach caªkowitych nieujemnych, druga jest
bardziej uniwersalna { mo»na j¡ zdeniowa¢ dla dowolnej zmiennej losowej.
A. Funkcja tworz¡ca
Niech X b¦dzie zmienn¡ losow¡ o rozkªadzie f(k; pk ); k = 0; 1; : : :g:
Denicja 4.2.1. Funkcj¦ g : < ! < dan¡ wzorem
g(s) = p + p s + p s + : : : + pk sk + : : : =
2
0
1
2
X
k
pk sk
(4.17)
nazywamy funkcj¡ tworz¡c¡ (rozkªadu) zmiennej losowej X .
Poniewa» Pk pk = 1, wi¦c funkcja g(s) jest sko«czona (szereg pot¦gowy z powy»szej
denicji jest zbie»ny) przynajmniej dla jsj < 1:
Przechodz¡c do wªasno±ci funkcji tworz¡cej, omówimy jako pierwsz¡ wzajemnie jednoznaczn¡ odpowiednio±¢ mi¦dzy rozkªadem zmiennej losowej a jej funkcj¡ tworz¡c¡.
Twierdzenie 4.2.2. Rozkªad zmiennej losowej X przyjmuj¡cej warto±ci caªkowite
4.2. FUNKCJA TWORZCA I FUNKCJA CHARAKTERYSTYCZNA
73
nieujemne jest jednoznacznie wyznaczony przez jej funkcj¦ tworz¡c¡ g. Poszczególne
prawdopodobie«stwa obliczamy wedªug wzoru
n
pn = g n(0)
; n = 0; 1; : : : :
(4.18)
!
Dowód. Na mocy uwagi nast¦puj¡cej tu» po denicji funkcji tworz¡cej, widzimy, »e
r 1 jest promieniem zbie»no±ci szeregu z (4.17). Ró»niczkuj¡c szereg dla jsj < 1
wyraz po wyrazie, otrzymujemy
(
)
g0(s) = p + 2p s + : : : + kpk sk + : : : =
1
1
2
X
k
g00(s) = 2p + 3 2p s + : : : + k(k 1)pk sk + : : : =
2
2
3
oraz ogólnie
g n (s) =
(
)
X
k
kpk sk ;
1
X
k
k(k 1)pk sk
2
k(k 1) : : : (k n + 1)pk sk n; n = 0; 1; : : : :
(4.19)
Kªad¡c s = 0; otrzymujemy
g n (0) = n!pn
(
n
pn = g n(0)
! ;
(
lub równowa»nie
)
)
n = 0; 1; : : : :
Twierdzenie jest zatem udowodnione.
Mo»no±¢ odczytania rozkªadu nie jest jedyn¡ korzy±ci¡ pªyn¡c¡ ze znajomo±ci
funkcji tworz¡cej. Okazuje si¦, »e mo»na dzi¦ki niej znajdowa¢ kolejne momenty
zmiennej losowej, a tak»e bada¢ sumy niezale»nych zmiennych losowych o warto±ciach caªkowitych nieujemnych, o czym mówi¡ poni»sze twierdzenia i przykªady.
Twierdzenie 4.2.3. Je±li istnieje drugi moment E(X ) zmiennej losowej X maj¡cej
funkcj¦ tworz¡c¡ g, to
2
E(X ) = g0(1)
E(X ) = g00(1) + g0(1):
oraz
2
(4.20)
Dowód. Kªad¡c s = 1 we wzorze (4.19) dla n = 1 oraz n = 2 , otrzymujemy
g0(1) =
oraz
g00(1) =
X
k
k(k 1)pk =
X
k
X
k
kpk = E(X )
k pk
2
X
k
kpk = E(X ) E(X );
2
ROZDZIA 4. MOMENTY I TRANSFORMATY
74
a wi¦c
E(X ) = g00(1) + E(X ) = g00(1) + g0(1):
2
Wzory (4.20) s¡ zatem udowodnione.
Przykªad 4.2.1.
(a) Rozwa»my zmienn¡ losow¡ X geometryczn¡ o rozkªadzie G (p) i znajd¹my najpierw
jej funkcj¦ tworz¡c¡. Zgodnie z (3.9) oraz (4.17) mamy
g(s) =
1
X
sk p(1 p)k
k
1
=1
=1pp
1
X
k
(s(1 p))k = 1 ssp
(1 p) ;
=1
a st¡d otrzymujemy kolejno
g0(s) = (1 s(1p p)) ;
g00(s) = (1 2ps(1(1 pp))) :
oraz
2
3
Zastosowanie wzorów (4.20) pozwala wi¦c natychmiast wyznaczy¢
E(X ) = g0(1) = 1p oraz (X ) = g00(1) + g0(1) (g0(1)) = 1 p p :
2
2
2
(b) Podobnie, dla zmiennej losowej Poissona X P () ªatwo pokaza¢, »e funkcja
tworz¡ca jest postaci
g(s) = e s :
(1
)
Stosuj¡c wzory (4.20), znajdujemy warto±¢ oczekiwan¡ oraz wariancj¦:
E(X ) = = (X ):
2
Widzimy, »e parametr rozkªadu zmiennej losowej Poissona oznacza zarówno jej warto±¢ oczekiwan¡, jak i wariancj¦.
Twierdzenie 4.2.4. Je±li zmienne losowe X i Y s¡ niezale»nymi zmiennymi losowymi
o funkcjach tworz¡cych g (s) i g (s), odpowiednio, to ich suma X + Y ma funkcj¦
tworz¡c¡ postaci
g(s) = g (s) g (s):
(4.21)
1
2
1
2
Dowód. Zauwa»my, »e na funkcj¦ tworz¡c¡ zmiennej losowej X o rozkªadzie f(k; pk );
k = 0; 1; : : :g mo»na patrze¢ jako na warto±¢ oczekiwan¡ zmiennej losowej sX ;
E(sX ) =
X k
s pk :
k
4.2. FUNKCJA TWORZCA I FUNKCJA CHARAKTERYSTYCZNA
75
Korzystaj¡c z tego zapisu, obliczmy funkcj¦ tworz¡c¡ sumy T = X + Y . Mamy
g(s) = E(sT ) = E(sX Y ) = E(sX ) E(sY ) = g (s) g (s):
+
1
2
Poniewa» niezale»no±¢ zmiennych losowych X i Y poci¡ga niezale»no±¢ zmiennych
losowych sX i sY , wi¦c zastosowanie wzoru (4.10) jest uzasadnione.
Przykªad 4.2.2. Dla niezale»nych zmiennych losowych X P () oraz Y P ()
znajd¹my funkcj¦ tworz¡c¡ sumy Z = X + Y:
Z poprzedniego przykªadu znamy funkcj¦ tworz¡c¡ ka»dej z rozpatrywanych zmiennych losowych. Na mocy (4.21) zmiennej losowej Z odpowiada wi¦c funkcja tworz¡ca
postaci
e s e s =e s :
Wykorzystamy teraz otrzymany powy»ej wynik do pokazania wa»nej wªasno±ci klasy
zmiennych losowych Poissona.
Twierdzenie 4.2.5. Suma niezale»nych zmiennych losowych Poissona o rozkªadach
P () oraz P (), odpowiednio, jest zmienn¡ losow¡ Poissona o rozkªadzie P ( + ):
Dowód. W funkcji tworz¡cej otrzymanej w przykªadzie 4.2.2 rozpoznajemy funkcj¦
tworz¡c¡ rozkªadu P ( ), gdzie parametr jest sum¡ + parametrów rozkªadów
zmiennych losowych X i Y: Poniewa» zgodnie z twierdzeniem 4.2.2 funkcja tworz¡ca
jednoznacznie wyznacza rozkªad, stwierdzamy, »e dodawanie niezale»nych zmiennych
losowych Poissona nie wyprowadza z tej klasy zmiennych losowych.
(1
)
(1
)
(
+
)(1
)
B. Funkcja charakterystyczna
Niech X b¦dzie dowoln¡ zmienn¡ losow¡ oraz niech C onacza zbiór liczb zespolonych,
a i jednostk¦ urojon¡.
Denicja 4.2.6. Funkcj¦ ' : < ! C dan¡ wzorem
'(t) = E(eitX ) = E(cos tX ) + iE(sin tX )
(4.22)
nazywamy funkcj¡ charakterystyczn¡ zmiennej losowej X .
Przypomnijmy, »e jeitxj = 1; x 2 <, a zatem prawa strona wzoru (4.22) jest zawsze
sko«czona, co oznacza, »e funkcja charakterystyczna jest okre±lona na caªej prostej
dla ka»dej zmiennej losowej.
Funkcja charakterystyczna, podobnie jak funkcja tworz¡ca, jest wygodnym narz¦dziem znajdowania momentów oraz badania sum niezale»nych zmiennych losowych.
ROZDZIA 4. MOMENTY I TRANSFORMATY
76
Inne wa»ne zastosowanie funkcji charakterystycznej omówimy w rozdziale 5.
Oto analogony twierdze« 4.2.2, 4.2.3 oraz 4.2.4 dla funkcji charakterystycznych.
Twierdzenie 4.2.7. Rozkªad zmiennej losowej X jest jednoznacznie wyznaczony
przez jej funkcj¦ charakterystyczn¡ ': Je±li x i x s¡ punktami ci¡gªo±ci dystrybuanty F zmiennej losowej X , to zachodzi nast¦puj¡cy wzór na odwrócenie:
1
Z1e
F (x ) F (x ) = 21
2
itx1
itx2
e
'(t) dt:
it
Dowód pomijamy. Mo»na go znale¹¢ w ksi¡»ce S. Zubrzyckiego Wykªady z rachunku
prawdopodobie«stwa i statystyki matematycznej, roz.VII, par. 36.
Twierdzenie 4.2.8. Je±li istnieje drugi moment E(X ) zmiennej losowej X maj¡cej
funkcj¦ charakterystyczn¡ ', to
(4.23)
E(X ) = 1 '0(0) oraz E(X ) = 1 '00(0):
i
i
Dowód. Niech X ma rozkªad f(xk ; pk ); k = 1; 2; : : :g. Wtedy
2
1
1
2
2
2
X
X
k
k
'0(t) = ( eitxk pk )0 =
a wi¦c
'0(0) = i
X
k
ixk eitxk pk ;
xk pk = iE(X ):
Dla zmiennej losowej X z g¦sto±ci¡ f mamy natomiast
'0(t) =
sk¡d
Z 1
0 Z 1
eitx f (x) dx =
ixeitx f (x) dx;
1
1
Z1
0
' (0) = i xf (x) dx = iE(X ):
1
W obu przypadkach wchodzenie z ró»niczkowaniem pod znak sumy lub caªki jest uzasadnione zaªo»eniem E(X ) < 1:
Podobnie pokazujemy drugi ze wzorów (4.23).
Twierdzenie 4.2.9. Je±li X i Y s¡ niezale»nymi zmiennymi losowymi o funkcjach
charakterystycznych ' (t) i ' (t), odpowiednio, to ich suma X + Y ma funkcj¦ charakterystyczn¡ postaci
'(t) = ' (t) ' (t):
(4.24)
1
2
1
2
4.2. FUNKCJA TWORZCA I FUNKCJA CHARAKTERYSTYCZNA
77
Dowód pozostawiamy jako ¢wiczenie.
Poka»emy natomiast, jak zastosowa¢ powy»szy wzór do znalezienia funkcji charakterystycznej zmiennej losowej dwumianowej.
Przykªad 4.2.3. Niech X b¦dzie zmienn¡ losow¡ dwumianow¡ o rozkªadzie B(n; p)
i funkcji charakterystycznej 'n(t). Pami¦taj¡c o przedstawieniu zmiennej losowej X
jako sumy n niezale»nych zmiennych losowych zero-jedynkowych (wzór (3.11)) i korzystaj¡c z twierdzenia 4.2.9, otrzymujemy
'n(t) = E(eitX ) = E(exp(it
n
X
k
Xk )) = [E(eitX1 )]n
=1
(peit + (1 p)e )n = (1 p(1 eit))n:
0
Lemat, który teraz przedstawimy, pokazuje jak przeksztaªcenie liniowe zmiennej
losowej zmienia jej funkcj¦ charakterystyczn¡. Otrzymany wzór uªatwi nam znalezienie funkcji charakterystycznej zmiennej losowej normalnej.
Lemat 4.2.10. Niech zmienna losowa X ma funkcj¦ charakterystyczn¡ '(t): Wtedy
zmienna losowa Y = aX + b, gdzie a; b 2 <; ma funkcj¦ charakterystyczn¡
(t) = eitb '(at):
Dowód. Zgodnie ze wzorem (4.22) mamy
(t) = E(eitY ) = E(eit aX b ) = E(ei at X eitb ) = eitb E(ei at X ) = eitb '(at);
(
+ )
(
)
(
)
co dowodzi tezy lematu.
Przykªad 4.2.4. Rozwa»my zmienn¡ losow¡ normaln¡ standardow¡ o rozkªadzie
N (0; 1) i znajd¹my jej funkcj¦ charakterystyczn¡ ': Otó»
Z1
eitx e
'(t) = p1
2 1
x2
2
dx
Z1
= p1
expf [( px ) 2 px ( pit ) + (it) + t ]g dx
2
2
2 1
2
2
2
Z1
2
= e t2 p1
expf ( px i pt ) g dx:
2 1
2
2
2
2
2
2
ROZDZIA 4. MOMENTY I TRANSFORMATY
78
Poniewa» caªka funkcji p e z2 ; z 2 C ; wzdªu» dowolnej prostej równolegªej do osi
rzeczywistej jest równa caªce wzdªu» osi rzeczywistej, czyli
1
2
2
Z1
Z1
1
(
x
it
)
1
p
exp(
) dx = p
exp( x ) dx;
2
2
2 1
2 1
2
wi¦c
2
2
'(t) = e t2 :
(4.25)
Rozwa»my teraz dowoln¡ zmienn¡ losow¡ normaln¡ Y o rozkªadzie N (m; ): Pami¦taj¡c, »e zgodnie z relacj¡ (3.19) mo»emy j¡ przedstawi¢ jako Y = X + m i znaj¡c ze
wzoru (4.25) funkcj¦ charakterystyczn¡ zmiennej losowej X , otrzymujemy na mocy
lematu 4.2.10 funkcj¦ charakterystyczn¡ zmiennej losowej Y postaci
2
(t) = eitm
t2 2
2
:
(4.26)
Na koniec zauwa»my jeszcze, »e podobnie jak klasa zmiennych losowych Poissona,
tak i klasa zmiennych losowych normalnych jest zamkni¦ta ze wzgl¦du na dodawanie
niezale»nych skªadników.
Twierdzenie 4.2.11. Suma niezale»nych zmiennych losowych normalnych o rozkªadach N (m ; ) oraz N (m ; ), odpowiednio, jest zmienn¡ losow¡ normaln¡ o
rozkªadzie N (m + m ; + ):
Dowód b¦d¡cy prostym wnioskiem z twierdzenia 4.2.9, wzoru (4.26) oraz twierdzenia
4.2.7 pozostawiamy jako ¢wiczenie.
2
1
1
4.3
2
1
2
2
1
2
2
2
2
Zadania
1. Udowodnij lemat 4.1.2 oraz cz¦±¢ (b) lematu 4.1.6.
2. Niech dla zmiennej losowej X i pewnej staªej c zachodzi P (X = c) = 1. Oblicz
warto±¢ oczekiwan¡ oraz wariancj¦ zmiennej losowej X i podaj interpretacj¦
otrzymanego wyniku.
3. Znajd¹ warto±¢ oczekiwan¡ oraz wariancj¦ zmiennej losowej jednostajnej, wykªadniczej i normalnej. Jak warto±¢ odchylenia standardowego wpªywa na ksztaªt
krzywej g¦sto±ci zmiennej losowej normalnej?
4.3. ZADANIA
79
4. Loteria miasta M. ma 1 mln biletów, w±ród których jest 1, na który przypada
wygrana 50 000 zª., 9 wygrywaj¡cych po 2 500 zª., 90 po 250 zª. oraz 900 po
25 zª. Oblicz oczekiwan¡ wygran¡, je±li kupujemy 1 bilet, 10 biletów. Gdyby
sprzedano 80% biletów, ka»dy w cenie 50 gr., jaka byªaby spodziewana kwota
do wypªacenia oraz spodziewany zysk loterii?
5. Na ko«cowym egzaminie z lozoi student mo»e otrzyma¢ maksymalnie 100
punktów. rednia ocen uzyskanych przez 800 studentów wynosi 72.5, a odchylenie standardowe 8.2. Stosuj¡c nierówno±¢ Czebyszewa, podaj, co najmniej ilu
studentów musiaªo otrzyma¢ oceny od 55 do 90 punktów.
6. Oszacuj prawdopodobie«stwo wyrzucenia liczby orªów zawartej mi¦dzy 400 a
500 na 900 rzutów monet¡.
7. Rzucamy raz pi¦cioma kostkami do gry. Oblicz warto±¢ oczekiwan¡ i wariancj¦
sumy oczek na wszystkich kostkach.
8. Dla zmiennych losowych X i Y oraz ka»dego 2 < okre±lamy zmienn¡ losow¡
U = (X E(X )) + (Y E(Y )): Obliczaj¡c E(U ); udowodnij, »e
2
Cov (X; Y ) (X ) (Y ); a st¡d j(X; Y )j 1:
2
2
2
9. Znajd¹ wspóªczynnik korelacji zmiennych losowych X oraz Y = aX + b, gdzie
a 6= 0; b s¡ dowolnymi staªymi.
10. Wektor losowy (X; Y ) ma rozkªad postaci
Tab. 5.
X nY 1 2 3
0 0:3 0:2 0:1
1 0:2 0:1 0:1
Niech Z = 2X + Y . Oblicz warto±¢ oczekiwan¡ oraz wariancj¦ zmiennej losowej Z .
11. Charakterystyki liczbowe wektora losowego (X; Y ) s¡ nast¦puj¡ce:
E(X ) = 0; E(Y ) = 1; (X ) = 2; (Y ) = 1; (X; Y ) = p1 :
2
Niech Z = 2X 3Y . Oblicz warto±¢ oczekiwan¡ oraz wariancj¦ zmiennej losowej Z .
2
2
ROZDZIA 4. MOMENTY I TRANSFORMATY
80
12. Przyjmijmy, »e g¦sto±¢ wektora losowego (X; Y ) jest równa staªej a wewn¡trz
trójk¡ta o wierzchoªkach A(0; 0), B (1; 0) i C (0; 1) oraz 0 poza nim. Oblicz wspóªczynnik korelacji wspóªrz¦dnych losowo wybranego punktu tego trójk¡ta.
13. Wiedz¡c, »e zmienna losowa X ma funkcj¦ tworz¡c¡ g(s); znajd¹ funkcj¦ tworz¡c¡ zmiennej losowej Y = X + 1 oraz zmiennej losowej Z = 3X + 2:
14. Znajd¹ funkcj¦ tworz¡c¡ rozkªadu zmiennej losowej dwumianowej i Poissona.
15. Stosuj¡c funkcje tworz¡ce, udowodnij, »e suma niezale»nych zmiennych losowych dwumianowych z odpowiednimi parametrami jest zmienn¡ losow¡ dwumianow¡. Podaj interpretacj¦ zwi¡zan¡ ze schematem Bernoulliego.
16. Znajd¹ funkcj¦ charakterystyczn¡ zmiennej losowej Poissona i jednostajnej.
17. Udowodnij drugi ze wzorów (4.23) oraz twierdzenia 4.2.9 i 4.2.11.
18. Niech X b¦dzie zmienn¡ losow¡ tak¡, »e E(esX ) < 1 dla jsj < s ; s > 0:
Funkcja : < ! <
(s) = E(esX )
jest jeszcze jedn¡ cz¦sto stosowan¡ transformat¡ rozkªadu zmiennej losowej
znan¡ jako funkcja tworz¡ca momenty. Wzoruj¡c si¦ na dowodzie twierdzenia 4.2.8, udowodnij nast¦puj¡c¡ uzasadniaj¡c¡ t¦ nazw¦ równo±¢:
0
E(X n) = n (0);
(
)
0
n = 0; 1; : : :
19. Poka», »e funkcja tworz¡ca momenty zmiennej losowej o rozkªadzie (n; ) jest
postaci
n
(s) = ( s)n ; 0 s < ;
a st¡d, opieraj¡c si¦ na wzorze z poprzedniego zadania, poka», »e n ty moment
zmiennej losowej wykªadniczej X o rozkªadzie E () jest równy
E(X n) = nn! :
20. Niech X b¦dzie zmienn¡ losow¡ normaln¡ standardow¡. Stosuj¡c funkcj¦ charakterystyczn¡ lub tworz¡c¡ momenty, udowodnij nast¦puj¡ce wzory:
E(X
k
2
1
) = 0; E(X k ) = (2k 1) (2k 3) : : : 3 1; k = 1; 2; : : :
2
Rozdziaª 5
Twierdzenia graniczne
5.1 Informacja o sªabej zbie»no±ci
W teorii prawdopodobie«stwa rozwa»a si¦ kilka poj¦¢ zbie»no±ci zmiennych losowych. W tym wykªadzie b¦dziemy rozpatrywa¢ gªównie sªab¡ zbie»no±¢.
Denicja 5.1.1. Niech fX; Xn ; n = 1; 2; : : :g b¦dzie ci¡giem zmiennych losowych
oraz fF; Fn; n = 1; 2; : : :g ci¡giem odpowiadaj¡cych im dystrybuant. Je±li dla ka»dego x0 b¦d¡cego punktem ci¡gªo±ci dystrybuanty F zmiennej losowej X speªniony
jest warunek
lim F (x ) = F (x0 );
(5.1)
n!1 n 0
to mówimy, »e ci¡g zmiennych losowych fXn; n = 1; 2; : : :g jest sªabo zbie»ny
(zbie»ny wedªug rozkªadu) do zmiennej losowej X . Zbie»no±¢ t¦ oznaczamy przez
d
Xn !
X; n ! 1:
Mo»na pokaza¢, »e w przypadku zmiennych losowych dyskretnych warunek (5.1)
jest równowa»ny nast¦puj¡cemu:
lim
(5.2)
!1 P (Xn = xk ) = P (X = xk ); k = 1; 2; : : : :
Dla wszystkich typów zmiennych losowych prawdziwe jest natomiast nast¦puj¡ce
twierdzenie wskazuj¡ce na jeszcze jedno zastosowanie funkcji charakterystycznej. Okazuje si¦, »e stanowi ona tak»e wygodne narz¦dzie badania sªabej zbie»no±ci.
Twierdzenie 5.1.2. Niech fXn ; n = 1; 2; : : :g b¦dzie ci¡giem zmiennych losowych
oraz fFn; n = 1; 2; : : :g i f'n; n = 1; 2; : : :g ci¡gami odpowiadaj¡cych im dystrybuant
i funkcji charakterystycznych. Je±li dla ka»dego t 2 < speªniony jest warunek
n
lim
!1 'n(t) = '(t);
n
81
(5.3)
ROZDZIA 5. TWIERDZENIA GRANICZNE
82
gdzie ' jest funkcj¡ charakterystyczn¡ pewnej zmiennej losowej X o dystrybuancie
F , to dla ka»dego x b¦d¡cego punktem ci¡gªo±ci dystrybuanty F zachodzi zbie»no±¢
0
lim
F
n!1 n
lub równowa»nie
(x ) = F (x )
0
d
Xn !
X;
0
n ! 1:
Dowód pomijamy. Mo»na go znale¹¢ w cytowanej ju» ksi¡»ce S. Zubrzyckiego Wykªady
z rachunku prawdopodobie«stwa i statystyki matematycznej, roz.VII.
Wykorzystamy natomiast powy»sze twierdzenie do udowodnienia dwóch z czoªowych
twierdze« rachunku prawdopodobie«stwa { Twierdzenia Poissona oraz Centralnego
Twierdzenia Granicznego.
5.2
Twierdzenie Poissona
Rozwa»my ci¡g zmiennych losowych fBn; n = 1; 2; : : :g dwumianowych o rozkªadach B(n; pn): Jak ju» wspomnieli±my (uwaga po wzorze (3.10)), je±li parametry n i
pn speªniaj¡ pewien warunek, to prawdopodobie«stwa P (Bn = k); k = 0; 1; : : : ; s¡
bliskie (w sensie zbie»no±ci (5.2)) prawdopododobie«stwom rozkªadu Poissona. Precyzuje t¦ uwag¦ nast¦puj¡ce Twierdzenie Poissona.
Twierdzenie 5.2.1. Je±li speªniony jest warunek
lim npn = > 0;
(5.4)
n!1
to
lub równowa»nie
k
lim
P
(
B
=
k
)
=
e
;
n
n!1
k!
d
Bn !
X;
n ! 1;
k = 0; 1; : : : ;
(5.5)
gdzie X P ():
(5.6)
. Na mocy twierdzenia 5.1.2 wystarczy pokaza¢, »e funkcje charakterystyczne
'n (t) zmiennych losowych Bn ; n = 1; 2; : : : ; s¡ zbie»ne do funkcji charakterystycznej
'(t) zmiennej losowej X . Korzystaj¡c z przykªadu 4.2.3 oraz zadania 4.16, mamy
Dowód
'n (t) = (1
pn (1
eit ))n ; n = 1; 2; : : : ;
oraz '(t) = e
(1 eit )
:
5.3. CENTRALNE TWIERDZENIE GRANICZNE
St¡d na mocy warunku (5.4) otrzymujemy
lim
'
n!1 n
(t) = nlim
!1 1
npn (1 eit )
n
83
!n
=e
(1 eit ) ;
co ko«czy dowód twierdzenia.
Praktyczne zastosowanie Twierdzenia Poissona ilustrujemy przykªadem.
Przykªad 5.2.1. Wiedz¡c, »e pewna choroba wyst¦puje u 1% osobników danej populacji, rozwa»my pytania:
(i) Jakie jest prawdopodobie«stwo, »e w±ród losowo wybranych 100 osobników tej
populacji
(a) nie ma ani jednego chorego?
(b) znajduj¡ si¦ co najmniej dwa osobniki chore?
(ii) Ilu co najmniej osobników populacji nale»y zbada¢, aby prawdopodobie«stwo znalezienia osobnika chorego wynosiªo co najmniej 0.95?
Oznaczmy przez B liczb¦ chorych w±ród osobników wybranych z populacji. Zmienna
losowa B jest zatem dwumianowa o rozkªadzie B(100; 0:01); czyli
!
100
(0:01)k (0:99) k ; k = 0; 1; : : : ; 100:
P (B = k ) =
k
100
W odpowiedzi na pytanie (i) zmienn¡ losow¡ B B(100; 0:01) zast¦pujemy zmienn¡
losow¡ X P (); = np = 1: Otrzymujemy wówczas prawdopodobie«stwa:
(a) P (B = 0) P (X = 0) = e = 0:368;
(b) P (B 2) P (X 2) = 1 P (X = 0) P (X = 1) = 1 2e = 0:264:
W odpowiedzi na pytanie (ii) zastosujemy tak»e przybli»enie zmienn¡ losow¡ Poissona. Zauwa»my, »e aby speªniona byªa nierówno±¢ P (B 1) 0:95 lub równowa»nie
1
1
P (B = 0) P (X = 0) = e n0:01 0:05;
musi by¢ speªniona nierówno±¢
n 0:01 5.3
ln 0:05;
czyli
n 300:
Centralne Twierdzenie Graniczne
Centralne Twierdzenie Graniczne (w skrócie C.T.G.), którego najprostsz¡ wersj¦ sformuªujemy i udowodnimy, ma niezwykle wa»ne znaczenie zarówno w teorii
84
ROZDZIA 5. TWIERDZENIA GRANICZNE
prawdopodobie«stwa, jak i w jej zastosowaniach. Pozwala ono bowiem zast¦powa¢
rozkªadem N (0; 1) rozkªady sum odpowiednio unormowanych dowolnych zmiennych
losowych, je±li tylko s¡ niezale»ne i maj¡ jednakowy rozkªad o dodatniej wariancji.
Mo»liwe jest osªabienie powy»szych zaªo»e« dotycz¡ce zarówno niezale»no±ci zast¦powanej ró»nego typu "sªabymi" zale»no±ciami, jak i jednakowo±ci rozkªadów, musi by¢
ono jednak rekompensowane dodatkowymi warunkami nakªadanymi na rozpatrywane
zmienne losowe.
W dowodzie przedstawianej tu wersji twierdzenia posªu»ymy si¦ aparatem funkcji
charakterystycznych.
Lemat 5.3.1. Je±li zmienna losowa X ma warto±¢ oczekiawn¡ E(X ) = 0 oraz wariancj¦ 2(X ) = 1, to jej funkcja charakterystyczna '(t) ma nast¦puj¡ce rozwini¦cie
Taylora w punkcie t = 0:
2
'(t) = 1 t2 (1 + "(t));
(5.7)
gdzie limt!0 "(t) = 0:
Dowód. Na mocy zaªo»e« oraz twierdzenia 4.2.8 funkcja charakterystyczna '(t) ma
dla t = 0 drug¡ pochodn¡. Daje si¦ zatem przedstawi¢ w postaci
00
'(t) = '(0) + '0(0) t + ' 2(0) t2(1 + "(t));
gdzie limt!0 "(t) = 0: Poniewa» '(t) = E(eitX ), wi¦c na mocy wzorów (4.23)
'(0) = 1; '0(0) = iE(X ) = 0; '00 (0) = i2 E(X 2) = 1;
sk¡d otrzymujemy tez¦ lematu, czyli wzór (5.7).
Sformuªujemy teraz i udowodnimy Centralne Twierdzenie Graniczne. Przypomnijmy (uwaga po wzorze (3.20)), »e dystrybuant¦ zmiennej losowej normalnej
standardowej X N (0; 1) oznaczamy przez :
Twierdzenie 5.3.2. Niech fXn; n = 1; 2; : : :g b¦dzie ci¡giem niezale»nych zmiennych
losowych o jednakowym rozkªadzie z warto±ci¡ oczekiwan¡ E(X1 ) = m oraz wariancj¡
2(X1 ) = 2 > 0: Dla ka»dej pary a < b oraz Sn = Pnk=1 Xk zachodzi zbie»no±¢
1
0
Zb 2
S
E(
S
)
n
n bA = (b) (a) = p1
@
q
lim
P
a
<
(5.8)
e 2 dt
n!1
2 a
2(Sn)
lub równowa»nie
Sq
d X; n ! 1;
n E(Sn ) !
gdzie X N (0; 1):
2(Sn)
t
5.3. CENTRALNE TWIERDZENIE GRANICZNE
85
Poniewa» E(Sn) = nm oraz 2(Sn) = n2, wi¦c wzór (5.8) jest równowa»ny nast¦puj¡cemu:
Uwaga 5.3.3.
!
S
n nm)
lim P a < pn b = (b) (a):
n!1
Dowód.
(5.9)
Wprowad¹my nast¦puj¡ce oznaczenia:
n
Sn pnm = p1 X
n E(Sn )
=
Xk = Xk m ; Sn = Sq
Xk; Fn(x) = P (Sn x):
2
n
n
(Sn)
k=1
(5.10)
Zgodnie z tymi oznaczeniami relacja (5.9) przyjmuje posta¢
lim (Fn(b) Fn(a)) = (b) (a):
n!1
Aby pokaza¢ jej prawdziwo±¢, wystarczy na mocy twierdzenia 5.1.2 oraz wzoru (4.25)
udowodni¢, »e dla ka»dego t 2 < oraz 'n(t) = E(eitSn ) speªniony jest warunek
lim ' (t) = e
n!1 n
t2
2
:
Korzystaj¡c z oznacze« (5.10), mamy na mocy zaªo»e« twierdzenia
n
X
1
'n(t) = E(exp(it pn Xk ) = (E(exp(i ptn X1 ))n:
k=1
Nale»y wi¦c obliczy¢ funkcj¦ charakterystyczn¡ zmiennej losowej X1 i wzi¡¢ jej warto±¢ w punkcie ptn . Z okre±lenia zmiennej losowej X1 mamy E(X1) = 0; 2 (X1) = 1:
Speªnione s¡ zatem zaªo»enia lematu 5.3.1, sk¡d otrzymujemy
!n 0
2
t
t
'n(t) = 1 2n (1 + "( pn )) = @1
1
"( ptn )) An
:
n
t2 (1 +
2
Poniewa» na mocy (5.7) limn!1(1 + "( ptn )) = 1, wi¦c widzimy, »e
lim ' (t) = e
n!1 n
t2
2
;
co ko«czy dowód twierdzenia.
Szczególnym przypadkiem C.T.G. jest twierdzenie Moivre'a-Laplace'a.
Twierdzenie 5.3.4. Niech fXn ; n = 1; 2; : : :g b¦dzie ci¡giem niezale»nych zmiennych
ROZDZIA 5. TWIERDZENIA GRANICZNE
86
losowych o jednakowym rozkªadzie postaci P (Xn = 1) = 1 P (Xn = 0) = p; n =
1; 2; : : : : Dla ka»dej pary a < b zachodzi zbie»no±¢
0
Sn
@
q
lim
P
a
<
n!1
np
np(1 p)
1
bA = (b) (a)
(5.11)
lub równowa»nie
qSn
np
np(1 p)
!d X;
n ! 1;
gdzie X N (0; 1):
. Wzór (5.11) jest bezpo±redni¡ konsekwencj¡ relacji (5.8) oraz tego, »e zgodnie z przykªadem 4.1.5 E(Sn) = np i 2 (Sn) = np(1 p).
Podobnie jak w przypadku Twierdzenia Poissona praktyczne zastosowania twierdzenia 5.3.4 polegaj¡ na zast¡pieniu rozkªadu odpowiednio unormowanej zmiennej losowej dwumianowej rozkªadem zmiennej losowej normalnej. Przyjmuje si¦, »e aproksymacja taka jest mo»liwa do przyj¦cia, gdy np > 5 oraz n(1 p) > 5.
Przykªad 5.3.1. Znajd¹my prawdopodobie«stwo, »e w±ród 10 000 cyfr losowych \7"
pojawi si¦ nie wi¦cej ni» 968 razy.
Przyjmijmy oznaczenia
Dowód
Xk
(
wybierzemy \7";
= 10;; je±li
w pozostaªych przypadkach:
Dla cyfr losowych rozpatrywane zmienne losowe s¡ niezale»ne oraz
P (Xk
= 1) = 1 P (Xk = 0) = 0:1; k = 1; 2; : : : ; 10 000:
000
Zmienna losowa S = S10 000 = P10
k=1 Xk oznaczaj¡ca liczb¦ cyfr \7" jest zatem
zmienn¡ losow¡ dwumianow¡ o rozkªadzie B(10 000; 0:1). Prawdopodobie«stwo, które
chcemy znale¹¢ wynosi wi¦c
P (S
968) =
968
X
k=0
!
968
X
10
000
(0:1)k (0:9)10 000
P (S = k ) =
k=0
k
k
:
Uzyskanie st¡d liczbowej warto±ci prawdopodobie«stwa byªoby jednak bardzo kªopotliwe. Aby j¡ otrzyma¢, posªu»ymy si¦ wzorem (5.11). Otó»
0
S
P (S 968) = P @ q
1
968 10 000 0:1 A
p
10 000 0:1 0:9
np(1 p)
np
5.4. ZAGADNIENIA ESTYMACJI
0
1
S
np
968
1
000
A=
= P @q
p
900
np(1 p)
1
0
16
S
np
15 A :
P @q
np(1 p)
Otrzymane wyra»enie jest dla dostatecznie du»ych n bliskie warto±ci zapisujemy jako równo±¢ przybli»on¡
87
16
15
; co
1
0
16 16
S
np
A
@
15 15 :
P q
np(1 p)
Przypomnijmy, »e w rozdziale 3 (wzór (3.21)) wyrazili±my dystrybuant¦ poprzez
=
stablicowan¡ funkcj¦ . Ostatecznie, po odczytaniu z tablicy warto±ci 16
15
0:3577, otrzymujemy szukane prawdopodobie«stwo
16 P (S 968) 0:5 15 = 0:1423:
Jedno z wa»niejszych zastosowa« C.T.G. w ogólnym sformuªowaniu (5.8) { (5.9)
omówimy w nast¦pnym podrozdziale.
5.4 Zagadnienia estymacji
Przypu±¢my, »e w celu ustalenia warto±ci pewnej obserwowanej wielko±ci m wykonujemy n niezale»nych do±wiadcze«, w których dokonujemy pomiaru m. Najcz¦±ciej
pomiary s¡ obci¡»one bª¦dami losowymi, a wi¦c dokªadna warto±¢ m pozostaje nieznana. Wyniki pomiarów fxk ; k = 1; : : : ; ng traktujmy jako realizacj¦ próby losowej
czyli warto±ci niezale»nych zmiennych losowych fXk ; k = 1; : : : ; ng maj¡cych jednakowy rozkªad o warto±ci oczekiwanej m i wariancji 2. Dokªadniej, przyjmujemy, »e
Xk = m + "k ; k = 1; : : : ; n; gdzie zmienne losowe "k maj¡ znaczenie bª¦dów pomiaru
i s¡ niezale»nymi zmiennymi losowymi o warto±ci oczekiwanej E("k ) = 0 i wariancji
2("k ) = 2; k = 1; : : : ; n:
Najbardziej naturalny sposób estymacji czyli oszacowania (oceny) nieznanej wielko±ci
m wykorzystuje zmienn¡ losow¡
n
X
1
X n = n Xk = n1 Sn
k=1
(5.12)
ROZDZIA 5. TWIERDZENIA GRANICZNE
88
zwan¡ ±redni¡ próbkow¡ z próby losowej fXk ; k = 1; : : : ; ng:
Jest oczywiste, »e je±li za m przyjmujemy xn = n1 Pnk=1 xk ; czyli warto±¢ ±redniej próbkowej obliczon¡ dla realizacji fxk ; k = 1; : : : ; ng; to post¦powanie takie obarczone jest
bª¦dem wynosz¡cym jxn mj. Stosuj¡c C.T.G., znajdziemy teraz prawdopodobie«stwo tego, »e popeªniony bª¡d jest wi¦kszy od ustalonej warto±ci a, czyli obliczymy
P (jX n mj > a):
Poniewa» P (jX j > a) = 1 P ( a X a); wi¦c na mocy wzoru (5.9) otrzymujemy
P (jX n
p
mj > a) = P Snpnnm > a n
p
p
!
= 1 P a n Snpnnm a n
pn
pn
a
a
1 :
Wyra»aj¡c powy»sze jak w przykªadzie 5.3.1 poprzez funkcj¦ , otrzymujemy ostatecznie dla dostatecznie du»ych n
pn
a
P (jX n mj > a) 1 2 :
(5.13)
W praktyce za \du»e" n uwa»a si¦ n > 30: Nale»y jednak zdawa¢ sobie spraw¦ z tego,
»e przybli»enie otrzymane we wzorze (5.13) nie jest zbyt dokªadne. Jego dokªadno±¢
ro±nie wraz z liczebno±ci¡ n próby losowej, w oparciu o któr¡ dokonujemy oceny
wielko±ci m.
Przykªad 5.4.1. Obliczmy warto±¢ oszacowania z prawej strony wzoru (5.13) dla
n = 50,
p a = 0:02 oraz = 1.
a n
Dla = 0:14 odczytujemy w tablicy warto±¢ (0:14) = 0:056: St¡d
!
!
!!
!
P (jX 50 mj > 0:02) 1 2 0:056 = 0:888:
Znajd¹my liczb¦ do±wiadcze«, które nale»y wykona¢, aby bª¡d oszacowania nieznanej wielko±ci m przez warto±¢ ±redniej próbkowej X n byª nie wi¦kszy
ni» 10% odchylenia standardowego z prawdopodobie«stwem wynosz¡cym co najmniej 0.99.
Pytamy zatem o n takie, by
Przykªad 5.4.2.
P (jX n mj 0:1) 0:99
5.4. ZAGADNIENIA ESTYMACJI
89
lub równowa»nie, by
P (jX mj > 0:1) 0:01:
Na mocy wzoru (5.13), przyjmuj¡c a = 0:1; otrzymujemy
pn !
P (jX mj > 0:1) 1 2 10 0:01:
n
n
p St¡d 10 0:495 i znajduj¡c w tablicy warto±¢ 1 (0:495) = 2:58, widzimy, »e
n (25:8)2: Liczba do±wiadcze« musi zatem wynosi¢ co najmniej n=666.
n
Innym typem estymacji jest zagadnienie szacowania parametrów (rozkªadu) zmiennej losowej, najcz¦±ciej warto±ci oczekiwanej lub wariancji.
Przypu±¢my, »e X jest zmienn¡ losow¡ z nieznan¡ warto±ci oczekiwan¡ m i znan¡
wariancj¡ 2. Aby wyznaczy¢ warto±¢ m wykonujemy n niezale»nych do±wiadcze« {
pomiarów losowej wielko±ci X . Ich wyniki fx ; k = 1; : : : ; ng traktujemy jako realizacje n niezale»nych zmiennych losowych fX ; k = 1; : : : ; ng o jednakowym rozkªadzie,
takim jak zmienna losowa X . Za oszacowanie warto±ci oczekiwanej m przyjmujemy
jak poprzednio warto±¢ ±redniej próbkowej X = 1 P =1 X obliczon¡ dla realizacji
fx ; k = 1; : : : ; ng. Ustalamy nast¦pnie 2 (0; 1) i posªuguj¡c si¦ tablic¡ funkcji ,
wyznaczamy wielko±¢ a = a() tak¡, by
1 1
1 2(a) = lub równowa»nie a = 2 2 :
W praktyce za przyjmuje si¦ najcz¦±ciej = 0:01; 0:02; 0:05; 0:1, a odpowiadaj¡ce
im wielko±ci a oznaczane odt¡d przez z 2 wynosz¡ odpowiednio
k
k
n
n
n
k
k
k
z0 005 = 2:58; z0 01 = 2:33; z0 025 = 1:96; z0 05 = 1:64:
:
:
:
:
(5.14)
Korzystaj¡c z relacji (5.13), mamy dla n > 30
!
a
P jX mj > pn 1 2(a) = :
St¡d
!
a
a
P X pn m X + pn = 1 lub równowa»nie, stosuj¡c przyj¦te oznaczenie z 2 , otrzymujemy
n
n
P X
n
!
n
z 2 pn m X + z 2 pn = 1 :
n
(5.15)
ROZDZIA 5. TWIERDZENIA GRANICZNE
90
Odczytuj¡c powy»sz¡ równo±¢, widzimy, »e z prawdopodobie«stwem 1 nieznan¡
warto±¢ oczekiwan¡ m pokrywa (obejmuje) losowy przedziaª
"
#
X z 2 pn ; X + z 2 pn
(5.16)
zwany przedziaªem ufno±ci dla warto±ci oczekiwanej na poziomie ufno±ci
1 utworzony w oparciu o prób¦ losow¡ o n > 30 elementach.
W praktyce bierzemy przedziaª, którego ko«ce s¡ obliczonymi z wyników fx ; k =
1; : : : ; ng realizacjami losowych ko«ców przedziaªu ufno±ci (5.16).
Wielko±¢
E = z 2 pn
(5.17)
n
n
k
jest górn¡ granic¡ bª¦du, jaki popeªniamy z prawdopodobie«stwem 1 , zast¦puj¡c rzeczywist¡ warto±¢ oczekiwan¡ m realizacj¡ ±redniej próbkowej X :
Przykªad 5.4.3. Rozwa»my zmienn¡ losow¡ X o rozkªadzie P (X = 1) = 1 P (X =
0) = p, gdzie p jest nieznane. Poniewa» E(X ) = m = p, do oszacowania parametru p
mo»emy u»y¢ przedziaªu ufno±ci (5.16).
Zauwa»my naprzód, »e poniewa» 2 (X ) = p(1 p), wi¦c wariancja 2 jest tak»e
nieznana. Skoro jednak dla 0 p 1 zachodzi p(1 p) 0:25; przyjmujemy
ograniczenie 2 0:25:
Ustalaj¡c poziom ufno±ci 0.99, z (5.14) dla = 0:01 mamy z 2 = z0 005 = 2:58:
Zgodnie zatem z (5.16) przedziaª ufno±ci dla p na poziomie ufno±ci 0.99 ma posta¢
#
"
0
:
5
0
:
5
X 2:58 pn ; X + 2:58 pn :
Je±li wi¦c na n =10 000 rzutów monet¡ otrzymujemy 4 950 orªów, mo»emy stwierdzi¢
z prawdopodobie«stwem 0.99, »e rzeczywista cz¦sto±¢ p wyrzucania orªa dla tej monety mie±ci si¦ w granicach
n
:
n
n
[ 0:495 0:013; 0:495 + 0:013 ] = [ 0:482; 0:508 ];
co jest porównywalne z cz¦sto±ci¡ teoretyczn¡ wynosz¡c¡ 0:5:
5.5
Prawo Wielkich Liczb
Granicznego zachowania sum niezale»nych zmiennych losowych dotyczy tak»e
tzw. Prawo Wielkich Liczb (w skrócie P.W.L.). Ze wzgl¦du na rozpatrywany w nim
ROZDZIA 5. TWIERDZENIA GRANICZNE
92
1; 2; : : : : Je±li wariancje s¡ wspólnie ograniczone, czyli istnieje staªa M < 1 taka, »e
n2 M; n = 1; 2; : : : ; to dla ka»dego c 2 <+ zachodzi
n
1X
lim
P
n!1
n k=1 Xk
!
n
1X
m
n k=1 k < c = 1:
(5.20)
. Przyjmijmy oznaczenia Xk = Xk mk ; k = 1; : : : ; n; oraz Sn = Pnk=1 Xk:
Poniewa» E(Xk) = 0 i 2 (Xk) = 2(Xk ) = k2; k = 1; 2; : : : ; wi¦c
Dowód
E(Sn ) = 0
E(Sn )2 = 2 (Sn ) =
oraz
n
X
k=1
k2 :
Zauwa»my, »e w przyj¦tych oznaczeniach relacja (5.20) czyli teza P.W.L. jest postaci
Sn < c = 1 lub równowa»nie lim P Sn c = 0:
lim
P
n!1
n!1
n
n
Aby j¡ udowodni¢ zastosujemy nierówno±¢ Czebyszewa (5.18) do zmiennej losowej
1 n Sn : Otrzymujemy
P Snn c c12 E Snn
2
n
X
= n21c2 E(Sn )2 = n21c2 k2:
k=1
Zgodnie z zaªo»eniem wspólnej ograniczono±ci wariancji Pnk=1 k2 nM; sk¡d
M:
=
(5.21)
P Snn c nnM
2 c2 nc2
Poniewa» prawa strona nierówno±ci (5.21) d¡»y do zera przy n ! 1, teza P.W.L.
jest udowodniona.
Przykªad 5.5.1. Niech zmienne losowe Xk b¦d¡ niezale»ne o jednakowym rozkªadzie
P (Xk = 1) = 1 P (Xk = 0) = p; k = 1; 2; : : : : Zaªo»enie ograniczono±ci wariancji
jest trywialnie speªnione, wi¦c zgodnie z P.W.L. dla ka»dego c 2 <+ zachodzi
Sn
c
lim
P
p
= 0:
n!1
n Otrzymane w dowodzie oszacowanie
(5.21)
pozwala precyzyjniej okre±li¢ prawdo
Sn
podobie«stwo zdarzenia n p c : Mianowicie, w rozpatrywanym przypadku
M = 2 = p(1 p); a wi¦c na mocy (5.21) mamy
1 ;
P Snn p c = P Snn c p(1nc2 p) 4nc
2
5.6. ZADANIA
93
bo, jak wiemy, p(1 p) 41 ; dla 0 p 1:
Wyra»enie 1 S = X interpretujemy jako cz¦sto±¢ wyst¦powania sukcesu w n niezale»nych do±wiadczeniach, a p { jako \teoretyczne" prawdopodobie«stwo sukcesu
(porównaj przykªad 5.4.3). Wówczas powy»sza nierówno±¢ mo»e sªu»y¢ do wyznaczenia liczby n do±wiadcze«, która gwarantuje z zadanym prawdopodobie«stwem 1 ,
»e ró»nica mi¦dzy prawdopodobie«stwami sukcesu: do±wiadczalnym wynosz¡cym 1 S
i teoretycznym p nie przekroczy ustalonej przez nas wielko±ci c. Wielko±ci c; ; n s¡
zwi¡zane równo±ci¡ = 4 1 2 : Je±li na przykªad c = 0:02 oraz = 0:05, to n = 12 500:
Na mocy C.T.G. mo»emy jednak stwierdzi¢, »e wystarczy, by n > 2 400:
Rzeczywi±cie, przyjmuj¡c w równo±ci po wzorze (5.14) m = p; a = 1:96 (bo = 0:05)
oraz = 0:5, otrzymujemy 21p96 = 0:02; sk¡d n = 2 401:
Uwaga 5.5.3. W ±wietle powy»szego przykªadu zastosowanie prezentowanych tu
twierdze« granicznych mo»na skomentowa¢ nast¦puj¡co:
P.W.L. pozwala stwierdzi¢ zbie»no±¢ ±redniej próbkowej X do warto±ci oczekiwanej
m rozkªadu w populacji, dzi¦ki natomiast C.T.G. mo»emy dokªadniej oceni¢ szybko±¢
tej zbie»no±ci.
n
n
n
n
n
nc
:
n
n
5.6
Zadania
1. Po mie±cie je¹dzi 200 autobusów. Prawdopodobie«stwo uszkodzenia jednego
autobusu w ci¡gu doby wynosi 0.005. Zakªadaj¡c, »e autobusy psuj¡ si¦ niezale»nie jeden od drugiego, oszacuj prawdopodobie«stwo awarii w ci¡gu doby co
najwy»ej trzech autobusów.
2. Rzucamy n = 200 razy sze±cioma kostkami. Oszacuj prawdopodobie«stwo otrzymania sze±ciu ró»nych wyników k razy, gdy k = 0; 1; 2; 3; 4; 5:
3. Oblicz prawdopodobie«stwo otrzymania czterech orªów w dwunastu rzutach
monet¡,
(a) posªuguj¡c si¦ dokªadnym rozkªadem rozpatrywanej zmiennej losowej,
(b) stosuj¡c przybli»enie zgodnie z twierdzeniem Moivre'a-Laplace'a.
4. Oszacuj prawdopodobie«stwo otrzymania nie mniej ni» 50 oraz nie wi¦cej ni»
70 razy pi¦ciu oczek w 300 rzutach symetryczn¡ kostk¡.
ROZDZIA 5. TWIERDZENIA GRANICZNE
94
5. Rzucamy kostk¡ 100 razy. Oszacuj prawdopodobie«stwo, »e suma otrzymanych
oczek we wszystkich rzutach jest zawarta mi¦dzy 330 a 380.
6. Niech f
g b¦dzie ci¡giem niezale»nych zmiennych losowych o jednakowym rozkªadzie postaci
X1 ; X2 ; : : : ; X30
( )=
f x
Oszacuj prawdopodobie«stwo
P
(
e
X
x
1[0 1) (x):
;
30
Xk >
35)
:
k =1
7. Niech f
g b¦dzie ci¡giem niezale»nych zmiennych losowych standardowych normalnych. Oszacuj prawdopodobie«stwo
X1 ; X2 ; : : : ; X50
P
(
X
50
2
Xk <
70)
:
k =1
8. Stosuj¡c C.T.G. do niezale»nych zmiennych losowych Poissona z parametrem
1, udowodnij równo±¢
=1
lim
!1
! 2
X
n
n
k
e
k =0
n
n
k
:
9. Prawdopodobie«stwo uszkodzenia elementu w ci¡gu czasu wynosi = 0 2.
Oszacuj, jak du»a powinna by¢ liczba elementów, aby co najmniej 50 spo±ród
nich z prawdopodobie«stwem 0.9 nie ulegªo uszkodzeniu w ci¡gu czasu .
T
p
:
n
T
10. W teatrze maj¡cym 600 miejsc znajduj¡ si¦ dwie szatnie { na prawo i na lewo
od gªównego wej±cia. Przypu±¢my, »e ka»dy wchodz¡cy niezale»nie od innych
widzów i z jednakowym prawdopodobie«stwem kieruje si¦ do jednej z nich.
Oszacuj, ile co najmniej \numerków" powinno by¢ w ka»dej szatni, aby prawdopodobie«stwo odesªania widza do drugiej szatni z powodu braku miejsca byªo
nie wi¦ksze ni» 0.01.
11. Prawdopodobie«stwo wygrania w ruletce wynosi . Przypu±¢my, »e w pojedynczej grze gracz wygrywa lub przegrywa kwot¦ 1. Oszacuj, ile co najmniej gier
powinno dziennie mie¢ miejsce w kasynie, aby z prawdopodobie«stwem 0.5
dzienny zysk kasyna byª nie mniejszy ni» 1 000.
18
37
5.6. ZADANIA
95
12. Wynik pomiaru obarczony jest bª¦dem systematycznym m = 50 oraz bª¦dem
przypadkowym b¦d¡cym zmienn¡ losow¡ X N (0; 1002): Bª¡d caªkowity Y
jest sum¡ tych bª¦dów. Oblicz prawdopodobie«stwo tego, »e
(a) jY j < 75,
(b) wynik pomiaru nie przekracza rzeczywistej warto±ci mierzonej wielko±ci.
13. Przyjmuj¡c, »e bª¡d zapisu drugiej cyfry po przecinku w systemie dziesi¦tnym
jest zmienn¡ losow¡ jednostajn¡ o rozkªadzie U [ 0:05; 0:05], oszacuj prawdopodobie«stwo, »e bª¡d w zapisie sumy 1 000 liczb jest mniejszy od 2.
14. W celu ustalenia frakcji (procentu) p dorosªych obywateli akceptuj¡cych polityk¦
pewnej Bardzo Wa»nej Osobisto±ci przeprowadza si¦ sonda» opinii publicznej.
Podaj, ile osób powinno by¢ ankietowanych, aby z prawdopodobie«stwem co
najmniej 0.95 frakcja otrzymana z próby losowej ró»niªa si¦ od rzeczywistej
frakcji p
(a) o mniej ni» 0.01,
(b) o mniej ni» 0.05,
je±li wiadomo, »e
(i) p < 0:3,
(ii) nie ma »adnych dodatkowych informacji o p.
15. Przy 10 000 rzutów monet¡ reszka pojawiªa si¦ 5 400 razy. Oce«, czy uzasadnione
jest przypuszczenie, »e moneta byªa niesymetryczna.
16. Próba zªo»ona z 50 zapalników zostaªa wybrana z bardzo licznej partii i poddana badaniom w okre±lonych warunkach. ±redni czas dziaªania tych zapalników
wyniósª 11.75 sekundy z odchyleniem standardowym 0.14 sekundy.
(a) Podaj, jaki co najwy»ej bª¡d popeªniamy z prawdopodobie«stwem 0.95,
przyjmuj¡c warto±¢ ±redniej próbkowej (czyli 11.75 sek.) za ±redni czas dziaªania wszystkich zapalników w wielkiej partii.
(b) Opieraj¡c si¦ na tych samych danych, zbuduj przedziaª ufno±ci na poziomie
ufno±ci 0.98 dla ±redniego czasu dziaªania tych zapalników.
Okre±l, jak poziom ufno±ci wpªywa na dªugo±¢ przedziaªu ufno±ci.
17. Przy badaniu czytelnictwa w±ród wybieralnych urz¦dników pa«stwowych chcemy
oszacowa¢ m ±redni¡ liczb¦ gazet czytanych przez nich w ci¡gu tygodnia. Oszacuj, ilu urz¦dników powinno by¢ ankietowanych, aby z prawdopodobie«stwem
96
ROZDZIA 5. TWIERDZENIA GRANICZNE
0.99 mo»na byªo twierdzi¢, »e ±rednia z próby b¦dzie si¦ odchylaªa od prawdziwej ±redniej m nie wi¦cej ni» o 1.2. Wiadomo, »e odchylenie standardowe wynosi 5.3.
18. Udowodnij nierówno±¢ Czebyszewa (5.18) dla zmiennej losowej z g¦sto±ci¡.
19. Przy oznaczeniach (5.10) porównaj oszacowanie prawdopodobie«stwa
P ( k < Sn k); k = 1; 2; 3;
otrzymane z nierówno±ci Czebyszewa i z C.T.G.
20. Niech fA1; : : : ; Ang b¦dzie ci¡giem niezale»nych zdarze« takich, »e P (Ak ) = 31 ;
k = 1; 2; : : : ; n; oraz nich Xn = Pnk=1 1Ak . Dla n = 9 000 oszacuj prawdopodobie«stwo zdarzenia
1
1 0:01 :
X
n n 3
21. Stosuj¡c C.T.G., poka», »e ci¡g niezale»nych zmiennych losowych o jednakowym
rozkªadzie i sko«czonym drugim momencie speªnia tez¦ P.W.L.
22. Udowodnij, »e ka»dy z poni»szych warunków jest wystarczaj¡cy, aby ci¡g fXn; n
= 1; 2; : : :g speªniaª tez¦ P.W.L.
(a) zmienna losowa Xk zale»y jedynie od Xk 1 oraz Xk+1, k = 2; 3; : : : ; oraz
wariancje s¡ wspólnie ograniczone;
(b) wariancje s¡ wspólnie ograniczone a kowariancje ujemne;
(c) wariancje s¡ wspólnie ograniczone oraz Cov(Xi; Xj ) ! 0; gdy ji j j ! 1:
23. Niech f b¦dzie funkcj¡ ci¡gª¡ na odcinku [0,1], a fXn; n = 1; 2; : : :g ci¡giem
niezale»nych zmiennych losowych o jednakowym rozkªadzie U [0; 1]: Korzystaj¡c
R
z tego, »e E(f (Xk )) = 01 f (x)dx; k = 1; 2; : : : ; udowodnij dla ka»dego 2 <+
równo±¢
!
Z 1
f (X1 ) + : : : + f (Xn )
f (x)dx = 0:
nlim
!1 P n
0
97
Odpowiedzi do zada«
Rozdziaª 1
3. 2:
4. 3!4!5!.
5. 7 6!.
6. 1; 1; 6; 8; 9. Zauwa», »e 1 + 6 + 8 + 9 = 24 = 4!:
7. (a) 2n; (b) 2n=2.
8. n kk n ll .
9. 2 + 2 + : : : + 2 .
10.
.
11. Pi i
i .
12. 10 .
13. (a) 4 ; (b) 4; (c)
2:
14. 8 .
15. (3!) .
16. 5!(3!) (4!) :
17. (a) 6; (b) 4; (pasa»erów rozró»niamy).
.
18.
19. 4 ; 4 4!.
20. 9!.
+
1
+
1
2
10
200
50
20
5
=1
10
6
5
4
4
4
3
1
2
2
4
3
2
3
12!
5!4!3!
20!
20!
(5!)
(5!)
7
4
Rozdziaª 2
1. (a) Tn A0 ; (b) Sn
i
i
=1
2.
5
2
=
10
2
6
3. (2)3 :
4. 1 7 :
3 2
6
7!
7
:
i
=1
Ai; (c) Sni (Ai \ Tk6 i A0k ); (d) Si6 j (Ai \ Aj \ Tk6
=1
=
=
0
i6 j Ak ):
= =
98
5. 1 ( ) = 0:665; 1 ( ) 12( )( ) = 0:619;
1 ( ) 18( )( )
( ) ( ) = 0:597:
6. m = m ; sk¡d m 6.
7. 2( ) n r nn rr :
8. (a) Nale»y doda¢ f1; 2; 4; 5g; (b) nale»y doda¢ f3g; f1; 2g; f4; 5g; f1; 2; 4; 5g:
10. Wsk. P (A [ B ) 1.
11. ; ; ; ; :
12. P (A) + P (B ) + P (C ) P (A \ B ) P (A \ C ) P (B \ C ) + P (A \ B \ C ):
13. 55%.
15. :
16. a r r :
17. : Wsk. Zauwa», »e »adna cz¦±¢ nie mo»e by¢ dªu»sza ni» .
18. + 2( + + ):
pp ;
p 2p :
19. p p 3 ;
p3
p3
20. 1 (0:4 + 0:25 0:6) .
21. :
5
5 5 1
5
22. oraz 0 + = ; oraz ((210)) + (1()(101)) 2 + ((010)) = :
2
2
2
23. pp22 :
24. :
25. Wylosowanie dwóch ró»nych monet jest bardziej prawdopodobne ze szkatuªki II ;
wybieramy zatem t¦, z której nie losowali±my. P (II j monety ró»ne) = :
26. (a) ; (b) ; (c) 1:
27. :
28. p + p(1 p) + p(1 p) = p oraz p.
29. p(2p p ); p + p p :
5
5
6
6
5
18
6
16
12
6
18
1
5
6
6
17
18
1
2
6
1
5
6
6
2
5
11
16
6
1
2
1
2
2
+1
2
2
5
11
1
5
3
6
12
6
6
4 3
20
1
1
4
2
8
3
1
4
2
5
5
36
36
3
36
5
36
11
(1
1
(1
)
1
)
(1
(1
)
1
)
(1
)
3
3
4
1
1
1
9
1
5
10
10
9
10
10
10
1
0
5
10
1
3
130
139
4
7
4
10
19
19
3
28
2
1
1
2
2
2
4
3
2
5
99
Rozdziaª 3
1. (a) X (!) = X (x ; x ; x ) = min(x ; x ; x ); (b) Z (!) = Z (x; y) = x + y:
2. P (X + Y = 1) = P (f! g) = ; P (X + Y = 2) = P (f! g) = ; P (X + Y = 3)
= P (f! g) = oraz P (Y + Z = 1) = ; P (Y + Z = 2) = ; P (Y + Z = 3) = :
P (X Y = 0) = ; P (X Y = 2) = oraz P (Y Z = 0) = ; P (X Z = 2) = :
3. F (15) = 1 P (X > 15) = 1 P (X = 16) P (X = 17) P (X = 18) = 0:94:
4. P (X = 0) = P (X = 1) = ; rzut symetryczn¡ monet¡.
5. Wsk. Sprawd¹, »e Pk pk = 1; pk 0:
6. c = 1; P (X m) = m :
7. 1 1213 :
8. 1 (52 (0:95) 0:05 + (0:95) ):
10. n :: ; 0:1(0:9) :
12. 1 e :
13. e :
(
10 1 F (20) = :
15. c = 10; F (x) = 1 010; =x; xpoza
tym;
1
2
3
1
2
3
1
3
1
1
2
4
2
1
1
1
1
4
2
4
4
3
1
3
1
4
4
4
4
1
2
1
4
5
51
52
log 0 05
4
log 0 9
1
5
1
2
17. Wsk. Patrz dowód tej wªasno±ci dla zmiennej losowej geometrycznej.
19. 2(3) = 0:9973:
20. (a) 0:5+(0:5) = 0:6915; (b) 0:5+(1:1) = 0:8643; (c) (1:5)+(1:4) = 0:8524:
21. = 10:
22. m = 67:(84:
z b
>0
23. G(z) = 1 F ( z bF) (+ aP )(;X = z b ); aa <
0:
24. f (z) = e
z;
a
z 0; e
a
e :
1<y<1
25.
poza tym:
27. (a) ; (b) f (x; y) = (ln 2) 2 x y = f (x) f (y):
28. (a) 0:5 (1); (b) 1 e 12 :
p
p
29. f (x) = p e 34 x2 ; f (y) = p e y2 :
1
5
8
< p
;
g(y) = : y2
0;
1
1
3
2
1
128
3
1
2
3
2
3
2
100
8
>
>
>
<
0;
;
;
1;
30. F (x; y) = >
3
2
>
>
:
F
1
x < 1 lub y < 1
x 1; 1 y < 2
1 x < 2; y 2
x 2; y 2;
1
3
8
>
<
(x) = ylim
F
(
x;
y
)
=
!1
>
:
0; x < 1
; 1x<2
1; x 2;
F
2
3
2
8
>
<
(y) = xlim
F
(
x;
y
)
=
!1
>
:
0; y < 1
; 1y<2
1; y 2:
1
3
F (x; y) 6= F (x) F (y); zatem X i Y sa zale»ne.
(
x 1y
y>0
31. f (x; y) = e 0; 2 ; x;
poza tym:
32. :
33. Wsk. Wektor losowy (a; b) ma rozkªad jednostajny na [ 1; 1] [ 1; 1]:
R
Sporz¡d¹ rysunek. P (a b 0) = (2 + 2 x dx) = :
34. Wsk. P (Z z) = 1 P (Z > z) = 1 P (X > z; : : : ; Xn > z):
G(z) = 1 Qni (1 Fi(z)); H (t) = Qni Fi(t):
35. f(2, 0.01), (3, 0.04), (4, 0.1), (5, 0.2), (6, 0.25), (7, 0.24), (8, 0.16)g.
(
z;
0<z1
36. g(z) =
z + 4z ; 1 < z < 2:
1
2
1
2
5
7
1
1
2
0
4
2
2
3
1
=1
2
2
3
=1
3
3
8
3
3
Rozdziaª 4
2. E(X ) = c; (X ) = 0:
2
3. X U [a; b] : E(X ) = a b ; (X ) = b a ; X E () : E(X ) = ; (X ) = 2 ;
X N (m; ) : E(X ) = m; (X ) = :
4. 0:1175 zª., 1:175 zª.; 94 000 zª., 306 000 zª.
5. 624:
6. p 0:91:
7. E(X ) = 17:5; (X ) = 14 :
(
1; a > 0
9. =
1; a < 0:
10. E(Z ) = 2:5; (Z ) = 1:65:
11. E(Z ) = 3; (Z ) = 5:
12. a = 2; = :
2
+
(
2
2
2
2
2
7
12
2
2
1
2
)
12
2
1
2
1
101
13. h (s) = sg(s); h (s) = s g(s ):
Wsk. Poka» najpierw, »e dla T =3X funkcja tworz¡ca jest postaci g (s ).
14. X B(n; p) : g(s) = (1 p(1 s))n; X P () : g(s) = e s :
15. Je±li X B(n ; p); X B(n ; p); to X + X B(n + n ; p):
16. X P () : '(t) = e eit ; X U [a; b] : '(t) = eititbb eaita :
1
2
2
3
3
(1
1
1
2
(1
2
1
2
1
)
2
)
(
)
Rozdziaª 5
1. e (2 + + ):
2. e kk ; k = 0; 1; : : : ; 5; = 200 6 = 3:08:
3. (a) ( ) ( ) = 0:12; (b) X N (6; 3); P (3:5 X 4:5) = 0:117:
4. 0:499:
5. 0:8389:
6. Xi E (1); 0:5 ( p ) = 0:184:
9. n 68:
10. P ( S600p
> np ) 0:01; n 329:
11. n 37 000:
12. Y N (50; 100 ); (a) 0:4931; (b) 0:3083:
13. 0:97:
14. (a) (i) n > 8 067; (ii) n > 9 604; (b) (i) n > 323; (ii) n > 384:
15. Warto±¢ 5 400 znajduje si¦ w odlegªo±ci 8 odchyle« standardowych od ±redniej.
Przy symetrycznej monecie prawdopodobie«stwo tego zdarzenia jest skrajnie
maªe.
16. (a) E = 0:039; (b) 11:7 m 11:8:
17. n > 130:
19. Na mocy nierówno±ci Czebyszewa p = P ( k < Sn < k) 1 k2 ; czyli p wynosi
co najmniej 0; 0:75; 0:888; odpowiednio; na mocy C.T.G. p 2(k); czyli p wynosi w przybli»eniu 0:6826; 0:9544; 0:9974; odpowiednio.
20. 0:95:
1
1
1
2!
3!
6!
!
6
12
1
4
2
4
1
8
2
5
30
300
150
300
150
2
1
102
Zadania dodatkowe
1. Grupa studencka liczy 25 osób. Oblicz, na ile sposobów mo»na w tej grupie postawi¢
3 pi¡tki, 4 czwórki, 5 trójek i 13 dwójek.
2. Oblicz, ile "sªów" (tzn. ci¡gów liter) dziesi¦cioliterowych mo»e uªo»y¢ analfabeta
ze sªowa ANALFABETA.
3. Przy okr¡gªym stole zasiada 7 osób. Oblicz, na ile sposobów mog¡ usi¡±¢, je±li
panie A oraz B musz¡ siedzie¢ obok siebie.
4. Na póªce stoi 8 ró»nych par butów. Wybieramy losowo 5 butów. Oblicz prawdopodobie«stwo wybrania
(a) dokªadnie 2 par,
(b) dokªadnie 1 pary,
(c) wszystkich butów z ró»nych par.
5. Wybieramy 5 kart z talii 52 kart. Oblicz prawdopodobie«stwo otrzymania przynajmniej po jednej karcie ka»dego koloru.
6. Z talii kart wylosowano 7 kart. Oblicz prawdopodobie«stwo tego, »e s¡ w±ród nich
trzy kolejne karty koloru tre.
7. W urnie znajduje si¦ N kul biaªych oraz N kul czarnych. Znajd¹ minimaln¡
warto±¢ N , przy której losuj¡c z urny 2 kule, otrzymamy obie biaªe z prawdopodobie«stwem 0.5.
1
2
1
8. Z urny zawieraj¡cej kule ponumerowane liczbami 1; 2; : : : ; n losujemy jedn¡. Oblicz
prawdopodobie«stwo pn, »e jej numer dzieli si¦ przez 3 lub 4 oraz znajd¹ limn!1 pn.
9. Z odcinka [ 2; 2] wybieramy losowo dwie liczby p i q. Oblicz prawdopodobie«stwo
p
tego, »e wektor (p; q) nale»y do dziedziny funkcji f (x; y) = x y + 1:
10. Student zdaje egzamin testowy, na którym do ka»dego pytania podane s¡ 4 odpowiedzi, z czego 1 prawidªowa. Ma on dobrze opanowany materiaª dotycz¡cy 50%
pyta«, w 30% pyta« umie wyeliminowa¢ 2 odpowiedzi, nie wie nic na temat pozostaªych zada«. Oblicz prawdopodobie«stwo podania prawidªowej odpowiedzi na
losowo wybrane pytanie tego testu.
103
11. Zaªó»my, »e na pewn¡ powa»n¡ dolegliwo±¢ cierpi 10% populacji. Test stosowany
do jej wykrycia daje poprawn¡ diagnoz¦ (tzn. stwierdza chorob¦ u osoby chorej i
jej brak { u zdrowej) w 90 przypadkach na 100. Oblicz prawdopodobie«stwo tego,
»e osoba poddana dwukrotnie takiemu testowi jest rzeczywi±cie chora, je±li wyniki
obu testów s¡ niezale»ne oraz
(a) oba s¡ pozytywne,
(b) tylko jeden jest pozytywny.
12. Poka», »e P (AjB ) > P (A) wtedy i tylko wtedy, gdy P (B jA0) < P (B jA):
13. Rzucamy 12 razy monet¡. Oblicz prawdopodobie«stwo uzyskania wi¦kszej ilo±ci
orªów ni» reszek.
14. Oblicz, ile co najmniej dzieci powinna mie¢ rodzina, aby z prawdopodobie«stwem
nie mniejszym ni» 0.95 znalazªy si¦ w niej dzieci obu pªci.
15. Rzucamy dwa razy 2 kostkami. Oblicz prawdopodobie«stwo uzyskania tej samej
sumy w obu rzutach.
16. Rzucamy monet¡ tak dªugo, a» upadnie dwa razy na t¦ sam¡ stron¦. Opisz przestrze« zdarze« elementarnych i oblicz prawdopodobie«stwo tego, »e gra sko«czy
si¦ przed pi¡tym rzutem oraz tego, »e potrzebna b¦dzie nieparzysta liczba rzutów.
17. Dwie osoby maj¡ce jednakowe szanse zwyci¦stwa graj¡ w szachy. Ostatecznie wygrywa ten, kto pierwszy wygra ª¡cznie 5 rozgrywek. Oblicz prawdopodobie«stwo
wygrania gracza, który zwyci¦»yª ju» w 3 rozgrywkach, a jego przeciwnik w 2.
18. Asia i Jadzia rzucaj¡ na zmian¦ piªk¡ do kosza. Jadzia rozpoczyna mecz. Je±li
traa z prawdopodobie«stwem 0:25, natomiast Asia z prawdopodobie«stwem 0:33,
to oblicz prawdopodobie«stwo, »e Jadzia tra do kosza przed Asi¡.
19. Dobierz staªe a oraz b tak, by funkcja F (x) = a + b arctan 2x byªa dystrybuant¡
pewnej zmiennej losowej X . Znajd¹ P (X > 4).
20. Ilo±¢ pieczywa (w setkach kilogramów) sprzedawanego w pewnej piekarni przez
jeden dzie« ma g¦sto±¢ postaci
8
>
ax; 0 x 3
<
f (x) = > a(6 x); 3 < x 6
:
0;
poza tym:
104
Wyznacz staª¡ a. Oblicz prawdopodobie«stwo sprzedania w ci¡gu dnia pieczywa
o wadze (zdarzenie B ) wi¦kszej ni» 300 kg, (zdarzenie B ) nie mniejszej ni» 150 i
nie wi¦kszej ni» 450 kg. Czy okre±lone zdarzenia s¡ niezale»ne?
1
2
21. Trzy osoby zaproszone na przyj¦cie pojawi¡ si¦ na nim niezale»nie jedna od drugiej
z prawdopodobie«stwem 0:9; 0:8; 0:75; odpowiednio. Niech N oznacza liczb¦ osób,
które skorzystaj¡ z zaproszenia. Znajd¹ rozkªad zmiennej losowej N .
22. Niech X b¦dzie zmienn¡ losow¡ wykªadnicz¡ z parametrem = 1. Znajd¹ rozkªad
zmiennej losowej Y , je±li
(a) Y = [X ] jest cz¦±ci¡ caªkowit¡ X ,
(b) Y = ln X .
23. Niech X b¦dzie zmienn¡ losow¡ normaln¡ standardow¡. Znajd¹ rozkªad zmiennej
losowej Y = eX .
24. Rozkªad zmiennej losowej X jest postaci: P (X = 2k ) = 4 5 k ; k = 1; 2; : : : :
Oblicz trzy pierwsze momenty zmiennej losowej X .
25. Student zdaje test skªadaj¡cy si¦ z dwóch zada«. Poniewa» jest nieprzygotowany,
wybiera odpowiedzi losowo po jednej, w pierwszym zadaniu spo±ród trzech, a w
drugim { spo±ród pi¦ciu. Znajd¹ warto±¢ oczekiwan¡ oraz wariancj¦ liczby poprawnych odpowiedzi studenta.
26. Niech Xr oznacza liczb¦ pora»ek poprzedzaj¡cych r-ty sukces w ci¡gu niezale»nych prób o prawdopodobie«stwie sukcesu p. Poka», »e rozkªad (tzw. ujemny
dwumianowy) zmiennej losowej X jest postaci
!
r
+
k
1
P (X = k) = r 1 pr (1 p)k ; k = 0; 1 : : : ;
oraz znajd¹ jej warto±¢ oczekiwan¡.
Niech z kolei Tk oznacza liczb¦ prób potrzebnych do osi¡gni¦cia k sukcesów w
tym samym schemacie Bernoulliego. Korzystaj¡c z tego, »e zmienna losowa Tk jest
wi¦c sum¡ k niezale»nych zmiennych losowych geometrycznych o rozkªadzie G (p),
znajd¹ jej warto±¢ oczekiwan¡.
27. Rzucamy kostk¡ do momentu uzyskania po raz trzeci parzystej liczby oczek. Znajd¹
oczekiwan¡ liczb¦ pora»ek w jednym takim do±wiadczeniu oraz jego dziesi¦ciokrotnym powtórzeniu.
105
28. Niech P b¦dzie ustalonym punktem okr¦gu o ±rodku O i promieniu R. Wybieramy
losowo punkt M z okr¦gu. Znajd¹ warto±¢ oczekiwan¡ i wariancj¦ odlegªo±ci X
punktów M i P .
29. Niech X b¦dzie zmienn¡ losow¡ o dystrybuancie
(
x x0
F (x) = 1 00:;8e ; poza
tym;
Znajd¹ E(X ) oraz podaj przykªad zmiennej losowej o takim rozkªadzie.
30. Poka», »e funkcja v(c) = E(X c) ; c 2 <; osi¡ga swoje minimum dla c = E(X ):
2
31. Niech X oraz Y b¦d¡ niezale»nymi zmiennymi losowymi o dodatnich wariancjach.
Poka», »e (X Y ) = (X ) (Y ) wtedy i tylko wtedy, gdy E(X ) = E(Y ) = 0:
2
2
2
32. Niech X oraz Y b¦d¡ zmiennymi losowymi normalnymi standardowymi.
Zakªadap
j¡c ich niezale»no±¢, znajd¹ dystrybuant¦ zmiennej losowej Z = X + Y :
2
2
33. Niech X oraz Y b¦d¡ niezale»nymi zmiennymi losowymi jednostajnymi na odcinkach [0,1] oraz [0,2], odpowiednio. Znajd¹ g¦sto±¢ ich sumy.
34. Niech X oraz Y b¦d¡ niezale»nymi zmiennymi losowymi wykªadniczymi z parametrem 1. Znajd¹ g¦sto±¢ ich ró»nicy.
35. Dla zmiennych losowych z poprzedniego zadania oblicz P (X > Y > 2):
36. Niech X b¦dzie zmienn¡ losow¡ Poissona z parametrem niezale»n¡ od zmiennych losowych Yn; n = 1; 2; : : : ; niezale»nych, z których ka»da ma rozkªad postaci
P (Yn = 1) = 1 P (Yn = 0) = p. Poka», »e zmienne losowe S = PXk Yk oraz
T = X S s¡ niezale»nymi zmiennymi losowymi Poissona z parametrami p oraz
(1 p), odpowiednio.
=1
37. Niech X oraz Y b¦d¡ zmiennymi losowymi jednostajnymi na odcinku [0,1]. Zakªadaj¡c ich niezale»no±¢,
(a) znajd¹ rozkªad zmiennej losowej Z = X Y ,
(b) oblicz dwoma sposobami warto±¢ oczekiwan¡ zmiennej losowej Z .
38. Poka», »e je±li F (x; y) jest dystrybuant¡ wektora losowego (X; Y ), to dystrybuanty
zmiennych losowych Z = min(X; Y ) oraz T = max(X; Y ) s¡ postaci G(z) =
F (z) + F (z) F (z; z) oraz H (t) = F (t; t), odpowiednio.
1
2
106
39. Niech X oraz Y b¦d¡ zmiennymi losowymi normalnymi standardowymi. Zakªadaj¡c ich niezale»no±¢, znajd¹ warto±¢ oczekiwan¡ T = max(X; Y ).
40. Poka», »e dwie zmienne losowe, z których ka»da przyjmuje tylko dwie warto±ci, s¡
niezale»ne wtedy i tylko wtedy, gdy s¡ nieskorelowane.
41. Wektor losowy (X; Y ) ma rozkªad (tzw. dwuwymiarowy normalny) postaci
f (x; y) =
(
)!
(
x
m
)
2
(
x
m
)(
y
m
)
(
y
m
)
1p
1
exp 2(1 )
+ :
2 1 (a) Znajd¹ rozkªady brzegowe oraz wspóªczynnik korelacji (X; Y ).
(b) Poka», »e dwie zmienne losowe normalne s¡ niezale»ne wtedy i tylko wtedy,
gdy s¡ nieskorelowane.
1
1
2
2
2
1
2
1
2
1
2
2
2
2
2
2
42. Wektor losowy (X; Y ) ma g¦sto±¢ postaci
f (x; y) = c exp( x + xy y ); x; y 2 <:
Wyznacz staª¡ c, warto±ci oczekiwane, wariancje oraz wspóªczynnik korelacji zmiennych losowych X oraz Y .
2
2
43. Poka», »e Cov(X; Y + Z ) = Cov(X; Y ) + Cov(X; Z ):
44. Niech U b¦dzie zmienn¡ losow¡ jednostajn¡ na odcinku [0, 1]. Oblicz Cov(U ; U ):
Czy (U ; U ) = 1?
2
2
3
3
45. Dwie osoby strzelaj¡ do celu po n razy. Zakªadaj¡c, »e prawdopodobie«stwo traenia wynosi dla ka»dej z nich 0.5, oblicz z jakim prawdopodobie«stwem liczby
trae« b¦d¡ dla nich jednakowe.
46. Niech X b¦dzie zmienn¡ losow¡ niezale»n¡ od zmiennych losowych Yn; n = 1; 2; : : : ;
niezale»nych o jednakowym rozkªadzie. Zakªadaj¡c, »e s¡ to zmienne losowe dyskretne maj¡ce funkcje tworz¡ce g oraz h, odpowiednio, poka», »e funkcja tworz¡ca zmiennej losowej S = PXk Yk jest postaci g(h(s)). Zakªadaj¡c ponadto, »e
istniej¡ warto±ci oczekiwane tych zmiennych losowych, udowodnij wzór E(S ) =
E(X ) E(Y ):
=1
1
47. Niech Xn b¦dzie zmienn¡ losow¡ geometryczn¡ z parametrem pn = n oraz niech
Yn = n Xn; n = 1; 2; : : : : Poka», »e Yn !d Y; n ! 1; gdzie Y jest zmienn¡ losow¡
wykªadnicz¡ z parametrem :
1
107
48. Niech fXn; n = 0; 1; 2; : : :g b¦dzie ci¡giem niezale»nych zmiennych losowych normalnych standardowych oraz niech Y = X ; Yn = aYn + Xn ; n = 0; 1; 2; : : : :
Zakªadaj¡c, »e staªa a < 1; znajd¹ rozkªad zmiennej losowej Yn; n = 0; 1; 2; : : : ;
oraz poka», »e Yn !d Y; n ! 1; gdzie Y jest pewn¡ zmienn¡ losow¡ normaln¡.
Wyznacz jej parametry.
0
0
+1
+1
49. Wykonujemy 80 rzutów kostk¡. Stosuj¡c nierówno±¢ Czebyszewa, oszacuj z prawdopodobie«stwem 0.91 liczb¦ otrzymanych pi¡tek.
50. Z partii towaru o wadliwo±ci 3% pobrano prób¦ 500-elementow¡. Oszacuj prawdopodobie«stwo tego, »e liczba wadliwych elementów w próbie nie przekroczy 4%.
51. Sprawd¹, czy ci¡gi niezale»nych zmiennych losowych fXn; n = 1; 2; : : :g o nast¦puj¡cych rozkªadach speªniaj¡ tez¦ P.W.L.:
(a) P (Xn = 3n) = P (Xn = 3n) = 3 n ; P (Xn = 0) = 1 2(3 n );
(b) Xn P (2 n):
(2
+1)
(2
+1)
Odpowiedzi do zada« dodatkowych
:
1.
2. :
3. 7 2 5!:
4. j
j = , jAj = 3 2, jB j = 4 2 , jC j = 2 .
5. ( ( )) .
6. ( () )( ) :
p
p
7. (1+ 2)N < N < (1+ 2)N +1 oraz dla N = 1; N = 3 P (obie kule biaªe) = 0:5.
n
n
n
8. pn = [ n ] + [ n ] [ n ] ! ; n ! 1.
9. :
10. + + = :
11. P (++jchory) = 0:81; P (++jzdrowy) = 0:01; P (+ jchory) = P (+ jzdrowy) = 0:18,
a st¡d P (choryj + +) = 0:9; P (choryj + ) = 0:1.
25!
3!4!5!13!
10!
4!
16
8
8
5
3
4
8
3
5
13
3
13
2
52
5
4
48
47
+9
4
4
52
7
2
2
3
1
2
4
12
1
2
23
32
1
3
1
2
1
7
2
10
2
10
4
10
2
1
5
108
12. Wsk. Zastosuj wzór Bayesa (2.14).
( ) ).
13. (1
14. Je±li X oznacza liczb¦ dziewcz¡t, to P (1 X n 1) 0:95; n 6.
= .
15.
16. = fOO; RR; ORR; ROO; OROO; RORR; : : :g; P (A) = 2( + + ) = ;
k = .
P (B ) = 2 P1
k ( )
17. + 2 + 3 = .
18. (1 + + ( ) + : : :) = .
19. a = ; b = ;
arctan 8.
20. c = ; P (B ) = ; P (B ) = ; P (B \ B ) = .
21. f(0; 0:005); (1; 0:08); (2; 0:375); (3; 0:54)g.
22. (a) f(k; e k e k ); k = 0; 1; : : :g, (b) F (y) = 1 e ey ; y 2 <.
y
23. f (y) = p y e
; y > 0.
24. E(X ) = ; E(X ) = 16; E(X ) = 1:
25. E(X ) = ; (X ) = .
26. E(Xr ) = p p r; E(Tk ) = kp :
27. p = ; r = 3; 3; 30:
28. X = 2R sin ; U [0; 2]; E(X ) = R ; E(X ) = 2R :
29. f (x) = 0:8e x; x 0; P (X = 0) = F (0) limx! F (x) = 0:2; E(X ) = 0:8:
X jest np. czasem ±wiecenia »arówki wybranej losowo z magazynu, w którym znajduje si¦ 80% »arówek o czasie ±wiecenia zgodnym z rozkªadem E () oraz 20% »arówek wadliwych.
32. F (z) = P (X + Y z ) = P ((X; Y ) 2 K ((0; 0); z)) = 1 e z ; z 0 (porównaj
str. 45).
8 z
; 0z<1
>
>
>
< ; 1z<2
33. g(z) = > z ; 2 z < 3
>
>
:
0; poza tym:
(
z
0
34. Z = X Y = X + ( Y ); g(z) = ee z;; zz <
0:
1
12
1
2
6
2
2
2
2
12
2
2
2(1 +2 +3 +4 +5 )+6
2
73
362
648
1
=1
1
11
4
8
16
16
1
3
2
3
2
4
4
3
4
3
1
1
1
7
8
16
8
3
1
2
1
4
1
2 +1
2
1
1
1
1
2
2
1
2
1
1
1
9
3
2
2
4
3
1
2
8
( +1)
(ln )2
2
1
1
2
8
2
3
3
8
86
2
15
225
1
1
2
4
2
2
2
0
2
2
2
2
2
2
1
3
2
2
1
2
1
2
109
R
R
R
35. 1 P (2 < Y < x)e x dx = 1( x e y dy)e xdx = e :
36. P (S = k; T = l) = P (S = k; X = l + k) = P (X =l + k; Y + : : : + Yl k = k) =
P (X = l + k)P (Y + : : : + Yl k = k) = e l l kk l kk pk (1 p)l =
e p pk k e p l p l = P (S = k) P (T = l):
37. (a) P (X Y z) = z(1 ln z); sk¡d f (z) = ln z ; 0 z 1;
R
(b) E(Z ) = 1 zf (z)dz = = E(X ) E(Y ):
R
R
39. Na mocy zad. 38. f (t) = 2 p e t t 1 p e x dx; E(T ) = 11 tf (t)dt = p :
40. Wsk. W zapisie warunku Cov(X; Y ) = 0 u»yj równo±ci p ; = p p ; ; p ; =
q p ; ; p ; = p ; p + q ; sk¡d otrzymasz p ; = p q : Na mocy tej relacji
powy»sze równo±ci staj¡ si¦ warunkami (3.27).
41. X N (m ; ); Y N (m ; ); (X; Y ) = :
p
42. c = ; E(X ) = E(Y ) = 0; (X ) = (Y ) = ; (X; Y ) = :
p
44. Cov(U ; U ) = ; (U ; U ) = :
45. Je±li X i Y oznaczaj¡ liczby trae«, to szukamy p = P (X Y = 0). Funkcja
tworz¡ca
P
dla X Y jest postaci g(s) = n (1 + s)n n (1 + s )n = n sn kn kn sk .
Poniewa» p jest wspóªczynnikiem przy s , wi¦c p = n nn :
46. Wsk. g(s) = E(sX ); E(S ) = (g(h(s))0s = g0(h(1)) h0 (1) = E(X ) E(Y );
bo h(1) = 1:
47. P (Yn > y) = (1 n ) ny ! e y = P (Y > y); n ! 1; y > 0; Y E ();
bo ny 1 [ny] ny:
Mo»na te» posªu»y¢ si¦ funkcjami
charakterystycznymi 'n zmiennych losowych Yn,
n
zauwa»aj¡c, »e 'n(t) = e i nt ! it = '(t); n ! 1; gdzie '(t) E ()
n
i stosuj¡c twierdzenie 5.1.2.
48. Yn N (0; a an ) 'n(t) = exp( t ( a an )) ! exp( t a ) = '(t);
n ! 1; gdzie '(t) Y N (0; a ):
49. X B(80; ); P (2:2 < X < 24:4) = P (3 X 24) 0:91:
50. X N (15; 14:55); P (X 20) = 0:9049:
51. Tak. Wariancje (a) (Xn) = ; (b) (Xn) = 2 n s¡ wspólnie ograniczone.
2
2
1
2
4
2
1
+
1
(
)
)(
(1
+
(1
!
+
+
( + )!
))
!
1
1
0
4
2
1
2
2
1
2
1
2
2
1 2
1
1 1
2 2
1 1
1
2
1
2
3
2
2
3
2
2 1
1
2
2
2
1
1
1 1
2
2
1
1 1
1
2
1
3
2
35
3
12
6
1
1
2
1
1
2
1
0
2
2
1
=0
4
2
4
1
=1
[
]
1+
2( +1)
1
1
1
2
2
1
1
2
1
6
2
2
3
2
2
2( +1)
1
1
2
1
2
1
2
1
2
110
Wa»niejsze rozkªady i ich charakterystyki
Zero-jedynkowy B(1; p): P (X = 1) = 1 P (X = 0) = p;
warto±¢ oczekiwana
E(X ) = p,
wariancja
(X ) = p(1 p);
funkcja tworz¡ca rozkªadu
g(s) = 1 p(1 s);
funkcja tworz¡ca momenty
(s) = 1 p(1 es);
funkcja charakterystyczna
'(s) = 1 p(1 eis);
0 p 1;
2
Dwumianowy B(n; p): P (X = k) =
n pk (1
k
p)n k ; k = 0; : : : ; n; 0 p 1;
warto±¢ oczekiwana
E(X ) = np,
wariancja
(X ) = np(1 p);
funkcja tworz¡ca rozkªadu
g(s) = (1 p(1 s))n;
funkcja tworz¡ca momenty
(s) = (1 p(1 es))n;
funkcja charakterystyczna
'(s) = (1 p(1 eis))n;
2
Geometryczny G (p): P (X = k) = p(1 p)k ; k = 1; 2; : : : ; 0 < p 1;
1
warto±¢ oczekiwana
E(X ) = p ,
wariancja
(X ) = p2p ;
funkcja tworz¡ca rozkªadu
g(s) =
funkcja tworz¡ca momenty
(s) =
funkcja charakterystyczna
'(s) =
1
2
Poissona P (): P (X = k) = e
1
k ;
k
!
ps
1
(1
p s;
)
pes
1
(1
p es ;
)
peis
1
(1
p eis ;
)
k = 0; 1; : : : ; > 0;
warto±¢ oczekiwana
E(X ) = ,
wariancja
(X ) = ;
funkcja tworz¡ca rozkªadu
g(s) = expf (1 s)g;
funkcja tworz¡ca momenty
(s) = expf (1 es)g;
funkcja charakterystyczna
'(s) = expf (1 eis)g;
2
111
Jednostajny U [a; b]: f (x) =
(
axb
poza tym;
b a;
1
0;
warto±¢ oczekiwana
E(X ) = a b ,
wariancja
(X ) = a b 2 ;
funkcja tworz¡ca momenty
(s) = essbb easa ;
funkcja charakterystyczna
'(s) = eisisbb eaisa ;
+
2
(
2
)
12
(
)
(
)
(
x
0
Wykªadniczy E (): f (x) = e0; ; xpoza
tym;
> 0;
warto±¢ oczekiwana
E(X ) = ,
wariancja
(X ) = 2 ;
funkcja tworz¡ca momenty
(s) = s ;
funkcja charakterystyczna
'(s) = is ;
1
1
2
(
n e x ; x 0
x
Gamma (n; ): f (x) =
0;
poza tym;
n
warto±¢ oczekiwana
E(X ) = ,
wariancja
(X ) = n2 ;
n
funkcja tworz¡ca momenty
(s) = s ;
n
funkcja charakterystyczna
'(s) = is ;
n
n
(
1
1)!
> 0;
2
Normalny N (m; ): f (x) = p expf
1
2
2
x m 2 g;
2
(
x 2 <;
)
2
warto±¢ oczekiwana
E(X ) = m,
wariancja
(X ) = ;
funkcja tworz¡ca momenty
(s) = expfsm + s22 g;
funkcja charakterystyczna
'(s) = expfism s22 g:
2
2
2
2