B. Kamys Statystyczne metody opracowania wyników pomiarów
Short Description
Download B. Kamys Statystyczne metody opracowania wyników pomiarów...
Description
B.Kamys; Notatki do wykładu SMOP-I 2007/08
1
Statystyczne Metody Opracowania Pomiarów I B. Kamys; Instytut Fizyki UJ Spis treści 1 Elementy teorii prawdopodobieństwa
2
1.1
Definicje podstawowych pojęć . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
1.2
Własności prawdopodobieństwa . . . . . . . . . . . . . . . . . . . . . . . . . .
3
2 Podstawowe pojęcia teorii estymacji
5
3 Ilościowy opis zmiennych losowych
7
4 Funkcje zmiennej losowej
9
5 Charakterystyki rozkładu prawdopodobieństwa
11
6 Rozkład normalny (Gaussa)
15
7 Podstawy rachunku niepewności pomiarowych
17
7.1
Rozkład pomiarów
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
7.2
Estymator wartości oczekiwanej . . . . . . . . . . . . . . . . . . . . . . . . . .
22
7.3
Estymator odchylenia standardowego . . . . . . . . . . . . . . . . . . . . . . .
23
7.4
Zapis wyników pomiarów . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
7.5
Rozkład liczby pozytywnie zakończonych doświadczeń
. . . . . . . . . . . . . .
26
7.6
Niepewność statystyczna
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
7.7
Pomiary pośrednie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
7.7.1
Estymator E(Y) dla pomiaru pośredniego Y . . . . . . . . . . . . . . . .
29
7.7.2
Niepewność pomiaru pośredniego . . . . . . . . . . . . . . . . . . . . .
29
7.7.3
Błąd maksymalny . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
8 Regresja liniowa
31
9 Indeks
33
B.Kamys; Notatki do wykładu SMOP-I 2007/08
1 1.1
2
ELEMENTY TEORII PRAWDOPODOBIEŃSTWA DEFINICJE PODSTAWOWYCH POJĘĆ
DEFINICJA: Zbiór zdarzeń elementarnych - zbiór takich zdarzeń, które si¸e wzajemnie wykluczaj¸a oraz wyczerpuj¸a wszystkie możliwości (tzn. w każdym możliwym przypadku przynajmniej jedno z nich musi zachodzić). DEFINICJA: Zdarzeniem jest dowolny podzbiór zdarzeń elementarnych E. DEFINICJA: Zdarzeniem pewnym jest zdarzenie zawieraj¸ace wszystkie elementy zbioru E (zachodzi zawsze). DEFINICJA: Zdarzeniem niemożliwym jest zdarzenie nie zawieraj¸ace żadnego elementu zbioru E tj. zbiór pusty Ø. DEFINICJA: Zdarzenie A zawiera si¸e w zdarzeniu B jeżeli każde zdarzenie elementarne należ¸ace do zbioru A należy do B: ’A ⊂ B’ DEFINICJA: Zdarzenia A i B s¸a równe gdy A ⊂ B i B ⊂ A. DEFINICJA: Suma zdarzeń A+B to zdarzenie zawieraj¸ace te i tylko te zdarzenia elementarne, które należ¸a do któregokolwiek ze zdarzeń A, B,... (suma logiczna zbiorów zdarzeń elementarnych ’A
S
B
S
..’).
DEFINICJA: Różnica zdarzeń A-B to zdarzenie zawieraj¸ace te i tylko te zdarzenia elementarne, które należ¸a do zdarzenia A a nie należ¸a do zdarzenia B. DEFINICJA: Iloczyn zdarzeń A.B to zdarzenie zawieraj¸ace te i tylko te zdarzenia elementarne, które należ¸a do wszystkich zdarzeń A, B (tzn. w j¸ezyku zbiorów ’A
T
B’).
DEFINICJA: Zdarzeniem przeciwnym do A: A nazywamy różnic¸e ’E-A’ DEFINICJA: Zdarzeniem losowym - nazywamy zdarzenie spełniaj¸ace poniższe warunki: 1. W zbiorze zdarzeń losowych znajduje si¸e zdarzenie pewne oraz zdarzenie niemożliwe. 2. Jeżeli zdarzenia A1 , A2 ,... w ilości skończonej lub przeliczalnej s¸a zdarzeniami losowymi to ich iloczyn i ich suma s¸a również zdarzeniami losowymi. 3. Jeżeli A1 i A2 s¸a zdarzeniami losowymi to ich różnica jest również zdarzeniem losowym.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
3
INTUICYJNE OKREŚLENIE: Zdarzenie losowe to takie, o którym nie możemy powiedzieć czy zajdzie w danych warunkach czy też nie zajdzie.
DEFINICJA: Zmienn¸a losow¸a nazywamy jednoznaczn¸a funkcj¸e rzeczywist¸a X(e) określon¸a na zbiorze E zdarzeń elementarnych tak¸a, że każdemu przedziałowi wartości funkcji X odpowiada zdarzenie losowe. DEFINICJA: Zmienna losowa typu skokowego (dyskretnego) to taka, która przyjmuje tylko co najwyżej przeliczalny zbiór wartości. Zmienna losowa typu ci¸agłego - może przyjmować dowolne wartości od minus do plus nieskończoności. DEFINICJA: Definicja prawdopodobieństwa Aksjomat 1:
Każdemu zdarzeniu losowemu przyporz¸adkowana jest jednoznacznie nieu-
jemna liczba rzeczywista zwana prawdopodobieństwem. Aksjomat 2:
Prawdopodobieństwo zdarzenia pewnego jest równe jedności.
Aksjomat 3:
Jeżeli zdarzenie losowe Z jest sum¸a skończonej lub przeliczalnej liczby rozł¸acznych
zdarzeń losowych Z1 ,Z2 ,.. to prawdopodobieństwo zrealizowania si¸e zdarzenia Z jest równe sumie prawdopodobieństw zdarzeń Z1 ,Z2 , .. Aksjomat 4: Prawdopodobieństwo warunkowe zdarzenia A pod warunkiem, że zachodzi zdarzenie B; ’P(A|B)’ wyraża si¸e wzorem: P(A|B) =
P (A.B) P (B)
Prawdopodobieństwo to jest nieokreślone, gdy prawdopodobieństwo zdarzenia B wynosi zero.
1.2
WŁASNOŚCI PRAWDOPODOBIEŃSTWA
1.) Zdarzenie przeciwne do A : P(A) = 1 - P(A) Dowód: A+A = E a wi¸ec P(A+A) = P(E) = 1, z drugiej strony A i A wykluczaj¸a si¸e wi¸ec P(A+A) = P(A) + P(A). St¸ad P(A) = P( E) - P(A) czyli P(A) = 1 - P(A) c.b.d.o.
2.) Zdarzenie niemożliwe : P(Ø) = 0
B.Kamys; Notatki do wykładu SMOP-I 2007/08
4
Dowód: E i Ø wykluczaj¸a si¸e wi¸ec P(E+Ø)=P(E)+P(Ø) oraz E+Ø=E a wi¸ec P(E+Ø)=P(E), czyli P(Ø) = 0 c.b.d.o.
3.) Zdarzenie A zawiera si¸ ewB : P(A) ≤ P(B) Dowód: P(B) = P(A+(A.B)) = P(A)+P(A.B) ≥ P(A) c.b.d.o.
4.) Dowolne zdarzenie losowe : 0 ≤ P(A) ≤ 1 Dowód: Dla każdego zdarzenia jest prawdziwe: Ø ⊂ A+Ø = A = A.E ⊂ E a wi¸ec prawdopodobieństwa zdarzeń Ø,A i E spełniaj¸a: 0 ≤ P(A) ≤ 1 c.b.d.o.
5.) Suma dowolnych zdarzeń A+B : P(A+B) = P(A) + P(B) - P(A.B) Dowód: Zarówno A+B jak i B możemy zapisać jako sumy rozł¸acznych (wykluczaj¸acych si¸e) zdarzeń: A+B
=
A + (B − A.B) oraz
B
=
A.B + (B − A.B),
stosujemy aksjomat nr 3 definicji prawdopodobieństwa, P (A + B)
=
P (A) + P (B − A.B),
P (B)
=
P (A.B) + P (B − A.B)
odejmujemy stronami: P(A+B) = P(A) + P(B) - P(A.B) c.b.d.o.
6.) Iloczyn zdarzeń A.B : P(A.B) = P(B).P(A|B) = P(A).P(B|A) Dowód: Wynika to automatycznie z 4 aksjomatu definicji prawdopodobieństwa.
DEFINICJA: Zdarzenie A jest niezależne od B gdy P(A|B) = P(A).
B.Kamys; Notatki do wykładu SMOP-I 2007/08
5
7.) Jeżeli A nie zależy od B to B nie zależy od A. Dowód: Korzystamy z dwu wzorów na prawdopodobieństwo A.B podanych wyżej, przy czym w pierwszym z nich uwzgl¸edniamy, że A jest niezależne od B. Wówczas z porównania obu wzorów dostajemy P(B|A) = P(B). c.b.d.o.
8.) WKW niezależnosci: P(A.B) = P(A).P(B) Dowód: Wynika to automatycznie ze wzoru na prawdopodobieństwo iloczynu zdarzeń. c.b.d.o
9.) Formuła ’całkowitego prawdopodobieństwa’: Jeżeli istnieje zbiór zdarzeń A1 , A2 ... wykluczaj¸acych si¸e wzajemnie i wyczerpuj¸acych wszystkie możliwości wówczas prawdopodobieństwo dowolnego zdarzenia B może być zapisane nast¸epuj¸aco: P(B) =
P
i P (Ai ).P (B
| Ai )
Dowód: P P B= acznych zdarzeń) a wiec P(B) = i P(B.Ai ) a każdy składnik można i B.Ai (suma rozł¸ zapisać jako P(Ai ).P(B|Ai ). c.b.d.o.
2
PODSTAWOWE POJĘCIA TEORII ESTYMACJI
DEFINICJA: W statystyce skończony zespół doświadczeń nazywamy prób¸a a wnioskowanie na podstawie próby o własnościach nieskończonego (zwykle) zespołu wszystkich możliwych doświadczeń zwanego populacj¸a generaln¸a , nazywamy estymacj¸a . DEFINICJA: Przez prób¸e prost¸a rozumiemy ci¸ag niezależnych doświadczeń odnosz¸acych si¸e do tej samej populacji generalnej. DEFINICJA: Statystyk¸a nazywamy tak¸a funkcj¸e zmiennych losowych obserwowanych w próbie, która sama jest zmienn¸a losow¸a. DEFINICJA: Estymatorem Tn (x1 , x2 , ..xn ; θ) parametru θ lub w skrócie Tn (θ) nazywamy statystyk¸e o rozkładzie prawdopodobieństwa zależnym od θ. Tu x1 , x2 , .. oznaczaj¸a wyniki pomiarów próby a przez rozkład prawdopodobieństwa rozumiemy przyporz¸adkowanie prawdopodobieństw różnym wartościom statystyki Tn .
B.Kamys; Notatki do wykładu SMOP-I 2007/08
6
DEFINICJA: Estymacja punktowa to taka estymacja, która polega na oszacowaniu wartości danego parametru θ przez wartość jego estymatora. DEFINICJA: Estymacja przedziałowa polega na szukaniu przedziału liczbowego, wewn¸atrz którego z założonym prawdopodobieństwem leży prawdziwa wartość parametru. DEFINICJA: Estymator Tn (θ), jest zgodny jeżeli dla każdego > 0 jest spełniony warunek: limn→∞ P (| Tn (θ) − θ |< ) = 1 W takim przypadku używa si¸e cz¸esto określenia, że estymator spełnia prawo wielkich liczb .
PRZYKŁAD: TWIERDZENIE (Bernoulli): Wzgl¸edna cz¸estość pojawiania si¸e zdarzenia ’A’ w ci¸agu ’n’ doświadczeń spełnia prawo wielkich liczb czyli jest zgodnym estymatorem prawdopodobieństwa zdarzenia A: P(A). limn→∞ P( | nA /n - P(A) |< ) = 1 DEFINICJA: Estymator spełniaj¸acy mocne prawo wielkich liczb to taki, który jest zbieżny do estymowanego parametru z prawdopodobieństwem równym jedności. P( limn→∞ Tn (θ) = θ ) = 1
PRZYKŁAD: TWIERDZENIE: F.P.Cantelli udowodnił w 1917 roku, że wzgl¸edna cz¸estość pozytywnego zakończenia doświadczenia; nA /n jest zbieżna do prawdopodobieństwa zdarzenia A; P(A) z prawdopodobieństwem równym jedności: P( limn→∞ (nA /n) = P(A) ) = 1 czyli wzgl¸edna cz¸estość spełnia mocne prawo wielkich liczb.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
3
7
ILOŚCIOWY OPIS ZMIENNYCH LOSOWYCH
Ilościowy opis zmiennych losowych uzyskujemy stosuj¸ac • Dystrybuant¸e (Zwan¸a cz¸esto przez statystyków funkcj¸a rozkładu)
• Rozkład prawdopodobieństwa (Tylko dla zmiennych dyskretnych)
• Funkcj¸e g¸estości prawdopodobieństwa (Tylko dla zmiennych ci¸agłych) oraz wielkości charakteryzuj¸ace te powyżej wymienione twory.
DEFINICJA: Dystrybuant¸a F(x) nazywamy prawdopodobieństwo tego, że zmienna losowa X przyjmie wartość mniejsz¸a od x. (’X’ - to symbol zmiennej losowej a ’x’ to jej konkretna wartość). Oczywiście dystrybuanta jest funkcj¸a x. F(x) ≡ P( X < x ) Własności dystrybuanty: 1. 0 ≤ F(x) ≤ 1 2. F(-∞) = 0 3. F(+∞) = 1 4. F(x) jest niemalej¸ac¸a funkcj¸a 5. F(x) nie posiada wymiaru Przykład: Dla rzutu kostk¸a do gry, gdzie jako zmienn¸a losow¸a przyj¸eto liczb¸e wyrzuconych punktów: F (x) = 0 dla x ≤ 1, = 1/6 dla 1 < x ≤ 2, = 2/6 dla 2 < x ≤ 3, = 3/6 dla 3 < x ≤ 4, = 4/6 dla 4 < x ≤ 5, = 5/6 dla 5 < x ≤ 6, = 1 dla x > 6
B.Kamys; Notatki do wykładu SMOP-I 2007/08
8
DEFINICJA: Rozkład prawdopodobieństwa : Jeżeli xi (i=1,2,...) s¸a wartościami dyskretnej zmiennej losowej to rozkładem prawdopodobieństwa nazywamy zespół prawdopodobieństw: P(X=xi ) = pi ,
P
i
pi = 1
Przykład: Rozkład prawdopodobieństwa dla rzutu kostk¸a do gry omawianego powyżej: pi = 1/6 dla i = 1,2 .. 6.
DEFINICJA: Funkcja g¸estości prawdopodobieństwa f(x) f(x)dx ≡ P(x ≤ X < x+dx)
Własności funkcji gęstości prawdopodobieństwa: 1. f(x) ≥ 0, 2. f(x) jest unormowana tj.
R +∞ −∞
3.
(x) f(x)= dFdx
4.
Wymiar f(x) = wymiar (1/x)
f (x)dx = 1
Przykład: Rozkład jednorodny w przedziale [a,b]: f (x) =
0
dla x < a
= 1/(b − a) dla a ≤ x ≤ b =
0
dla b < x
B.Kamys; Notatki do wykładu SMOP-I 2007/08
4
9
FUNKCJE ZMIENNEJ LOSOWEJ
Funkcja Y zmiennej losowej X: Y = Y(X) jest również zmienn¸a losow¸a. Dlatego też można dla niej określić dystrybuant¸e, rozkład prawdopodobieństwa lub funkcj¸e g¸estości prawdopodobieństwa. S¸a one prosto zwi¸azane z odpowiednimi wielkościami dla zmiennej X. Należy rozpatrzyć niezależnie przypadek, gdy funkcja Y(X) jest monotoniczna oraz gdy nie posiada tej własnosci.
a) Funkcja Y = Y(X) jest monotoniczna. Można wówczas jednoznacznie określić funkcj¸e odwrotn¸a X=X(Y). 1. Dystrybuanta funkcji Y(X): G(y)
Y(X) jest rosn¸ aca : G(y) = F(x(y)) Y(X) jest malej¸ aca : G(y) = 1 - F(x(y)) - P(x;y=y(x) Dowód: Wychodz¸ac z definicji dla Y(X) rosn¸acej: G(y)
=
P (Y < y)
=
P (X(Y ) < x)
=
F (x(y))
dla Y(X) malej¸acej: G(y)
=
P (Y < y)
=
P (X(Y ) > x)
= 1 − P (X(Y ) ≤ x) =
1 − P (X(Y ) < x) − P (X(Y ) = x)
=
1 − F (x(y)) − P (x; Y = y(x)) c.b.d.o.
2. Rozkład prawdopodobieństwa P(y):
P(yi ) = P(xi ;yi =Y(xi ))
B.Kamys; Notatki do wykładu SMOP-I 2007/08
10
3. Funkcja g¸estości prawdopodobieństwa g(y):
g(y) = f(x(y)) |
dx(y) dy
|
gdzie X(Y) jest funkcj¸a odwrotn¸a do Y(X).
Z definicji: f(x) dx = P(x ≤ X < x+dx) a to prawdopodobieństwo przy jednoznacznym zwi¸azku mi¸edzy X i Y wynosi P(y ≤ Y < y+dy)=g(y) dy. Znak modułu przy pochodnej pojawia si¸e st¸ad, że przy malej¸acej funkcji Y(X) pochodna b¸edzie ujemna co powodowałoby, że g(y) byłaby ujemna a zgodnie z definicj¸a musi być nieujemna.
Przykład dla funkcji monotonicznej:
Y(X) = a X + b; a i b to rzeczywiste stałe
1. Rozkład prawdopodobieństwa: P(Y=yi ) = P(a xi + b =yi ) = P(xi =
yi −b ) a
2. Dystrybuanta: y−b ), a y−b F(x= a )
dla a > 0, G(y) = F(x = dla a < 0, G(y)=1 -
- P(x= y−b ) a
3. G¸estość prawdopodobieństwa: g(y)=
1 |a|
f(x= y−b ) a
b.) Funkcja Y(X) nie jest monotoniczna . Wówczas dzielimy obszar zmienności X na przedziały, w których Y(X) jest monotoniczna i powtarzamy powyższe rozważania sumuj¸ac przyczynki od rozł¸acznych przedziałów.
B.Kamys; Notatki do wykładu SMOP-I 2007/08
11
Przykład dla funkcji niemonotonicznej: Y(X)=X2
1. Rozkład prawdopodobieństwa: √ √ P(yi ) = P(X2 =yi ) = P(X=- yi )+P(X=+ yi ) 2. Dystrybuanta: G(y) = P(Y
View more...
Comments