B. Kamys Statystyczne metody opracowania wyników pomiarów

March 9, 2018 | Author: szczupi87 | Category: Estimator, Normal Distribution, Probability Distribution, Poisson Distribution, Probability
Share Embed Donate


Short Description

Download B. Kamys Statystyczne metody opracowania wyników pomiarów...

Description

B.Kamys; Notatki do wykładu SMOP-I 2007/08

1

Statystyczne Metody Opracowania Pomiarów I B. Kamys; Instytut Fizyki UJ Spis treści 1 Elementy teorii prawdopodobieństwa

2

1.1

Definicje podstawowych pojęć . . . . . . . . . . . . . . . . . . . . . . . . . . .

2

1.2

Własności prawdopodobieństwa . . . . . . . . . . . . . . . . . . . . . . . . . .

3

2 Podstawowe pojęcia teorii estymacji

5

3 Ilościowy opis zmiennych losowych

7

4 Funkcje zmiennej losowej

9

5 Charakterystyki rozkładu prawdopodobieństwa

11

6 Rozkład normalny (Gaussa)

15

7 Podstawy rachunku niepewności pomiarowych

17

7.1

Rozkład pomiarów

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

20

7.2

Estymator wartości oczekiwanej . . . . . . . . . . . . . . . . . . . . . . . . . .

22

7.3

Estymator odchylenia standardowego . . . . . . . . . . . . . . . . . . . . . . .

23

7.4

Zapis wyników pomiarów . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

7.5

Rozkład liczby pozytywnie zakończonych doświadczeń

. . . . . . . . . . . . . .

26

7.6

Niepewność statystyczna

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

7.7

Pomiary pośrednie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

7.7.1

Estymator E(Y) dla pomiaru pośredniego Y . . . . . . . . . . . . . . . .

29

7.7.2

Niepewność pomiaru pośredniego . . . . . . . . . . . . . . . . . . . . .

29

7.7.3

Błąd maksymalny . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

8 Regresja liniowa

31

9 Indeks

33

B.Kamys; Notatki do wykładu SMOP-I 2007/08

1 1.1

2

ELEMENTY TEORII PRAWDOPODOBIEŃSTWA DEFINICJE PODSTAWOWYCH POJĘĆ

DEFINICJA: Zbiór zdarzeń elementarnych - zbiór takich zdarzeń, które si¸e wzajemnie wykluczaj¸a oraz wyczerpuj¸a wszystkie możliwości (tzn. w każdym możliwym przypadku przynajmniej jedno z nich musi zachodzić). DEFINICJA: Zdarzeniem jest dowolny podzbiór zdarzeń elementarnych E. DEFINICJA: Zdarzeniem pewnym jest zdarzenie zawieraj¸ace wszystkie elementy zbioru E (zachodzi zawsze). DEFINICJA: Zdarzeniem niemożliwym jest zdarzenie nie zawieraj¸ace żadnego elementu zbioru E tj. zbiór pusty Ø. DEFINICJA: Zdarzenie A zawiera si¸e w zdarzeniu B jeżeli każde zdarzenie elementarne należ¸ace do zbioru A należy do B: ’A ⊂ B’ DEFINICJA: Zdarzenia A i B s¸a równe gdy A ⊂ B i B ⊂ A. DEFINICJA: Suma zdarzeń A+B to zdarzenie zawieraj¸ace te i tylko te zdarzenia elementarne, które należ¸a do któregokolwiek ze zdarzeń A, B,... (suma logiczna zbiorów zdarzeń elementarnych ’A

S

B

S

..’).

DEFINICJA: Różnica zdarzeń A-B to zdarzenie zawieraj¸ace te i tylko te zdarzenia elementarne, które należ¸a do zdarzenia A a nie należ¸a do zdarzenia B. DEFINICJA: Iloczyn zdarzeń A.B to zdarzenie zawieraj¸ace te i tylko te zdarzenia elementarne, które należ¸a do wszystkich zdarzeń A, B (tzn. w j¸ezyku zbiorów ’A

T

B’).

DEFINICJA: Zdarzeniem przeciwnym do A: A nazywamy różnic¸e ’E-A’ DEFINICJA: Zdarzeniem losowym - nazywamy zdarzenie spełniaj¸ace poniższe warunki: 1. W zbiorze zdarzeń losowych znajduje si¸e zdarzenie pewne oraz zdarzenie niemożliwe. 2. Jeżeli zdarzenia A1 , A2 ,... w ilości skończonej lub przeliczalnej s¸a zdarzeniami losowymi to ich iloczyn i ich suma s¸a również zdarzeniami losowymi. 3. Jeżeli A1 i A2 s¸a zdarzeniami losowymi to ich różnica jest również zdarzeniem losowym.

B.Kamys; Notatki do wykładu SMOP-I 2007/08

3

INTUICYJNE OKREŚLENIE: Zdarzenie losowe to takie, o którym nie możemy powiedzieć czy zajdzie w danych warunkach czy też nie zajdzie.

DEFINICJA: Zmienn¸a losow¸a nazywamy jednoznaczn¸a funkcj¸e rzeczywist¸a X(e) określon¸a na zbiorze E zdarzeń elementarnych tak¸a, że każdemu przedziałowi wartości funkcji X odpowiada zdarzenie losowe. DEFINICJA: Zmienna losowa typu skokowego (dyskretnego) to taka, która przyjmuje tylko co najwyżej przeliczalny zbiór wartości. Zmienna losowa typu ci¸agłego - może przyjmować dowolne wartości od minus do plus nieskończoności. DEFINICJA: Definicja prawdopodobieństwa Aksjomat 1:

Każdemu zdarzeniu losowemu przyporz¸adkowana jest jednoznacznie nieu-

jemna liczba rzeczywista zwana prawdopodobieństwem. Aksjomat 2:

Prawdopodobieństwo zdarzenia pewnego jest równe jedności.

Aksjomat 3:

Jeżeli zdarzenie losowe Z jest sum¸a skończonej lub przeliczalnej liczby rozł¸acznych

zdarzeń losowych Z1 ,Z2 ,.. to prawdopodobieństwo zrealizowania si¸e zdarzenia Z jest równe sumie prawdopodobieństw zdarzeń Z1 ,Z2 , .. Aksjomat 4: Prawdopodobieństwo warunkowe zdarzenia A pod warunkiem, że zachodzi zdarzenie B; ’P(A|B)’ wyraża si¸e wzorem: P(A|B) =

P (A.B) P (B)

Prawdopodobieństwo to jest nieokreślone, gdy prawdopodobieństwo zdarzenia B wynosi zero.

1.2

WŁASNOŚCI PRAWDOPODOBIEŃSTWA

1.) Zdarzenie przeciwne do A : P(A) = 1 - P(A) Dowód: A+A = E a wi¸ec P(A+A) = P(E) = 1, z drugiej strony A i A wykluczaj¸a si¸e wi¸ec P(A+A) = P(A) + P(A). St¸ad P(A) = P( E) - P(A) czyli P(A) = 1 - P(A) c.b.d.o.

2.) Zdarzenie niemożliwe : P(Ø) = 0

B.Kamys; Notatki do wykładu SMOP-I 2007/08

4

Dowód: E i Ø wykluczaj¸a si¸e wi¸ec P(E+Ø)=P(E)+P(Ø) oraz E+Ø=E a wi¸ec P(E+Ø)=P(E), czyli P(Ø) = 0 c.b.d.o.

3.) Zdarzenie A zawiera si¸ ewB : P(A) ≤ P(B) Dowód: P(B) = P(A+(A.B)) = P(A)+P(A.B) ≥ P(A) c.b.d.o.

4.) Dowolne zdarzenie losowe : 0 ≤ P(A) ≤ 1 Dowód: Dla każdego zdarzenia jest prawdziwe: Ø ⊂ A+Ø = A = A.E ⊂ E a wi¸ec prawdopodobieństwa zdarzeń Ø,A i E spełniaj¸a: 0 ≤ P(A) ≤ 1 c.b.d.o.

5.) Suma dowolnych zdarzeń A+B : P(A+B) = P(A) + P(B) - P(A.B) Dowód: Zarówno A+B jak i B możemy zapisać jako sumy rozł¸acznych (wykluczaj¸acych si¸e) zdarzeń: A+B

=

A + (B − A.B) oraz

B

=

A.B + (B − A.B),

stosujemy aksjomat nr 3 definicji prawdopodobieństwa, P (A + B)

=

P (A) + P (B − A.B),

P (B)

=

P (A.B) + P (B − A.B)

odejmujemy stronami: P(A+B) = P(A) + P(B) - P(A.B) c.b.d.o.

6.) Iloczyn zdarzeń A.B : P(A.B) = P(B).P(A|B) = P(A).P(B|A) Dowód: Wynika to automatycznie z 4 aksjomatu definicji prawdopodobieństwa.

DEFINICJA: Zdarzenie A jest niezależne od B gdy P(A|B) = P(A).

B.Kamys; Notatki do wykładu SMOP-I 2007/08

5

7.) Jeżeli A nie zależy od B to B nie zależy od A. Dowód: Korzystamy z dwu wzorów na prawdopodobieństwo A.B podanych wyżej, przy czym w pierwszym z nich uwzgl¸edniamy, że A jest niezależne od B. Wówczas z porównania obu wzorów dostajemy P(B|A) = P(B). c.b.d.o.

8.) WKW niezależnosci: P(A.B) = P(A).P(B) Dowód: Wynika to automatycznie ze wzoru na prawdopodobieństwo iloczynu zdarzeń. c.b.d.o

9.) Formuła ’całkowitego prawdopodobieństwa’: Jeżeli istnieje zbiór zdarzeń A1 , A2 ... wykluczaj¸acych si¸e wzajemnie i wyczerpuj¸acych wszystkie możliwości wówczas prawdopodobieństwo dowolnego zdarzenia B może być zapisane nast¸epuj¸aco: P(B) =

P

i P (Ai ).P (B

| Ai )

Dowód: P P B= acznych zdarzeń) a wiec P(B) = i P(B.Ai ) a każdy składnik można i B.Ai (suma rozł¸ zapisać jako P(Ai ).P(B|Ai ). c.b.d.o.

2

PODSTAWOWE POJĘCIA TEORII ESTYMACJI

DEFINICJA: W statystyce skończony zespół doświadczeń nazywamy prób¸a a wnioskowanie na podstawie próby o własnościach nieskończonego (zwykle) zespołu wszystkich możliwych doświadczeń zwanego populacj¸a generaln¸a , nazywamy estymacj¸a . DEFINICJA: Przez prób¸e prost¸a rozumiemy ci¸ag niezależnych doświadczeń odnosz¸acych si¸e do tej samej populacji generalnej. DEFINICJA: Statystyk¸a nazywamy tak¸a funkcj¸e zmiennych losowych obserwowanych w próbie, która sama jest zmienn¸a losow¸a. DEFINICJA: Estymatorem Tn (x1 , x2 , ..xn ; θ) parametru θ lub w skrócie Tn (θ) nazywamy statystyk¸e o rozkładzie prawdopodobieństwa zależnym od θ. Tu x1 , x2 , .. oznaczaj¸a wyniki pomiarów próby a przez rozkład prawdopodobieństwa rozumiemy przyporz¸adkowanie prawdopodobieństw różnym wartościom statystyki Tn .

B.Kamys; Notatki do wykładu SMOP-I 2007/08

6

DEFINICJA: Estymacja punktowa to taka estymacja, która polega na oszacowaniu wartości danego parametru θ przez wartość jego estymatora. DEFINICJA: Estymacja przedziałowa polega na szukaniu przedziału liczbowego, wewn¸atrz którego z założonym prawdopodobieństwem leży prawdziwa wartość parametru. DEFINICJA: Estymator Tn (θ), jest zgodny jeżeli dla każdego  > 0 jest spełniony warunek: limn→∞ P (| Tn (θ) − θ |< ) = 1 W takim przypadku używa si¸e cz¸esto określenia, że estymator spełnia prawo wielkich liczb .

PRZYKŁAD: TWIERDZENIE (Bernoulli): Wzgl¸edna cz¸estość pojawiania si¸e zdarzenia ’A’ w ci¸agu ’n’ doświadczeń spełnia prawo wielkich liczb czyli jest zgodnym estymatorem prawdopodobieństwa zdarzenia A: P(A). limn→∞ P( | nA /n - P(A) |<  ) = 1 DEFINICJA: Estymator spełniaj¸acy mocne prawo wielkich liczb to taki, który jest zbieżny do estymowanego parametru z prawdopodobieństwem równym jedności. P( limn→∞ Tn (θ) = θ ) = 1

PRZYKŁAD: TWIERDZENIE: F.P.Cantelli udowodnił w 1917 roku, że wzgl¸edna cz¸estość pozytywnego zakończenia doświadczenia; nA /n jest zbieżna do prawdopodobieństwa zdarzenia A; P(A) z prawdopodobieństwem równym jedności: P( limn→∞ (nA /n) = P(A) ) = 1 czyli wzgl¸edna cz¸estość spełnia mocne prawo wielkich liczb.

B.Kamys; Notatki do wykładu SMOP-I 2007/08

3

7

ILOŚCIOWY OPIS ZMIENNYCH LOSOWYCH

Ilościowy opis zmiennych losowych uzyskujemy stosuj¸ac • Dystrybuant¸e (Zwan¸a cz¸esto przez statystyków funkcj¸a rozkładu)

• Rozkład prawdopodobieństwa (Tylko dla zmiennych dyskretnych)

• Funkcj¸e g¸estości prawdopodobieństwa (Tylko dla zmiennych ci¸agłych) oraz wielkości charakteryzuj¸ace te powyżej wymienione twory.

DEFINICJA: Dystrybuant¸a F(x) nazywamy prawdopodobieństwo tego, że zmienna losowa X przyjmie wartość mniejsz¸a od x. (’X’ - to symbol zmiennej losowej a ’x’ to jej konkretna wartość). Oczywiście dystrybuanta jest funkcj¸a x. F(x) ≡ P( X < x ) Własności dystrybuanty: 1. 0 ≤ F(x) ≤ 1 2. F(-∞) = 0 3. F(+∞) = 1 4. F(x) jest niemalej¸ac¸a funkcj¸a 5. F(x) nie posiada wymiaru Przykład: Dla rzutu kostk¸a do gry, gdzie jako zmienn¸a losow¸a przyj¸eto liczb¸e wyrzuconych punktów: F (x) = 0 dla x ≤ 1, = 1/6 dla 1 < x ≤ 2, = 2/6 dla 2 < x ≤ 3, = 3/6 dla 3 < x ≤ 4, = 4/6 dla 4 < x ≤ 5, = 5/6 dla 5 < x ≤ 6, = 1 dla x > 6

B.Kamys; Notatki do wykładu SMOP-I 2007/08

8

DEFINICJA: Rozkład prawdopodobieństwa : Jeżeli xi (i=1,2,...) s¸a wartościami dyskretnej zmiennej losowej to rozkładem prawdopodobieństwa nazywamy zespół prawdopodobieństw: P(X=xi ) = pi ,

P

i

pi = 1

Przykład: Rozkład prawdopodobieństwa dla rzutu kostk¸a do gry omawianego powyżej: pi = 1/6 dla i = 1,2 .. 6.

DEFINICJA: Funkcja g¸estości prawdopodobieństwa f(x) f(x)dx ≡ P(x ≤ X < x+dx)

Własności funkcji gęstości prawdopodobieństwa: 1. f(x) ≥ 0, 2. f(x) jest unormowana tj.

R +∞ −∞

3.

(x) f(x)= dFdx

4.

Wymiar f(x) = wymiar (1/x)

f (x)dx = 1

Przykład: Rozkład jednorodny w przedziale [a,b]: f (x) =

0

dla x < a

= 1/(b − a) dla a ≤ x ≤ b =

0

dla b < x

B.Kamys; Notatki do wykładu SMOP-I 2007/08

4

9

FUNKCJE ZMIENNEJ LOSOWEJ

Funkcja Y zmiennej losowej X: Y = Y(X) jest również zmienn¸a losow¸a. Dlatego też można dla niej określić dystrybuant¸e, rozkład prawdopodobieństwa lub funkcj¸e g¸estości prawdopodobieństwa. S¸a one prosto zwi¸azane z odpowiednimi wielkościami dla zmiennej X. Należy rozpatrzyć niezależnie przypadek, gdy funkcja Y(X) jest monotoniczna oraz gdy nie posiada tej własnosci.

a) Funkcja Y = Y(X) jest monotoniczna. Można wówczas jednoznacznie określić funkcj¸e odwrotn¸a X=X(Y). 1. Dystrybuanta funkcji Y(X): G(y)

Y(X) jest rosn¸ aca : G(y) = F(x(y)) Y(X) jest malej¸ aca : G(y) = 1 - F(x(y)) - P(x;y=y(x) Dowód: Wychodz¸ac z definicji dla Y(X) rosn¸acej: G(y)

=

P (Y < y)

=

P (X(Y ) < x)

=

F (x(y))

dla Y(X) malej¸acej: G(y)

=

P (Y < y)

=

P (X(Y ) > x)

= 1 − P (X(Y ) ≤ x) =

1 − P (X(Y ) < x) − P (X(Y ) = x)

=

1 − F (x(y)) − P (x; Y = y(x)) c.b.d.o.

2. Rozkład prawdopodobieństwa P(y):

P(yi ) = P(xi ;yi =Y(xi ))

B.Kamys; Notatki do wykładu SMOP-I 2007/08

10

3. Funkcja g¸estości prawdopodobieństwa g(y):

g(y) = f(x(y)) |

dx(y) dy

|

gdzie X(Y) jest funkcj¸a odwrotn¸a do Y(X).

Z definicji: f(x) dx = P(x ≤ X < x+dx) a to prawdopodobieństwo przy jednoznacznym zwi¸azku mi¸edzy X i Y wynosi P(y ≤ Y < y+dy)=g(y) dy. Znak modułu przy pochodnej pojawia si¸e st¸ad, że przy malej¸acej funkcji Y(X) pochodna b¸edzie ujemna co powodowałoby, że g(y) byłaby ujemna a zgodnie z definicj¸a musi być nieujemna.

Przykład dla funkcji monotonicznej:

Y(X) = a X + b; a i b to rzeczywiste stałe

1. Rozkład prawdopodobieństwa: P(Y=yi ) = P(a xi + b =yi ) = P(xi =

yi −b ) a

2. Dystrybuanta: y−b ), a y−b F(x= a )

dla a > 0, G(y) = F(x = dla a < 0, G(y)=1 -

- P(x= y−b ) a

3. G¸estość prawdopodobieństwa: g(y)=

1 |a|

f(x= y−b ) a

b.) Funkcja Y(X) nie jest monotoniczna . Wówczas dzielimy obszar zmienności X na przedziały, w których Y(X) jest monotoniczna i powtarzamy powyższe rozważania sumuj¸ac przyczynki od rozł¸acznych przedziałów.

B.Kamys; Notatki do wykładu SMOP-I 2007/08

11

Przykład dla funkcji niemonotonicznej: Y(X)=X2

1. Rozkład prawdopodobieństwa: √ √ P(yi ) = P(X2 =yi ) = P(X=- yi )+P(X=+ yi ) 2. Dystrybuanta: G(y) = P(Y
View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF