probabilità baldi

October 12, 2017 | Author: Dina Castello | Category: Normal Distribution, Markov Chain, Derivative, Analysis, Functions And Mappings
Share Embed Donate


Short Description

Download probabilità baldi...

Description

UNIVERSITA` di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2, P.Baldi 2◦ esonero, 27 maggio 2010 Le risposte devono essere motivate Esercizio 1 Sia (Xn )n una successione di va. di densità  0 se t ≤ 1 f (t) = c se t > 1 t α+1 dove α è un numero > 0. a) Determinare la costante c in modo che f sia una densità. b) Poniamo Mn = max(X1 , . . . Xn ) . Mostrare che la successione

1

Mn n1/α converge in legge e determinare la f.r. della legge limite. Esercizio 2 Siano X1 , . . . , X900 v.a. di Bernoulli B(1, p) indipendenti e poniamo X = 1 900 (X1 + . . . + X900 ). a) Usando l’approssimazione normale, quanto vale P(X ≥ 0.22) se p = 0.20 ? b) Usando l’approssimazione normale, quanto vale P(X ≤ 0.22) se p = 0.24 ? c) Quale delle due probabilità in a) e b) è più grande ? Esercizio 3 Consideriamo la matrice di transizione ! 0 1 0 P = 0 0 1 8 1 9 9 0 a) È irriducibile ? Regolare ? b) Quali sono le sue distribuzioni invarianti ? c) Calcolare il tempo medio di passaggio in 1 partendo da 3. Esercizio 4 Consideriamo la catena di Markov sui vertici del grafo della Figura 0.1 (vedi pagina successiva). Ad ogni transizione la catena si sposta dalla posizione in cui si trova ad uno dei vertici contigui, scelto a caso. a) Qual è la distribuzione invariante di questa catena ? È unica ? Si tratta di una catena regolare ? b) Quanto tempo in media occorre per giungere in 1 partendo da uno degli stati 5, . . . , 10 ?

6

7

5

.. ..............................................................• ..• . ..... ... ............. ............ ... ........... ... ... . . ...... ... ... ..• ... ... . . . . . . . . .. ... ... . . . . . . .. ... ... . . . . . . .. ... ... . . . . ... . . ... . . . . . . ... . . . ..... . . . . ........ ... . ......• .... •.............. . . . ....... .. .........• . . . . . . . ... ........ ................. .. . ... ..................................................................................... .... ... •. •.... ..... ... .... .. ... ... .. . .... .... ... .. . ... .. . ... ... ..... ............................................................

2 1

3

8

Figura 0.1



4



9

10

Soluzioni Esercizio 1. a) Si ha immediatamente Z +∞ 1

1 t α+1

dt =

1 α

t

1

e dunque deve essere c = α. b) Si ha, per t < 1, F (t) =

Z

t −∞

f (s) ds = α

Z

1

s α+1

ds = 1 −

1 tα

e poi, per t > 0,    1 1 n 1/α 1/α n P 1/α Mn ≤ t = P(Mn ≤ tn ) = P(Xn ≤ tn ) = 1 − α n nt



n→∞

e−t

−α

Per concludere che la successione converge in legge occorre ora verificare che il limite delle f.r. è effettivamente una f.r. Basta per questo osservare che G è una funzione crescente e che, posto  −α −t per t > 0 G(t) = e 0 altrimenti si ha lim G(t) = 0, lim G(t) = 1 t→−∞

t→+∞

1 Dunque G è una funzione di ripartizione e la successione ( n1/α Mn )n effettivamente converge in legge.

Esercizio 2. Ricordiamo che la varianza di una v.a. B(1, p) è p(1 − p) e dunque per l’approssimazione normale la v.a. √ 900 (X − p) √ p(1 − p) è approssimativamente N(0, 1). a) Si ha p = 0.2, 1 − p = 0.8 e dunque, indicando al solito con 8 la funzione di ripartizione della legge N(0, 1), √   √900 900 (X − 0.2) ≥ √ (0.22 − 0.2) ' P(X ≥ 0.22) = P √ 0.2 · 0.8 0.2 · 0.8  0.02 · 30  '1−8 √ = 1 − 8(1.5) = 0.067 0.16

b) Ora invece p = 0.24, 1 − p = 0.76 e quindi 

P(X ≤ 0.22) = P √

√ 900

(X − 0.2) ≥ √

√ 900

0.24 · 0.76 0.24 · 0.76  0.02 · 30  = 8(−1.4) = 0.081 '8 −√ 0.182

 (0.22 − 0.24) '

Un calcolo esatto con la f.r. di una legge B(900, p) avrebbe dato i valori 0.068 per a) e 0.085 per b). c) Evidentemente b). Esercizio 3. a) Con la proprietà transitiva si vede facilmente che gli stati comunicano tra loro e quindi che la catena è irriducibile. Per la regolarità, con un po’ di pazienza si vede che P 5 ha tutti gli elementi > 0 (n = 3 non basta perché non si può andare da 3 a 2 in tre (4) passi e neanche n = 4 perché p11 = 0). b) La distribuzione invariante è unica perché la catena è irriducibile. Per trovarla ci riconduciamo al sistema v1 = 19 v3 8 9

v2 = v1 +

v3

v1 + v2 + v3 = 1 Dalle due prime equazioni si ricava v1 = 9 trova v3 = 19 e dunque

1 9

v3 e poi v2 = v3 . Sostituendo nella terza si

1 9 9 , 19 , 19 ) v = ( 19

c) Indicando con ζi , i = 2, 3 i tempi medi di passaggio in 1 partendo da i rispettivamente, sappiamo che questi sono soluzione del sistema ζ2 = 1 + ζ3 ζ3 = 1 +

Si trova facilmente, sostituendo, che ζ3 = 1 +

8 9

8 9 ζ2

(1 + ζ3 ) =

17 9

+

8 9 ζ3

e dunque ζ3 = 17.

Esercizio 4. a) Tutti gli stati comunicano tra loro, perché il grafo è connesso; dunque la catena è irriducibile e la distribuzione stazionaria è unica. Per calcolarla basta ricordare che per una catena di Markov sui vertici di un grafo c’è una formula esplicita della distribuzione stazionaria: se ki è il numero di spigoli del grafo che arrivano nel vertice i e k è la somma dei numeri ki , allora ki πi = k

è la distribuzione invariante. Qui ki è uguale a 3 per i vertici 1, 5, 6, 7, 8, 9, 10 e 5 per i 1 per gli vertici 2, 3, 4. Dunque k = 7 · 3 + 3 · 5 = 36. La distribuzione invariante vale 12 5 stati 1, 5, 6, 7, 8, 9, 10 e 36 per gli altri. La catena è regolare perché basta verificare che da ogni stato si può giungere con probabilità positiva in tutti gli altri in 3 passi. c) Il tempo medio di passaggio nella classe C = {1} è evidentemente lo stesso partendo da uno degli stati 5, . . . , 10, come pure sarà lo stesso partendo da 2, 3, 4. Indichiamo ζ1 il tempo medio partendo dagli stati ‘‘esterni’’ e ζ2 quello partendo da quelli interni. Osservando che gli stati esterni comunicano in un passo con altri due stati esterni e con uno interno (probabilità di transizione = 13 ), mentre quelli interni comunicano ognuno con due esterni e due interni (probabilità di transizione = 15 ), i numeri ζi , i = 1, 2 sono soluzione di ζ1 = 1 +

ζ2 = 1 +

2 3 ζ1 2 5 ζ1

+ +

1 3 ζ2 2 5 ζ2

Dalla prima equazione si ricava ζ1 = 3 + ζ2 . sostituendo questo valore nella seconda equazione si trova 4 ζ2 = 1 + 25 (3 + ζ2 ) + 25 ζ2 = 11 5 + 5 ζ2 e quindi ζ2 = 11 e poi ζ1 = 14 , che è il tempo medio richiesto.

UNIVERSITA` di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2 P.Baldi Tutorato 7, 5 maggio 2011 Esercizio 1 a) Sia (Xn )n una successione di v.a. tale che Xn ∼ N(µn , σn2 ), dove µn → µ ∈ R e σn2 → σ 2 > 0. Mostrare che la successione converge in legge ad una v.a. N(µ, σ 2 ). b) Sia (Xn )n una successione di v.a. tale che, per ogni n, Xn segua una legge di Poisson di parametro λn e supponiamo che λn → λ > 0. Mostrare che la successione converge in legge ad una v.a. di legge di Poisson di parametro λ. c) Sia (Xn )n una successione di v.a. tale che, per ogni n, Xn ∼ Ŵ(α, λn ) e supponiamo che λn → λ > 0. Mostrare che la successione converge in legge ad una v.a. di legge Ŵ(α, λ). Esercizio 2 Sia (Xn )n una successione di v.a. indipendenti uniformi su [0, 1]. a) Calcolare media e varianza delle v.a. Yn = cos(2π Xn ) b1) Poniamo n 1X ¯ Yn = cos(2π Xk ) . n k=1

Mostrare che la successione (Y¯n )n converge in probabilità e determinarne il limite. b2) Calcolare il limite lim P(|Y¯n | > 101√n ) n→∞

Esercizio 3 Sia (Xn )n una successione di v.a. i.i.d. di legge P(Xn = 21 ) = P(Xn = 2) =

1 2

a) Quanto vale E(log Xn ) ? b) Mostrare che la successione Yn = (X1 . . . Xn )1/n converge in probabilità e determinarne il limite. √ c) Mostrare che la successione Yn = (X1 . . . Xn )1/ n converge in legge e determinarne la legge limite. Esercizio 4 Una sorgente produce segnali binari di lunghezza n senza memoria (cioè i valori di bit diversi sono tra di loro indipendenti) e nei quali ogni bit può assumere i valori 0 oppure 1 con probabilità 0.8 e 0.2 rispettivamente.

a) Qual è la probabilità che per n = 1000 la sorgente produca un segnale in cui la proporzione p¯ n di 1 sia più grande di 0.23? b) Fissiamo ε = 10−2 e continuiamo a indicare con p¯ n la proporzione di 1 in un messaggio di lunghezza n. Quanto deve essere grande n perché l’eventualità di osservare un segnale in cui p¯ n differisca da 0.2 per più di ε si verifichi con probabilità minore di η = 4 · 10−3 ? Esercizio 5 In un esperimento occorre misurare una certa quantità µ. Lo strumento di misura aggiunge all’osservazione un errore sperimentale che si può modellizzare con una v.a. X di media 0 e varianza 1. Si può inoltre supporre che errori di misurazioni che si riferiscono a misurazioni diverse siano indipendenti. Per ottenere una misura si effettuano n misurazioni e poi si stima µ con la media empirica ¯ Xn delle misurazioni ottenute. 1 a) Qual è la probabilità di commettere un errore più grande di 100 , se n = 400 ? 1 ¯ b) Volendo che Xn stimi µ a meno di 100 con la probabilità del 99%, quanto deve essere grande n ? 1 c) Volendo che X¯ n stimi µ a meno di 120 con la probabilità del 90%, quanto deve essere grande n ?

Soluzioni Esercizio 1. a) Sappiamo che se Xn ∼ N(µn , σn2 ), allora Xn è della forma Xn ∼ σn Zn +µn , dove Zn ∼ N(0, 1). Dunque, indicando con Fn la f.r. di Xn , Fn (t) = P(Xn ≤ t) = P(Zn ≤

t−µn σn )

n = 8( t−µ σn )



n→∞

8( t−µ σ ) = P(σ Z + µ ≤ t),

dove Z è una v.a. N(0, 1). Poiché σ Z + µ ∼ N(µ, σ 2 ), abbiamo concluso. Lo stesso risultato si sarebbe potuto ottenere usando le funzioni caratteristiche: la f.c. di Xn è θ → 1 2 2 1 2 2 eiµn θ e− 2 σn θ , mentre quella di una v.a. N(µ, σ 2 ) è θ → eiµθ e− 2 σ θ . È ora immediato che 1 2 2 1 2 2 eiµn θ e− 2 σn θ → eiµθ e− 2 σ θ n→∞

per ogni θ ∈ R. Basta ora applicare il Teorema di P. Lévy. b) Si ha k k −λn λn −λ λ P(Xn = k) = e → e = P(X = k) k! n→∞ k! dove X indica una v.a. di Poisson di parametro λ, che permette di concludere. Anche in questo caso si sarebbe potuto applicare il Teorema di P. Lévy, ricordando che la f.c. di una iθ v.a. di Poisson di parametro λ è θ → eλ(e −1) c) È immediato che se Y ∼ Ŵ(α, 1), allora λ1 Y ∼ Ŵ(α, λ). Dunque, indicando con F la f.r. di una v.a. Ŵ(α, 1), P(Xn ≤ t) = P( λ1n Y ≤ t) = F (λn t)



n→∞

F (λt) = P( λ1 Y ≤ t) .

Esercizio 2. a) Si ha E[cos(2π Xn )] = 2

E[cos (2π Xn )] =

1

Z

cos(2π x) dx = 0

0

Z

0

1

cos2 (2π x) dx =

1 · 2

Dunque Var(Yn )) = 21 . b1) Per la legge dei grandi numeri Y¯n

P



n→∞

E[cos(2π Xn )] = 0

b2) Per il Teorema Limite Centrale, √

cos(2π X1 ) + . . . + cos(2π Xn ) 2n Y¯n = q n 2

+



n→∞

N(0, 1)

e quindi lim P(|Y¯n | >

n→∞

10

1√

√ 2n Z¯ n | > ) = lim P(| n n→∞



2 10 )





= 8( 102 ) − 8(− 102 ) =

= 8(0.14) − 8(−0.14) = 0.11 . Esercizio 3. a) La v.a. log Xn prende i valori log 2 e log 21 = − log 2, entrambi con probabilità 21 . Dunque E(X) = − 21 log 2 + 21 log 2 = 0. b) Si ha, ponendo Zn = log Xn ,  Yn = exp n1 (Z1 + . . . + Zn )

Le v.a. (Zn )n sono centrate ed hanno varianza finita. Dunque per la Legge dei Grandi Numeri n1 (Z1 + . . . + Zn ) →n→∞ 0 in probabilità. Poiché la funzione esponenziale è continua, per ogni ε > 0 esiste δ > 0 tale che |ex − 1| ≤ ε se |x| ≤ δ. Dunque P(|Yn − 1| ≥ ε) ≤ P(| n1 (Z1 + . . . + Zn )| ≥ δ)



n→∞

0

e dunque Yn → 1 in probabilità. c) In maniera simile si ha Wn = exp

√1 n

 (Z1 + . . . + Zn )

Per il Teorema Limite Centrale (le v.a. Zi sono centrate ed hanno varianza uguale a (log 2)2 ) √1 n

(Z1 + . . . Zn )

+



n→∞

Z∞ ∼ N(0, (log 2)2 ) .

Dunque, se t > 0, FWn (t) = P(Wn ≤ t) = P

√1 n

 (Z1 + . . . Zn ) ≤ log t =

log t → 8( log 2)

n→∞

log t dove 8 indica al solito la funzione di ripartizione di una v.a. N(0, 1). t → 8( log 2 ) è la funzione di ripartizione della v.a. eZ∞ che dunque densità

1 1 2 2 log t e−(log t) /(2(log 2) ) 8′ ( log )= √ 2 t log 2 2π t log 2 (che è una densità lognormale). Esercizio 4. a) Poniamo Xi =

n

1 0

se lo i-esimo bit vale 1 altrimenti .

Allora il numero totale di bit che assumono il valore 1 nel segnale è Sn = X1 + . . . + Xn , mentre la proporzione di bit che valgono 1 è p¯ n = n1 Sn . Per il Teorema Limite Centrale la v.a. Sn − 0.2 · n √ n(0.2 · 0.8) segue una legge che, per n abbastanza grande, è approssimativamente N(0, 1). Dunque, con l’approssimazione normale, √   (0.23 − 0.2) · n Sn − 0.2 · n ≈ > P(p¯ n > 0.23) = P(Sn > 0.23 · n) = P √ √ n(0.2 · 0.8) 0.2 · 0.8 √   0.03 · n ≈1−8 √ 0.16 sostituendo il valore numerico n = 1000 si ottiene 1 − 8(2.37) = 0.009. b) Poniamo √ per comodità p = 0.2. Allora ripetendo il ragionamento del punto a), poiché σ = 0.16 = 0.4,   √   √  − n n P(|p¯ n − p| > ε) ≈ 2 1 − 8 = 28 40 40 Perché questa quantità sia più piccola di η = 4 · 10−3 occorre (dopo uno sguardo alle tavole) che sia √ − n ≤ −2.88 40 ovvero n > (40 · 2.88)2 = 13271.

1 . Esercizio 5. Per semplicità di scrittura, poniamo δ = 100 a) La formula (4.8) del libro dà immediatamente la probabilità richiesta che vale √ 28(δ 400) − 1 = 28(0.2) − 1 = 0.16 .

b) Sempre per la (4.8), n deve risolvere √ 28(δ n ) − 1 ≥ 0.99

e cioè

√ 8(δ n ) ≥ 21 (1 + 0.99) = 0.995 .

Ora dalle tavole si trova 8(x) = 0.995 per x = 2.5758. Dunque deve essere √ δ n ≥ 2.5758 √ cioè n ≥ 257.58. Poiché 257.582 = 66347.4, deve essere n = 66358 .

1 . Si trova che deve essere c) Basta ripetere il calcolo di b) con il nuovo valore δ = 120 √ 1 8(δ n ) ≥ 2 (1 + 0.9) = 0.95. Poiché 8(x) = 0.95 per x = 1.6448, ora deve essere √ n = 120 · 1.6448 = 197.38. Si ha 197.382 = 38958.8 e quindi deve essere

n ≥ 38959 .

UNIVERSITA` di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2, P.Baldi 2◦ esonero, 4 giugno 2009 Le risposte devono essere motivate Esercizio 1 Siano X1 , . . . , Xn v.a. indipendenti N (0, 1) e poniamo Sn = X1 + . . . + Xn . a) Quanto vale la media condizionale di Sn dato X1 = x ? b) Quanto vale la media condizionale di X1 dato Sn = y ? c) Sapendo che Sn = 1, quanto vale la probabilità che X1 si trovi tra −1 e 1 per n = 4 ? E n = 8? d) Come cambierebbero le risposte alle domande a), b) e c) se considerassimo Xn invece di X1 ? Esercizio 2 Sia (Xn )n una successione di v.a. i.i.d. uniformi su [0, 1]e poniamo Mn = max(X1 , . . . , Xn ) . a) Mostrare che la successione (Mn )n converge in legge e determinare la legge limite. Converge anche in probabilità ? b) Mostrare che la successione Zn = n(1 − Mn ) converge in legge e determinare la legge limite. Esercizio 3 Una v.a. X ha funzione caratteristica φ(θ ) = √

1 1 + θ2

·

a) Mostrare che X ha varianza finita e calcolare E(X) e Var(X). b) Siano X, Y v.a. indipendenti entrambe di funzione caratteristica φ. Calcolare E[(X + Y )4 ]. c) Siano X, Y , Z v.a. indipendenti tutte di funzione caratteristica φ. Si può dire che la v.a. X + Y + Z ha una densità continua ? Quanto vale P(X + Y + Z ≥ 0).

Soluzioni Esercizio 1. Sappiamo che le v.a. X1 e Sn hanno una legge congiunta che è gaussiana, dato che (X1 , Sn ) è una funzione lineare di (X1 , . . . , Xn ) che è congiuntamente gaussiana. Si tratta di v.a. centrate. Per ottenerne la matrice di covarianza C basta calcolare Var(X1 ) = 1,

Var(Sn ) = n,

Cov(X1 , Sn ) = Cov(X1 , X1 ) + . . . + Cov(X1 , Xn ) = 1

Dunque C=



1 1 1 n



a) Come visto a lezione, la legge condizionale di Sn dato X1 = x è gaussiana di media E(Sn ) +

Cov(Sn , X1 ) (x − E(X1 )) = x Var(X1 )

dunque la media condizionale di Sn dato X1 = x è uguale a x. b) La legge condizionale di X1 dato Sn = y è gaussiana di media E(X1 ) +

Cov(Sn , X1 ) 1 (y − E(Sn )) = y Var(Sn ) n

dunque la media condizionale di X1 dato Sn = y è uguale a n1 y. c) La varianza della legge condizionale di X1 dato Sn = y è σ02 = Var(X1 ) −

1 n−1 Cov(Sn , X1 )2 =1− = · Var(Sn ) n n

Dunque, se n = 4, la legge condizionale di X1 dato S4 = 1 è una N ( 41 , 43 ). Se Z ∼ N ( 41 , 43 ) allora √2 (Z − 41 ) ∼ N (0, 1) e 3

P(Z ∈ [−1, 1]) = P( √2 (Z − 41 ) ∈ [ √2 (−1 − 41 ), √2 (1 − 41 )]) = 3 3 3   = 8 √2 (1 − 41 ) − 8 √2 (−1 − 41 ) = 8(0.87) − 8(−1.44) = 3

3

= 0.806 − 0.074 = 0.732 .

Se invece se n = 8, la legge condizionale di X1 dato S8 = 1 è N ( 18 , 78 ). Se Z ∼ N ( 18 , 78 ) allora

√ √8 7

(Z − 18 ) ∼ N (0, 1) e P(Z =8

√ √ √ 8 1 8 1 √8 √ √ (1 − 18 )]) = ∈ [−1, 1]) = P( (Z − 8 ) ∈ [ (−1 − 8 ), 7 7 7 √ √   8 1 8 1 √ (1 − ) − 8 √ (−1 − ) = 8(0.825) − 8(−1.202) = 8 8 7 7

= 0.825 − 0.115 = 0.71 .

d) la legge congiunta di Xn e Sn è anch’essa gaussiana di media 0. Si ha Var(Xn ) = 1,

Var(Sn ) = n,

Cov(Xn , Sn ) = Cov(Xn , X1 ) + . . . + Cov(Xn , Xn ) = 1

e dunque la matrice di covarianza è ancora C=



1 1 1 n



Dunque la legge congiunta di Xn e Sn è la stessa di quella di X1 e Sn . Dunque le leggi condizionali di X1 dato Sn = y e quella di Xn dato Sn = y sono le stesse. Dunque le risposte alle questioni a) e b) rimangono le stesse. Per un ragionamento analogo, anche la risposta alla questione a) resta la stessa. Esercizio 2. a) La funzione di ripartizione di Mn vale 0 per t ≤ 0 e 1 per t ≥ 1. Se 0 ≤ t ≤ 1, FMn (t) = P(Mn ≤ t) = P(X1 ≤ t, . . . , Xn ≤ t) = P(X1 ≤ t) . . . P(Xn ≤ t) = t n . Dunque lim FMn (t) =

n→∞

n

0 1

se t < 1 se t ≥ 1

che è la funzione di ripartizione di una v.a. che assume il valore 1 con probabilità 1. La convergenza ha luogo anche in probabilità, infatti P(|Mn −1| ≥ ε) = P(Mn ≥ 1+ε)+P(Mn ≤ 1−ε) = 1−FMn (1+ε)+FMn (1−ε) (infatti 1−FMn (1+ε) mentre FMn (t) →n→∞ 0 per ogni t < 1) per t < 0 mentre per t ≥ 0



n→∞

0.

c) Si ha P(Zn ≤ t) = 0

P(Zn ≤ t) = P(1 − Mn ≤ nt ) = P(Mn ≥ 1 − nt ) = 1 − P(Mn ≤ 1 − nt ) = = 1 − (1 − nt )n = 1 − e−t

che è la funzione di ripartizione di una v.a. esponenziale di parametro 1. Esercizio 3. a) φ è una funzione infinite volte derivabile e dunque X ha finiti i momenti di tutti gli ordini. E(X) = 0 perché, dato che φ è una funzione reale, la v.a. X ha legge simmetrica (X ∼ −X) e dunque speranza matematica uguale a 0. Ad ogni modo le due prime derivate di φ valgono φ ′ (θ ) = −θ(1 + θ 2 )−3/2

φ ′′ (θ ) = −(1 + θ 2 )−3/2 + 3θ 2 (1 + θ 2 )−5/2 .

Dunque Var(X) = E(X 2 ) = −φ ′′ (0) = 1 . b) La funzione caratteristica di X + Y è φX+Y (θ ) = φ(θ )2 =

1 · 1 + θ2

Il momento del quarto ordine di X + Y è uguale alla derivata quarta di φX+Y in 0. Ma lo sviluppo in serie di potenze di φX+Y è ben noto (a partire dalla serie geometrica, ad esempio): ∞ X 1 φX+Y (θ ) = = (−1)k θ 2k . 2 1+θ k=0

Il coefficiente del termine di ordine 4 è 1, da cui si ricava (4)

φX+Y (0) = 4! = 24 . c) La v.a. X + Y + Z ha funzione caratteristica φX+Y +Z (θ ) =

1 · (1 + θ 2 )3/2

φX+Y +Z è una funzione integrabile su R e, per il Teorema d’inversione, ha una densità. Inoltre è ancora una funzione reale e dunque X + Y + Z ha anch’essa una legge simmetrica. Dunque (1)

P(X + Y + Z > 0) = P(X + Y + Z < 0) .

Poiché P(X + Y + Z = 0) = 0 (dato che X + Y + Z ha una densità) e P(X + Y + Z > 0) + P(X + Y + Z < 0) = 1, grazie alla (1) P(X + Y + Z ≥ 0) = 21 .

UNIVERSITA` di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2 P.Baldi 1◦ appello, 17 giugno 2010 Esercizio 1 Siano X, Y v.a. indipendenti di legge Ŵ(2, λ). Calcolare densità e la media della v.a. Z = min(X, Y ). Esercizio 2 Un punto viene scelto a caso nel cerchio (pieno) di raggio R con distribuzione uniforme. a) Qual è la probabilità che esso disti dall’origine più di r (0 ≤ r ≤ R) ? b) n punti vengono scelti indipendentemente e con distribuzione uniforme sul cerchio di raggio R. Qualè la probabilità che la minima distanza dall’origine sia maggiore di r ? Qual è la probabilità che la minima distanza dall’origine sia maggiore di √rn ? Quanto vale il limite di questa probabilità per n → ∞ ? Esercizio 3 Sia (Xn )n una successione di v.a. i.i.d. di legge P(Xn = 21 ) = P(Xn = 2) =

1 2

a) Quanto vale E(log Xn ) ? b) Mostrare che la successione Yn = (X1 . . . Xn )1/n converge in probabilità e determinarne il limite. √ c) Mostrare che la successione Yn = (X1 . . . Xn )1/ n converge in legge e determinarne la legge limite. Esercizio 4 Un’urna contiene inizialmente 2 palline rosse (R) e 2 palline nere (N). Due giocatori, A e B, giocano con le regole seguenti. Viene lanciata una moneta: con probabilità p, 0 ≤ p ≤ 1, la composizione dell’urna non viene modificata. Con probabilità 1 − p invece si effettua un’estrazione: se la pallina estratta è N, essa viene messa da parte, se la pallina estratta è R essa viene rimessa nell’urna insieme ad una nuova pallina N. Il giocatore A vince non appena nell’urna ci sono 4 palline N, B vince non appena nell’urna non ci sono più palline N. Indichiamo con Xn il numero di palline nere nell’urna al tempo n. a) Scrivere la matrice di transizione, P , di questa catena. b) Qual è, al variare di p, la probabilità che il giocatore A vinca ? c) Quanto dura in media, al variare di p, la partita?

Soluzioni Esercizio 1. Per il calcolo della densità calcoliamo FZ (t) = 1 − P(min(X, Y ) > t) = P(X > t, Y > t) = P(X > t)P(Y > t) . Ricordando l’espressione della funzione di ripartizione delle leggi Gamma con il parametro α intero, abbiamo dunque 

FZ (t) = 1 − e e facendo la derivata fZ (t) = F



Z (t)

= −e

−2λt

−λt

2 (1 + λt) = 1 − e−2λt (1 + λt)2

  2 −2λ(1 + λt) + 2λ(1 + λt) = e−2λt (2λ2 t + 2λ3 t 2 )

si trova la densità. Per la media, ricordando l’espressione degli integrali Gamma, Z +∞ Z +∞ Z +∞ 2 −2λt 3 2 t 3 e−2λt dt = t e dt + 2λ tfZ (t) dt = 2λ E(Z) = −∞

0

= 2λ2

0

Ŵ(3) 1 3 5 3 Ŵ(4) + 2λ = + = · (2λ)3 (2λ)4 2λ 4λ 4λ

Esercizio 2. a) Dire che il punto viene scelto a caso con legge uniforme sul cerchio di raggio R significa considerare una v.a. bidimensionale di densità ( 1 se |x| ≤ R 2 π R f (x) = 0 altrimenti. Dire che il punto dista più di r dall’origine significa dire che esso si trova al di fuori del cerchio, Br , di centro l’origine e raggio r. La probabilità è quindi uguale all’integrale di f sul complementare di Br , cioè, se r ≤ R, sulla corona circolare compresa tra il cerchio di 1 raggio r e quello di raggio R. Poiché f è costante e uguale a π R 2 su BR , questo integrale 1 è uguale all’area di questa corona circolare moltiplicata per π R 2 , cioè π R2 − π r 2 R2 − r 2 r2 = =1− 2 · π R2 R2 R b) Calcoliamo la probabilità che la distanza minima degli n punti dall’origine sia ≥ r. Ciò vuole dire che tutti gli n punti si trovano al di fuori di Br . Poiché gli n punti sono stati scelti indipendentemente, P(X1 ∈ Brc , . . . Xn ∈ Brc ) = P(X1 ∈ Brc ) . . . P(Xn ∈ Brc ) = P(X1 ∈ Brc )n .

Riprendendo gli argomenti sviluppati in a), R2 − r 2 r2 = 1 − · R2 R2

P(X1 ∈ Brc ) =

Dunque, la probabilità che la distanza minima dall’origine sia ≥ r vale  Sostituendo

√r n

r 2 n 1− 2 . R

al posto di r, si trova 

1−

r 2 1 n R2 n

2



n→∞

e

− r2 R

.

Esercizio 3. a) La v.a. log Xn prende i valori log 2 e log 21 = − log 2, entrambi con probabilità 21 . Dunque E(X) = − 21 log 2 + 21 log 2 = 0. b) Si ha, ponendo Zn = log Xn , Yn = exp

1 n

 (Z1 + . . . + Zn )

Le v.a. (Zn )n sono centrate ed hanno varianza finita. Dunque per la Legge dei Grandi Numeri n1 (Z1 + . . . + Zn ) →n→∞ 0 in probabilità. Poiché la funzione esponenziale è continua, per ogni ε > 0 esiste δ > 0 tale che |ex − 1| ≤ ε se |x| ≤ δ. Dunque P(|Yn − 1| ≥ ε) ≤ P(| n1 (Z1 + . . . + Zn )| ≥ δ)



n→∞

0

e dunque Yn → 1 in probabilità. c) In maniera simile si ha Wn = exp

√1 n

 (Z1 + . . . + Zn )

Per il Teorema Limite Centrale (le v.a. Zi sono centrate ed hanno varianza uguale a (log 2)2 ) √1 n

(Z1 + . . . Zn )

+



n→∞

Z∞ ∼ N(0, (log 2)2 ) .

Dunque, se t > 0, FWn (t) = P(Wn ≤ t) = P

√1 n

 (Z1 + . . . Zn ) ≤ log t =

log t → 8( log 2)

n→∞

log t dove 8 indica al solito la funzione di ripartizione di una v.a. N(0, 1). t → 8( log 2 ) è la funzione di ripartizione della v.a. eZ∞ che dunque densità

1 1 log t −(log t)2 /(2(log 2)2 ) ) = 8′ ( log e √ 2 t log 2 2π t log 2 (che è una densità lognormale). Esercizio 4. a) Indichiamo con Xn il numero di palline nere nell’urna al tempo n. Se Xn = i allora • con probabilità p Xn+1 = i. i • Con probabilità 1 − p viene estratta una pallina. Se è nera (probabilità i+2 perché nell’urna ci sono ora i + 2 palline di cui i nere), allora Xn+1 = i − 1. Dunque pi,i−1 = i . (1 − p) i+2 2 ), allora • Con probabilità 1 − p viene estratta una pallina. Se è rossa (probabilità i+2 2 Xn+1 = i + 1. Dunque pi,i+1 = (1 − p) i+2 . Dunque la matrice di transizione della catena è 0 1 2 3 4   0 1 0 0 0 0 2  p 0 0 1  13 (1 − p) 3 (1 − p)   1 1  2 0 (1 − p) p (1 − p) 0   2 2 2 3   p 3 0 0 5 (1 − p) 5 (1 − p) 4 0 0 0 0 1 b) Gli stati transitori sono i = 1, 2, 3 (comunicano con 0 e 4 che sono assorbenti). Il sistema delle probabilità di passaggio nello stato i = 4 è λ1 = pλ1 +

λ2 = λ3 =

1 2 2 5

2 3

(1 − p)λ2

(1 − p)λ1 + pλ2 +

(1 − p) +

3 5

1 2

(1 − p)λ2

(1 − p)λ2 + pλ3

Si vede facilmente che si può semplificare per 1 − p ed il sistema diventa λ1 =

λ2 = λ3 =

che ha soluzione λ1 = e non dipende da p.

4 11 , λ2

=

6 11 , λ3

=

2 3 1 2 2 5

λ2 λ1 + +

3 5

1 2

λ3

λ2 .

8 11 ) e quindi la probabilità che A vinca è λ2

=

6 11

c) Se indichiamo con ζi il tempo medio di assorbimento in {0, 4} partendo da i, allora i numeri ζi , i = 1, 2, 3, sono soluzione di ζ1 = 1 + pζ1 +

ζ2 = 1 +

ζ3 = 1 +

1 2 3 5

2 3

(1 − p)ζ2

(1 − p)ζ1 + pζ2 +

1 2

(1 − p)ζ2 + pζ3 .

(1 − p)ζ3

Si vede facilmente che si può porre ζ˜i = (1 − p)ζi in modo che il sistema diventa ζ˜1 = 1 + ζ˜2 = 1 + ζ˜3 = 1 + da cui si trova ζ˜1 =

51 ˜ 11 , ζ2

=

60 ˜ 11 , ζ3

=

47 11

2 ˜ 3 ζ2 1 ˜ 2 ζ1 3 ˜ 5 ζ2

+

1 ˜ 2 ζ3

.

e quindi ζ1 =

51 11(1−p) , ζ2

=

60 11(1−p) , ζ3

=

47 11(1−p) ·

UNIVERSITA` di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2, P.Baldi 1◦ esonero, 20 aprile 2010 Le risposte devono essere motivate Esercizio 1 La v.a. X e Y sono indipendenti ed esponenziali di parametri rispettivamente λ e µ. Calcolare la densità e la speranza matematica della v.a. W = max(X, Y ) Esercizio 2 Siano X, Y v.a. di densità congiunta x 2 − yx (y+1) , f (x, y) = 3 e y

x > 0, y > 0

a) Le v.a. X e X Y sono indipendenti ? b) Qual è la legge di X ? c) Quanto vale P( X Y ≤ 1) ? Esercizio 3 Siano X, Y v.a. indipendenti di legge N(0, 1). Poniamo U = 2X − Y,

V = 2X + Y .

a) Qual è la legge di (U, V ) ? Possiede una densità ? b) Quanto vale la speranza condizionale di U dato V = 1 ? Quanto vale la varianza della legge condizionale di U dato V = 1 ? Quanto vale la varianza della legge condizionale di U dato V = −1.5 ? c) Calcolare P(U ≥ 1).

Alcuni numeri utili (forse. . . ): √

3 = 1.73,

√1 3

= 0.58,

√1 5

= 0.45

Soluzioni Esercizio 1. Ricordando l’espressione della funzione di ripartizione delle leggi esponenziali, si ha, per t > 0, P(W ≤ t) = P(X ≤ t, Y ≤ t) = P(X ≤ t)P(Y ≤ t) = (1 − e−λt )(1 − e−µt ) La densità di W è dunque f (t) = λe−λt (1 − e−µt ) + µe−µt (1 − e−λt ) da cui, con un po’ di calcoli si trova E[W ] =

Z

tf (t) dt = λ

Z

+∞

te

−λt

0

(1 − e

−µt

) dt + µ

Z

0

+∞

te−µt (1 − e−λt ) dt

Ricordando, dall’espressione della speranza matematica delle leggi esponenziali, che Z

+∞

0

te−λt dt =

1 , λ2

si trova subito E[W ] =

λ 1 µ 1 1 1 1 − + − = + − 2 2 λ (µ + λ) µ (µ + λ) λ µ µ+λ

x Esercizio 2. a) Si può scrivere (X, X Y ) = φ(X, Y ) dove φ(x, y) = (x, y ). Applichiamo il metodo del teorema di cambio di variabile: la funzione inversa si trova risolvendo il sistema

u=x x v= y che dà φ −1 (u, v) = (u, uv ) (da notare che φ = φ −1 ). Calcoliamo il differenziale: Dφ e | det(Dφ −1 (u, v))| =

u . v2

−1

(u, v) =



1 1 v

0 − vu2



Dunque la densità della coppia (X, X Y ) è data da

g(u, v) =

  u2 v 3 u u exp −v( + 1) = ve−(u+v) v u3 v 2

Poiché si può scrivere g(u, v) = e−u × ve−v le due v.a. sono indipendenti ed anzi si vede subito che U è esponenziale di parametro 1 mentre V = X Y è Ŵ(2, 1). Questo permette immediatamente di rispondere anche alla questione b). c ) Basta ricordare l’espressione della funzione di ripartizione della legge Gamma(2, 1) e si trova subito −1 P( X Y ≤ 1) = 1 − 2e Esercizio 3. a) (U, V ) è una funzione lineare di (X, Y ) che è congiuntamente gaussiana e dunque è congiuntamente gaussiana anche lei. Si tratta di v.a. centrate e per il calcolo della matrice di covarianza basta osservare che Var(U ) = 4 Var(X) + Var(Y ) = 4 + 1 = 5 Var(V ) = 4 Var(X) + Var(Y ) = 5

Cov(U, V ) = Cov(2X − Y, 2X + Y ) = 4 − 1 = 3 e dunque la matrice di covarianza è C=



5 3 3 5



Poiché det C = 14, la matrice è invertibile e la coppia (U, V ) ha densità congiunta. b) La speranza condizionale di U dato V = 1 è Cov(U, V ) 3 = Var(V ) 5 mentre la varianza della legge condizionale è Var(U ) −

9 16 Cov(U, V )2 =5− = = 3.2 Var(V ) 5 5

La varianza della legge condizionale non dipende dal valore della variabile condizionante. √ c) Sappiamo che U è gaussiana N(0, 5), dunque si può scrivere U = 5Z dove Z ∼ N(0, 1). Dunque P(U ≥ 1) = 1 − P(Z ≤

√1 ) 5

= 1 − 8( √1 ) == 1 − 0.67 = 0.33 5

UNIVERSITA` di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2 P.Baldi 1◦ appello, 23 giugno 2009 Esercizio 1 Per 0 ≤ α ≤ matrice di transizione

1 2

consideriamo la catena di Markov su {1, 2, 3} associata alla 3! 1 0 4 4 α 1 − 2α α 1 3 0 4 4

a) Mostrare che, se 0 < α ≤ 21 , la catena è irriducibile e regolare. b) Supponiamo α = 41 . Calcolare la distribuzione stazionaria della catena. La catena è reversibile ? c) Supponiamo α = 0. Determinare gli stati ricorrenti e quelli transitori. d) Cosa si può dire di limn→∞ P1 (Xn = 1) nei casi b) e c) rispettivamente ? (P1 è la probabilità partendo da X0 = 1). Esercizio 2 Sia (X, Y ) una coppia di v.a. aventi distribuzione congiunta: ( 1 se 0 < x < y < 1 c f (x, y) = y 0 altrimenti a) Quanto vale la costante di normalizzazione c ? b) Qual è la densità di X ? E quella di Y ? X e Y sono indipendenti ? c) Calcolare P(Y > 2X). Esercizio 3 Le v.a. X1 , X2 hanno legge congiunta gaussiana di media 0 e matrice di covarianza   7 −1 C= −1 4 a) Il vettore aleatorio X = (X1 , X2 ) ha densità congiunta ? b) Quali delle seguenti coppie di v.a. sono indipendenti ? b1) X1 + X2 e X1 − X2 . b2) X1 + X2 e X1 − 2X2 . c) Mostrare che le v.a. Y = X1 + X2 e Z = X1 − X2 hanno densità congiunta e calcolarla. d) Il vettore aleatorio W = (X1 , X2 , X1 +X2 ) ha densità congiunta ? Esistono α, β ∈ R tale che W = (αX1 , βX2 , βX1 + αX2 ) abbia densità ?

Esercizio 4 In un test a risposta multipla vengono poste 30 domande, ciascuna con 4 possibili risposte, una sola delle quali è quella giusta. Per il superamento del test si richiede di rispondere correttamente ad almeno 16 domande. a) Uno studente non sa niente e risponde a caso. Calcolare, usando l’approssimazione normale, la probabilità che superi il test. b) Uno studente leggermente meglio preparato è in grado, per ogni domanda, di escludere una delle risposte proposte e decidere di rispondere a caso scegliendo una delle tre risposte rimaste (tra le quali c’è quella giusta). Sempre usando l’approssimazione normale, qual è ora la probabilità che superi il test ? c) Supponiamo che 300 studenti si presentino, tutti quanti impreparati, per cui ciascuno risponde correttamente ad ogni quesito con probabilità 41 . Calcolare, con un metodo di vostra scelta, la probabilità che almeno uno dei partecipanti prenda 0. Giustificare il metodo utilizzato.

Soluzioni Esercizio 1. a) Si vede subito che gli stati 1 e 3 comunicano con gli altri due in un passo solo. Se α > 0, allora 2 comunica sia con 3 che con 1 e la catena è irriducibile. Se 0 < α < 21 allora c’è un elemento > 0 sulla diagonale e quindi la catena, essendo irriducibile, è anche regolare. Se α = 21 , allora bisogna provare a fare le potenze della matrice di transizione. Usando le stelline, ∗ 0 ∗

0 ∗ ∗

P2 =

∗ ∗ 0

!

0 ∗ ∗

∗ 0 ∗

∗ ∗ 0

!

=

∗ ∗ ∗

∗ ∗ ∗

∗ ∗ ∗

!

e dunque P è regolare. b) Se α = 41 , allora la matrice è bistocastica e la distribuzione stazionaria è l’uniforme π = ( 13 , 13 , 13 ). La reversibilità è immediata, dato che P è simmetrica. c) Se α = 0, allora lo stato 2 è assorbente e dunque ricorrente. Gli stati 1 e 3 comunicano con 2 che non comunica con loro. Sono quindi transitori. d) Se α > 0, allora, poiché la catena è regolare, la legge al tempo n converge alla distribuzione stazionaria. In particolare, se α = 41 , limn→∞ P1 (Xn = 1) = π1 = 13 . Se invece α = 0, sappiamo che, partendo da 1 la catena in un tempo finito giunge nello stato assorbente 2 per poi restarci. Dunque limn→∞ P1 (Xn = 1) = 0. Esercizio 2. a) deve essere 1=

Z

+∞

−∞

dy

Z

+∞

f (x, y) dxdy

−∞

ma, ricordando che f è non nulla tranne che se 0 < x < y < 1, Z

+∞ −∞

dy

Z

+∞ −∞

f (x, y) dxdy = c

Z

1 0

1 dy y

Z

y 0

dx = c

dunque c = 1. b) Si ha, per 0 < x < 1, fX (x) =

Z

+∞ −∞

f (x, y) dy =

Z

1 x

1 dy = − log x y

Mentre, sempre per 0 < y < 1, fY (y) =

Z

+∞ −∞

f (x, y) dx =

Z

y 0

1 dx = 1 y

e quindi Y è uniforme su [0, 1]. Chiaramente X e Y non sono indipendenti, dato che l’insieme 0 < y < x < 1 (la porzione di quadrato che sta sotto la diagonale) ha probabilità 0 per la densità congiunta mentre il prodotto delle densità marginali ivi è strettamente positivo. b) La probabilità P(Y > 2X) è uguale all’integrale della densità congiunta nel triangolo indicato con l’ombreggiatura più intensa nella Figura 1. Dunque P(Y > 2X) =

Z

1

1 dy y

0

Z

y 2

0

dx =

1 2

Si sarebbe naturalmente anche potuto integrare prima in dy e poi in dx: P(Y > 2X) =

Z

1 2

0

Z 1 Z 1 2 2 1 1 dy = dx − log 2x dx = − log 2 − log x dx = 2 2x y 0 0   1/2 1 1 = − log 2 − x log x − x = 0 2 2 Z

1

ma il calcolo risulta più complicato. 1

................................................................................................................................................................................ ........................................................................ . . . . . . . . . . . . . ... .................................................... . . . . . . ... ................................................. . . . . . . ... ............................................... . . . . . . ... .............................................. . . . . . . . . . . . ... ........................................... . . . . . ......................................... . . . . . ..... ..................................... . . . . . .................................... . . . . .... .................................. . . . . . . . . ... ....................................... . . . . ... ...................... . . . ... ................................... . . . ........................ . . . . . . ..... ..................... . . .................... . . .... ................. . . ... ............... . . . ... ............. . ........... . ... ........ . .. .... . ..............................................................................................

0

1 2

1

Figura 1 .

Esercizio 3. a) Si richiede solo di dire se il vettore X ha densità congiunta. Dato che esso ha legge congiunta gaussiana, sappiamo che questo accade se e solo se esso ha matrice di covarianza invertibile. Poiché det C = 28 + 1 = 29 6= 0 , X ha densità congiunta. b) Le coppie di v.a. considerate hanno tutte una legge congiunta gaussiana, essendo funzioni lineari di un vettore gaussiano. Per mostrare l’indipendenza basterà dunque verificare che sono a due a due non correlate. Abbiamo Cov(X1 + X2 , X1 − X2 ) = = Cov(X1 , X1 ) − Cov(X1 , X2 ) + Cov(X2 , X1 ) − Cov(X2 , X2 ) = =7+1−1−4=3

e dunque le due v.a. non sono indipendenti. Invece Cov(X1 + X2 , X1 − 2X2 ) = = Cov(X1 , X1 ) − 2 Cov(X1 , X2 ) + Cov(X2 , X1 ) − 2 Cov(X2 , X2 ) = =7+2−1−8=0

Le due v.a. sono dunque indipendenti. c) Y1 e Y2 sono congiuntamente gaussiane, come funzioni lineari di un vettore gaussiano. Per calcolarne la densità congiunta (se esiste) occorre prima calcolarne la matrice di covarianza. Due possibilità: si possono calcolare ‘‘a mano’’ gli elementi della matrice di covarianza: Var(Y ) = Var(X1 + X2 ) = Var(X1 ) + Var(X2 ) + 2 Cov(X1 , X2 ) = 7 + 4 − 2 = 9 Var(Z) = Var(X1 − X2 ) = Var(X1 ) + Var(X2 ) − 2 Cov(X1 , X2 ) = 7 + 4 + 2 = 13 Cov(Y, Z) = Cov(X1 + X2 , X1 − X2 ) = 3 (già calcolata in b)) Oppure si osserva che il vettore

Y Z

è della forma AX, dove A=



1 1 1 −1



Dunque la matrice di covarianza di Y e Z è ∗

ACX A =



1 1 1 −1



7 −1

−1 4



1 1

1 −1



=



9 3 3 13



Questa matrice è invertibile e quindi Y e Z hanno densità congiunta. L’inversa è 1 108



13 −3

−3 9



Per cui la densità è  1  g(y, z) = exp − 13y 2 + 9z2 − 6yz 216

d) La matrice di covarianza di W si calcola facilmente con uno dei metodi richiamati in c) e vale ! 7 −1 6 CW = −1 4 3 6 3 9

con un po’ di pazienza si vede che questa matrice ha determinante 0 e quindi non ci può essere una densità. Ma in realtà questo si poteva vedere da subito rispondendo contemporaneamente alla domanda successiva, dato che si può scrivere W = BX dove B è la matrice B=

α 0 β

0 β α

!

che può essere al massimo di rango 2. Dunque la matrice CW , che si ottiene anche come prodotto !   α 0  7 −1 α 0 β CW = 0 β −1 4 0 β α β α può essere al massimo di rango 2 e non può essere invertibile. Esercizio 4. a) Se indichiamo con Xi l’esito della risposta alla i-esima domanda (Xi = 1 se la risposta è giusta, Xi = 0 se è sbagliata), il punteggio ottenuto è S = X1 + . . . + X30 . Inoltre le v.a. Xi sono di Bernoulli B(1, 41 ) e indipendenti. Dunque 30E(Xi ) = 30 41 = 7.5 e Var(Xi ) = 41 43 . Usando l’approssimazione normale, la probabilità di superare il test è  15.5 − 7.5  = 1 − 8(3.37) . P(S ≥ 16) = P(S ≥ 15.5) ≃ 1 − 8 q 1 3 4 4 · 30

Le tavole non danno il valore di 8 per x = 3.37. Però sicuramente si tratta di un valore più grande di 8(2.99) = .99861. Dunque la probabilità richiesta è più piccola di 0.0014. Con delle tavole più complete o un software apposito si avrebbe trovato 1 − 8(3.37) = 0.00037. b) Si possono ripetere gli argomenti del punto a), solo che ora le v.a. Xi sono B(1, 13 ). Dunque 30E(Xi ) = 30 13 = 10 e Var(Xi ) = 13 23 . Ora la probabilità di superare il test è  15.5 − 10  = 1 − 8(2.13) = 0.016 . P(S ≥ 16) = P(S ≥ 15.5) ≃ 1 − 8 q 1 2 3 3 · 30 c) Detta p = 41 la probabilità di rispondere correttamente ad un singolo quesito, la probabilità di sbagliare tutte le domande è p1 = (1 − p)30 = ( 43 )30 = 1.78 10−4 , per un singolo studente. Il numero di studenti che prendono 0 è dunque una v.a., chiamiamola Y , binomiale B(300, p1 ). La probabilità che una tale v.a. prenda un valore ≥ 1 è P(Y ≥ 1) = 1 − P(Y = 0) = 1 − (1 − p1 )300 = 1 − 0.948 = 0.0521693

Questo calcolo è esatto, a parte gli errori di arrotondamento della calcolatrice. Dato che il numero p1 è piccolo mentre 300 è un numero abbastanza elevato avremmo anche potuto usare l’approssimazione di Poisson che avrebbe dato P(Y ≥ 1) ∼ 1 − e−300p1 = 1 − e−0.053 = 0.0521648 L’approssimazione poissoniana è quindi molto buona. Qui l’approssimazione normale non è indicata, dato che 300p1 = 0.053 e quindi la regoletta np > 5 non è soddisfatta. Comunque avrebbe dato  Y − 300p 0.5 − 300p1  1 ≤√ P(Y ≥ 1) = 1 − P(Y ≤ 0.5) = 1 − P √ ≃ 300p1 (1 − p1 ) 300p1 (1 − p1 )  0.5 − 300p  1 = 1 − 8(1.93) = 0.027 ≃1−8 √ 300p1 (1 − p1 ) che è un’approssimazione un po’ lontana dalla realtà.

UNIVERSITA` di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2 P.Baldi, 3◦ appello, 23 settembre 2009 Esercizio 1 Consideriamo la passeggiata a caso sul grafo in figura. 4•

•.......3.........

...... ...... ...... ...... ...... ...... ...... ...... . ...... . ..... . . . . . . . . . . . ..... ...... ...... ...... . . . . . ... ......

•5

1





2

a) Qual è la probabilità invariante di questa catena? È unica ? Si tratta di una catena regolare ? b) Supponiamo ora che gli stati 4 e 5 siano assorbenti. Qual è la probabilità partendo da 2 di arrivare in 4 in un tempo finito ? Esercizio 2 La v.a. Y è esponenziale di parametro λ mentre X ha una densità condizionale dato Y = y che è di Weibull di parametri α e y, cioè α

fX|Y (x|y) = αyx α−1 e−yx ,

x>0

a) Qual è la densità di X ? b) Qual è la densità condizionale di Y dato X = x ? Si tratta di una densità nota ? Qual è la media condizionale di Y dato X = x ? Esercizio 3 Siano X, Y v.a. indipendenti N (0, 1). a) Determinare la legge e la densità della v.a. (X + Y, X − 2Y ). b) Determinare il valore α in maniera che le v.a. X − 2Y e X + αY siano indipendenti. Esercizio 4 Sia (Xn )n una successione di v.a. indipendenti uniformi su [0, 1]. a) Calcolare media e varianza delle v.a. Yn = cos(2π Xn ) b1) Poniamo n 1X ¯ Yn = cos(2π Xk ) . n k=1

Mostrare che la successione (Y¯n )n converge in probabilità e determinarne il limite. b2) Calcolare il limite lim P(|Y¯n | > 101√n ) n→∞

Soluzioni Esercizio 1. a) La regoletta sulla legge stazionaria delle passeggiate a caso sui grafi afferma che la distribuzione 1 1 v1 = v4 = , v2 = v3 = v5 = 6 4 (qui il numero totale di spigoli uscenti dai vertici è k = 12). Essa è l’unica distribuzione stazionaria, dato che il grafo è connesso e quindi la catena è irriducibile. Per la regolarità si vede, con un po’ di pazienza, che in quattro passi si può andare con probabilità positiva da uno stato a qualunque altro. Attenzione: tre passi non sono sufficienti perché in tre passi non si può andare con probabilità positiva da 1 a 1 o da 4 a 4. b) Le probabilità di assorbimento in 4 quando gli stati 4 e 5 sono assorbenti partendo dagli stati 1, 2 o 3 sono la soluzione del sistema λ1 =

λ2 = λ3 =

1 2 1 3 1 3

+

1 2

λ2

λ1 + +

1 3

1 3

λ3

λ2

esprimendo λ1 e λ3 in funzione di λ2 a partire dalla prima e dalla terza equazione rispettivamente e sostituendo nella seconda equazione, questa diviene λ2 = ovvero

13 18

λ2 =

5 18

1 6

1 6

+

λ2 =

5 13

λ2 +

1 9

λ2 +

1 9

e quindi

Anche se non esplicitamente richiesto si possono ora anche calcolare immediatamente i valori 9 6 , λ3 = 13 λ1 = 13 Esercizio 2. (Questo è l’Esercizio 1 del Tutorato 5) a) La densità congiunta di X e Y è α

f (x, y) = λαyx α−1 e−yx e−λy per x > 0, y > 0 ed è 0 altrimenti. Dunque la densità di X è Z +∞ Z +∞ αλx α−1 α fX (x) = f (x, y) dy = λαyx α−1 e−y(λ+x ) dy = (λ + x α )2 −∞ 0 b) La densità condizionale di Y dato X = x è, per y > 0, λαyx α−1 e−y(λ+x f (x, y fY |X (y|x) = = αλx α−1 fX (x) α 2 (λ+x )

α)

= (λ + x α )2 ye−y(λ+x

α)

che è una Ŵ(2, λ + x α ). La sua media è quindi ¯ | X = x) = E(Y

2 · λ + xα

Esercizio 3. a) Le due v.a. X + Y e X − 2Y , sono congiuntamente gaussiane, dato che (X + Y, X − 2Y ) è una funzione lineare di (X, Y ). Occorre quindi unicamente calcolare la media e la matrice di covarianza C. La media è evidentemente uguale a 0. Per la matrice di covarianza si trova Var(X + Y ) = Var(X) + Var(Y ) = 2 Var(X − 2Y ) = Var(X) + 4 Var(−Y ) = 5

Cov(X + Y, X − 2Y ) = Var(X) − 2 Var(Y ) = −1 Dunque C=



2 −1

−1 5



Si ha det C = 9, dunque C è invertibile e (X + Y, X − 2Y ) ha una densità congiunta. Per calcolarla occorre prima trovare l’inversa di C: C

−1

1 = 9



5 1 1 2



Le densità è quindi, ponendo z = (u, v),  1 1 1 − 21 hC −1 z,zi = f (u, v) = √ e √ exp − ( 59 u2 + 2 2π 9 2π 9

2 9

2

v +

2 9

uv)



b) Come in a) le v.a. X − 2Y e X + αY sono congiuntamente gaussiane. Perché siano indipendenti basta dunque che siano non correlate. Ora Cov(X − 2Y, X + αY ) = Var(X) − 2α Var(Y ) = 1 − 2α Dunque deve essere α = 21 . Esercizio 4. a) Si ha E[cos(2π Xn )] = 2

E[cos (2π Xn )] =

Z

1

cos(2π x) dx = 0

0

Z

0

1

cos2 (2π x) dx =

1 · 2

Dunque Var(Yn )) = 21 . b1) Per la legge dei grandi numeri Y¯n

q.c.



n→∞

E[cos(2π Xn )] = 0

b2) Per il Teorema Limite Centrale, √ cos(2π X1 ) + . . . + cos(2π Xn ) 2n Y¯n = q n 2

+



n→∞

N (0, 1)

e quindi lim P(|Y¯n | >

n→∞

10

1√

√ ) = lim P(| 2n Z¯ n | > n n→∞

√ 2 10 )

= 8(

= 8(0.14) − 8(−0.14) = 0.11 .



√ 2 2 10 ) − 8(− 10 )

=

UNIVERSITÀ di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2 P.Baldi Tutorato 9, 19 maggio 2011 Esercizio 1 a) Volendo modellizzare l’evoluzione della disoccupazione in un certo ambito sociale, si è considerato un modello costituito da una catena di Markov a due stati: 0 (disoccupato) e 1 (impiegato), con la matrice di transizione P =



0.6 0.4 0.1 0.9



Qual è, a regime, la proporzione di disoccupati con questo modello ? b) Si è ritenuto poi che il modello precedente non catturasse bene tutti gli aspetti del problema. In effetti occorre distinguere tra disoccupati di lungo periodo e di corto periodo, per i quali le probabilità di reinserimento sono diverse. Dunque un modello a due stati, per essere corretto dovrebbe risultare non markoviano (perché?). Si è proposto allora il modello seguente a tre stati: 1 (disoccupati di lungo periodo) 2 (disoccupati di corto periodo) e 3 (impiegati). La matrice di transizione considerata è ora 0.9 0 0.1 0.1 0.6 0.3 0 0.1 0.9

P =

!

Si tratta di una catena di nascita e morte ? Qual è la probabilità stazionaria di questa catena? Quanto vale ora la proporzione di disoccupati a stazionarietà? Esercizio 2 Per 0 ≤ α ≤ matrice di transizione

1 2

consideriamo la catena di Markov su {1, 2, 3} associata alla 0 α 3 4

1 4

1 − 2α 1 4

3 4

α 0

!

a) Mostrare che, se 0 < α ≤ 21 , la catena è irriducibile e regolare. b) Supponiamo α = 41 . Calcolare la distribuzione stazionaria della catena. La catena è reversibile ? c) Supponiamo α = 0. Determinare gli stati ricorrenti e quelli transitori. d) Cosa si può dire di limn→∞ P1 (Xn = 1) nei casi b) e c) rispettivamente? (P1 è la probabilità partendo da X0 = 1).

1 •

4 •

5 •

• 2

• 3

• 6

7 •

Figura 1

Esercizio 3 Un topolino si sposta sui vertici di un grafo come nella Figura 1 Ad ogni time slot esso si sposta dal vertice in cui si trova ad uno di quelli adiacenti, scelto ogni volta a caso e con probabilità uniforme. a) Giustificare l’uso di una catena di Markov per modellizzare questa situazione e scrivere la matrice di transizione. b) Si tratta di una catena irriducibile ? Regolare ? Quali sono le distribuzioni stazionarie di questa catena? c) Supponiamo che in 7 ci sia un pezzo di formaggio ed in 4 stia acquattato un gatto. Qual è la probabilità che il topo riesca a raggiungere il cibo prima di imbattersi nel gatto, supponendo che esso parta dallo stato 2 ? Qual è lo stato partendo dal quale la probabilità è più piccola? (Almeno indicare i calcoli da fare) d) Quali sarebbero le risposte alle questioni a) e b) se al grafo venisse aggiunto uno spigolo che unisse i vertici 7 e 5 ? Esercizio 4 Dire, delle seguenti affermazioni, quali siano vere e quali false. a) Una catena finita irriducibile non può avere stati transitori. b) In una catena (finita) irriducibile (Xn )n su E = {0, 1, . . . , m}, per ogni i ∈ E limn→∞ P(Xn = i) = πi , dove π indica la distribuzione stazionaria, qualunque sia la distribuzione iniziale. c) In una catena (finita) regolare per ogni i ∈ E limn→∞ P(Xn = i) = πi , dove π indica la distribuzione stazionaria, qualunque sia la distribuzione iniziale. b) In una catena (finita) irriducibile (Xn )n su E = {0, 1, . . . , m}, qualunque sia la legge iniziale non si può mai avere limn→∞ P(Xn = i) = πi per ogni i ∈ E

Soluzioni Esercizio 1. a) La probabilità stazionaria di una generica catena a due stati è stata già vista a lezione ed in questo caso vale π0 =

0.1 = 0.2 = 20%, 0.1 + 0.4

π1 =

0.4 = 0.8 = 80% . 0.1 + 0.4

A regime la proporzione di disoccupati è 0.2 b) La catena non è di nascita e morte, a causa del comportamento dello stato 1, da cui in un passo si può andare in 3, mentre in una catena di nascita e morte si può fare un passo alla volta ad ogni transizione. Per ottenere la distribuzione stazionaria occorre risolvere il sistema lineare v = vP associato. Questo diventa v1 = 0.9 v1 + 0.1 v2

v2 = 0.6 v2 + 0.1 v3 v3 = 0.1 v1 + 0.3 v2 + 0.9 v3 . Eliminando la terza equazione e sostituendola con la relazione v1 + v2 + v3 = 1 si trova il sistema v1 = 0.9 v1 + 0.1 v2 v2 = 0.6 v2 + 0.1 v3 v1 + v2 + v3 = 1 .

Dalla prima equazione si ricava v1 = v2 , mentre dalla seconda v2 = questi valori, la terza equazione diventa 23 v3 = 1, da cui si ricava v1 = 16 ,

v2 = 61 ,

1 4 v3 .

Sostituendo

v3 = 23 .

La proporzione di disoccupati ora è v1 + v2 = 31 = 33.33%. • Se si ritiene che le probabilità di reinserimento nel mondo del lavoro di un disoccupato da lungo tempo siano diverse da quelle di un disoccupato recente, allora un modello markoviano a due stati non è più adatto. Infatti la probabilità di passare dallo stato 0 (disoccupato) ad 1 (occupato) dovrebbero risultare diverse se Xn è rimasto in 0 da molto tempo o no. Esercizio 2. a) Si vede subito che gli stati 1 e 3 comunicano con gli altri due in un passo solo. Se α > 0, allora 2 comunica sia con 3 che con 1 e la catena è irriducibile. Se 0 < α < 21 allora c’è un elemento > 0 sulla diagonale e quindi la catena, essendo irriducibile, è anche regolare. Se α = 21 , allora bisogna provare a fare le potenze della matrice di transizione. Usando le stelline, ! ! ! 0 ∗ ∗ 0 ∗ ∗ ∗ ∗ ∗ P2 = ∗ 0 ∗ ∗ 0 ∗ = ∗ ∗ ∗ ∗ ∗ 0 ∗ ∗ 0 ∗ ∗ ∗

e dunque P è regolare. b) Se α = 41 , allora la matrice è bistocastica e la distribuzione stazionaria è l’uniforme π = ( 13 , 13 , 31 ). La reversibilità è immediata, dato che P è simmetrica. c) Se α = 0, allora lo stato 2 è assorbente e dunque ricorrente. Gli stati 1 e 3 comunicano con 2 che non comunica con loro. Sono quindi transitori. d) Se α > 0, allora, poiché la catena è regolare, la legge al tempo n converge alla distribuzione stazionaria. In particolare, se α = 41 , limn→∞ P1 (Xn = 1) = π1 = 31 . Se invece α = 0, sappiamo che, partendo da 1 la catena in un tempo finito giunge nello stato assorbente 2 per poi restarci. Dunque limn→∞ P1 (Xn = 1) = 0. Esercizio 3. a) L’uso di una catena di Markov si giustifica con il fatto che, ad ogni iterazione, lo stato su cui spostarsi viene scelto in maniera indipendente dal comportamento della catena agli istanti precedenti. La matrice di transizione è



1 0

1 1 2 2 3 0  P = 4  13  5 0 60 7 0

2 1 2

0 1 3

0 0 0 0

3 0

4

1 2

0

0 1 3

0 1 3

0

1 2 1 3

0 1 2

0 0

5 0 0 0

6 0 0

1 3

0

0 1 3

0

7  0 0  0   0  0  1

1 3 1 2

0 1

3

0

b) La catena è irriducibile, poiché il grafo è connesso e tutti gli stati comunicano. Non è regolare perché, con la numerazione prescelta, gli stati con numero pari sono adiacenti a stati con numero dispari e basta ripetere il ragionamento dell’Esempio 5.26 del libro. Da notare che se avessimo numerato gli stati in maniera diversa la risposta a questa questione sarebbe stata molto meno evidente. La distribuzione stazionaria di questa catena è naturalmente unica perché la catena è irriducibile. Usando il metodo dell’Esempio 5.22 si calcola subito la distribuzione stazionaria. Ci sono tre stati (1, 2 e 5) da cui si dipartono due spigoli, tre da cui se ne dipartono tre (3, 4 e 6) ed uno da cui se ne diparte uno solo. Sommando si trova k = 2 × 3 + 3 × 3 + 1 = 16. Dunque la probabilità stazionaria è π=

1,1, 3 , 3 ,1, 3 , 1 8 8 16 16 8 16 16



.

c) Se si cambia la matrice di transizione in corrispondenza degli stati 4 e 7 facendoli diventare assorbenti, la probabilità di giungere in 7 prima che in 4 è uguale alla probabilità di passaggio in 7 per questa nuova catena. Le probabilità di passaggio λi soddisfano in

questo caso al sistema lineare λ1 =

λ2 =

λ3 =

λ5 =

λ6 =

1 2 1 2 1 3 1 2 1 3

λ2 λ1 +

λ2 +

1 2 1 3

λ3 λ6

λ6 +

1 3

λ3 + 31 λ5 ·

Questo sistema ha soluzione λ1 =

2 , 29

λ2 =

4 , 29

λ3 =

6 , 29

λ5 =

7 , 29

λ6 =

14 29

·

4 Quindi la probabilità che il topolino ce la faccia è λ2 = 29 . d) Aggiungendo lo spigolo indicato, dato che il grafo a maggior ragione è connesso, la catena continua ad essere irriducibile ed ha quindi una distribuzione stazionaria unica. Questa si calcola come in b), con piccole differenze: ora k = 18 e ci sono 3 archi che escono dal vertice 5 e 2 dal vertice 7. Quindi

π=

1,1,1,1,1,1,1 9 9 6 6 6 6 9



.

Resta la questione della regolarità, che come al solito, è la più antipatica. Il criterio di non regolarità usato in b) non è più valido perché ora lo stato 5 è adiacente ad un altro stato con numero dispari. A meno di idee brillanti il modo più semplice di procedere è di verificare direttamente che, partendo da qualunque stato si può trovare un cammino che porta ad ogni altro stato in esattamente 6 passi. Osservate comunque che un cammino che congiunga uno stato pari con uno dispari in esattamente 6 passi deve necessariamente passare per lo spigolo 5—7, altrimenti la parità si conserva e ci si può trovare alla fine solo in uno stato pari. Questa osservazione vale anche per congiungere uno stato dispari con uno pari. Esercizio 4. a) Vero. Abbiamo visto (Proposizione 5.8) che in una catena finita uno stato i è transitorio se e solo se esiste uno stato j tale che i → j ma j 6→ i. Questo non è possibile se la catena è irriducibile, perché allora tutti gli stati comunicano. (n) b) Falso. Abbiamo visto nell’Esempio 5.26 che Pi (Xn = j ) = pij prende alternativamente, a seconda che n sia pari o dispari, valori = 0 e > 0. Quindi, se convergesse, il limite dovrebbe essere uguale a 0 per ogni j . c) Vero. È esattamente quello che dice in Teorema di Markov 5.17. d) Falso. Se la legge iniziale è la distribuzione stazionaria π , allora Xn ha legge uguale a π per ogni n. Dunque non solo Pi (Xn = j ) →n→∞ πj , ma Pi (Xn = j ) = πj per ogni n. E questo resta vero per ogni catena avente una probabilità invariante (anche se non irriducibile e con insieme degli stati numerabile)

UNIVERSITA` di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2 P.Baldi, 2◦ appello, 15 luglio 2009 Esercizio 1 Consideriamo la catena di Markov che modellizza un mobile che si sposta sui vertici di un grafo come nella Figura 1, dove però i vertici numerati 5, 6 e 7 sono assorbenti. Da tutti gli altri stati ci si sposta da un vertice ad uno dei vertici adiacenti scelto a caso (e con uguale probabilità). 7. •....

.. .. ... .... . .. ... ... .... . . ... ... ......................................................... ... . . ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. ... ....................................................................................................

•6

4•

• 3

• 1

• 2

•5

Figura 1

a) Qual è la probabilità partendo da 1 di essere assorbiti in 6 ? b) In media quanto tempo occorre partendo da 1 prima di giungere in uno dei tre stati assorbenti ? Esercizio 2 Siano X, Y v.a. indipendenti di legge Ŵ(α, λ) e Ŵ(β, λ) rispettivamente, dove α, β e λ sono numeri > 0. a) Qual è la densità di X + Y ? b) Qual è la densità congiunta di X e X + Y ? Su quale regione del piano essa è strettamente positiva ? c) Qual è la densità condizionale, gX|X+Y (x|z) di X dato X + Y = z ? d) Quanto vale la speranza condizionale di X dato X + Y = z ? Esercizio 3 Siano X, Y v.a. indipendenti N (0, 1). a) Determinare la legge e la densità della v.a. (X + Y, X + 2Y ). b) Quanto vale la media condizionale di X + 2Y dato X + Y = t ? Esercizio 4 a) Sia (Xn )n una successione di v.a. indipendenti di legge uniforme su [0, 1] e poniamo Yn = min(X1 , . . . , Xn ). Mostrare che la successione (nYn )n converge in legge e determinare la legge limite. (continua dietro. . . )

b) Cosa cambierebbe se invece le v.a. Xn avessero densità f (t) = 2t 1[0,1] (t) ?

Soluzioni Esercizio 1. a) Indicando con λi la probabilità di essere assorbiti in 6 partendo dallo stato i, questi numeri sono soluzione del sistema λ1 =

λ2 = λ3 =

λ4 =

1 2 1 3 1 3 1 3

λ2 +

λ1 + 1 3

+

1 2 1 3

λ4 λ3 1 3

λ2 +

λ1 +

1 3

λ4

λ3

Dalla seconda e quarta equazione si ricava che λ2 = λ4 , cosa peraltro evidente per motivi di simmetria. Dalla prima equazione si trova quindi λ1 = λ2 = λ4 . Adesso sostituendo le ultime due equazioni si possono scrivere λ3 = λ1 =

1 3 1 3

+

2 3

λ1

λ1 +

1 3

λ3

L’ultima equazione dà ora λ1 = 21 λ3 e quindi λ3 = 21 e λ1 = 41 . b) Indicando con ζi il tempo medio di assorbimento nella classe formata dai tre stati assorbenti 5, 6, 7, sappiamo che questi numeri sono soluzione di ζ1 = 1 +

ζ2 = 1 + ζ3 = 1 +

ζ4 = 1 +

1 2 1 3 1 3 1 3

ζ2 +

ζ1 +

ζ2 + ζ1 +

1 2 1 3 1 3 1 3

ζ4 ζ3 ζ4 ζ3

Di nuovo abbiamo che ζ2 = ζ4 ed inoltre che ζ1 = 1 + ζ2 = 1 + ζ4 . Dunque la terza equazione si scrive ζ3 = 1 + 23 ζ2 e la seconda ζ2 = 1 + 13 (1 + ζ2 ) + cioè ζ2 = 2 +

1 2 ζ3 .

1 3 ζ3

=

4 3

+

1 3 ζ2

+

1 3 ζ3

Sostituendo ζ3 = 1 +

da cui si ricava ζ3 =

7 2

2 3

(2 +

1 2 ζ3 )

=

e in sequenza ζ2 = ζ4 = 2 +

7 + 3 7 4

=

1 3 ζ3 15 4

e ζ1 =

19 4 .

Esercizio 2. a) Abbiamo visto a lezione che Z = X + Y ha legge Ŵ(α + β, λ).

b) Poiché X e Y sono indipendenti, la loro densità congiunta è  α+β λ α−1 y β−1 e−λ(x+y) se x > 0 e y ≥> 0 f (x, y) = Ŵ(α)Ŵ(β) x 0 altrimenti . La legge congiunta di (X, X + Y ) si può ottenere al solito osservando che questa coppia di v.a. si ottiene da (X, Y ) applicando la trasformazione lineare associata alla matrice   1 0 A= . 1 1 Per il teorema di cambio di variabile la densità g di (X, X + Y ) è data da g(x, y) = Ora det A = 1 e

−1

A

1 f (A−1 | det A| =



1 −1

0 1

x y )

.



e dunque g(x, y) = f (x, y − x) . Tenuto conto che f si annulla a meno che le coordinate non siano entrambe > 0, si trova  α+β λ α−1 (y − x)β−1 e−λy se y > 0 e 0 < x < y g(x, y) = Ŵ(α)Ŵ(β) x 0 altrimenti . Questa densità è quindi strettamente positiva per 0 ≤ x ≤ y (la perte del primo quadrante che si trova sopra la diagonale). c) Indicando con gX+Y la densità di X + Y , che sappiamo essere una Ŵ(2, λ), la densità condizionale richiesta è g(x, z) · gX|X+Y (x|z) = gX+Y (z) Essa si annulla a meno che non sia 0 ≤ x ≤ z e, in questo caso vale gX|X+Y (x|z) =

λα+β α−1 (z − x)β−1 e−λz Ŵ(α)Ŵ(β) x λα+β α+β−1 e−λz Ŵ(α+β) z

=

Ŵ(α + β) 1 x α−1 ( ) (1 − xz )β−1 . Ŵ(α)Ŵ(β) z z

¯ | X + Y = z) è, con il cambio di variabile t = x , d) La speranza condizionale E(X z Ŵ(α + β) Ŵ(α)Ŵ(β)

Z

z 0

( xz )α (1 − xz )β−1 dx

Ŵ(α + β) = z Ŵ(α)Ŵ(β)

Z

1 0

t α (1 − t)β−1 dt =

Ricordando l’espressione delle leggi Beta, l’ultimo integrale vale Ŵ(α+1)Ŵ(β) Ŵ(α+β+1) , dunque con la formula di semplificazione della funzione Gamma, la speranza condizionale vale α Ŵ(α + β) Ŵ(α + 1)Ŵ(β) z= z. Ŵ(α)Ŵ(β) Ŵ(α + β + 1) α+β Esercizio 3. a) Si calcola facilmente Var(X + Y ) = 2

Var(X + 2Y ) = Var(X) + 4 Var(Y ) = 5 Cov(X + Y, X + 2Y ) = Cov(X, X) + Cov(Y, 2Y ) + 4 Cov(X, Y ) = 3 | {z } =0

La v.a (X + Y, X + 2Y ) è congiuntamente gaussiana, essendo una funzione lineare di (X, Y ) che è gaussiana. Essa è centrata ed ha matrice di covarianza   2 3 C= 3 5 Si tratta di una matrice invertibile (det C = 1) e dunque questa v.a. ha una densità. Si ha   5 −3 −1 C = −3 2 e dunque la densità è f (x, y) =

 1  1 exp − 5x 2 + 2y 2 − 6xy 2π 2

b) La media condizionale di X + 2Y dato X + Y = t è uguale a E(X + 2Y ) +

Cov(X + Y, X + 2Y ) 3 (t − E(X + Y )) = t Var(X + Y ) 2

Esercizio 4. a) Indicando con F la funzione di ripartizione delle Xn si ha P(Yn ≤ t) = 1 − P(Yn > t) Poiché si ha Yn > t se e solo se Xi > t per ogni i = 1, . . . n, (1)

P(Yn ≤ t) = 1 − P(Yn > t) = 1 − P(X1 > t, . . . , Xn > t) = = 1 − P(X1 > t)n = 1 − (1 − FX (t))n

Se le v.a. Xn sono uniformi su [0, 1] sappiamo che FX (t) = t per 0 ≤ t ≤ 1. Dunque la f.r. di nYn è, per n grande e t > 0, P(nYn ≤ t) = P(Yn ≤ nt ) = 1 − (1 − FX ( nt ))n = 1 − (1 − nt )n



n→∞

1 − e−t

mentre il limite è uguale a 0 per t < 0. Poiché riconosciamo a destra la f.r. di una legge esponenziale di parametro 1 possiamo concludere che (nYn )n converge in legge verso questa distribuzione. b) Se le v.a. Xn hanno la densità indicata, allora la (1) è ancora valida, solo che ora FX (t) = 2

Z

t 0

x dx = t 2 ,

0≤t ≤1

Dunque ora, per t > 0, P(nYn ≤ t) = 1 − (1 −

t2 n ) → n2 n→∞

1

Infatti, poiché log(1 + t) ∼ t per t → 0, lim (1 −

n→∞

t2 n ) n2

 = lim exp n log(1 − n→∞

In conclusione lim P(nYn ≤ t) =

n→∞

t2 ) n2

n

1 0



 = lim exp −n · n→∞

t2 ) n2



=0

se t > 0 se t ≤ 0

La funzione di ripartizione di una v.a. che assume il solo valore 0 con probabilità 1 è F (t) =

n

1 0

se t ≥ 0 se t < 0

che coincide con il limite appena calcolato, tranne che per t = 0, che però non è un punto di continuità di F . Quindi ora (nYn )n converge in legge verso una v.a. che prende il valore 0 con probabilità 1.

UNIVERSITÀ di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2 P.Baldi Tutorato 1, 10 marzo 2011 Esercizio 1 Sia X una v.a. di densità f (x) =



θx θ−1 0

se 0 < x < 1 altrimenti

dove θ > 0. a) Calcolare la funzione di ripartizione F di X. b) Quanto valgono P(X ≥ 3) e P(X ≤ 31 ) ? Esercizio 2 Sia X unaqv.a. uniforme sull’intervallo [0, 1]. Calcolare la densità delle v.a. Y = − λ1 log X e Z = 3 − λ1 log X, dove λ è un numero > 0. Esercizio 3 Siano X e Y v.a. indipendenti ed esponenziali di parametro λ, λ > 0. a) Calcolare P(|X − Y | > λ1 ). b) Qual è la densità della v.a. |X − Y |? c) Qual è la densità di X − Y ?

Esercizio 4 Sia (X, Y ) una coppia di v.a. aventi distribuzione congiunta: f (x, y) =

(

c 0

1 y

se 0 < x < y < 1 altrimenti

a) Quanto vale la costante di normalizzazione c ? b) Qual è la densità di X ? E quella di Y ? X e Y sono indipendenti ? c) Calcolare P(Y > 2X).

Soluzioni Esercizio 1. a) Dato che F (t) = P(X ≤ t), si ha, per 0 ≤ t ≤ 1 Z t θx θ−1 dx = t θ F (t) = 0

È abbastanza immediato che F (t) = 0 per t ≤ 0 e F (t) = 1 per t ≥ 1. b) Dato che X è una v.a. assolutamente continua, Ed ancora,

P(X ≥ 3) = P(X > 3) = 1 − P(X ≤ 3) = 1 − F (3) = 1 − 1 = 0. P(X ≤ 13 ) = 1 − P(X ≤ 31 ) = F ( 13 ) = 3−θ .

Esercizio 5 Calcoliamo la funzione di ripartizione di Y : se t ≥ 0

FY (t) = P(− λ1 log X ≤ t) = P(log X ≥ −λt) = P(X ≥ eλt ) = 1 − e−λt

Se invece t < 0 lo stesso calcolo dà FY (t) = 0. Riconosciamo la f.r. di una v.a. esponenziale di parametro λ. Dunque Y è esponenziale di parametro λ. Per calcolare la densità di Z è √ conveniente scrivere che Z = 3 Y . Dunque, poiché Y prende valori positivi con probabilità 1, la funzione di ripartizione è, per t ≥ 0, √ 3 3 FZ (t) = P( Y ≤ t) = P(Y ≤ t 3 ) = 1 − e−λt per cui la densità vale

fZ (t) = 3t 2 e−λt

per t > 0 e fZ (t) = 0 per t < 0.

3

Esercizio 5. Le v.a. X e Y hanno densità congiunta  2 −λ(x+y) se x > 0, y > 0 f (x, y) = λ e 0 se no La probabilità P(|X−Y | > t) non è altro che l’integrale della densità congiunta sull’insieme A = {(x, y); |x − y| > t}. Per t > 0 si tratta dell’insieme nella Figura 1 . A2

t

.. ........................................ .......................... . . ..................... ..................... .................... .................. ............... ............. ............ .......... .... .....

. .... .... ...... . . . .... . . .... ..... ..... . . . ............ . . . ..... . . . . . .... ........... .... . . . . . . .......................... . . . ..... . . . . . . . . ....................... ..... . . . . . . . . . . ..... . . . . . . . . . .

0 Figura 1

t

A1

Ora A = A1 ∪ A2 e Z

2

A1

f (x, y) dxdy = λ λ

Z

t

+∞

Z

+∞

e

−λx

dx

Z

x−t

e

0

t

e−λx dx − λeλt

Z

t

+∞

λy

dy = λ

Z

t

e−2λx dx = e−λt −

+∞

e−λx (1 − e−λ(x−t) dx =

1 λt −2λt 1 e e = e−λt 2 2

Chiaramente l’integrale su A2 produce lo stesso risultato, per cui si ottiene P(|X − Y | > t) = e−λt . Scegliendo t = λ1 si trova P(|X − Y | > λ1 ) = e−1 . Comunque questo calcolo permette di determinare immediatamente la funzione di ripartizione della v.a. |X − Y |: P(|X − Y | ≤ t) = 1 − e−λt da cui si riconosce la f.r. di una v.a. esponenziale di parametro λ. c) Calcoliamo la f.r. di X − Y . Se t > 0, allora P(X − Y ≤ t) è uguale all’integrale della densità congiunta f sull’insieme B, quello ombreggiato nella Figura 2 . ............................ ................................. ................... ...................... ................... ...................... ................... ...................... ................... ...................... ................... ...................... ................... ...................... ................... ...................... ................... ...................... ................... ........................... ................... ......................... ................... ........................ ................... ..................... ................... ................... ................... .................. ................... ................ ................... ............. ................... ............ ................... ......... ................... ....... . . . . . . . . . ........

0

t

Figura 2

Questo però ùguale a 1 − precedente, per cui, per t > 0,

R

A1

f (x, y) dxdy. Possiamo quindi riprendere il calcolo

P (X − Y ≤ t) = 1 −

1 −λt e 2

La densità g di X − Y si ottiene da questa derivando rispetto a t ed è dunque uguale a g(t) = λ2 e−λt . Per trovare la densità per valori di t negativi occorre prima calcolare la f.r. per t < 0. Ora in questo caso la funzione di ripartizione è data dall’integrale della densità congiunta su un insieme della forma

.. ......................................... ......................... ........................ ..................... ................... .................. ................ ............. ........... .......... ...... . . .. . . . .. . . . ..... .... .... .... . . . .... .... ..... .... . . . ..... ..... ....

|t|

t

0

Figura 3

Cioè un insieme del tipo di A2 nel calcolo fatto prima. Dunque, per t < 0, P (X − Y ≤ t) = λ λt 2 e .

Da cui derivando si trova g(t) = di X − Y risulta uguale a (1)

1 1 −λ|t| e = eλt 2 2

Mettendo insieme i due valori ottenuti, la densità

g(t) =

λ −λ|t| e 2

che ha un grafico come nella Figura 4. λ .... 2 ..... ......

.. .. ... ... ... .... .... .... ..... .... ..... ...... ....... .......... ................ ....................................................... .....................

. .. .. ... . . . .... ... .... . . . . .. .... ..... ..... . . . . . . .. .......... ................. ..........................................................................

−3

Figura 4

−2

0

−1

1

2

Esercizio 4. a) deve essere 1=

Z

+∞

−∞

dy

Z

+∞

f (x, y) dxdy

−∞

ma, ricordando che f è non nulla tranne che se 0 < x < y < 1, Z 1 Z y Z +∞ Z +∞ 1 f (x, y) dxdy = c dy dx = c dy 0 y −∞ −∞ 0 dunque c = 1. b) Si ha, per 0 < x < 1, fX (x) =

Z

+∞

−∞

f (x, y) dy =

Z

x

1

1 dy = − log x y

3

Mentre, sempre per 0 < y < 1, fY (y) =

+∞

Z

−∞

f (x, y) dx =

Z

0

y

1 dx = 1 y

e quindi Y è uniforme su [0, 1]. Chiaramente X e Y non sono indipendenti, dato che l’insieme 0 < y < x < 1 (la porzione di quadrato che sta sotto la diagonale) ha probabilità 0 per la densità congiunta mentre il prodotto delle densità marginali ivi è strettamente positivo. b) La probabilità P(Y > 2X) è uguale all’integrale della densità congiunta nel triangolo indicato con l’ombreggiatura più intensa nella Figura 5. Dunque P(Y > 2X) =

Z

1

1 dy y

0

Z

y 2

0

dx =

1 2

Si sarebbe naturalmente anche potuto integrare prima in dy e poi in dx: P(Y > 2X) =

Z

1 2

0

Z 1 Z 1 2 2 1 1 dy = dx − log 2x dx = − log 2 − log x dx = 2 2x y 0 0   1/2 1 1 = − log 2 − x log x − x = 0 2 2 Z

1

ma il calcolo risulta più complicato. 1

.............................................................................................................................................................................. ...................................................... . . . . . . . ... ..................................................... . . . . . . . . . . . . . ... .................................................. . . . . . . ... ................................................ . . . . . . .... ............................................. . . . . . . ... ............................................ . . . . . .......................................... . . . . . . . . . . ..... ........................................ . . . . ... ............................................... . . . . ................................. . . . . ... ................................ . . . . . . . . .... .............................. . . . ... ........................... . . . ........................ . . . ..... ........................ . . . . . ................... . . .... .................. . . ... ............... . . ... .................. . . ... ......... . ......... . ... ....... ..............................................................................................

0

Figura 5 .

1 2

1

UNIVERSITA` di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2 P.Baldi Tutorato 5, 14 aprile 2011 Esercizio 1 Le v.a. X1 , X2 hanno legge congiunta gaussiana di media 0 e matrice di covarianza   7 −1 C= −1 4 a) Il vettore aleatorio X = (X1 , X2 ) ha densità congiunta ? b) Quali delle seguenti coppie di v.a. sono indipendenti ? b1) X1 + X2 e X1 − X2 . b2) X1 + X2 e X1 − 2X2 . c) Mostrare che le v.a. Y = X1 + X2 e Z = X1 − X2 hanno densità congiunta e calcolarla. d) Il vettore aleatorio W = (X1 , X2 , X1 + X2 ) ha densità congiunta ? Esercizio 2 Di una v.a. X si conosce la funzione caratteristica, il cui sviluppo in serie di potenze è ∞ X φ(θ) = (−1)k θ 2k k=0

a) Calcolare E(X), E(X 2 ) e E(X 3 ). b) Siano X, Y v.a. indipendenti e aventi la stessa legge di funzione caratteristica φ. Calcolare E[(X + Y )2 ] e E[(X + Y )4 ]. Esercizio 3 Siano X, Y v.a. indipendenti di legge Ŵ(α, λ) e Ŵ(β, λ) rispettivamente, dove α, β e λ sono numeri > 0. a) Qual è la densità di X + Y ? b) Qual è la densità congiunta di X e X + Y ? c) Qual è la densità condizionale, gX|X+Y (x|z) di X dato X + Y = z ? d) Quanto vale la speranza condizionale di X dato X + Y = z ? Qual è la retta di regressione di X rispetto a X + Y ?

Soluzioni Esercizio 1. a) Si richiede solo di dire se il vettore X ha densità congiunta. Dato che esso ha legge congiunta gaussiana, sappiamo che questo accade se e solo se esso ha matrice di covarianza invertibile. Poiché det C = 28 + 1 = 29 6= 0 , X ha densità congiunta. b) Le coppie di v.a. considerate hanno tutte una legge congiunta gaussiana, essendo funzioni lineari di un vettore gaussiano. Per mostrare l’indipendenza basterà dunque verificare che sono a due a due non correlate. Abbiamo Cov(X1 + X2 , X1 − X2 ) =

= Cov(X1 , X1 ) − Cov(X1 , X2 ) + Cov(X2 , X1 ) − Cov(X2 , X2 ) = =7+1−1−4=3 e dunque le due v.a. non sono indipendenti. Invece Cov(X1 + X2 , X1 − 2X2 ) =

= Cov(X1 , X1 ) − 2 Cov(X1 , X2 ) + Cov(X2 , X1 ) − 2 Cov(X2 , X2 ) = =7+2−1−8=0 Le due v.a. sono dunque indipendenti. c) Y1 e Y2 sono congiuntamente gaussiane, come funzioni lineari di un vettore gaussiano. Per calcolarne la densità congiunta (se esiste) occorre prima calcolarne la matrice di covarianza. Due possibilità: si possono calcolare ‘‘a mano’’ gli elementi della matrice di covarianza: Var(Y ) = Var(X1 + X2 ) = Var(X1 ) + Var(X2 ) + 2 Cov(X1 , X2 ) = 7 + 4 − 2 = 9

Var(Z) = Var(X1 − X2 ) = Var(X1 ) + Var(X2 ) − 2 Cov(X1 , X2 ) = 7 + 4 + 2 = 13 Cov(Y, Z) = Cov(X1 + X2 , X1 − X2 ) = 3 (già calcolata in b)) Oppure si osserva che il vettore

Y Z

è della forma AX, dove A=



1 1 1 −1



Dunque la matrice di covarianza di Y e Z è       1 1 7 −1 1 1 9 3 ∗ ACX A = = 1 −1 −1 4 1 −1 3 13

Questa matrice è invertibile e quindi Y e Z hanno densità congiunta. L’inversa è 1 108



13 −3

−3 9



Per cui la densità è g(y, z) =

1 √

 1  exp − 13y 2 + 9z2 − 6yz 216 2π 108

d) La matrice di covarianza di W si calcola facilmente con uno dei metodi richiamati in c) e vale ! 7 −1 6 CW = −1 4 3 6 3 9 con un po’ di pazienza (oppure osservando che la prima colonna è uguale alla terza meno la seconda) si vede che questa matrice ha determinante 0. Quindi non ci può essere una densità. In realtà questo si poteva vedere da subito dato che si può scrivere W = BX dove B è la matrice B=

1 0 1

0 1 1

!

che può essere al massimo di rango 2. Dunque la matrice CW , che si ottiene anche come prodotto !   1 0  7 −1 1 0 1 ∗ CW = BCX B = 0 1 −1 4 0 1 1 1 1 può essere al massimo di rango 2 e non può essere invertibile. Esercizio 2. a) Dallo sviluppo in serie di potenze si ricava φ ′ (0) = φ (3) (0) = 0 e φ ′′ (0) = −2. Dunque E(X) = iφ ′ (0) = 0 E(X 2 ) = −φ ′′ (0) = 2

E(X 3 ) = −iφ (3) (0) = 0 .

b) Poiché X e Y sono centrate, grazie ad a), si ha E[(X + Y )2 ] = Var(X + Y ) = Var(X) + Var(Y ) = E(X 2 ) + E(Y 2 ) = 4. Per il momento di ordine 4, basta trovare il

coefficiente del termine di ordine 4 dello sviluppo in serie di potenze di φ(θ)2 . Moltiplicando gli sviluppi,    φ(θ)2 = 1 − θ 2 + θ 4 + o(θ 4 ) 1 − θ 2 + θ 4 + o(θ 4 ) = 1 − 2θ 2 + 3θ 4 + o(θ 4 )

Dunque il coefficiente del termine del quart’ordine nello sviluppo in serie di potenze di φ(θ)2 è 3 e quindi d4 4 E[(X + Y ) ] = φ(θ)2 = 3 · 4! = 72 . 4 dθ Esercizio 3. a) Abbiamo visto a lezione che Z = X + Y ha legge Ŵ(α + β, λ). b) Poiché X e Y sono indipendenti, la loro densità congiunta è  α+β λ α−1 y β−1 e−λ(x+y) se x > 0 e y > 0 f (x, y) = Ŵ(α)Ŵ(β) x 0 altrimenti . La legge congiunta di (X, X + Y ) si può ottenere al solito osservando che questa coppia di v.a. si ottiene da (X, Y ) applicando la trasformazione lineare associata alla matrice   1 0 A= . 1 1 Il teorema di cambio di variabile (vedi l’Esempio ‘tre.122’) permette di affermare che la densità g di (X, X + Y ) è data da g(x, y) = Ora det A = 1 e

A

−1

1 f (A−1 | det A| =



1 −1

0 1

x y )

.



e dunque g(x, y) = f (x, y − x) . Tenuto conto che f si annulla a meno che le coordinate non siano entrambe > 0, si trova  α+β λ α−1 (y − x)β−1 e−λy se y > 0 e 0 < x < y g(x, y) = Ŵ(α)Ŵ(β) x 0 altrimenti . c) Indicando con gX+Y la densità di X + Y , che sappiamo essere una Ŵ(2, λ), la densità condizionale richiesta è g(x, z) gX|X+Y (x|z) = · gX+Y (z)

Essa si annulla a meno che non sia 0 ≤ x ≤ z e, in questo caso vale gX|X+Y (x|z) =

λα+β α−1 (z − x)β−1 e−λz Ŵ(α)Ŵ(β) x λα+β α+β−1 e−λz Ŵ(α+β) z

=

Ŵ(α + β) 1 x α−1 ( ) (1 − xz )β−1 . Ŵ(α)Ŵ(β) z z

¯ | X + Y = z) è, con il cambio di variabile t = x , d) La speranza condizionale E(X z Ŵ(α + β) Ŵ(α)Ŵ(β)

Z

z

0

( xz )α (1 − xz )β−1 dx

Ŵ(α + β) = z Ŵ(α)Ŵ(β)

Z

1

0

t α (1 − t)β−1 dt =

Ricordando l’espressione delle leggi Beta, l’ultimo integrale vale Ŵ(α+1)Ŵ(β) Ŵ(α+β+1) , dunque con la formula di semplificazione della funzione Gamma (‘tre.211’), la speranza condizionale vale α Ŵ(α + β) Ŵ(α + 1)Ŵ(β) z= z. Ŵ(α)Ŵ(β) Ŵ(α + β + 1) α+β La retta di regressione è x = az + b, dove a=

Cov(X, X + Y ) , Var(X + Y )

Ora Var(X + Y ) =

α+β , λ2

b = E(X) − aE(X + Y ) .

Cov(X, X + Y ) = Var(X) =

α λ2

e dunque a=

α , α+β

b=

α α α+β − =0. λ α+β λ

Da notare che la retta di regressione z→

α z α+β

e la speranza condizionale ¯ | X + Y = z) = z → E(X

α z α+β

coincidono. • Da notare che il risultato dei punti c) e d) non dipende dal valore di λ.

UNIVERSITA` di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2 P.Baldi 1◦ esonero, 30 aprile 2009 Exercice 1 Siano N, X1 , . . . , Xn v.a. indipendenti tutte di legge geometrica modificata di parametro p (cioè P(X = k) = p(1−p)k−1 , k = 1, 2, . . .) e poniamo SN = X1 +. . .+XN . Quanto vale P(SN = 3) ? La v.a. SN ha una legge nota ? Exercice 2 Consideriamo la catena di Markov di matrice di transizione 1 2 3  1 0.9 0 0.1 P = 2  0.1 0.6 0.3  . 3 0 0.1 0.9 

a) Quanto vale (approssimativamente) la probabilità che Xn prenda uno dei valori 2 oppure 3 per n grande ? b) La probabilità stazionaria di questa catena è reversibile ? c) Quanto tempo occorre in media per giungere in 1 partendo da 3 ? Exercice 3 Le v.a. X, Y hanno densità congiunta f (x, y) = 4e−2y 1{0≤x≤y} . a) b) c) d)

Le v.a. X e Y sono indipendenti ? Quali sono le leggi delle v.a. X e Y ? Le v.a. X e Y − X sono indipendenti ? Qual è la densità della v.a. W = 1 − e−2(Y −X) ?

Soluzioni Esercizio 1 Sappiamo che, detta ψ1 la funzione generatrice di N e delle Xi (la funzione generatrice è la stessa, dato che tutte queste v.a. hanno la stessa legge), la v.a. SN ha funzione generatrice ψ(z) = ψ1 (ψ1 (z)) . La funzione generatrice di una v.a. geometrica modificata è ∞ ∞ ∞ X X X k−1 k k−1 k−1 (1−p) z = pz (1−p) z = pz (1−p)k zk = ψ1 (z) = p k=1

k=1

k=0

pz · 1 − (1 − p)z

Dunque ψ(z) =

p

pz 1−(1−p)z

pz 1 − (1 − p) 1−(1−p)z

p2 z p2 z = · = 1 − (1 − p)z − (1 − p)pz 1 − (1 − p 2 )z

Si riconosce la f.g. di una densità geometrica modificata di parametro p 2 . Quindi P(SN = 3) = p2 (1 − p2 )2 . Esercizio 2 a) Osserviamo che la catena è irriducibile (gli stati comunicano) e regolare (ci sono elementi > 0 sulla diagonale). Dunque per n grande la probabilità che Xn si trovi in uno stato i è approssimata dal valore in i della probabilità stazionaria, e questo qualunque sia lo stato iniziale. Calcoliamo la distribuzione stazionaria v: la probabilità richiesta sarà dunque v2 + v3 . Per questo occorre risolvere il sistema lineare v = vP , che qui diventa v1 = 0.9 v1 + 0.1 v2 v2 = 0.6 v2 + 0.1 v3 v3 = 0.1 v1 + 0.3 v2 + 0.9 v3 . Eliminando la terza equazione e sostituendola con la relazione v1 + v2 + v3 = 1 si trova il sistema v1 = 0.9 v1 + 0.1 v2 v2 = 0.6 v2 + 0.1 v3 1 = v1 + v2 + v3 . Dalla prima equazione si ricava v1 = v2 , mentre dalla seconda v2 = questi valori, la terza equazione diventa 23 v3 = 1, da cui si ricava v1 = 16 ,

v2 = 16 ,

v3 = 23 .

1 4 v3 .

Sostituendo

Dunque v2 + v3 = 56 b) Detti ζ2 , ζ3 i tempi medi per giungere in 1 partendo da 2 e 3 rispettivamente, questi numeri sono soluzione del sistema ζ2 = 1 + 0.6ζ2 + 0.3ζ3 ζ3 = 1 + 0.1ζ2 + 0.9ζ3 Dalla seconda equazione si ricava ζ3 = 10 + ζ2 . Sostituendo nella prima equazione questa diviene ζ2 = 1 + 0.6ζ2 + 3 + 0.3ζ2 ovvero ζ2 = 40 e quindi

ζ3 = 50 .

Esercizio 3 La densità f è > 0 sull’insieme ombreggiato nella Figura 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ....... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ....... . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ . . . . . . . . . . . . . . . . . . . . . . . . . . ........ . . . . . . . . . . . . . . . . . . . . . . . . ....... . . . . . . . . . . . . . . . . . . . . . . ....... . . . . . . . . . . . . . . . . . . . . ........ . . . . . . . . . . . . . . . . . . ....... . . . . . . . . . . . . . . . . ........ . . . . . . . . . . . . . . ....... . . . . . . . . . . . . ........ . . . . . . . . . . ....... . . . . . . . . ........ . . . . . . ....... . . . . ........ . . ....... ....... .... . . . .. . . . ..... .....

0

Figura 1.

Prima di rispondere alla domanda a) conviene calcolare le marginali. b) Le densità marginali sono fX (x) = fY (y) =

Z

+∞

−∞ +∞

Z

−∞

f (x, y) dy = 4 f (x, y) dx = 4

+∞

Z

x

Z

y

0

e−2y dy = 2e−2x

e−2y dx = 4ye−2y

cioè X ∼ Ŵ(1, 2), Y ∼ Ŵ(2, 2). Possiamo ora ricavare che le v.a. X e Y non sono indipendenti, dato che la loro densità congiunta è nulla nel primo quadrante sotto la diagonale mentre il prodotto delle marginali ivi è strettamente positivo. c) Posto U = X, V = Y − X, allora 

U V



=A



X Y



con A= Ora det A = 1 e

A

−1



1 −1

0 1



.

=



1 0 1 1



.

Dunque la densità congiunta di U e V è g(u, v) = f (u, u + v) . Ricordiamo però che f (x, y) > 0 solo se 0 < x < y, dunque g(u, v) = 0 a meno che non sia u > 0, u + v > u, ovvero u > 0, v > 0. Dunque g(u, v) > 0 solo se (u, v) si trova nel primo quadrante e in questo caso g(u, v) = 4e−2(u+v) = 2e−2u · 2e−2v . Dunque X e Y − X sono indipendenti ed esponenziali di parametro λ = 2. d) Abbiamo appena visto che Y − X ∼ Ŵ(1, 2) e quindi la sua funzione di ripartizione è F (z) = 1 − e−2z . Calcoliamo la funzione di ripartizione di W , facendo attenzione al verso delle disuguaglianze: se 0 < t < 1 P(W ≤ t) = P(1 − e−2(Y −X) ≤ t) = P(e−2(Y −X) ≥ 1 − t) = = P(−2(Y − X) ≥ log(1 − t)) = P(Y − X ≤ − 21 log(1 − t)) = 1

= 1 − e2· 2 Dunque W è uniforme su [0, 1].

log(1−t)

=t.

UNIVERSITA` di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2 P.Baldi Tutorato 3, 31 marzo 2010 Esercizio 1 In statistica si chiama indice di skewness (o di asimmetria) di una v.a. X la quantità E[(X − µ)3 ] γ = σ3 dove µ = E(X) e σ 2 = Var(X) (purché X abbia un momento di ordine 3 finito). L’indice γ in un certo senso misura la simmetria della legge di X: valori di γ positivi indicano la presenza di una ‘‘coda spessa’’ verso destra (come nella Figura 1), mentre valori negativi indicano la stessa cosa verso sinistra. .......................... ..... ...... ..... ..... ....... .... . . ....... . . . ...... .. ...... . . ...... . . . ....... . ....... .. . ........ . . ......... . . .......... . . ............. .. .................. . . . ........................................... . ............ ......

Figura 1

a) Quanto vale l’indice di skewness per una legge N(µ, σ 2 ) ? b) E per una legge esponenziale ? Per una 0(α, λ) ? (Si ricorda lo sviluppo del binomio di terzo grado: (a + b)3 = a 3 + 3a 2 b + 3ab2 + b3 . . . ) Esercizio 2 Siano X, Y v.a. indipendenti di legge 0(α, λ) e 0(β, λ) rispettivamente, dove α, β e λ sono numeri > 0. a) Qual è la densità di X + Y ? b) Qual è la densità congiunta di X e X + Y ? Su quale regione del piano essa è strettamente positiva ? c) Qual è la densità condizionale, gX|X+Y (x|z) di X dato X + Y = z ? d) Quanto vale la speranza condizionale di X dato X + Y = z ? Esercizio 3 Siano X, Y v.a. indipendenti e di densità rispettivamente 0(1, λ) e 0(n, λ). a) Calcolare la probabilità P(X ≥ Y ). b) Poniamo n = 2. Calcolare la densità di S = Y − X. (Attenzione: si tratta di una v.a. che può prendere valori sia positivi che negativi e, a seconda del metodo utilizzato, potrà essere necessario distinguere t positivo e t negativo).

Soluzioni Esercizio 1. a) Sappiamo che se X ∼ N(µ, σ 2 ) allora Z = X − µ ∼ N(0, σ 2 ). Sappiamo però che i momenti di ordine dispari delle leggi normali centrate sono tutti nulli, quindi E((X − µ)3 ) = E(Z 3 ) = 0 e dunque γ = 0. In effetti in questo calcolo abbiamo utilizzato unicamente il fatto che le v.a. normali hanno una legge che è simmetrica rispetto alla media, cioè sono tali che X − µ e −(X − µ) hanno la stessa legge. Per tutte le v.a. con questa proprietà si ha E[(X − µ)3 ] = E[−(X − µ)3 ] = −E[(X − µ)3 ] per cui E((X − µ)3 ) = 0 e γ = 0. Tutte le v.a. simmetriche intorno alla media hanno dunque indice di skewness = 0. b) Ricordiamo che per una v.a. X ∼ 0(α, λ) il momento di ordine k vale E(Xk ) =

0(α + k) (α + k − 1)(α + k − 2) . . . α = k λ 0(α) λk

ovvero per i primi tre momenti: E(X) =

α , λ

E(X 2 ) =

α(α + 1) , λ2

E(X 3 ) =

α(α + 1)(α + 2) · λ3

Sviluppando il binomio di terzo grado (qui µ = αλ ) E((X − µ)3 ) = E(X 3 ) − 3E(X 2 )µ + 3E(X)µ2 − µ3 =  1 = 3 α(α + 1)(α + 2) − 3α 2 (α + 1) + 3α 3 − α 3 = λ  α = 3 α 2 + 3α + 2 − 3α 2 − 3α + 2α 2 = λ 2α = 3· λ α λ2

per cui

γ =

2α λ3 α 3/2 λ3

D’altra parte la varianza vale σ 2 =

= 2α −1/2 .

In particolare l’indice di skewness non dipende da λ e quello di una legge esponenziale 0(1, λ) è sempre uguale a 2. Osserviamo anche che la skewness di una legge 0 è sempre

positiva, il che è in accordo con l’intuizione (il grafico delle densità è sempre come nella Figura 0.1, almeno per α > 1). Esercizio 2. a) Abbiamo visto a lezione che Z = X + Y ha legge 0(α + β, λ). b) Poiché X e Y sono indipendenti, la loro densità congiunta è f (x, y) =



λα+β 0(α)0(β)

x α−1 y β−1 e−λ(x+y)

se x > 0 e y ≥> 0 altrimenti .

0

La legge congiunta di (X, X + Y ) si può ottenere al solito osservando che questa coppia di v.a. si ottiene da (X, Y ) applicando la trasformazione lineare associata alla matrice A=



1 0 1 1



.

Per il teorema di cambio di variabile la densità g di (X, X + Y ) è data da g(x, y) = Ora det A = 1 e

1 f (A−1 | det A|

A−1 =



1 0 −1 1

x y )

.



e dunque g(x, y) = f (x, y − x) . Tenuto conto che f si annulla a meno che le coordinate non siano entrambe > 0, si trova g(x, y) =



λα+β 0(α)0(β)

0

x α−1 (y − x)β−1 e−λy

se y > 0 e 0 < x < y altrimenti .

Questa densità è quindi strettamente positiva per 0 ≤ x ≤ y (la perte del primo quadrante che si trova sopra la diagonale). c) Indicando con gX+Y la densità di X + Y , che sappiamo essere una 0(2, λ), la densità condizionale richiesta è g(x, z) gX|X+Y (x|z) = · gX+Y (z) Essa si annulla a meno che non sia 0 ≤ x ≤ z e, in questo caso vale gX|X+Y (x|z) =

λα+β α−1 (z − x)β−1 e−λz 0(α)0(β) x λα+β α+β−1 e−λz 0(α+β) z

=

0(α + β) 1 x α−1 ( ) (1 − xz )β−1 . 0(α)0(β) z z

¯ | X + Y = z) è, con il cambio di variabile t = x , d) La speranza condizionale E(X z 0(α + β) 0(α)0(β)

Z

z 0

( xz )α (1 − xz )β−1 dx

0(α + β) = z 0(α)0(β)

Z

1 0

t α (1 − t)β−1 dt =

Ricordando l’espressione delle leggi Beta, l’ultimo integrale vale 0(α+1)0(β) 0(α+β+1) , dunque con la formula di semplificazione della funzione Gamma, la speranza condizionale vale α 0(α + β) 0(α + 1)0(β) z= z. 0(α)0(β) 0(α + β + 1) α+β Esercizio 3. La densità congiunta delle v.a. X, Y è evidentemente λn+1 n−1 −λ(x+y) f (x, y) = , y e 0(n)

x > 0, y > 0

a) Si ha P(X ≥ Y ) = P((X, Y ) ∈ A) dove A = {(x, y), x ≥ y}. Dato che la densità congiunta f si annulla al di fuori del primo quadrante, si tratta di integrare nella regione indicata nella Figura 2. ... ..... ..... . . ...... . . . . . . ..... . . ....... . . . . . . ..... . . . . ...... . . . . . . . . . . . . ..... . . . . . ...... . . . . . . . . . . . . ..... . . . . . . . ...... . . . . . . . . . . . . . . . . . . . .... . . . . . . . . ..... . . . . . . . . . ..... . . . . . . . . . . . . . . . . . . . . ....... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ...... . . . . . . . . . . . . ..... . . . . . . . . . . . . ..... . . . . . . . . . . . . . ....... . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . . . . . ...... . . . . . . . . . . . . . . . ..... . . . . . . . . . . . . . . . ...... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ...... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..... . . . . . . . . . . . . . . . . . . ..... . . . . . . . . . . . . . . . . . . ...... . . . . . . . . . . . . . . . . . . . .... . . . ... ....

0

Figura 2.

Dunque λn+1 P(X ≥ Y ) = 0(n)

Z

+∞

y

n−1 −λy

e

dy

0

Z

+∞

e

−λx

y

=

λn

λn dx = 0(n)

0(n) = 2−n . n 0(n) (2λ)

Z

+∞ 0

y n−1 e−2λy dy =

Da notare che se invece avessimo scelto d’integrare prima in y e poi in x ci saremmo imbattuti nell’espressione λn+1 P(X ≥ Y ) = 0(n)

Z

0

+∞

e

−λx

dx

Z

x 0

y n−1 e−2λy dy

che ha l’aria molto più indigesta. . . Con questi integrali multipli conviene sempre provare a scambiare l’ordine d’integrazione quando ci si trova in difficoltà: scambiando l’ordine d’integrazione il valore dell’integrale non cambia ma la difficoltà del calcolo sì. . . b) La funzione di ripartizione di S = Y − X è data da F (t) = P(Y − X ≤ t) = P(Y ≤ X + t) = P((X, Y ) ∈ At ), dove At = {y ≤ x + t} è il semipiano che si trova sotto alla retta y = x + t. Tenendo conto sempre che la densità congiunta di X e Y è non nulla solo nel primo quadrante, ci troviamo a doverne calcolare l’integrale sull’insieme descritto dalla Figura 3 se t > 0 e dalla Figura 4 se t < 0. . ...... . . . . . . . .... . . . . . . . . ..... . . . . . . . . . . . . . . . . . ...... . . . . . . . . . . . . . . . . . . . . . ..... . . . . . . . . . . ..... . . . . . . . . . . ..... . . . . . . . . . . . . . . . . . . . . . . . ....... . . . . . . . . . . . . . . . . . . . . . . . . . . . ...... . . . . . . . . . . . . . ..... . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..... . . . . . . . . . . . . . . ...... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ...... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..... . . . . . . . . . . . . . . . . . ..... . . . . . . . . . . . . . . . . . ...... .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . . . .... . . . . . . . . . . . . . . . . . . . .... . . . . . . . . . . . . . . . . . . . . ..... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..... . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . ....................................... ....................................... ....................................... . . . . . . . . . . . . . . . . . . . .

t• 0

Figura 3.

. ..... ..... . ...... . . . . . .... . . . ..... . . . . . . ...... . . . ...... . . . . . . . . . . . .... . . . . . . ..... . . . . . . . . . . . . ...... . . . . . . ........ . .. . .. . .. . .. . .. . .. . .. . . . .... ..... . . . . . . . . . . . . . . . . . . ..... . . . . . . . . . ......... . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . . . ..... . . . . . . . . . . . ..... . . . . . . . . . . . . .... ..... . . . .... .... .... ..... . . . .... .... .... .... . . . . ... .... .....

0

• −t

t•

Figura 4.

Calcolo per t > 0: conviene invece che integrare sull’area indicata calcolare 1− l’integrale sulla porzione complementare del primo quadrante Z +∞ Z +∞ Z y−t 3 −λy −λx 2 F (t) = 1 − λ ye dy e dx = 1 − λ ye−λy (1 − e−λ(x−t) ) dy = t 0 t Z +∞ Z +∞ ye−λy dy + λ2 eλt ye−2λy dy = 1 − λ2 t

t

Derivando otteniamo che, per t > 0 la densità di S è data da Z +∞ 2 −λt 3 λt f (t) = λ te +λ e ye−2λy dy − λ2 te−λt t

Il primo e terzo termine si annullano e, integrando per parti o ricordando l’espressione della funzione di ripartizione delle leggi Gamma: 4λ

2

Z

+∞

t

ye−2λy dy = e−2λt (1 + 2λt)

si trova f (t) =

λ −λt e (1 + 2λt) 4

Calcolo per t < 0: F (t) = λ

3

Z

+∞

ye

−λy

dy

0

Z

= λ2 eλt

+∞

y−t Z +∞ 0

da cui si trova la densità: f (t) = In conclusione f (t) =

e

−λx

dx = λ

2

Z

ye−2λy dy =

λ λt e , 4

+∞

ye−λy e−λ(y−t) dy =

0

1 λt e 4

t 0, y > 0

Le v.a. X, Y sono indipendenti ? Qual è la densità di X ? Le v.a. X e XY sono indipendenti ? Quanto vale P(XY ≤ 1) ?

Esercizio 2 Siano X, Y v.a. indipendenti di legge N(0, 1). Poniamo U = nX − Y,

V = nX + Y .

a) Qual è la legge di (U, V ) ? Possiede una densità ? b1) Quanto vale la speranza condizionale di U dato V = 1 ? b2) Quanto vale la varianza della legge condizionale di U dato V = 1 ? Quanto vale la varianza della legge condizionale di U dato V = −1.5 ? Come si comportano queste varianze condizionali per n → ∞ ? Esercizio 3 Si sa che per ogni α > 0 la funzione φα (t) =

1 (1 + θ 2 )α

è una funzione caratteristica. Indichiamo con Xα una v.a. di funzione caratteristica φα . a) Calcolare media e varianza di Xα , al variare di α. b) Calcolare E(Xα4 ), al variare di α. c) Mostrare che, per ogni α, si possono trovare due v.a. Y, Z indipendenti ed aventi la stessa legge tali che Y + Z ha la stessa legge di Xα .

Soluzioni Esercizio 1. a) La densità congiunta non sembra che si possa scrivere come prodotto di una funzione della sola x per una funzione della sola y. Più preciso sarà questo punto quando avremo a disposizione le marginali. b) Si può calcolare la marginale con la formula Z +∞ Z Z +∞ 2 −x(y+1) 2 −x ye−xy dy = dy = x e x ye fX (x) = f (x, y) dy = 0

0

1 = e−x x2 ricordando l’espressione degli integrali relativi alle densità Ŵ(2, 1). c) Si può scrivere (X, XY ) = φ(X, Y ) dove φ(x, y) = (x, xy). Applichiamo il metodo del teorema di cambio di variabile: la funzione inversa si trova risolvendo il sistema = x 2 e−x

u=x

v = xy

che dà φ −1 (u, v) = (u, uv ). Calcoliamo il differenziale:   1 0 −1 Dφ (u, v) = − uv2 u1 e | det(Dφ −1 (u, v))| = u1 . Dunque la densità della coppia (X, XY ) è g(u, v) = u2

v −u( v +1) 1 e u = ve−(u+v) u u

Poiché si può scrivere g(u, v) = e−u × ve−v le due v.a. sono indipendenti ed anzi si vede subito che U è esponenziale di parametro 1 mentre V = XY è Ŵ(2, 1). Questo permette immediatamente di rispondere anche alla questione a) senza bisogno di fare il calcolo della marginale di poco fa. d ) Basta ricordare l’espressione della funzione di ripartizione della legge Gamma(2, 1) e si trova subito P(XY ≤ 1) = 1 − 2e−1 Esercizio 2. a) (U, V ) è una funzione lineare di (X, Y ) che è congiuntamente gaussiana e dunque è congiuntamente gaussiana anche lei. Si tratta di v.a. centrate e per il calcolo della matrice di covarianza basta osservare che Var(U ) = n2 Var(X) + Var(Y ) = n2 + 1

Var(V ) = n2 Var(X) + Var(Y ) = n2 + 1

Cov(U, V ) = Cov(nX − Y, nX + Y ) = n2 Cov(X, X) − Cov(Y, Y ) = n2 − 1

e dunque la matrice di covarianza è C=



n2 + 1 n2 − 1 n2 − 1 n2 + 1



Poiché det C = (n2 + 1)2 − (n2 − 1)2 > 0, la matrice è invertibile e la coppia (U, V ) ha densità congiunta. b) La speranza condizionale di U dato V = 1 è Cov(U, V ) n2 − 1 = 2 ,, Var(V ) n +1

dato che E(U ) = E(V ) = 0 mentre la varianza della legge condizionale è (n2 − 1)2 (n2 + 1)2 − (n2 − 1)2 4n2 Cov(U, V )2 2 = n +1− 2 = = 2 Var(U )− Var(V ) n +1 n2 + 1 n +1

→ 4.

n→∞

La varianza della legge condizionale non dipende dal valore della variabile condizionante. Esercizio 3. Ricordiamo lo sviluppo al second’ordine della funzione f (t) = (1 − t)−α (lo si può calcolare facilmente facendo le derivate) 1 1 = 1 + αt + α(α + 1)t 2 + o(t 2 ) (a − t)α 2 da cui

Dunque

1 1 2 = 1 − αθ + α(α + 1)θ 4 + o(θ 4 ) 2 α (a + θ ) 2 φ ′ α (0) = 0

φ ′′ α (0) = −2α Dunque

φα(4) (0) = 12α(α + 1) E(X) = 0 Var(X) = 2α

E(X 4 ) = 12α(α + 1)

che risponde alle questioni a) e b). c) Si vede che se U1 , U2 sono v.a. indipendenti e aventi la stessa legge di funzione caratteristica φα/2 , allora U1 + U2 avrebbe funzione caratteristica φ(t) = φα/2 (t)2 =

1 (1 + θ 2 )α

Dunque U1 + U2 ha la stessa funzione caratteristica di X e quindi anche la stessa legge.

UNIVERSITA` di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2 P.Baldi Tutorato 4, 7 aprile 2011 Esercizio 1 a1) Sia X una v.a. di legge Ŵ(α, 1). Qual è la legge di λ1 X ? a2) Se indichiamo con qβ il quantile di ordine β, 0 < β < 1, di una legge Ŵ(α, 1), qual è il il quantile di ordine β di una legge Ŵ(α, λ) ? b1) Siano X1 , . . . , X100 v.a. indipendenti di legge esponenziale Ŵ(1, 1). Qual è la legge 1 della v.a. X¯ = 100 (X1 + . . . + X100 ) ? b2) Sapendo che i quantili di ordine 0.025 e 0.975 di una legge Ŵ(100, 1) sono rispettivamente q0.025 = 81.36 e q0.975 = 120.53, determinare un intervallo [a, b] tale che P(a ≤ X¯ ≤ b) = 0.95 .

Esercizio 2 Sia (U, V ) una coppia di v.a. di densità congiunta ( 2vu −u2 /θ e se 0 < v < u c · f (u, v) = θ 0 altrimenti dove c è una opportuna costante. a) Determinare il valore di c in funzione di θ. U b) Le v.a. U e U V sono indipendenti ? Quanto vale la probabilità P( V ≤ 2) ? Esercizio 3 a1) Calcolare la f.r. di una legge di Laplace di parametro λ, cioè di densità 1 −λ|x| e 2λ a2) Come fareste per simulare una v.a. di Laplace di parametro λ ? b) Come fareste per simulare una v.a. di Weibull di parametri α, λ ? (le leggi di Weibull sono quelle di densità α f (x) = λαx α −1e−λx f (x) =

per x > 0 e f (x) = 0 per x ≤ 0).

Esercizio 4 Una v.a. X ha funzione caratteristica 1 · φ(θ) = √ 1 + θ2 a) Mostrare che X ha varianza finita e calcolare E(X) e Var(X). b) Siano X, Y v.a. indipendenti entrambe di funzione caratteristica φ. Calcolare E[(X + Y )4 ].

Soluzioni Esercizio 1. a1) Indichiamo con F e f rispettivamente la f.r. e la densità di una legge Ŵ(α, 1). Con il solito metodo della funzione di ripartizione si trova che la f.r. di λ1 X è P( λ1 X ≤ t) = P(X ≤ tλ) = F (tλ) e derivando si ottiene che la densità g di g(t) = λ f (tλ) = λ

1 λ

X vale

λα α−1 −λt 1 (tλ)α−1 e−λt = t e Ŵ(α) Ŵ(α)

dove riconosciamo la densità di una v.a. Ŵ(α, λ). a2) Abbiamo visto in a1) che se X ∼ Ŵ(α, 1), allora λ1 X ∼ Ŵ(α, λ). I quantili qβ restano determinati dalla relazione P(X ≤ qβ ) = β. Dalla relazione P( λ1 X ≤

1 λ

qβ ) = P(X ≤ qβ ) = β

si vede che il quantile di ordine β di una legge Ŵ(α, λ) è λ1 qβ . b1) La v.a. X1 + . . . + X100 ha legge Ŵ(100, 1) (Proposizione ‘tre.200’) e dunque, grazie ad a1), X¯ 100 ∼ Ŵ(100, 100). b1) Grazie ad a2), i quantili di ordine 0.025 e 0.975 di X¯ 100 sono rispettivamente q˜0.025 =

81.36 = 0.81, 100

q˜0.975 =

120.53 = 1.2 . 100

Dunque P(0.81 ≤ X100 ≤ 1.2) = P(q˜0.025 ≤ X100 ≤ q˜0.975 ) = = P(X100 ≤ q˜0.975 ) − P(X100 ≤ q˜0.025 ) = 0.975 − 0.025 = 0.95 . Esercizio 2. a) Perché f sia una densità occorre che sia 1= Ora Z

Z

f (u, v) du dv = c

f (u, v) du dv = c

Z

0

+∞

Z

+∞

Z

0

+∞

du

Z

0

u

2u −u2 /θ e v dv θ

2u −u2 /θ e du = c v dv θ v Z +∞ cθ 2 ve−v /θ dv = =c 2 0

Z

0

+∞

  2 +∞ dv = v −e−u /θ v

da cui

2 · θ L’integrale si può anche calcolare ‘‘dall’altra parte’’: c=

Z

f (u, v) du dv = c

Z

0

+∞

du

Z

0

u

2u −u2 /θ c e v dv = θ θ

Z

+∞

u3 e−u

2 /θ

du.

0

e si conclude integrando per parti. b) Uno dei modi possibili per mostrare che le v.a. U e U V sono indipendenti consiste nel calcolo della loro densità congiunta, per poi verificare che questa si può scrivere come prodotto di due funzioni, ciascuna delle quali dipende solo da una delle variabili. Il calcolo della legge congiunta di U e U V si può fare osservando che  U, U V = φ(U, V )

dove φ è la funzione φ(u, v) = (u, uv ); questa funzione è certo infinite volte derivabile per u > 0, v > 0: se essa fosse anche invertibile e la sua inversa derivabile potremmo calcolare la densità congiunta g di U e U V con il teorema di cambio di variabile negli integrali multipli, grazie al quale si ha che (1)

g(x, y) = f (φ −1 (x, y))| det Dφ −1 (x, y)| .

Le tappe successive per mostrare che U e U V sono indipendenti sono dunque le seguenti: prima occorre mostrare che φ è invertibile e calcolarne l’inversa (ovvero calcolarne l’inversa, il che proverà che φ è invertibile). Poi bisogna calcolare il differenziale Dφ −1 (che in questo caso è una matrice 2 × 2) e il suo determinante. A questo punto potremo calcolare la densità congiunta g tramite la (1) e verificare che essa è il prodotto di una funzione della sola variabile x moltiplicata per una funzione della sola variabile y. Come si vede si tratta di un programma abbastanza complesso, ma nel quale ogni singola parte non presenta grosse difficoltà. Per calcolare l’inversa di φ, fissati dei valori x e y dobbiamo determinare dei numeri u e v tali che φ(u, v) = (x, y). In altre parole dobbiamo risolvere rispetto a u e v il sistema 

u=x u v =y

che dà facilmente u = x, v = xy . Dunque φ −1 (x, y) = (x, xy ). È immediato ora il calcolo del differenziale di φ −1 :   1 0 −1 Dφ (x, y) = 1 − yx2 y

per cui det Dφ −1 (x, y) = − yx2 . Abbiamo quindi calcolato tutte le quantità che compaiono nella (1). Sostituendo i valori trovati dobbiamo però ricordare che f (u, v) è = 0 a meno che non sia 0 < v < u. Dunque otteniamo f (φ −1 (x, y)) = f (x, xy ) = 0 a meno che non sia y > 1 e x > 0. In conclusione x x 2 2x −x 2 /θ = e 1{x>0} (x)1{y>1} (y) g(x, y) = θ θ y y2 {z } |{z} | =| det Dφ −1 (x,y)|

=f (φ −1 (x,y))

=

1 4 3 −x 2 /θ x e 1{x>0} (x) 1{y>1} (y) 2 θ y3 {z } | {z } | funzione della sola x

funzione della sola y

U e dunque U e U V sono indipendenti. La densità di V è la seconda marginale di questa densità congiunta. Dunque è della forma c g2 (y) = 3 1{y>1} (y) y perché l’integrale di g2 faccia 1 deve essere c = 2 e infine Z 2 1 3 U P( V ≤ 2) = 2 dy = · 3 4 1 y

Esercizio 4. a) φ è una funzione infinite volte derivabile e dunque X ha finiti i momenti di tutti gli ordini. E(X) = 0 perché, dato che φ è una funzione reale, la v.a. X ha legge simmetrica (X ∼ −X) e dunque speranza matematica uguale a 0. Ad ogni modo le due prime derivate di φ valgono φ ′ (θ) = −θ(1 + θ 2 )−3/2 Dunque

φ ′′ (θ) = −(1 + θ 2 )−3/2 + 3θ 2 (1 + θ 2 )−5/2 . Var(X) = E(X 2 ) = −φ ′′ (0) = 1 .

b) La funzione caratteristica di X + Y è

1 · 1 + θ2 Il momento del quarto ordine di X + Y è uguale alla derivata quarta di φX+Y in 0. Ma lo sviluppo in serie di potenze di φX+Y è ben noto (a partire dalla serie geometrica, ad esempio): ∞ X 1 φX+Y (θ) = = (−1)k θ 2k . 1 + θ2 φX+Y (θ) = φ(θ)2 =

k=0

Il coefficiente del termine di ordine 4 è 1, da cui si ricava (4)

φX+Y (0) = φ (4) (0) = 4! = 24 .

UNIVERSITÀ di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2 P.Baldi Tutorato 8, 12 maggio 2011 Esercizio 1 Sia (Xn )n una successione di v.a. indipendenti esponenziali di parametro λ. a) Poniamo Zn = min(X1 , . . . , Xn ). La successione (Zn )n converge in legge ? In caso affermativo precisarne il limite. b) Poniamo Yn = max(X1 , . . . , Xn ). La successione (Yn )n converge in legge ? In caso affermativo precisarne il limite. E la successione ( log1 n Yn )n ? Esercizio 2 Fare la classificazione degli stati della matrice di transizione P =

0

0

1

1 3

1 3

1 3

1

0

0

!

Si tratta di una catena irriducibile ? Regolare ? Quali sono le sue probabilità invarianti? Come cambierebbe la risposta alle domande precedenti se fosse P1 =

1

0

0

1 3

1 3

1 3

0

0

1

!

?

Esercizio 3 Consideriamo la matrice di transizione   0 0 1 P2 =  23 0 13  2 9

2 3

1 9

a) Si tratta di una catena irriducibile ? Regolare ? b) Determinare tutte le probabilità invarianti della catena. Se (Xn )n è la catena di Markov associata a P , quanto vale approssimativamente P1 (Xn = 3) per n grande? (Ricordare che P1 è la probabilità partendo dallo stato 1). Esercizio 4 Consideriamo la catena di Markov su E = {1, 2, 3} associata alla matrice di transizione 1 1 1 2

P =  21 0

4

0 1−α

4 1 2

α



a) Mostrare che, se 0 ≤ α < 1, allora la catena è irriducibile (cioè tutti gli stati comunicano tra loro). E se fosse α = 1 ? b) Supponiamo α = 41 ; mostrare che la catena è regolare e calcolare la distribuzione stazionaria. Si tratta di una distribuzione reversibile ? c) Rispondere alle stesse domande di b), nell’ipotesi α = 21 .

Soluzioni Esercizio 1. a) Si ha, per t > 0, FZn (t) = 1 − P(Zn ≥ t) = 1 − P(X1 ≥ t, . . . , Xn ≥ t) = 1 − e−nλt . Dunque, per t > 0, lim FZn (t) = lim 1 − e−nλt = 1

n→∞

n→∞

e (ricordando che comunque FZn (t) = 0 per t < 0) la successione (Zn )n converge a 0 in legge. Non c’è bisogno di calcolare il limite di FZn in 0 perché 0 non è un punto di continuità per la f.r. della v.a. che assume il solo valore 0 con probabilità 1. b) Si ha, per t ≥ 0, (1)

FYn (t) = P(Yn ≤ t) = P(X1 ≤ t, . . . , Xn ≤ t) = FX (t)n .

Ricordiamo che FX (t) = 1 − e−λt . Poiché comunque FYn (t) = 0 per t ≤ 0 mentre per t >0 lim FYn (t) = lim e−nλt = 0 , n→∞

n→∞

se la successione (Yn )n convergesse in legge verso una v.a. Y , questa dovrebbe avere una f.r. che è uguale a 0 dappertutto. Poiché ciò non è possibile, la successione (Yn )n non converge Yn in legge. Invece, indicando con Fn la f.r. della v.a. log n , si ha Fn (t) = P(Yn ≤ t log n) = P(X1 ≤ t log n, . . . , Xn ≤ t log n) = (1 − e−λt log n )n =  1 n = 1 − λt n Ricordiamo il limite notevole 1 n lim 1 − λt = n→∞ n 

(

0 1 e

1

se λt < 1 se λt = 1 se λt > 1 .

Dunque la successione converge in legge alla v.a. che assume con probabilità 1 il solo valore 1 1 λ . Da notare che anche qui le f.r. non convergono alla f.r. limite per t = λ , che non è un punto di continuità della f.r. limite. Esercizio 2. Per P1 . Si ha 1 → 3, 3 → 1, dunque {1, 3} costituisce una classe chiusa. Poiché né 1 né 3 comunicano con un’altro stato j che non comunica con loro, essi sono entrambi ricorrenti (ricordare comunque che questo criterio vale solo perché gli stati sono in numero finito). Invece 2 comunica sia con 1 che con 3 che non comunicano con 2, che dunque è transitorio.

Per P2 . 1 e 3 sono assorbenti e dunque ancora ricorrenti. 2 è transitorio, per lo stesso motivo di prima. A differenza di P1 , per P2 ci sono due classi irriducibili invece di una sola. Esercizio 3. a) Si ha 1 → 3 → 2, mentre sia 2 che 3 comunicano con gli altri stati in un passo solo. La catena è dunque irriducibile e, dato che c’è un elemento > 0 sulla diagonale, è anche regolare. b) La distribuzione invariante, π , è naturalmente unica per il Teorema di Markov 5.17 che garantisce anche che limn→∞ P1 (Xn = 3) = π3 . Calcoliamo allora la distribuzione stazionaria. Il sistema agli autovalori è 2 2 π2 + π3 3 9 2 π2 = π3 3 1 1 π3 = π1 + π2 + π3 3 9 π1 =

Dalle prime due equazioni si ricava π2 = π1 = condizione π1 + π2 + π3 = 1, si ottiene

2 3

π3 . Sostituendo questa relazione nella

7 π3 = 1 3 da cui si ricava π3 =

3 7

e poi π1 = π2 = 27 .

Esercizio 4. a) Si vede subito che gli stati 1 e 2 comunicano con gli altri in un passo solo. Se 0 ≤ α < 1 allora 3 → 2 e, dunque, anche 3 → 1. Gli stati quindi comunicano tra loro e la catena è irriducibile. Viceversa, se α = 1, allora 3 è uno stato assorbente e non comunica con nessun’altro stato. In questo caso {3} è una classe chiusa strettamente contenuta in E e la catena non è irriducibile. b) Se α = 41 , sappiamo già che la catena è irriducibile grazie ad a); poiché per di più c’è un elemento > 0 sulla diagonale della matrice di transizione, la catena è anche regolare. La matrice di transizione prende la forma 1 1 1 2

P =  21 0

4

0 3 4

4 1 2 1 4



L’osservatore attento vede che P è bistocastica (la somma delle colonne è uguale a 1) e dunque la distribuzione uniforme π = ( 13 , 31 , 31 ) è stazionaria. Non è reversibile: ad 1 , mentre π3 p31 = 0. Un attimo di riflessione del resto mostra che esempio π1 p13 = 12 quando la distribuzione invariante è uniforme, essa è reversibile se e solo se la matrice di transizione è simmetrica.

b) Se α = 21 , la catena risulta regolare per lo stesso ragionamento del punto b). Ora la matrice diventa 1 1 1 2

P =  21 0

4

0 1 2

4 1 2 1 2



e non è più bistocastica. Per calcolare la distribuzione stazionaria dobbiamo risolvere l’equazione agli autovalori π = π P . Ciò significa considerare il sistema π1 = 21 π1 + 21 π2

π2 = 41 π1 + 21 π3

π3 = 41 π1 + 21 π2 + 21 π3 . Sostituendo la terza equazione (che è dipendente dalle altre due) con la condizione π1 + π2 + π3 = 1, troviamo il sistema π1 = 21 π1 + 21 π2

π2 = 41 π1 + 21 π3

π3 = 1 − π1 − π2

La prima equazione dà π1 = π2 ; sostituendo nella seconda si trova π2 = 23 π3 e infine, sostituendo nella terza, π3 = 73 . Poi si ricava π1 = π2 = 27 . Anche qui si vede che questa distribuzione invariante non è reversibile, dato che sempre π3 p31 = 0 mentre π1 p13 > 0.

UNIVERSITA` di ROMA TOR VERGATA Corso di Laurea in Matematica Corso di PS2-Probabilità 2, P.Baldi Tutorato 6, 28 aprile 2011 Esercizio 1 a) Calcolare la funzione caratteristica di una v.a. di legge geometrica di parametro p (P(X = k) = p(1 − p)k , k = 0, 1, . . .). b) Sia (Xn )n una successione di v.a. di legge geometrica di parametro rispettivamente pn = λn . La successione ( n1 Xn )n converge in legge ? In caso affermativo, qual è la legge limite ? Esercizio 2 (Leggi Beta) Sia (Xn )n una successione di v.a. con Xn ∼ Beta(nα, nβ). Mostrare che la successione (Xn )n converge in probabilità e determinare il limite. Esercizio 3 Sia (Xn )n una successione di v.a. indipendenti di legge di Laplace di parametro 1 (cioè di densità f (x) = 21 e−|x| ). a) Mostrare che la successione  1 Sn = √ X1 + . . . + Xn n converge in legge e determinare la legge limite. b) Quanto vale, per n grande   1  P √ X1 + . . . + Xn ≥ 3 ? n

Esercizio 4 Supponiamo di sapere dell’esistenza di una partita di dadi truccati che producono il 6 con probabilità 29 . Per decidere se un dado è equilibrato o truccato usiamo la procedura seguente: lo lanciamo 900 volte e decidiamo che esso è truccato se si ottiene il 6 più (≥) di 180 volte. Qual è la probabilità che un dado truccato venga effettivamente individuato ? Qual è la probabilità che un dado equilibrato venga invece dichiarato truccato con questa procedura ? Esercizio 5 Sia (Xn )n una successione di v.a. i.i.d. uniformi su [0, 1]e poniamo Mn = max(X1 , . . . , Xn ) . a) Mostrare che la successione (Mn )n converge in legge e determinare la legge limite. Converge anche in probabilità ? b) Mostrare che la successione Zn = n(1 − Mn ) converge in legge e determinare la legge limite.

Soluzioni Esercizio ‘ex4.geom-exp’. a) Si ha φ(θ) = E[e

iθX

]=p

∞ X

e

k=0

iθk

∞ X (1 − p) = p ((1 − p)eiθ )k = k

k=0

p 1 − (1 − p)eiθ

(vedi anche il libro, Esempio 3.68). b) Per studiare il limite in legge possiamo calcolare il limite delle funzioni di ripartizione oppure quello delle funzioni caratteristiche. Primo modo: funzioni di ripartizione. Se indichiamo con Fn la f.r. di Yn = n1 Xn , allora Fn (t) = 0 per t < 0, mentre per t ≥ 0 Fn (t) = P(Xn ≤ nt) = P(Xn ≤ bntc) =

bntc  X λ k=0

n

1−

 λ bntc+1 λ k =1− 1− n n

(b c è la funzione parte intera) e dunque per ogni t ≥ 0 lim Fn (t) = 1 − e−λt ,

(1)

n→∞

infatti

 h λ bntc+1 λ n i n1 (bntc+1) = lim 1 − lim 1 − n→∞ n→∞ n n e  λ n 1 lim (bntc + 1) = λt e lim 1 − = e−1 n→∞ n n→∞ n Riconosciamo ora nel termine a destra nella (1) la f.r. di una legge esponenziale di parametro λ. Dunque Yn converge in legge ad una v.a. che ha questa distribuzione. Secondo modo: funzioni caratteristiche. Ricordando l’espressione della funzione caratteristica di una v.a. geometrica, si ha φXn (θ) =

λ n

1 − (1 − λn )eiθ

=

λ n(1 − eiθ ) + λeiθ

e dunque φYn (θ) = φXn Osservando che lim n(1 − e

n→∞

iθ/n

θ n



) = θ lim

=

n→∞

λ · n(1 − eiθ/n ) + λeiθ/n

1 − eiθ/n θ n

= −θ

d iθ e |θ=0 = −iθ dθ

si ha

λ λ − iθ

lim φYn (θ) =

n→∞

che è appunto la funzione caratteristica di una legge esponenziale di parametro λ. α α+β

Esercizio ‘ex4.beta’. a) Una v.a. Beta(α, β) ha media (vedi il libro). Dunque E(Xn ) =

α , α+β

Var(Xn ) =

e varianza

αβ (α+β)2 (α+β+1)

αβ · (α + β)2 (nα + nβ + 1)

α , mentre la loro varianza tende a 0 per Dunque le v.a. Xn hanno tutte la stessa media α+β n → ∞. Basta ora applicare la disuguaglianza di Chebyshev, che dà

P(|Xn −

α α+β |

≥ η) ≤

e dunque Xn

P



n→∞

Var(Xn ) → 0 n→∞ η2

α · α+β

Esercizio ‘ex4.laplace-conv’. La soluzione di questo esercizio è del tutto simile a quella del precedente. Prima di tutto si osserva che le v.a. di Laplace sono centrate, Dunque la loro varianza è Z E(Xi2 ) =

+∞

−∞

x 2 e−|x| dx = 2 .

Dunque adesso Sn

+



n→∞

N(0, 2)

e, indicando con Z una v.a. N(0, 1),  1  √   3 3 P √ X1 + . . . + Xn ≥ 3 ' P 2 Z ≥ 3 = 1 − 8 n

√3 2



= 1 − 8(2.12) = 0.017 .

Esercizio ‘ex4.an-dado’. Se un dado è truccato allora il numero totale X di 6 ottenuti in 900 lanci si può scrivere X = X1 + . . . + X900 , dove le v.a. X1 , . . . , X900 sono di Bernoulli B(1, 29 ). Dunque, con l’approssimazione normale P(X ≥ 180) = P(X1 + . . . + X900

  179.5 − 900 · 29 = > 179.5) ≈ 1 − 8 q 2 7 900 · 9 · 9

= 1 − 8(−1.64) = 0.9495 .

Dunque un dado truccato viene individuato con una probabilità del 95%. In questo caso l’approssimazione normale è giustificata, dato che np = 900 × 29 = 200 è largamente più grande di 5. È preferibile all’approssimazione poissoniana che indica in questo caso che B(900, 29 ) ∼Poiss(200). Infatti quest’ultima darebbe P(X ≥ 180) ∼ 1 − e

−200

179 X 200k k=0

k!

che obbligherebbe al calcolo di una somma di 180 termini. Inoltre qui l’ approssimazione poissoniana non appare precisa: un calcolo numerico qui darebbe vero valore 0.9512

approssimazione normale 0.9495

approssimazione poissoniana 0.9283

Se invece il dado fosse equilibrato allora il numero totale di 6 in 900 lanci sarebbe modellizzato da X = X1 + . . . + X900 , dove però le v.a. Xi sono indipendenti e di Bernoulli B(1, p), p = 16 . Poiché E(Xi ) = 16 e Var(Xi ) = 16 56 , usando l’approssimazione normale P(X ≥ 180) = P(X1 + . . . + X900

  179.5 − 900 · 16 = > 179.5) ≈ 1 − 8 q 1 5 900 · 6 · 6

= 1 − 8(2.63) = 0.0044 = 0.44% .

Esercizio ‘conv-max1’. a) La funzione di ripartizione di Mn vale 0 per t ≤ 0 e 1 per t ≥ 1. Se 0 ≤ t ≤ 1, FMn (t) = P(Mn ≤ t) = P(X1 ≤ t, . . . , Xn ≤ t) = P(X1 ≤ t) . . . P(Xn ≤ t) = t n . Dunque 0 se t < 1 n→∞ 1 se t ≥ 1 che è la funzione di ripartizione di una v.a. che assume il valore 1 con probabilità 1. La convergenza ha luogo anche in probabilità, infatti lim FMn (t) =

n

P(|Mn −1| ≥ ε) = P(Mn ≥ 1+ε)+P(Mn ≤ 1−ε) = 1−FMn (1+ε)+FMn (1−ε) (infatti 1 − FMn (1 + ε) = 0 per ogni n mentre FMn (t) →n→∞ 0 per ogni t < 1) b) Si ha P(Zn ≤ t) = 0 per t < 0 mentre per t ≥ 0

P(Zn ≤ t) = P(1 − Mn ≤ nt ) = P(Mn ≥ 1 − nt ) = 1 − P(Mn ≤ 1 − nt ) = = 1 − (1 − nt )n = 1 − e−t

che è la funzione di ripartizione di una v.a. esponenziale di parametro 1.



n→∞

0.

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF