Teoria dei Segnali
April 21, 2017 | Author: Marco Salvatore Vanadìa | Category: N/A
Short Description
Politecnico di Bari Corso di Laurea in Ingegneria delle Telecomunicazioni Appunti del corso di TEORIA DEI SEGNALI Pie...
Description
Politecnico di Bari Corso di Laurea in Ingegneria delle Telecomunicazioni
Appunti del corso di TEORIA DEI SEGNALI
Pietro Guccione
Anno Accademico 2007-2008
Indice Capitolo 1. Richiami principali ai segnali 1.1. Introduzione 1.2. Tipi di segnale 1.3. Segnali elementari 1.4. La Correlazione
5 5 6 9 15
Capitolo 2. La teoria delle probabilità 2.1. Esperimenti Aleatori 2.2. Le Basi della Teoria delle Probabilità 2.3. Variabili Aleatorie 2.4. Densita’ di Probabilita’ 2.5. Operazioni sulla Variabile Aleatoria 2.6. Parametri Statistici di una Variabile Aleatoria 2.7. Esempi di Variabili Aleatorie 2.8. Variabili Aleatorie Condizionate 2.9. Applicazioni notevoli 2.10. Sistemi di Variabili Aleatorie 2.11. Convergenza ed approssimazione
21 21 22 28 30 32 33 36 45 46 50 62
Capitolo 3. I Processi Stocastici 3.1. Definizione di Processi Stocastici 3.2. Parametri Statistici del 1o e 2o Ordine 3.3. Processi Stazionari 3.4. Filtraggio di un Processo Aleatorio 3.5. Analisi Spettrale di un Processo Aleatorio 3.6. Processi Aleatori Gaussiani 3.7. Processi Ergodici 3.8. Cenni sulle Catene di Markov
67 67 70 79 88 92 100 104 110
Capitolo 4. La trasmissione dei segnali 4.1. Introduzione 4.2. Generalita’ sui Sistemi di Trasmissione 4.3. Trasmissione Analogica e Numerica 4.4. Il Campionamento 4.5. La Quantizzazione 4.6. Il Canale Binario
117 117 117 122 123 129 134
3
INDICE
4.7.
Teoria dell’Informazione
4
140
Capitolo 5. Il rumore 5.1. Introduzione 5.2. Caratteristiche Generali del Rumore 5.3. Fattore e Temperatura Equivalente di Rumore
153 153 154 160
Capitolo 6. La modulazione analogica 6.1. Introduzione 6.2. Rappresentazione complessa dei segnali 6.3. Sistemi di trasmissione con modulazione
167 167 169 176
CAPITOLO 1
Richiami principali ai segnali 1.1. Introduzione La definizione di segnale parte dall’esperienza comune. Esempi di segnale nella vita quotidiana sono il segnale acustico che viene prodotto da uno strumento musicale, il segnale radio captato dall’antenna di un ricevitore, la rappresentazione del battito cardiaco attraverso un elettrocardiografo e così via. Tutti gli esempi che si possono fare hanno una matrice comune: il segnale è una grandezza fisica variabile a cui è associata una qualche forma di informazione. Lo studio dei segnali quindi passa necessariamente attraverso lo studio delle funzioni matematiche di una o più variabili. Le grandezze fisiche rappresentate da un segnale sono le più svariate: l’intensità luminosa e il colore su uno schermo nel caso di un segnale televisivo, la variazione della pressione dell’aria nel caso di un segnale musicale, la tensione elettrica o la corrente nel caso di un segnale misurato su di un circuito elettrico, un’onda elettromagnetica nel caso di un segnale radio captato dallo spazio. L’evoluzione di molti segnali monodimensionali (cioè dipendenti da una sola grandezza) avviene nel tempo: esempi sono il segnale musicale, la misura della tensione su un condensatore, la variazione dell’intensità luminosa del sole durante il giorno, eccetera. Tuttavia è possibile considerare dipendenze diverse di un segnale: ad esempio la sua variazione nello spazio. La misura dell’intensità dell’oscillazione di un terremoto ad uno stesso istante nelle varie località rappresenta un segnale di cui interessa la cui estensione spaziale e non la sua evoluzione temporale. Naturalmente è sempre possibile immaginare lo stesso tipo di informazione (l’intensità di un terremoto) in una data località e seguirne la sua evoluzione nel tempo. Quest’ultimo esempio porta alla rappresentazione di segnali bidimensionali o anche multidimensionali, segnali cioè che variano in dipendenza della variazione di due o più grandezze. Il segnale televisivo bianco e nero è un esempio di segnale tridimensionale, dato che esso è dipendente da due coordinate spaziali (larghezza ed altezza dello schermo) e da una coordinata temporale (il susseguirsi delle scene sullo schermo). Se consideriamo invece un segnale televisivo a colori esso è in realtà la sovrapposizione di tre segnali tridimensionali, dato che separatamente in ogni punto dello schermo è rappresentata la sovrapposizione dei tre colori fondamentali: rosso, verde, blu. Quindi un segnale televisivo a colori si puè pensare come un segnale vettoriale (costituito cioè da tre componenti) a tre dimensioni, dipendente cioè da tre grandezze fisiche: c(x, y, t) = [red(x, y, t), green(x, y, t), blue(x, y, t)]. 5
1.2. TIPI DI SEGNALE
6
1.2. Tipi di segnale Una prima classificazione di segnale è stata già fatta differenziando i segnali monodimensionali da quelli multidimensionali, come anche quelli scalari da quelli vettoriali, costituiti cioè da più componenti. Si possono inoltre differenziare i segnali in base ai valori assunti dalla variabile indipendente: • segnali a tempo continuo: sono quelli per i quali il dominio della funzione ha la cardinalità dei numeri reali. La variabile indipendente (ad esempio il tempo) assume valori in modo continuo (ad esempio un segnale musicale emesso da uno strumento). • segnali a tempo discreto: sono quelli per i quali il dominio della funzione ha la cardinalità dei numeri naturali. Per questi segnali la variabile indipendente assume valori in un insieme discreto. In tal caso la dipendenza del segnale dalla variabile indipendente è rappresentata mediante la successione dei valori assunti: x(n) per indicare il valore del segnale x dall’n simo valore della variabile indipendente. Esempio di un segnale tempo discreto è il segnale televisivo, dato che esso è rappresentato sullo schermo mediante la successione di 25 fotogrammi al secondo. I segnali stessi possono assumere valori in un insieme non numerabile di valori (segnali ad ampiezza continua) o in un insieme numerabile di valori (segnali ad ampiezza discreta). Esempio di un segnale ad ampiezza continua è la misura della tensione su un condensatore così come essa è rappresentata su un oscilloscopio analogico; esempio di un segnale ad ampiezza discreta è invece lo stato di un semaforo: ad ogni istante esso può assumere solo due possibili valori: acceso o spento. I segnali ad ampiezza continua sono detti anche segnali analogici, quelli ad ampiezza discreta sono detti numerici. In figura (1.2.1) sono rappresentati i due tipi di segnale sinora visti.
s(t)
s(t)
t
F IGURA 1.2.1. Differenza tra segnale ad ampiezza continua e segnale ad ampiezza discreta
t
1.2. TIPI DI SEGNALE
7
Un’altra distinzione può essere fatta tra i segnali periodici e segnali non periodici (o aperiodici). Detto T un numero reale > 0, un segnale s(t) si dice periodico se 8n 2 Z : s(t) = s(t + nT ). Un segnale periodico è quindi definito su tutto l’asse reale e per una sua descrizione completa è sufficiente la conoscenza all’interno di un periodo. Un segnale di durata finita è, quindi, aperiodico. Una combinazione lineare di segnali periodici di stesso periodo T o di periodo che è un sottomultiplo di T , cioè T /n è, a sua volta, periodica di periodo T . I segnali inoltre possono essere suddivisi in base al loro comportamento energetico. Si dicono ad energia finita i segnali che verificano la seguente proprietà:
(1.2.1)
Z
+1 1
| s(t) |2 dt < +1
dove la quantità a primo membro dell’espressione è detta energia del segnale. I segnali R +T /2 periodici non sono segnali ad energia finita, dato che, se T /2 | s(t) |2 dt è una quantità finita, l’integrale su tutto < risulterà sicuramente infinito. Tali segnali sono allora segnali a potenza finita, per i quali cioè risulta:
(1.2.2)
1 lim T !+1 T
Z
+T /2 T /2
| s(t) |2 dt < +1
La quantità a primo membro è detta potenza del segnale. Per i segnali ad energia finita la potenza è nulla. Per i segnali tempo discreti la definizione di energia e potenza è rispettivamente:
(1.2.3)
+1 X
n= 1
(1.2.4)
|s(n)|2
+N X 1 lim |s(n)|2 N !+1 2N + 1 n= N
Infine altre distinzioni tra segnali possono essere fatte sulla base delle loro proprietà puramente matematiche: ad esempio si distinguono i segnali reali da quelli complessi, composti cioè di una parte reale e di una parte immaginaria: sc (t) = sR (t) + jsI (t). Particolari simmetrie dei segnali possono permettere di distinguere i segnali pari, per i
1.2. TIPI DI SEGNALE
8
quali risulta: s(t) = s( t), da quelli dispari, per i quali vale invece: s(t) = s( t). Per un segnale che non gode di simmetria pari, nè dispari, si può sempre pensare di estrarne la sua parte pari:
(1.2.5)
1 se (t) = [s(t) + s( t)] 2
e la sua parte dispari
(1.2.6)
1 so (t) = [s(t) 2
s( t)]
1.2.1. Operazioni sui segnali. Vengono qui richiamate le principali operazioni che è possibile compiere sui segnali. Particolare interesse assumono le operazioni sulla variabile indipendente 1.2.1.1. Traslazione. La traslazione di un segnale è il suo spostamento sull’asse della variabile indipendente (o nel piano delle sue variabili indipendenti se dipende da due variabili): s(t to ) è il segnale s(t) spostato temporalmente nella posizione to . Se la variabile indipendente è il tempo, si dice anche che il segnale è ritardato di to secondi se to > 0 altrimenti è anticipato di to secondi, se risulta to < 0. 1.2.1.2. Ribaltamento. Il ribaltamento di un segnale corrisponde all’operazione: s(t) ! s( t), esso cioè viene descritto con l’asse della variabile indipendente riflesso rispetto all’asse delle ordinate. Questa operazione è utile per esaminare le proprietà di simmetria di un segnale (segnale pari o dispari). 1.2.1.3. Scalatura dell’asse. Considerato un numero reale a > 0, un segnale si dice che ha subito un cambiamento di scala se risulta la seguente trasformazione: s(t) ! s(at). In particolare se a > 1 il segnale ha subito un restringimento, altrimenti, con 0 < a < 1 il segnale subisce un’espansione. E’ sempre possibile estendere il cambiamento di scala dell’asse della variabile indipendente ai casi in cui risulta a < 0, basta applicare separatamente le due operazioni di ribaltamento e di scalatura del segnale: s(t) ! s( t) ! s( |a| t). Si ricordi che l’operazione di cambiamento di scala, come quella di ribaltamento – che si può considerare come un caso particolare con a = 1 – non commuta con quella di traslazione. 1.2.1.4. Convoluzione tra segnali. Dati due segnali x(t) ed h(t), si definisce il prodotto di convoluzione tra i due segnali come:
1.3. SEGNALI ELEMENTARI
(1.2.7)
y(t) = x(t) ? h(t) =
Z
9
+1
x(⌧ )h(t
⌧ )d⌧
1
La convoluzione gode delle seguenti proprietà: (1) La convoluzione è un’operazione commutativa: x(t) ? h(t) = h(t) ? x(t) (2) La convoluzione gode della proprietà associativa: x(t) ? y(t) ? h(t) = (x(t) ? y(t)) ? h(t) = x(t) ? (y(t) ? h(t)) (3) La convoluzione è distributiva rispetto alla somma: (x(t) + y(t)) ? h(t) = x(t) ? h(t) + y(t) ? h(t) 1.3. Segnali elementari Esiste una classe di segnali che, per la loro particolare semplicità, viene spesso utilizzata per schematizzare il comportamento dei segnali che si incontrano nei casi reali. A questi segnali si dà il nome di segnali elementari. Le proprietà viste precedentemente si applicano ovviamente anche ai segnali elementari. 1.3.1. Gradino unitario. Il gradino unitario è la funzione così definita:
(1.3.1)
u(t) =
⇢
1, 0,
t>0 t 0, cresce proporzionalmente a t: (1.3.2)
r(t) =
⇢
t, 0,
t>0 t ⌧
⌧ 2 ⌧ 2
E’, chiaramente, un segnale di energia finita e la sua energia vale ⌧ . La somma di segnali rettangolari ripetuti a distanza T dà luogo ad un segnale periodico, di periodo T:
1.3. SEGNALI ELEMENTARI
(1.3.6)
sq(t) =
che viene detto onda quadra.
+1 X
rect
n= 1
− τ 2
−Τ− τ −Τ− τ − τ 2 2 2
✓
t
nT ⌧
11
◆
τ 2
τ 2
Τ− τ Τ+ τ 2 2
F IGURA 1.3.3. Rettagolo ed onda quadra Se ⌧ = T /2 l’onda quadra si dice a duty cycle 50%. L’onda quadra (1.3.6) oscilla tra 0 e 1 ed ha valor medio ⌧ /T . Un’onda quadra con duty cycle 50% che oscilla tra +1 e 1 ha valor medio nullo. Si osservi infine che, a rigore, il segnale rettangolare (1.3.5) è discontinuo in ±⌧ /2 ed il suo valore in tali punti sarebbe indefinito. In un punto di discontinuità assumeremo che il segnale assuma il valore s(to ) = 12 [s(to ) + s(t+ o )] 1.3.5. Delta di Dirac. Il Delta di Dirac non è in realtà una vera e propria funzione, ma una distribuzione. Essa, a rigore, dovrebbe essere definita solo all’interno di un integrale. La sua definizione parte dalla osservazione che la funzione:
(1.3.7)
1 t rect( ) T T
ha sempre area pari ad 1, qualunque sia il valore di T . Al tendere però di T a zero, il rettangolo diventa infinitamente stretto ed alto. Una definizione della funzione delta è allora la seguente:
(1.3.8)
1 t rect( ) T !0 T T
(t) = lim
1.3. SEGNALI ELEMENTARI
12
La funzione così definita ha valori sempre nulli tranne in t = 0 dove assume valore nominalmente infinito. La sua rappresentazione su di un grafico è quindi a rigore impossibile. La schematizzazione che si usa è quella riportata in fig. 1.3.4 δ (t)
t
F IGURA 1.3.4. Rappresentazione grafica dell’impulso o delta di Dirac. In base a quanto detto: Z
(1.3.9)
+1
(t)dt = 1 1
inoltre la funzione delta è pari: ( t) = (t). La principale proprietà della funzione delta è la seguente:
(1.3.10)
Z
+1
s(t) (t
to )dt = s(to )
1
essa cioè applicata ad una funzione all’interno di un integrale permette di estrarre il valore di quella funzione nel punto in cui il delta è applicato (sempre che la funzione s(t) sia continua in t = to ). Questa notazione è utilizzata per indicare l’estrazione di un campione da un segnale nella posizione in cui è posto l’impulso. La proprietà in (1.3.10) può essere vista anche nel modo seguente: l’impulso piazzato ad un dato istante ⌧ e moltiplicato per una funzione s(t) risulta pari all’impulso stesso ma con area uguale al valore che il segnale assume in quella posizione ⌧ : s(t) (t ⌧ ) = s(⌧ ) (t ⌧ ). Un segnale può essere rappresentato mediante una successione infinita di impulsi delta infinitamente vicini tra loro e di valore pari al valore che il segnale assume in quel punto:
(1.3.11)
Z
+1
s(⌧ ) (t 1
⌧ )d⌧ = s(t)
1.3. SEGNALI ELEMENTARI
13
Il significato di ques’ultimo integrale è anche quello di una convoluzione tra il segnale s(t) e la funzione delta. Un cambiamento di scala della variabile indipendente influisce sul risultato: Z
(1.3.12)
+1
x(t) (at + b) dt = 1
Z
+1
x 1
✓
&
b a
◆
(&)
d& 1 b = x( ) |a| |a| a
Per l’impulso quindi un cambiamento di scala ed una traslazione comporta la variazione dell’area dell’impulso stesso:
(1.3.13)
(at + b) =
1 b (t + ) |a| a
Ultima considerazione è quella relativa alle derivate dell’impulso. La derivata dell’impulso, indicata con 0 (t) è detta doppietto: Z
(1.3.14)
+1
x(t) 0 (t
⌧ ) dt =
x0 (⌧ )
1
sempre che x(t) sia dotata di derivata in t = ⌧ . La (1.3.14) si può ricavare dalla definizione dell’impulso (1.3.8) mediante integrazione per parti (ricordando che D(AB) = AD(B) + BD(A), dove D(·) rappresenta l’operatore di derivazione):
(1.3.15)
Z
+1
⌧ )|+1 1
0
x(t) (t ⌧ ) dt = x(t) (t 1
Z
+1
x0 (t) (t ⌧ ) dt =
x0 (⌧ )
1
Si osservi infine che l’intergale dell’impulso è lo scalino di ampiezza unitaria:
(1.3.16)
u(t) =
Z
t
(⌧ ) d⌧ 1
1.3. SEGNALI ELEMENTARI
14
infatti tale integrale vale zero finchè t < 0, ed 1 non appena t > 0. Dualmente, la derivata dello scalino unitario è l’impulso unitario: dtd u(t) = (t) 1.3.6. Funzioni sinusoidali. Una classe di funzioni molto utilizzate, soprattutto nell’ambito dell’analisi di funzioni periodiche sono le funzioni sinusoidali. Per la definizione di una funzione sinusoidale sono sufficienti tre elementi: ampiezza A, pulsazione !o e fase iniziale ' (cioè l’argomento della sinusoide per t = 0). L’ampiezza rappresenta l’escursione massima che la funzione assume, la frequenza il numero di cicli per unità di tempo che esegue:
(1.3.17)
A sin(2⇡f t + ')
La sinusoide si ripete uguale a se stessa ad una distanza temporale T tale che !o T = 2⇡. Il periodo di una sinusoide di pulsazione !o è, perciò:
(1.3.18)
T =
2⇡ !o
f = 1/T è la frequenza. Va da sé che una sinusoide di frequenza f è periodica di periodo T = 1/f ma, anche, di periodo 2T , 3T, . . . , N T . Una sinusoide con fase iniziale ⇡/2 è chiamata cosinusoide e vale la relazione sin(!t + ⇡/2) = cos(!t). La potenza media di una sinusoide di ampiezza unitaria vale:
(1.3.19)
! Pm = 2⇡
Z
2⇡/!
sin2 (!t) dt =
0
1 2
La sua potenza di picco è
(1.3.20)
Pp = max sin2 (!t) = 1 t
Il rapporto tra potenza di picco e potenza media è detto fattore di picco e, per una sinusoide vale 2.
1.4. LA CORRELAZIONE
15
1.3.7. Seno cardinale. Un’ultima funzione molto utilizzata è la funzione seno cardinale, così definita:
(1.3.21)
sinc(t) =
sin(⇡ Tt ) ⇡ Tt
e che assume valore pari ad 1 al limite per t ! 0. E’ una funzione pari, in quanto rapporto di due funzioni dispari. 1.4. La Correlazione Dato un segnale deterministico e non periodico, s(t), di esso si può definire, come già visto l’energia:
(1.4.1)
Es =
Z
+1 2
| s(t) | dt =
1
Z
+1 1
| S(f ) |2 df
dove l’ultima uguaglianza discende dal teorema di Parseval, il quale afferma che l’energia del segnale, calcolabile nei due domini tempo e frequenza, non cambia. Se il segnale passa attraverso un sistema lineare tempo invariante con funzione di trasferimento: H(f ):
Y (f ) = S(f ) · H(f ) (1.4.2)
Ey =
Z
+1 1
| S(f ) |2 · | H(f ) |2 df
L’energia si può quindi ottenere conoscendo lo spettro del segnale (e | S(f ) |2 è detto spettro di energia del segnale) e la funzione di trasferimento del sistema. 1.4.1. Autocorrelazione per segnali ad energia finita. Sia ora x(t) un segnale reale ad energia finita. Si definisce autocorrelazione di x(t) la funzione che si ottiene dal seguente integrale:
(1.4.3)
Rx (⌧ ) =
Z
+1
x(t)x(t
⌧ )dt
1
Dalla definizione si osserva subito che: Rx (⌧ ) = x(⌧ ) ? x( ⌧ ) (per dimostrarlo si
1.4. LA CORRELAZIONE
16
provi R +1 a porre x( ⌧ ) = y(⌧ ) e ad eseguire l’integrale di convoluzione: Rx (⌧ ) = x(t)y(⌧ t)dt) e quindi che: 1 (1.4.4)
Rx (⌧ ) =
Z
+1 1
| X(f ) |2 ·ej2⇡f ⌧ df
cioè l’autocorrelazione di un segnale è anche l’antitrasformata del suo spettro di energia. Si ricordi che per un segnale reale, se ad x(t) ! X(f ), allora ad x( t) ! X( f ) = X ⇤ (f ), mentre per un segnale complesso si ha che se ad x(t) ! X(f ), allora ad x( t) ! X( f ), e ad x⇤ (t) ! X ⇤ ( f ), infine ad x⇤ ( t) ! X ⇤ (f ). Poichè quest’ultima definizione vale sempre, allora se il segnale è complesso la definizione di autocorrelazione deve essere adeguatamente modificata:
(1.4.5)
Rx (⌧ ) =
1
Z
+1
x(t)x⇤ (t
⌧ )dt = x(⌧ ) ? x⇤ ( ⌧ )
1
Proprietà della funzione di autocorrelazione: (1) Rx (0) = Ex , cioè la funzione di autocorrelazione calcolata per ⌧ = 0 rappresenta l’energia del segnale (2) Rx (⌧ ) = Rx ( ⌧ ), cioè la funzione di autocorrelazione è una funzione pari (Rx (⌧ ) = Rx⇤ ( ⌧ ) per i segnali complessi) (3) | Rx (⌧ ) | Rx (0), cioè il massimo della funzione di autocorrelazione è localizzato in ⌧ = 0: [x(t
x(t
⌧)
⌧ )2 + x(t)2
x(t)]2
2x(t
0, ⌧ )x(t)
0
ed integrando da 1 a +1 si ha: 2Ex 2Rx (⌧ ). L’autocorrelazione di un segnale ha un’interessante interpretazione fisica. Essa rappresenta una misura del grado di somiglianza del segnale con sè stesso. Infatti quanto più un segnale somiglia a sè stesso tanto più è alto il valore dell’integrale in 1.4.3. Ecco quindi il motivo per cui la funzione di autocorrelazione assume valore massimo per ⌧ = 0: quando infatti il segnale è perfettamente sovrapposto a sè stesso il grado di somiglianza è massimo. Per valori di ⌧ crescenti i segnali generalmente tendono 1
Su alcuni testi è riportata la relazione: Rx (⌧ ) =
R +1 1
x⇤ (t)(t
⌧ )dt = x⇤ (⌧ ) ? x( ⌧ ).
1.4. LA CORRELAZIONE
17
a non somigliare più a sè stessi e quindi il valore dell’autocorrelazione diminuisce. Eccezione notevole a questa regola sono, come si vedrà più avanti, i segnali periodici. 1.4.2. Cross correlazione di due segnali. Dati due segnali x(t) ed y(t), si definisce la crosscorrelazione tra i due segnali come: (1.4.6)
Rxy (⌧ ) =
Z
+1
x(t)y(t
⌧ )dt = x(⌧ ) ? y( ⌧ )
y(t)x(t
⌧ )dt = y(⌧ ) ? x( ⌧ )
1
ed anche: (1.4.7)
Ryx (⌧ ) =
Z
+1 1
Per i segnali complessi la definizione è invece: (1.4.8)
Rxy (⌧ ) =
(1.4.9)
Ryx (⌧ ) =
Z Z
+1
x⇤ (t)y(t
⌧ )dt = x⇤ (⌧ ) ? y( ⌧ )
y ⇤ (t)x(t
⌧ )dt = y ⇤ (⌧ ) ? x( ⌧ )
1
+1 1
⇤ Si può facilmente dimostrare che: Rxy (⌧ ) = Ryx ( ⌧ ):
Rxy (⌧ ) =
=
Z
+1
Z
+1
⇤
x (t)y(t 1 ⇤
y(z)x (z + ⌧ )dz 1
⌧ )dt = ⇤⇤
=
Z
Z
+1
+1
x⇤ (z + ⌧ )y(z)dz =
1
y ⇤ (z)x(z
( ⌧ ))dz
⇤
=
1
⇤ = Ryx ( ⌧)
Due segnali si dicono ortogonali se risulta che Rxy (⌧ ) = 0, 8⌧ . La cross correlazione dà una misura del grado di somiglianza tra due segnali, analogamente all’autocorrelazione di un segnale.
1.4. LA CORRELAZIONE
18
1.4.3. Segnali a potenza finita. Per i segnali a potenza finita
1 P = lim T !+1 T
(1.4.10)
Z
+T /2
| s(t) |2 dt
T /2
si può ancora definire una quantità che nel dominio delle frequenze ci dice come sono distribuite le potenze del segnale: la densità spettrale di potenza del segnale. Sia infatti: sT (t) la limitazione di s(t) nell’intervallo: [ T, T ] : (1.4.11)
sT (t) =
⇢
s(t) |t| T 0 altrove
Poichè quest’ultimo segnale è sicuramente ad energia finita, per esso si può dare la definizione di trasformata di Fourier e quindi la densità spettrale di energia: sT (t) ! ST (f ): (1.4.12)
ET =
Z
+1 2
1
| sT (t) | dt =
Z
+1 1
| ST (f ) |2 df
Poichè la potenza di s(t) è definita come limite dell’energia della sua limitazione, sT (t), al tendere dell’intervallo di limitazione all’infinito (e rapportando per l’intervallo di tempo stesso), la densità spettrale di potenza si può scrivere come: P =
Z
+1
1 | ST (f ) |2 df ) T !+1 2T lim
1
1 | ST (f ) |2 T !+1 2T
(1.4.13)
Sp (f ) = lim
La densità spettrale di potenza gode di proprietà simili a quelle della densità spettrale di energia: cioè è una funzione pari (per i segnali reali), è sempre non negativa e il suo intergale su tutto l’asse delle frequenze dà luogo alla potenza del segnale. Analogamente a ciò che accade per i segnali ad energia finita, il passaggio di un segnale a potenza finita attraverso un sistema lineare tempo invariante dà luogo ad un segnale a potenza finita in uscita, la cui densità spettrale di potenza è pari a: Sy (f ) = Sx (f ) · |H(f )|2 . Troviamo ora la funzione del tempo che corrisponde alla funzione densità spettrale di potenza: Sp (f ) = lim
T !+1
1 1 | ST (f ) |2 = lim ST (f ) · ST⇤ (f ) ) T !+1 2T 2T
1.4. LA CORRELAZIONE
19
antitrasformando: 1 sT (⌧ ) ? sT ( ⌧ ) = T !+1 2T Z +T 1 = lim sT (t)sT (t + ⌧ )dt T !+1 2T T ) lim
A tale quantità diamo il nome di funzione di autocorrelazione:
(1.4.14)
1 Rg (⌧ ) = lim T !+1 2T
Z
+T
sT (t)sT (t + ⌧ )dt T
La funzione di autocorrelazione per i segnali a potenza finita è l’antitrasformata di Fourier della densità spettrale di potenza, nello stesso modo con cui nel caso di segnali ad energia finità essa è l’antitrasformata di Fourier della densità spettrale di energia. La funzione di autocorrelazione dei segnali a potenza finita gode delle stesse proprietà della corrispondente funzione definita per i segnali ad energia finita. Inoltre è possibile dare una definizione analoga anche per la cross correlazione di segnali a potenza finita. 1.4.4. Segnali periodici. Sia dato un segnale periodico e la sua rappresentazione in serie di Fourier:
s(t) = s(t + n · T ) (1.4.15)
s(t) =
+1 X
n= 1
n cn · exp(j2⇡ t) T
Lo spettro d’ampiezza di un segnale periodico è uno spettro a righe:
(1.4.16)
S(f ) =
+1 X
n= 1
cn · (f
n ) T
dove i cn si possono calcolare in base alla trasformata di Fourier di una singola ripetizione del segnale:
1.4. LA CORRELAZIONE
(1.4.17)
1 cn = T
Z
+T /2
s(t) · e
T /2
n j2⇡ T t
dt =
20
1 ST (f )|f = n T T
I segnali periodici sono ovviamente segnali a potenza finita. La loro densità spettrale di potenza è anch’essa a righe e si può ricavare facilmente : 1 P = T 1 = T
Z
+T /2 T /2
X n
+T /2
s(t)s⇤ (t)dt =
T /2 n j2⇡ T t
cn · e
Z 1 XX ⇤ = cn cm T n m (1.4.18)
Z
+T /2
" n
X m
ej2⇡ T t e
j2⇡ m t T
cm · e
j2⇡ m t T
dt =
T /2
Sp (f ) ==
+1 X
n= 1
#⇤
X n
|cn |2 · (f
dt = |cn |2 )
n ) T
La corrispondente funzione di autocorrelazione, essendo un intergale di funzione periodica, è anch’essa periodica di periodo T e la sua definizione si può restringere ad un singolo periodo: Z +1 1 Rg (⌧ ) = lim sT (t)sT (t + ⌧ )d⌧ = T !+1 2T 1 Z 1 +T /2 (1.4.19) = s(t)s(t + ⌧ )d⌧ T T /2
CAPITOLO 2
La teoria delle probabilità 2.1. Esperimenti Aleatori Nelle scienze sperimentali la verifica di una ipotesi di lavoro è affidata all’esperimento. L’esperimento quindi consiste nel controllare che, sotto alcune ipotesi, la teoria e la realtà sono equivalenti, cioè la teoria è descrittiva di un certo fenomeno della natura. Esempio classico può essere la descrizione della caduta di un grave. Poichè esso segue la legge: s = 12 gt2 , si può facilmente determinare quanto tempo il grave impiega a cadere per terra a partire da una certa altezza s con velocità iniziale nulla. I dati raccolti in molte prove ripetute permetteranno di ridurre l’incertezza legata alla misura sperimentale, affetta sempre da una certa dose di errore. Un esperimento di questo tipo, oltre a verificare le ipotesi, ci dice anche un’altra cosa e cioè che se ci poniamo in certe condizioni (un grave cade da una altezza fissa, si riduce al minimo l’effetto della resistenza dell’aria in modo da ridurre l’incertezza della misura, e così via), la realtà non può fare a meno di comportarsi seguendo determinate leggi. L’esperimento condotto è cioè di tipo deterministico, segue una legge ben precisa e verificabile ogni volta che si desidera, a meno delle inevitabili incertezze dovute alle non perfette condizioni pratiche. Si supponga ora di voler condurre un altro tipo di esperimento. Si vogliono misurare il numero di autovetture che attraversano un casello autostradale durante una giornata. In questo tipo di esperimento, come si capisce bene, una determinata ipotesi di lavoro come ad esempio che i giorni feriali sono più trafficati di quelli festivi, non permette di prevedere l’esito dell’esperimento stesso. La prova che si effettua inoltre darà un risultato diverso giorno per giorno. La prova si dice di tipo aleatorio. Per questa classe di esperimenti non è possibile quindi trovare una legge che permetta di predire l’esito dell’esperimento stesso. Tuttavia è possibile trovare una descrizione globale dell’esperimento che permetta cioè di predire, dopo numerose prove, che queste seguono comunque una certa regolarità statistica. Il risultato dell’esperimento singolo non è quindi mai prevedibile a priori, ma esso può essere inglobato in una teoria che, entro certi limiti, ne dà una previsione grossolana. Si supponga, per maggiore chiarezza, di volere osservare i risultati del lancio di un dado. Questo tipo di esperimento appartiene alla classe ora vista, cioè dà luogo ad un risultato che non può essere previsto. Tuttavia dopo il lancio dello stesso dado mille volte, può essere abbastanza ragionevole supporre che la faccia con il numero 6 si sarà presentata all’incirca 167 volte (⇠1000/6). Quindi se il risultato dell’esperimento dà 21
2.2. LE BASI DELLA TEORIA DELLE PROBABILITÀ
22
un valore che è ragionevolmente vicino a questo numero possiamo dire che questo risultato è prevedibile, e possiamo dire anche che il dado si è comportato seguendo le ipotesi iniziali, cioè che non fosse truccato e che tutte e sei le facce avessero la stessa probabilità di presentarsi. La teoria alla base dei fenomeni della natura che seguono leggi aleatorie è la teoria delle probabilità. Questa teoria è stata sviluppata da fisici e matematici come Bernoulli, Pascal e Laplace, durante il XVII e il XVIII secolo e inizialmente fu utilizzata per quantificare le vincite ai tavoli da gioco da gestori di casinò e giocatori d’azzardo. 2.2. Le Basi della Teoria delle Probabilità Vediamo ora come la teoria delle probabilità permette di modellare un esperimento aleatorio, in modo che si possano ricavare delle leggi applicabili all’esperimento stesso. Un elemento fondamentale della teoria è quello di ricavare tutti i possibili risultati che l’esperimento stesso è in grado di produrre. Per il lancio di un dado questo è piusttosto facile, dato che lo spazio campione dell’esperimento è costituito dai numeri {1, 2, 3, 4, 5, 6}. In altre situazioni lo spazio campione è più difficile da ottenere. Nell’esperimento descritto precedentemente, delle automobili che transitano da un casello autostradale durante una giornata, si può dire che il risultato è sicuramente un numero intero, zero compreso. Tuttavia è piuttosto difficile indicare il limite superiore di questo intervallo se non intervengono altre ipotesi di lavoro (come ad esempio potrebbero essere il tempo medio di transito, la velocità media delle autovetture sull’autostrada, e così via). P ROPOSITION 2.2.1. Lo spazio campione ⌦ rappresenta l’insieme dei possibili risultati di un esperimento aleatorio. Dato inoltre un certo esperimento, come quello delle auto al casello, possono interessare anche determinati gruppi di risultati. Ad esempio potrebbe essere interessante valutare il numero di automobili che transitano al casello in un’ora, oppure il numero di automobili che transita dalle 8.30 alle 11.30 e così via. Questi possibili risultati sono nient’altro che possibili sottoinsiemi dello spazio campione e sono detti eventi. Gli eventi devono però soddisfare determinate condizioni per potere essere definiti tali: ¯ • se A è un evento, anche il suo complemento rispetto allo spazio campione, A, è un evento; S • se A e B sono eventi, anche A B è un evento. Utilizzando queste due condizioni si può dimostrare anche che: T • l’intersezione A B di due eventi arbitrari, A e B è un evento (infatti si ha S T che A B = (A B)); S T • dato un evento A, anche A A¯ e A A sono eventi. Il primo rappresenta tutto lo spazio campione ⌦, il secondo rappresenta l’evento nullo detto anche evento impossibile.
2.2. LE BASI DELLA TEORIA DELLE PROBABILITÀ
23
Gli eventi di uno spazio campione costituiscono quindi una classe S cioè un insieme chiuso rispetto alle operazioni di unione e di intersezione. Un esperimento aleatorio è completamente caratterizzato se sono dati i seguenti tre elementi: i) la descrizione del suo spazio campione ⌦, ii) l’individuazione della classe degli eventi S, ed infine iii) la descrizione della legge di probabilità P (•), la legge che associa ad ogni evento di S la sua probabilità di presentarsi. La terna ⌦, S, P (•) è detta lo spazio delle probabilità. A volte l’esperimento aleatorio viene identificato con il suo spazio delle probabilità, cioè con la sua descrizione matematica astratta. 2.2.1. La probabilità. Varie definizioni ed interpretazioni sono state date alla probabilità. Secondo la teoria assiomatica moderna, dovuta al matematico Kolmogorov, dato un esperimento aleatorio con il suo spazio campione, la legge di probabilità è una corrispondenza che permette di associare ad ogni evento di S un numero reale che soddisfa i seguenti tre assiomi: • la probabilità di un evento arbitrario è sempre non negativa: P (A) 0; • La probabilità dell’evento certo è pari ad 1: P (⌦) = 1; • Dati due eventi mutuamente esclusivi, la probabilità T dell’evento unione S è pari alla somma delle probabilità dei singoli eventi:A B = ; ) P (A B) = P (A) + P (B) Da questi assiomi si ricavano alcune proprietà (quindi teoremi che si possono dimostrare a partire dagli assiomi): T HEOREM 2.2.2. Dato un evento A la probabilità dell’evento complementare A¯ è pari al complemento ad uno della probabilità di A: P (A) = 1 P (A). T HEOREM 2.2.3. L’evento nullo ha probabilità zero di verificarsi: P (;) = 0. T HEOREM 2.2.4. La probabilità di un evento A è sempre un numero reale compreso tra zero ed 1: 0 P (A) 1. T HEOREM 2.2.5. S Dati due eventi, A e B, la T probabilità dell’evento unione è espressa da: P (A B) = P (A) + P (B) P (A B). S S T S T S T S D IMOSTRAZIONE A B ⌦ = (A B) (A A) = (A A) T S T .S T= (A B) S T (A S A) (B A)S (BT A) = A (B A) T T S P (A TB) = SP (AT (B A). Tuttavia, essendoTB = B ⌦ = T B (A A) = = (B A) (B A). Quindi: P (B) = P (B A) + P (B A), da cui la tesi. ⇤ La probabilità intersezione di due eventi è anche detta probabilità congiunta, mentre le probabilità dei due eventi, prese separatamente, sono dette probabilità marginali. Data
2.2. LE BASI DELLA TEORIA DELLE PROBABILITÀ
24
una coppia di eventi, A e B con P (B) 6= 0, la probabilità di A condizionata all’evento B, indicata con P (A/B) è definita dalla relazione:
(2.2.1)
T P (A B) P (A/B) = P (B)
La probabilità di A, presa separatamente, è detta probabilità a priori, mentre la probabilità di A noto anche l’evento B, cioè P (A/B) è detta probabilità a posteriori. L’evento B condiziona l’evento A e quindi ne modifica la sua probabilità, una volta che esso si sia verificato. Da questa osservazione nasce la definizione stessa nella quale l’evento congiunto è rinormalizzato per la probabilità di B che funge quindi da nuovo spazio campione (da definizione infatti: P (B/B) = 1). E XAMPLE 2.2.6. Supponiamo di voler studiare l’esperimento aleatorio che modelli il lancio di un dado non truccato. Lo spazio campione, costituito dall’insieme dei possibili risultati, è dato da: ⌦ = {!1 , !2 , !3 , !4 , !5 , !6 } dove !i rapresenta il risultato della faccia i sima al termine dell’esperimento. La classe S di tutti i possibili eventi è costituita da 26 possibili valori, compresi ⌦ e ;. La legge di probabilità resta assegnata non appena si assegna una probabilità a ciascuno dei risultati dello spazio dei campioni !i . Poichè abbiamo ritenuto il dado non truccato e quindi è ragionevole supporre che in un lancio tutte le facce di un dado abbiano uguale possibilità di presentarsi, si può ritenere che:
(2.2.2)
P (!i ) =
1 6
A questo punto è possibile definire un qualsiasi evento e trovare la sua probabilità di occorrenza. Si voglia ad esempio determinare la probabilità che lanciando il dado, appaiano S numeri inferiori a 3. Questa probabilità è la probabilità che accada: P (A) = P (!1 !2 ). Poichè questi eventi sono disgiunti, la probabilità della loro unione è anche pari alla somma delle loro probabilità: P (A) = P (!1 ) + P (!2 ) = 16 + 16 = 13 . In casi semplici come questo, dove lo spazio dei campioni è finito ed è simmetrico (cioè vi è equiprobabilità di tutti i possibili risultati dello spazio campione ⌦), è possibile utilizzare la definizione classica di probabilità dovuta a Laplace. Questa definizione parte dall’osservazione dei casi favorevoli nell’insieme di tutti i casi possibili che si possono verificare. Detta allora N il numero di tutti i casi possibili ed NA quelli favorevoli all’evento A, la probabilità cercata è data dal rapporto:
2.2. LE BASI DELLA TEORIA DELLE PROBABILITÀ
(2.2.3)
P (A) =
25
NA N
L’ipotesi cruciale alla base di questa definizione sta nel fatto che tutti i risultati dello spazio campione hanno pari probabilità di verificarsi. Nell’ipotesi in cui non vi sia equiprobabilità dei risultati dello spazio campione la definizione precedente non è più adeguata e si ricorre allora ad un approccio di tipo sperimentale. Si supponga di effettuare un numero molto alto di lanci N e di collezionare il numero di volte che l’evento A si verifica, NA . All’aumentare di N si comincia a notare una certa regolarità nella relazione che esiste tra il numero di lanci e il numero di volte che A si verifica. La frequenza relativa con cui si verifica A, cioè: NA /N tende allora, per un numero di lanci molto elevato, alla probabilità, secondo la definizione di Von Mises:
NA N !1 N
(2.2.4)
P (A) = lim
Questa definizione, seppure non corrispondente alla visione moderna ( assiomatica) della teoria delle probabilità, ha il vantaggio di prescindere dalla simmetria (e quindi equiprobabilità) del problema in esame. Si osservi che la definizione di Von Mises non è in contrasto con quella assiomatica di Kolmogorov, dato che il rapporto tra due numeri positivi è sempre positivo. Se inoltre A è un sottinsieme di ⌦, accade sempre che NA N , e quindi che 0 P (A) 1. Inoltre si può osservare che, detti A e B due eventi disgiunti, e dette NA ed NB le loro occorrenze su un numero totale di esperimenti pari ad N , la probabilità dell’evento unione:
(2.2.5)
P (A
[
NA S B NA + NB = lim = P (A) + P (B) N !1 N !1 N N
B) = lim
e quindi gli assiomi di Kolmogorov sono verificati. P ROPOSITION 2.2.7. Due eventi A e B sono detti indipendenti se la probabilità marginale di A e la probabilità di A condizionata a B sono uguali, cioè se:
(2.2.6)
P (A) = P (A/B)
2.2. LE BASI DELLA TEORIA DELLE PROBABILITÀ
26
Partendo dalla definizione della probabilità condizionata, questo significa che:
(2.2.7)
T \ P (A B) P (A) = P (A/B) = ) P (A) · P (B) = P (A B) P (B)
I due eventi sono detti indipendenti quando la probabilità congiunta è pari al prodotto delle singole probabilità. L’indipendenza tra i due eventi è esplicata nel fatto che la probabilità dell’evento A è uguale a priori ed a posteriori dell’evento B. L’evento B quindi non ha alcuna influenza su A, cioè i due eventi sono tra loro indipendenti. Dalla definizione di probabilità condizionata nasce anche la seguente osservazione:
(2.2.8)
P (A/B) · P (B) = P (B/A) · P (A) ) P (A/B) =
P (B/A) · P (A) P (B)
nota anche con il nome di teorema (o formula) di Bayes. IL teorema di Bayes è noto anche con il nome di teorema delle probabilità totali. Si consideri infatti una certa partizione dello T spazio deiScampioni ⌦, fatto da N eventi disgiunti tra loro: B1 , B2 , ..., BN , con Bi Bj = ; e i Bi = ⌦. La probabilità di un dato evento A si può allora calcolare in base alla conoscenza delle probabilità condizionate di A con le Bi : (2.2.9) P (A) = P (A
\
⌦) = P (A
N \[
Bi ) = P (
i=1
N [
i=1
(A
\
Bi )) =
N X i=1
P (A
\
Bi )
da cui si ricava, ricordando la relazione che esiste tra la probabilità congiunta e quella condizionata:
(2.2.10)
P (A) =
N X i=1
P (A/Bi ) · P (Bi )
2.2. LE BASI DELLA TEORIA DELLE PROBABILITÀ
27
2.2.2. Esperimento composto. Si considerino ora due esperimenti aleatori differenti tra loro e caratterizzati dagli spazi campione ⌦1 ed ⌦2 . Si può pensare un esperimento composto come la contemporanea osservazione dei due esperimenti. Lo spazio campione sarà allora il prodotto cartesiano dei due spazi campione: ⌦1 ⇥⌦2 e gli elementi di questo spazio sono le coppie ordinate che si ottengono dalla combinazione di tutti i possibili risultati di ⌦1 con quelli di ⌦2 . I due esperimenti naturalmente possono fare riferimento a due esperienze uguali (ad esempio due lanci di dadi) o a due completamente differenti, come ad esempio il lancio di un dado e l’estrazione di una carta da un mazzo di 52 carte francesi. Sia ora A1 un evento del primo spazio campione ed A2 un evento del secondo. Si voglia studiare la probabilità dell’evento composizione dei due eventi A1 ed A2 , cioè: A = A1 ⇥ A2 . Se i due eventi fossero indipendenti è evidente che la probabilita dell’evento A è pari al prodotto delle due probabilità: P (A) = P (A1 ) · P (A2 ). Se invece i due esperimenti sono tra loro in qualche modo legati è necessario valutare il grado di correlazione dei due eventi e quindi la probabilità non è più pari al prodotto delle due probabilità. E’ ad esempio evidente che se si vuole stabilire la probabilità di un evento come l’estrazione di un numero T dispari da un lancio di un dado e di1 un4 asso da 1 un mazzo di carte, avremo:P (Adisp Aasso ) = P (Adisp ) · P (Aasso ) = 2 · 52 = 26 . Le considerazioni fatte per la composizione di due esperimenti si possono fare per la composizione di N qualunque esperimenti, ricordando però che in generale, dalla conoscenza delle leggi di probabilità dei singoli esperimenti non è possibile determinare la legge di probabilità dell’esperimento composto. In tale ambito ricade il problema delle prove ripetute ed indipendenti. Caso notevole è quello delle prove binarie ripetute ed indipendenti o prove di Bernoulli. E XAMPLE 2.2.8. Formula di Bernoulli. Si supponga di voler indagare sull’esperimento composto da n esperimenti uguali tra loro ed indipendenti. Ciascuno degli esperimenti dà luogo ad uno spazio dei campioni con due soli possibili risultati: !o ed !1 , con P (!o ) = p e P (!1 ) = 1 p. Un classico esempio è il lancio di n monete, o anche il lancio di una stessa moneta, purchè il risultato sia la composizione dei singoli lanci. Si costruisca ora l’evento A = !o si presenta k volte negli n esperimenti (o prove ripetute). La formula di Bernoulli (o binomiale) dice che:
(2.2.11)
P (A) = (
ove il coefficiente binomiale vale: (
n ) · pk · (1 k
n )= k
p)n
k
n! . k!(n k)!
1 1
Si ricordi che il modo con cui possono essere disposti k oggetti in n differenti posizioni, distinguendo i gruppi anche per l’ordine, è dato dal numero Dn,k = n · (n 1) · ... · (n k + 1), chiamato
2.3. VARIABILI ALEATORIE
28
2.3. Variabili Aleatorie Si consideri l’esperimento aleatorio costituito dal lancio di un dado. Sappiamo già che il suo spazio campione è costituito da tutti i possibili valori che possono essere ottenuti, e cioè i numeri da 1 a 6. Questi stessi numeri li potremmo ottenere anche con altri esperimenti aleatori (ad esempio un qualche esperimento che consideri i giorni della settimana lavorativi). Quello che si può osservare da un insieme di esperimenti di questo tipo è la comune cardinalità dello spazio campione, sebbene gli elementi dello spazio campione siano differenti. Se allora astraiamo i casi particolari che abbiamo ottenuto, è possibile numerare gli elementi (od i risultati) dello spazio campione, sino ad ottenere il valore associato a ciascuno dei possibili risultati. Quindi in questo modo l’esito del lancio di un dado diventa l’insieme dei numeri da 1 a 6, mentre l’esito di un qualche esperimento che coinvolga i giorni della settimana lavorativi diventa, ancora una volta, l’insieme dei numeri da 1 a 6. Abbiamo costruito quindi una quantità variabile a seconda del risultato dell’esperimento. A questa quantità è dato il nome di variabile aleatoria. Formalmente si può definire la variabile aleatoria come segue. P ROPOSITION 2.3.1. Dato un esperimento aleatorio avente come spazio campione ⌦, come classe degli eventi S e come legge di probabilità P (•), si definisce una corrispondenza che associ a ciascun risultato dello spazio ⌦ un unico numero reale. Tale corrispondenza tra l’asse reale e lo spazio ⌦ è detta variabile aleatoria se l’insieme dei risultati per i quali è verificata la disuguaglianza X(!i ) a è un evento, comunque si scelga il numero reale a. La variabile aleatoria si introduce ogni volta che il risultato di un esperimento aleatorio è un valore numerico, come ad esempio una misura. Per quanto preciso ed accurato possa essere lo strumento, ripetendo più volte un esperimento (anche deterministico!) si otterranno di volta in volta valori differenti, dovuti agli errori di misura. L’insieme delle misure ottenute rappresenta proprio una variabile aleatoria, per l’effetto di incertezza dovuto all’errore di misura. Rimane ora il problema di come trasferire la legge di probabilità alle variabili aleatorie. Vogliamo cioè essere in grado di stabilire qual è la probabilità di un evento, quando questo sia definito sull’asse dei numeri reali e non nella classe degli eventi S. In particolare, dati due numeri reali a e b, con a < b, ha interesse determinare qual è disposizioni di n oggetti in classe k. Le disposizioni di n oggetti in classe n, cioè il modo con cui possono essere disposti n oggetti distinguendoli solo per l’ordine che assumono nelle n posizioni è detto permutazioni in classe n e vale: Pn = n!. Infine si dicono combinazioni di n oggetti in classe k il modo con cui è disporre k oggetti in n differenti posizioni, non distinguendoli per l’ordine. E’ quindi il numero di Dn,k✓diviso ✓ disposizioni ◆ ◆ il n n n! numero delle permutazioni di k oggetti: Cn,k = Dn,k /Pk = k!(n k)! = . Il numero è k k detto anche coefficiente binomiale.
2.3. VARIABILI ALEATORIE
29
la probabilità che la variabile aleatoria sia compresa tra a e b, cioè P (a < X b). Estendendo il linguaggio usato solo nell’ambito degli esperimenti aleatori, si definirà evento anche l’intervallo di valori sull’asse reale compreso tra a e b, dato che, per la definizione di variabile aleatoria, l’intervallo ]a, b] è associabile ad un dato evento di S. Questa operazione di “determinazione” della legge di probabilità di un dato evento definito direttamente sull’asse reale diventa immediato se si introduce una funzione, la funzione distribuzione di probabilità: FX (x), definita come segue:
(2.3.1)
FX (x) = P (X x)
dove x è un numero reale ben definito. La funzione di distribuzione di probabilità è una funzione che associa ad ogni numero reale il valore della probabilità dell’evento identificato dall’intervallo X x. Per FX (x) valgono le seguenti proprietà:
(1) 0 FX (x) 1 (2) Il suo valore limite, per x ! +1 vale 1: limx!+1 FX (x) = FX (+1) = P (X +1) = 1 (3) Il suo valore limite per x ! 1 vale 0: limx! 1 FX (x) = FX ( 1) = P (X 1) = 0 (4) La funzione è monotona non decrescente, cioè se x1 < x2 ) FX (x1 ) FX (x2 ) (5) La funzione è continua da destra, cioè FX (x) = limh!0+ FX (x + h) (6) Se la funzione di distribuzione presenta una discontinuità di prima specie nel punto x¯, allora la differenza tra il limite a destra e quello a sinistra è proprio il valore della probablità dell’evento in X = x¯: P (X = x¯) = limh!0+ FX (¯ x+ h) limh!0 FX (¯ x + h) (7) La probabilità dell’evento a < X b può essere calcolata tramite la relazione: FX (b) FX (a).
Le variabili aleatorie possono essere suddivise in tre classi: variabili aleatorie continue, variabili aleatorie discrete e variabili aleatorie miste. Una variabile aleatoria P è detta discreta se la sua funzione di distribuzione è continua a tratti: FX (x) = k P (X = xk )·u(x xk ). Tenendo conto delle ultime due proprietà viste precedentemente questo significa che la variabile aleatoria assume valore solo in un numero discreto (cioè con cardinalità pari a quella dei numeri naturali) di valori, e non continuo. Le posizioni in cui questo accade sono proprio le xk . In queste posizioni la probabilità dell’evento è “concentrata” nel valore xk : pk = P (X = xk ). Le pk sono dette anche masse di probabilità. Se invece abbiamo a che fare con una distribuzione di probabilità continua, allora l’insieme dei valori che può assumere la funzione FX (x) si distribuisce con continuità
2.4. DENSITA’ DI PROBABILITA’
30
sull’asse dei numeri reali. L’insieme degli eventi a cui è associata tale v.a. è un infinito di cardinalità pari a quello dei numeri reali, quindi la probabilità che la variabile aleatoria assuma un certo valore x è un infinitesimo, tende cioè a zero. Una variabile aleatoria mista è una variabile aleatoria continua quasi ovunque, tranne che per un numero finito (o un’infinità numerabile) di punti per i quali presenta discontinuità. 2.4. Densita’ di Probabilita’ Una descrizione alternativa di una variabile aleatoria è data anche della funzione densità di probabilità, fX (x), definita dalla relazione:
(2.4.1)
fX (x) =
dFX (x) dx
La relazione inversa è invece:
(2.4.2)
FX (x) =
Z
x
fX (x)dx 1
La funzione densità di probabilità è ovviamente non negativa, discendendo dalla derivazione di una funzione monotona non descrescente, inoltre la sua area vale sempre 1: Z
(2.4.3) .
+1
fX (x)dx = 1 1
Il nome di densità di probabilità discende dalla sua stessa definizione. Infatti si supponga di considerare un intervallino molto piccolo: [x, x + x] e di voler calcolare la probabilità che X capiti in quell’intervallo: P (x < X x + x). Per definizione si ha:
P (x < X x + (2.4.4)
x) =
fX (x) =
Z
x
x+ x
fX (x)dx ⇡ fX (x) ·
P (x < X x + x
x)
x)
2.4. DENSITA’ DI PROBABILITA’
31
cioè la funzione densità di probabilità in un punto rappresenta il valore della probabilità che si può calcolare in un intervallino nell’intorno di quel punto diviso l’ampiezza di quell’intervallino. La sua misura è quindi una misura di densità, cioè di come la probabilità si addensa attorno ai vari valori che la variabile aleatoria può assumere sull’asse reale. Poichè la funzione distribuzione di probabilità può essere continua, discreta o mista, anche per la densità di probabilità dovremmo distinguere i vari casi. Quando la funzione di distribuzione è discreta o mista, essa è costituita da un insieme (anche infinito) di discontinuità di prima specie. Conseguentemente in questi punti la funzione non è, a rigore, derivabile e quindi non si potrebbe definire la densità di probabilità. Tuttavia di una variabile aleatoria discreta è stata data una descrizione in termini di distribuzione di probabilità che introduceva l’uso dei gradini. Difatti il gradino dà informazione del “salto” di probabiltà che è avvenuto in un certo punto a causa della presenza di una certa massa di probabilità. Una funzione di distribuzione di probabilità discreta è rappresentata in figura (2.4.1) F(x)
x
xi
F IGURA 2.4.1. Distribuzione di probabilità di una variabile aleatoria discreta Se allora si considera la descrizione per gradini è possibile introdurre, come densità di probabilità, una densità che sia costituita da impulsi nelle posizioni delle discontinuità e sia uguale a zero altrove. Gli impulsi infatti rappresentano, nella descrizione della densità di probabilità, un valore “concentrato” e non distribuito della probabilità, un valore cioè che assume una densità infinita, dovendo essere definita in un solo punto matematico (vedi figura (2.4.2)). Da un punto di vista della rappresentazione matematica si ha: (2.4.5) FX (x) =
X k
P (X = xk ) · u(x
xk ) ) fX (x) =
X k
P (X = xk ) · (x
xk )
2.5. OPERAZIONI SULLA VARIABILE ALEATORIA
32
F(x)
xi
x
F IGURA 2.4.2. Densità di probabilità di una variabile aleatoria discreta
2.5. Operazioni sulla Variabile Aleatoria Nei problemi che coinvolgono una variabile aleatoria può essere comune l’esigenza di dover effettuare alcune operazioni su di essa. In particolare, data una variabile aleatoria X, si pone il problema di come determinare le caratteristiche della variabile aleatoria ottenuta come Y = g(X), dove g(•) è una funzione deterministica definita sull’asse reale (e dotata di determinate proprietà). Un esempio può essere dato dalla tensione di rumore ai capi di una resistenza. Questa quantità può essere descritta mediante una variabile aleatoria, X, dato che il fenomeno che sta alla base della tensione di rumore è un fenomeno di tipo statistico. Se ora si vuole misurare la potenza di rumore dissipata sul resistore, poichè la potenza su un resistore è sempre pari a PR = x2 /R, sarà anch’essa una variabile aleatoria, ottenuta come prodotto di una costante (il valore della resistenza) per il quadrato di una quantità aleatoria. Se dunque X varia in modo imprevedibile, ma con una certa legge di probabilità, ci si può chiedere come varia la potenza PR . Questa nuova variabile aleatoria si può ottenere trasformando la variabile aleatoria originaria. Sia y = g(x). Si vuole determinare: FY (y) = P (Y y) = P (g(X) y). Si devono allora prendere tutti i valori di x, per i quali risultaRg(x) y. Detto DY questo insieme: DY = {x 3 g(x) y}, si ha che: FY (y) = DY fX (x)dx. Da questa si Y (y) ricava poi la densità di probabilità: fY (y) = dFdy . Si supponga in particolare che la funzione g(•) sia monotona strettamente crescente. In tal caso è possibile definire la sua inversa: g 1 (•) ed è immediata la relazione per determinare la densità di probabilità di Y :
FY (y) = P (Y y) = P (g(X) y) = P (X g 1 (y)) = FX (g 1 (y)) )
2.6. PARAMETRI STATISTICI DI UNA VARIABILE ALEATORIA
(2.5.1)
33
dg 1 (y) fX (g 1 (y)) fY (y) = fX (g (y)) · = 0 1 dy g (g (y)) 1
se la funzione è monotona strettamente decrescente invece si ha: (2.5.2)
fY (y) =
dg 1 (y) = dy
fX (g 1 (y)) ·
fX (g 1 (y)) g 0 (g 1 (y))
La relazione generale si può quindi riassumere nella seguente formula: (2.5.3)
fY (y) =
Z
dY
fX (x) dx |g 0 (x)|
dove dY è l’insieme di tutti i valori x che sono soluzioni dell’equazione g(x) = y. Naturalmente l’insieme delle soluzioni di g(x) = y può anche essere l’insieme vuoto, nel qual caso si ha ovviamente: fY (y) = 0. Il caso in cui invece risulta: g 0 (x) = 0 è trattato differentemente a seconda che anche fX (x) sia nullo oppure no. Nel primo caso sono costanti sia FX (x) che g(x) quindi risulterà: P (Y = y) = P (X 2 I) con I intervallo delle x in cui g(x) assume valore costante. Nel secondo caso fY (y) tenderà ad un valore infinito (cioè ad un impulso). 2.6. Parametri Statistici di una Variabile Aleatoria Nelle situazioni reali non è sempre possibile avere a disposizione tutte le conoscenze necessarie per caratterizzare una variabile aleatoria. Il massimo di informazione che si può trarre da un esperimento aleatorio è la determinazione della sua funzione densità di probabilità. Quando questa funzione non si conosce è comunque possibile determinare alcuni parametri statistici che, seppure non permettono una conoscenza completa della variabile aleatoria, permettono di estrarne qualche proprietà. Il più importante di questi parametri statistici è il valore atteso o media, µx , definito dalla seguente relazione:
(2.6.1)
µX =
Z
+1
x fX (x)dx 1
e rappresenta una sorta di “baricentro” della funzione densità di probabilità (si confronti a tale proposito la media con le definizioni, meno note di moda e mediana). Se la variabile aleatoria è discreta la relazione precedente, a causa della presenza degli
2.6. PARAMETRI STATISTICI DI UNA VARIABILE ALEATORIA
34
impulsi, diventa una sommatoria:
(2.6.2)
µX =
Z
+1
x fX (x)dx = 1
X k
pk ·
Z
+1
x (x
xk )dx =
1
X
xk pk
k
L’operazione precedente di media può essere scritta molto più facilmente introducendo l’operatore di aspettazione (o di valor medio):
(2.6.3)
E[g(X)] =
Z
+1
g(x) fX (x)dx 1
che nel caso della media assume la semplice relazione: µX = E[X]. L’operatore di valor medio gode della proprietà di linearità, dato che è definito attraverso un’operazione di integrazione: E[a · g(X) + b · h(X)] = a · E[g(X)] + b · E[h(X)]. Inoltre, si supponga di avere una variabile aleatoria Y ottenuta tramite trasformazione della v.a. X attraverso la funzione y = g(x). Senza passare attraverso il calcolo (a volte difficoltoso) della densità di probabilità di Y nota quella di X è possibile determinare il valor medio di Y :
(2.6.4)
µY = E[Y ] = E[g(X)] =
Z
+1
g(x) fX (x)dx 1
Questo risultato è noto con il nome di teorema del valor medio. Due v.a. possono possedere lo stesso valor medio ed essere molto differenti tra loro. In particolare è possibile che le v.a. abbiano una densità di probabilità che sia in un caso molto “stretta”, nell’altro molto “larga”. Si confrontino le due densità in figura (2.6.1). Questo fatto suggerisce che, seppure con una media uguale, le due v.a. hanno comportamenti molto differenti tra loro. Nel caso della v.a. con densità di probabilità molto larga è più probabile che capitino valori della v.a. lontani dal valor medio, cosa invece meno probabile nel secondo caso. E’ possibile allora quantificare questo fatto statistico introducendo un nuovo parametro, la varianza, che è definita come segue:
(2.6.5)
2 X
= E[(X
2
µX ) ] =
Z
+1
(x 1
µX )2 fX (x)dx
2.6. PARAMETRI STATISTICI DI UNA VARIABILE ALEATORIA
35
2 1.8 1.6 1.4 1.2 1 0.8 0.6 0.4 0.2 0 −6
−4
−2
0
2
4
6
F IGURA 2.6.1. Confronto tra due densità di probabilità con la stessa media
La radice quadrata della varianza è detta deviazione standard e rappresenta una misura di quanto “dispersa” sia la densità di probabilità attorno alla media (più grande è la deviazione standard, maggiore la dispersione). Una v.a. che non presenti affatto dispersione attorno alla media (cioè con X = 0) sarebbe tutta concentrata sulla media, cioè avrebbe una densità di probabilità pari ad un impulso di area unitaria posto sulla posizione della media (ovviamente in questo caso non si può parlare di densità di probabilità vera e propria, dato che i possibili valori collassano su unico valore certo). Il valore quadratico medio (chiamato a volte anche potenza) è definito come segue:
(2.6.6)
m2X
2
= E[X ] =
Z
+1
x2 fX (x)dx 1
L’operatore E[•] è un operatore lineare, quindi è possibile trovare la relazione che lega tra loro varianza e potenza:
2 X
= E[(X
(2.6.7)
µX )2 ] = E[X 2
= m2X
2XµX + µ2X ] = E[X 2 ]
2µ2X + µ2X = m2X
µ2X
2E[X] · µX + µ2X =
2.7. ESEMPI DI VARIABILI ALEATORIE
36
2.7. Esempi di Variabili Aleatorie 2.7.1. Variabile aleatoria uniforme. Una variabile aleatoria uniforme presenta una densità di probabilità costante in tutto l’intervallo in cui è definita, [a, b] e valore nullo al di fuori di questo. Conseguentemente, dato che l’area sottesa dalla densità di probabilità deve essere unitaria, l’altezza di tale valore costante è: 1/(b a). La densità di probabilità si può quindi scrivere come:
(2.7.1)
fX (x) =
1 b
a
rect(
x b
b+a 2
a
)
La v.a. non può assumere mai valori al di fuori dell’intervallo [a, b], ma dentro di questo intervallo la probabilità di occorrenza di tutti i possibili valori è uguale (è come se fosse un dado “continuo”, dotato cioè di infinite facce). La funzione di distribuzione, essendo la funzione integrale della densità di probabilità avrà comportamento a “rampa” nell’intervallo in cui la funzione di densità è non nulla:
(2.7.2)
FX (x) =
8 < 0 :
x a b a
1
xb
Gli andamenti della funzione di densità e di quella di distribuzione sono mostrati in figura (2.7.1).
1
1/(b−a)
F IGURA 2.7.1. Densità e distribuzione della v.a. uniforme Si possono calcolare facilmente i suoi parametri statistici:
2.7. ESEMPI DI VARIABILI ALEATORIE
(2.7.3)
µX =
Z
b
x·
a
2 X
(2.7.4) (2.7.5)
1 b
a
(
b3
a3
b
=
Z
a
b
x2 ·
a
1 b
a
b
a
dx =
b+a 2
b+a 2 1 ) · dx = 2 b a
(x
(b + a) · (b2 2
3 m2X
=
Z
1
37
a2 )
dx =
+
(b2 + a2 + 2ab)(b 4
a)
)=
(b
a)2 12
b 3 a3 a2 + ab + b2 = 3(b a) 3
2.7.2. Variabile aleatoria esponenziale. Una variabile aleatoria molto utilizzata è la cosiddetta variabile aleatoria continua esponenziale unilatera o semplicemente esponenziale, così definita:
(2.7.6)
fX (x) =
1 x · exp( ) · u(x) ⌘ ⌘
dove u(x) è il gradino unitario con discontinuità in x = 0. Il significato del parametro reale e positivo ⌘ sarà chiaro in seguito, quando si vedrà uno dei più comuni utilizzi della v.a. esponenziale, cioè nei problemi di affidabilità e calcolo del rischio. La distribuzione di probabilità esponenziale vale:
(2.7.7)
FX (x) =
Z
x
0
1 x · exp( )dx = [1 ⌘ ⌘
exp(
x )] · u(x) ⌘
ed entrambe sono illustrate in figura (2.7.2). I suoi parametri statistici valgono:
(2.7.8)
µX =
Z
+1
0
(2.7.9)
m2X
=
Z
0
x·
+1
x2 ·
1 x · exp( )dx = ⌘ ⌘ ⌘ 1 x · exp( )dx = 2⌘ 2 ⌘ ⌘
2.7. ESEMPI DI VARIABILI ALEATORIE
38
3 2.5 2 1.5 1 0.5 0
0
0.5
1
1.5
2
F IGURA 2.7.2. Densità e distribuzione della v.a. esponenziale Z
+1
1 x · exp( )dx = ⌘ 2 ⌘ ⌘ 0 La v.a. esponenziale è spesso utilizzata (in ambito telecomunicazionistico) nella seguente forma: (2.7.10)
(2.7.11) dove
2 X
=
(x
fX (x) =
⌘)2 ·
· exp(
x) · u(x)
= 1/⌘ assume il significato di rate della v.a. esponenziale.
2.7.3. Variabile aleatoria di Poisson. La variabile aleatoria di Poisson è una v.a. discreta con densità di probabilità:
(2.7.12)
fZ (z) =
+1 X n=0
e
n ⇤⇤
n!
(z
n)
dove il parametro ⇤ caratterizza la v.a. discreta. La v.a. di Poisson assume valori di probabilità (di massa) differenti da zero solo per valori interi e non negativi. La variabile aleatoria di Poisson e quella esponenziale sono in realtà legate tra loro, come si vedrà in seguito. Esse modellano bene fenomeni come il conteggio del numero di clienti che paga ad una cassa di un supermercato nell’unità di tempo o il numero di automobili che transita ad un casello autostradale o il numero di elettroni che transita attraverso una giunzione np. La funzione di distribuzione essendo l’integrale della fZ (z) precedente, è molto semplice:
2.7. ESEMPI DI VARIABILI ALEATORIE
(2.7.13)
+1 X
FZ (z) =
e
n ⇤⇤
n!
n=0
u(z
39
n)
dovendo integrare solo la variabile z. Un andamento della massa di probabilità per ⇤ = 3 è mostrato in figura (2.7.3). 0.25
0.2
0.15
0.1
0.05
0
0
2
4
6
8
10
12
F IGURA 2.7.3. Densità e distribuzione della v.a. di Poisson I suoi parametri statistici sono:
(2.7.14) µZ =
Z
+1
z·
0
m2Z (2.7.15) +1 X ⇤ e · n=1
(2.7.16)
=
Z
0
+1 X
e
n=0
+1 2
z ·
n ⇤⇤
n!
+1 X
e
n=0
⇤n (n 1+1) = ⇤e (n 1)!
⇤
2 Z
(z
n)dz =
+1 X
e
n ⇤⇤
n=0
n ⇤⇤
n!
(z
n)dz = e
n!
⇤
+1 X ⇤n 1 · (n 1)+e (n 1)! n=2
= m2Z
·
n=e
⇤
+1 X ⇤n n=0
⇤
n!
·
+1 X ⇤n n=1
n!
n=⇤
n2 =
+1 X ⇤n 1 ⇤· = ⇤2 +⇤ (n 1)! n=2
µ2Z = ⇤
Quindi per la v.a. di Poisson il parametro caratteristico ⇤ rappresenta sia il valor medio sia la varianza.
2.7. ESEMPI DI VARIABILI ALEATORIE
40
2.7.4. Variabile aleatoria di binomiale. Considerato un esperimento che conduce a due soli possibili risultati (successo, con probabilità p e insuccesso, con probabilità 1 p), la variabile aleatoria binomiale (o di Bernoulli) conta il numero di successi accaduti in n esperimenti aleatori di questo tipo indipendenti tra loro: ✓ ◆ n P (X = k) = pk (1 p)n k k = 0, ..., n k Questa v.a. è discreta, quindi hanno ovvia formulazione sia la distribuzione sia la densità di probabilità. La media vale: ✓ ◆ n X n µX = k pk (1 k
n k
p)
=
k=0
=
n X
(k
k
n(n 1)! ppk 1 (1 k(k 1)!(n k)!
◆
pk (1
k=1
la varianza vale invece: 2 X
n X
2
np)
k=0
✓
n k
p)n
k
= np(1
p)n
k
= np
p)
2.7.5. Variabile aleatoria geometrica. Considerati n esperimenti aleatori indipendenti di Bernoulli la v.a. geometrica conta qual è il numero di successi da osservare prima di registrare il primo insuccesso: P (X = k) = pk (1 p) k = 0, ..., 1 La media vale: 1 X p µX = kpk (1 p) = 1 p k=0 la varianza vale invece: 2 X
=
1 ✓ X k=0
k
p 1
p
◆2
pk (1
p) =
p (1
p)2
sebbene la determinazione attraverso la formula riportata risulti alquanto difficoltosa. 2.7.6. Variabile aleatoria binomiale negativa e ipergeometrica. La variabile aleatoria binomiale negativa o di Pascal conta il numero di successi che si devono collezionare in una serie di prove ripetute ed indipendeti di Bernoulli prima di osservare un numero di insuccessi complessivamente pari ad m, con m intero positivo, zero compreso: ✓ ◆ n+m 1 P (X = n) = pn (1 p)m 1 (1 p) m 1 Il valore medio è pari a: µX = m 1 p p . Infine la variabile aleatoria ipergeometrica si introduce in una particolare classe di esperimenti detti senza rimessa (o senza rimescolamento). Si supponga, per rendere
2.7. ESEMPI DI VARIABILI ALEATORIE
41
chiara l’idea con un esempio, di avere un lotto di N oggetti di cui D difettosi. Si supponga ora di pescare da questo lotto un numero di oggetti n senza rimessa (cioè senza rimetterli dentro dopo aver osservato di quale oggetto si tratti). Detti k gli oggetti difettosi tra gli n pescati, la v.a. ipergeometrica permette di valutare la probabilità di k (numero compreso tra 0, ..., n):
P (X = k) =
✓
D k
◆✓
N D n k ✓ ◆ N n
◆
2.7.7. Derivazione e significato delle v.a. esponenziale e di Poisson. La v.a. esponenziale e quella di Poisson sono legate allo stesso significato fisico che è quello dell’attesa di un evento. In un processo di Poisson la casualità è affidata al tempo di arrivo di un certo evento. In generale nei processi di Poisson siamo interessati da vari fenomeni: (1) osservare il numero di eventi in un certo intervallo di tempo fissato; (2) il tempo di interarrivo, cioè il tempo che intercorre tra l’arrivo di due eventi successivi; (3) il tempo di attesa, cioè il tempo che occorre affinchè arrivi il primo evento a partire da un istante iniziale di osservazione. I tre tipi di fenomeni sono riassunti nella figura (2.7.4), dove le crocette rappresentano gli arrivi di un certo evento sull’asse temporale.
1) x 0
2) x
x
x
3) x
x 0
F IGURA 2.7.4. Rappresentazione grafica dei tre fenomeni descritti Per poter ricavare la distribuzione di un processo poissoniano si fanno alcune ipotesi semplificative: (1) fissato un intervallo T e suddividendo questo intervallo in n (con n grande) intervallini piccoli di durata T , T = n · T , la probabilità che un evento
2.7. ESEMPI DI VARIABILI ALEATORIE
42
capiti in un intervallino è pari ad una v.a. di Bernoulli: ⇢ P (N ( T ) = 1) = p P (N ( T ) = 0) = 1 p si esclude la probabilità che in un singolo intervallino capiti più di un evento (2) Gli arrivi in intervallini diversi sono indipendenti tra loro. Calcoliamo ora qual è la probabilità che in un dato intervallo finito T capitino k eventi: Pn (N (T ) = k). In base alle formule viste per la v.a. di Bernoulli si ha: n P (N (T ) = k) = ( )pk (1 p)n k con n numero totale di intervallini in cui si può k pensare suddiviso l’intervallo T . Sia ora ⇤ un parametro costante, tale che si possa scrivere: ⇤T = np = ↵, così che, quando il numero di intervallini tende ad infinito, la probabilità che un evento capiti in un dato intervallino vada a zero: n ! 1 ) p ! 0. La probabilità diventa allora:
P (N (T ) = k) = lim Pn (N (T ) = k) = lim ( n!1
= lim ( n!1
(2.7.17)
↵ n n ↵ k )( ) (1 ) k n n =
k
=
n!1
n k )p (1 k
↵k n · (n 1) · ... · (n · lim k! n!1 nk · (n k)!
↵k · lim (1 k! n!1
k)!
p)n
·(1
k
=
↵ n ↵ ) ·(1 ) n n
k
↵ n ↵k ) = · exp( ↵) n k!
Si osservi che se si pone T = 1 allora la P (N (1) = k) coincide con la distribuzione di Poisson trovata nel par. 2.7.3, che a questo punto rappresenta la probabilità che nell’unità di tempo capitino k eventi. La probabilità che nell’unità di tempo non capitino affatto eventi vale: P (N (1) = 0) = exp( ⇤). Calcoliamo ora il tempo di attesa, cioè il tempo che bisogna attendere affinchè capiti il primo evento a partire da un instante iniziale di osservazione. Se è x l’istante in cui si vuole valutare la v.a., distribuzione di probabilità della v.a. tempo di attesa può essere espressa anche come: F⌧ (x) = P (⌧ x) = 1 P (⌧ > x). Ma P (⌧ > x) è anche la probabilità che sino ad x non sia capitato alcun evento: P (⌧ > x) = exp( ⇤x). Quindi:
(2.7.18)
F⌧ (x) = 1 e ⇤x f⌧ (x) = ⇤e ⇤x
=
2.7. ESEMPI DI VARIABILI ALEATORIE
43
che, confrontata con le (2.7.6) e (2.7.7) dà significato alla v.a. esponenziale, purchè si ponga: ⇤ = ⌘1 . Si supponga ora che, a partire da un certo istante in cui è capitato un evento, si voglia determinare quale sarà la probabilità che sia ⌧ il tempo di arrivo dell’evento successivo. Questa probabilità di arrivo, detta tempo di interarrivo si può calcolare facilmente a partire dalle considerazioni fatte precedentemente. Infatti, poichè gli eventi sono indipendenti tra loro, l’occorrere di un evento ad un certo istante (quello nel quale noi poniamo t = 0) non genera alcuna dipendenza futura sull’evento successivo. Ne consegue che la distribuzione e la densità di probabilità del tempo di interarrivo sono uguali a quelle calcolate per il tempo di attesa. La variabile aleatoria esponenziale esprime cioè la mancanza di memoria di un sistema. 2.7.8. Variabie aleatoria gaussiana. La variabile aleatoria di Gauss detta anche v.a. normale, o a campana, emerge nell’esperienza dell’umanità come una delle più ampie generalizzazioni della filosofia naturale. Essa serve come strumento guida in ricerche della scienza, della medicina e dell’ingegneria. E’ uno strumento indispensabile per l’analisi e l’interpretazione dei dati fondamentali ottenuti dall’osservazione e dall’esperimento.2 Moltissimi fenomeni naturali si modellano statisticamente, in mancanza di altre informazioni, come se seguissero una variabile aleatoria gaussiana. Inoltre, come verrà dimostrato più avanti con il teorema del limite centrale, la v.a. gaussiana si può sempre considerare una generalizzazione di altre v.a. quando il numero di elementi presenti diventa molto grande. La densità di probabilità della v.a. gaussiana è:
(2.7.19)
1 (x µ)2 fX (x) = p exp( ) 2 2 2⇡
dove, come si può dimostrare, i parametri µ e 2 sono rispettivamente il valor medio e la varianza della v.a. La densità di probabilità gaussiana si estende su tutto l’asse dei numeri reali, ed è simmetrica rispetto al suo valor medio µ. La v.a. gaussiana è indicata anche con @(µ, 2 ), dato che la media e la varianza sono sufficienti per caratterizzarla completamente. La gaussiana standard è quella con densità di probabilità @(0, 1), cioè:
(2.7.20)
2
1 x2 p fXN (x) = exp( ) 2 2⇡
J. Gleick: “Caos: la nascita di una nuova scienza”, ed. Bur.
2.7. ESEMPI DI VARIABILI ALEATORIE
44
Essa è particolarmente importante poichè si può facilmente vedere che una gaussiana qualunque @(µ, 2 ) può essere ottenuta come trasformazione lineare della gaussiana standard: X = · XN + µ. Infatti: fX (x) =
1
· fXN (
x
µ
1 (x µ)2 ) = p exp( ) 2 2 2⇡
La funzione di distribuzione della gaussiana non può essere espressa in forma chiusa. A tale proposito si introduce la funzione di distribuzione della gaussiana standard:
(2.7.21)
XN (x)
=
Z
x 1
1 z2 p exp( )dz 2 2⇡
Questa funzione è calcolata con metodi numerici e spesso si danno anche valori tabulati. Talvolta si usa anche la funzione Q(x) = 1 (x). Nota la funzione di distribuzione standard è possibile calcolare la funzione di distribuzione per una normale qualunque @(µ, 2 ): X (x) = P (X x) = P ( XN + µ x) = XN ( x µ ). Quindi, ad esempio, se si vuole conoscere la probabilità che la variabile gaussiana assuma valori in un intervallo [a, b], si ottiene: (2.7.22) .
P (a < x b) = FX (b)
FX (a) =
N(
b
µ
)
N(
a
µ
)
Molte volte nei calcolatori si ha a disposizione, direttamente implementata, la funzione di distribuzione standard. Quando questa non è presente, si hanno le funzioni errore ed errore complementare (error function e complementary error function):
(2.7.23) (2.7.24)
2 erf (x) = p ⇡ erf c(x) = 1
Z
x
e
z2
dz
0
2 erf (x) = p ⇡
Z
+1
e
z2
dz
x
Quando si hanno a disposizione solo la funzione errore o la sua complementare si può ricavare la funzione di distribuzione standard da quest’ultima: (x) = 12 (1+erf ( px2 )), e la funzione Q(x) = 12 erf c( px2 ). Da questa relazione si può ricavare facilmente la
2.8. VARIABILI ALEATORIE CONDIZIONATE
45
probabilità che una gaussiana assuma valori nell’intervallo [a, b]: P (a < x b) = b µ a µ a µ b µ 1 [erf ( p ) erf ( p )] = 12 [erf c( p ) erf c( p )]. Nelle figura (2.7.5) sono 2 2 2 2 2 riportate la densità di probabilità gaussiana con la funzione di distribuzione e la Q(x), in figura (2.7.6) è riportata invece la funzione errore e la sua complementare. 1
Q(x)
0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 −4
−3
−2
−1
0
1
2
3
4
F IGURA 2.7.5. Densità, distribuzione e funzione Q(x) per la v.a. gaussiana
2
erfc(x) 1.5
erf(x)
1 0.5 0 −0.5 −1 −4
−3
−2
−1
0
1
2
3
4
F IGURA 2.7.6. Funzione errore e funzione errore complementare 2.8. Variabili Aleatorie Condizionate La funzione di distribuzione della probabilità, FX (x) passa attraverso la definizione di un evento, di cui la funzione ne rappresenta la probabilità: FX (x) = P (X x) = P (A), dove l’evento A è l’evento che la v.a. assuma valori minori od uguali ad X. Il verificarsi di un evento però può essere anche influenzato dal verificarsi o meno di un altro evento B avente probabilità non nulla di accadere, P (B). Ha quindi senso porsi il problema del calcolo di una funzione di distribuzione condizionata dall’occorrere dell’evento B. Tale funzione di distribuzione della v.a. X, indicata con FX/B (x/B),
2.9. APPLICAZIONI NOTEVOLI
46
vale ovviamente:
(2.8.1)
FX/B (x/B) =
P (A, B) P (X x, B) = P (B) P (B)
da cui si può definire anche la densità di probabilità:
(2.8.2)
fX/B (x/B) =
dFX/B (x/B) dx
Le funzioni di distribuzione e di densità di probabilità godono di tutte le proprietà viste finora e valide per le funzioni e distribuzioni non condizionate. 2.9. Applicazioni notevoli 2.9.1. Trasformazione di una variabile aleatoria. Schematizzazione del guasto di un circuito elettrico. Si supponga di avere il semplice circuito elettrico riportato in figura (2.9.1). Il generatore di tensione sia collegato alla serie RC all’istante t = 0. Il resistore R abbia un tempo di guasto aleatorio X, in corrispondenza del quale esso interrompe il circuito. Questo tipo di fenomeno, cioè l’istante in cui interrompe il circuito, si può modellare (per quanto detto in par. 2.7.7) come una v.a. esponenziale con parametro (scelto arbitrariamente) pari a 2↵ = 2RC:
(2.9.1)
fX (x) =
t=0
1 x exp( ) · u(x) 2↵ 2↵
t=X
R
C Vo
F IGURA 2.9.1. Schema del circuito RC con un guasto in t = X.
2.9. APPLICAZIONI NOTEVOLI
47
Si vuole determinare la densità di probabilità fV (v) della v.a. V che rappresenta la tensione ai capi del condensatore dopo che è avvenuto il guasto al resistore R. Il guasto al resistore si può schematizzare come l’interruzione del circuito e il conseguente mantenimento della tensione sul condensatore (qui supposto ideale). Poichè non si conosce l’istante in cui il guasto avverrà, anche la tensione che verrà mantenuta ai capi del condensatore è una quantità statistica, cioè ignota a priori, di cui però è possibile determinare la probabilità che assuma un certo valore. E’ sufficiente a tale proposito determinare la legge che lega il tempo alla tensione ai capi del condensatore: v(t) = Vo [1 exp( t/↵)] · u(t). Ponendo t = X, segue: v(X) = Vo [1 exp( X/↵)] · u(X). Conosciamo quindi la legge di trasformazione e la densità di probabilità di X. Si deve quindi applicare quanto riportato nel par. 2.5:
(2.9.2)
fV (v) =
fX (x) v 0 (x)
dove x è la quantità che soddisfa l’equazione v = v(x). Poichè la legge v(t) è perfettamente invertibile nell’intervallo [0, Vo ], solo in questo intervallo avrà senso definire la densità di probabilità di fV (v). L’inversione della legge porta a:
(2.9.3)
v = v(x) ) x =
v ) Vo
↵ ln(1
poichè inoltre:
(2.9.4)
v 0 (x) =
Vo exp( t/↵) ↵
si ha infine:
(2.9.5)
fV (v) =
1 1 ·p 2Vo 1
v Vo
2.9. APPLICAZIONI NOTEVOLI
48
2.9.2. Tempo di guasto dopo il rodaggio. Un altro problema interessante è quello del tempo di guasto dopo il rodaggio. Si abbia una serie di resistenze, tutte nominalmente uguali tra loro. Se queste resistenze si pongono sotto tensione, presto o tardi esse tenderanno a rompersi. La rottura di una singola resistenza è ovviamente un evento casuale, che è ben modellato da una variabile aleatoria esponenziale, con densità di probabilità data dalla (2.7.6). Il parametro ⌘, che nella densità di probabilità esponenziale rappresenta il valor medio, è detto tempo medio di guasto o MTTF (Mean Time To Failure). Effettuiamo ora un’operazione di rodaggio. Dato cioè un tempo prefissato a piacere, to , scartiamo le resistenze che si sono guastate sino a quell’istante. Quindi cominciamo, per istanti t to , ad osservare le resistenze che non si sono ancora guastate. In base alla proprietà di mancanza di memoria della variabile aleatoria esponenziale, ci si aspetta che la densità di probabilità condizionata da questo evento non sia mutata. Verifichiamolo. Quello che vogliamo determinare è la densità di probabilità condizionata dall’evento B, con B = {t to }. Si calcola prima la distribuzione di probabilità FX/B (x/B). La probabilità dell’evento B è: P (B) = P (X to ) = 1 P (X < to ) = 1 FX (to ), dove FX (x) è la funzione di distribuzione della v.a. X. La probabilità congiunta dell’evento P (X x, B) si può determinare invece a partire dai due casi in cui x > to oppure x to :
P (X x, B) = P (X x, X (2.9.6)
= [FX (x)
to ) =
⇢
FX (x)
FX (to )] · u(x
FX (to ) 0
x > to = altrimenti
to )
Sostituendo nella definizione di distribuzione di probabilità condizionata da un evento:
FX/B (x/B) =
(2.9.7)
P (X x, B) [FX (x) FX (to )] · u(x = P (B) 1 FX (to ) =
[FX (x) FX (to )] · u(x 1 FX (to )
to )
da cui si ricava facilmente la densità di probabilità condizionata:
to )
=
2.9. APPLICAZIONI NOTEVOLI
(2.9.8)
fX/B (x/B) =
49
dFX/B (x/B) fX (x) = · u(x dx 1 FX (to )
to )
Questa densità di probabilità spiega il comportamento delle resistenze quando si introduce il tempo di rodaggio: la probabilità che se ne guasti qualcuna per x < to è ovviamente nulla, dato che si stanno considerando solo le resistenze sopravvisute all’istante t = to ; inoltre la densità di probabilità è la stessa del caso in cui si cominci ad osservare il fenomeno per t = 0 (e quindi è verificato che il sistema è privo di memoria), tranne per il fattore di scala 1 FX1 (to ) che ha lo scopo di rinormalizzare la densità di probabilità in modo che la sua area sia sempre pari ad 1. 2.9.3. Generatori aleatori. Nei problemi di simulazione capita talvolta di richiedere, ai computer, di produrre dei numeri casuali, generati con una legge assegnata. La routine di sistema di un computer, basata sulle complesse relazioni esistenti tra i registri della macchina e il clock, è in grado spesso di fornire un numero casuale, ad aritmetica finita, compreso tra 0 ed 1 e distribuito in modo uniforme. Il primo problema da risolvere per produrre numeri a caso con distribuzione assegnata, consiste nel costruire una funzione tale che se X è uniforme nell’intervallo [0, 1], allora (X) abbia la distribuzione assegnata nell’intervallo assegnato. Il problema si formalizza così: data una v.a. X uniforme in [0, 1], ed assegnata una densità di probabilità (continua) f , si deve trovare un’applicazione , tale che Y = (X) abbia densità di probabilità f . Supponiamo che si voglia f non nulla all’interno di un intervallo assegnato [a, b] e nulla al di fuori di esso. In tal caso la F , funzione cumulativa, sarà strettamente crescente e quindi invertibile in questo intervallo. Mostriamo che la scelta = F 1 risolve il nostro problema. Anzitutto osserviamo che la F di una v.a. uniforme vale: 0x1
F (x) = x
vale 0 per x < 0 e 1 per x > 1. Si ha allora che 8t, 0 F (t) 1 e quindi che: P (F
1
(X) t) = P (X F (t)) = F (t)
La v.a. Y = (X) = F 1 (X) risolve il problema, dato che avrà una funzione cumulativa pari ad F . Supponiamo, ad esempio, di voler ottenere una legge esponenziale con parametro . Siccome la funzione cumulativa vale: F (t) = 1
exp(
essa è invertibile su ⌘ E [X]| ⌘
E [X]|)2
Y
sempre, dato che se accade l’evento |X E [X]| > ⌘, si ha Y = ⌘ 2 < (|X E [X]|)2 . Se invece accade l’evento |X E [X]| ⌘, la v.a. Y vale 0, ma |X E [X]| è comunque un numero 0. Se ora si fa l’aspettazione di ambo i membri della relazione precedente si ha: ⇥ V ar (X) = E (|X
che dà il risultato cercato.
E [X]|)2
⇤
E [Y ] = ⌘ 2 P (|X
E [X]| > ⌘) ⇤
La disuguaglianza di Chebyshev rende rigorosa l’interpretazione intuitiva di varianza come misura della dispersione: più V ar(X) è piccola più piccola è la probabilità che X prenda valori lontani dalla media. Tuttavia la disuguaglianza di Chebyshev è spesso una maggiorazione grossolana della probabilità di P (|X E [X]| > ⌘). Ad esempio si consideri la v.a. che assume i valori 1, 1 con probabilità rispettivamente di 1/2, 1/2. Per questa v.a. la media è 0 e la varianza vale V ar(X) = 1. Se si sceglie ⌘ = 2 si ha che P (|X E [X]| > ⌘) = 0 mentre V ar(X)/⌘ 2 = 1/4, ma se addirittura si prende un ⌘ < 1 si ha una maggiorazione con il valore V ar(X)/⌘ 2 > 1, cosa ovvia dato che una probabilità è sicuramente maggiorata da un numero maggiore di 1. In molte circostanza tuttavia la disuguaglianza di Chebyshev si dimostra preziosa. E’ infatti fondamentale per dimostrare e giustificare la cosiddetta Legge dei grandi numeri. Partiamo prima con un esempio. Si supponga di lanciare n volte una moneta e sia k il numero di lanci in cui si ottiene testa. La quantità k/n è quindi la proporzione di teste ottenute in n lanci. Se la moneta è equilibrata l’intuizione suggerisce che tale proporzione non debba discostarsi troppo dal valore 1/2. Tuttavia sarà difficile che la quantità k/n dia esattamente 1/2, come anche è poco probabile (ma non impossibile) che il numero di teste sia molto piccolo (o addirittura nullo) o molto grande. Tuttavia empiricamente si può verificare che al crescere del numero di lanci, il fenomeno di discostamento dal valore 1/2 dovrebbe sparire: cioè il numero di teste e croci tende a compensarsi sempre più man mano che cresce il valore di n. Formalizziamo allora quanto l’intuizione ci suggerisce. Il lancio di una moneta è rappresentabile da una v.a. di Bernoulli con n = 1 e p = 1/2; a tale v.a. facciamo assumere valore 1 quando si presenta una testa: Xi = 1, altrimenti 0. Il numero totale di teste ottenute negli n lanci
2.11. CONVERGENZA ED APPROSSIMAZIONE
64
può essere dunque rappresentato dalla quantità Sn = X1 + X2 + ... + Xn e la proporzione di teste negli n lanci dalla quantità 1 X n = (X1 + X2 + ... + Xn ) n Quanto osservato prima può essere quindi schematizzato dall’osservazione che, all’aumentare di n la quantità X n tende a discostarsi sempre meno da 1/2. Quanto trovato corrisponde al vero, anzi tale risultato è formalizzato e generalizzato dalla cosiddetta Legge dei Grandi Numeri: T HEOREM 2.11.2. Sia (Xn )n una successione di v.a. indipendenti ed aventi tutte la stessa legge, la stessa media µ e varianza 2 . Posto allora 1 X n = (X1 + X2 + ... + Xn ) n si ha che, 8⌘ > 0 lim P X n µ ⌘ =0 n!1
D IMOSTRAZIONE . La v.a. X n ha anch’essa media µ: ⇥ ⇤ 1 1 E X n = E [X1 + X2 + ... + Xn ] = (µ + µ + ... + µ) = µ n n e varianza pari a: 1 V ar X n = 2 V ar (X1 + X2 + ... + Xn ) = n 2 1 1 = 2 (V ar(X1 ) + V ar(X2 ) + ... + V ar(Xn )) = 2 · n · V ar(X1 ) = n n n Ora, applicando la disuguaglianza di Chebyshev si ha la dimostrazione: 0P
Xn
µ >⌘
2 V ar X n = ⌘2 n⌘ 2
!n!1 0
⇤
Riprendiamo l’esempio introduttivo sul lancio della moneta. Supponiamo di non sapere a priori se la moneta sia equilibrata o no (p = 1/2). la legge dei grandi numeri fornisce uno strumento per stimare tale probabilità. Lanciamo la moneta n volte e stimiamo p tramite la quantità: # teste in n lanci n
Se infatti poniamo Xi =
⇢
1 lancio i-simo dà testa 0 altrimenti
2.11. CONVERGENZA ED APPROSSIMAZIONE
65
allora X n = n1 (X1 + X2 + ... + Xn ) e, per la Legge dei Grandi Numeri X n ! p = E[Xi ] per n ! 1. Tuttavia, nella pratica, noi possiamo fare soltanto un numero finito di lanci e quindi occorre valutare l’errore che si commette stimando p con il valore di X n che verrà fuori da tale esperimento composto. Si può procedere allora in questo modo. Si fissi un numero ⌘ > 0 e si stimi la probabilità di commettere un errore nel valutare p maggiore di ⌘. Si tratta di valutare quindi la quantità: P
Xn
p >⌘
Naturalmente, siccome tale valutazione richiederebbe il calcolo della funzione di distribuzione (cumulativa) di una binomiale con n molto grande (quantità per la quale il calcolo è spesso lungo e non vi sono formule chiuse), è meglio limitarci a maggiorare quella probabiltà con la disuguaglianza di Chebyshev: V ar(X n ) p(1 p) 1 = · 2 2 ⌘ n ⌘ Questa disuguaglianza dipende ancora dalla incognita p (che è la quantità che vogliamo stimare), ma un semplice studio di funzione permette di stabilire che p(1 p) 1/4, con 0 p 1. Allora si ha: P
Xn
p >⌘
P
Xn
p >⌘
1 4n⌘ 2
Per n = 100 la probabilità che p disti da X n più di 0.1 è una quantità minore di 0.25. Tale valutazione, come si può vedere, è spesso grossolana, soprattutto per esperimenti semplici e per un numero n di prove piccolo. Esiste tuttavia un Teorema che permette di migliorare tale stima, ed è il Teorema del Limite Centrale, dovuto al matematico russo Lyapunov. Questo teorema vale sotto condizioni non particolarmente restrittive, sebbene la sua dimostrazione risulti difficoltosa nel caso più generale. Si considerino n v.a. Xi indipendenti tra loro e tutte dotate della stessa densità di 2 probabilità fXi (x) = fX (x) e quindi con stesso valor medio P µ e stessa varianza . Sappiamo che, se si considera la somma delle v.a. Sn = i Xi questa avrà media pari alla somma dei valori medi e varianza pari alla somma delle varianze: µn = n · µ e 2 2 . Ovviamente, al crescere di n, sia il valor medio, sia la varianza tendono a n = n· divergere. Si può considerare in tal caso una v.a. normalizzata (nello stesso modo con cui si fa per la gaussiana):
(2.11.2)
Zn =
Sn
µn n
=
Sn n · µ p n·
che, per qualunque valore di n, ha sempre valor medio nullo e varianza pari ad 1.
2.11. CONVERGENZA ED APPROSSIMAZIONE
66
T HEOREM 2.11.3. Date n v.a. indipendenti e con la stessa densità di probabilità, al limite per n che tende ad infinito la variabile aleatoria somma normalizzata, Zn , tende ad una gaussiana standard, cioè a media 0 e varianza 1:
1 x2 p lim fZn (x) = fN (x) = exp( ) n!1 2 2⇡
(2.11.3)
A prescindere dalla particolare distribuzione che possiedono le v.a. Xi la loro somma tende comunque a diventare gaussiana. Questo risultato è particolarmente utile per modellare numerosi fenomeni fisici quali il rumore termico. Riprendiamo ora l’esempio del lancio ripetuto di una moneta. Si vuole stimare meglio la quantità P Xn p > ⌘ avendo posto ⌘ = 0.1 ed n = 100. Siccome la somma di n = 100 v.a. di Bernoulli si può ritenere con ottima approssimazione una gaussiana, allora si ha: ✓p ◆ p n n P Xn p ·⌘ = ✓ ◆ p Sn np n p =P ·⌘ = n ✓ ◆ p p p p n n n n ·⌘ = ( ⌘) ( ⌘) = 2 ( ⌘) 1 ' P |ZN |
avendo indicato con ZN una v.a. gaussiana a media 0 e varianza 1. Per ⌘ = 0.1, n = 100 e 2 1/4 si ha: ✓ ◆ p n P |ZN | · ⌘ ' 2 (2) 1 la quantità che volevamo stimare si determina facilmente dal risultato precedente: P
Xn
p >⌘ '1
(2 (2)
1) = 0.0455
stima migliore della quantità 0.25 trovata precedentemente.
CAPITOLO 3
I Processi Stocastici 3.1. Definizione di Processi Stocastici Una distinzione importante tra i segnali è quella che si fa tra segnali predicibili, di cui si può conoscere a priori l’evoluzione nel tempo (come ad esempio un’onda quadra) e segnali non predicibili, di cui si possono al più supporre alcune caratteristiche principali (ad esempio le escursioni massime, la velocità di variazione e così via). Si supponga di registrare l’evoluzione della pressione atmosferica in un certo luogo della Terra durante l’anno. Questa grandezza fisica non è predicibile a priori, e l’unico modo per conoscerla è quello di osservarla a posteriori. Dopo l’acquisizione si potranno fare alcune osservazioni, come ad esempio il fatto che essa difficilmente supera i 1030 mB e altrettanto difficilmente va al di sotto di 950 mB. Una cosa importante a proposito di questo segnale è che non solo non si può prevedere, ma che esso cambia a seconda del periodo in cui è stato registrato (cioè la sua osservazione nel mese di marzo è sicuramente diversa da quella nel mese di agosto) ed inoltre cambia a seconda del luogo della Terra in cui viene registrato, anche se la registrazione è fatta nello stesso periodo (vedi in figura 3.1.1 tre differenti misurazioni). 250 200 150 100 50 0 −50
0
10
20
30
40
50
60
70
80
90
100
F IGURA 3.1.1. Rappresentazione delle pressioni atmosferiche in vari luoghi della Terra. La variabilità del processo è quindi di due tipi: una variabilità tra i vari segnali ed una variabilità dell’evoluzione temporale del singolo segnale. Il modellamento di un segnale aleatorio viene fatto attraverso la teoria dei processi stocastici. 67
3.1. DEFINIZIONE DI PROCESSI STOCASTICI
68
Come nella teoria delle probabilità, dovremmo, per un segnale aleatorio, individuare lo spazio delle probabilità, cioè l’insieme di tutti i possibili segnali che costituiscono il processo (ammesso che questo si possa fare): ⌦ = {!i }. Quindi riferendosi al processo si può pensare una corrispondenza che associ ad ogni campione !i di ⌦ un dato segnale. Questa corrispondenza costituisce il processo aleatorio. Una data misurazione della pressione atmosferica in un punto della Terra costituisce un risultato dello spazio campione e viene chiamato realizzazione del processo xi (t) = X(t, !i ). Il processo stocastico è comunemente indicato con X(t), omettendo la relazione di dipendenza dallo spazio campione con cui è associato ⌦. Una volta fissato quale tra i vari segnali del processo va estratto, si ha una funzione del tempo che rappresenta la realizzazione. Una realizzazione del processo stocastico non è più aleatoria, a posteriori, nel senso che dopo l’osservazione essa è una funzione deterministica del tempo. Viceversa, si può fissare un arbitrario istante di tempo ed osservare il valore che tutte le realizzazioni del processo assumono a quell’istante: X(to ) (vedi in figura 3.1.2) 400 350 300 250 200 150 100 50 0 −50
0
10
20
30
40
50
60
70
80
90
100
to
F IGURA 3.1.2. Estrazione di una variabile aleatoria dal processo stocastico. I valori che sono assunti sulle varie realizzazioni del processo non sono predicibili a priori e quindi rappresentano i risultati di una variabile aleatoria. 3.1.1. Processi parametrici. Un primo esempio di processi stocastici è dato dai processi parametrici, cioè processi in cui per le funzioni del tempo esiste una forma chiusa che permetta di rappresentarle, sebbene uno o più parametri di queste funzioni siano variabili aleatorie. Si supponga di considerare il seguente processo:
(3.1.1)
X(t; !) = e
A(!)t
u(t)
3.1. DEFINIZIONE DI PROCESSI STOCASTICI
69
dove A(!) rappresenta una variabile aleatoria con distribuzione uniforme nell’intervallo [0, 1/T ]. Se omettiamo la dipendenza dal risultato !, si può scrivere: X(t) = e At u(t). In questo processo parametrico è quindi definita una classe di funzioni il cui andamento dipende dal valore estratto di una v.a. Un altro esempio notevole (che avremo modo di riprendere più avanti) è quello dell’oscillazione sinusoidale prodotta da un oscillatore reale. In un oscillatore reale, mentre si possono controllare abbastanza bene l’ampiezza e la frequenza dell’oscillazione, è molte volte difficile determinare la fase iniziale. Ne consegue che accendendo in tempi differenti l’oscillatore la funzione sinusoidale che viene generata può essere modellata come un processo stocastico parametrico:
(3.1.2)
X(t) = A · sin(2⇡fo t + ⇥)
dove ⇥ è una variabile aleatoria uniforme nell’intervallo [0, 2⇡[. 3.1.2. Caratterizzazione di un processo stocastico. Al contrario di quanto si può fare per un segnale deterministico, per un processo stocastico non è possibile una sua caratterizzazione in termini di andamento temporale. Si devono quindi introdurre gli strumenti della teoria delle probabilità per poter caratterizzare il processo in modo statistico. Si cominci ad osservare che, se si considera un istante di tempo ben determinato to , il valore che tutte le realizzazioni assumono in quell’istante rappresenta una v.a. Quindi è possibile, per quella v.a. definire una funzione di distribuzione di probabilità (dipendente da to ):
(3.1.3)
F (x; to ) = P (X(to ) x)
La funzione di distribuzione cambierà al variare di to , dato che al variare dell’istante di osservazione la v.a. è differente. Questo modellamento non è tuttavia sufficiente a caratterizzare il processo. Se così fosse dovremmo essere in grado di prevedere l’andamento della singola realizzazione a partire da tutte le funzioni di distribuzione di probabilità estratte ad ogni istante, e così non è. Si pensi ad esempio alla possibilità che abbiamo di prevedere l’andamento di un titolo in borsa nel tempo. Si vuole cioè cercare di determinare quando il valore del titolo supera il valore attuale. Per fare questo la caratterizzazione del primo ordine che abbiamo dato non è sufficiente. E’ necessaria una caratterizzazione che permetta di correlare, congiuntamente, le due variabili aleatorie nei due istanti differenti to e t1 nei quali conduciamo l’osservazione.
3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE
70
E’ necessaria quindi una caratterizzazione del secondo ordine. Questa relazione è descritta dalla funzione di distribuzione di probabilità congiunta per una coppia di v.a.:
(3.1.4)
F (x1 , x2 ; t1 , t2 ) = P (X(t1 ) x1 ; X(t2 ) t2 )
La conoscenza completa della statistica del secondo ordine richiede che queste funzioni di distribuzione siano note per ogni coppia possibile di istanti di tempo. Iterando questo ragionamento, si capisce che la caratterizzazione di un processo stocastico si può considerare completa solo quando, fissati n istanti di tempo (con n arbitrariamente grande), si è in grado di determinare la funzione di distribuzione congiunta di ordine n per le n variabili aleatorie che si hanno estraendo i valori dalle realizzazioni agli istanti t1 , t2 , ..., tn : (3.1.5) F (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ) = P (X(t1 ) x1 , X(t2 ) x2 , ..., X(tn ) xn ) Da questa si può ricavare la funzione densità di probabilità di ordine n:
(3.1.6)
f (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ) =
@ n F (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ) @x1 @x2 ...@xn
La conoscenza della classe di funzioni f (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ) per qualunque valore n e qualunque n pla di istanti di tempo caratterizza completamente il processo aleatorio. Si capisce bene che la conoscenza completa di un processo aleatorio è impresa quali sempre impossibile. Nella maggior parte dei casi si cerca di determinare la distribuzione (e densità) del primo o al più secondo ordine. Altre volte ci si accontenta di determinare alcuni parametri statistici. 3.2. Parametri Statistici del 1o e 2o Ordine 3.2.1. Valor medio, potenza e varianza. Alcuni parametri statistici permettono di determinare le caratteristiche principali di un processo statistico, pur senza la conoscenza completa di esso. Tra questi parametri particolarmente significativa è la funzione valor medio: µX (t). Per definizione questa funzione è il valor medio della v.a. che si ottiene estraendo i
3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE
71
valori delle realizzazioni all’istante assegnato:
(3.2.1)
µ(t) = E[X(t)] =
Z
+1
xfX (x, t)dx 1
al variare di t si generano una serie di valori medi che costituiscono la funzione. La funzione valor medio rappresenta una statistica del primo ordine, dato che per il suo calcolo è sufficiente la conoscenza della statistica di primo ordine del processo. La funzione valor medio rappresenta una specie di compendio di tutte le realizzazioni del processo stocastico, ma non rappresenta necessariamente essa stessa una realizzazione del processo. E XAMPLE 3.2.1. Si supponga di considerare il processo aleatorio parametrico X(t) = a cos(2⇡fo t + ⇥), dove ⇥ è una v.a. con densità di probabilità uniforme nell’intervallo [0, ⇡[. La funzione valor medio si può determinare osservando che, per ogni istante t fissato, il processo X(t) si può pensare come la trasformazione della v.a. ⇥ in un’altra v.a. X = X(⇥). Il suo valor medio quindi si può determinare con il teorema del valor medio: µ(t) = E[X(t)] = E[a cos(2⇡fo t + ⇥)]: (3.2.2) Z µ(t) =
+1 1
a a cos(2⇡fo t + ✓)f✓ (✓)d✓ = ⇡
Z
⇡
cos(2⇡fo t + ✓)d✓ =
0
2a sin(2⇡fo t) ⇡
Analogamente si potrebbe ricavare la funzione valor medio nel caso visto nella eq. 3.1.2, in cui cioè: X(t) = a sin(2⇡fo t + ⇥), con ⇥ = U (0, 2⇡). Un’altra grandezza statistica del primo ordine utile per caratterizzare il processo, è la potenza media statistica istantanea (brevemente detta potenza media):
(3.2.3)
2
Px (t) = E[X (t)] =
Z
+1 1
x2 · fX (x, t)dx
analoga alla potenza istantanea per i segnali deterministici. Si può inoltre definire la funzione varianza del processo:
(3.2.4)
2 x (t)
= E[(X(t)
2
µ(t)) ] =
Z
+1
(x 1
µ(t))2 · fX (x, t)dx
3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE
72
Si ricava, abbastanza facilmente:
(3.2.5)
2 x (t)
µ2 (t)
= Px (t)
la relazione che esprime la dipendenza tra varianza, funzione valor medio e potenza istantanea. 3.2.2. Autocorrelazione e autocovarianza. Due parametri statistici del secondo ordine, fondamentali per lo studio dei processi stocastici, sono la funzione di autocorrelazione e la funzione di autocovarianza. Il loro significato è rimandato più avanti, quando si introdurranno i processi stazionari. Si supponga di considerare due istanti di tempo arbitrari, t1 e t2 . Dato il processo stocastico, è possibile estrarre le due v.a. Y = X(t1 ) e Z = X(t2 ). Ha senso allora effettuare il calcolo della correlazione tra Y e Z. Generalmente questa correlazione sarà funzione dei due istanti di tempo, e quindi si può ritenere una funzione di due variabili: (3.2.6) Rx (t1 , t2 ) = E[X(t1 )X(t2 )] =
Z
+1
x1 = 1
Z
+1
x1 x2 fx (x1 , x2 ; t1 , t2 )dx1 dx2
x2 = 1
La funzione che così si ottiene è detta funzione di autocorrelazione, poichè le due variabili aleatorie sono state ottenute estraendole dallo stesso processo. In modo del tutto analogo è possibile determinare la funzione di autocovarianza:
Cx (t1 , t2 ) = E[(X(t1 ) (3.2.7)
=
Z
+1
x1 = 1
Z
µ(t1 )) · (X(t2 )
µ(t2 ))] =
+1
x2 = 1
(x1
µ(t1 )) · (x2
µ(t2 )) · fx (x1 , x2 ; t1 , t2 )dx1 dx2
Dalla definizione è facile ricavare che: Cx (t1 , t2 ) = Rx (t1 , t2 )
µ(t1 )µ(t2 ).
E XAMPLE 3.2.2. Si calcoli la funzione di autocorrelazione del processo X(t) = a · cos(2⇡fo t + ⇥), con ⇥ = U [0, ⇡[. Estraendo il processo negli istanti t1 e t2 si ottengono le v.a.: X(t1 ) = a · cos(2⇡fo t1 + ⇥) e X(t2 ) = a · cos(2⇡fo t2 + ⇥), che si
3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE
73
possono ritenere entrambe trasformazioni della stessa v.a.. Quindi, mediante il teorema del valor medio si ottiene:
Rx (t1 , t2 ) = E[X(t1 )X(t2 )] = E[a · cos(2⇡fo t1 + ✓) · a · cos(2⇡fo t2 + ✓)] = (3.2.8)
2
=a ·
Z
⇡
0
1 a2 cos(2⇡fo t1 + ✓) cos(2⇡fo t2 + ✓)d✓ = cos(2⇡fo (t1 ⇡ 2
t2 ))
In questo esempio la funzione di autocorrelazione è sinusoidale, come i segnali che costituiscono le singole realizzazioni del processo, inoltre dipende dalle due variabili attraverso la loro differenza. La funzione di autocorrelazione è quindi, in realtà, funzione di una sola variabile. Si supponga ora di avere lo stesso processo precedente: X(t) = a · cos(2⇡fo t + ⇥), ma con ⇥ = U [0, 2⇡[. Si voglia calcolare la funzione valor medio, la funzione di autocorrelazione e la funzione di autocovarianza. Si osservi che, se per la funzione valor medio si ha:
(3.2.9)
µ(t) = E[X(t)] =
Z
0
2⇡
1 · a · cos(2⇡fo t + ✓)d✓ = 0 2⇡
allora: Cx (t1 , t2 ) = Rx (t1 , t2 ). Entrambe valgono: Rx (t1 , t2 ) = E[X(t1 )X(t2 )] = (3.2.10) =
Z
0
2⇡
1 a2 ·a·cos(2⇡fo t1 +✓)·a·cos(2⇡fo t2 +✓)d✓ = cos(2⇡fo (t1 t2 )) 2⇡ 2
pari al risultato ottenuto precedentemente (vedi 3.2.8). Vediamo infine il caso in cui nel processo X(t) = A · cos(2⇡fo t) a variare sia l’ampiezza dell’oscillazione sinusoidale. Tale ampiezza vari come una v.a. uniforme nell’intervallo [0, 1]. La funzione valor medio si ottiene fissando un dato istante di tempo t:
(3.2.11) µ(t) = E[X(t)] = E[A · cos(2⇡fo t)] = E[A] · cos(2⇡fo t) =
1 · cos(2⇡fo t) 2
3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE
74
La funzione di autocorrelazione vale:
Rx (t1 , t2 ) = E[A · cos(2⇡fo t1 ) · A · cos(2⇡fo t2 )] = cos(2⇡fo t1 ) · cos(2⇡fo t2 ) · E[A2 ] = (3.2.12)
=
1 cos(2⇡fo t1 ) · cos(2⇡fo t2 ) 3
e in questo caso non si può esprimere come funzione di una sola variabile. La funzione di autocovarianza vale infine:
Cx (t1 , t2 ) =
(3.2.13)
1 cos(2⇡fo t1 ) · cos(2⇡fo t2 ) 3 =
1 1 · cos(2⇡fo t1 ) · · cos(2⇡fo t2 ) = 2 2
1 cos(2⇡fo t1 ) · cos(2⇡fo t2 ) 12
Un altro esempio notevole è il seguente: E XAMPLE 3.2.3. Processo di Bernoulli e processi derivati. Si consideri il seguente processo tempo discreto: In = {0, 1} che può assumere valori solo in istanti discreti indicati con indici interi n 2 N. I valori assunti dalle singole realizzazioni possono essere soltanto 0 o 1. In particolare il valore 0 è assunto con probabilità p, il valore 1 con probabilità 1 p:
(3.2.14)
In =
⇢
0 1
p 1
p
Le singole realizzazioni, come pure le estrazioni in una singola realizzazione sono indipendenti tra loro (vedi figura 3.2.1). La funzione valor medio vale: (3.2.15)
mI (n) = p · 0 + (1
p) · 1 = 1
p
3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE
75
1 1 0 1 0 1 1 ..... i
i+1
i+2 i+3 ............
0 1 1 1 0 0 1 ..... i
i+1 i+2
i+3 ...............
F IGURA 3.2.1. Rappresentazione grafica del processo di Bernoulli. ed è indipendente dal tempo (cioè l’indice n). La varianza vale: (3.2.16)
2 I
= E[In2 ]
E 2 [In ] = p · 02 + (1
p) · 12
(1
p)2 = p(1
p)
Infine la funzione di autocorrelazione vale: (3.2.17)
RI (n, m) = E[In Im ] = E[In ]E[Im ]
essendo le estrazioni indipendenti. Quindi si ha: RI (n, m) = (1 Un processo derivato da quello di Bernoulli è il seguente:
(3.2.18)
Dn = 2In
1=
⇢
p)2 .
1 p 1 1 p
Il suo valor medio vale: (3.2.19)
mD (n) = E[2In
1] = 2(1
p)
1=1
2p
la sua varianza vale (3.2.20)
2 D
= E[Dn2 ]
⇥ E 2 [Dn ] = E 4In2
Infine la funzione di autocorrelazione vale:
⇤ 4In + 1
(1
2p)2 = 4p(1
p)
3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE
RD (n, m) = E[Dn Dm ] = E[4In Im (3.2.21)
= 4(1
p)2
4(1
2In
p) + 1 = (1
76
2Im + 1] = 2p)2
che è lo stesso risultato che avremmo ottenuto semplicemente osservando che: E[Dn Dm ] = E[Dn ]E[Dm ]. L’ultima applicazione del processo di Bernoulli è la passeggiata a caso unidimensionale, cioè il processo: (3.2.22)
Sn = D1 + D2 + ... + Dn
Il suo valor medio vale: (3.2.23) E[Sn ] = E[D1 +D2 +...+Dn ] = E[D1 ]+E[D2 ]+...+E[Dn ] = n(1 2p) e questa volta è una quantità dipendente da n. Inoltre, essendo i processi indipendenti tra loro la varianza è somma delle varianze (3.2.24)
2 Sn
=
n X
2 D
= 4np(1
p)
k=1
La sua funzione di autocorrelazione vale: (3.2.25) RS (n.m) = E[Sn Sm ] = E
"
n X k=1
Dk ·
m X l=1
#
Dl =
n X m X k=1 l=1
E [Dk · Dl ] = n·m·(1 2p)2
Il range di valori che può assumere questo processo è variabile con n. Per un certo n fissato, Sn può assumere tutti i valori compresi tra [ n, n]. La probabilità che tra i D1 , D2 , ..., Dn vi siano k valori pari ad 1 ed n k valori pari a 1 (quindi la probabilità che Sn valga: k (n k) = 2k n) è:
(3.2.26)
P (Sn = 2k
n) = (
n )(1 k
p)k pn
k
Una variazione sul tema dei processi stocastici di Bernoulli è il segnale telegrafico casuale. Il processo consiste di realizzazioni che possono assumere solo valori discreti
3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE
pari a
77
1 od a 1. Le funzioni sono continue nel tempo:
(3.2.27)
X(t) =
⇢
1 1
Per ipotesi si suppone inoltre che (3.2.28)
P (X(0) = 1) = P (X(0) =
1) = 1/2
Le realizzazioni del processo assumono valori differenti cambiando di “stato” nello stesso modo con cui arrivano gli eventi negli esperimenti aleatori alla Poisson. Una possibile realizzazione è riportata in figura (3.2.2).
F IGURA 3.2.2. Realizzazione di un processo telegrafico casuale Sia ↵ l’intensità della legge di Poisson che governa il processo. Ogni singola realizzazione, x(t), permane ad un dato valore sino a che non c’è un arrivo che gli fa cambiare stato. Il numero di arrivi nell’unità di tempo è regolato da una v.a. discreta di Poisson con intensità ↵. Calcoliamo la probabilità che ad un dato istante t la singola realizzazione abbia uno dei due valori:
P (X(t) = 1) = P (X(t) = 1/X(0) = 1) · P (X(0) = 1) (3.2.29)
+P (X(t) = 1/X(0) =
1) · P (X(0) =
1)
la prima delle due somme a secondo membro ha il termine P (X(t) = 1/X(0) = 1) che si può verficare solo se il numero di cambiamenti (eventi di Poisson) verificatosi è pari, per il secondo termine il numero di cambiamenti da verificarsi è dispari:
3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE
(3.2.30) P(Ncamb = pari) =
1 X (↵t)2j j=0
(3.2.31) P (Ncamb
(2j)!
e
1 X (↵t)2j+1 = dispari) = e (2j + 1)! j=0
↵t
↵t
=e
=e
↵t
↵t
1 · (e↵t + e 2
1 · (e↵t 2
e
78
↵t
↵t
1 ) = (1 + e 2
1 ) = (1 2
e
2↵t
2↵t
)
)
Da cui si ha in conclusione:
(3.2.32)
1 1 P (X(t) = 1) = [ (1 + e 2 2
2↵t
1 ) + (1 2
e
2↵t
)] =
1 2
ed analogamente: P (X(t) = 1) = 12 . Calcoliamo la funzione valor medio e la funzione varianza del processo:
(3.2.33)
mX (t) = E[X(t)] =
(3.2.34)
2 X (t)
1 1 · ( 1) + · (+1) = 0 2 2
= Px (t) = E[X(t)2 ] =
1 1 · ( 1)2 + · (+1)2 = 1 2 2
Calcoliamo infine la funzione di autocorrelazione e la funzione di autocovarianza: Rx (t1 , t2 ) = Cx (t1 , t2 ).
(3.2.35)
Rx (t1 , t2 ) = E[X(t1 )X(t2 )]
tuttavia il prodotto di X(t1 )X(t2 ) può essere solo o 1 oppure +1. In particolare è pari a 1 quando il numero di cambiamenti (eventi di Poisson) avvenuti tra t1 e t2 è dispari, altrimenti il prodotto X(t1 )X(t2 ) è pari a +1. Quindi:
P (X(t1 )X(t2 ) = 1) = P (Ncamb = pari) = P (N (t2
t1 ) = pari) =
3.3. PROCESSI STAZIONARI
1 = (1 + e 2
(3.2.36)
2↵(t2 t1 )
79
)
Analogamente per un numero dispari di arrivi:
P (X(t1 )X(t2 ) =
1) = P (Ncamb = dispari) = P (N (t2 1 = (1 2
(3.2.37)
e
2↵(t2 t1 )
t1 ) = dispari) =
)
Si ha in conclusione:
1 E[X(t1 )X(t2 )] = (+1) · (1 + e 2 (3.2.38)
2↵(t2 t1 )
=e
1 ) + ( 1) · (1 2
e
2↵(t2 t1 )
)=
2↵|t2 t1 |
ed, ancora una volta, abbiamo trovato un processo la cui funzione di autocorrelazione (e di autocovarianza) dipende solo dalla differenza dei due istanti generici, e non separatamente dai due. 3.3. Processi Stazionari Una notevole proprietà dei processi stocastici è la stazionarietà. Si è visto che i parametri statistici del primo e secondo ordine dipendono dalla scelta degli istanti di tempo. Anche la funzione densità di probabilità congiunta di ordine n dipende generalmente dalla scelta degli istanti di tempo in corrispondenza dei quali si valuta il processo. Si supponga ora di considerare n istanti di tempo t1 , t2 , ..., tn , in corrispondenza dei quali si ottiene la funzione di densità di probabilità congiunta: fx (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ). Se si spostano rigidamente tutti gli istanti di tempo di una stessa quantità t, generalmente otterremo una differente funzione di densità di probabilità congiunta:
(3.3.1)
fx (x1 , x2 , ..., xn ; t1 +
t, t2 +
t, ..., tn +
t)
3.3. PROCESSI STAZIONARI
80
. P ROPOSITION 3.3.1. Un processo si dice stazionario in senso stretto, se risulta che, per ogni scelta di n, t1 , t2 , ..., tn e di t:
(3.3.2) fx (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ) = fx (x1 , x2 , ..., xn ; t1 + t, t2 + t, ..., tn + t)
La stazionarietà forte (in senso stretto) richiede l’uguaglianza della funzione di densità di probabilità congiunta per qualunque ordine, scelta degli istanti di tempo e di traslazione. Cioè richiede che rispetto a tutte queste variabili la funzione fx sia invariante. I processi X(t) e X(t + t) devono quindi avere le stesse statistiche. Questo non significa che le due variabili aleatorie che estrarremo nei due istanti di tempo sono identiche (poichè questo non può mai accadere per il significato stesso di grandezza statistica) ma significa che le due quantità non possono essere distinte tra loro con misure statistiche. Conseguenza di questa definizione è che: fx (x; t) = fx (x; t + t) cioè la funzione densità di probabilità del primo ordine non è funzione del tempo e anche i parametri statistici del primo ordine (funzione valor medio, funzione potenza e funzione varianza) non dipendono dalla variabile tempo (stazionarietà del primo ordine). Inoltre per quel che riguarda la stazionarietà del secondo ordine, si ha:
(3.3.3)
fx (x1 , x2 ; t1 , t2 ) = fx (x1 , x2 ; t1 +
t, t2 +
t)
e questo può accadere solo se la funzione di densità di probabilità dipende dalla differenza tra gli istanti di tempo, e non separatamente dai due: fx (x1 , x2 ; t1 , t2 ) = fx (x1 , x2 ; t1 t2 ). Allora tutte le statistiche del secondo ordine (funzione di autocorrelazione e funzione di autocovarianza) dipenderanno dalla differenza degli istanti di tempo e non separatamente dai due. Questo è il caso del processo visto in (3.1.2) o del segnale telegrafico casuale. Salendo di ordine (sebbene statistiche di ordine superiore non siano state introdotte) si ottiene che la funzione densità di probabilità congiunta di ordine n e tutte le statistiche di ordine correlato non dipenderanno dagli istanti di tempo separatamente, ma dalle n 1 differenze t1 t2 , t2 t3 , ..., tn 1 tn , dato che solo queste differenze restano invariate rispetto ad una traslazione rigida dei tempi. C OROLLARY 3.3.2. Una stazionarietà di ordine n implica la stazionarietà di tutti gli ordini più bassi (il contrario generalmente non è vero).
3.3. PROCESSI STAZIONARI
81
3.3.1. Stazionarietà in senso lato. La verifica della stazionarietà in senso stretto, anche per ordini bassi, è in genere un compito arduo (salvo casi particolari). Di solito allora ci si accontenta di una definizione di stazionarietà meno restrittiva: la stazionarietà in senso lato (o debole). P ROPOSITION 3.3.3. Un processo aleatorio è stazionario in senso lato se la sua funzione valor medio è costante µx (t) = µx e la sua funzione di autocorrelazione dipende solo dalla differenza degli istanti di tempo Rx (t1 , t2 ) = Rx (t1 t2 ). La definizione di stazionarietà in senso lato coinvolge solo due statistiche e quindi non richiede alcuna paricolare proprietà alla funzione densità di probabilità congiunta. C OROLLARY 3.3.4. Un processo stazionario in senso stretto è stazionario anche in senso lato. Non è vero il viceversa Se il processo è stazionario in senso lato la funzione di autocovarianza vale:
(3.3.4)
Cx (t1 , t2 ) = Rx (t1
t2 )
µ2x = Cx (t1
t2 )
cioè anche la funzione di autocovarianza dipende dalla differenza degli istanti di tempo. Anche nel caso di stazionarietà in senso lato rimane comunque difficile verificare la proprietà. Infatti la verifica di una proprietà statistica come la stazionarietà richiede che si riescano a manipolare (per effettuare misure statistiche) tutte le possibili realizzazioni del primo e secondo ordine del processo, o che si conosca in qualche modo una forma chiusa della funzione di densità di probabilità del processo stesso al variare di t (cosa normalmente non vera). La funzione di autocorrelazione, nell’ipotesi di stazionarietà in senso lato può essere riscritta mettendo in evidenza proprio la dipendenza dalla differenza degli istanti di tempo:
(3.3.5)
Rx (t1 , t2 ) = Rx (t, t
⌧ ) = E[X(t)X(t
⌧ )]
E XAMPLE 3.3.5. Riprediamo l’esempio visto più volte: X(t) = a·cos(2⇡fo t+⇥), con ⇥ = U [0, ⇡[. Si è ottenuto che µ(t) = 2a sin(2⇡fo t), quindi il processo non si ⇡ può considerare stazionario in senso lato, dato che la funzione valor medio dipende dal tempo. Il processo X(t) = a · cos(2⇡fo t + ⇥), con ⇥ = U [0, 2⇡[, ha invece: µ(t) = 0 2 e Rx (t1 , t2 ) = a2 cos(2⇡fo (t1 t2 )), e quindi si può ritenere un processo stazionario
3.3. PROCESSI STAZIONARI
82
in senso lato, dato che la funzione valor medio è costante e la funzione di autocorrelazione dipende solo dalla differenza dei tempi. Un caso particolare del processo telegrafico casuale è il seguente E XAMPLE 3.3.6. Segnale dati. Si supponga di avere un processo stocastico le cui realizzazioni sono funzioni del tempo V (t) che possono assumere solo due valori discreti: +1 e 1 con probabilità 1/2. Si supponga inoltre che la funzione cambi di stato solo ad istanti prefissati, che verranno indicati con degli indici interi: V (nT ) = Vn . I valori inoltre sono assunti in modo indipendente l’uno dall’altro. Quindi la funzione assume valore costante per tutti gli istanti di tempo t compresi tra due transizioni: V (t) = Vn per nT t < (n + 1)T . La forma generica della funzione è quindi la seguente: (3.3.6)
V (t) =
+1 X
Vn rect(
n= 1
t
nT T /2 ) T
Il precedente processo modella molto bene un segnale dati binario con velocità di clock pari a 1/T . Esso è utile a schematizzare tutte le situazioni in cui si ha il trasferimento di bit tra due sistemi (ad esempio un computer ed una sua periferica). Poichè infatti non è nota a priori l’informazione che si sta trasmettendo, il processo si può considerare a tutti gli effetti aleatorio. Determiniamo ora i parametri statistici rilevanti e verifichiamo l’eventuale stazionarietà. Ad un certo istante fissato t, l’osservazione di tutte le realizzazioni porta a dire che i valori che queste possono assumere sono soltanto +1 o 1. Inoltre, poichè si è supposto che tali valori sono assunti con probabilità pari ad 1/2, la funzione di densità di probabilità del primo ordine non può che valere:
(3.3.7)
fv (v; t) =
1 1 (v + 1) + (v 2 2
1)
Questa funzione non dipende dalla variabile tempo. Quindi il processo è stazionario in senso stretto per il primo ordine. Ci aspettiamo allora che la funzione valor medio sia costante:
(3.3.8)
µv (t) =
Z
+1
vfv (v; t)dv = 1
Z
+1 1
v·[
1 1 (v + 1) + (v 2 2
1)]dv = 0
3.3. PROCESSI STAZIONARI
83
Il calcolo della funzione di autocorrelazione è un po’ più complesso. Tuttavia si può facilmente dimostrare che il processo non è stazionario nè in senso stretto, nè in senso lato per quel che riguarda il secondo ordine, dato che la funzione di autocorrelazione non può dipendere dalla sola differenza dei tempi. Si consideri infatti, nella figura 3.3.1, i due istanti di tempo t1 e t2 . Nel grafico in alto i due istanti di tempo capitano all’interno dell’intervallo [nT, (n + 1)T ], quindi la realizzazione assume valore uguale: V (t1 ) = V (t2 ) = Vn . Si ha allora che Rv (t1 , t2 ) = E[V (t1 )V (t2 )] = E[Vn2 ] = 1. Se ora spostiamo rigidamente i due istanti di tempo sino a farli capitare a cavallo di due intervalli, come indicato nella figura in basso, si avrà che V (t1 ) 6= V (t2 ) e quindi (3.3.9)
Rv (t1 , t2 ) = E[V (t1 )V (t2 )] = E[V (t1 )]E[V (t2 )] = E[Vn ]E[Vn+1 ] = 0
Se il processo fosse stazionario in senso lato la funzione di autocorrelazione dovrebbe dipendere solo dalla differenza dei due istanti di tempo e quindi la Rv (t1 , t2 ) nei due casi avrebbe dovuto mantenere lo stesso valore.
t1
t2
t1
t2
F IGURA 3.3.1. Realizzazione di un processo dati binario Si può concludere quindi che il processo in esame non è stazionario in senso lato, pur essendo stazionario in senso stretto per il primo ordine. Un caso molto frequente è quello in cui si conosce la forma di un segnale (cioè il suo andamento) ma non si riesce a piazzare il segnale rispetto ad un preciso riferimento
3.3. PROCESSI STAZIONARI
84
temporale. In tal caso il segnale può essere modellato come un processo stocastico di questo tipo: E XAMPLE 3.3.7. X(t) = p(t ⇥), con ⇥ variabile aleatoria che modella l’incertezza sulla posizione temporale del segnale. Un esempio classico è l’eco del segnale radar. Se supponiamo per semplicità che il segnale sia periodico di periodo T : p(t) = p(t + T ), ⇥ si può ipotizzare distribuita in modo uniforme tra 0 e T : ⇥ 2 U (0, T ). Troviamo le proprietà del processo descritto. La funzione valor medio:
(3.3.10)
µ(t) = E[p(t
⇥)] =
Z
T
p(t
0
1 1 ✓) d✓ = T T
Z
t
p(↵)d↵
t T
Poichè la funzione p(↵) è periodica di periodo T , il suo integrale in un periodo non può dipendere dagli estremi di integrazione, quindi dal valore t. Quindi la funzione valor medio è indipendente dalla variabile tempo. In particolare il valore che la funzione valor medio assume è pari al valor medio della funzione p(↵). Per la funzione di autocorrelazione si ha invece:
Rx (t1 , t2 ) = E[X(t1 )X(t2 )] = E[p(t1 (3.3.11)
=
Z
0
T
p(t1
1 1 ✓) d✓ = T T
✓) · p(t2
Z
⇥)p(t2
⇥)] =
t1
t1 T
p(↵) · p(t2
t1 + ↵)d↵
Anche in questo caso la funzione integranda, essendo il prodotto di due segnali periodici di periodo T, è ancora periodica di periodo T , quindi il suo integrale non dipende dal particolare posizionamento degli estremi di integrazione. La funzione di autocorrelazione quindi non dipende separatamente da t1 o da t2 , ma solo dalla loro differenza: Rx (t1 , t2 ) = Rx (t1 t2 ). Se si pone allora: t1 t2 = ⌧ nella equazione precedente si ha:
(3.3.12)
1 Rx (⌧ ) = T
Z
T /2 T /2
p(↵) · p(↵
⌧ )d↵
avendo posto t1 = T /2. La funzione di autocorrelazione statistica del processo X(t) è pari alla funzione di autocorrelazione del segnale deterministico e periodico p(t).
3.3. PROCESSI STAZIONARI
85
3.3.2. Proprietà della funzione di autocorrelazione di un processo stazionario in senso lato. Vediamo ora alcune proprietà della funzione di autocorrelazione di un processo stazionario in senso lato. (1) La funzione di autocorrelazione Rx (⌧ ) è pari: Rx (⌧ ) = Rx ( ⌧ ). Per dimostrare questa proprietà si osservi che, per la stazionarietà del processo, la funzione di autocorrelazione rimane invariata se la si calcola relativamente a due istanti di tempo t e t ⌧ oppure ai due istanti t e t + ⌧ , dato che questi ultimi sono ottenuti semplicemente mediante traslazione rigida. Si ha allora (3.3.13)
Rx (⌧ ) = E[X(t)X(t
⌧ )] = E[X(t + ⌧ )X(t)] = Rx ( ⌧ )
(2) Il valore assunto da Rx (⌧ ) nell’origine è pari alla potenza statisica del processo: (3.3.14)
Rx (⌧ )|⌧ =0 = Rx (0) = E[X(t)X(t)] = E[X 2 (t)] .
(3) La funzione di autocorrelazione è massima in modulo nell’origine: Rx (0) |Rx (⌧ )|. Se si considera infatti la disuguaglianza: E[(X(t) ± X(t ⌧ ))2 ] 0, si osserva che essa è sempre vera, dato che rappresenta la aspettazione di una quantità sempre positiva. Sviluppando la relazione precedente si ha però: E[(X(t) ± X(t (3.3.15)
= E[X 2 (t) + X 2 (t
⌧ ))2 ] =
⌧ ) ± 2X(t)X(t
⌧ )] = 2Rx (0) ± 2Rx (⌧ )
che prova la disuguaglianza. (4) Se Rx (⌧ ) non è periodica il suo valore limite per ⌧ ! 1 è il quadrato del valor medio: (3.3.16)
lim Rx (⌧ ) = µ2x
⌧ !1
Per giustificare qualitativamente questa proprietà si ricordi innanzitutto che: Rx (⌧ ) = Cx (⌧ ) + µ2x . Al crescere della distanza ⌧ tra gli istanti di tempo, t e t ⌧ , i valori delle variabili aleatorie tendono sempre più ad “allontanarsi” tra loro, ad assumere cioè comportamenti statistici sempre più indipendenti, finchè, al limite per ⌧ ! 1, il loro comportamento è completamente indipendente e quindi la loro autocovarianza è nulla. La funzione di autocorrelazione quindi diventa pari al quadrato del valor medio.
3.3. PROCESSI STAZIONARI
86
E XAMPLE 3.3.8. Si riconsideri il processo dati binario già visto precedentemente. Se il riferimento temporale non è noto, il modello più appropriato per questo processo è:
(3.3.17)
V (t) =
+1 X
Vn rect(
t
⇥
T /2 T
n= 1
nT
)
0
t
0
t
F IGURA 3.3.2. Realizzazioni di un processo dati binario con riferimento temporale non noto dove la variabile aleatoria ⇥ contiene l’incertezza relativa al riferimento temporale, ed è distribuita nell’intervallo [0, T ] in modo uniforme. Tale v.a. è indipendente dalla generazione dei dati binari, ed è modellata da una v.a. uniforme nell’intervallo [0, T [. Indipendentemente dall’istante di inizio del processo, il ragionamento fatto per determinare la funzione di densità di probabilità del primo ordine vale ancora. Quindi il processo si può ancora definire stazionario in senso stretto per il primo ordine, e il calcolo della funzione valor medio è uguale a quanto già fatto in (3.3.8). Si ha allora che: µv (t) = µv = 0. Per il calcolo della funzione di autocorrelazione si ha invece:
Rv (t1 , t2 ) = E[
+1 X
Vn rect(
t1
⇥
n= 1
·
+1 X
m= 1
Vm rect(
t2
⇥
T /2 T
T /2 T mT
nT
)] =
)·
3.3. PROCESSI STAZIONARI
(3.3.18) +1 X =
+1 X
E[Vn Vm rect(
t1
⇥
n= 1 m= 1
T /2 T
nT
87
) · rect(
t2
⇥
T /2 T
mT
)]
ottenibile sfruttando la linearità dell’operatore aspettazione. Ora si osservi che rispetto alla statistica dei dati binari, E[Vn Vm ] è diversa da zero solo quando gli indici n ed m sono uguali (vedi il ragionamento e l’eq. (3.3.9)). Quindi della doppia sommatoria sopravvive solo un indice:
Rx (t1 , t2 ) =
+1 X
E⇥ [rect(
t1
⇥
T /2 T
n= 1
=
+1 X
E⇥ [rect(
t
⇥
T /2 T
n= 1 +1 Z T 1 X t = rect( T n= 1 0
se ora si pone: ↵ = t
(3.3.19)
✓
✓
nT
T /2 T
nT
) · rect(
) · rect(
nT
t
) · rect(
t2
⌧
⇥
⇥
T /2 T
T /2
nT
T /2
nT
T t
⌧
✓ T
nT
)] =
)] =
)d✓ =
nT , si ha:
+1 Z t nT 1 X ↵ T /2 ↵ = rect( )rect( T n= 1 t nT T T
⌧
T /2 T
)d↵
Si osservi ora che la funzione integranda non contiene la dipendenza da n, quindi i valori dell’integrale saranno tutti uguali al variare di n e saranno funzioni dipendenti solo da ⌧ . Inoltre, poichè tali integrali sono calcolati in intervalli disgiunti del tipo: [nT T, nT ], la funzione di autocorrelazione si può anche scrivere come:
(3.3.20)
1 Rx (⌧ ) = T
Z
+1
rect( 1
↵
T /2 ↵ )rect( T
⌧
T /2 T
)d↵
3.4. FILTRAGGIO DI UN PROCESSO ALEATORIO
88
che rappresenta la nota correlazione deterministica tra due funzioni rettangolo. Il risultato è pari alla funzione triangolo di base 2T :
(3.3.21)
Rx (⌧ ) = (1
|⌧ | ⌧ )rect( ) T 2T
Quindi, in questo secondo caso, il segnali dati binario è stazionario in senso lato, dato che la funzione valor medio è costante e la funzione di autocorrelazione dipende solo dalla variabile ⌧ . 3.3.2.1. Significato della funzione di autocorrelazione. Si supponga di avere due processi stocastici e stazionari in senso lato X(t) e Y (t), dotati degli stessi parametri statistici del primo ordine (funzione valor medio, funzione potenza e funzione varianza). In tal caso, rinunciando all’idea di riuscire a determinare la funzione di densità di probabilità congiunta di qualunque ordine per i due processi, ci si deve affidare, per poterli distinguere, ai parametri statistici. I parametri statistici del primo ordine però sono tra loro uguali e quindi non permettono una distinzione statistica dei due processi in esame. In tal caso vengono in aiuto i parametri statistici del secondo ordine ed in particolare la funzione di autocorrelazione, il cui significato ed utilità sono molto bene evidenziati proprio per i processi stazionari. Infatti se si suppone che i due processi X(t) ed Y (t) hanno funzioni di autocorrelazione differenti tra loro, qusto significa che, in uno stesso istante di tempo ⌧ , Rx (⌧ ) ed Ry (⌧ ) saranno differenti. Cioè se si osservano i processi in due istanti di tempo distaccati di un intervallo ⌧ , la loro velocità di variazione è differente, dato che uno dei due processi assomiglia molto di più a se stesso rispetto all’altro processo (quello con autocorrelazione maggiore ha un’autosomiglianza maggiore). In conclusione la funzione di autocorrelazione decresce tanto più velocemente a zero quanto più rapida è la variazione delle realizzazioni del processo. Essa misura cioè la rapidità di variazione del segnale aleatorio. 3.4. Filtraggio di un Processo Aleatorio Si è già detto che il motivo principale nell’introduzione della teoria dei processi stocastici sta nel modellamento di fenomeni reali che sono descrivibili da grandezze fisiche che variano nel tempo e il cui comportamento non è predicibile a priori. Poichè le grandezze fisiche con cui ha a che fare l’ingegnere sono anche grandezze fisiche manipolabili, ha senso porsi il problema di cosa succede al processo (e quindi anche alle sue statistiche) se lo si fa passare per un sistema. Uno dei sistemi più semplici da studiare è il filtro, cioè un sistema lineare e tempo-invariante, che può essere descritto completamente dalla sua risposta all’impulso, o dalla sua funzione di trasferimento.
3.4. FILTRAGGIO DI UN PROCESSO ALEATORIO
89
Un tipico esempio è quello in cui il processo in ingresso è costituito da un segnale deterministico noto a cui è sovrapposto un processo aleatorio a valor medio nullo (detto disturbo o rumore): X(t) = s(t) + n(t), come riportato nell’esempio in figura 3.4.1.
1.5 1 0.5 0 −0.5 −1 −1.5
0
5
10
15
20
25
30
F IGURA 3.4.1. Esempio di un segnale deterministico rumoroso Quello che si fa è normalmente di cercare, almeno in parte, di elaborare s(t) eliminando la componente rumorosa. Questa operazione può essere effettuata da un filtro. L’operazione imposta da un filtro è un’operazione di convoluzione con un segnale noto (la risposta all’impulso del filtro), quindi il comportamento sui segnali deterministici è noto. Resta da vedere come si comporta sui processi stocastici.
X(t)
h(t)
Y(t)
F IGURA 3.4.2. Filtraggio del processo X(t) Ogni realizzazione del processo di partenza X(t) è ottenuta mediante estrazione di un risultato dallo spazio campione ⌦: x(t; !). Questa realizzazione è un segnale che ammette un’uscita dal sistema filtro: y(t) = x(t; !) ? h(t), dove l’operazione ? denota la convoluzione. Per ogni risultato dello spazio campione ⌦ si ha una realizzazione differente e quindi un segnale di uscita differente. L’insieme dei segnali di uscita costituiscono un nuovo processo, Y (t), che può complessivamente denotarsi con:
(3.4.1)
Y (t) = X(t) ? h(t)
3.4. FILTRAGGIO DI UN PROCESSO ALEATORIO
90
Generalmente il problema di determinare la funzione densità di probabilità congiunta di qualunque ordine del processo di uscita, ammesso che sia nota quella del processo di partenza, è insolubile. Quello che si fa allora è di determinare la relazione che esiste tra i parametri stastitici del primo e secondo ordine (si suppone di essere riusciti a determinare per lo meno la funzione valor medio e la funzione di autocorrelazione di X(t)). La funzione valor medio vale:
µy (t) = E[Y (t)] = E[X(t) ? h(t)] = Z
(3.4.2)
Z
+1
h(⌧ )E[X(t
⌧ )]d⌧ =
1
+1
h(⌧ )µx (t
⌧ )d⌧ = µx (t) ? h(t)
1
La funzione valor medio in uscita si ottiene effettuando la convoluzione tra la funzione valor medio in ingresso con la risposta all’impulso del sistema. Il processo in ingresso si può sempre pensare, ai fini del filtraggio, come la somma di una funzione deterministica, µx (t) e di un processo a valor medio nullo: X(t) = Xo (t) + µx (t). Il filtraggio del processo X(t), per la linearità del sistema, dà in uscita un processo somma di due componenti: quella deterministica è ottenuta filtrando il segnale deterministico µx (t), la componente statistica ha valor medio nullo. Vediamo adesso la funzione di autocorrelazione del segnale di uscita:
Ry (t1 , t2 ) = E[Y (t1 )Y (t2 )] = E[(X(t1 ) ? h(t1 ))(X(t2 ) ? h(t2 ))] = = E[ = = (3.4.3) =
Z
+1 1
Z Z
Z
Z
+1
X(↵)h(t1
↵)d↵
1
+1 1 +1 1
Z Z
Z
+1
X( )h(t2
)d ] =
1
+1
E[X(↵)h(t1
↵)X( )h(t2
)]d↵d =
1 +1
h(t1
↵)h(t2
)E[X(↵)X( )]d↵d =
1
+1
h(t1 1
↵)h(t2
)Rx (↵, )d↵d = Rx (t1 , t2 ) ? h(t1 ) ? h(t2 )
3.4. FILTRAGGIO DI UN PROCESSO ALEATORIO
91
La doppia convoluzione va intesa nel senso che, nella prima la variabile t2 è considerata costante, nella seconda convoluzione è t1 ad essere considerata costante. 3.4.1. Filtraggio di un processo stazionario in senso lato. Particolare interesse assume il caso in cui il processo in ingresso al filtro sia stazionario in senso lato. Per la funzione valor medio sia ha infatti la seguente relazione ingresso-uscita:
(3.4.4)
µy (t) = µy =
Z
+1
h(⌧ )µx (t
⌧ )d⌧ = µx
1
Z
+1
h(⌧ )d⌧ = H(0) · µx
1
dove H(0) è il valore che la trasformata di Fourier della risposta all’impulso del sistema (la sua funzione di trasferimento H(f )) assume in f = 0. La funzione di autocorrelazione vale:
Ry (t, t
⌧ ) = E[Y (t)Y (t = E[
Z
+1
Z = E[ =
Z
h(↵)X(t 1 +1 1
+1 1
= (3.4.5)
⌧ )] = E[(X(t) ? h(t))(X(t
=
Z
Z
Z
Z
↵)d↵
+1
Z
⌧ ) ? h(t
⌧ ))] =
+1
h( )X(t
⌧
)d ] =
1
h(↵)h( )X(t
↵)X(t
⌧
)d↵d ] =
h(↵)h( )E[X(t
↵)X(t
⌧
)]d↵d =
1
+1 1 +1 1
Z
+1
h(↵)h( )Rx (⌧ + 1
+1 1
h( ) · [
Z
↵)d↵d =
+1
h(↵)Rx (⌧ +
↵)d↵]d
1
Si osservi subito che la funzione di autocorrelazione non dipende da t, ma solo da ⌧ . Inoltre:
(3.4.6)
Z
+1
h(↵)Rx (⌧ + 1
↵)d↵ = Rx (⌧ + ) ? h(⌧ + )
3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO
92
Quindi la funzione di autocorrelazione in uscita diventa:
(3.4.7)
Ry (⌧ ) =
Z
+1 1
h( ) · [Rx (⌧ + ) ? h(⌧ + )]d = Rx (⌧ ) ? h(⌧ ) ? h( ⌧ )
Se poi si osserva che la convoluzione di un segnale con se stesso ribaltato rispetto all’asse dei tempi è la autocorrelazione deterministica, si ha che: h(⌧ )?h( ⌧ ) = rh (⌧ ). Quindi: Ry (⌧ ) = Rx (⌧ ) ? rh (⌧ ). In conclusione: T HEOREM 3.4.1. Se un processo in ingresso ad un sistema lineare tempo invariante è stazionario in senso lato, lo è anche in uscita dal sistema. Il valore medio e la funzione di autocorrelazione del processo in uscita sono legate a quelle del processo in ingresso tramite, rispettivamente, le (3.4.4) e (3.4.7). 3.5. Analisi Spettrale di un Processo Aleatorio Poichè si è introdotto il problema del filtraggio di un processo aleatorio, può avere senso la descrizione dello stesso problema in termini spettrali, dato che per il sistema la funzione di trasferimento è facilmente calcolabile. Si deve tuttavia introdurre l’analisi frequenziale per i processi aleatori. Si supporrà di studiare le proprietà in frequenza per i soli processi aleatori stazionari in senso lato, anche se, concettualmente, è possibile analizzare nel dominio delle frequenze un qualunque processo aleatorio. La caratterizzazione di un processo aleatorio in frequenza, in termini di spettro di ampiezza e fase è normalmente inusuale. E’ infatti sempre concepibile l’estrazione di una realizzazione x(t) dal processo X(t) e la sua trasformazione secondo Fourier. Tuttavia l’analisi dell’intero processo richiederebbe lo studio in frequenza di ogni realizzazione del processo. Conseguentemente le ampiezze e le fasi dello spettro sarebbero caratterizzate in maniera aleatoria, con relazione tra aleatorietà nel tempo e aleatorietà in frequenza non banale. E’ allora più comune limitarsi alla descrizione degli spettri di potenza del segnale aleatorio. Le realizzazioni di un processo stazionario in senso lato non possono essere segnali ad energia finita. Infatti tutti i segnali ad energia finita prima o poi, al tendere di t ! 1 tendono a zero. Se così fosse anche la funzione valor medio, calcolata per valori di t ! 1 tenderebbe a zero, e quindi, a meno che non è sempre pari a zero, essa non sarebbe più un valore costante. Quindi generalmente le realizzazioni di un processo stazionario in senso lato sono segnali a potenza finita e perciò il processo aleatorio ammette spettro di potenza. La funzione densità spettrale di potenza di un processo aleatorio è la media delle funzioni densità spettrale di potenza ottenute per le singole realizzazioni:
3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO
(3.5.1)
93
|= {xT (t; !)}|2 Sx (f ) = E[Sx (f ; !)] = E[ lim ] T !1 T
dove l’operazione di media va fatta tra tutti i segnali aleatori Sx (f ; !) che si ottengono prendendo i pezzi delle realizzazioni del processo X(t) che sono compresi tra [ T /2, T /2], e cioè: t xT (t; !) = x(t; !) · rect( ) T e facendone il modulo quadro della loro trasformata di Fourier. La definizione di spettro di potenza ricalca quindi quella che si potrebbe fare per un segnale deterministico di potenza. L’unica differenza è dovuta alla presenza di una collezione (anche infinita) di realizzazioni sulla quali non possiamo fare altro che effettuare una media. Questa definizione è del tutto generale, cioè è valida anche per processi non stazionari. Normalmente essa è molto difficile da utilizzare, anche per processi stazionari in senso lato. Si utilizza allora nella pratica la definizione dovuta a Wiener-Kintchine. In base a questa definizione P ROPOSITION 3.5.1. la densità spettrale di potenza dei processi stazionari è calcolabile come trasformata di Fourier della funzione di autocorrelazione:
(3.5.2)
Sx (f ) =
Z
+1
Rx (⌧ )e
j2⇡f ⌧
d⌧
1
Vediamo alcune proprietà. (1) La densità spettrale di potenza di un processo aleatorio e stazionario in senso lato è una funzione reale e pari, dato che è la trasformata di Fourier di un segnale reale e pari (2) La potenza statistica media del processo (che si ricordi è una costante, data la stazionarietà del processo) è pari all’integrale della densità spettrale di frequenza su tutto l’asse delle frequenze: (3.5.3)
2
Px = E[X (t)] =
Z
+1
Sx (f )df 1
3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO
94
(3) la densità spettrale di potenza è una funzione non negativa: Sx (f ) 0. Quest’ultima proprietà discende direttamente dalla definizione diretta, e non dalla definizione di Wiener-Kintchine. 3.5.1. Filtraggio di un processo stazionario. Riprendiamo allora il problema del filtraggio visto in fig. 3.4.2 di un processo stazionario e vediamo come ora si può caratterizzare la densità spettrale del processo in uscita, nota la densità spettrale del processo in ingresso. Sappiamo infatti che, se il processo in ingresso è stazionario in senso lato, lo è anche quello in uscita. La densità spettrale del processo in uscita vale:
(3.5.4)
Sy (f ) = F {Rx (⌧ ) ? h(⌧ ) ? h( ⌧ )} = Sx (f )H(f )H( f )
Inoltre, poichè il sistema si suppone reale, H( f ) = H ⇤ (f ), si ha:
Sy (f ) = Sx (f ) · |H(f )|2
(3.5.5)
che è la stessa relazione che vale per gli spettri di potenza dei segnali deterministici. La risposta in fase del sistema non influenza la densità spettrale del processo in uscita. Nella densità spettrale di potenza sono quindi contenute tutte le informazioni spettrali del processo e cioè come si distribuisce la potenza sulle varie componenti armoniche, dato che Sx (f ) si comporta come la densità spettrale di potenza di un segnale deterministico. Conseguentemente il significato di densità spettrale di potenza è lo stesso per i segnali deterministici e per i processi aleatori: una fettina spettrale alla frequenza f rappresenta il contenuto in potenza del processo sulla sinusoide a frequenza f moltiplicato per la banda passante infinitesima intorno a f , df : dPx (f ) = Sx (f )df . E XAMPLE 3.5.2. Calcoliamo la densità spettrale di potenza del processo visto in (3.1.2): X(t) = A · sin(2⇡fo t + ⇥), con ⇥ = U [0, 2⇡[. Poichè il processo è stazionario in senso lato, la sua densità spettrale di potenza può essere calcolata secondo la definizione di Wiener-Kintchine. Poichè si è già trovato che: Rx (⌧ ) = a2 cos(2⇡fo ⌧ ), la densità spettrale di potenza vale: 2
(3.5.6)
Sx (f ) = F
⇢
a2 cos(2⇡fo ⌧ ) 2
=
a2 [ (f 4
fo ) + (f + fo )]
3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO
95
La potenza dell’intero processo è quindi concentrata sulla frequenza fo . La funzione di autocorrelazione misura, come già detto, la velocità di variazione e l’autosomiglianza di un processo con sè stesso. Poichè la densità spettrale di potenza è la trasformata di Fourier della funzione di autocorrelazione (per i processi stazionari), allora anche la densità spettrale di potenza può caratterizzare un processo. In particolare, quanto più rapidamente variano le singole realizzazioni di un processo, tanto più larga è la banda passante della densità spettrale di potenza, dato che ad una banda larga corrisponde una funzione di autocorrelazione piccola. Quindi a variazioni rapide corrispondono termini spettrali a potenza non nulla sempre più in alta frequenza. Nella figura 3.5.1 è riportata una singola realizzazione di tre processi, ciascuno dei quali presenta una densità spettrale di potenza a banda crescente. Si osservi come, al crescere della banda aumenta non solo la rapidità di variazione della realizzazione, ma anche l’ampiezza delle escursioni, e cioè la potenza complessiva del segnale 1.5 1 0.5 0 −0.5 −1 −1.5
0
1000
2000
3000
4000
5000
6000
7000
8000
1.5 1 0.5 0 −0.5 −1 −1.5
0
1000
2000
3000
4000
5000
6000
7000
8000
3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO
96
1.5 1 0.5 0 −0.5 −1 −1.5
0
1000
2000
3000
4000
5000
6000
7000
8000
F IGURA 3.5.1. Esempio di tre processi a banda crescente nello spettro di potenza 3.5.2. Processo aleatorio bianco. Si supponga ora di considerare un processo la cui densità spettrale di potenza ha una banda che cresce illimitatamente, pur mantenendo lo stesso valore per f = 0. La funzione di autocorrelazione di tale processo tenderà ad un valore piccolissimo (la funzione non assomiglia quasi per niente a sè stessa e varia sempre più rapidamente). Al limite per f ! 1 la funzione di autocorrelazione diventa impulsiva e quindi la densità spettrale di potenza diventa costante su tutto lo spettro di frequenze:
(3.5.7)
Rx (⌧ ) = n · (⌧ ) , Sx (f ) = n
A tale tipo di processo, astrazione matematica di molti fenomeni reali, si dà il nome di processo di rumore bianco. Il nome rumore bianco deriva dal fatto che tutte le componenti spettrali sono ugualmente rappresentate, così come tutti i colori sono ugualmente rappresentati nel processo di composizione della luce bianca. Il valor medio di questo processo è nullo, dato che il valor medio è pari al lim⌧ !1 Rx (⌧ ) = 0. Inoltre si capisce bene che tale processo è solo una idealizzazione, dato che esso dovrebbe possedere potenza infinita, condizione impossibile per un qualunque processo che modelli un segnale fisico. Una delle applicazioni più comuni di questa idealizzazione consiste nel modellamento del rumore termico. Un comune resistore, oltre a presentare una certa resistenza R, presenta anche una debole tensione di rumore, dovuta alla casuale agitazione termica degli elettroni nel materiale che compone il resistore. Questa agitazione termica è tanto più elevata quanto più alta è la temperatura assoluta alla quale si trova il resistore. Il modello che normalmente si utilizza è allora quello di considerare il resististore
3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO
97
ideale e di porre in serie ad esso un generatore di tensione con tensione pari a n(t) V , dove n(t) è un processo casuale, responsabile della produzione di rumore termico. L’espressione che assume la densità spettrale di potenza del rumore termico deriva da considerazioni di carattere quantistico (e quindi non verrà effettuata in questa sede) ed assume la forma:
(3.5.8)
Sn (f ) = kTR
|f | /fo
e|f |/fo
1
dove il valore di fo è: fo = kTR /h, con k = 1.38 · 10 23 J/K costante di Boltzmann, h = 6.62 · 10 34 J · s costante di Plank e TR temperatura assoluta del resistore. Alla temperatura ambiente il valore di fo è estremamente alto (⇠ 6T Hz). Poichè i valori di frequenza che normalmente si utilizzano nelle applicazioni pratiche sono molto più bassi, l’espressione precedente si può approssimare come segue:
(3.5.9)
Sn (f ) = kTR
|f | /fo
e|f |/fo
1
⇡ kTR
cioè come una costante. Il processo di rumore bianco è quindi, in questo caso, un utile idealizzazione di una situazione reale. Un circuito elettrico infatti che sia composto da un filtro con banda passante B ⌧ fo , “vedrà” la densità spettrale del processo praticamente come piatta. E XAMPLE 3.5.3. Si voglia determinare la densità spettrale di potenza del processo in uscita dal sistema riportato in figura 3.5.2, con N (t) un processo stazionario in senso lato e densità spettrale di potenza costante e pari ad n. Il primo blocco effettua una media pesata del segnale in ingresso su un intervallo [t T, T ]:
(3.5.10)
1 T
Z
t
(•)d⌧
t T
La sua risposta all’impulso vale allora: g(t) = T1 rect( t TT /2 ). Il secondo blocco è un filtro passa banda ideale, con banda pari a 2/T intorno ad f0 , con f0 T 1. Infine il moltiplicatore moltiplica per un oscillatore locale la cui espressione è del tipo: p(t) = 2 cos(2⇡f0 t + ⇥), quindi è in realtà un processo, con ⇥ variabile aleatoria con densità di probabilità uniforme in [0, 2⇡[.
3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO
N(t)
X(t)
Z(t)
Y(t)
g(t)
98
H(f)
p(t) | H(f) | 2/T f −f0
0
f0
F IGURA 3.5.2. Sistema dell’esempio e filtro passa banda H(f ) Poichè il processo in ingresso è stazionario in senso lato e il blocco g(t) è lineare e tempo invariante, anche il processo in uscita X(t) è stazionario in senso lato. Il suo valor medio è: µx = µn G(0) = 0 · G(0) = 0, essendo il processo in ingresso a media nulla. La funzione di autocorrelazione di X(t) é: (3.5.11) Rx (⌧ ) = Rn (⌧ ) ? g(⌧ ) ? g( ⌧ ) = n (⌧ ) ? rg (⌧ ) = nrg (⌧ ) =
n (1 T
|⌧ | ⌧ )rect( ) T 2T
e dipende solo da ⌧ . La corrispondente densità spettrale di potenza vale: Sx (f ) = F {Rx (⌧ )} = n · sinc2 (T f ). Il processo p(t) sappiamo che è stazionario, avendo valor medio nullo e funzione di autocorrelazione pari a: Rp (⌧ ) = 2 cos(2⇡fo ⌧ ). La funzione valor medio del prodotto tra le due è:
(3.5.12)
µy (t) = E[X(t)p(t)] = 2E[X(t) cos(2⇡f0 t + ⇥)]
Poichè la v.a. ⇥ è indipendente dalla sinusoide in cui è contenuta (all’interno del processo p(t)) lo è a maggior ragione anche dal processo X(t). Quindi l’aspettazione del prodotto è pari all’aspettazione presa separatamente dei singoli processi: µy (t) = E[X(t)p(t)] = E[X(t)]E[p(t)] = 0. La funzione di autocorrelazione vale:
3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO
Ry (t, t
= 4E[X(t)X(t
= 4E[X(t)X(t
(3.5.13)
⌧ ) = E[Y (t)Y (t
99
⌧ )] =
⌧ ) cos(2⇡f0 t + ✓) cos(2⇡f0 (t
⌧ ) + ✓)] =
⌧ )] · E[cos(2⇡f0 t + ✓) cos(2⇡f0 (t
⌧ ) + ✓)] =
= 2Rx (⌧ ) · cos(2⇡f0 ⌧ )
Anche il processo Y (t) è quindi stazionario in senso lato, essendo il suo valor medio nullo e la sua funzione di autocorrelazione dipendente solo da ⌧ . La densità spettrale di potenza è la trasformata di Fourier di Ry (⌧ ): Sy (f ) = F {Ry (⌧ )} = (3.5.14) = n · sinc2 (f T ) ? [ (f
fo ) + (f + fo )] = n · [sinc2 (T (f
fo )) + sinc2 (T (f + fo ))]
La maggior parte della potenza si è spostata attorno ad fo , anche se le code delle funzioni sinc2 si sovrappongono sino ad infinito. L’effetto del filtraggio passa banda finale è quello di tagliare appunto queste code, in modo da lasciar passare solo la parte dello spettro che contiene più potenza (vedi in figure 3.5.3 ed 3.5.4 ). Approssimatamente quindi lo spettro di potenza in uscita si può scrivere come: (3.5.15) Sz (f ) ⇡ n · [sinc2 (T (f
fo )) · rect(
f
fo f + fo ) + sinc2 (T (f + fo )) · rect( )] 2/T 2/T
3.6. PROCESSI ALEATORI GAUSSIANI
100
1.2 1 0.8 0.6 0.4 0.2 0 −15
−10
−5
0 5 frequenze normalizzate fT
10
15
F IGURA 3.5.3. Filtraggio del processo Y (t). I valori nell’esempio riportato sono: f0 T = 5.
1
0.8
Sz(f)
0.6
0.4
0.2
0 −15
−10
−5
0 5 frequenze normalizzate fT
10
15
F IGURA 3.5.4. Densità spettrale di potenza in uscita dal sistema, Sz (f ) 3.6. Processi Aleatori Gaussiani Nell’esempio del rumore termico la generazione della tensione di rumore è dovuta alla somma della tensione provocata dal movimento casuale degli elettroni. Poichè il processo in esame è generato dal contributo di molti fenomeni elementari ed indipendenti, si può ritenere che la statistica del processo stesso sia di tipo gaussiano (per il teorema del limite centrale). Poichè una grande quantità di fenomeni fisici si comportano in modo simile, è utile studiare le proprietà dei processi gaussiani. D EFINITION 3.6.1. Un processo aleatorio X(t) è gaussiano se scelto n arbitrariamente grande ed n istanti di tempo t1 , t2 , ..., tn , le variabili aleatorie [X(t1 ), X(t2 ), ..., X(tn )] sono congiuntamente gaussiane. In questa definizione è quindi necessario verificare non solo la gaussianità della singola variabile aleatoria che si può ottenere ad ogni istante t, ma anche del vettore aleatorio [X(t1 ), X(t2 ), ..., X(tn )], comunque si scelgano gli istanti di tempo. Molti fenomeni fisici sono modellati come processi gaussiani (onde sismiche, voce umana, rumore termico, etc) e questo spiega la centralità di questo tipo di processi nello studio dei processi stocastici.
3.6. PROCESSI ALEATORI GAUSSIANI
101
La descrizione statistica completa di un processo è possibile solo se è nota la sua funzione di densità di probabilità di ogni ordine e per ogni n pla di istanti di tempo: fx (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ). Tuttavia se X(t) è gaussiano la densità di probabilità congiunta ha una forma nota: (3.6.1)
1 1 fX (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ) = p · exp( (x 2 (2⇡)n det |CX |
µX )T CX 1 (x
µX ))
dove il vettore aleatorio x è quello che si ottiene estraendo le variabili aleatorie [X(t1 ), X(t2 ), ..., X(tn )]. Per la conoscenza completa della funzione di densità di probabilità congiunta (e quindi dell’intero processo) è sufficiente conoscere quindi la funzione valor medio e la funzione di autocovarianza; µx (t) e Cx (t1 , t2 ). Infatti per ogni n pla di istanti di tempo (t1 , t2 , ..., tn ) si ha:
(3.6.2)
µX = [µx (t1 ), µx (t2 ), ..., µx (tn )]
Invece per la funzione di autocovarianza si ha: Cx = [cij ], dove (3.6.3) cij = E[(X(ti )
µx (ti )) · (X(tj )
µx (tj ))] = Cx (ti , tj ) = Rx (ti , tj )
µx (ti )µx (tj )
Una delle proprietà notevoli dei processi gaussiani consiste nel fatto che la stazionarietà in senso lato implica la stazionarietà in senso stretto (cosa generalmente non vera). Infatti la stazionarietà in senso lato equivale ad imporre una funzione valor medio costante ed una funzione di autocorrelazione dipendente solo dalla differenza degli istanti di tempo: µX (t) = µX e Rx (t1 , t2 ) = Rx (⌧ ). Se allora si considera l’n pla di istanti:
[t1 +
t, t2 +
t, ..., tn +
t]
in tali istanti la funzione valor medio non sarà cambiata poichè è una costante. La funzione di autocovarianza rimane anch’essa costante dato che dipende solo dalle differenze tra una qualunque coppia di istanti di tempo.
3.6. PROCESSI ALEATORI GAUSSIANI
102
Poiche infine la funzione di densità di probabilità congiunta del processo dipende solo da questi due parametri statistici, si può concludere che il processo stazionario in senso lato lo è anche in senso stretto. Quando si fa passare un processo attraverso un sistema lineare tempo-invariante, di cui si conosce la funzione di trasferimento, è generalmete difficile determinare la funzione di densità di probabilità congiunta di uscita, anche se nota quella di ingresso. I processi gaussiani fanno eccezione a questa regola: un processo gaussiano che venga fatto passare attraverso un sistema lineare conserva la sua proprietà principale di gaussianità; inoltre conserva anche la stazionarietà se il sistema è anche tempo-invariante e il processo in ingresso è stazionario. Intuitivamente il motivo per cui la statistica del processo non cambia si può comprendere osservando l’operazione che si effettua quando il processo passa attraverso il sistema:
(3.6.4)
Y (t) = X(t) ? h(t) =
Z
+1
X(↵)h(t
↵)d↵
1
Questa operazione si può pensare come una somma di infiniti termini, ciascuno del quali vale approssimatamente: (3.6.5)
X(k ↵)h(t
k ↵) ↵
dove si deve pensare k intero e ↵ molto piccolo. Poichè allora il processo in uscita altro non è che una combinazione lineare di tanti processi in ingresso, tutti gaussiani (X(t), calcolato per t = k ↵ è gaussiano), è anch’esso gaussiano, comunque si scelga l’n pla degli istanti di tempo [t1 , t2 , ..., tn ]. E XAMPLE 3.6.2. Si consideri un processo gaussiano stazionario con densità spettrale di potenza:
(3.6.6)
Sn (f ) = No (1
|f | f )rect( ) B 2B
e si supponga di far passare questo processo attraverso un campionatore. Il campionatore è un sistema che, dato un segnale continuo, ne estrae il valore per particolari istanti di tempo, normalmente equispaziati. A partire da una funzione tempo continua
3.6. PROCESSI ALEATORI GAUSSIANI
103
costruisce quindi una funzione tempo discreta o, se si preferisce, una successione di numeri reali. Il campionatore campioni il processo agli istanti di tempo k/B. Se k lo facciamo variare da 1, ..., n otterremo n numeri reali
X(t1 = 1/B), X(t2 = 2/B), ..., X(tn = n/B)
corrispondenti ad n variabili aleatorie. Si vuole calcolare la densità di probabilità congiunta di queste n variabili aleatorie fx (x1 , x2 , ..., xn ). S n(f) N0
−B
0
f
B
Xk
X(t) k/B
F IGURA 3.6.1. Densità spettrale e schema a blocchi dell’esempio 3.6.2 Si osservi subito che se X(t) è un processo a valor medio nullo, anche il processo campionato, essendo l’insieme di n v.a. a valor medio nullo, è a valor medio nullo. Inoltre la sua funzione di autocovarianza vale:
cxi xj = E[(Xi (3.6.7)
µxi )(Xi = Rx (ti
µxj )] = E[Xi Xj ] = E[X(ti )X(tj )] = tj ) = Rx (
i
j B
)
Poichè conosciamo Sn (f ) è possibile esprimere in forma chiusa anche la funzione di autocorrelazione:
(3.6.8)
Rn (⌧ ) = No B · sinc2 (B⌧ )
3.7. PROCESSI ERGODICI
104
Quindi l’autocovarianza vale: cxi xj = No B · sinc2 (i j) = No B · ik (con ik simbolo di Kronecker) ed è una matrice diagonale. Questo ci dice che le variabili aleatorie estratte con l’operazione di campionamento sono a due a due incorrelate. Essendo inoltre congiuntamente gaussiane (l’operazione di campionamento è infatti chiaramente lineare) esse sono a due a due indipendenti. La loro potenza statistica, è pari anche alla loro varianza: Rn (0) = No B. La densità di probabilità congiunta è allora il prodotto delle singole densità di probabilità delle v.a. [X1 , X2 , ..., Xn ]:
f (x1 , x2 , ..., xn ) =
n Y
f (xk )
k=1
(3.6.9)
1 x2 + x22 + ... + x2n f (x1 , x2 , ..., xn ) = p exp( 1 ) 2No B (2⇡)n · (No B)n 3.7. Processi Ergodici
I parametri statistici di un processo aleatorio si possono considerare operazioni d’insieme, poichè sono effettuate sull’insieme delle funzioni campione (o realizzazioni). Ad esempio la funzione valor medio si determina, per ogni istante fissato t, effettuando la media di tutte le realizzazioni in t, nota che sia la funzione densità di probabilità di primo ordine per quell’istante. Questa operazione, dal punto di vista teorico non comporta alcuna difficoltà, ammesso che del processo si conosca una forma chiusa, ammesso cioè che si sia in grado di scrivere ogni possibile realizzazione del processo, insieme con la funzione di densità di probabilità del primo ordine (o di ordine superiore per le altre statistiche). In pratica la funzione di densità di probabilità non è nota e a volte non si riesce nemmeno a fare delle ipotesi ragionevoli sulla sua forma con misure statistiche sul processo in esame. A volte infatti, di un dato processo, è possibile misurare soltanto una singola realizzazione. La domanda che sorge spontanea è allora: è possibile effettuare alcune misure sulla singola realizzazione per ottenere un comportamento statistico generale ? La risposta a questa domanda è sì, a volte si può fare, ma ciò dipende da una particolare proprietà che possono possedere i processi aleatori. Questa proprietà è l’ergodicità. D EFINITION 3.7.1. Un processo aleatorio stazionario in media si dice ergodico in media se, con probabilità che tende ad 1 si ha che la media d’insieme coincide con la media temporale effettuata sulla singola realizzazione:
3.7. PROCESSI ERGODICI
(3.7.1)
P ( E[X(t)] = lim
T !1
Z
105
T /2
x(t)dt ) = 1 T /2
Tale definizione nasce infatti dall’osservazione che, se si possiede una sola realizzazione del processo, può avere senso effettuare delle misure deterministiche sul quel processo (media temporale, misura della autocorrelazione e così via). In particolare per la misura della media temporale può accadere che questa sia differente realizzazione per realizzazione oppure che, anche se sempre uguale per tutte le realizzazioni, sia differente dalla media d’insieme del processo in esame. Per alcuni processi invece capita che non solo la media temporale è uguale per tutte le realizzazioni, ma anche che questo valore è pari a quello che si determina dalla media d’insieme. Tali processi sono appunto detti ergodici in media. Un processo ergodico in media è un processo la cui singola realizzazione si comporta come tutto il processo in esame dal punto di vista statistico, permette cioè misure di media che dovrebbero essere fatte altrimenti su tutta la statistica del processo stesso. E’ evidente che, affinchè un processo sia ergodico, è necessario che sia stazionario, dato che la media temporale è necessariamente un valore singolo e quindi non potrebbe mai essere pari ad una funzione del tempo (se il processo non fosse stazionario). Si osservi che nella definizione non abbiamo dato una condizione di uguaglianza con certezza, ma con probabilità tendente ad 1, che è una cosa differente. Infatti quando si osserva la singola realizzazione, questa è una sola tra le tante che potrebbero capitare, e quindi il valore che estraiamo della media temporale è essa stessa una variabile aleatoria. L’uguaglianza di tale variabile aleatoria con una costante (il valor medio ottenuto come media d’insieme) può essere fatta solo in termini probabilistici, affermando cioè che tale variabile aleatoria ha valor medio che coincide con la media d’insieme e varianza nulla. Si tenga inoltre presente che nei casi pratici non si può osservare nemmeno tutta la realizzazione (cioè da 1 a +1) e quindi quella che si ottiene è solo una stima del valor medio (che a sua volta è una variabile aleatoria). Quello che nella pratica si riesce ad ottenere è quindi:
(3.7.2)
1 XT = T
Z
T /2
x(t)dt T /2
la media temporale sarà quindi:
Xm = lim XT T !1
3.7. PROCESSI ERGODICI
106
ed inoltre:
(3.7.3)
µXm = lim µXT , T !1
2 Xm
= lim
T !1
2 XT
!0
anche se questi ultimi risultati non sono accessibili in una situazione reale. Si ricordi infine che, essendo la varianza della variabile aleatoria XT pari alla funzione di autocovarianza valutata per ⌧ = 0, il verificarsi della condizione di ergodicità in media è subordinato al verificarsi di una determinata condizione (CXT (0) ! 0) che coinvolge la statistica del secondo ordine del processo. Per il calcolo della media temporale si definisce un operatore valor medio temporale, che si può applicare a qualunque segnale x(t) determinato o no:
(3.7.4)
1 hx(t)i = lim T !1 T
Z
T /2
x(t)dt T /2
La proprietà di ergodicità in media può essere allora riscritta nel modo seguente:
(3.7.5)
E[X(t)] = hx(t; !)i
dove si è messo in evidenza che la media temporale è stata effettuata sulla particolare realizzazione estratta dal processo X(t). Se però il processo è ergodico tale valore è uguale per tutte le realizzazioni e quindi, con notazione non proprio rigorosa si può scrivere:
(3.7.6)
E[X(t)] = hX(t)i
La dimostrazione che l’uguaglianza della definizione vale con probabilità pari ad 1 è legata alla dimostrazione che la media della variabile aleatoria hx(t)i sia pari al valor medio d’insieme e la sua varianza tenda a zero. L’aspettazione della media temporale
3.7. PROCESSI ERGODICI
107
è:
1 E[hx(t)i] = E[ lim T !1 T 1 = lim T !1 T
(3.7.7)
Z
T /2 T /2
Z
T /2
x(t)dt] = T /2
1 E[x(t)]dt = lim T !1 T
Z
T /2
µx dt = µx T /2
La varianza della variabile aleatoria hx(t)i invece vale: V ar(hx(t)i) = E[(hx(t)i 1 = E[( lim T !1 T
Z
T /2 T /2
Z
1 = lim E[ 2 T !1 T
Z
1 = lim 2 T !1 T 1 = lim 2 T !1 T
Z
T /2 T /2
Z
1 µx ) ] = lim E[( T !1 T 2
x(t)dt
1 = lim E[ 2 T !1 T
Z
T /2 T /2
T /2
(x(t) T /2 T /2 T /2
T /2 T /2
Z
µx )2 ] =
Z
µx )dt ·
Z
Z
T /2
x(t)dt
µx )2 ] =
T /2
T /2
(x(t)
µx )dt] =
T /2
T /2
(x(t)
µx )(x(t1 )
µx )dtdt1 ] =
E[(x(t)
µx )(x(t1 )
µx )]dtdt1 =
T /2
T /2 T /2
1 Cx (t, t1 )dtdt1 = lim 2 T !1 T
Z
T /2 T /2
Z
T /2
Cx (t
t1 )dtdt1 =
T /2
dove l’ultima uguaglianza vale solo nell’ipotesi che il processo sia stazionario in senso lato e non solo in media. In questa ipotesi infatti la dimostrazione che la varianza di hx(t)i va a zero per T ! 1 risulta più semplice (la dimostrazione nel caso più generale è più complessa). Se ora si pone t t1 = u, si osserva che al variare di (t, p t1 ) nel quadrato [ T /2, T /2]⇥ [ T /2, T /2], u varia da [ T, T ]. Inoltre dtdt1 = 2(T |u|)du: si provi infatti a calcolare l’area del rettangolino che si ottiene spostando di un infinitesimo du la retta t t1 = u (vedi figura 3.7.1).
3.7. PROCESSI ERGODICI
108
t1
T/2
t−t1 = u t−t1 = u+du
0
−T/2
T/2
t
−T/2
F IGURA 3.7.1. Calcolo del differenziale nel cambio di variabile t t1 = u Quindi:
(3.7.8)
1 = lim 2 T !1 T
Z
T
p
|u|)Cx (u)du = 0
2(T
T
dato che la funzione di autocovarianza non può divergere per nessun valore della variabile indipendente. E’ quindi dimostrata la definizione di ergodicità in media secondo la relazione probabilistica. L’operatore di media temporale può essere utilizzato per definire l’autocorrelazione di un segnale deterministico a potenza finita:
(3.7.9)
hx(t)x(t
1 ⌧ )i = lim T !1 T
Z
T /2
x(t)x(t
⌧ )dt
T /2
Risulta allora abbastanza chiaro che il concetto di ergodicità in media può essere estesa anche alla autocorrelazione, purchè il processo sia stazionario non solo in media ma anche per quel che riguarda l’autocorrelazione, sia cioè stazionario in senso lato. D EFINITION 3.7.2. Un processo aleatorio stazionario in senso lato è ergodico in autocorrelazione se con probabilità pari ad 1 risulta vera l’uguaglianza;
3.7. PROCESSI ERGODICI
(3.7.10) Rx (⌧ ) = E[X(t)X(t
1 ⌧ )i = lim T !1 T
⌧ )] = hx(t)x(t
109
Z
T /2
x(t)x(t
⌧ )dt
T /2
Si osservi che l’ipotesi di stazionarietà è necessaria per l’ergodicità in autocorrelazione, dato che altrimenti il processo avrebbe una funzione di autocorrelazione d’insieme dipendente da due variabili, mentre l’autocorrelazione temporale dipende chiaramente da una sola variabile. Inoltre, per gli stessi motivi addotti precedentemente, è necessario dare anche in questo caso una definizione in termini probabilistici. L’ergodicità in autocorrelazione è importante poichè mediante questa è possibile determinare la funzione di autocorrelazione d’insieme mediante l’osservazione di una singola realizzazione. Dalla funzione di autocorrelazione si può poi calcolare la densità spettrale di potenza del processo. Le condizioni sull’ergodicità in autocorrelazione del processo coinvolgono grandezze statistiche del quarto ordine, poichè si deve provare che la varianza della variabile aleatoria
(3.7.11)
hx(t)x(t
1 ⌧ )iT = T
Z
T /2
x(t)x(t
⌧ )dt
T /2
tende a zero al tendere di T ! 1. Un processo ergodico in valor medio e in autocorrelazione si dice ergodico in senso lato. D EFINITION 3.7.3. Un processo si dice ergodico in senso stretto se la proprietà di ergodicità vale per una qualunque grandezza statistica estratta dal processo (e di qualunque ordine): (3.7.12) E[g(X(t), X(t ⌧1 ), ..., X(t ⌧n 1 ))] = hg(X(t; !), X(t
⌧1 ; !), ..., X(t
⌧n 1 ; !))i
E XAMPLE 3.7.4. Dimostriamo che il processo X(t) = a · cos(2⇡fo t + ⇥), con ⇥ = U [0, 2⇡[, con a ed fo noti, è ergodico in senso lato. Abbiamo già dimostrato che tale processo è stazionario in senso lato (quindi il problema è ben posto). Inoltre si è già trovato che:
3.8. CENNI SULLE CATENE DI MARKOV
(3.7.13)
µx = 0,
Rx (⌧ ) =
110
a2 cos(2⇡fo ⌧ ) 2
Calcoliamo ora le corrispondenti medie temporali: (3.7.14) 1 hx(t; ✓)i = lim T !1 T
Z
T /2 T /2
1 a · cos(2⇡fo t + ⇥)dt = T
Z
T /2 T /2
a · cos(2⇡fo t + ⇥)dt = 0
dato che la media di un qualunque segnale periodico può essere valutata sul singolo periodo. Il risultato ottenuto è indipendente dal particolare valore di ⇥. Il processo è quindi ergodico in media. Per l’autocorrelazione temporale si ha poi:
hx(t; ✓)x(t 1 = T
Z
1 ⌧ ; ✓)i = lim T !1 T
Z
T /2 T /2
a · cos(2⇡fo t + ⇥)a · cos(2⇡fo (t
T /2
(3.7.15)
T /2
a · cos(2⇡fo t + ⇥)a · cos(2⇡fo (t
a2 ⌧ ) + ⇥)dt = 2T
Z
⌧ ) + ⇥)dt =
T /2
cos(2⇡fo ⌧ )dt = T /2
a2 cos(2⇡fo ⌧ ) = Rx (⌧ ) 2
Il processo è ergodico anche in autocorrelazione e quindi lo è in senso lato. 3.8. Cenni sulle Catene di Markov 3.8.1. Qualche definizione sulle catene di Markov. Le catene di Markov sono una delle applicazioni della teoria dei processi aleatori più diffusa. Esse sono utilizzate in un’enorme varietà di contesti poichè modellano molto bene una classe di fenomeni reali (gli arrivi e le attese in coda). Si supponga di considerare un processio aleatorio X(t) e si supponga di voler conoscere qualche proprietà della variabile aleatoria X(tk ) a partire dalla conoscenza delle variabili aleatorie X(t1 ), X(t2 ), ..., X(tk 1 ), con t1 , t2 , ..., tk arbitrariamente estratti. Si vuole quindi, se possibile, determinare:
3.8. CENNI SULLE CATENE DI MARKOV
(3.8.1)
111
P (X(tk ) = xk /X(tk 1 ) = xk 1 , X(tk 2 ) = xk 2 , ..., X(t1 ) = x1 )
D EFINITION 3.8.1. Un processo aleatorio è detto di Markov se risulta:
P (X(tk ) = xk /X(tk 1 ) = xk 1 , X(tk 2 ) = xk 2 , ..., X(t1 ) = x1 ) = (3.8.2)
= P (X(tk ) = xk /X(tk 1 ) = xk 1 )
cioè se l’evoluzione del processo dipende soltanto dall’osservazione della variabile aleatoria all’istante immediatamente precedente, comunque si scelgano t1 , t2 , ..., tk . La definizione precedente può anche essere posta in questi termini: l’evoluzione futura del processo dipende solo dallo stato attuale del processo e non dagli stati passati. Una prima proprietà è la seguente:
P (X(tk ) = xk , X(tk 1 ) = xk 1 , ..., X(t1 ) = x1 ) = P (X(tk ) = xk /X(tk 1 ) = xk 1 , X(tk 2 ) = xk 2 , ..., X(t1 ) = x1 )· ·P (X(tk 1 ) = xk 1 , X(tk 2 ) = xk 2 , ..., X(t1 ) = x1 ) = = P (X(tk ) = xk /X(tk 1 ) = xk 1 )· ·P (X(tk 1 ) = xk 1 , X(tk 2 ) = xk 2 , ..., X(t1 ) = x1 ) = ··· = P (X(tk ) = xk /X(tk 1 ) = xk 1 ) · P (X(tk 1 ) = xk 1 /X(tk 2 ) = xk 2 ) · ... (3.8.3)
... · P (X(t1 ) = x1 )
3.8. CENNI SULLE CATENE DI MARKOV
112
Naturalmente l’ultima quantità, cioè P (X(t1 ) = x1 ) è una probabilità non condizionata e deve essere nota a priori. D EFINITION 3.8.2. Una catena di Markov è detta omogenea quando le probabilità condizionate non dipendono dall’origine dell’asse dei tempi ma solo dalla differenza tra i tempi considerati: (3.8.4) P (X(tk ) = xk /X(tk 1 ) = xk 1 ) = P (X(tk +
t) = xk /X(tk
1
+
t) = xk 1 )
I processi di Markov che assumono solo valori discreti sono detti catene di Markov. Le catene di Markov possono essere tempo discrete o tempo continue a seconda che evolvano o no in modo discreto. 3.8.2. Catene di Markov tempo discrete. Per le catene di Markov discrete è allora possibile scrivere le probabilità di transizione ad un passo, cioè: pij = P (Xn+1 = i/Xn = j), dove l’evoluzione temporale nel caso di catene discrete è indicato con un indice sul processo aleatorio: X(tn ) = X(n · t) = Xn . E’ allora possibile raggruppare in forma matriciale le probabilità ad un passo, a seconda dei valori che il processo aleatorio può assumere. Naturalmente questa matrice può anche essere di dimensione infinita se il numero dei valori possibili assunti dal processo è infinito:
(3.8.5)
2
6 6 P =6 6 4
p00 p01 ... p0n p10 p11 ... p1n .. .. . . . . .. . . pn0 pn1 ... pnn ... ... ... ...
... ... .. .
3
7 7 7 7 ... 5 ...
La somma degli elementi su una riga deve necessariamente essere pari ad 1 (da uno stato il processo deve capitare con probabilità 1 in uno qualunque degli altri stati possibili:
(3.8.6)
X
pij = 1
j
Generalizzando la definizione precedente si può anche definire la probabilità di transizione ad k passi:
3.8. CENNI SULLE CATENE DI MARKOV
(3.8.7)
113
pij (k) = P (Xn+k = i/Xn = j)
P Si fa vedere facilmente che: pij (2) = k pik pkj , cioè la probabilità di transizione a due passi si determina effettuando il prodotto della riga i sima per la colonna j sima della matrice di transizione ad un passo. Allora è possibile costruire facilmente la matrice di transizione a due passi, dato che:
(3.8.8)
P (2) = P · P = P 2
e, generalizzando:
(3.8.9)
P (k) = P · ... · P} = P k | · P {z k volte
Se si vuole determinare la probabilità che all’istante tn una singola realizzazione del processo abbia valore pari a xi , si trova che:
P (Xn = i) = (3.8.10) X = P (Xn = i/Xn j
1
= j) · P (Xn
1
= j) =
X j
pij Pi (n
1) =
X
pij (n)Pi (0)
j
Dato un processo aleatorio che risulta essere anche una catena di Markov tempo discreta, normalmente le quantità note sono la matrice di transizione ad un passo e le probabilità iniziali del processo, cioè le: Pi (0) = P (Xo = i). D EFINITION 3.8.3. Una catena di Markov tempo discreta ammette equilibrio se esiste il limite:
(3.8.11)
lim Pi (n) = ⇧i
n!1
3.8. CENNI SULLE CATENE DI MARKOV
114
Si vuole vedere cioè se le probabilità, per tempi di osservazione lunghi si stabilizzano o variano continuamente. D EFINITION 3.8.4. Una catena di Markov si dice stazionaria se, ammettendo equilibrio risulta: ⇧i = Pi (0). In una catena di Markov stazionaria si dimostra facilmente che 8n : Pi (n) = ⇧i .
3.8.3. Catene di Markov tempo continue. Le catene di Markov tempo continue sono caratterizzate dal fatto che, seppure le singole realizzazioni del processo aleatorio assumono valori discreti, il cambiamento di stato avviene ad istanti qualunque e non per istanti discreti prefissati. Naturalmente vale il concetto generale che definisce le catene di Markov: l’evoluzione per stati futuri dipende solo dallo stato attuale del processo. Vale anche la definizione di catena omogenea, dato che questa è stata data in forma genericamente continua. Le proabilità di transizione da uno stato ad un altro possono ancora essere definite, ma ora sono genericamente funzioni del tempo:
(3.8.12)
P (X(s + t) = i/X(s) = j) = Pij (t)
Nel caso di catene di Markov tempo continue è utile definire il cosiddetto tempo di permanenza in un possibile stato. Questo tempo di permanenza è normalmente una variabile aleatoria, dato che la transizione da uno stato al successivo avviene in un istante non prevedibile. Se allora si vuole calcolare: P (Ti t) oppure la P (Ti > t) si ha: P (Ti > t + s/Ti > s) = P (Ti > t + s/X(s0 ) = i, 0 s0 s) = cioè la probabilità che il tempo di permanenza superi l’intervallo t + s, noto che è rimasto nello stato i un tempo almeno pari ad s, = P (Ti > t + s/X(s) = i) = se ora supponiamo la catena omogenea:
3.8. CENNI SULLE CATENE DI MARKOV
(3.8.13)
115
= P (Ti > t/X(0) = i) = P (Ti > t)
La relazione precedente è soddisfatta da una variabile aleatoria di tipo esponenziale: P (Ti > t) = e ⌫i t . Quindi il tempo di permanenza è modellabile come una variabile aleatoria esponenziale per catene di Markov tempo continue ed omogenee. La quantità 1/⌫i è il tempo medio di permanenza nello stato i, mentre ⌫i si può ritenere il numero medio di volte che il sistema fuoriesce dallo stato i nell’unità di tempo. Detta allora qij la probabilità di passare dallo stato i allo stato j, si ha che la probabilità di “saltare” da uno stato i ad uno stato j in un tempo piccolo è:
(3.8.14)
Pij ( ) = (1
Pii ( )) · qij ⇡ ⌫i qij [+O( 2 )]
La quantità ij = ⌫i qij è quindi il numero medio di transizioni che si effettuano nell’unità di tempo dallo stato i allo stato j. D EFINITION 3.8.5. Una catena di Markov tempo continua ammette equilibrio se al limite di t ! 1 la probabilità che il processo sia fermo su un particolare stato i non dipende più dalla variabile tempo, cioè se
(3.8.15)
9 lim Pi (t) = pi t!1
Per tali catene è possibile costruire un diagramma delle frequenze di transizione di stato, che mediante una rappresentazione con nodi ed archi permette di rappresentare le probabilità di transizione e quelle di permanenza in un determinato stato (vedi figura 3.8.1).
3.8. CENNI SULLE CATENE DI MARKOV
116
γ 12 1
2
γ 21 γ 32
γ 13
γ 23 γ 31 3
F IGURA 3.8.1. Grafo delle probabilità di transizione per una catena di Markov tempo continua costituita da soli tre stati Tali grafi sono governati dal seguente sistema di equazioni lineari (facilmente ricavabile in base alle considerazioni precedenti):
(3.8.16)
X ii6=j
ji
· pj =
X ii6=j
ij
· pi
dove le pi sono le probabilità che il sistema si trovi nello stato i e di transizioni dallo stato i allo stato j.
ij
il numero medio
CAPITOLO 4
La trasmissione dei segnali 4.1. Introduzione Il segnale, come si è già detto, è una grandezza fisica variabile alla quale è associata una qualche forma di informazione. L’interpretazione di questa informazione, cioè del messaggio che il segnale trasporta è quindi normalmente lo scopo dello studio dei segnali. Una delle più comuni situazioni in cui ci si può trovare quando si ha a che fare con i segnali è quella in cui il segnale è presente in un certo punto dello spazio e lo si vuole invece in un altro punto. Ad esempio se una stazione radio programma della musica, essa avrà la necessità di farla ascoltare al maggior numero di persone. Oppure se si vuole stampare il risultato di un programma al calcolatore è necessario che i dati raggiungano la stampante. Infine, persino nel caso in cui una sonda asculti il battito cardiaco di un paziente si pone il problema della trasmissione del segnale: infatti dalla sonda al macchinario (o al monitor sul quale il medico legge l’elettrocardiogramma) è necessario un sistema di trasmissione del segnale cardiaco. La trasmissione di un segnale è quindi uno dei problemi base che bisogna affrontare quando si studiano i segnali. E’ anche evidente che questo problema non può avere risposta univoca, dato che gli elementi che entrano in gioco nella trasmissione di un segnale sono molto differenti tra loro, a seconda del tipo di segnale, della distanza tra trasmettitore e ricevitore, delle caratteristiche vincolanti del progetto, e così via. 4.2. Generalita’ sui Sistemi di Trasmissione Uno schema molto generico di un sistema di trasmissione, a grandi linee comprende sempre i seguenti elementi base: • un trasmettitore, che comprende tutti gli apparati del sistema di trasmissione; • un mezzo trasmissivo, che rappresenta il mezzo fisico (con le sue caratteristiche) sul quale l’informazione, sotto forma di una grandezza fisica variabile, viaggia: ad esempio una tensione su un cavo od un’onda elettromagnetica nello spazio vuoto; • un ricevitore, che comprende tutti gli apparati atti a ricevere il segnale ed ad estrarne la parte utile, cioè quella che trasporta il messaggio. Il trasmettitore ha il compito di fornire potenza al segnale, in modo che questo abbia ancora una qualità sufficiente ad essere riconosciuto quando giunge al ricevitore. Il trasmettitore dunque comprende tutti gli apparati necessari a fornire potenza al segnale 117
4.2. GENERALITA’ SUI SISTEMI DI TRASMISSIONE
118
e, soprattutto, a renderlo compatibile con i tipi di segnale che possono viaggiare su quel mezzo trasmissivo. Il ricevitore ha il compito di ricevere il segnale, cioè di prelevarlo dal mezzo trasmissivo e di estrarne la parte utile, cioè quella che trasporta l’informazione e di offrirla all’utente nella forma necessaria (ad esempio alle casse di un altoparlante se si tratta di musica). MT Tx
Rx
F IGURA 4.2.1. Schema a blocchi elementare di un sistema di trasmissione Il mezzo trasmissivo ha il compito di convogliare l’informazione tra trasmettitore e ricevitore. A seconda delle sue caratteristiche si modella il tipo di segnale che deve viaggiare su di esso. I mezzi trasmissivi si dividono in due grandi categorie a seconda del modo con cui trasportano i segnali: • mezzi ad onde convogliate (o non dispersivi) • mezzi ad onde irradiate (o dispersivi) 4.2.1. I mezzi trasmissivi. I mezzi ad onde irradiate sono sostanzialmente l’atmosfera o lo spazio vuoto. Tra i due tipi di mezzi non vi è grande differenza, dato che questo tipo di trasmissione prevede comunque l’irradiazione di onde elettromagnetiche. Tuttavia nel caso dell’atmosfera vi possono essere interazioni delle onde con i gas dell’atmosfera, con il vapor d’acqua o con la superficie terrestre (tali interazioni sono in genere molto complesse e non ci soffermeremo su di esse). La trasmissione per onde elettromagnetiche avviene quindi in modo radiativo, cioè al lato trasmettitore e al lato ricevitore vi sono due antenne che irradiano potenza sotto forma di onde elettromagnetiche. Queste si propagano con una legge che dipende dalla caratteristica radiativa dell’antenna trasmittente (oltre che ovviamente dal mezzo). Il caso più semplice che si considera è quello di antenne isotrope: la potenza del segnale si distribuisce in modo uguale in tutte le direzioni dello spazio. Quindi l’onda elettromagnetica viaggia continuamente sul fronte di una superficie sferica di raggio continuamente crescente. la sua velocità è pari alla velocità delle onde elettromagnetiche nel vuoto (c, detta anche velocità della luce ed uguale 2.99792458 · 108 m/s). Ad una distanza R dall’antenna trasmittente la potenza per unità di superficie è:
(4.2.1)
P =
PT 4⇡R2
4.2. GENERALITA’ SUI SISTEMI DI TRASMISSIONE
119
Se quindi il ricevitore si trova a distanza R dal trasmettitore, basta moltiplicare questa potenza per l’area dell’antenna ricevente per ottenere la potenza in ricezione. In realtà nel conto precedente si deve considerare l’area efficace, dato che l’area fisica di un’antenna non corrisponde esattamente all’area che effettivamente si può sfruttare per trasmettere/ricevere le onde e.m. Se poi l’antenna trasmittente non è isotropa, essa ha un certo guadagno di direttività, cioè irradia prevalentemente più potenza in una direzione piuttosto che in altre. Naturalmente è compito del progettista fare in modo che la potenza irradiata venga fatta convogliare prevalentemente nella direzione in cui è posto il ricevitore. L’equazione diventa allora:
(4.2.2)
PR = PT ·
GT AR 4⇡R2
sfruttando la relazione che lega area efficace al guadagno d’antenna: Aef f = G · ha:
(4.2.3)
PR = PT ·
2
4⇡
si
GT GR 2 (4⇡)2 R2
I mezzi ad onde convogliate sono sostanzialmente tutti i sistemi a cavo. Tra questi vi sono: • • • •
doppino in rame cavo coassiale fibra ottica guide d’onda
I mezzi ad onde convogliate trasportano la potenza del segnale sotto forma di segnali di tensione (o corrente) che viaggiano sul mezzo seguendo leggi fisiche differenti a seconda del tipo di mezzo con cui abbiamo a che fare. Questi tipi di mezzo trasmissivo non possono essere studiati nello stesso modo dei circuiti a parametri concentrati, dato che le loro dimensioni fisiche sono in genere molto maggiori della lunghezza d’onda del segnale che convogliano. Per essi quindi si fa l’ipotesi di mezzo a costanti distribuite: cioè resistenza, induttanza e capacità sono distribuite uniformemente lungo la linea. Per l’analisi si suppone che, considerando un tratto infinitesimo di linea, dx, la sezione esaminata sia a parametri concentrati e si suppone inoltre che la linea sia uniforme, cioè che questi parametri non varino lungo la linea stessa. A causa della presenza di elementi dissipativi all’interno di una linea di trasmissione, anche per i mezzi non dispersivi la potenza cala lungo il percorso del mezzo.
4.2. GENERALITA’ SUI SISTEMI DI TRASMISSIONE
120
In particolare, se si suppongono costanti i parametri caratteristici del mezzo, la potenza decresce in modo lineare con la distanza in unità logaritmiche: PR = PT /10↵tot . Cioè la potenza ricevuta si può scrivere come potenza trasmessa meno l’attenuazione specifica per unità di distanza moltiplicato per la distanza, purchè le potenze vengano espresse in dB:
(4.2.4)
P R = PT
↵s · l
Per i conduttori in metallo (ad esempio il rame) l’attenuazione varia anche con la frequenza d’utilizzo (a causa dell’effetto pelle):
(4.2.5)
↵s = ↵r ·
s
f fr
dove ↵r è l’attenuazione ad una frequenza di riferimento fr (le attenuazioni sono misurate in dB). Nella tabella sono riportate le caratteristiche salienti dei più comuni mezzi trasmissivi Mezzo
Caratteristica
Variazione dell’ attenuazione con la distanza
Vuoto Atmosfera doppino,cavo coassiale Fibra ottica
dispersivo dispersivo non dispersivo non dispersivo
1/R2 complessa ⇠ 1/R2 esponenziale esponenziale
Banda d’utilizzo passa banda passa banda passa basso passa banda
Nell’ultima colonna è stata anche riportata una delle caratteristiche fondamentali dei mezzi trasmissivi: cioè qual è la loro banda prevalente d’utilizzo, cioè la banda di frequenze dove essi esibiscono una minore attenuazione (per fare in modo da dover utilizzare meno potenza per lo stesso segnale). I mezzi dispersivi sono ovviamente passa banda (le onde elettromagnetiche hanno necessità di oscillare e quindi di avere frequenza non nulla per potersi propagare). I mezzi metallici sono prevalentemente passa basso a causa dell’effetto pelle visto precedentemente: infatti all’aumentare della frequenza essi esibiscono una attenuazione sempre maggiore (che cresce esponenzialmente). Infine le fibre ottiche sono così dette a causa del loro migliore comportamento (un’attenuazione specifica di circa 0.2 dB per Km) alle frequenze ottiche (nell’ordine del migliaio di T Hz).
4.2. GENERALITA’ SUI SISTEMI DI TRASMISSIONE
121
4.2.2. Equalizzazione dei mezzi trasmissivi. Dalla rapida analisi dei mezzi trasmissivi non è però emerso qual è lo scopo fondamentale di un mezzo trasmissivo: quello di convogliare l’informazione in modo da lasciarla immutata. Dato in ingresso ad un mezzo trasmissivo ideale un segnale s(t), al più ci aspettiamo che il segnale di uscita si sia attenuato (ed è inevitabile) e ritardato (a causa della velocità di propagazione finita). La forma del segnale di uscita è quindi
(4.2.6)
k · s(t
to )
a cui corrisponde una funzione di trasferimento pari a: (4.2.7)
H(f ) = k · e
j!to
Il mezzo trasmissivo ideale ha quindi ampiezza costante dello spettro e fase che varia linearmente. Si può parlare di funzione di trasferimento del mezzo trasmissivo ideale perchè si suppone che esso sia lineare e che le sue caratteristiche non variano nel tempo (tempo-invariante). I mezzi reali tuttavia si discostano molto dal comportamento ideale. Prima di tutto essi sono solo approssimatamente lineari (o lo sono solo per un determinato range di ampiezze del segnale), le loro caratteristiche variano nel tempo a causa di molte condizioni esterne (quindi sono lentamente tempo varianti), infine la loro funzione di trasferimento (ricavabile con le approssimazioni di linearità e tempo invarianza) non è quella del mezzo ideale. La prima operazione che si effettua in ricezione è allora l’equalizzazione del mezzo trasmissivo. Detta Ht (f ) la funzione di trasferimento del mezzo (ricavabile con le approssimazioni viste), l’equalizzazione è un filtraggio effettuato per compensare l’effetto del mezzo trasmissivo:
(4.2.8)
Heq (f ) =
k · e j!to Ht (f )
Naturalmente, affinchè si possa effettuare un’equalizzazione del mezzo è necessario che il mezzo trasmissivo sia lineare, tempo invariante (una lenta tempo varianza è ammessa, purchè in ricezione l’equalizzazione si possa adattare a questa tempo varianza) e che si conosca il comportamento in frequenza del mezzo, cioè la Ht (f ). Se il mezzo è non lineare compaiono termini armonici “spuri”, anche dove il segnale non ha componenti spettrali (distorsione non lineare). Le componenti spettrali spurie possono essere filtrate, sempre che esse siano all’esterno della banda del segnale, altrimenti non è più possibile distinguerle dal segnale stesso in uscita dal mezzo
4.3. TRASMISSIONE ANALOGICA E NUMERICA
122
trasmissivo. Inoltre, poichè una non linearità si può sempre approssimare con uno sviluppo in serie di Taylor di ordine opportunamente elevato, può essere istruttivo vedere cosa accade quando un segnale passa attraverso un semplice quadratore, la più semplice delle non linearità. Questo dispositivo non lineare effettua il quadrato del segnale che gli proviene all’ingresso: Y = X 2 . Ad un prodotto nei tempi corrisponde una convoluzione nelle frequenze: Y (f ) = X(f ) ⇤ X(f ), con conseguente raddoppio della banda del segnale e mescolamento delle componenti armoniche. Si ricordi infine che un mezzo trasmissivo reale introduce sempre una qualche forma di disturbo sul segnale immesso. In ricezione dunque, oltre al segnale (distorto o modificato dal mezzo) saranno sempre presenti una serie di segnali indesiderati, legati in modo più o meno complesso all’informazione. A tali tipi di disturbo si dà il nome generico di rumore. 4.3. Trasmissione Analogica e Numerica Una prima grande distinzione tra i sistemi di trasmissione si ha a seconda del segnale che si vuole trasmettere: se il segnale è analogico o se il segnale è numerico. La trasmissione numerica è da anni diventata più popolare e conveniente della trasmisione analogica per più motivi. Il motivo fondamentale sta nel fatto che nella trasmissione numerica la struttura del trasmettitore/ricevitore non cambia al variare del segnale che si codifica o della sequenza di simboli che si devono trasmettere; al contrario nella trasmissione analogica il sistema varia a seconda delle caratteristiche del segnale. Inoltre nella trasmissione numerica si riesce a controllare con maggior precisione l’entità dei disturbi che inevitabilmente influenzano il segnale durante la trasmissione. La trasmissione numerica inoltre permette un risparmio di potenza a parità di informazione convogliata o, equivalentemente, una maggiore informazione a parità di potenza in trasmissione. La trasmissione numerica, rispetto all’analogica, tuttavia, richiede uno schema di trasmissione/ricezione più complesso; si tenga conto però che gli schemi di trasmissione numerica sono standardizzati ormai da anni e in commercio esistono apparati economici per le più svariate esigenze e soluzioni. Dalla rapida analisi dei mezzi di trasmissione fatta precedentemente è emersa una caratteristica importante: i mezzi di trasmissione sono intrinsecamente analogici: cioè non è possibile trasmettere su di essi dei segnali di tipo discreto, nè tanto meno numeri. Allora che cosa significa fare la distinzione tra trasmissione analogica e trasmissione numerica ? Nella trasmissione analogica l’informazione che si trasmette è la forma del segnale stesso, così come questo è generato sul lato del trasmettitore (ad esempio un segnale musicale generato da uno strumento). Nella trasmissione numerica invece si effettuano una serie di operazioni sul segnale sino a codificarlo in una serie di simboli. Una volta che sono stati ottenuti i simboli si effettua la trasmissione di forme d’onda analogiche (perchè altro non può essere), ma che, a differenza del caso precedente, sono rappresentative dei simboli codificati e non della forma d’onda originaria. Addirittura è possibile che il segnale analogico di
4.4. IL CAMPIONAMENTO
123
partenza non esista affatto: si pensi al caso della trasmissione di dati da un computer ad una stampante, dove i simboli da trasmettere sono una sequenza di zeri e di uno. Ritornando tuttavia al caso in cui si voglia trasmettere in modo numerico un segnale analogico, è necessario fare su di esso una serie di operazioni per renderlo numerico. Queste operazioni naturalmente devono avere la caratteristica di essere invertibili: cioè al lato del ricevitore deve essere possibile tornare indietro, in modo da avere a disposizione nuovamente il segnale originario o comunque qualcosa che gli assomigli abbastanza per l’utilizzo a cui è destinato. Le tre operazioni che si effettuano al lato trasmittente per rendere numerico un segnale analogico sono, nell’ordine, il filtraggio, il campionamento e la quantizzazione. Cominciamo con l’analizzare il campionamento. 4.4. Il Campionamento Dato un segnale analogico l’operazione di campionamento consiste nell’estrarre una serie di campioni, cioè i valori del segnale in posizioni equispaziate (anche se esistono casi di campionamento a passo non costante). Dall’operazione di campionamento si ha cioè una serie di numeri reali che rappresentano i campioni del segnale. In figura 4.4.1 è illustrata l’estrazione dei campioni dal segnale analogico s(t). s(t)
0 T
t
F IGURA 4.4.1. Campionamento di un segnale Quando il campionamento avviene a passo regolare (e ciò accade nella stragrande maggioranza dei casi), il passo di campionamento T rappresenta l’intervallo con cui si spaziano i campioni, mentre è detta frequenza di campionamento il reciproco di T : fc = 1/T . Intuitivamente si può già capire che aumentando il numero di campioni e quindi diminuendo il passo di campionamento, migliora la descrizione del segnale analogico. Al limite con T ! 0 avremmo una descrizione perfetta del segnale di partenza. In una situazione del genere naturalmente non saremmo però in grado di gestire i campioni del segnale, dato che, anche per un intervallo di tempo piccolo, avremmo un numero infinito di campioni. Si tratta allora di stabilire quale può essere il passo di campionamento più grande che si può utilizzare senza perdere informazione
4.4. IL CAMPIONAMENTO
124
del segnale, per fare in modo, cioè, che esso possa essere ricostruito a partire dai suoi campioni. Cominciamo allora a dare una descrizione matematica del campionamento. Una delle proprietà dell’impulso, come si è avuto modo di vedere, è quella di “estrarre” un campione del segnale, quando è applicato nella posizione di estrazione:
(4.4.1)
s(t) (t
⌧ ) = s(⌧ ) (t
⌧)
Infatti la relazione precedente, sebbene più corretta sotto il segno di integrale, ci dice che se moltiplichiamo un impulso in ⌧ per il segnale s(t), otteniamo un impulso di area s(⌧ ) nella stessa posizione. Dato allora un segnale s(t), il segnale campionato a passo T , sc (t), ha la seguente rappresentazione:
(4.4.2)
sc (t) = s(t) ·
+1 X
(t
nT )
n= 1
cioè una sequenza di impulsi equispaziati di area pari all’ampiezza del segnale nelle posizioni nT . Proviamo ad effettuare la trasformata di Fourier del segnale campionato.
Sc (f ) = = {sc (t)} = S(f ) ? =
(4.4.3)
= S(f ) ?
+1 1 X (f T k= 1
(
+1 X
(t
)
nT )
n= 1
+1 k 1 X )= S(f T T k= 1
=
k ) T
Lo spettro del segnale campionato è la somma di tutte le repliche, a passo 1/T , dello spettro del segnale di partenza; le repliche vanno da 1 a +1. Una rappresentazione dello spettro di un segnale campionato è riportata in figura 4.4.2.
4.4. IL CAMPIONAMENTO
125
S(f)
0
f Sc (f)
0 −fc
fc
2 fc
f
F IGURA 4.4.2. Spettro del segnale di partenza e della sua versione campionata
Da questa semplice osservazione si può immediatamente dedurre qual è la condizione sufficiente affinchè un segnale campionato possa essere ricostruito, cioè si possano ottenere dai campioni il segnale di partenza analogico. La condizione da verificare è che la banda unilatera del segnale sia inferiore a metà della frequenza di campionamento, oppure che la banda bilatera sia inferiore alla frequenza di campionamento:
(4.4.4)
2Bs fc Bt fc
La metà della frequenza di campionamento è detta frequenza di Nyquist. Lo spettro di un segnale campionato esiste quindi solo all’interno dell’intervallo [ fc /2, fc /2], poi si ripete periodicamente uguale a sè stesso. Se la condizione precedente non è verificata il segnale di partenza non può essere più ricostruito poichè le repliche spettrali si sovrappongono in modo tale da non poter essere più distinte tra loro. In tal caso si dice che il segnale è stato aliasato o che lo spettro del segnale campionato presenta aliasing (equivocazione). Si veda a tale proposito la figura 4.4.3.
4.4. IL CAMPIONAMENTO
126
S(f)
0
f Sc (f)
aliasing 0 −f c
fc
2fc
f
F IGURA 4.4.3. Spettro del segnale di partenza e della sua versione campionata in presenza di alias Dato un segnale analogico si supponga di volerlo trasmettere in forma numerica. Il primo problema che ci dobbiamo porre è: a quale frequenza lo devo campionare ? E’ infatti molto probabile che lo spettro del segnale non sia limitato come negli esempi. A rigore quindi la frequenza di campionamento dovrebbe essere infinita. In realtà, sulla base di considerazioni energetiche, si riesce comunque a stabilire una frequenza di campionamento. Ad esempio il segnale vocale è compreso in una banda che va da circa 20 Hz a circa 20 KHz. Quindi se si sceglie una frequenza di campionamento di, per esempio, 50 KHz, si è sicuri di non commettere equivocazione sullo spettro del segnale campionato. Un modo per evitare sicuramente aliasing è quello di filtrare il segnale prima di campionarlo. Facendo passare il segnale attraverso un filtro passa basso di banda B, si è sicuri che tutte le frequenze al di là di B sono state abbattute. Successivamente il segnale può essere campionato ad una qualunque frequenza purchè questa sia 2B. Si supponga ora che il segnale numerico sia arrivato al ricevitore il quale si pone il problema di riottenere il segnale analogico dai campioni di partenza. A questa operazione è dato il nome di ricostruzione del segnale analogico. Se si osserva la figura, la cosa più ovvia è quella di filtrare via, dallo spettro del segnale campionato, tutte le repliche spettrali che non fanno parte dello spettro del segnale di partenza. A tale proposito, per manterere inalterato lo spettro del segnale di partenza, si usa il filtro passa basso ideale (cioè un rettangolo di ampiezza 1) di banda fc /2 (vedi in figura 4.4.4).
4.4. IL CAMPIONAMENTO
127
S(f)
0 −fc /2
f
+fc /2
F IGURA 4.4.4. Ricostruzione del segnale analogico Il filtro passa basso ideale permette di far “passare” in modo inalterato tutto ciò che sta tra fc /2 ed fc /2, cioè nel periodo fondamentale, eliminando in modo perfetto tutto quello che sta al di fuori. Naturalmente il segnale analogico che si ricostruisce è quello che si ha a valle del filtro in trasmissione, dato che ciò che viene eliminato da quel filtro è definitivamente perso. Il filtro ricostruttore ideale ha la seguente forma analitica:
(4.4.5)
H(f ) = rect(
f ) fc
quindi la sua risposta all’impulso è quella di un seno cardinale:
(4.4.6)
h(t) =
1 t sinc( ) T T
avendo posto T = 1/fc . Proviamo allora a vedere analiticamente l’operazione di ricostruzione:
1 sr (t) = sc (t) ? h(t) = T (4.4.7)
Z
+1 1
+1 X
n= 1
s(⌧ ) · (⌧
nT )sinc(
t
⌧ T
)d⌧ =
+1 1 X t nT = s(nT ) · sinc( ) T n= 1 T
L’operazione di ricostruzione si effettua quindi calcolando, nella posizione generica t,
4.4. IL CAMPIONAMENTO
128
il valore che assume la somma dei prodotti che si ottengono moltiplicando i campioni del segnale per la funzione seno cardinale centrata in ciascuno dei campioni. Poichè inotre la funzione seno cardinale è pari, la formula precedente può anche essere scritta come: +1 1 X nT t sr (t) = s(nT ) · sinc( ) T n= 1 T
il cui significato può anche essere inteso nel modo seguente: il segnale ricostruito nella posizione generica t si ottiene come somma dei prodotti tra i campioni e il valore che assume la funzione seno cardinale nelle posizioni di campionamento quando questa è posta in t. Entrambe le interpretazioni sono riassunte in figura 4.4.5.
s(−1)
2
s(−2) 1.5
2 1.5
s(0)
s(−3)
1
t s(1)
1
0.5
s(2) 0.5
0
0
−0.5
−0.5
−4
−2
0
2
4
s(3)
−1
−4
−2
0
2
4
F IGURA 4.4.5. Rappresentazione grafica della ricostruzione del segnale analogico a partire dai suoi campioni La casistica e le difficoltà nel campionamento di un segnale analogico non si esauriscono qui: infatti si è considerato solo il caso più semplice di segnale di partenza con banda concentrata dalla frequenza zero sino ad un certo valore massimo (segnale passa basso). Nel caso di segnali passa banda le cose sono leggermente differenti, anche se il teorema del campionamento continua a valere. Infine si osservi che, a rigore, un campionamento perfetto è impossibile dato che dovrebbe esistere un sistema in grado di “estrarre” l’informazione del segnale in una posizione istantanea. La maggior parte dei campionatori funziona approssimando il comportamento sopra descritto: l’istante di campionamento diventa in realtà un periodo di osservazione del segnale, durante il quale si effettua una sorta di media del segnale stesso. Se questo periodo è molto più piccolo del periodo di campionamento si può ritenere corretta l’approssimazione di campionamento ideale. In figura 4.4.6 è mostrato un campionamento reale.
4.5. LA QUANTIZZAZIONE
129
s(t)
0 T
t
F IGURA 4.4.6. Campionamento reale Un campionamento reale si può sempre schematizzare quindi come un campionamento ideale preceduto da un filtro la cui risposta all’impulso è il rettangolo alto 1 e di durata ⌧ , con ⌧ ⌧ T . Poichè la trasformata di questo rettangolo è un sinc con il primo zero in 1/⌧ , l’effetto di un campionamento reale è quello di fare leggero un filtraggio passa basso del segnale prima di campionarlo. 4.5. La Quantizzazione Dopo il campionamento si ha la serie di campioni del segnale. Questi altro non sono che numeri reali, e quindi come tali, non rappresentabili su calcolatore o in un sistema a logica digitale. L’operazione successiva al campionamento è la quantizzazione. La quantizzazione consiste nel trasformare un numero reale in un altro numero, scelto con un certo criterio, tra un certo insieme finito di valori. Poichè infatti l’aritmetica del calcolatore è finita, essa è in grado di descrivere solo numeri con una precisione finita. E’ necessario allora trasformare il numero reale estratto dal campionatore in un numero a precisione finita, tra un certo insieme di valori possibili. Da qui si capisce bene che la quantizzazione è un’operazione irreversibile: infatti una volta trasformato, il numero reale non può più essere ricostruito con precisione, dato che la sua informazione è perduta per sempre. Naturalmente la trasmissione numerica è possibile e funziona perchè la quantizzazione viene fatta con criterio. Cominciamo con l’analizzare quindi gli elementi della quantizzazione. Il principio su cui si basa la quantizzazione è il seguente: se i campioni del segnale si quantizzano con un numero sufficiente di livelli (i possibili valori che il campione può assumere), allora l’effetto di perdita che si ha a causa dell’irreversibilità della quantizzazione è accettabile. Naturalmente si tratta di mettere in relazione questo effetto di perdita con il numero di livelli e con le caratteristiche del segnale se si vuole quantificare l’effetto distorsivo della quantizzazione. La quantizzazione è caratterizzata dalla massima escursione dei campioni del segnale (o dinamica) e dal numero di livelli con i quali si vuole effettuare la quantizzazione stessa. Poichè la quantizzazione è legata sempre all’elaborazione del segnale all’interno di sistemi a logica binaria, è conveniente quantizzare con un numero di livelli pari ad una potenza del due: infatti in questo modo è possibile descrivere un campione come una sequenza di bit sempre della stessa lunghezza. Se ad esempio decidiamo di
4.5. LA QUANTIZZAZIONE
130
descrivere un campione con 8 bit, non ha senso utilizzare, ad esempio, solo 180 livelli per descrivere il segnale: sarebbe meglio utilizzarne il numero massimo consentito dal numero di bit utilizzato (28 = 256). In questo modo usiamo comunque 8 bit per descrivere i singoli campioni, e allo stesso tempo la descrizione del campione risulterà più precisa. La cosa più logica da fare quando si effettua la descrizione del campione con i livelli, è quella di approssimarlo con il livello più vicino, in modo da minimizzare l’errore che inevitabilmente si commette nel quantizzare un segnale. In figura 4.5.1 è risportato lo schema generale della quantizzazione Q ... 011 010 001 000
dinamica
100 ...
F IGURA 4.5.1. Schema della quantizzazione I livelli sono codificati con una sequenza di bit scelta opportunamente. Ad esempio si può decidere di partire dal livello più basso numerandolo come livello 0 e di giungere a quello più alto che avrà valore 2n 1. Quindi i bit assegnati ai singoli livelli altro non sono che la trasformazione binaria dei numeri assegnati ai livelli. Tale tipo di corrispondenza, almeno teoricamente, è puramente convenzionale, ma in realtà per motivi di convenienza si effettuano sempre e solo alcuni tipi di trasformazione, poichè questi permettono, in fase di ricezione, una più veloce ricostruzione del livello da assegnare al campione. Anche la dinamica del segnale e la sua statistica ha la sua influenza sulla scelta del numero di livelli e sulla dimensione del salto. Infatti si supponga di avere a che fare con un segnale che per la maggior parte del tempo si mantiene a valori bassi e che saltuariamente presenta picchi elevati. Se si volesse quantizzare tale segnale, cercando di descrivere anche i picchi più alti, si perderebbe inevitabilmente parte della precisione nel descrivere il segnale quando questo presenta livelli bassi. Meglio in tale situazione rinunciare alla descrizione del segnale quando salta e descrivere con più precisione la dinamica che il segnale occupa per la maggior parte del tempo. I picchi saranno descritti con il livello massimo del segnale, e quindi una volta ricostruiti risulteranno “mozzati”. Tale effetto è noto con il nome di saturazione.
4.5. LA QUANTIZZAZIONE
131
Si supponga ora di avere a che fare con un processo aleatorio e stazionario, a media nulla. Il campionamento di una delle sue realizzazioni dà luogo, per ogni campione, ad una variabile aleatoria, la cui densità di probabilità sia f (x). Si supponga inoltre che la dinamica della variabile aleatoria sia [ a, a]. Detto allora Q il numero di livelli, l’ampiezza del quanto o intervallino di quantizzazione è:
(4.5.1)
=
2a Q
I bordi degli intervallini si trovano in xi = livelli hanno valore: (4.5.2)
xq =
xi + xi 2
1
=
a+i·
a+i·
, i = 0, ..., Q, mentre i singoli
i = 1, ..., Q
2
In questo modo minimizzo l’errore di quantizzazione, dato che, ponendo il livello a metà tra due salti l’errore di quantizzazione massimo si commette se al più il campione ha un valore pari ad uno dei bordi. In questo caso estremo l’errore di quantizzazione è pari a metà livello: 2 . Per rendere quantitativo l’effetto “distorcitivo” della quantizzazione è possibile misurare l’errore quadratico medio che si commette nello scegliere i livelli di quantizzazione piuttosto che il valore dei campioni (l’errore medio ci si aspetta sia nullo, dato che c’è pari probabilità del campione di presentarsi poco più sopra o poco più sotto del livello): ⇥ Nq = E (x
2
xq )
⇤
=
Z
+a
(x
2
xq ) f (x)dx =
a
Q Z X i=1
xi
xi
(x
xq )2 f (x)dx =
1
A questo punto la risoluzione dell’integrale si può effettuare solo se si conosce la statistica del processo. Una delle ipotesi semplificatrici che si fa molte volte è quella di supporre la statistica del segnale uniforme sulla dinamica considerata. Cioè si suppone f (x) una v.a. uniforme nell’intervallo [ a, a]: ⇢ 1 x 2 [ a, a] 2a f (x) = 0 altrove Q Z a+i X 1 Nq = (x + a i + )2 dx = 2 2a a+(i 1) i=1 (4.5.3)
=
Q Z X i=1
+ /2
y2 /2
2 1 dy = 2a 12
4.5. LA QUANTIZZAZIONE
132
Questa quantità va confrontata con la potenza del segnale, dato che, essendo un disturbo, esso è più o meno forte a seconda del livello di potenza che il segnale possiede (non ha senso chiedersi il livello di un disturbo se non lo si confronta con il livello del segnale disturbato):
(4.5.4)
Sx =
Z
+a
1 a2 dx = x 2a 3 2
a 2
2
Poichè risulta: a = Q2 , allora Sx = Q12 . Il rapporto tra la potenza del segnale e il valore quadratico medio dell’errore di quantizzazione è detto rapporto segnale rumore di quantizzazione e vale: Sx = Q2 Nq
(4.5.5)
é uguale quindi al quadrato del numero di intervalli. Questo conferma quanto già qualitativamente si era intuito: aumentando il numero di intervalli la descrizione dei campioni del segnale avviene sempre più precisamente. Se poi il numero di intervalli Sx è una potenza del due il rapporto segnale rumore di quantizzazione vale: N = 22n , q che espresso in dB è: Sx Nq
dB
= 10 log10 22n ' 6.02 · n dB
Il rapporto segnale rumore aumenta in conclusione di circa 6dB per ogni bit di quantizzazione in più. 4.5.1. Quantizzazione non lineare. Per il calcolo del rapporto segnale rumore di quantizzazione si è supposto precedentemente che la statistica del processo sia uniforme nella dinamica in cui si suppongono presenti i campioni del segnale. Tuttavia questo normalmente non è vero. Si pone quindi il problema di trovare il rapporto segnale rumore nel caso generale, e, ancora prima, di verificare se il metodo di quantizzazione proposto è l’ottimale. Si supponga di avere un processo a media nulla e con una densità di probabilità molto concentrata attorno all’origine, come potrebbe essere ad esempio un processo gaussiano con varianza molto piccola. In tal caso le singole realizzazioni del processo, pur potendo in linea teorica avere una dinamica molto elevata, nella maggior parte del tempo non si discosteranno in modo significativo dallo zero. Per le realizzazioni (e quindi per i campioni) di quel processo, è più probabile un valore piccolo
4.5. LA QUANTIZZAZIONE
133
che uno grande. Si tenga inoltre conto che, essendo il processo un processo gaussiano, la dinamica del segnale è infinita, il segnale cioè può avere una escursione anche estremamente grande, sebbene questo evento ha una probabilità molto remota di accadere. Si tratta allora di trovare qual è la quantizzazione ottima per questo tipo di processo, dove l’ottimo sta nella massimizzazione del rapporto segnale rumore di quantizzazione. Quando si quantizzano i campioni di questo processo necessariamente si dovrà scegliere una dinamica finita entro cui far variare il processo, pur essendo questo a dinamica teoricamente infinita. La descrizione che daremo del processo è una descrizione in qualche modo “mozzata”: quando il campione assume cioè un valore che è maggiore del valore della dinamica scelta, esso viene posto pari al valore massimo. Questa descrizione è ragionevole, purchè questo evento sia molto remoto. Per un processo gaussiano per esempio possiamo porre la dinamica pari a 3 volte la deviazione standard, dato che un processo con densità di probabilità gaussiana ha una probabilità di superare in escursione 3 pari ad appena lo 0.03%. Scelta la dinamica si devono scegliere il numero di livelli. Questa normalmente è una scelta legata alle caratteristiche dell’hardware, ed è quindi limitata da altre considerazioni (il numero di bit del sistema che effettua la transizione analogico-digitale).
F IGURA 4.5.2. Confronto tra una quantizzazione lineare ed una non lineare Infine si deve decidere come dividere la dinamica tra i vari livelli. Infatti finora si è implicitamente supposto che la dinamica sia divisa equamente tra i vari livelli, ma questa è solo una possibilità. Un’altra possibilità sta nel dividere i livelli in modo da assegnare livelli più piccoli dove il segnale è più probabile. In questo modo la descrizione dei campioni che più probabilmente occorrono è più precisa, mentre la descrizione dei campioni più rari perde di precisione. Complessivamente però questa quantizzazione, detta non lineare, risulta vantaggiosa e permette di migliorare il rapporto segnale rumore di quantizzazione.
4.6. IL CANALE BINARIO
134
Più precisamente la divisione tra livelli si fa in modo tale da suddividere l’escursione della dinamica in intervalli che contengano la stessa area della funzione densità di probabilità. Dove la densità di probabilità risulta elevata (evento più probabile) sarà necessaria una suddivisione più fine e quindi livelli più piccoli; al contrario dove la densità di probabilità è più bassa livelli più ampi (vedi in figura 4.5.3 l’esempio per una gaussiana). 0.2 0.18 0.16 0.14 0.12 0.1 0.08 0.06 0.04 0.02 0 −8
−6
−4
−2
0
2
4
6
8
F IGURA 4.5.3. Quantizzazione non lineare di un processo gaussiano 4.6. Il Canale Binario In un sistema di trasmissione numerico, i vari blocchi funzionali introdotti (filtraggio, campionamento, quantizzazione) servono a generare bit, che poi sono l’informazione che si trasmette. Generalizzando questo concetto potremmo dire che in un sistema di trasmissione numerico sono generati N differenti simboli, mentre al ricevitore ne giungono M (vedi figura 4.6.1). a1 a2
P(b 1R/a1 T)
...
...
aN
b1 b2 ...
...
bM
F IGURA 4.6.1. Schematizzazione della trasmissione numerica Se il canale fosse senza errori, avremmo N = M ed inoltre, alla trasmissione di ai avremmo la ricezione con probabilità 1 di bi : P (bi R/ai T ) = 1 e P (bi R/aj T ) = 0 se j 6= i. In un canale ideale l’alfabeto dei simboli in ingresso è uguale in numero a quello dei simboli in uscita, dato che il canale non introduce equivocazione e quindi non c’è possibilità di scambiare un simbolo per un altro o di dover introdurre altri simboli per indicare situazioni indecidibili (simboli di “cancellazione”).
4.6. IL CANALE BINARIO
135
Se il numero di simboli trasmessi e ricevuti è pari a due, allora il sistema si semplifica e si ha il canale binario (figura 4.6.2). Nel canale binario ideale si suppone di avere due soli simboli in ingresso (che possono essere lo 0 e l’1) e due soli simboli in uscita. a0 p1
a1
p0
q0
q1
b0 b1
F IGURA 4.6.2. Canale binario ideale Senza perdere di generalità si può supporre che a0 = 0 e a1 = 1, inoltre che b0 = 0 e b1 = 1. Le probabilità di trasmissione corretta o errata sono quindi: 8 q = P (0R/0T ) > > < 0 q1 = P (1R/1T ) p > 0 = P (1R/0T ) > : p = P (0R/1T ) 1
(4.6.1)
Le probabilità di errore, dette anche probabilità di transizione, si devono supporre genericamente differenti. Inoltre i simboli in trasmissione sono emessi con probabilità pari a: P (0T ) = P0 e P (1T ) = P1 . Il canale si dice binario e simmetrico quando la probabilità d’errore è uguale, cioè non fa distizioni tra i simboli trasmessi: p0 = p1 = p. Poichè ogni simbolo trasmesso può essere ricevuto in uno di due modi possibili, si ha: ⇢
(4.6.2)
q0 + p 0 = 1 q1 + p 1 = 1
Per un canale binario la probabilità d’errore è la probabilità che, trasmesso un simbolo, il simbolo ricevuto sia differente: \ \ P (E) = P (E 0T ) + P (E 1T ) = P (E/0T ) · P (0T ) + P (E/1T ) · P (1T ) = (4.6.3)
= P (1R/0T ) · P (0T ) + P (0R/1T ) · P (1T ) = p0 P0 + p1 P1
Se il canale è simmetrico si ha: (4.6.4)
P (E) = p(P0 + P1 ) = p
4.6. IL CANALE BINARIO
136
Vediamo invece quali sono le probabilità di ricevere i due simboli:
(4.6.5)
P (0R) = P (0R/0T ) · P (0T ) + P (0R/1T ) · P (1T ) = q0 P0 + p1 P1
(4.6.6)
P (1R) = P (1R/0T ) · P (0T ) + P (1R/1T ) · P (1T ) = p0 P0 + q1 P1
L’errore sul canale binario può essere abbassato ricorrendo in trasmissione ad alcuni accorgimenti, che consistono generalmente nel modificare il bit trasmesso (o una sequenza di bit) in modo che questo risulti meno “equivocabile” con l’altro simbolo. A tale sistema si dà il nome generico di codifica di sorgente. Lo schema di un sistema di trasmissione numerico può quindi riassumersi nella figura 4.6.3, dove ad ogni blocco funzionale in trasmissione ne corrisponde uno in ricezione. Per sorgente si suppone un qualche sistema che emetta bit, comunque questi siano stati generati (campionando e quantizzando un segnale analogico o da un generatore di dati binari come potrebbe essere la porta di un calcolatore). La codifica di sorgente è, come già detto, un qualche sistema che dato un certo numero di bit, decide quale sequenza di bit o quale simbolo trasmettere. Il suo scopo è di rendere minimo l’errore di trasmissione senza rendere troppo complessa l’implementazione. Infine la codifica di canale è l’insieme di sistemi che, presi i singoli simboli, ne associano la forma d’onda corrispondente da mandare nel mezzo trasmissivo. In ricezione si fanno le operazioni contrarie sino ad ottenere l’informazione trasmessa.
S
Codifica di sorgente
Codifica di canale
Canale
Decodifica di canale
Decodifica di sorgente
R
F IGURA 4.6.3. Schema a blocchi di una trasmissione numerica In figura è stato quadrettata la parte che riguarda direttamente un canale binario: per un canale binario la complessità che sta dietro la trasmissione attraverso il mezzo trasmissivo è nascosta, dato che esso vede solo bit trasmessi e ricevuti. 4.6.1. Codice a ripetizione. Tra i vari metodi di codifica di sorgente vi è quello della codifica a ripetizione. Supponiamo di avere un canale binario simmetrico. Per ogni bit emesso dalla sorgente, nel canale sono trasmessi 2n + 1 bit. La velocità di trasmissione è evidentemente ridotta di un fattore 2n + 1, tuttavia anche l’errore è notevolmente minimizzato, dato che il ricevitore lavorerà a maggioranza: esso attende
4.6. IL CANALE BINARIO
137
i 2n + 1 bit e poi decide il simbolo in base a quello che in questa sequenza si presenta più spesso. la probabilità di sbagliare è la probabilità che nella sequenza siano stati sbagliati almeno n + 1 bit tra i 2n + 1 trasmessi. Esempio: sequenza da trasmettere: 0 1 1 0 1, sequenza effettivamente trasmessa con n = 1: 000 111 111 000 111. La sequenza di bit in ricezione si può vedere come un processo di Bernoulli, dato che i simboli arrivano indipedentemente uno dall’altro e possono assumere solo due valori (0 e 1). In realtà una certa dipendenza statistica c’è, dato che 2n + 1 bit dovrebbero avere lo stesso valore. Tuttavia la presenza del rumore sul canale rende del tutto casuale il valore che il bit assumerà in ricezione. La probabilità di errore su un bit è allora la probabilità che siano stati sbagliati o n + 1 bit, oppure n + 2 bit, e così via sino a 2n + 1:
(4.6.7)
P (E1 ) =
2n+1 X
k=n+1
✓
2n + 1 k
◆
pk (1
p)2n+1
k
4.6.2. Codice a controllo di parità. Nel codice a controllo di parità il codificatore di sorgente aspetta di ricevere n 1 bit per trasmetterne n: esso cioè ne aggiunge solo uno in più, diminuendo la velocità di trasmissione di n/(n 1). La regola con cui tale bit è aggiunto è la seguente: se il numero di bit pari ad 1 nella sequenza lunga n 1 è dispari, si aggiunge un 1, in modo da renderlo pari, altrimenti si aggiunge uno zero. Questa codifica è detta a parità pari, dato che assicura sempre un numero di 1 pari nella sequenza di n bit. L’alternativa consiste nell’avere un numero sempre dispari di 1 nella sequenza di n bit ed è chiamata parità dispari. Ad esempio sia n = 7 e si abbia la sequenza: 0011010. Se vogliamo trasmettere a parità pari dovremo trasmettere la sequenza: 00110101. Supponiamo ora che durante la trasmissione sul mezzo l’errore sia avvenuto su un solo bit, ad esempio il terzo: 00010101. In ricezione ci si accorge dell’errore, dato che il ricevitore aspetta la sequenza di n bit per verificare se il numero di 1 è pari (per poi scartare l’ultimo bit che serve solo da controllo e non rappresenta informazione). Tuttavia questo sistema è un sistema di rivelazione e non correzione dell’errore, dato che, dopo la scoperta dell’errore il ricevitore non è in grado di stabilire quale tra i bit trasmessi è errato. A questo punto però ha varie alternative: richiesta di trasmissione, scartare la sequenza, e così via. L’errore inoltre si scopre solo perchè nella sequenza è stato sbagliato un solo bit (o in generale un numero dispari). Se i bit sbagliati fossero stati due (o in generale un numero pari) il ricevitore non è in grado di stabilire nemmeno che c’è un errore, nello stesso modo in cui nel codice a ripetizione se l’errore avviene su un numero sufficiente di bit il ricevitore equivoca il simbolo trasmesso.
4.6. IL CANALE BINARIO
138
Tuttavia il sistema di codifica a parità funziona molto bene dato che normalmente l’errore di trasmissione su singolo bit è molto minore di 1. Questo comporta che a fronte di un sistema di codifica molto semplice ed efficiente l’errore su più di un bit in una sequenza è un evento molto più remoto dell’errore sul singolo bit. La probabilità che l’errore non sia rivelato dal ricevitore è la probabilità che il numero di errori sui singoli bit sia pari. Supponendo n pari si ha:
(4.6.8)
◆ n/2 ✓ X n P (Er) = p2k (1 2k
p)n
2k
k=1
Se il numero di errori è dispari invece il ricevitore può chiedere la ritrasmissione. Questo evento ha probabilità di accadere pari a:
(4.6.9)
P (Rt) =
n/2 ✓ X k=1
n 2k
1
◆
p2k 1 (1
p)n
2k+1
Infine la probabilità che la trasmissione sia corretta è: (4.6.10)
P (C) = (1
p)n
Poichè possono risultare solo una di quste tre alternative, si ha: P (Er) + P (Rt) + P (C) = 1. Le politiche di decisione a questo punto possono essere varie: ad esempio il ricevitore può chiedere la ritrasmissione sino a che non riceve una sequenza corretta (o meglio una sequenza in cui esso non riesce a rivelare l’errore), oppure può richiedere la ritrasmissione solo per un numero di volte fissato e poi scartare la sequenza se questa è ancora corrotta, o non richiedere affatto la ritrasmissione. Facciamo l’esempio in cui il ricevitore richiede continuamente la ritrasmissione, sino a che non rivela più errore. In tal caso l’errore totale può capitare se, in prima trasmissione il ricevitore non si accorge della sequenza corrotta, oppure se, accorgendosi della sequenza corrotta in prima trasmissione, richiede la trasmissione e non si accorge della sequenza corrotta in seconda trasmissione, o se le prime due trasmissioni sono corrotte in modo che il ricevitore se ne accorga e la terza è corrotta in modo che non se ne accorga e così via. Quindi l’errore è l’unione di tutti questi eventi, dato che questi possibili eventi sono tra loro disgiunti. La probabilità d’errore totale è quindi:
P (E) = P (Er) + P (Rt)P (Er) + P (Rt)2 P (Er) + ... =
4.6. IL CANALE BINARIO
(4.6.11)
= P (Er) ·
1 X
P (Rt)k =
k=0
139
P (Er) 1 P (Rt)
A questo punto anche il numero di ritrasmissioni che si possono richiedere è una variabile casuale. Infatti il numero di ritrasmissioni è zero se la sequenza è corretta o se il ricevitore non è in grado di accorgersi dell’errore, è uno se in prima trasmissione ci si accorge dell’errore ma in seconda trasmissione no (oppure non c’è affatto) e così via:
(4.6.12)
8 P (nR = 0) = P (Er) + P (C) = 1 P (Rt) > > > > P (nR = 1) = P (Rt) · (1 P (Rt)) < P (nR = 2) = P (Rt)2 · (1 P (Rt)) > .. > > . > : P (nR = k) = P (Rt)k · (1 P (Rt))
Il numero medio di ritrasmissioni è allora: E[nR ] =
1 X k=0
= (1
k · P (nR = k) =
P (Rt)) · P (Rt) ·
(4.6.13)
1 X k=1
k · P (Rt)k =
1 X
1
k=0
k · P (Rt)k · (1
P (Rt)) =
P (Rt)) · P (Rt) ·
= (1
(1
1 = P (Rt))2
P (Rt) 1 P (Rt)
Il numero totale di trasmissioni è anch’esso una variabile aleatoria, pari a: nT = nR +1. Quindi il suo valor medio vale:
(4.6.14)
E[nT ] = E[nR ] + 1 =
1
1 P (Rt)
Il canale binario può essere soggetto a numerose varianti che rendono lo schema complesso quanto si vuole. Ad esempio è sempre possibile immaginare situazioni in cui la legge di ritrasmissione sia più semplice del caso teorico di infinite ritrasmissioni: per esempio si può chiedere di ritrasmettere solo un certo numero di volte e poi accettare ciò che arriva eventualmente alla trasmissione n-sima. Inoltre anche l’ipotesi di simmetria del canale può cadere: si può sempre pensare ad un canale che tratta gli errori sull’uno diversamente da quelli sullo zero, attribuendo così una probabilità d’errore differente a seconda che si sbaglino gli uno o gli zero.
4.7. TEORIA DELL’INFORMAZIONE
140
Infine un’altra situazione comune è quella in cui in ricezione si introduce un terzo simbolo, detto di cancellazione, che rappresenta l’indecidibilità tra i due simboli attesi. Lo schema del canale binario diventa allora quello proposto in figura 4.6.4. q0
a0
0
p0 p1 a1
b0
r
r1
q1
b2
b1
F IGURA 4.6.4. Canale binario con il simbolo di cancellazione in ricezione In ricezione, se si trasmette il simbolo a0 si può avere corretta ricezione (b0 ), ricezione sbagliata (b1 ) oppure un simbolo che non è nè corretto nè sbagliato ma che risulta indecidibile (b2 ). In questa situazione il sistema non è in grado di decidere correttamente e quindi può adottare politiche del tipo: lo scarta comunque, oppure lo prende comunque, oppure lo scarta per il 50% delle volte, oppure lo prende pari al valore precedentemente arrivato e così via. La situazione simmetrica si ha trasmettendo l’altro simbolo (a1 ). 4.7. Teoria dell’Informazione Lo scopo della teoria dell’informazione è di valutare i limiti teorici dell’informazione che si può trasmettere su di un canale preassegnato sotto forma di trasmissione numerica. Dati infatti un insieme di sistemi reali differenti tra loro, un confronto per valutarne l’efficienza relativa è molte volte impossibile. L’unica via sta nel riuscire a determinare un limite teorico di “informazione” trasmissibile: in questo modo i sistemi reali si confrontano tutti con il sistema teorico. Questo problema fu posto (e brillantemente risolto) per la prima volta da Shannon nel 1948. Si supponga di avere uno schema ideale di trasmissione numerica. Per schema ideale si suppone uno schema in cui i dettagli implementativi sono omessi ed inoltre la parte che converte i dati numerici in forme d’onda da trasmettere sul mezzo trasmissivo, in trasmissione e la parte che riceve le forme d’onda e decide quale tra i possibili simboli è stato trasmesso, in ricezione, è tutta racchiusa in una scatola che indicheremo come canale numerico o binario. Si consideri dunque una sorgente discreta che emette continuamente, indipendentemente tra loro e a velocità costante, una serie di simboli scelti tra quelli di un possibile alfabeto. L’alfabeto sia composto da M simboli, per codificare i quali si ha necessità di log2 M bit/simbolo. Questo è dunque il rate di informazione trasmesso dalla sorgente. La legge con la quale si assegna ad ogni simbolo una determinata sequenza di bit è detta codifica. Se i simboli fossero equiprobabili è ragionevole supporre una codifica a lunghezza fissa. Se i simboli non sono più equiprobabili è più ragionevole
4.7. TEORIA DELL’INFORMAZIONE
141
utilizzare una codifica a lunghezza variabile, dato che è più conveniente utilizzare parole (stringhe di bit che codificano un simbolo) più corte per i simboli più probabili, in modo da minimizzare il numero di bit che per unità di tempo transitano sul canale binario. Genericamente quindi la quantità di informazione media che transita sul canale si può ritenere pari ad una media pesata della lunghezza delle parole di bit, i pesi essendo le probabilità di presentarsi da parte dei simboli che quelle parole codificano (praticamente il numero medio di bit che transitano su canale): (4.7.1)
X i
p(xi ) · ni
dove xi è il simbolo i-simo, p(xi ) la sua probabilità di occorrere e ni il numero di bit per codificare quel simbolo. L’informazione emessa dalla sorgente si può determinare utilizzando il cosiddetto teorema dell’equipartizione. Supponiamo la sorgente ergodica. Questo significa che è stazionaria e quindi che le sue proprietà statistiche non variano nel tempo ed inoltre che queste si possono desumere dall’osservazione di una sola realizzazione per tempi via via più lunghi (la sorgente passa per tutti i possibili stati). Questo ci consente allora di dire che un messaggio formato da N simboli, con N molto grande, conterrà mediamente N p1 simboli x1 , N p2 simboli x2 e così via, sino ad N pM simboli xM . Per N tendente ad infinito la probabilità che tali simboli si presentino quel numero di volte è praticamente 1. Con questi N simboli si può effettuare la costruzione di tantissimi possibili messaggi: tutti quelli che hanno N p1 simboli x1 , N p2 simboli x2 ,..., N pM simboli xM . Questi messaggi si differenziano tra loro per la posizione dei simboli all’interno del messaggio stesso. La probabilità di un singolo messaggio di presentarsi si può determinare basandosi sull’assunto che i simboli sono emessi tutti in modo indipendente: (4.7.2)
p1 p2 pM pmess = pN · pN · .... · pN 1 2 M
Per la supposta ergodicità della sorgente tutti i messaggi leciti emessi dalla sorgente sono equiprobabili, quindi i possibili messaggi con N simboli sono: 1/pmess . Il numero minimo di bit necessari per descrivere tutto il messaggio è, a questo punto: n = log2
1 pmess
=
log2 pmess
e quindi il numero medio di bit necessari per descrivere il singolo simbolo è:
4.7. TEORIA DELL’INFORMAZIONE
(4.7.3)
n H(x) = = N
M Y 1 pi log2 pN = i N i=1
M X i=1
142
pi · log2 pi
A tale quantità si dà il nome di entropia della sorgente e si misura in bit/simbolo. Il suo nome, strettamente legato al concetto di entropia fisica (che è una misura dello stato termodinamico di un sistema fisico), dice qual è l’informazione media legata alla sorgente, cioè la parte non predicibile del messaggio. La quantità log2 pi , confrontando la (4.7.1) con la (4.7.3), rappresenta il minimo numero di bit teoricamente necessari per descrivere un simbolo. L’informazione emessa da un simbolo si può allora definire come: (4.7.4)
I(xi ) =
log2 p(xi )
L’entropia rappresenta quindi il numero minimo di bit per simbolo mediamente necessari a descrivere un messaggio. Se descriviamo in questo modo l’informazione legata alla sorgente allora valgono le seguenti proprietà. (1) Se p(xi ) ! 1 allora I(xi ) ! 0 Concettualmente, quanto più probabile è l’emissione di un simbolo, tanto meno informazione esso trasporta. Al limite, se esso è certo, la quantità di informazione trasportata è nulla. (2) I(xi ) > I(xj ) se p(xi ) < p(xj ) T (3) Se l’emissione di simboli successivi è indipendente, allora: I(x i T T xj ) = I(xi ) + I(xj ). Infatti si ha: P (xi xj ) = P (xi ) · P (xj ) )I(xi xj ) = 1 1 log2 P (xi 1T xj ) = log2 P (xi )·P = log2 P (x + log2 P (x1 j ) = I(xi ) + I(xj ) (xj ) i)
In conclusione, se ci si vuole avvicinare ad una trasmissione numerica ottimale, si deve trasmettere codificando i simboli con parole a lunghezza variabile.
E XAMPLE 4.7.1. Si supponga che la sorgente possa emettere solo una coppia di simboli (come accade nel caso di sorgente binaria), x1 e x2 , con probabilità di emissione rispettivamente p e 1 p: ⇢
x1 ,p x2 , 1 p
L’entropia in tal caso vale: H(S) = p · log2 p1 + (1 p) · log2 1 1 p . La funzione è rappresentata in figura 4.7.1. Come si vede il massimo dell’entropia, e cioè dell’informazione emessa dalla sorgente si ha quando i simboli sono equiprobabili.
4.7. TEORIA DELL’INFORMAZIONE
143
1
0.8
0.6
0.4
0.2
0
0
0.2
0.4
0.6
0.8
1
F IGURA 4.7.1. Entropia di una sorgente binaria Dimostriamo adesso che: H(s) log2 M , dove M è il numero totale di simboli dell’alfabeto. Cioè se si tenta di codificare i simboli nel modo più ovvio, si sprecano bit per simbolo, dato che c’è sempre una codifica migliore che permetterebbe maggior efficienza e quindi di avvicinarsi di più al limite teorico che è rappresentato da H(s).
(4.7.5)
log2 M 0 ()
H(s)
tuttavia si ha M M X X 1 pi = 1 ) pi log2 pi i=1 i=1
M X i=1
M X i=1
i=1
pi ·
✓
1 M pi
pi log2
i=1
pi · log2 M =
pi · (log2
Si fa vedere facilmente che ln y y precedente si ha: M X
M X
1 pi
M X i=1
log2 M 0
pi · (log2
1 pi
log2 M ) 0
1 )0 M pi
1. Applicando tale risultato alla disuguaglianza
◆ M ✓ X 1 1 log2 e = log2 e · M i=1
pi
◆
=0
Quindi la disuguaglianza in (4.7.5) è dimostrata. L’uguaglianza vale solo nel caso in cui gli elementi emessi sono equiprobabili. 4.7.1. Codifica di Huffmann. Si è visto precedentemente che una codifica efficiente implica una codifica a lunghezza variabile. Al ricevitore, tuttavia, arrivano i bit in sequenza e quindi senza soluzione di continuità. In ricezione si pone allora un problema fondamentale: come fare a capire quando termina la sequenza di bit che codifica un simbolo e inizia la sequenza che codifica il simbolo successivo ? E’ evidente
4.7. TEORIA DELL’INFORMAZIONE
144
infatti che, al contrario della codifica a lunghezza fissa, in questa situazione si deve essere in grado di comprendere la fine di un simbolo, altrimenti si rischia di equivocare l’interpretazione. Facciamo il seguente esempio. La sorgente S emetta quattro simboli differenti x1 , x2 , x3 , x4 (scritti in ordine dal più probabile al meno probabile) e i simboli siano codificati con le seguenti parole: 8 x 0 > > < 1 x2 01 x3 010 > > : x 100 4
Al ricevitore arrivi la seguente sequenza di bit: 100010010 che può essere interpretata in modo equivoco, dato che può essere: x4 , x3 , x3 , ma anche x4 , x1 , x4 , ... oppure ancora x4 , x2 , x1 , x1 , .... Situazioni del genere devono essere evitate. T HEOREM 4.7.2. Siano M i simboli x1 , x2 , ..., xM e siano n1 , n2 , ..., nM le lunghezze delle parole di bit che codificano tali simboli. Condizione necessaria affinchè un codice sia univocamente decodificabile è che risulti vera la seguente disuguaglianza (disuguaglianza di Kraft):
(4.7.6)
M X
2
ni
i=1
1
E’ evidente che tale disuguaglianza non può fornire una condizione sufficiente, dato che non dice come costruire il codice, nè qual è la lunghezza delle singole parole. L’unica cosa che può fare è di verificare a posteriori che un codice sia univocamente decodificabile. Codici con parole di lunghezza grande verificheranno facilmente la condizione di cui sopra. Ovviamente noi siamo tuttavia interessati a codici con parole di lunghezza quanto più piccola possibile e che siano ancora univocamente decodificabili. In linea di principio potremmo costruire un codice con una lunghezza di parola pari a (4.7.7)
ni = d log pi e
dato che non possiamo costruirlo di lunghezza ni = quantità intera. La relazione precedente ci dice anche che: (4.7.8)
log pi ni
log pi + 1
log pi poichè non è una
4.7. TEORIA DELL’INFORMAZIONE
145
Sommando tutti i termini (per i = 1, ..., M ) moltiplicati per la quantità positiva pi si ha dunque: M X i=1
pi log pi
(4.7.9)
M X i=1
M X
pi ni
pi log pi +
i=1
M X
pi
i=1
H(X) n H(X) + 1
La condizione nella Eq. (4.7.8) implica la disuguaglianza di Kraft, dato che: I(xi ) ni I(xi ) + 1 ) ni
I(xi ) = log2
1 ) ni pi
log2
1 ) pi pi
2
ni
che è proprio la (4.7.6) quando si estende la disuguaglianza a tutti i simboli (i = 1, ..., M ). La struttura base che si utilizza per produrre sequenze univocamente decodificabili è l’albero binario. Le codifiche prodotte con tale metodo sono dette di Huffmann. E XAMPLE 4.7.3. Sia data una sorgente che emette simboli in modo indipendente, x1 , x2 , x3 , x4 con probabilità rispettivamente di: p1 = 0.6, p2 = 0.25, p3 = 0.1 e p4 = 0.05. Costruiamo l’albero binario, procedendo dal simbolo meno probabile al più probabile (vedi figura 4.7.2). 1
x 1 0.6
1
x 2 0.25 x 3 0.1 x 4 0.05
1 0
0.4 0.15
0 0
F IGURA 4.7.2. L’albero binario della codifica alla Huffmann La codifica che ne risulta è:
(4.7.10)
8 x 1 > > < 1 x2 01 x3 001 > > : x 000 4
La tecnica consiste nell’accoppiare sempre le due probabilità più piccole. Per valutare l’efficienza del codice, basta confrontare la quantità media di informazione con l’entropia della sorgente:
4.7. TEORIA DELL’INFORMAZIONE
H(s) =
146
0.6 log2 0.6 0.25 log2 0.25 0.1 log2 0.1 0.05 log2 0.05 = 1.49 bit/simbolo n = 1 · 0.6 + 2 · 0.25 + 3 · 0.1 + 3 · 0.05 = 1.55 bit/simbolo
Come si vede la codifica di Huffmann risulta molto efficiente poichè porta all’uso di un numero medio di bit per simbolo ragionevolmente vicino all’entropia. In una codifica tradizionale (con 2 bit/simbolo) si sarebbe ottenuto n = 2 bit/simbolo. Vediamo ora l’esempio notevole dalla trasmissione fax. E XAMPLE 4.7.4. Nella trasmissione fax la sorgente emette due simboli, il nero (N ) e il bianco (B). La probabilità di emissione del bianco è enormemente più grande di quella del nero. Per semplicità si supponga che le probabilità di emissione siano: pN = 0.1 e pB = 0.9. Si suppone inoltre che l’emissione dei simboli sia indipendente, cosa nella realtà non vera e che viene anzi sfruttata per migliorare ulteriormente la codifica. Se codificassimo con un bit per simbolo, avremmo che la quantità di informazione media varrebbe: n = 1 bit/simbolo, molto lontana dal limite teorico, dato dall’entropia: H(s) =
0.9 log2 0.9
0.1 log2 0.1 = 0.47 bit/simbolo
Sprechiamo quindi il 53% dell’informazione trasmessa. La situazione migliora un po’ se si effettua una codifica a coppie. Siccome si è supposto che i simboli sono emessi in modo indipendente l’uno dall’altro (cosa, ripetiamo, non vera nella realtà), si ha che la probabilità di emissione delle quattro possibili coppie vale: 8 BB > > < BN NB > > : NN
(4.7.11)
0.81 0.09 0.09 0.01
e codificando con l’albero binario (si veda in figura 4.7.3) 1
BB 0.81 0
BN 0.09 NB 0.09 NN 0.01
1
0.1
1
0
0
F IGURA 4.7.3. Codifica binaria per la trasmissione fax
4.7. TEORIA DELL’INFORMAZIONE
147
La codifica che si ottiene è la seguente: 8 BB 1 > > < BN 00 N B 011 > > : N N 010
(4.7.12)
Il numero medio di bit necessari per codificare una coppia vale: n = 1 · 0.81 + 2 · 0.09 + 3 · 0.09 + 3 · 0.01 = 1.29 bit/coppia e quindi 0.645 bit/simbolo. Come si vede ci si è già avvicinati al valore teorico fornito dall’entropia. Si potrebbero anche considerare blocchi più lunghi, a patto che la complessità del sistema in ricezione lo permetta: infatti conviene non aumentare più la complessità quando l’incremento di efficienza diventa piccolo in confronto all’incremento di complessità circuitale. Una codifica a lunghezza variabile può tuttavia creare qualche problema. Prima di tutto si suppone che la sorgente emetta i simboli a tasso costante. Se il codificatore di sorgente codifica ogni simbolo con un numero differente di bit, allora il numero di bit trasmessi per unità di tempo potrebbe essere variabile. A tale problema si pone rimedio con un blocco di memoria sufficientemente lungo sia in trasmissione che in ricezione: nel blocco di memoria in trasmissione si pongono una serie di simboli che sono codificati, in modo che la trasmissione avvenga sempre a bit rate costante. In ricezione i bit sono posti nel registro e quindi prelevati simbolo per simbolo. Quando i bit in ingresso tuttavia riempiono la memoria vi sarà overflow e andranno persi. Viceversa, se la memoria si svuota si ricorre al bit stuffing: si riempie la memoria con bit privi di informazione unicamente per mantenere occupato il canale. Un altro problema sta nella più facile propagazione degli errori. Infatti in una codifica alla Huffmann l’errore su di un bit non fa equivocare soltanto il simbolo a cui è associato, ma anche il successivo (e forse anche oltre), dato che sbagliando un simbolo non si è più in grado di riconoscere l’inizio del successivo/i. 4.7.2. Codifica a blocchi. Nel caso della trasmissione fax si è visto che codificando i singoli bit si è molto lontani dal limite teorico imposto dall’entropia. Per far fronte a questo problema si è pensato di codificare insieme due simboli. In questo modo il limite dell’entropia si è avicinato un po’ di più. Questo approccio di codifica può essere formalizzato. Quando infatti il numero medio di bit trasmessi, n ¯ è abbastanza lontano da H(S) si può pensare di codificare insieme una coppia, una terna, ... oppure una ⌫-pla di simboli. In questo modo la sorgente S diventa, formalmente, la sorgente Y = S ⇥ S ⇥ ... ⇥ S = S ⌫ . Se l’emissione dei simboli è indipendente, allora si dimostra che: (4.7.13)
H(Y ) = ⌫ · H(S)
Dimostriamo che è vero per ⌫ = 2.
4.7. TEORIA DELL’INFORMAZIONE
H(Y ) =
X i,j
=
XX 1 1 1 p(si , sj )·log2 = p(si )p(sj ) log2 + log2 = p(si , sj ) p(s ) p(s ) i j i j
XX i
X j
148
p(sj )
p(si )p(sj ) log2
j
"
X
=
p(si ) log2
i
X j
XX 1 1 + p(si )p(sj ) log2 = p(si ) p(s ) j i j #
1 + p(si )
p(sj ) · H(S) +
X
X i
i
p(si )
"
X
p(sj ) log2
j
#
1 = p(sj )
p(si ) · H(S) = 2 · H(S)
Inoltre, poichè risulta anche: H(Y ) n¯Y H(Y ) + 1, allora: (4.7.14)
H(S)
n¯Y 1 H(S) + ⌫ ⌫
Se quindi n¯Y è il numero medio di bit associati alla sorgente Y = S ⌫ , n¯Y /⌫ è il numero medio di bit associati ai simboli della sorgente S. All’aumentare di ⌫ questo numero medio tende più o meno velocemente al’entropia (vedi la convergenza della doppia disuguaglianza in 4.7.14). 4.7.3. Sorgenti discrete con memoria. Sinora si è supposto che i simboli emessi dalla sorgente siano tutti statisticamente indipendenti tra loro. Questa è un’approssimazione inaccettabile nella maggior parte dei casi e quindi vediamo se è possibile estendere i ragionamenti precedenti a sorgenti con memoria. Nell’ipotesi di sorgente con memoria la definizione di entropia data precedentemente non è più sufficiente a descrivere l’informazione emessa dalla sorgente stessa, dato che il simbolo corrente, dipendendo dai precedenti, perde parte dell’informazione che trasporta poichè questa poteva essere desunta dai simboli precedenti. La statistica dipendenza costituisce informazione aggiuntiva di cui non si tiene conto nel calcolo dell’entropia come è stata definita sinora. Data l’emissione di un simbolo s1 , la sua informazione è legata all’emissione del simbolo precedente s0 : (4.7.15)
I(s1 /s0 ) = log2
1 p(s1 /s0 )
L’informazione media, legata alla condizione che il simbolo precedente sia s0 è: (4.7.16)
H(S/s0 ) =
X i
p(si /s0 ) · log2
1 p(si /s0 )
4.7. TEORIA DELL’INFORMAZIONE
149
L’informazione media, o anche entropia del primo ordine, è allora la media pesata di tutte le possibili emissioni del simbolo precedente, con pesi le probabilità che i simboli precedenti hanno di essere emessi: (4.7.17) H(S/s) =
XX j
i
p(si /sj ) · log2
X 1 1 · p(sj ) = p(si , sj ) · log2 p(si /sj ) p(si /sj ) i,j
L’entropia condizionata rappresenta l’ulteriore contenuto informativo che si ottiene dall’emissione del simbolo nuovo, tolta la conoscenza che il simbolo precedente è in grado di dare. A questo punto però si può supporre che la sorgente abbia una “memoria” più estesa, e quindi si passa a definire l’entropia del secondo ordine, del terzo e così via, sino a che la sorgente non esaurisce la sua memoria:
H(si /si 1 , si 2 , ..., si
(4.7.18)
=
XX si
si
1
...
X
si
p(si , si 1 , si 2 , ..., si
n)
=
n)
· log2
n
1 p(si /si 1 , ..., si
n)
L’entropia vera di una sorgente è, in conclusione: (4.7.19)
H(S) = lim H(sn /sn 1 , sn 2 , ..., s0 ) n!1
Tenendo conto della statistica dipendenza tra i simboli si possono ottenere prestazioni notevolmente migliori. Ad esempio nella codifica fax è evidente una dipendenza statistica tra i simboli. Infatti la presenza di un evento ’nero’ rende molto più probabile l’arrivo di un altro evento ’nero’, dato che lo spessore della traccia di scrittura non è nullo. Questo discorso è ancora più valido per il ’bianco’. In conclusione sequenze anche molto lunghe di 1 o di 0 possono essere codificate con stringhe molto corte di bit, tanto più che alcune di esse sono anche molto probabili (ad esempio una sequenza di eventi ’bianco’ che copre tutta la pagina è quella corrispondente a una riga tutta bianca, come ad esempio si trova al termine di un foglio). Sfruttando quindi la conoscenza sui simboli precedenti si riesce a predire qualcosa sui simboli in arrivo e quindi l’entropia di ordine n ci si aspetta che sia minore di quella di ordine n 1. Dimostriamo che questo è vero per: (4.7.20)
H(s1 /s0 ) H(s1 )
4.7. TEORIA DELL’INFORMAZIONE
XX s1
=
s0
XX s1
s0
p(s1 , s0 ) · log2
p(s1 , s0 ) · log2
X
1 p(s1 /s0 )
1 p(s1 /s0 )
s1
p(s1 ) · log2
XX s1
s0
=
s1
s0
1 = p(s1 )
p(s1 , s0 ) · log2
dove l’ultima uguaglianza discende dal fatto che: p(s1 ) = XX
150
P
s0
1 = p(s1 )
p(s1 , s0 )
XX p(s1 ) p(s1 ) p(s1 , s0 ) · log2 p(s1 , s0 ) · p(s1 /s0 ) p(s1 /s0 ) s s 1
0
(si ricordi infatti la disuguaglianza ln y y =
XX s1
"
XX s1
s0
s0
p(s1 /s0 )p(s0 ) ·
p(s0 )p(s1 )
1)
p(s1 ) p(s1 /s0 ) · log2 e = p(s1 /s0 )
XX s1
1 · log2 e =
s0
#
p(s0 )p(s1 /s0 ) · log2 e = 0
da cui la tesi. Da ciò si deduce facilmente che: (4.7.21)
0 H(S) H(sn /sn 1 , ..., s0 ) H(sn ) log2 M
4.7.4. Capacità del canale. Caratterizzata la sorgente rimane il problema di come caratterizzare il canale trasmissivo. Supponiamo di avere un canale binario ideale, cioè in grado di far passare bit al suo interno senza commettere errori. Detto allora N (t) il numero di possibili messaggi leciti in grado di trasitare in un intervallo di tempo t, per codificarli sarà necessario utilizzare al minimo log2 N (t). Facendo tendere il tempo di osservazione all’infinito si definisce capacità del canale la quantità: (4.7.22)
log2 N (t) t!1 t
C = lim
misurata in bit/s. Nel caso di un canale reale i simboli in uscita da un mezzo trasmissivo sono in parte sbagliati. Consideriamo la sorgente e il canale binario reale come un’unica sorgente che emette un messaggio Y , generalmente diverso (a causa dei bit errati) dal messaggio X emesso dalla sorgente originaria (vedi figura 4.7.4).
4.7. TEORIA DELL’INFORMAZIONE
H(X) Sorgente X
151
H(Y) Canale Binario
X
Y
F IGURA 4.7.4. Schematizzazione di un canale binario reale Considerata l’entropia della sorgente Y , H(Y ), se il canale fosse ideale, allora si avrebbe: H(Y ) = H(X). Nel caso di canale reale H(Y ) contiene anche informazione errata a causa della presenza di errori nei bit trasmessi. L’informazione in uscita dal canale non è quindi H(Y ), ma H(Y ) depurata di quella parte di informazione falsa che il canale introduce a causa degli errori. L’informazione vera che emerge dal canale è in conclusione: (4.7.23)
I(X, Y ) = H(Y )
H(Y /X)
dove H(Y /X) è l’equivocazione, cioè quella parte di informazione dovuta alla non idealità del canale. Al variare della statistica della sorgente il canale può essere più o meno in grado di trasmettere informazione. A questo punto la capacità del canale può essere definita anche in base alla seguente: (4.7.24)
C = max I(X, Y ) X
dove il massimo è preso rispetto a tutte le possibili statistiche di emissione della sorgente. In questo modo si mette meglio in evidenza che C rappresenta una misura dell’informazione vera che il canale è in grado di convogliare, poichè fa riferimento ai bit per unità di tempo che riescono a transitare correttamente sul canale. Tra tutte le sorgenti con una data varianza, quella che permette di ottenere la massima capacità di canale a parità di statistica d’errore del canale stesso (che si suppone gaussiana) è la sorgente con densità di probabilità di emissione di simboli gaussiana. Supponendo la statistica della sorgente e quella del canale a media nulla, si dimostra che la capacità del canale (calcolata in bit/simbolo) in tali ipotesi vale: (4.7.25)
C =
1 S · log2 (1 + ) 2 N
essendo S ed N rispettivamente la potenza delle statistiche di sorgente e del rumore
4.7. TEORIA DELL’INFORMAZIONE
152
di canale. Questo teorema, noto anche come teorema di Shannon, permette di stabilire un limite superiore alla capacità di trasmettere bit su un canale, fissato che sia il rapporto tra la potenza del segnale emesso dalla sorgente e il rumore presente sul canale.
View more...
Comments