Principi di comunicazioni elettriche

January 9, 2017 | Author: Claudio Fiandrino | Category: N/A
Share Embed Donate


Short Description

Download Principi di comunicazioni elettriche...

Description

Principi di comunicazioni elettriche Fiandrino Claudio 25 novembre 2009

II

Indice 1 Trasmissione dell’informazione

3

2 Rumore 2.1 Introduzione generale . . . . . . . 2.2 Rumore nei doppi bipoli . . . . . . 2.3 Rumore in cascate di doppi bipoli . 2.4 Rumore nei sistemi wireless . . . . 2.5 Banda equivalente di rumore . . . 2.6 Rapporto segnale-rumore . . . . . 2.7 Attenuatore dissipativo . . . . . . 3 Teoria dell’informazione 3.1 Introduzione generale 3.2 Codifica di sorgente . 3.3 Codifica di canale . . . 3.4 Canale discreto . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . . . . .

. . . .

. . . . . . .

. . . .

. . . . . . .

. . . .

. . . . . . .

. . . .

. . . . . . .

. . . .

. . . . . . .

. . . .

. . . . . . .

. . . .

4 Modulazioni 4.1 Modulazioni analogiche . . . . . . . . . . . . . 4.1.1 Modulazioni di ampiezza . . . . . . . . 4.1.2 Segnale analitico e inviluppo complesso 4.2 Modulazioni numeriche . . . . . . . . . . . . . . 4.2.1 Introduzione generale . . . . . . . . . . 4.2.2 Costellazioni e regioni di decisione . . . 4.2.3 Modulazioni in banda base . . . . . . . 4.2.4 Modulazioni in banda traslata . . . . . 5 Isi e Criteri di Nyquist 5.1 Interferenza intersimbolica 5.2 1◦ criterio di Nyquist . . . 5.3 2◦ criterio di Nyquist . . . 5.4 Considerazioni finali . . .

. . . .

. . . .

III

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . .

7 7 11 12 14 14 16 17

. . . .

19 19 22 25 27

. . . . . . . .

31 31 31 36 40 40 60 62 69

. . . .

83 83 87 92 93

IV 6 Esempi conclusivi 6.1 Esempio modulazione PAM . . . . 6.2 Diagramma ad occhio . . . . . . . 6.2.1 Esempio per la modulazione 6.2.2 Esempio per la modulazione

INDICE

. . . . . . . . . . 2-PAM QPSK .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

95 . 95 . 104 . 104 . 106

Prefazione Gli appunti sono stati redatti seguendo le lezioni del corso ed approfondendo alcuni argomenti sul libro di testo consigliato (Giorgio Taricco, Comunicazioni elettriche con elementi di teoria dell’informazione, edito CLUT). Se fossero presenti errori potete segnalarli al il mio recapito mail: claudio [email protected]. Il sito in cui `e possibile trovare questi appunti `e: http://claudiofiandrino.altervista.org.

1

2

INDICE

Capitolo 1

Trasmissione dell’informazione Analizziamo le due parole del titolo di questo capitolo: trasmissione e informazione. Trasmettere consiste nel prendere in esame l’insieme dei dispositivi fisici che permettono la comunicazione; ci` o che viene trasmessa `e l’informazione, ossia i segnali opportunamente trattati.

Sistemi di trasmissione Esistono due tipi di sistemi di trasmissione: analogici e digitali.

Sistemi analogici I sistemi analogici trasmettono segnali a tempo continuo in cui, l’informazione da scambiare nella comunicazione, `e proporzionale ad uno dei parametri del segnale (fase, ampiezza). Il segnale non viene manipolato, ma riprodotto fedelmente. x(t)

t

3

4

CAPITOLO 1. Trasmissione dell’informazione

Sistemi digitali Nei sistemi digitali i segnali trasmessi non rappresentano l’informazione scambiata: essa va interpretata. Si parla di informazione discreta perch`e, con opportune manipolazioni, si codifica l’informazione in simboli (sequenze di bit); in fase di ricezione essi saranno riconosciuti e decodificati per conoscere l’esatto contenuto di informazione ricevuto. Sul canale di trasmissione il segnale `e un segnale di tipo analogico (onda elettromagnetica) e non una sequenza numerica anche nel caso di sistemi digitali. x(t)

t

Rispetto a sistemi analogici, con segnali digitali `e possibile ricostruire la forma d’onda se durante la trasmissione si sono verificati errori; la prestazione dei processori che trattano l’informazione `e decisamente migliore come migliore `e la qualit`a di questi sistemi. I sistemi analogici per contro sono meno complicati da realizzare e c’`e degradazione graduale della qualit`a a differenza dei sistemi digitali; per questi ultimi se non ci sono errori la qualit`a `e alta, ma in caso contrario la qualit`a `e nulla.

Schemi a blocchi per i due tipi di sistemi Sistemi analogici: S

MOD

DEMOD

R

Sorgente

Modulatore analogico

Demodulatore Analogico

Ricevitore

5 Sistemi digitali: S

C-Q

Sorgente Campionatore e Quantizzatore

MOD

DEMOD

R

Modulatore Numerico

Demodulatore Numerico

Ricevitore

6

CAPITOLO 1. Trasmissione dell’informazione

Capitolo 2

Rumore In questo capitolo verr` a analizzato il rumore termico nei suoi aspetti fondamentali.

2.1

Introduzione generale

In ogni trasmissione si pu` o osservare un disturbo che prende il nome di rumore termico. Il rumore termico `e un modello fisico sempre presente nei dispositivi di trasmissione in quanto caratterizza la variazione elettrica degli elettroni nel sistema hardware. Analizziamo con dettaglio il rumore presente nei sistemi di telecomunicazione; `e possibile caratterizzarlo con le seguenti propriet` a: . `e un processo casuale che chiameremo n(t); . `e bianco; . la sua distribuzione statistica `e di tipo gaussiano. L’aggettivo bianco evidenzia che lo spettro del processo n(t) `e costante su tutte le frequenze e, date le sue propriet`a di processo casuale WSS ed ergodico, pu` o essere modellizato come: GN (f ) N0 2

f

7

8

CAPITOLO 2. Rumore

Poich`e lo spettro `e costante, l’autocorrelazione del rumore termico, che non `e altro che l’antitrasformata di Fourier dello spettro di potenza, `e una delta nell’origine: RN (τ ) N0 2

τ

In formule: GN (f ) = F {RN (τ )}

RN (τ ) = F −1 {GN (f )}

La funzione di autocorrelazione misura quanto due istanti di tempo t e t1 di un processo siano correlati. Se la funzione di autocorrelazione mostra una forte correlazione fra due istanti di tempo allora il segnale, nel dominio del tempo, `e lento; viceversa un segnale veloce avr`a una funzione di autocorrelazione bassa perch`e t1 `e influenzato poco da t; poich`e il rumore termico ha una delta nell’origine la conclusione `e che ogni istante di tempo non `e correlato in nessun modo con altri. Non `e possibile quindi partendo da t cercare di indovinare cosa succeder`a in t1 perch`e, siccome questi istanti di tempo sono scorrelati, il processo cambia in modo impredicibile. Per τ −→ 0 ci` o che evidenzia la funzione di autocorrelazione `e la potenza o valor quadratico medio del segnale ( N20 ); invece per τ −→ ∞, solo nel caso di processi causali come n(t) si legge il valor medio al quadrato (0).

2.1. Introduzione generale

9

La distribuzione statistica `e di tipo gaussiano in quanto somma di eventi casuali statisticamente indipendenti: fn

n

Questo tipo di distribuzione evidenzia che mediamente il rumore ha media nulla, ma, seppure con probabilit`a bassa, possono verificarsi picchi di ampiezza molto alta o molto bassa di durata breve.

Dimostrazione Collegando un resistore ad un oscilloscopio si osserva che anche senza alimentazione scorre una microcorrente spuria; questo fenomeno `e dovuto all’agitazione termica degli elettroni semplicemente perch`e la resistenza si trova ad una certa temperatura. Lo spettro della corrente misurata i(t) `e il seguente: Gi (f )

f

Il rumore termico decade a frequenze dei THz, anche se solitamente si immagina lo spettro costante su tutte le frequenze; la densit`a spettrale di potenza vale:   2 · κ · T A2 Gi (f ) = R Hz dove: . κ `e la costante di Boltzman che vale 1.38 · 10−23 . T `e la temperatura a cui `e posto il resistore; . ed R il valore della sua resistenza.

 J K

;

10

CAPITOLO 2. Rumore

La tensione generata dall’agitazione termica `e: e(t) = i(t) · R Possiamo dedurre che la funzione di trasferimento sia: E(f ) =R H(f ) = I(f ) Sapendo che: Ge (f ) = Gi (f ) · |H(f )|2

otteniamo questa relazione che lega gli spettri di potenza di tensione e corrente: Ge (f ) = Gi (f ) · R2 = 2 · κ · T · R

Un generatore di tensione eroga la massima potenza se R `e uguale alla resistenza interna del generatore stesso: Pdisp = La potenza fisica del rumore:

e(t) 4·R

2·κ·T · R2 Ge (f ) Gi (f ) · R2 2 · κ · T · R2 κ·T = = R = = 2 4·R 4·R 4·R 4·R 2 Indicando con N0 il valore del prodotto κ · T si ha che:   N0 W Gn (f ) = 2 Hz

Gn (f ) =

Si pu` o notare che il rumore non dipende dal materiale, in questo caso dal valore della resistenza, ma solo dalla temperatura a cui `e posto; dunque maggiore `e la temperatura pi` u alta sar` a la potenza di rumore associata e quindi pi` u grande sar` a il disturbo creato. Nell’ambito delle telecomunicazioni il rumore termico `e il fattore discriminante per le prestazioni dei dispositivi ed `e il principale fattore di abbassamento della qualit`a del segnale. Esempio Calcolare la potenza di rumore nella banda B di 10 MHz alla temperatura T di 290◦ K. X(f )

−B

B

f

2.2. Rumore nei doppi bipoli

Pn =

Z

B

Gn (f ) df =

11

Z

B

N0 N0 df = · 2B = N0 · B = κ · T · B 2 2

−B

−B

Sostituendo i valori numerici: Pn = (1.38 · 10−23 ) · 290 · (10 · 106 ) = 4 · 10−14 W Il valore ottenuto `e molto basso, ma occorre precisare che `e necessario un confronto con la potenza del segnale trasmesso per poter dare un giudizio. Ad esempio, la telefonia cellulare, utilizza potenze di questo ordine di grandezza; in questo caso un disturbo con questa potenza sarebbe significativo.

2.2

Rumore nei doppi bipoli

Quando un segnale attraversa un doppio bipolo viene disturbato dal rumore creato dal dispositivo.

D.B n(t) x(t)



y(t)

Il parametro importante `e la temperatura di lavoro: abbiamo visto come influenza il rumore aumentandone la potenza e quindi peggiorando il segnale. In ingresso al doppio bipolo abbiamo una potenza di rumore pari a: Gin =

κ·T 2

Ipotizzando che gli elementi siano adattati in impedenza, quindi sia la potenza del segnale che quella del rumore sono massime, si ha in uscita: Gout = Gin · gdb + Gdb

(2.1)

Supponiamo di avere un doppio bipolo ideale, che non introduce rumore, con una potenza in uscita data da: ′

Gout = Gin · gdb e un doppio bipolo rumoroso con potenza in uscita descritta nel’equazione (2.1).

12

CAPITOLO 2. Rumore

Si definisce temperatura equivalente di rumore T e l’incremento di temperatura che occorre dare all’ingresso del doppio bipolo ideale affinch`e abbia la stessa potenza di uscita del doppio bipolo rumoroso. Ricapitolando: D.B ideale Gout = κ·T 2 · gdb ′ Gin = κ·T 2 ′

Si introduce: γT =

Gout

D.B reale = κ·(T 2+T e) · gdb Gin = κ·T 2

Te Gout =1+ ′ T Gout

Tale rapporto viene definito cifra di rumore (figure noise), quando T `e uguale a T o, temperatura operativa (290◦ K, 17◦ C): F =

Gout Te =1+ ′ To Gout

Questa quantit` a misura quanto peggiora l’uscita del doppio bipolo rumoroso rispetto al suo ingresso. Invertendo la formula della cifra di rumore `e possibile determinare analiticamente un’espressione per la temperatura equivalente: T e = T o · (F − 1)

2.3

Rumore in cascate di doppi bipoli

Ipotizziamo di avere una cascata di doppi bipoli con: . cardinalit`a N ; . temperatura Ti ; . cifra di rumore Fi ; . guadagno gi ;

Ti , Fi , gi

Ti , Fi , gi

Ti , Fi , gi

i=1

i=2

i=N

2.3. Rumore in cascate di doppi bipoli

13

Se consideriamo tutti i doppi bipoli ideali si avr`a: ′

Gout =

κ · To · gtot 2

dove gtot rappresenta il guadagno complessivo della catena: gtot = g1 · g2 · g3 · ... · gN La potenza in uscita ipotizzando tutti i doppi bipoli reali sar` a invece: ′

Gout = Gout + Gtot dove Gtot rappresenta i contributi complessivi di rumore introdotti dalla cascata di doppi bipoli: N X Gdbi Gtot = i=1

Analizziamo l’uscita del primo elemento: Gout (1) =

κ · (T o + T1 ) · gtot + Gdb (1) 2

` come considerare il primo doppio bipolo reale e tutti gli altri ideali. E Ripetendo l’operazione sull’intera catena si ottiene: Ftot = 1 +

T1 T2 TN + + ··· + T o T o · g1 T o · (g1 · g2 · ... · gN −1 )

Detta formula di Friis. Equivalentemente: Ftot = F1 +

FN − 1 F2 − 1 F3 − 1 + + ··· + g1 g1 · g2 gtot

Si pu` o notare dalla formula di Friis che sono i primi stadi ad essere significativi nel garantire buone o cattive prestazioni del sistema: per questo motivo dopo dispositivo ricevente come un’antenna viene posto un amplificatore a basso rumore (Low Noise Amplifier) il quale, avendo una cifra di rumore bassa, non peggiora il rumore di tutta la catena. Come nel caso del doppio bipolo `e possibile determinare la temperatura equivalente totale come: T etot = T o · (Ftot − 1) = T1 +

T3 TN T2 + + ··· + g1 g1 · g2 gtot

14

2.4

CAPITOLO 2. Rumore

Rumore nei sistemi wireless

In un sistema nello spazio libero:

RX

Ta

La temperatura di antenna `e la temperatura a cui si trova un resistore equivalente collegato al ricevitore che genererebbe la stessa quantit`a di rumore dell’antenna; essa si sostituisce alla temperatura a cui si trova il sistema perch`e tiene conto di tutti i disturbi ricevuti (es. rumore galattico). Con sistemi di questo tipo la temperatura operativa a cui si lavora `e: Top = T a + T e Ricapitolando: Sistemi wired Top = T + T e

2.5

Sistemi wireless Top = T a + T e

Banda equivalente di rumore

Nelle sezioni precedenti si `e parlato spesso impropriamente di potenza di rumore; il termine pi` u corretto sarebbe stato densit`a spettrale di potenza del rumore. La potenza di rumore vera e propria infatti tiene conto della banda del segnale che viene utilizzato. Ipotizziamo di effettuare una trasmissione su un canale AWGN (Additive White Gaussian Noise) che aggiunge al segnale solo rumore termico; modellizziamo semplicemente la trasmissione da una sorgente verso un destinatario su un canale AWGN in questo modo:

x(t)



y(t) n(t)

2.5. Banda equivalente di rumore

15

Se si pensa al segnale y(t) come risultato di una trasformazione data da una funzione di trasferimento, la relazione fra le densit`a spettrali di potenza `e: Gy (f ) = |H(f )|2 · Gx (f ) Poich`e il sistema di trasmissione `e lineare, possiamo pensare di scomporre la densit`a spettrale dell’uscita come somma delle densit`a spettrali di ingresso e quella del rumore; per questo motivo `e possibile calcolare direttamente la potenza del rumore come: Z +∞ Z +∞ κ · To N0 2 · |H(f )| df = · |H(f )|2 df PNout = 2 2 −∞ −∞ Siccome

κ·T o 2

`e costante si ottiene: PNout

κ · To · = 2

Z

+∞

−∞

|H(f )|2 df

Si osserva che l’integrale non dipende dalla geometria del filtro, ma solo dalla sua area. Si definisce banda equivalente di rumore: Z +∞ 1 1 Beq = · |H(f )|2 df · 2 |H(f )|2 −∞ Per cui la potenza di rumore risulta essere: PNout = κ · T o · Beq · |H(f )|2 La banda equivalente di rumore `e un filtro passabasso che ha una banda capace di far passare la stessa quantit`a di rumore del filtro vero e proprio: |H(f )|2

|H(f )|2

−Beq

f Ad esempio, se |H(f )|2 = 1:

PNout = κ · T o · Beq

Beq

f

16

CAPITOLO 2. Rumore

2.6

Rapporto segnale-rumore

Ipotizzando di avere un doppio bipolo caratterizzato da: . temperatura equivalente T e; . guadagno disponibile gd ; . cifra di rumore F ; . banda equivalente di rumore Beq ; . potenza del segnale di ingresso PSin . Il rapporto segnale-rumore, in inglese signal to noise ratio (SN R), viene definito come: P otenza segnale SN R = P otenza rumore Se non si specifica dove si effettano queste due misure l’indicazione data da SN R `e totalmente inutile; pensiamo di calcolare tale quantit` a all’ingresso del doppio bipolo considerato: SN Rin =

PSin PNin

Il termine della potenza del rumore in ingresso pu` o essere esplicitato come: PNin =

κ·T · 2Beq = κ · T · Beq 2

Quindi: SN Rin =

PSin κ · T · Beq

Effettuiamo ora il calcolo all’uscita del doppio bipolo: SN Rout =

PS · gd PSout = in PNout PNout

Determiniamo la potenza di rumore in uscita: PNout =

κ · (T + T e) · gd · 2Beq = κ · (T + T e) · gd · Beq 2

Per cui: SN Rout =

PSin PSin · gd = κ · (T + T e) · gd · Beq κ · (T + T e) · Beq

Il significato di questa espressione `e che non serve aumentare la potenza del segnale per migliorare la qualit`a della trasmissione perch`e verrebbe amplificato anche il rumore, non cambiando di fatto nulla.

2.7. Attenuatore dissipativo

17

Se la temperatura di lavoro `e T o: SN Rout =

1 1 PSin · = SN Rin + T e κ · T · Beq 1 + T o F

Esprimendo tutte le grandezze in decibel: SN Rout |dB = SN Rin |dB − F |dB

2.7

Attenuatore dissipativo

Pi` u comunemente noti come cavi, gli attenuatori dissipativi sono caratterizzati da: 1 gd = L dove L `e l’attenuazione. Supponendo che lavori a temperatura T o possiamo definire: . Gin = ′

κ·T o 2 ,

potenza di rumore in ingresso;

o . Gout = κ·T 2 · l’attenuatore;

1 L,

potenza di rumore in uscita considerando ideale

o . Gout = κ·T 2 , potenza di rumore in uscita considerando rumoroso l’attenuatore.

Calcoliamone la cifra di rumore: F =

Gout = ′ Gout

κ·T o 2 κ·T o 1 2 · L

=L

Fisicamente `e un concetto esatto perch`e, pi` u `e lungo un cavo, pi` u si dissipa potenza in calore per effetto Joule; ci`o provoca un’aumento della temperatura e, di conseguenza, di rumore.

18

CAPITOLO 2. Rumore

Capitolo 3

Teoria dell’informazione 3.1

Introduzione generale

Data una sorgente in grado di emettere un numero finito di simboli discreti: S −→ {xi }M i=1 si pu` o pensare all’informazione come ad una grandezza che dipende dalla probabilit`a che venga emesso uno dei simboli della sorgente piuttosto che un altro. Pi` u un simbolo ha probabilit`a di essere trasmesso, meno informazione conterr` a; al contrario un simbolo trasporta tanta informazione se viene emesso poche volte. Propriet` a 1. Dati due simboli xi e xj : I(xi ) > I(xj ) se P(xi ) < P(xj ); 2. Se gli eventi sono statisticamente indipendenti: P(xi , xj ) = P(xi ) + P(xj )

=⇒

I(xi , xj ) = I(xi ) + I(xj ).

Una funzione matematica che verifica queste propriet`a `e il logaritmo; per definizione: 1 I(xi ) , loga P(xi )

A seconda della base a scelta si individuano diverse unit` a di misura per l’informazione: 1 . I(xi ) = ln P(x i)

[nat]

1 . I(xi ) = log2 P(x [bit] i)

19

20

CAPITOLO 3. Teoria dell’informazione

I bit dunque non sono ′′ 0′′ e ′′ 1′′ che viaggiano nei segnali, ma misura di quantit` a di informazione scambiata. Solo in casi particolari vi `e una correlazione fra cifre binarie e bit di informazione, come si vedr` a in seguito. Si definisce entropia della sorgente la quantit`a: H(x) =

M X i=1

P(xi ) · I(xi ) =

M X i=1

P(xi ) · log2

1 P(xi )

L’entropia rappresenta quindi una media dell’informazione trasmessa dalla sorgente pesata, per ogni simbolo, dalla sua probabilit`a di essere emesso; per questo motivo si misura in [ bit/sym]. Esempio 1 Data una sorgente S che pu` o emettere 4 simboli diversi (x0 , x1 , x2 , x3 ) con probabilit`a uguale per ogni simbolo; si calcoli l’entropia della sorgente. Poich`e i simboli sono equiprobabili e l’alfabeto `e composto di 4 simboli: 1 4 Si ha che la quantit` a di informazione che ogni simbolo ha `e uguale per ogni simbolo emesso. L’entropia per definizione `e: P(x0 ) = P(x1 ) = P(x2 ) = P(x3 ) =

H(x) =

M X i=1

Quindi nel nosto caso: H(x) = M ·

P(xi ) · log2

1 P(xi )

1 · log2 M = log2 4 = 2 bit/sym M

Esempio 2 Ipotizziamo ora che la sorgente S non emetta con la stessa probabilit`a i simboli, ma secondo le regole della tabella: Simbolo xi x0 x1 x2 x3

Probabilit`a P(xi ) P(x0 ) = 1/2 P(x1 ) = 1/4 P(x2 ) = 1/8 P(x3 ) = 1/8

3.1. Introduzione generale

21

In questo caso con probabilit`a diverse anche la quantit`a di informazione che trasporta ogni simbolo `e diversa: 1 = log2 2 = 1 bit; x0 =⇒ I(x0 ) = log2 P(x 0) 1 x1 =⇒ I(x1 ) = log2 P(x = log2 4 = 2 bit; 1) 1 = log2 8 = 3 bit; x2 =⇒ I(x2 ) = log2 P(x 2) 1 = log2 8 = 3 bit. x3 =⇒ I(x3 ) = log2 P(x 3)

Si pu` o notare come i simboli meno probabili, che dunque contengono pi` u informazione, trasportano il maggior numero di bit; viceversa i simboli pi` u probabili sono quantificati con un bit. Calcoliamo ora l’entropia della sorgente: H(x) =

M X i=1

P(xi ) · log2

1 1 1 1 7 = · 1 + · 2 + 2 · · 3 = = 1.75 bit/sym P(xi ) 2 4 8 4

Rispetto al caso di simboli equiprobabili quindi si ha meno entropia in quanto alcuni simboli sono pi` u frequenti e, dunque, forniscono meno informazione quando sono emessi. Esempio 3 Consideriamo ora una sorgente S che emetta simboli binari: X = {x0 , x1 } Le cui probabilit`a di emissione sono: . P(x0 ) = p0 ; . P(x1 ) = 1 − p0 . L’entropia della sorgente `e: H(x) = p0 · log2

1 1 + (1 − p0 ) · log2 p0 (1 − p0 )

Diagrammando l’entropia in funzione della probabilit`a p0 : H(x) 1

0

1 2

1

p0

22

CAPITOLO 3. Teoria dell’informazione

Il significato di questo grafico `e il seguente: se si trasmette con probabilit`a p0 = 1 allora viene emesso solo il simbolo x0 ; esso non trasporta informazione quindi l’entropia della sorgente `e nulla. Lo stesso discorso vale nel caso in cui si emette il simbolo x1 sempre, ossia p0 = 0; quando invece i simboli sono equiprobabili l’entropia `e massima e vale 1:   1 1 1 1 1 1 · log2 = + = 1 bit/sym H(x) = · log2 1 + 1 − 1 2 2 2 2 (1 − 2 ) 2 Solo in questo caso vi `e una corrispondenza fra cifra binaria ed bit; si noti, ad esempio, che se si tramette per il 60% delle volte il simbolo x0 e per il 40% x1 allora l’entropia sar` a un numero compreso fra 0 e 1.

3.2

Codifica di sorgente

L’obbiettivo di una codifica di sorgente `e capire se, data una sorgente S con un alfabeto di simboli discreti: S −→ X = {xi }M i=1 `e possibile trovare una sorgente binaria equivalente: SBIN −→ Y = {y0 , y1 } in modo tale da rappresentare la stessa quantit`a di informazione della sorgente S con stringhe binarie. Lunghezza media Si definisce n, lunghezza media delle parole di codice, la quantit`a: n=

M X i=1

P(xi ) · ni

dove: . P(xi ) rappresenta la probabilit`a di emissione del simbolo della sorgente non binaria; . ni rappresenta la lughezza della singola parola in cifre binarie. Teorema di Shannon: H(x) ≤ n ≤ H(x) + 1 La condizione importante `e: n ≥ H(x)

3.2. Codifica di sorgente

23

Significa che nel caso migliore, simboli equiprobabili, servono tante cifre binarie quanto `e l’entropia della sorgente; in caso contrario ne servono di pi` u, quindi ci sar` a uno spreco di cifre che non sono informazione, ma ridondanza. Con questi ragionamenti si pu` o anche ridefinire il concetto di entropia come il numero minimo di bit necessari per rappresentare in cifre binarie i simboli della sorgente. L’obbiettivo di buoni codificatori `e quello di cercare di portare il valore di n vicino al valore dell’entropia della sorgente H(x). Una possibile classificazione dei codificatori prende in esame la caratteristica di mantenere o accettare perdite di informazione rispetto alla sorgente: . codificatori LOSSLESS, o senza perdite (es: compressione ZIP); . codificatori LOSSY, con perdite (es: formati JPEG, MP3, ...). Un algoritmo per la codifica di sorgente `e l’algoritmo di HUFFMAN; i passi necessari per effettuare una codifica Huffman sono i seguenti: 1. ordinare i simboli xi secondo probabilit`a non decrescenti di P(xi ); 2. raggruppare i simboli xi e xj con probabilit`a pi` u bassa ed associare un nuovo simbolo xk che abbia una probabilit`a P(xk ) = P(xi ) + P(xj ); 3. ripetere il passo 2 fino ad ottenere un solo simbolo finale con probabilit` a 1; 4. associare le cifre binarie ′′ 0′′ e ′′ 1′′ alle transizioni dei rami dell’albero ottenuto; 5. leggere le stringhe dalla radice fino alle foglie dell’albero. Esempio Consideriamo una sorgente con un alfabeto: S −→ X = {xi }4i=1 in cui le probabilit`a di emissione per simbolo sono descritte in tabella: Simbolo xi x0 x1 x2 x3

Probabilit`a P(xi ) P(x0 ) = 1/2 P(x1 ) = 1/4 P(x2 ) = 1/8 P(x3 ) = 1/8

Realizziamo per questa sorgente una codifica di Huffman:

24

CAPITOLO 3. Teoria dell’informazione

x3

P = 1/8

x2

P = 1/8

1 P = 1/4 0

P = 1/2

P = 1/4

x1

1

0

P = 1/2

x0

1

P=1

0

I simboli possono essere dunque cos`ı codificati: Simbolo x3 x2 x1 x0

Codifica 111 110 10 1

Calcoliamo n:

1 1 7 1 · 1 + · 2 + 2 · · 3 = = 1.75 2 4 8 4 Il risultato `e uguale all’entropia di questa sorgente; infatti con la codifica Huffman si ha n = H(x) nel caso in cui le probabilit`a siano distribuite come: 1 P(x) = i α i=2,4,8,16,... n=

dove α ∈ N. In questi casi una cifra binaria corrisponde ad un bit di informazione; se per` o n 6= H(x) si introduce un parametro η che misura l’efficienza di codifica, definito come: H(x) η= n

3.3. Codifica di canale

3.3

25

Codifica di canale

Riassumendo i concetti visti finora, sappiamo che le parole composte da una sorgente con un alfabeto qualsiasi possono essere codificate in stringhe binarie con algoritmi particolari; l’obbiettivo di questi codificatori `e evitare di creare codici con cifre binarie inutili che non trasportano informazione. In uno schema a blocchi: X = {xi }M i=1

S Sorgente

C.S

Y = {y0 , y1 }

Codificatore di sorgente

Il problema principale `e che dopo il codificatore di sorgente l’informazione non `e robusta: se durante la trasmissione si perde anche un solo bit, quel bit `e sicuramente di informazione quindi si `e persa parte del messaggio. Al fine di proteggere l’informazione si preferisce aggiungere bit di ridondanza prima di effettuare la trasmissione sul canale; ridondanza che per` o `e controllata a differenza di quella introdotta dalla sorgente; questo processo avviene grazie ai codificatori di canale:

S Sorgente

C.S

C.C

Cod. Sorgente Cod. Canale Canale AWGN

Una codifica di canale riceve, dopo il codificatore di sorgente, una stringa di m cifre binarie e fornisce in uscita stringhe con n cifre, con: n>m Viene definito rate di codifica il rapporto: Rc =

m n

un parametro che rappresenta l’efficienza dei codificatori. L’obbiettivo dei codificatori di canale `e duplice: riuscire a rilevare (fase di detection) l’errore e, se possibile, correggerli. Un esempio di codificatore di canale `e il codice a ripetizione. Un codice a ripetizione (n, m) riceve in ingresso m cifre binarie e le ripete n volte.

26

CAPITOLO 3. Teoria dell’informazione

Esempio Codice a ripetizione (3,1): Input 0 1

Output 000 111

In questo caso il rate di codifica risulta essere: Rc =

1 3

Si pu` o notare che il codice permette di rilevare errori e, secondo oppurtune scelte, la correzione, ma questo pregio viene pagato con un’occupazione maggiore del canale. La rilevazione avviene praticamente sempre perch`e, ricevendo una sequenza che non presenta n cifre uguali ci si accorge di un errore di trasmissione; la correzione pu` o solo avvenire se vengono decisi a priori criteri particolari. Nel nostro esempio del codice (3,1) si pu` o decidere di correggere a maggioranza: . se la stringa ricevuta presenta due 0 ed un 1 si decodifica con 0; . se la stringa ricevuta presenta due 1 ed uno 0 si decodifica con 1. Ma tale criterio funziona solo per errori singoli: se infatti durante la trasmissione vengono fatti due errori, ci`o che accade `e un errore di decodifica (0 anzich`e 1 e viceversa). Aumentando la complessit`a del codice, ad esempio utilizzando un codice (5,1), si riuscirebbero a rilevare due errori e a correggere quando le stringhe presentano meno di 3 errori di tramssione; ovviamente questo comporta una diminuzione del rate di codifica che diventerebbe pari ad 51 .

3.4. Canale discreto

3.4

27

Canale discreto

Data una sorgente S con un alfabeto di simboli: S −→ X = {xi }M i=1 se in ricezione si ha: R −→ Y = {yj }N j=1 un modello che descrive ci` o che accade prende il nome di canale discreto. In generale non `e detto che avendo M simboli alla sorgente si debbano avere N = M simboli in ricezione. Ad esempio, la sorgente trasmette stato alto (1) e stato basso (0) in cui M = 2; sul canale `e presente sicuramente il rumore che potrebbe portare ad avere, oltre ai corrispettivi stati alto e basso, anche un terzo stato di transizione: in questo caso N = 3. Per questo esempio costruiamo il modello del canale discreto: y0 b

x1 b

y1 b

x0 b

b

y2

Se ogni simbolo ha una certa probabilit`a di essere emesso e ricevuto: Simbolo x0 x1 y0 y1 y2

Probabilit`a P(x0 ) P(x1 ) P(y0 ) P(y1 ) P(y2 )

si pu` o identificare su ogni ramo del canale una probabilit`a di ricevere un simbolo yj dato un simbolo xi ; la notazione `e: P(yj |xi ) . La probabilit`a a posteriori, invece, definita come P(xi |yj ) esprime la probabilit` a che avendo ricevuto un simbolo yj sia stato trasmesso xi .

28

CAPITOLO 3. Teoria dell’informazione

Un caso particolare di canale discreto `e il canale binario, in cui M = N = 2: x1 b

b

y1

x0 b

b

y0

dove con i tratti rossi tratteggiati si sono rappresentate le transizioni dei canali, mentre con il tratto nero continuo i casi di corretta trasmissione. Nel caso in cui le probabilit`a di errore siano uguali: P(y1 |x0 ) = P(y0 |x1 ) = Pe si parla di canale binario simmetrico (BSC). Definiamo sul BSC la quantit`a media di informazione trasmessa e ricevuta: P 1 =⇒ entropia della sorgente in tra. H(x) = M i=1 P(xi ) · log2 P(xi ) smissione; P 1 =⇒ entropia della sorgente in rice. H(y) = N j=1 P(yj ) · log2 P(yj ) zione. Sempre per il BSC, con il teorema della probabilit`a totale, calcoliamo: . P(y0 ) = P(x0 ) · P(y0 |x0 ) + P(x1 ) · P(y0 |x1 ); . P(y1 ) = P(x0 ) · P(y1 |x0 ) + P(x1 ) · P(y1 |x1 ); Si introducono ora altre due quantit`a: P PN 1 1. H(y|x) = M i=1 j=1 P(xi , yj ) · log2 P(yj |xi ) ; 2. H(x|y) =

PM PN i=1

j=1 P(xi

, yj ) · log2 P(x1i |yj ) .

La prima definizione misura la quantit`a media di informazione associata alle transizioni del canale, quindi la sua incertezza; a denominatore del logaritmo `e presente la probabilit`a di errore dei rami: se questa quantit`a `e alta sar` a grande anche l’incertezza del canale. La seconda definizione prende il nome di equivocazione del canale: essa rappresenta la quantit` a di informazione che si perde nel canale; se si conoscesse sarebbe possibile decodificare perfettamente ogni simbolo. Corollario 0 ≤ H(y|x) ≤ H(x)

3.4. Canale discreto

29

Vediamo il significato spezzando in due casi questa relazione ed analizzandone gli estremi: . H(y|x) = 0 siamo nel caso migliore, perch`e se l’equivocazione `e nulla allora tutta l’informazione trasmessa viene ricevuta senza errori: il canale `e ideale; . H(y|x) = H(x) siamo nel caso peggiore, dove l’incertezza `e massima perch`e l’equivocazione del canale `e pari all’informazione media emessa dalla sorgente: il canale diventa inutilizzabile. Dal Teorema di Shannon si evince che: I(x, y) = H(x) − H(x|y) [ bit/sym] I(x, y) rappresenta la quantit` a di informazione scambiata; l’uguaglianza dice che essa `e pari all’entropia della sorgente meno l’equivocazione del canale. Questa quantit` a non ` e l’informazione ricevuta, la quale dipende solo dalle probabilit`a P(yi ). Si pu` o dimostrare che: I(x, y) = H(x) − H(x|y) = H(y) − H(y|x) Questo passaggio `e pi` u difficile da spiegare concettualmente, ma `e utile al fine dei calcoli: infatti, a differenza dell’equivocazione del canale, che `e una quantit` a per definizione ignota, H(y|x) `e pi` u facile da determinare. Un buon progetto di sistema di trasmissione-ricezione prevede di massimizzare la quantit` a di informazione scambiata; si definisce capacit` a del canale: C = max {I(x, y)} [ bit/sym] La capacit` a del canale `e un parametro che indica la massima quantit`a di informazione che il canale pu` o trasportare; un’ulteriore bit aggiunto oltre la capacit` a C diventa informazione persa e non recuperabile in nessun modo. Il parametro su cui si agisce per massimizzare la capacit` a non `e, come si potrebbe pensare, l’equivocazione del canale in quanto una volta definite le transizione non si pu` o intervenire; in ogni caso, anche se si riuscissero ad evitare transizioni, rimarrebbe comunque il rumore termico come fonte di errore. Si agisce dunque sulle probabilit`a P(xi ) che possono essere scelte in modo opportuno dal progettista.

30

CAPITOLO 3. Teoria dell’informazione

I simboli della sorgente vengono emessi con una frequenza regolare; si definisce: H(x) Rs = Ts dove: . Rs `e il rate di emissione della sorgente, misurato in bit/s; . Ts `e il tempo di simbolo, ovvero ogni quanto tempo la sorgente emette un nuovo simbolo. Rs viene anche chiamato Bit Rate, sottointendendo per bit rate il rate di emissione di una quantit`a unitaria di informazione e non il rate di emissione di cifre binarie. Quest’ultimo viene indicato con rb e si pu` o facimente capire che: rb ≥ Rs Ipotizziamo infatti che, dopo il codificatore di sorgente, sia presente un codificatore di canale con codice a ripetizione: sicuramente le cifre binarie emesse dal codificatore di sorgente verranno ripetute quindi rb sar` a pi` u grande di Rs . Si definisce: Cs =

C Ts

come capacit` a per tempo di simbolo, misurata anch’essa in bit/s. Teorema della codifica di canale Se Rs ≤ Cs allora esiste un modo per trasmettere l’informazione sul canale senza errori. Questo teorema di esistenza viene di fatto realizzato attraverso codifiche di canale molto sofisticate, come i turbocodici. Questi codici introducono una complessit`a notevole, quindi, per alcune applicazioni non sono sempre utilizzabili.

Capitolo 4

Modulazioni In questo capitolo verranno affrontate le modulazioni analogiche e numeriche dei segnali.

4.1

Modulazioni analogiche

La modulazione dei segnali significa spostare la frequenza a cui viene emesso il segnale dalla sorgente.

x(t)

y(t) MOD Modulatore

4.1.1

Modulazioni di ampiezza

La modulazione di ampiezza pi` u semplice avviene moltiplicando il segnale x(t) per un coseno: x(t) −→ ⊗ −→ y(t) ↑ cos(2πf0 t) Il risultato `e il seguente nel dominio delle frequenze:

31

32

CAPITOLO 4. Modulazioni X(f )

Y (f )

1 1 2

f

−f0

f0

f

Lo spettro Y (f ) viene spostato dalla banda base attorno alla frequenza della portante: si parla di segnali in banda traslata. Le frequenze sono le risorse pi` u costose per le comunicazioni ; esse vengono divise in bande, le pi` u importanti sono: . 3-30 kHz: very low frequency (es: trasmssioni marine); . 30-300 MHz: very high frequency (es: trasmissioni soccorso alpino); . 0.3-3 GHz: UHF (es: televisione, telefonia, telefonia cellurare, comunicazioni wireless); . 3-30 GHz: comunicazioni satellitari, ponti radio. Per trasmissioni via etere `e possibile utilizzare le frequenze a piacimento, ma nello spazio libero occorrono precisa disposizioni per non creare confusione nelle comunicazioni. In fase di ricezione il segnale deve essere demodulato; questa fase pu` o avvenire in due modi: . demodulazione coerente; . demodulazione non coerente. La demodulazione coerente avviene, partendo dal segnale ricevuto r(t) che comprende il rumore, moltiplicando per un coseno:  cos(2πf t) c y r(t) −→ ⊗ −→ w(t)

Nel caso di demodulazione coerente occorre conoscere le informazioni della portante: frequenza e fase. Anche la fase `e un parametro importante perch`e, ad esempio, se si moltiplicasse per cos(2πfc t + ϕ), con ϕ = 90◦ accadrebbe che il coseno diventerebbe un seno ed un’eventuale operazione di filtraggio successiva avrebbe risultato nullo perch`e seno e coseno sono ortogonali fra loro. Poich`e la fase dipende dalla distanza a cui sono posti trasmettitore e ricevitore `e possibile ricostruire la portante, in ricezione, solo con un sincronizzatore; il sincronizzatore opera con un filtro molto stretto sulla frequenza fc della portante.

4.1. Modulazioni analogiche

33

Dato un segnale di banda base s(t): S(f ) 1

f Con la modulazione si ottiene un segnale sm (t): Sm (f )

1/2 −fc

fc

f

In fase di demodulazione, moltiplicando sm (t) per cos(2πfc t) si ha sd (t): Sd (f ) 1 −2fc

f

2fc

Il segnale sd (t) = s(t) quando, con un opportuno filtraggio di tipo passabasso, vengono elimitate le frequenze immagine attorno a ±2fc . Per segnali che hanno componente continua, l’operazione di sincronizzazione avviene senza problemi; ma nel caso del segnale s(t), che ne `e privo, osserviamo cosa capita filtrando Sm (f ) con una banda stretta attorno alla frequenza di carrier: Sm (f )

1/2 −fc

fc

f

Il risultato dell’operazione di filtro `e nullo quindi non si riuscirebbe a demodulare; come vedremo pi` u avanti, con opportuni segnali si risolve questo problema.

34

CAPITOLO 4. Modulazioni

La demodulazione non coerente avviene grazie ai rilevatori di picco, che demodulano il segnale seguendone i picchi; questo tipo di demodulazione non `e ottima, ma ha il vantaggio di essere poco costosa. Solo nel caso di un segnale veloce, scegliendo opportunamente la costante di tempo RC `e possibile demodulare abbastanza bene il segnale ricevuto; il problema sorge quando il segnale compie un’inversione di fase: il rilevatore di picco, infatti, legge solo il modulo positivo quindi non fornirebbe un risultato corretto. Questo fenomeno prende il nome di sovramodulazione. L’amplitude modulation `e realizzata per poter essere demodulata in tutti e due i modi, risolvendo i problemi di recupero della portante per segnali a componente continua nulla e di sovramodulazione. Modulazione AM

Sm (t) = Ac · [1 + Ka · m(t)] · cos(2πfc t) dove: . m(t) rappresenta il segnale modulato; . Ka `e l’indice di modulazione. Si pu` o notare che l’ampiezza di Sm (t) `e tutta l’espressione Ac ·[1+Ka ·m(t)]; questa quantit` a, quotato Ac , `e un segnale che dipende dal segnale modulante m(t), ma si trova in un intorno di Ac a meno di un fattore Ka : Ka Ac −Ka

Notiamo, dunque, che il problema della sovramodulazione si risolve semplicemente scegliendo opportunamente il coefficiente Ka : ad esempio alzando il segnale affinch`e non abbia inversione di fase. Il comportamento in frequenza `e il seguente: Sm (f ) = F {Sm (t)}

⇓ Sm (f ) =

Ac Ac · Ka Ac · Ka Ac ·δ(f −fc )+ ·δ(f +fc )+ ·M (f −fc )+ ·M (f +fc ) 2 2 2 2

4.1. Modulazioni analogiche

35

Parte della potenza del segnale viene quindi usata per trasportare due portanti proprio sulla frequenza di carrier; il sincronizzatore dunque, nel caso di segnali a componente continua nulla, filtrando recupera le informazioni utili perch`e il risultato dell’operazione non `e pi` u nullo: Sm (f )

1/2 −fc

fc

f

Questo tipo di modulazione prende il nome di modulazione a doppia banda laterale (DSB, double side band) a portante non soppressa (NSC, non suppress carrier). Questa modulazione `e addirittura eccessiva perch`e utilizza il doppio della banda strettamente necessaria per ricostruire il segnale: se infatti la modulante `e reale, lo spettro `e pari ed `e sufficiente conoscerne la met` a per demodulare senza errori. S(f ) 1

f

⇓ Sm (f ) 1/2

1/2

−fc

fc

f

Immaginando di tagliare con un filtro passa alto la parte di spettro superiore a fc ed inferiore a −fc :

36

CAPITOLO 4. Modulazioni Rm (f ) 1/2

1/2

−fc

fc

f

Questo segnale permette ancora di ricostuire perfettamente il segnale di partenza; moltiplicando rm (t) per cos(2πfc t) si ottiene: Rd (f ) 1/4

1/4

1/4

−2fc

2fc

f

Ovviamente non si tengono in considerazione le frequenze immagine a ±2fc perch`e, per ricostruire il segnale di banda base si filtra con un passabasso; l’ampiezza durante il processo viene ridotta di un fattore 4, ma ci`o `e ininfluente ai fini della demodulazione. Questa modulazione, che prevede l’utilizzo di una sola met` a dello spettro di banda base, prende il nome di modulazione single side band (SSB).

4.1.2

Segnale analitico e inviluppo complesso

In questa sezione vengono definiti il segnale analitico, la sua espressione come composizione di segnale in banda base e trasformata di Hilbert e il significato dell’inviluppo complesso. Segnale analitico Dato un segnale in ingresso si definisce segnale analitico: x(t)

2u(f )

x(t) ˙

Il segnale analitico di x(t) si indica con x(t). ˙ Vediamo graficamente questa operazione evidenziando con tre grafici X(f ), |H(f )| e F {x(t)}: ˙

4.1. Modulazioni analogiche

37

X(f ) 2

1

|H(f )|

f

f X(f ) · H(f )



F {x(t)} ˙

2

f Lo spettro di H(f ) non `e pari, quindi la risposta all’impulso non `e reale: h(t) = F −1 {H(f )} = F −1 {2u(f )} = δ(f ) + j

1 πt

Se determiniamo analiticamente il segnale analitco:   Z 1 j ∞ x˙ = x(t) ∗ h(t) = x(t) ∗ δ(f ) + j = x(t) + x(τ )h(t − τ ) dτ = πt π −∞ Z j ∞ x(τ ) = x(t) + dτ π −∞ t − τ L’espressione: Z 1 ∞ x(τ ) dτ x ˆ= π −∞ t − τ

prende il nome di trasformata di Hilbert per il segnale x(t). Dunque il segnale analitico x(t) ˙ pu` o essere visto come composizione di: x(t) ˙ = x(t) + j x ˆ(t)

In via grafica possiamo dare un significato alla trasformata di Hilbert; sappiamo infatti come risulta essere la forma di x(t) e x(t): ˙ X(f ) 2

1 f

F {x(t)} ˙

f

38

CAPITOLO 4. Modulazioni

Per differenza dunque x ˆ(t), per poter tagliare la parte negativa, deve essere: F {ˆ x(t)} 2

f La traformata di Hilbert, quindi, realizza degli sfasamenti: . la parte positiva del segnale viene moltiplicata per −j in modo tale da passare inalterata; . la parte negativa viene moltiplicata per j cos`ı da essere cambiata di segno. Propriet` a del segnale analitico Presi due segnali: . s(t) segnale di banda base; . z(t) segnale di banda passante. Si dimostra che se: x(t) = s(t) · z(t) ⇓ x(t) ˙ = s(t) · z(t) ˙ Questa propriet`a `e molto importante, perch`e nell’ambito delle telecomunicazioni capita molto spesso di trovarci di fronte a casi di questo tipo: un esempio `e la modulazione. Infatti il segnale modulante `e per definizione di banda base, come s(t), mentre la portante deve essere un segnale di banda passante; se consideriamo la modulazione di ampiezza studiata: x(t) = m(t) · cos(2πfc t) Possiamo definire il segnale analitico di x(t) una volta calcolato il segnale analitico di z(t) = cos(2πfc t): 1 1 Z(f ) = δ(f − fc ) + δ(f + fc ) 2 2 ⇓ F {z(t)} ˙ = Z(f ) · H(f ) = Z(f ) · [2u(f )] = δ(f − fc )

4.1. Modulazioni analogiche

39 ⇓

z(t) ˙ = F −1 {δ(f − fc )} = ej2πfc t Quindi: x(t) ˙ = m(t) · ej2πfc t Inviluppo complesso Dato un segnale analitico x(t): ˙ F {x(t)} ˙

f0

f

Esso pu` o essere espresso come: x(t) ˙ =x ˜ · ej2πf0 t dove x ˜ rappresenta l’inviluppo complesso del segnale x(t). L’inviluppo complesso `e un segnale modulante di una portante ben definita, con frequenza di carrier f0 , la quale deve essere all’interno dello spettro del segnale analitico; se non `e centrale a x(t) ˙ allora il segnale `e complesso perch`e la forma dello spettro non `e pari. x ˜(t) `e un inviluppo perch`e se esprimiamo: m(t) · ej2πf0 t = m(t) · [cos(2πf0 t) + jsin(2πf0 t)] anche m(t)cos(2πf0 t) `e un inviluppo. Decomponiamo x ˜ in parte reale ed immaginaria: x ˜(t) = xc (t) + jxs (t) Il segnale x(t) pu` o essere determinato come: o n x(t) = Re {x(t)} ˙ = Re x ˜ · ej2πf0 t =

= Re {[xc (t) + jxs (t)] · [cos(2πf0 t) + jsin(2πf0 t)]} = = xc (t)[cos(2πf0 t)] − xs (t)[sin(2πf0 t)]

Dunque un inviluppo complesso di un segnale in banda passante vuol dire osservare il segnale spezzato nelle sue componenti in fase (coseno) e quadratura (seno); le componenti che trasportano l’informazione del segnale sono

40

CAPITOLO 4. Modulazioni

per` o solo xc (t) ed xs (t). In banda base la componente in quadratura non esiste perch`e il seno si annulla, quindi se si lavora con una certa frequenza di carrier fc `e sottointeso che il segnale pu` o essere visto come somma di entrambe le componenti. Visualizziamo in modo grafico: xc (t)



cos(2πf0 t) ⊕

xs (t)

4.2 4.2.1



x(t)

sin(2πf0 t)

Modulazioni numeriche Introduzione generale

Nei sistemi numerici il segnale `e proporzionale all’informazione trasmessa. Ricordando brevemente lo schema a blocchi:

S Sorgente

C.S

C.C

MOD

Cod. Sorgente Cod. Canale

Modulatore numerico

Il modulatore numerico non riceve in ingresso un segnale da trasmettere come nel caso analogico, ma parole di codice, ovvero sequenze di stringhe binarie che sappiamo essere bit (come misura di informazione) se n = H(x). {xi }M i=1

MOD Modulatore numerico

Dove: . {xi }M i=1 sono bit in ingresso;

{si }M i=1

4.2. Modulazioni numeriche

41

. {si }M i=1 sono segnali in uscita. In uscita dal modulatore ci devono necessariamente essere segnali fisici per propagarsi nel vuoto o via cavo; essi dovranno poi essere demodulati in fase di ricezione dal demodulatore: {ri }M i=1

{ˆ xi }M i=1

DEMOD

Demodulatore numerico Dove: . {ri }M i=1 sono i segnali ricevuti in ingresso; . {ˆ xi }M i=1 sono i simboli stimati in uscita. Sul canale sappiamo che `e presente il rumore termico quindi modellizziamo i segnali ricevuti come: {si }M i=1



{ri }M i=1 n(t)

Il demodulatore deve dunque, in base ad alcuni parametri, stimare quale sia il simbolo che con pi` u probabilit`a era stato emesso dalla sorgente. Il parametro principale per valutare un sistema `e la probabilit`a di errore P(e): questa grandezza rappresenta la probabilit`a che emesso un simbolo xi dalla sorgente si abbia in ricezione xj . Ipotizziamo di associare a due simboli due sequenze numeriche: Simbolo Codifica

Trasmissione xi 000

Ricezione x ˆj 001

In ricezione viene stimato il simbolo x ˆj nonostante fosse stato trasmesso xi ; `e possibile definire dunque una probabilit`a di errore sul simbolo: P(e) = P(ˆ xj |xi ) Ma se osserviamo ogni cifra binaria singolarmente si nota che in realt` a non tutte sono errate ma solo una; si introduce quindi anche una probabilit`a di errore sul bit Pb (e).

42

CAPITOLO 4. Modulazioni

Esempio Data una sorgente di simboli: X −→ {0, 1} associati dal modulatore numerico a due segnali: S −→ {s1 (t), s2 (t)} Determiniamo delle possibili scelte per i segnali: 1◦ tipologia s1 (t)

s2 (t)

A T t

T

t -A

2◦ tipologia s1 (t)

s2 (t)

A T T

t

t -A

3◦ tipologia s1 (t)

s2 (t)

A

A T1

t

T2

t

Il criterio di scelta `e la probabilit`a di errore quindi bisogna chiedersi quale configurazione `e pi` u robusta in presenza di rumore.

4.2. Modulazioni numeriche

43

Occorre capire come opera il demodulatore, ossia come stima i parametri necessari che passer`a ad un blocco successivo chiamato decisore; `e quest’ultimo componente che si occupa di decidere, appunto, quali sono i simboli che pi` u probabilmente sono stati emessi. Per le tre tipologie di segnali viste i parametri che il modulatore deve stimare sono: . 1◦ tipologia: ampiezza del segnale; . 2◦ tipologia: fase del segnale; . 3◦ tipologia: durata del segnale. Consideriamo solo segnali a durata finita, in cui i simboli vengono emessi ogni Ts , noto come tempo di simbolo; si definisce: Rs =

1 Ts

symbol rate. Questi segnali fisici, associati a simboli xi , trasportano una certa quantit`a di informazione; `e questo il parametro importante e non tanto la forma del segnale di per s`e, quindi si definiscono anche: Tb =

Ts n

dove: . Tb `e il tempo di bit; . n rappresenta il numero di bit associati al segnale. Anche in questo caso l’inverso del tempo di bit prende il nome di bit rate: Rb =

1 Tb

Si deve prestare attenzione perch`e Ts e Rs sono parametri fisici, mentre Tb ed Rb si introducono per comodit` a.

44

CAPITOLO 4. Modulazioni

Vediamo ora come decodificare un insieme di segnali {si (t)}M i=1 . In ricezione si ha r(t) = sk (t) + n(t): r(t)







s1 (t)

R Ts



s2 (t)

R Ts



sM (t)

R Ts



0

0

0

λ1 − 21 ε1 λ2 − 21 ε2 λM − 21 εM

I parametri misurati dal demodulatore che vengono passati al decisore sono dunque i vari {λi (t)}M e quello per cui il i=1 ; il segnale che il decidore stima ` valore di λi risulta maggiore. Esempio Dati quattro segnali: s1 (t)

s2 (t) 2A

A Ts

t

Ts

s3 (t) Ts

t

s4 (t) Ts t

t

A 2A

4.2. Modulazioni numeriche

45

Ipotizzando di avere trasmesso il segnale s1 (t) calcoliamo i parametri λi ; in tabella si riportano i passaggi da effettuare: TX s1 (t) s1 (t) s1 (t) s1 (t)

Moltiplicazione s1 (t) · s1 (t) = A2 s1 (t) · s2 (t) = 2A2 s1 (t) · s3 (t) = −A2 s1 (t) · s4 (t) = −2A2

Integrazione A2 · Ts 2A2 · Ts −A2 · Ts −2A2 · Ts

Sottr. energia − 21 A2 · Ts − 12 4A2 · Ts − 21 A2 · Ts − 12 4A2 · Ts

λi · Ts 0 − 32 A2 · Ts −4A2 · Ts 1 2 2A

In questo caso dunque il parametro scelto λi sarebbe il primo; la stima `e quindi esatta perch`e era stato trasmesso proprio s1 (t). Si pu` o osservare che, nel caso l’alfabeto sia molto grande il decisore dovrebbe ogni tempo di simbolo effettuare un sacco di operazioni; esiste un metodo migliore per stimare i parametri poich`e, nel nostro esempio di prima, si nota che in realt` a i quattro segnali sono formati a partire da un singolo segnale di base a cui si cambia di volta in volta l’ampiezza. Esprimiamo dunque M segnali dell’alfabeto da trasmettere come: sk (t) =

M X

n=1

sk,n (t) · ψn (t)

(4.1)

Le funzioni ψn (t) sono le funzioni, o componenti base, con cui si costruiscono tutti i segnali; esse devono formare una base ortonormale e in particolare: . il prodotto scalare tra due componenti deve essere nullo, ovvero: Z +∞ ψi (t) · ψj (t) dt = δij 1 −∞

. i coefficienti sk,n (t) possono essere individuati come: Z +∞ sk,n = s(t) · ψn (t) dt −∞

Ipotizziamo: Come si `e visto:

sk (t) = α · ψ1 (t) + β · ψ2 (t) α = β =

Z

+∞

−∞ Z +∞ −∞

s(t) · ψ1 (t) dt = sk,1 s(t) · ψ2 (t) dt = sk,2

Proviamo a visualizzare graficamente i concetti fin qui introdotti; le funzioni ψ sono gli assi del piano cartesiano mentre α e β le proiezioni del segnale s(t) sui due assi: 1

La δij vale 1 se i = j oppure 0 se i 6= j

46

CAPITOLO 4. Modulazioni ψ2 (t) sk (t)

β α

ψ1 (t)

Questo comportamento si verifica in assenza di rumore; se invece `e presente: ψ2 (t) rk (t) β + n(t) β α ψ1 (t) [α + n(t)] Calcolando le proiezioni di rk (t) sulle componenti base si ottengono: Z +∞ r(t) · ψ1 (t) dt = rk,1 α + n(t) = −∞ Z +∞ r(t) · ψ2 (t) dt = rk,2 β + n(t) = −∞

Gli rk,n sono i parametri calcolati dal demodulatore; grazie alla rappresentazione mediante segnali di base la demodulazione `e ideale. Lo schema del demodulatore ideale quindi prevede: r(t)







ψ1 (t)

R Ts

ψ2 (t)

R Ts

ψM (t)

R Ts

r1

0

r2

0

rM

0

Io ogni istante di tempo Ts il segnale viene scomposto dal demodulatore che ne calcola le proiezioni sugli assi ψi .

4.2. Modulazioni numeriche

47

Calcoliamo sul ramo l-esimo: rl =

Z

Ts

r(t) · ψl (t) dt

0

Scomponiamo il segnale r(t) come somma di segnale utile e rumore: Z

rl =

Ts

[sk (t) + n(t)] · ψl (t) dt

0

Trattiamoli ora separatemente: rl =

Ts

Z

sk (t) · ψl (t) dt +

0

Z

Ts 0

n(t) · ψl (t) dt

(4.2)

Per quanto riguarda la componente utile del segnale, sostituiamo a sk (t) la sua espressione equivalente (4.1): Z

0

M Ts X

n=1

sk,n (t) · ψn (t) · ψl (t) dt

Scambiamo la sommatoria con l’integrale si ha: M X

n=1

Z sk,n(t)

Ts 0

ψn (t) · ψl (t) dt

Il risultato dell’integrale `e δnl quindi solo quando il segnale trasmesso n `e nel ramo giusto l = n l’operazione non `e nulla; in tutti gli altri casi il risultato `e zero per cui la demodulazione non `e affetta da errori di decodifica. Si noti che in assenza di rumore, su ogni ramo si trovano esattamente le componenti l-esime; osserviamo ora la seconda parte dell’espressione (4.2) contenente la sola componente di rumore: Z

0

Ts

n(t) · ψl (t) dt = nl

Con nl variabile casuale gaussiana; il processo `e il seguente in via grafica: n(t)



R Ts 0

ψl (t)

nl

48

CAPITOLO 4. Modulazioni

Come n(t) in ingresso anche nl ha la medesima propriet`a di media nulla in quanto: R  R T T E(nl ) = E 0 s n(t) · ψl (t) dt = 0 s E[n(t)] · ψl (t) dt = Z Ts 0 · ψl (t) dt = 0 = 0

Analizziamo ora: E(nl · nk ) = E =E

Z

0

Ts

Z

Z

0

=

Z

Ts

Z

Poich`e:

n(t1 ) · ψl (t1 ) dt1 ·

Z

Ts

n(t2 ) · ψk (t2 ) dt2

0

Ts 0

n(t1 ) · n(t2 ) · ψl (t1 ) · ψk (t2 ) dt1 dt2

Ts

0

0

Ts

E[n(t1 ) · n(t2 )] · ψl (t1 ) · ψk (t2 ) dt1 dt2







=

=

= (‡)

N0 · δ(t1 − t2 ) 2 rappresenta l’autocorrelazione del rumore si ha:  Z Ts Z Ts N0 δ(t1 − t2 ) · ψl (t1 ) · ψk (t2 ) dt1 dt2 · (‡) = 2 0 0 E[n(t1 ) · n(t2 )] =

Risolvendo rispetto a dt2 : N0 · 2

Z

Ts 0

ψl (t1 ) · ψk (t1 ) dt1 =

N0 · 2

Z

Ts 0

ψl (t) · ψk (t) dt

Il risultato dell’integrale vale nuovamente: . 1 se k = l; . 0 se k 6= l. Quindi il rumore generato in ingresso sul ramo l `e scorrelato con tutte le dimensioni k 6= l: demodulando sul ramo l, si ha solo componente di rumore relativa e non il contributo di altre. In sostanza il rumore su assi ortogonali `e indipendente e crea disturbo, quindi probabilit`a di errore, in modo scorrelato su dimensioni diverse.

4.2. Modulazioni numeriche

49

I segnali ricevuti, tenendo conto della componente di rumore, possono essere scritti come abbiamo visto: rn = sk,n + nn dove: . rn `e la variabile causale calcolata come parametro dal demodulatore; . nn sono variabili casuali di rumore associate al ramo i-esimo. Con notazione vettoriale enunciamo la medesima quantit`a: − → → → r =− s k,n + − nn Esempio Si considerino i due segnali: s1 (t)

s2 (t)

√A Ts

Ts t

Ts

√B Ts

t

Notiamo che possono essere espressi come combinazione lineare di un unico segnale di base: ψ(t) √1 Ts

Ts

t

Il segnale ψ(t) deve soddisfare i soliti vincoli per poter essere un segnale di base, quindi deve possedere energia unitaria; per questo la sua ampiezza non `e causale. A questo punto i due segnali s1 (t) ed s2 (t) si possono scrivere nella seguente forma: s1 (t) = A · ψ(t)

s2 (t) = B · ψ(t)

50

CAPITOLO 4. Modulazioni

Lo spazio dimensionale `e pari ad 1 perch`e `e presente un solo segnale di base; visualizzando graficamente: B

A

ψ(t)

A e B rappresentano le proiezioni dei due segnali sulla dimensione ψ. Immaginiamo di dovere trasmettere la sequenza s1 , s1 , s2 , s1 ; la forma del segnale s(t), nel dominio del tempo, sar` a: s(t) √A Ts

4Ts

Ts

√B Ts

2Ts

t

3Ts

Per questo caso semplice, lo schema del demodulatore ha un solo ramo: r(t)



R Ts

r

0

ψ(t)

La variabile casuale calcolata r si pu` o ricavare come: Z Ts r(t) · ψ(t) dt r= 0

Sapendo che: r(t) = s(t) + n(t)

r=

Z

Ts 0

⇓ [s(t) + n(t)] · ψ(t) dt

Questa `e la formula generale; ipotizziamo sia stato trasmesso il segnale s1 (t) e sviluppiamo i calcoli per questo caso: Z Ts Z Ts Z Ts n(t) · ψ(t) dt s1 (t) · ψ(t) dt + [s1 (t) + n(t)] · ψ(t) dt = r= 0

0

0

4.2. Modulazioni numeriche

51

ma: R Ts

s1 (t) · ψ(t) dt rappresenta la proiezione di s1 (t) su ψ quindi `e proprio A; RT . 0 s n(t) · ψ(t) dt `e la proiezione del rumore su ψ quindi `e la variabile casuale n. .

0

In definitiva, trasmesso s1 (t) si esprime la variabile casuale r come: r =A+n Questa variabile ha come media A e, l’effetto del rumore su di essa, `e quello di spostare sull’asse ψ il segnale ricevuto con densit`a di probabilit`a gaussiana (denominata come f(r|A) o anche f(r|s1 (t)):

f(r|A) A

ψ(t)

Se invece si trasmettesse sempre il segnale s2 (t) si avrebbe:

f(r|B) B

ψ(t)

Osservando insieme le due componenti:

B

A

ψ(t)

Regole di decisione Dopo avere calcolato i parametri necessari il demodulatore invia al decisore → il vettore − r composto da:       r1 sk,1 n1  ..   ..   ..   . = . + .  rN

sk,N

nN

52

CAPITOLO 4. Modulazioni

→ Quanto vale la densit`a di probabilit`a che avendo trasmesso − sk si siano rice− → vuti r ? Considerando il ramo l-esimo, la densit`a di probabilit`a `e: f (rl |sk,l ) = √

(r −s ) 1 − l Nk,l 0 ·e πN0

2

Invece in generale: → → f (− r |− s k) = ma la

PN

N Y

N Y

2

P (r −s ) N − 1 · N (r −s 1 )2 − l N k,l 0 √ = (πN0 )− 2 e N0 l=1 l k,l ·e f (rl |sk,l ) = πN0 l=1 l=1

l=1 (rl

− sk,l )2 `e come fare la norma su ogni ramo l, per cui: N − 1 ·|r −s |2 → → f (− r |− s k ) = (πN0 )− 2 e N0 l k,l

→ → La funzione f (− r |− s k ) prende il nome di funzione di verosimiglianza, likelyhood function. La regola di decisione ottima `e quella per cui si massimizza la densit`a di → → probabilit`a a posteriori, ossia f (− s k |− r ); questa regola prende il nome di Maximum a posteriori. Essa viene definita, con il teorema di Bayes, come: → → → f (− r |− s k ) · P(− s k) → → P(− s k |− r)= − → f( r ) → → Massimizzare f (− s k |− r ) vuol dire trovare il massimo rispetto ai segnali tra− → messi s k della probabilit`a di ricevere il segnale giusto, quindi si cerca solo rispetto al numeratore perch`e solo quella parte dell’espressione dipende dai − → s k. → → → → Dato che f (− r |− s k ) `e esponenziale anche f (− s k |− r ) lo `e quindi cercare: → → → maxsk {f (− r |− s k ) · P(− s k )}

`e come cercare:

→ → → maxsk {ln[f (− r |− s k ) · P(− s k )]}

perch`e il logaritmo `e una funzione monotona crescente. → → In questo caso la funzione lnf (− r |− s k ) prende il nome di ln-likelyhood function. → → → Indicando con λk l’espressione {ln[f (− r |− s k ) · P(− s k )]} procediamo con il calcolo al fine di determinare la regola di decisione: i h N − 1 ·|r −s |2 → s k) = λk = ln (πN0 )− 2 e N0 l k,l · P(− N

= ln(πN0 )− 2 −

1 → · |rl − sk,l |2 + lnP(− s k) N0

4.2. Modulazioni numeriche

53

Analizziamo separatamente i tre contributi: N

. ln(πN0 )− 2 `e un termine che tiene in considerazione la componente di rumore, ma non dipende dai segnali considerati quindi `e trascurabile; . − N10 · |rl − sk,l |2 rappresenta la distanza tra il segnale ricevuto ed il segnale trasmesso al quadrato; → . lnP(− s k ) `e legato alla probabilit`a di emissione di un segnale. Tenendo in considerazione solo gli ultimi due contributi possiamo definire con Λk i parametri stimati dalla regola MAP: Λk = −

1 → · |rl − sk,l |2 + lnP(− s k) N0

La regola MAP `e ottima per trasmissioni su canali AWGN; nel caso in cui i simboli emessi siano equiprobabili allora sparisce il termine legato alla probabilit`a di emissione ed i parametri su cui il decisore effettua la stima sono semplicemente le distanze tra segnali emessi e ricevuti. Si parla, in questa ipotesi, di regola ML (Maximum Likelyhood) perch`e viene presa in esame, per il calcolo dei Λk , solo la funzione di verosimiglianza: Λk = |rl − sk,l |2 Questa regola viene anche detta regola a distanza minima, perch`e stimare il segnale che pi` u probabilmente `e stato emesso vuol dire cercare, tra l’alfabeto a disposizione, quello pi` u vicino al segnale ricevuto. Nell’esempio precedente: Regola MAP → → s 1 ) = − N10 · |r − A|2 + lnP(− s 1 ) (4.3) Λ1 = − N10 · |r1 − sk,1 |2 + lnP(− − → − → Λ2 = − N10 · |r2 − sk,2 |2 + lnP( s 2 ) = − N10 · |r − B|2 + lnP( s 2 ) (4.4) Regola ML Λ1 = |r1 − sk,1 |2 = |r − A|2

Λ2 = |r2 − sk,2 |2 = |r − B|2

Per la regola ML `e possibile non tenere in considerazione − N10 il che rende molto pi` u semplice l’implementazione di questa regola rispetto alla MAP in cui `e necessario conoscere la densit`a di rumore e le probabilit`a di emissione dei segnali trasmessi.

54

CAPITOLO 4. Modulazioni

Si noti che se i segnali di base sono equiprobabili la regola ML e la regola MAP sono identiche e dunque la regola ML `e anch’essa ottima per canali AWGN. Operativamente utilizzare la regola ML significa posizionare una soglia e confrontare il segnale ricevuto con essa; nell’esempio fin qui considerato: . se i simboli sono equiprobabili la soglia sar` a posizionata in

A+B 2 ;

. in caso contrario la soglia verr` a posta vicino al segnale meno probabilmente tramsesso perch`e si devono privilegiare i casi possibili di emissione del simbolo pi` u probabile. Visualizziamo graficamente:

B

A

ψ(t)

Soglia simboli equiprobabili

B

A

ψ(t)

Soglia simbolo B pi` u probabile

B

A

ψ(t)

Soglia simbolo A pi` u probabile Si noti che le regole di decisione fin qui viste non dipendono dalla forma del segnale: questo implica che `e possibile sceglierle a piacimento rispettando solo i vincoli di ortogonalit` a ed energia unitaria e la demodulazione sar` a sempre ottima.

4.2. Modulazioni numeriche

55

Come si fa a posizionare la soglia? La soglia `e quel valore del segnale ricevuto r per cui Λ1 = Λ2 ; quindi eguagliando le (4.3) e (4.4) si ha: −

1 1 · |r − A|2 + lnP(s1 ) = − · |r − B|2 + lnP(s2 ) N0 N0

⇓ |r − B|2 − |r − A|2 = lnP(s2 ) − lnP(s1 ) N0

⇓ r 2 − 2rB + B 2 − r 2 + 2rA − A2 = ln N0



P(s2 ) P(s1 )



⇓ 2r(A − B) A2 − B 2 = · ln N0 N0



P(s2 ) P(s1 )



Per cui si ricava: N0 (A2 − B 2 ) · N0 + · ln r= 2 · N0 2 · (A − B)



P(s2 ) P(s1 )



⇓ r=

(A2 − B 2 ) N0 + · ln 2 2 · (A − B)



P(s2 ) P(s1 )



Si noti che se i segnali sono equiprobabili: P(s2 ) = P(s1 ) =⇒

N0 · ln (1) = 0 2 · (A − B)

quindi rimane solo: r=

(A2 − B 2 ) 2

Se invece il simbolo s2 (t) ha probabilit`a minore di essere emesso rispetto a s1 (t) allora il logaritmo di un numero minore di 1 `e negativo quindi la soglia 2 2) verso il simbolo s2 (t), cio`e quello meno probabile; stesso si sposta da (A −B 2 discorso se P(s2 ) > P(s1 ). La probabilit`a di errore si pu` o visualizzare graficamente come la coda della gaussiana:

56

CAPITOLO 4. Modulazioni

A

ψ(t)

La soglia diventa il limite oltre il quale si commette un errore; definendo con T h la soglia, si calcola la probabilit`a di errore P(e) come: P(e) =

Z

Th

f (r|A) dr −∞

dove viene integrata la parte in grigio. La probabilit`a di corretta ricezione invece: Z ∞ Z P(c) = 1 − P(e) = f (r|A) dr = Th

∞ Th



2 1 − (r−A) · e N0 dr π · N0

L’integrale non `e risolvibile in forma chiusa, ma con la funzione degli errori complementare si ha:   A−B 1 √ P(c) = 1 − · erfc 2 2 · N0 Quindi la probabilit`a di errore risulta essere:   1 A−B √ P(e) = · erfc 2 2 · N0 Per avere una probabilit`a di errore bassa si pu` o agire su due fattori: . far diminuire il fattore N0 ; . far aumentare il fattore A − B. Nel primo caso si tratta essenzialmente di ridurre il rumore, ma `e un parametro su cui si pu` o agire poco; nel secondo caso invece `e sufficiente distanziare A e B in maniera simmetrica, da non spostare la soglia. Purtroppo non `e possibile spostare a piacimento A e B perch`e questi valori influenzano l’energia dei segnali s1 (t) ed s2 (t): s1 (t)

s2 (t)

√A Ts

Ts Ts

t

√B Ts

t

4.2. Modulazioni numeriche

57

Calcoliamo l’energia dei due segnali: E1 = E2 =

A2 ·Ts Ts B 2 ·Ts Ts

= A2 = B2

L’energia media `e:

E1 + E2 A2 + B 2 = 2 2 L’effetto che si ha distanziando molto A e B `e quello di spendere molta energia e questo magari non `e possibile per i requisiti di progetto. Em =

Fissata dunque un’energia media la scelta migliore, che massimizza la distanza fra A e B `e quella in cui B = −A:

−A

A

ψ(t)

In questo caso l’energia media e la probabilit`a di errore sono: Em = P(e) =

A2 + A2 = A2 2     A − (−A) A 1 1 √ · erfc = · erfc √ 2 2 2 · N0 N0

(4.5) (4.6)

Nel caso di due segnali l’informazione associata `e un bit solo quindi A2 `e l’energia necessaria per trasmettere un bit di informazione: Em = Eb = A2 Ricaviamo: A= Sostituendo in (4.6) si ottiene:

p

Eb

1 P(e) = · erfc 2 Si definisce

Eb N0

r

Eb N0

!

rapporto segnale rumore per le modulazioni numeriche.

Operativamente realizzare il modello: r(t)



R Ts 0

ψ(t)

r

58

CAPITOLO 4. Modulazioni

`e piuttosto complicato in quanto il prodotto di due segnali analogici `e di difficile implementazione hardware ed inoltre senza sincronizzazione non si pu` o sapere quando effettuare l’integrazione ogni Ts . Esiste un modo del tutto equivalente per effettuare la demodulazione; pensiamo a: Z Ts

r=

0

come a:

r=

Z

Ts 0

r(t) · ψ(t) dt

r(t) · ψ(t − τ ) dt

τ =0

Siccome ψ(t) ha supporto fra (0 − Ts ) `e equivalente scrivere: Z +∞ r(t) · ψ(t − τ ) dt r= −∞

τ =0

Scritto in questo modo `e:

r = r(t) ∗ ψ(−t)|τ =0 Utilizzando un modello di questo tipo: r(t)

y(t)

Ts

Filtro

r

h(t) = ψ(Ts − t) In questo caso il modello `e facilmente implementabile in hardware; si preferisce inserire un ritardo della durata di Ts cos`ı la risposta all’impulso diventa casuale e il filtro fisicamente realizzabile. Si determinano i parametri da passare la decisore in questo modo: r = r(t) ∗ ψ(Ts − t)|t=Ts Il filtro con risposta all’impulso h(t) prende il nome di filtro adattato; il sistema con il filtro adattato `e equivalente al modello di demodulazione visto in precedenza quindi `e ottimo. Nel solito esempio con due segnali trasmessi: s1 (t)

s2 (t)

√A Ts

Ts Ts

t

−A √ Ts

t

4.2. Modulazioni numeriche

59

con proiezioni sull’asse ψ:

−A

A

ψ(t)

Analizziamo cosa succede in caso di demodulazione con filtro adattato. r(t)

y(t) Filtro

Ts

r

h(t) = ψ(Ts − t) Trasmettendo il segnale s1 (t) sappiamo che: r1 (t) = s1 (t) + n(t) = A · ψ(t) + n(t) Il segnale y(t) filtrato sar` a: y(t) = z(t) + nf (t) dove: . z(t) `e la componente di segnale utile; . nf (t) `e la componente di rumore filtrata. Scriviamo: z(t) = A · ψ(t) ∗ ψ(Ts − t)

Quindi il segnale z nel tempo ha la forma dell’autocorrelazione di ψ. La funzione di autocorrelazione ha il massimo nell’origine, in Ts perch`e `e stata ritardata, dove viene campionata; per questo motivo il filtro adattato `e ottimo: campionare nel massimo vuol dire massimizzare il rapporto segnale rumore al campionatore. Il rumore, la cui varianza `e: N0 · 2 · Beq 2 dove si ricorda che la banda equivalente di rumore `e definita come: Z +∞ 1 |H(f )|2 df = Beq = · 2 · max {|H(f )|2 } −∞ Z +∞ 1 1 = Ψ(f ) e−j2πf Ts df = · 2 2 · max {|H(f )| } −∞ 2 2 = σnf

perch`e:

(4.7)

60

CAPITOLO 4. Modulazioni .

R +∞

.

1 max{|H(f )|2 }

Ψ(f ) e−j2πf Ts df risulta essere uguale ad 1 in quanto Ψ(f ) `e un segnale di base; −∞

normalmente `e uguale ad 1 perch`e il filtro non deve n`e attenuare n`e dissipare (funzione di trasferimento con modulo pari ad 1).

Con questo risultato sostituiamo in (4.7) ottenendo: N0 1 N0 ·2· = [ W] 2 2 2 In questo caso l’unit` a di misura `e una potenza perch`e il rumore `e stato filtrato, quindi dimensionalmente moltiplicato per una banda [Hz]. 2 = σnf

4.2.2

Costellazioni e regioni di decisione

La costellazione `e l’insieme dei segnali rappresentati in una certa base ψ. Come fare a stimare se un segnale ricevuto r `e s1 (t) piuttosto che s2 (t)? Graficamente `e possibile suddividere in regioni diverse lo spazio generato dai segnali; r dunque viene decodificato con s1 (t), ad esempio, se appartiene alla regione di s1 (t) oppure con s2 (t) se appartiene a quella regione. Nel caso con una sola dimensione e due segnali sappiamo come esprimere la probabilit`a di corretta ricezione e di errore; inoltre, implicitamente, `e gi`a stato formalizzato il concetto delle regioni di decisione perch`e, definita la soglia, si `e diviso il piano in due zone, che sono proprio le due regioni di decisione. Osserviamo graficamente:

s1 Regione 1

s2 Regione 2

ψ(t)

Questo `e il caso pi` u semplice, ma in generale la costellazione comprende sempre pi` u di due punti perch`e a due segnali `e associato un solo bit di informazione, quantit` a irrisoria per comunicazioni normali. Osserviamo cosa succede per una costellazione a 4 punti, quindi a 4 segnali in uno spazio a due dimensioni: ψ2 (t) s2

ψ2 (t)

s1

s1 ψ1 (t)

s3

s4

1◦ Tipologia

s2

s4 s3

2◦ Tipologia

ψ1 (t)

4.2. Modulazioni numeriche

61

Si noti che la probabilit`a di ricevere r dipende solo dalla geometria della costellazione e non da rotazioni o traslazioni perch`e, nel grafico di cui sopra, osserviamo che le aree di ciascuna regione sono uguali (la 2◦ tipologia `e ruotata di 45◦ gradi rispetto alla prima). Inoltre per segnali equiprobabili le regioni di decisione hanno la stessa forma geometrica perch`e la costellazione `e simmetrica (come si evince dai due grafici precedenti). Considerando un punto preso come riferimento (origine) ed un generico punto si si definisce, in via geometrica, l’energia del segnale come la distanza euclidea tra i due. L’energia media della costellazione `e

Em =

M X i=1

P(si ) · |si |2

ossia una media pesata per la probabilit`a di emissione della distanza dall’origine di tutti i punti della costellazione. Ci` o che differenzia una costellazione da un’altra `e proprio la sua energia media; osserviamo nel disegno seguente le due costellazioni semplici: ψ2 (t) s2

d

ψ2 (t) d

s1 s2

0

s1 0

ψ1 (t)

ψ1 (t)

La costellazione a sinistra avr`a un’energia media pi` u alta rispetto quella a destra perch`e `e pi` u distante dall’origine. Dati M numero dei punti della costellazione e N numero delle dimensioni si definisce costellazione simplex la costellazione ad energia minima. Il baricentro della costellazione `e la quantit`a:

b=

M X i=1

P(si ) · si

Si pu` o pensare quindi alla costellazione simplex come alla costellazione che ha il suo baricentro nell’origine; di conseguenza una costellazione non simplex qualsiasi si pu` o vedere come una costellazione il cui baricentro `e stato traslato rispetto all’origine.

62

4.2.3

CAPITOLO 4. Modulazioni

Modulazioni in banda base

Modulazione M-PAM La modulazione M-PAM `e una modulazione di banda base (pulse amplitude modulation) in cui `e presente una sola dimensione; la proiezione dei vari segnali sulla dimensione ψ `e simmetrica rispetto all’origine e tutti i punti sono equispaziati fra loro: d bc

bc

b

bc

bc

− 3d 2

− d2

0

d 2

3d 2

ψ(t)

Il numero di segnali trasmessi M `e generalmente un numero in potenza di 2 in quanto i bit di informazione, determinabili come log2 M , non possono essere numeri qualisiasi ma devono appartenere all’insieme dei numeri naturali. Questo principio punta a massimizzare l’efficienza del sistema: ipotizzando di avere 6 segnali si potrebbero tramettere log2 6 = 2, 585 bit di informazione che verrebbero ridotto a 2 con uno spreco di 0.585. Se i segnali sono equiprobabili: P(si ) =

1 M

La probabilit`a di corretta ricezione sarebbe espressa: P(c) =

M 1 X P(c|si ) · M

(4.8)

i=1

dove: P(c|si ) =

Z

f (r|si ) Reg

Sostanzialmente la probabilit`a di corretta ricezione di un segnale `e l’integrale della densit`a di probabilit`a [f (r|si )] sulla regione di decisione pesata per la sua probabilit`a di emessione. Osserviamo che per un segnale che non sta ai bordi la probabilit`a di corretta ricezione `e l’area colorata in grigio:

bc

bc

bc

bc

−d 2

d 2

3d 2

5d 2

0

d

ψ(t)

4.2. Modulazioni numeriche

63

Definita la probabilit`a di corretta ricezione come: P(c) = 1 − P(e) la probabilit`a di errore `e: 1 − P(c) = P(e) nel grafico sarebbe la probabilit`a che il segnale ricevuto sia interno alle regioni delle due code della gaussiana, le quali, siccome i punti sono equidistanti, hanno area uguale. Analiticamente la densit`a di probabilit`a di errore si definisce per questo caso: Z 0 [ Z +∞ f (r|si ) f (r|si ) −∞

d

Se invece il segnale `e ai bordi la probabilit`a di errore si ha quando il segnale ricevuto `e all’interno dell’area di una sola coda della gaussiana; tenendo conto di questi ragionamenti usando la (4.8) :        1 1 1 d d √ √ P(c) = · (M − 2) · 1 − (2) · erfc + (2) · 1 − erfc =2 M 2 2 2 N0 2 N0      d d 1 √ √ · M − 2 − (M − 2) · erfc + 2 − erfc = = M 2 N0 2 N0      1 d d M −1 √ √ = · M − (M − 1) · erfc · erfc =1− M M 2 N0 2 N0 La probabilit`a di errore quindi sar` a:

M −1 · erfc P(e) = 1 − P(c) = M



d √ 2 N0



I segnali, per la modulazione M-PAM, sono descritti come: Si = ai · ψ(t) dove:

d 2 Se si considere l’energia media, essa pu` o venire descritta come: ai = (2i − 1 − M ) ·

Em

M 1 X = |ai |2 · M i=1

2 Nell’ordine: (M-2) `e l’insieme dei segnali esclusi i due ai bordi (2) `e il numero delle code della gaussiana (2) `e il numero di segnali ai bordi

64

CAPITOLO 4. Modulazioni

Sostituendo l’espressione equivalente per gli ai : Em

M 1 X · = (2i − 1 − M ) · M i=1

Si ricava il parametro d2 :

d = 2

r

d 2 M 2 − 1 d2 · = 2 3 4

3 · Em −1

M2

Determiniamo la probabilit`a di errore in funzione dell’energia media: ! r 3 M −1 Em P(e) = · erfc · (4.9) M M 2 − 1 N0 Si noti che

3 M 2 −1

`e il parametro di perdita γ mostrato nel grafico sotto.

Osservazione Per M = 2 si ritorna all’espressione gi`a vista: ! r r ! 2−1 Em 1 3 Em P(e) = · erfc · = · erfc 2 2 2 − 1 N0 2 N0 Per M = 4 si ha: 4−1 · erfc P(e) = 4

r

Em 3 · 2 4 − 1 N0

!

3 = · erfc 4

r

3 Em 15 N0

!

Osserviamo graficamente sulla curva rossa la probabilit`a di errore nel caso M = 2, mentre con la curva blu si prende in considerazione il caso con M =4: P(e)

γ

Em N0

Come si pu` o notare, per mantenere la stessa probabilit`a di errore (si segua sul grafico la linea tratteggiata), che vuol dire mantenere la stessa distanza d tra i punti passando da una costellazione con M = 2 ad una con M = 4, `e necessario trasmettere con pi` u energia i segnali perch`e `e maggiore il rapEm porto N0 .

4.2. Modulazioni numeriche

65

Se al contrario si vuole mantenere la stessa energia di trasmissione accade che i punti saranno pi` u vicini tra loro (si riduce la distanza d) e quindi aumenter` a la probabilit`a di commettere un errore. L’espressione (4.9) `e una probabilit`a di errore sul simbolo; gi`a altre volte abbiamo descritto come la probabilit`a di sbagliare un simbolo non comporti necessariamente errori su tutti i bit di informazione. Indicando con n il numero di bit associati ad una costellazione (n = log2 M )si definisce l’energia per bit: Em Eb = n Osserviamo le differenza tra la modulazione 2-PAM e 4-PAM: M =2 M =4

n=1 n=2

Eb = Em Eb = E2m

Nel primo caso tutta l’energia serve per trasportare un bit di informazione mentre nel secondo ogni bit costa met` a di Em . Ricavando l’espressione dell’energia media in funzione dell’energia per bit si pu` o determinare probabilit`a di errore sul bit: ! r M −1 log2 M · Eb 3 Pb (e) = · erfc · M M2 − 1 N0 I confronti tra modulazioni dello stesso tipo vengono fatte analizzando questa probabilit`a di errore e non quella sul simbolo, dove si ha un’aumento delle prestazioni soltanto aumentando M .

Codifica di Gray Prendiamo ora in esame la modulazione 4-PAM ed ipotiziamo di associare ad ogni segnale una stringa di bit come in tabella: Segnale s1 s2 s3 s4

Codifica 00 01 10 11

66

CAPITOLO 4. Modulazioni

Graficamente: s1

s2

s3

s4

00

01

10

11

ψ(t)

Si osservi che in base a come viene effettuato il labelling (la codifica tra simboli e bit) si avranno Pb (e) diverse; per questo esempio trasmettendo s1 si ha probabilit`a di sbagliare un bit se si finisce nelle regioni di decisione di s2 ed s3 e probabilit`a di sbagliare due bit se la regione `e s4 . Sembra una scelta ragionevole perch`e nella regione di s4 la coda della gaussiana sar` a piccola, e dunque anche la probabilit`a che tramettendo s1 si riceva r in tale regione `e bassa. Se invece si prende in considerazione l’ipotesi di trasmettere s3 notiamo immediatamente che la regione di decisione di s2 presenta entrambi i due bit diversi; la probabilit`a di errore su due bit sar` a grande in una regione dove la coda della gaussiana non `e poi cos`ı bassa. La codifica di gray `e il labelling per cui segnali adiacenti vengono codificati con stringhe che si differenziano per un bit. In questo modo si risolve il problema dell’esempio precedente: s1

s2

s3

s4

00

01

11

10

Segnale s1 s2 s3 s4

ψ(t)

Codifica 00 01 11 10

Analiticamente non `e facile calcolare la probabilit`a di errore sul bit, ma `e possibile trovarne un limite inferiore e superiore: P(e) < Pb (e) < P(e) log2 M dove: .

P(e) log2 M

`e la probabilit`a di sbagliare un solo bit;

. P(e) `e la probabilit`a di sbagliare completamente il simbolo, ossia sbagliare tutti i bit.

4.2. Modulazioni numeriche

67

Se si utilizza una codifica di Gray si pu` o approssimare la probabilit`a di errore sul bit con il limite inferiore: Pb (e) ∼ =

P(e) log2 M

in pratica vengono trascurate le code delle gaussiane che cadono oltre le regioni adiacenti. Nello schema a blocchi:

S Sorgente

C.S

C.C

Cod. Sorgente Cod. Canale

MAP

MOD

Mapper

Modulatore numerico

il compito del mapper `e quello di decidere quale segnale associare alla stringa binaria in uscita dal codificatore di canale. Questa decisione viene presa ogni tempo di simbolo Ts .

Union Bound Nelle modulazioni M-PAM il tempo di trasmissione totale `e proporzionale alla dimensione del file da trasmettere; un modo per aumentare la velocit`a `e aumentare il numero di bit, ma il costo `e l’energia necessaria per inviare i segnali; se invece si riduce il parametro Ts aumenta la frequenza e questa velocit`a necessaria si traduce con un’aumento di banda. Un metodo alternativo `e aumentare il numero delle dimensioni della costellazione; la modulazione M-PAM ha una sola dimensione, ma osserviamo cosa succede a combinare due costellazioni 2-PAM: ψ1 (t)

ψ2 (t)

Ts Ts

t

t

68

CAPITOLO 4. Modulazioni

Dando vita alla costellazione: ψ2 (t) s1 s2

s4 s3

ψ1 (t)

La forma del segnale nel dominio del tempo, trasmettendo la sequenza s1 s2 s4 s3 `e:

2Ts

4Ts t

Ts 3Ts

Per una costellazione del genere `e facile determinare le regioni di decisione, ma in casi pi` u complicati diventerebbe difficile ripetere i ragionamenti fatti in precedenza per la modulazione M-PAM. Come sappiamo il caso in cui la probabilit`a di errore `e pi` u alta `e quello per cui i segnali sono molto vicini sulla costellazione; l’union bound `e un’approssimazione in cui si ipotizza di essere proprio in questo caso, il peggiore in assoluto, stimando la probabilit`a di errore come:   dmin M −1 √ · erfc P(e) ≤ 2 2 · N0 dove dmin rappresenta il minimo tra tutte le distanze dei segnali presenti sulla costellazione. L’approssimazione di questa formula consiste nell’ipotizzare di avere M − 1 segnali a distanza minima, ma `e una stima quasi sicuramente peggiorativa nella maggioranza dei casi; considerando invece di avere Ndmin segnali a distanza minima si pu` o concludere che:   d 1 min √ P(e) ∼ = Ndmin · · erfc 2 2 · N0

4.2. Modulazioni numeriche

69

Modulazione ON-OFF Keying La modulazione ON-OFF Keying `e una modulazione di banda base in cui i segnali utilizzati sono solo due: . s1 (t) = 0; . s2 (t) =

q

2·Em Ts

· cos(2π f0 t) · pTs (t − Ts )

q 2·Em La parte Ts serve per garantire ad s2 (t) di avere energia unitaria, di conseguenza s2 (t) `e un versore. Questa modulazione ha una sola dimensione ψ; le proiezioni dei segnali su ψ sono: s1

s2

0

1

b

b

ψ

In sostanza `e una modulazione 2-PAM ma non simplex perch`e non ha il baricentro nell’origine; quindi l’espressione della probabilit`a di errore non `e altro che:   d 1 √ P(e) = · erfc 2 2 · N0 quando il ricevitore ha il filtro adattato. Se la frequenza f0 `e molto alta il segnale `e luminoso; questa modulazione viene infatti usata nelle fibre ottiche.

4.2.4

Modulazioni in banda traslata

Il segnale analitico `e stato definito come: z(t) ˙ = v˜(t) · e j 2π f0 t dove v˜(t) `e l’inviluppo complesso del segnale modulato [˜ v (t) = vc (t)+jvs (t)]. In banda traslata non si opera con il segnale, ma con il suo inviluppo complesso che `e appunto la rappresentazione di v(t) centrato ad una frequenza f0 . Per determinare il segnale analitico: . vc `e moltiplicato per il coseno (asse reale); . vs `e moltiplicato per il seno (asse immaginario).

70

CAPITOLO 4. Modulazioni

Quindi il seno ed il coseno sono ortogonali tra loro; dato v˜(t) =

M X

n=1

an · g(t − nTs )

e presi due segnali vc e vs come componenti da v˜(t) essi viaggiano nella stessa banda nello stesso momento. Osserviamo in via grafica il modello di modulazione e demodulazione per questo caso: vc (t)

g(Ts − t) ⊗

⊗ cos(2πf0 t)

vs (t)



Canale

cos(2πf0 t)



g(Ts − t)



⊗ sin(2πf0 t)

sin(2πf0 t)

Il ramo superiore prende il nome di ramo in fase mentre quello inferiore ramo in quadratura. Il filtro `e un filtro passabasso con risposta all’impulso g(Ts − t): `e il filtro adattato alla sagoma del segnale in trasmissione quindi, su entrambi i rami, oltre ad elminare le frequenze immagine inutili permette di campionare il segnale ogni Ts . Concettualmente il modello visto in precedenza non `e altro che lo schema: vc ⊕ vs

⊗ j

Re{ · }

rc

Im{ · }

rs

Canale

4.2. Modulazioni numeriche

71

dove: . rc `e la componente in fase demodulata; . rs `e la componente in quadratura demodulata. Questo modello prende il nome di schema equivalente in banda base. Analizziamo come esempio una modulazione per cui: X vc (t) = αn · ψ1 (t − nTs ) + βn · ψ2 (t − nTs ) n

vs (t) =

X n

γn · ψ1 (t − nTs ) + ςn · ψ2 (t − nTs )

Il ramo in fase ha due dimensione come quello in quadratura: il risultato `e una costellazione con quattro dimensioni e 16 punti. Una sua possibile realizzazione `e: s = [αn + βn ] + j[γn + ςn ] Modulazione PSK La modulazione PSK `e una modulazione di banda traslata (phaze shift keying) dove si definiscono: v˜(t) =

+∞ X

n=−∞

an · g(t − nTs )

in cui: . an sono segnali complessi di tipo e jφn  [φ0 = . φi ∈ 2π M · (i − 1) + φ0

2π M]

Ad esempio, con M = 2: . φ1 :

2π 2

· (1 − 1) + φ0 con φ0 = π;

. φ2 :

2π 2

· (2 − 1) + φ0 = φ0 + π = 2π.

Analizziamo analiticamente v(t): o n v(t) = Re {v(t)} ˙ = Re v˜(t) · e j 2π f0 t = Re = Re

(

+∞ X

n=−∞

e

jφn

· g(t − nTs ) · e

j 2π f0 t

)

(

= Re

+∞ X

n=−∞

(

an · g(t − nTs ) · e j 2π f0 t

+∞ X

n=−∞

g(t − nTs ) · e

)

j 2π f0 t+φn

=

)

=

72

CAPITOLO 4. Modulazioni

=

+∞ X

n=−∞

g(t − nTs ) · cos(2π f0 t + φn )

Con M fasi nell’intervallo di tempo Ts si trasmette un coseno che ha esattamente M fasi diverse; per esempio con M = 2 il coseno, come abbiamo visto, ha due fasi pari a π e 2π. Il generico segnale si (t) pu` o essere visto come: si (t) = g(t) · cos(2π f0 t + φi ) Sviluppando il coseno secondo la regola [cos(α±β) = cos α cos β ∓ sin α sin β]: si (t) = g(t) · cos(2π f0 t) cos(φi ) − g(t) · sin(2π f0 t) sin(φi )

(4.10)

Indicando: . g(t) · cos(2π f0 t) con E; . g(t) · sin(2π f0 t) con E. Si rielabora l’equazione (4.10) moltiplicando e dividendo per si (t) =



E:

√ √ 1 1 E · √ · g(t) · cos(2π f0 t) cos(φi ) − E · √ · g(t) · sin(2π f0 t) sin(φi ) E E

In questo modo si riconosce che: .

√1 E

· g(t) · cos(2π f0 t) `e il versore ψ1 (t), la componenete in fase;

.

√1 E

· g(t) · sin(2π f0 t) `e il versore ψ1 (t), la componenete in quadratura.

Invece



E · cos(φi ) e



E · sin(φi ) rappresentano i coefficienti.

Graficamente: ψ2 (t) sin(φi ) b



E

φi cos(φi )

ψ1 (t)

Al variare delle fasi φi i segnali avranno comunque √ la stessa energia perch`e sono posizionati su una circonferenza di raggio E. Vediamo alcuni esempi al variare di M .

4.2. Modulazioni numeriche

73

2-PSK Con due soli punti la costellazione `e: ψ2 (t) φ0 b

ψ1 (t)

φ0 + π b

La distanza fra i due segnali `e semplicemente: √ d=2 E 4-PSK Per la modulazione 4-PSK i punti sulla costellazione si possono disporre: ψ2 (t) φ0 +

π 2

φ0

b

b

ψ1 (t) φ0 + π b

b

φ0 +

3π 2

In questo caso: d=2·

r

E 2

Si osserva che la probabilit`a di errore aumenta perch`e `e diminuita la distanza tra i due segnali; rimane invariata invece l’energia utilizzata in trasmissione.

8-PSK La costellazione diventa:

φ0 + φ0 3π 4

ψ2 (t) φ0 + φ0

π 2

b

b

b

π 4

b

φ0 + π b

φ0 +

5π 4

b

b b

φ0 +

φ0 +

6π 4

ψ1 (t)

7π 4

74

CAPITOLO 4. Modulazioni

Per questa modulazione `e molto complicato effettuare il calcolo della probabilit` a di errore in quanto occorrerebbe risolvere l’integrale della distribuzione di probabilit`a su un’area che `e un spicchio. Esiste un’approssimazione per cui: ! r π E · sin P(e) ≤ erfc N0 M Ci` o che contraddistingue un segnale ricevuto da un altro, dato che han√ no modulo uguale a E, `e la fase; ad esempio, nell’ 8-PSK, se la fase del segnale ricevuto φr `e compresa fra [0 − φ0 ] allora potrebbe essere riconosciuto come s1 ;invece nel caso in cui [φ0 < φr < φ0 + π4 ] il segnale stimato sarebbe s2 . Il problema si riduce, di fatto, a come stimare la fase di un segnale ricevuto perch`e, una volta determinata, `e possibile effettuare la demodulazione come confronto tra φr e le fasi-soglie φi .

Demodulazione del PSK Dato un segnale nel dominio del tempo a frequenza f0 , se si riuscisse ad effettuare il confronto con una sinusoide z(t) generata con la stessa f0 , si potrebbe calcolare con un fasometro lo sfasamento dei segnali ogni tempo di simbolo Ts . Ts 2Ts st

t

zt

t

4.2. Modulazioni numeriche

75

Questa operazione `e complicata per due motivi: il primo `e dovuto al fatto di non sapere a priori che fase avr`a il coseno dopo Ts quindi per calcolare lo sfasamento a 2Ts occorre uno strumento molto rapido oppure usare un tempo di simbolo molto lungo. Il secondo problema riguarda il sincronismo fra trasmettitore e ricevitore; il segnale inviato, viaggiando nel tempo, subisce uno sfasamento che rende pressoch`e impossibile determinare con quale fase fosse partito. Dunque, si ha uno sfasamento ignoto tra la sinusoide generata e segnale ricevuto. Sulla costellazione questo fatto comporta semplicemente una rotazione degli assi di riferimento; in via grafica si osservi con tratto rosso i nuovi assi mentre con tratto nero gli assi di riferimento soliti:

Se quindi la costellazione `e traslata si commette sempre lo stesso errore per tutti i segnali in fase di demodulazione. Si pu` o pensare di mappare i bit anzich`e ai segnali sulle transizioni dei segnali stessi. Osserviamo per la costellazione di un 8-PSK:

ψ2 (t) s2

s3 b

b

s4 b

b

s1

s5 b

b

s8

s6

b

b

s7

ψ1 (t)

76

CAPITOLO 4. Modulazioni

Vediamo le differenze di mapping con due possibili codifiche: Codifica PSK Segnale Codifica s1 000 s2 001 s3 010 s4 011 s5 100 s6 101 s7 110 s8 111

Codifica D-PSK Transizione Codifica s2 − s1 000 s3 − s2 001 s4 − s3 010 s5 − s4 011 s6 − s5 100 s7 − s6 101 s8 − s7 110 s1 − s8 111

Ipotizziamo di avere trasmesso il segnale s2 con informazione utile di fase ϕ2 ed avere ricevuto r con informazione utile ϕr . La fase effettivamente trasmessa `e: φ2 = ϕ2 + φ1 Il ricevitore stima: φr = φ2 + φt dove φt `e lo sfasamento ignoto. L’informazione utile di fase ricevuta diventa: ϕr = φr − φr−1 = (φ2 + φt ) − (φ1 + φt ) = φ2 − φ1 = ϕ2 Questo sistema viene chiamato Differential-PSK perch`e ha un mapping associato alle differenze di fase. In termini di prestazioni il D-PSK `e peggiore rispetto ad un PSK normale perch`e sbagliando un simbolo viene sbagliato anche il successivo; in media si sbagliano il doppio dei bit, ma questo non cambia l’ordine di grandezza della P(e). Il D-PSK pu` o essere visto come una codifica di canale tesa ad irrobustire la trasmissione; tale codifica effettua differenze tra i bit e usa una modulazione PSK.

Tecniche di sincronizzazione Per costruire un demodulatore coerente, che recuperi fase e frequenza della portante, si utilizza lo schema:

4.2. Modulazioni numeriche

r(t)

77



δ(Ts − t)

cos(2πf0 t)

SYNC portante

Ts

SYNC simbolo π/2



Ts sin(2πf0 t)

Il sincronismo di portante serve per recuperare le informazioni (fase e frequenza) della portante, mentre il sincronismo di simbolo `e necessario al campionatore per sapere quando cominciare e ogni quanto campionare il segnale. Si ipotizzi di conoscere che il rumore disturbi molto la dimensione ψ2 e poco ψ1 : ψ2 (t)

ψ1 (t)

In rosso sono evidenziate le zone in cui, per il rumore, il segnale pu` o essere ricevuto. Ad esempio: ψ2 (t) s ψ1 (t) r

Il segnale ricevuto r pu` o essere visto come somma di componenti: r = r1 + jr2

78

CAPITOLO 4. Modulazioni

dove: . r1 `e la componente in fase; . r2 `e la componente in quadratura; Conoscendo solo una delle due componenti `e possibile riuscire a prendere decisioni parziali sulla stringa dei bit associati ai segnali? In linea generale non si riesce: si osservi per notare questa propriet`a la codifica di Gray della modulazione 8-PSK: Codifica PSK Segnale Codifica s1 000 s2 010 s3 011 s4 111 s5 110 s6 100 s7 101 s8 001

s3

ψ2 (t) s2

s4

s1

s5

s8 s6

ψ1 (t)

s7

In questo caso non si riescono a prendere decisioni parziali con la codifica di Gray; il motivo `e dovuto al fatto di avere regioni di decisione a spicchi, le cui soglie non sono parallele agli assi di riferimento. Considerando invece il 4-PSK: ψ2 (t) s2

s1 ψ1 (t)

s3

s4

4.2. Modulazioni numeriche

79

La cui codifica di Gray `e: Codifica PSK Segnale Codifica s1 00 s2 10 s3 11 s4 01 Con la stessa ipotesi precente, di conoscere solo r1 , in questo caso `e possibile discriminare su un bit: il primo dei due bit della codifica permette di conoscere in quale semipiano ci si trova [s1 , s4 ] oppure [s2 , s3 ]. Conoscendo invece r2 si decodifica il secondo bit, che distingue i semipiani [s1 , s2 ] oppure [s3 , s4 ]; in questo modo si sono disaccoppiati i due assi (`e lecito farlo perch`e si sa che il rumore `e indipendente su ogni dimensione). Il demodulatore quindi non `e pi` u unico, ma si divide in due rami per stimare in maniera indipendente il primo ed il secondo bit; si modellizza come:



cos(2πf0 t)

≁ ≁ ∼

r1 > 2B Per non perdere informazione si deve campionare un segnale ad almeno due volte la banda; in caso contrario l’informazione si perde perch`e si vuole effettuare una trasmissione che richiede una banda B usando una banda pi` u piccola B1 . Questo equivale a voler trasmettere su un canale di capacit` aC ad un rate troppo elevato il che, come abbiamo visto nel capitolo 3, significa perdere informazione. |HT (f )|2 A − 2T1 s

1 2Ts

f

La parte colorata in rosso viene chiamata eccesso di banda.

Filtro a coseno rialzato Il filtro a coseno rialzato rispetta il primo criterio di Nyquist ed ha una funzione di trasferimento di questo tipo: |HT (f )|2 A

− 2T1 s

1 2Ts

1+α − 1−α 2Ts − 2Ts

1−α 2Ts

f 1+α 2Ts

Il fattore α rapprensenta il roll-off del filtro ed `e l’eccesso di banda. Questo fattore `e sempre compreso fra 0 ed 1: 0 < α < 1

5.2. 1◦ criterio di Nyquist

91

Nel caso in cui α = 0 si ha il filtro passabasso ideale. Tipicamente nei sistemi di trasmissione la funzione di trasferimento del canale C(f ) non `e costante ovunque, ma solo su una certa banda poi attenua: C(f )

−BC

BC

f

Nei sistemi reali si sceglie il filtro di trasmissione in modo tale che la sua banda sia all’interno della zona in cui C(f ) `e costante; in questo modo il segnale inviato non viene distorto. Ipotizziamo di utilizzare il filtro a coseno rialzato in banda base; la condizione per non avere perdita di informazione `e utilizzare per la banda del filtro BRC una banda minore di BC : 1+α < BC (5.1) 2Ts Gli unici parametri che si possono scegliere sono: . α che `e l’eccesso di banda; . Ts il tempo di simbolo. Si osservi che, poich`e la sorgente trasmette i simboli con un bit rate Rb , la scelta di Ts non pu` o essere casuale ma `e legata al mapping. Se si utilizza un 2-PAM abbiamo visto nel capitolo 4 che Eb = Em e si trasmette un bit per simbolo quindi anche Rb = Rs : ad esempio, trasmettendo a 100 Mbit/s si hanno 100 Msym/s. Scegliendo invece un 4-PAM allora 2 Eb = Em perch`e si tramsmettono due bit per simbolo: per l’esempio precedente, trasmettendo 100 Mbit/s si hanno 50 Msym/s. La modulazione va quindi scelta in accordo con la banda disponibile e il bit rate a cui si vuole effettuare la trasmissione. Esempio Data una banda BC = 25 MHz ed un bit rate Rb = 100 Mbit/s quale modulazione si pu` o usare? Con un 4-PAM, M = 4 si trasmettono 2 bit per simbolo quindi Rs = R2b = 50 Msym/s. o provare a verificare se l’equaglianza (5.1) `e soddifatta: Dato Rs = T1s si pu` (1 + α) · Rs < BC

=⇒

(1 + α) · 50 < 25

=⇒

α<

1 −1 2

92

CAPITOLO 5. Isi e Criteri di Nyquist

Il risultato α = −0.5 non pu` o essere accettato perch`e α `e un parametro che deve essere positivo e minore di 1. Con un 8-PAM, M = 8 si trasmettono 3 bit per simbolo e Rs = 33 Msym/s. Verificando come prima: (1 + α) · Rs < BC

=⇒

(1 + α) · 33 < 25

= α < 0.76 − 1 =⇒

=⇒

α<

Rb 3

=

25 −1= 33

α < −0.24

Per le stesse considerazioni di prima il risultato non `e valido. Serve almeno una modulazione con una costellazione a 16 punti; trasmettendo 4 bit per simbolo si ottiene: Rs =

Rb = 25 Msym/s 4

Per cui: (1 + α) · Rs < BC

=⇒

(1 + α) · 25 < 25

=⇒

α
View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF