Processamento de Sinais

May 18, 2018 | Author: vanessaksd | Category: Fourier Series, Discrete Fourier Transform, Differential Equations, Series (Mathematics), Pi
Share Embed Donate


Short Description

Download Processamento de Sinais...

Description

Processamento Digital de Sinais

Carlos Alexandre Mello Centro de Informática – UFPE 2015

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 2

Agradecimentos à primeira turma de Processamento Digital de Sinais dos cursos de Engenharia da Computação e Ciência da Computação de 2010.1: Adriano Damascena, Bernardo Fonseca, Daker Fernandes, Daniel Brito, Fernando Rodrigues, Gabriel Carvalho, João Carlos Procópio, Lucas André Paes, Luis Felipe Pereira, Onildo Ferraz Filho, Rafael Menezes, Renan Pires, Rodolpho de Siqueira, Rodrigo Perazzo, Thiago Lima e Thiago Henrique Fernandes.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 3

Índice 1. Processamento Digital de Sinais ...................................................................... 6 1.1 Principais Tipos de Sinais ........................................................................... 7 1.2 Sistemas Discretos no Tempo..................................................................... 9 1.3 Sistemas Lineares e Invariantes no Tempo .............................................. 10 1.4 Operações entre sequências..................................................................... 14 1.5 Sistemas LTI como Filtros Seletores de Frequência ................................. 16 1.6 Representação de Sequências pela Transformada de Fourier ................. 19 1.6.1 Propriedades da Transformada de Fourier ......................................... 23 1.7 Códigos do MatLab (Sinais e Operações) ................................................. 25 1.8 Exercícios .................................................................................................. 34 1.8 Bibliografia Complementar ........................................................................ 37 2. A Transformada Z ........................................................................................... 38 2.1 Propriedades da Transformada Z.............................................................. 40 2.2 Pares de Transformadas Z ........................................................................ 43 2.3 Exemplos de Cálculo da Transformada Z ................................................. 43 2.4 Propriedades da Região de Convergência ................................................ 51 2.5 A Transformada Z Inversa ......................................................................... 52 2.6 Exercícios .................................................................................................. 61 2.7 Bibliografia Complementar ........................................................................ 63 3. Teorema da Amostragem ............................................................................... 64 3.1 Teorema de Shannon................................................................................ 69 3.2 Re-Obtenção do Sinal a partir de suas amostras ...................................... 74 4. Filtros Digitais ................................................................................................. 77 4.1 Filtros Digitais ............................................................................................ 79 4.2 Filtros FIR .................................................................................................. 83 4.3 Filtros IIR ................................................................................................. 106 4.4 Exercícios ................................................................................................ 112 4.5 Bibliografia Complementar ...................................................................... 113 5. Técnicas de projeto de filtros ........................................................................ 114 5.1 Projeto de Filtros FIR .............................................................................. 117 5.1.1 Projeto usando janelas ..................................................................... 118 5.1.2 Técnicas de Projeto por Amostragem em Frequência ...................... 144 5.1.3 Projeto Equirriple Ótimo .................................................................... 146 5.2 Projeto de Filtros IIR................................................................................ 149 5.2.1 Escala Relativa ................................................................................. 150 5.2.2 Características de Protótipos Analógicos ......................................... 153 5.3 Transformações em Frequência.............................................................. 162 5.4 Comparação entre Filtros FIR e IIR......................................................... 164 5.5 Exercícios ................................................................................................ 166 5.6 Bibliografia Complementar ...................................................................... 167 6. Transformada Discreta de Fourier ................................................................ 168 6.1 A Série Discreta de Fourier ..................................................................... 169 6.2 A Transformada Discreta de Fourier ....................................................... 174 6.3 Propriedades da Transformada Discreta de Fourier ............................... 176

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 4

6.4 A Transformada Discreta Bi-Dimensional de Fourier .............................. 179 6.5 O Espectrograma .................................................................................... 181 6.6 Exercícios ................................................................................................ 185 6.7 Bibliografia Complementar ...................................................................... 187 7. Transformada Rápida de Fourier (FFT- Fast Fourier Transform) ................. 188 7.1 Algoritmos Rápidos ................................................................................. 188 7.2 Algoritmo de Cooley-Tukey ou Decimação no Tempo ............................ 190 7.3 Outras FFTs ............................................................................................ 201 7.4 Exercícios ................................................................................................ 203 7.5 Bibliografia Complementar ...................................................................... 204 8. Análise Wavelet ............................................................................................ 205 8.1 A Transformada Wavelet ......................................................................... 208 8.2 Análise em Multiresolução....................................................................... 212 8.3 Sobre os coeficientes das wavelets ........................................................ 215 8.4 Wavelets no MatLab................................................................................ 220 8.5 Exercícios ................................................................................................ 227 8.6 Bibliografia Complementar ...................................................................... 229 9. Processamento Digital de Imagens .............................................................. 230 9.1 Digitalização ............................................................................................ 233 9.2 Sistema Computacional de Cores ........................................................... 236 9.3 Histograma .............................................................................................. 240 9.4 Filtragem de Imagens Digitais ................................................................. 242 9.5 Compressão de Imagens ........................................................................ 250 9.6 Processamento de Imagens no MatLab .................................................. 252 9.7 Exercícios ................................................................................................ 256 9.8 Bibliografia Complementar ...................................................................... 257 10. Técnicas de Codificação de Áudio e Vídeo ................................................ 258 10.1 Teoria dos Códigos ............................................................................... 258 10.2 Algoritmos de Compressão ................................................................... 262 10.2.1 Código de Huffman ......................................................................... 263 10.2.2 Run-length ...................................................................................... 266 10.2.3 Algoritmo de Lempel-Ziv-Welch ...................................................... 266 10.3 Algoritmos de codificação multimídia .................................................... 267 10.3.1 Codificação de Vídeo ...................................................................... 268 10.3.2 Codificação de Áudio ...................................................................... 282 10.4 Implementações no MatLab .................................................................. 287 10.4.1 Processamento de Vídeo no MatLab ................................................. 287 10.4.2 Processamento de Áudio no MatLab ................................................. 293 10.5 Exercícios .............................................................................................. 303 10.6 Bibliografia Complementar .................................................................... 304 11. Processamento de Voz ............................................................................... 305 11.1 Amostragem e Quantização .................................................................. 312 11.2 Técnicas Temporais para Processamento de Voz ................................ 319 11.2.1 Energia de Curta Duração .............................................................. 321 11.2.2 Magnitude de Curta Duração .......................................................... 323 11.2.3. Taxa de Passagem pelo Zero ........................................................ 324

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 5

11.2.4. Função de Autocorrelação ............................................................. 326 11.3 Análise Cepstral .................................................................................... 329 11.4 Exercícios .............................................................................................. 334 11.5 Bibliografia Complementar .................................................................... 335

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 6

1. Processamento Digital de Sinais Sinais estão presentes em diversas situações do dia-a-dia do ser humano. Um sinal pode ser definido como uma função que carrega uma informação. A forma mais comum para nós é a comunicação por sinal de voz. Nesse exemplo, temos o sinal gerado pelo trato vocal e o sinal recebido pelo sistema auditivo. Apesar de ser o mesmo sinal transmitido a forma como ele é processado é inerente ao receptor. O processamento de sinais lida com a representação, transformação e manipulação dos sinais e da informação que eles contêm. Até a década de 60, a tecnologia para processamento de sinais era basicamente analógica. A evolução de

computadores

e

microprocessadores

juntamente

com

diversos

desenvolvimentos teóricos causou um grande crescimento na tecnologia digital, surgindo o processamento digital de sinais (PDS). Um aspecto fundamental do processamento digital de sinais é que ele é baseado no processamento de sequências de amostras. Para tanto, o sinal contínuo no tempo é convertido nessa sequência de amostras, i.e., convertido em um sinal discreto no tempo. Após o processamento digital, a sequência de saída pode ser convertida de volta a um sinal contínuo no tempo. A maior parte do processamento de sinais envolve processar um sinal para obter outro sinal. Normalmente, isso é conseguido por um processo conhecido como filtragem. Sinais podem ser classificados em quatro diferentes categorias dependendo de características de tempo e dos tipos de valores que eles podem assumir. Sinais contínuos no tempo (ou analógicos) são definidos para qualquer valor de tempo e eles assumem valores no intervalo contínuo (a, b), onde a pode ser -∞ e b pode ser +∞. Podem ser representados por uma função de variáveis contínuas. Sinais discretos no tempo são definidos apenas para certos valores específicos de tempo. Podem ser representados matematicamente por uma sequência de números reais ou complexos, x. O n-ésimo número dessa sequência é denotado por x[n]. Assim, x é formalmente escrito como:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

x = {x[n]},

Página 7

-∞ > stem (n, x); title ('Exemplo de Sequencia'); xlabel('n'); ylabel('x[n]');

Função Degrau function [x, n] = stepseq(n0, n1, n2) % Degrau n = [n1:n2]; x = [(n-n0) >= 0]; stem (x); Exemplos 1. >> stepseq (5, 0, 10);

Página 26

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

2. x[n] = n[u[n] – u[n – 10]] + 10e-0.3(n – 10)[u[n – 10] – u[n – 20]],

Página 27

0 ≤ n ≤ 20

>> n = 0:20; >> x1 = n.*(stepseq(0,0,20) - stepseq(10,0,20)); >> x2 = 10*exp(-0.3*(n-10)).*(stepseq(10,0,20) - stepseq(20,0,20)); >> x = x1 + x2; >> stem(n,x); title('Sequencia de Degraus'); xlabel('n'); ylabel ('x[n]');

Senóide function x = sinseq(n1,n2) % Senóide n = [n1:0.1:n2]; x = 3*cos(0.1*pi*n + pi/3) + 2*sin(0.5*pi*n); stem (x); Exemplo: >> sinseq (0, 10);

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Operações em sequências Adição de sinais y[n] = x1[n] + x2[n] function [y,n] = sigadd(x1,n1,x2,n2) n = min(min(n1),min(n2)):max(max(n1),max(n2)); y1 = zeros(1, length(n)); y2 = y1; y1(find((n>=min(n1))&(n=min(n2))&(n=min(n1))&(n=min(n2))&(n> n = -2:10; >> x = [1:7, 6:-1:1]; a) Plote x1[n] = 2x(n – 5) – 3x[n + 4]. >> [x11, n11] = sigshift(x, n, 5); >> [x12, n12] = sigshift(x, n, -4); >> [x1, n1] = sigadd(2*x11,n11,-3*x12, n12); >> stem (n1, x1); title(‘Sequencia’); xlabel (‘n’); ylabel (‘x1(n)’);

b) Plote x2[n] = x[3 – n] + x[n].x[n – 2] >> [x21, n21] = sigfold(x, n); >> [x21, n21] = sigshift(x21, n21,3); >> [x22, n22] = sigshift(x, n,2); >> [x22, n22] = sigmult(x, n, x22, n22); >> [x2, n2] = sigadd(x21, n21, x22, n22); >> stem (n2, x2); title('Sequencia'); >> xlabel ('n'); ylabel ('x2(n)');

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 30

Convolução Considere as sequências: x = [3, 11, 7, 0, -1, 4, 2], h = [2, 3, 0, -5, 2, 1];

-3 ≤ n ≤ 3 -1 ≤ n ≤ 4

onde, novamente, os termos em negrito indicam a origem do eixo das abscissas. As sequências podem ser vistas abaixo:

x[n] Podemos usar a função conv do MatLab diretamente:

h[n]

>> x = [3, 11, 7, 0, -1, 4, 2]; >> h = [2, 3, 0, -5, 2, 1]; >> y = conv (x, h); y=

6

31

47

6 -51

-5

41

18 -22

-3

8

2

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 31

O problema do uso da função conv é que não sabemos, na resposta, onde está a origem da sequência. Para tanto, vamos criar uma nova função: function [y, ny] = conv_m (x, nx, h, nh) nyb = nx(1) + nh(1); nye = nx(length(x)) + nh(length(h)); ny = [nyb:nye]; y = conv(h, x); >> x = [3, 11, 7, 0, -1, 4, 2]; >> nx = [-3:3]; >> h = [2, 3, 0, -5, 2, 1]; >> nh = [-1:4]; >> [y, ny] = conv_m (x, nx, h, nh) y=

6

ny =

-4

31 -3

47 -2

6 -51

-5

41

18 -22

-1

1

2

3

0

4

-3 5

8 6

2 7

A amplitude -51 está no ponto de origem (ny = 0).

Equações de Diferenças e Resposta ao Impulso Exemplo: Dada a seguinte equação de diferenças: y[n] – y[n – 1] + 0.9y[n – 2] = x[n],

para todo n

a) Calcule e plote sua resposta ao impulso h[n] para n = -20,.., 120. Como vimos anteriormente, uma equação de diferenças é da forma:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

N

∑a

M

k

y[ n − k ] = ∑ bk x[ n − k ]

k =0

k =0

De acordo com a equação dada, temos: a = [1, -1, 0.9]

e

b = [1]

No MatLab, fazemos: >> x = impseq(0, -20, 120); >> n = [-20:120]; >> h = filter(b, a, x); >> stem(n, h); title('Resposta ao impulso'); xlabel('n'); ylabel('h[n]');

Página 32

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 33

b) Calcule e plote sua resposta ao degrau s[n] para n = -20,.., 120. No MatLab, fazemos: >> x = stepseq(0, -20, 120); >> n = [-20:120]; >> h = filter(b, a, x); >> stem(n, h); title('Resposta ao degrau'); xlabel('n'); ylabel('s[n]');

c) O sistema é estável? Como vimos, um sistema é estável se:

S=



∑ | h[n] | < ∞ n = −∞

Assim, no MatLab, basta fazermos: >> sum(abs(h)) Ans = 14.8785 Logo, o sistema é estável. 

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 34

1.8 Exercícios 1. Considere um sistema linear arbitrário com entrada x[n] e saída y[n]. Mostre que se x[n] = 0 para todo n, então y[n] deve ser zero para todo n também. 2. Usando a definição de linearidade, mostre que o sistema de atraso ideal e a média móvel são ambos lineares. 3. Para cada sistema abaixo, determine se ele é (1) estável, (2) causal, (3) linear, (4) invariante no tempo e (5) sem memória: a. T(x[n]) = g[n]x[n],

com g[n] dado

b. T(x[n]) = Σnk=n0 x[k] c. T(x[n]) = x[n – n0] d. T(x[n]) = exp(x[n]) e. T(x[n]) = a.x[n] + b,

a e b números reais

f. T(x[n]) = x[-n]) g. T(x[n]) = x[n] + 3.u[n + 1] 4. O sistema T abaixo é invariante no tempo. Quando as entradas dele são x1[n], x2[n] e x3[n], as saídas são y1[n], y2[n] e y3[n], respectivamente.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 35

a) Determine se o sistema pode ser linear. b) Se a entrada x[n] do sistema é um impulso (δ[n]), qual a saída y[n]? c) Determine a relação entre a entrada e a saída do sistema. 5. Para cada par de sequências abaixo, use convolução discreta para encontrar a resposta à entrada x[n] do sistema linear invariante no tempo com resposta ao impulso h[n]. a)

b)

6. Considere o sistema com entrada x[n] e saída y[n] que satisfaz a equação de diferenças: y[n] = n.y[n – 1] + x[n] O sistema é causal tal que, se x[n] = 0, para n < 0, então y[n] = 0, para n < 0. a) Se x[n] = δ[n], determine y[n] para todo n. b) O sistema é linear? c) O sistema é invariante no tempo?

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 36

7. Plote a seguintes sequências no MatLab: a) x[n] = n2.(u[n + 5] – u[n – 6]) + 10.δ[n],

-5 ≤ n ≤ 5

b) x[n] = 20.(0,5)n.(u[n – 4] – u[n - 10]),

-5 ≤ n ≤ 5

8. Seja x[n] = {1, -2, 4, 6, -5, 8, 10}, gere e plote no MatLab as seguintes sequências: a) x[n] = 3.x[n + 2] + x[n – 4] – 2.x[n] b) x[n] = 5.x[5 + n] + 4.x[n + 4] + 3.x[n] 9. Usando as seguintes sequências: x1[n] = u[n + 10] – u[n – 20]

x2[n] = 2.δ[n – 2] + 5.u[n + 10]

x3[n] = 5.u[n + 2] – 6.u[n – 3] mostre que a convolução linear tem as seguintes propriedades como válidas: Comutatividade: x1[n]*x2[n] = x2[n]*x1[n] Associatividade: (x1[n]*x2[n])*x3[n] = x1[n]*(x2[n]*x3[n]) Distributividade: x1[n]*(x2[n] + x3[n]) = x1[n]*x2[n] + x1[n]*x3[n]) Identidade: x[n]* δ[n – n0] = x[n – n0] Use a função conv_m.m apresentada anteriormente. 10. A operação de dilatação de sinal (ou decimação ou downsampling) é definida por: y[n] = x[nM] na qual a sequência de entrada é down-sampled por um fator inteiro M. Por exemplo, se : x[n] = {...., -2, 4, 3, -6, 5, -1, 8,...} então a sequência down-sampled por um fator de 2 é dada por: y[n] = {..., -2, 3, 5, 8, ..} Escreva uma função no MatLab que execute essa dilatação. A função deve ser da forma: function [y, n] = dnsample(x, n, M) Cuidado com a origem do eixo!!



Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 37

1.8 Bibliografia Complementar 1. Vinay K. Ingle, John G. Proakis, Digital Signal Processing, Thomson Learning, 2000. 2. Michael Weeks, Digital Signal Processing Using MatLab and Wavelets, Infinity Science Press, 2007. 3. Alan V. Oppenheim, Ronald Schafer, Discrete Time Signal Processing, Prentice Hall, 1989

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 38

2. A Transformada Z A Transformada Z (TZ) é uma ferramenta matemática poderosa para análise de sinais e sistemas. A transformada Z constitui a forma discreta da transformada de Laplace. Seja a Transformada de Fourier (TF) de uma sequência dada por:

X (e ) = jw



− jwn x [ n ] e ∑ n = −∞

Seja z = ejw. Temos então, a TZ definida como:

X (z) =



∑ x[n]z

−n

n = −∞

Essa é chamada também de TZ bilateral. A transformada unilateral é dada por: ∞

X ( z ) = ∑ x[n] z − n n =0

Notadamente, há uma relação entre a TZ e a TF. Se z é uma variável complexa, z pode ser escrita como ejw = cos(w) + j.sen(w). Nesse caso, a TZ transforma-se na TF. De forma mais geral, se z = r.ejw, sua representação gráfica corresponde ao círculo no Plano imaginário (chamado de Plano-Z). Se esse círculo tem raio igual a 1, então temos a condição da TZ = TF (Fig. 2.1). Assim, a TZ calculada no círculo unitário é igual à TF. A Transformada Z não converge para todos os valores de Z. Onde a TZ converge é chamada de região de convergência (ROC – Region of Convergence). Para garantir a convergência é preciso que: ∞

∑ | x[n]z

−n

| |a|



X ( z ) = ∑ ( az −1 ) n = n=0

1 z = , | z |>| a | 1 − az −1 z − a

Para a = 1: Z x[n] = u[n] ←→ X ( z) =

1 , | z |> 1 −1 1− z

Observamos que, para a = 1, a ROC não contém o círculo unitário. Logo, a TF para essa sequência não converge. 

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 45

Exemplo 2: x[n] = -anu[-n – 1]

X (z) =



∑ x[n]z

−n

=

n= −∞



∑ − a u[−n − 1]z n

n = −∞

−1

X ( z) = − ∑ a z n

n = −∞

−n

−n



= − ∑ a nu[ −n − 1] z −n n= −∞





= − ∑ a z = 1 − ∑ ( a −1 z ) n n =1

−n

n

n =0

ROC: |a-1z| 1/2

X ( z) =

1 1 + 1 1 1 − z −1 1 + z −1 2 3

Para X(z), os pólos são dados por z=1/2 e z=-1/3 e os zeros são z=0 e z=1/12. Uma das propriedades da ROC que podemos observar aqui é que os pólos não fazem parte dela.



Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Exemplo 4: x[n] = (-1/3)nu[n] – (1/2)nu[-n – 1]

X ( z) =



∑ x[n]z

−n

n = −∞

n  1  n  −n 1 = ∑  −  u[ n] −   u[ − n − 1] z 2  n = −∞  3  ∞

n



n

∞  1 1 −n X ( z ) = ∑  −  u[n]z − ∑   u[− n − 1]z − n 3 n = −∞  n = −∞  2  ∞

n

n



n

−n

 1  − n −1  1  − n X ( z) = ∑  −  z − ∑   z 3 n=0  n = −∞  2   1  −n ∞  1  n X ( z ) = ∑  −  z −∑   z 3 n =0  n =1  2 

 1    1  X ( z ) = ∑  − z −1  + 1 −∑   z  3  n =0  n=0   2   n



−1



(i) ROC(i) = |(-1/3).z-1| < 1 ⇒ |z| > 1/3 ROC(ii) = |(1/2)-1.z| < 1 ⇒ |z| < 1/2 ROC = ROC(i) ∩ ROC(ii) = 1/3 < |z| < 1/2

(ii)

n

Página 47

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 48

ROC(i)

ROC(ii)

ROC:

X ( z) =

1 1 1 2z +1− = − 1 1 − 2 z 1 + 1 z −1 1 − 2 z 1 + z −1 3 3 

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 49

Exemplo 5: Função delta δ[n]: δ[n] = 0, n ≠ 0, e δ[n] = 1, n = 0 Transformada Z:

X (z) =



∑ x[n]z

−n

= 1.z 0 = 1

n = −∞

ROC = Todo o Plano Z  Exemplo 6: x[n] = δ[n – n0]

X (z) =



∑ x[n]z

−n

n = −∞

=



∑ δ [n − n ]z 0

−n

= z − n0

n = −∞

ROC = Todo o Plano Z.  Nos exemplos 5 e 6, x(n) é finita. X(z) é um polinômio de base z-1 e todo o plano Z menos quando z = 0. Nesse ponto, a transformada não é definida. Exemplo 7: Determine a transformada Z da sequência: x[n] = (n – 2).(0,5)(n-2)cos[π(n – 2)/3]u[n – 2] Considerando a propriedade do deslocamento no tempo (x[n + n0] ↔ zn0.X(z)), temos: X(z) = Z{x[n]} = z-2.Z{n(0,5)n.cos(πn/3)u[n]} Considerando agora a diferenciação no domínio Z (n.x[n] ↔ -z.dX(z)/dz), temos: X(z) = Z{x[n]} = z-2.{-z.[d(Z{(0,5)n.cos(πn/3).u[n]}/dz} A transformada Z de (0,5)n.cos(πn/3).u[n] é, pela tabela da Seção 2.2:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

z[(0,5) n cos(

πn 3

π

1 − (0,5. cos ) z −1 3

)u[n]] =

π

1 − 2(0,5. cos ) z −1 + 0,25 z − 2 3

1 − 0,25z −1 z[(0,5) cos( )u[n]] = 3 1 − 0,5 z −1 + 0,25 z −2

πn

n

Página 50

,

ROC = |z| > 0,5

Assim:

 d  1 − 0,25 z −1 X ( z) = − z   dz 1 − 0,5 z −1 + 0,25 z −2  −1

0,25 z −3 − 0,5 z −4 + 0,0625z −5 X ( z) = 1 − z −1 + 0,75z −2 − 0,25z −3 + 0,0625z −4

ROC = |z| > 0,5

O seguinte procedimento no MatLab pode ajudar a verificar se a transformada está correta. Para tanto, vamos calcular as primeiras 8 amostras da sequência x[n] correspondente a X(z): >> b = [0, 0, 0, 0.25, -0.5, 0.0625]; >> a = [1, -1, 0.75, -0.25, 0.0625]; >> [delta, n] = impseq(0,0,7) delta = 1 0 0 0 0 0 0 0 n= 0 1 2 3 4 5 6 7 >> x = filter(b, a, delta) % checar a sequência x= 0 0 0 0.2500 -0.2500 -0.3750 -0.1250

0.0781

>> x = [(n-2).*(1/2).^(n-2).*cos(pi*(n-2)/3)].*stepseq(2, 0, 7) % sequência original x= 0 0 0 0.2500 -0.2500 -0.3750 -0.1250 0.0781 Conferindo com a sequência gerada pelo processo de filtragem. 

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 51

2.4 Propriedades da Região de Convergência

A região de convergência (ROC) traz algumas propriedades: 1) A ROC é um anel ou disco no Plano Z com centro na origem. 2) A TF da sequência x[n] converge absolutamente se e somente se a ROC da TZ contém o círculo unitário. 3) A ROC não pode conter pólos. 4) Se x[n] é uma sequência de duração finita, a ROC é todo plano Z. 5) Se x[n] é causal (right-sided), a ROC extende-se para além dos pólos mais externos, possivelmente tendendo a infinito.

6) Se x[n] é não causal (left-sided), a ROC extende-se para uma região menor que o menor pólo até zero.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 52

7) Se x[n] é uma sequência com componentes parte causal e parte não-causal, então a ROC é um anel.

8) A ROC é uma região conectada.

2.5 A Transformada Z Inversa O cálculo da TZ inversa não é tão direto quanto o da TF. Aqui, existem diversas maneiras formais e informais de calcular a TZ inversa dada uma expressão algébrica e a ROC associada. Seja a Transformada Z definida por:

X (z) =



∑ x[n]z

−n

n = −∞

Suponha que multiplicamos ambos os lados da transformada por zk-1 e integremos os dois lados sobre um contorno fechado dentro da ROC de X(z) que inclui a origem. Tal contorno pode ser visto na Figura 2.2. Assim, temos:

∫ X ( z) z C

k −1

dz = ∫



k −1− n x [ n ] z dz ∑

C n = −∞

(1)

onde C denota o contorno fechado na ROC de X(z), tomado no sentido antihorário. Como a série converge nesse contorno, podemos mudar a ordem da integração e do somatório no lado direito, ficando com:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

∫ X ( z) z C

k −1

dz =



∑ x[n]∫ z

n = −∞

k −1− n

dz

Página 53

(2)

C

Pelo teorema de integração de Cauchy:

1, n = k 1 k −1− n z dz =  2πj C∫ 0, n ≠ k

(3)

onde C é qualquer contorno que inclui a origem. Aplicando (3), o lado direito de (2) reduz-se a 2πj.x[k] e assim a fórmula inversa é alcançada:

x[k ] =

1 k −1 X ( z ) z dz ∫ 2πj C

(4)

Fig. 2.2. Contorno C para a integral da transformada Z inversa. Essa é a inversa da transformada Z para uma dada sequência. No entanto, nós não precisaremos usar essa inversão já que dentro de sinais e sistemas, as transformadas Z são funções racionais (i.e., razão entre dois polinômios). Para

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 54

tais transformadas, há métodos mais simples de inversão que envolvem tabelas conhecidas e métodos mais simples. Os principais métodos são: - Método da inspeção - Expansão em Frações Parciais - Expansão em Séries de Potências O método da inspeção é o mais simples e consiste em apenas observar a transformada e ver se ela é da forma de alguma TZ conhecida. Por exemplo, dado:

X ( z) =

1 1 1 − z −1 2

,

|z|> ½

Por observação, sabemos que: x[n] = -(½)nu[-n – 1] Notadamente, o método da inspeção não é o mais apropriado para calcular TZs inversas mais complexas. Para ver como obter uma expansão em frações parciais, vamos assumir que X(z) pode ser expressa como uma razão de polinômios em z-1, i.e., M

∑b z

−k

k

X ( z) =

k =0 N

∑a

k

z −k

k =0

Para calcular a transformada inversa, tentamos expressar X(z) da forma:

X ( z) =

M −N

∑ Br z r =0

−r

N

Ak −1 k =1 1 − d k z

+∑

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 55

Exemplo 8: Suponha:

1 + 2 z −1 + z −2 1 + 2 z −1 + z −2 X ( z) = = 3 −1 1 − 2 1 1− z + z (1 − z −1 )(1 − z −1 ) 2 2 2 Vamos considerar que:

X ( z ) = B0 +

=

A1 A2 + = 1 −1 1 − z −1 1− z 2

B0 (1 −

1 −1 1 z )(1 − z −1 ) + A1 (1 − z −1 ) + A2 (1 − z −1 ) 2 2 1 (1 − z −1 )(1 − z −1 ) 2

1 1 1 B0 (1 − z −1 − z −1 + z −2 ) + A1 (1 − z −1 ) + A2 (1 − z −1 ) 2 2 2 = 1 (1 − z −1 )(1 − z −1 ) 2 Logo:

3 1 1 ( B0 + A1 + A2 ) + z −1 (− B0 − A1 − A2 ) + z −2 ( B0 ) 2 2 2 X ( z) = = 1 −1 −1 (1 − z )(1 − z ) 2 1 + 2 z −1 + z −2 = 1 (1 − z −1 )(1 − z −1 ) 2 Assim, temos:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 56

B0 + A1 + A2 = 1 −

3 1 B0 − A1 − A2 = 2 2 2

1 B0 = 1 ⇒ B0 = 2 2 Com isso, ficamos com:

 2 + A1 + A2 = 1  A1 + A2 = −1   − 3 − A − 1 A = 2 ⇒  A + 1 A = −5 1 2   1 2 2 2 Resolvendo, temos: A1 = -9 e A2 = 8 Logo:

X ( z) = 2 +

−9 8 + 1 −1 1 − z −1 1− z 2

que corresponde à Transformada Z da sequência:

1 x[ n] = 2δ [ n] − 9.( ) n u[ n] + 8.u[ n] 2  A expansão em série de potências é aplicada quando a transformada Z é um polinômio da forma:

X ( z) =



∑ x[n]z

−n

n = −∞

Isso ocorre, principalmente, se a TZ é uma sequência finita. Por exemplo, considere que a TZ de uma sequência x[n] é da forma:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

X ( z ) = z 2 (1 −

Página 57

1 −1 z )(1 + z −1 )(1 − z −1 ) 2

Uma expansão em frações parciais para esse caso não é apropriada. No entanto, efetuando os produtos, podemos reduzir a expressão a:

X ( z) = z 2 −

1 1 z − 1 + z −1 2 2

que equivale à sequência: x[n] = δ[n + 2] – ½.δ[n + 1] - δ[n] + ½.δ[n – 1]  Exemplo 9: Considere a função:

X ( z )=

z 3z 2 − 4 z + 1

Primeiro, vamos re-arranjar X(z) tal que ela se torne uma função em potências de z-1:

z −1 0 +z −1 X ( z )= = 3 − 4 z −1 + z − 2 3 − 4 z −1 + z − 2 Usando o MatLab, temos1: >> b = [0 1]; >> a = [3 -4 1]; >> [R, p, C] = residuez(b, a) R= 0.5000 -0.5000 p= 1.0000 0.3333 1

Para mais informação sobre a função residuez, digite help residuez no MatLab.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

C=

Página 58

[]

que corresponde a:

X (z) =

0,5 − −1 1− z

0,5 1 1 − z −1 3

De maneira similar, podemos voltar à forma anterior: >> [b, a] = residuez(R, p, C) b= -0.0000

0.3333

a= 1.0000 -1.3333

0.3333

que corresponde a:

1 0 + z −1 z −1 0 +z −1 3 X ( z )= = = 4 −1 1 − 2 3 − 4 z −1 + z − 2 3 − 4 z −1 + z − 2 1− z + z 3 3 como antes.  Exemplo 10: Calcule a transformada Z inversa de:

X ( z) =

1 (1 − 0,9 z −1 ) 2 (1 + 0,9 z −1 ) ,

|z|>0,9

Podemos calcular o polinômio no denominador assim como os resíduos usando MatLab: >> b = 1;

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 59

>> a = poly([-0.9 -0.9 0.9]) % calcula os coeficientes do polinômio que tem essas raízes a=

1.0000

0.9000 -0.8100 -0.7290

>> [R, p, C] = residuez(b, a) R= 0.2500 0.2500 - 0.0000i 0.5000 + 0.0000i p= 0.9000 -0.9000 + 0.0000i -0.9000 - 0.0000i C=

[]

Isso significa que X(z) pode ser expandido em frações parciais como:

X ( z) =

0,25 0,5 0,25 + + 1 − 0,9 z −1 (1 − 0,9 z −1 ) 2 1 + 0,9 z −1

,

|z| > 0,9

0,25 0,5 0,9 z −1 0,25 X ( z) = + z + 1 − 0,9 z −1 0,9 (1 − 0,9 z −1 ) 2 1 + 0,9 z −1

,

|z| > 0,9

que, de acordo com as propriedades da transformada Z e a tabela da Seção 2.2, nos dá:

5 x[ n] = 0,25.(0,9) n u[ n] + ( n + 1)(0,9) n +1 u[n + 1] + 0,25(−0,9) n u[n] 9 Vamos tentar deixar todas as parcelas em função de u[n]. Para tanto, vamos trabalhar na segunda parcela:

5 ( n + 1)(0,9) n+1 u[n + 1] 9 Observe que: a.u[n + 1] = a.u[n -1] + a.u[n]. Logo:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 60

5 5 5 (n + 1)(0,9) n+1 u[ n + 1] = ( n + 1)(0,9) n+1 + ( n + 1)(0,9) n+1 u[n] 9 9 9 n= −1 5 5 (n + 1)(0,9) n+1 u[n + 1] = (n + 1)(0,9) n+1 u[n ] 9 9 5 = (n + 1).0,9.(0,9) n u[n] = 0,5(n + 1)(0,9) n u[n ] 9

= 0,5n(0,9) n u[n] + 0,5(0,9) n u[n] Logo:

x[ n] = 0,75.(0,9) n u[ n] + 0,5n.(0,9) n u[ n] + 0,25( −0,9) n u[ n] Como antes, podemos verificar as 8 primeiras amostras da sequência x[n], no MatLab: >> [delta, n] = impseq(0,0,7); >> x = filter (b, a, delta) x=

1.0000

0.9000

1.6200

1.4580

1.9683

1.7715

2.1258

1.9132

1.7715

2.1258

1.9132 

>> x = 0.75*(0.9).^n+0.5*n.*(0.9).^n + 0.25*(-0.9).^n x=

1.0000

0.9000

1.6200

1.4580

1.9683

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 61

2.6 Exercícios 1. Calcule a transformada Z das sequências: a. x[n] = -(1/2)nu[-n – 1] b. y[n] = (-1/2)nu[n] + (1/3)nu[-n – 1] c. y[n] =2δ[n – 3] + (-1/4)nu[-n - 1] + (1/2)nu[n] 2. Calcule a transformada Z das seguintes sequências usando as suas propriedades e a tabela da Seção 2.2 e verifique seus resultados usando MatLab. a. x[n] = 2.δ[n-2] + 3u[n – 3] b. x[n] = (1/3)nu[n – 2] + (0,9)n-3u[n] 3. Seja x[n] uma sequência com transformada Z dada por X(z). O que se pode dizer sobre as sequências que geram as seguintes transformadas: a. X1(z) = [(z – 1)/z]X(z) b. X2(z) = z.X(z-1) 4. Ache a transformada inversa de: a. X ( z ) =

1 , 1 −1 1+ z 2

ROC = |z| > ½

b. X ( z ) =

1 , 1 −1 1+ z 2

ROC = |z| < 1/2

1 −1 z 2 c. X ( z ) = , 3 −1 1 − 2 1+ z + z 4 8 1−

ROC = |z| > 1/2

5. Determine a transformada inversa usando o método de expansão em frações parciais de:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 62

1 − z −1 − 4 z −2 + 4 z −3 X 1 ( z) = 11 13 1 1 − z −1 + z − 2 − z −3 4 8 4 sabendo que a sequência é causal. 6. Suponha que X(z) é:

2 + 3 z −1 X1 (z) = 1 − z −1 + 0,81z −2

,

|z| > 0,9

Encontre as primeiras 20 amostras de x[n], usando o MatLab. 

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 63

2.7 Bibliografia Complementar 1. Vinay K. Ingle, John G. Proakis, Digital Signal Processing, Thomson Learning, 2000. 2. Michael Weeks, Digital Signal Processing Using MatLab and Wavelets, Infinity Science Press, 2007. 3. Alan V. Oppenheim, Ronald Schafer, Discrete Time Signal Processing, Prentice Hall, 1989

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 64

3. Teorema da Amostragem Sinais discretos no tempo podem ser gerados de diferentes formas, mas a mais comum é sendo uma representação de sinais contínuos no tempo. Em parte, isso é devido ao fato que o processamento de sinais contínuos no tempo é feito através do processamento discreto no tempo de sequências obtidas através de amostragem. Um sinal contínuo no tempo pode ser representado por amostras como na Fig. 3.1.

Fig. 3.1. Exemplo: (esquerda) sinal original e (direita) amostragem desse sinal. A forma mais comum de obter uma representação discreta no tempo de um sinal contínuo no tempo é através de uma amostragem periódica, quando a sequência de amostras x[n] é obtida de um sinal contínuo no tempo xc(t) de acordo com a relação: x[n] = xc(nT),

-∞ < n < ∞

(Eq. 3.1)

Na Eq. 3.1, T é chamado de período de amostragem e sua inversa, fs = 1/T, é a frequência de amostragem, medida em amostras por segundo. Referimo-nos a um sistema que implementa a operação da Eq. 3.1 como um conversor ideal contínuo-para-discreto (C/D) no tempo. Na prática, a operação

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 65

de amostragem é implementada por um conversor analógico-para-digital (A/D). Tais sistemas podem ser vistos como aproximações de conversores C/D ideais. Na implementação ou escolha de um conversor A/D deve-se considerar a quantização da saída, linearidade, a necessidade de circuitos sample-and-hold e limitações na taxa de amostragem. Em geral, a amostragem é um processo não-inversível. Ou seja, dada uma sequência x[n], não é possível reconstruir o sinal original xc(t). Muitos sinais diferentes podem gerar a mesma sequência de amostras de saída. É conveniente representarmos matematicamente o processo de amostragem, dividindo-o em duas partes conforme a Fig. 3.2. O processo consiste de um trem de impulsos seguido de uma conversão desse trem em uma sequência. Na Fig. 3.2, a diferença fundamental entre xs(t) e x[n] é que xs(t) é um sinal contínuo com valores zero exceto nos inteiros múltiplos de T. x[n], por outro lado, não possui informação explícita sobre a taxa de amostragem e é um sinal onde as regiões que não representam valores inteiros não têm valor definido. São muitas as razões para o aumento no uso de sistemas digitais: 1. Muitas informações (ou dados) estão nessa forma, e.g. entrada/saída de computadores, sinais de controle digital, etc. 2. A disponibilidade de componentes pequenos, confiáveis e de baixo custo, principalmente, com o aumento da escala de integração dos circuitos integrados. 3. Relativa

simplicidade

no

projeto

de

implementação usando circuitos integrados.

circuitos

e

facilidade

de

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 66

Fig. 3.2. Amostragem com um trem de impulsos periódicos seguida de uma conversão para uma sequência discreta no tempo. a) Visão geral do sistema; b) xc(t) (sinal original no tempo contínuo) e xs(t); c) a sequência x[n] de saída. 4. Ampla utilização de computadores digitais no processamento de todo tipo de dados e sinais. 5. Armazenamento de sinais realizado de modo simples e econômico (simplicidade das memórias digitais) 6. Crescente uso e disponibilidade de técnicas de processamento digital de sinais (DSP).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 67

7. Fidelidade em transmissões longas devido ao uso de estações repetidoras regenerativas. 8. Flexibilidade do formato digital que permite: a. Combinação em um mesmo canal de uma variedade de diferentes tráfegos (telégrafo, dados, voz, imagem, vídeo, etc); b. Multiplexação feita de forma simples e econômica; c. Transmissão com velocidade ajustável; rápida ou lenta em função do tráfego e/ou qualidade exigidas. 9. Uso de parte do sinal digital para controlar o progresso do sinal através do sistema (ex: cabeçalho). 10. Possibilidade da codificação (teoria da informação): a. Codificação da fonte, reduzindo redundância, isto é, compactando os dados; b. Codificação

do

canal,

combatendo

os

efeitos

do

ruído,

interferências, etc. 11. Aplicações de técnicas de criptografia, garantindo a privacidade e autenticidade da comunicação. A digitalização de sinais analógicos vem tornando-se cada vez mais importante, principalmente, com o desenvolvimento das redes digitais de serviços integrados.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 68

Na conversão analógico-digital é necessário colher-se um número discreto de amostras de um sinal contínuo. O problema crucial na amostragem está com o número de amostras/seg devem ser colhidas. Um número muito pequeno de amostras pode resultar em uma representação demasiadamente pobre do sinal. A análise quantitativa acerca desse problema é estudada pelo Teorema de Shannon-Nyquist. A princípio, pode-se imaginar que, no processo de amostragem de um sinal analógico, há sempre perda de informação e que essa perda é tanto menor quanto maior a taxa de amostragem utilizada. Entretanto, o teorema de Shannon mostra que isto nem sempre é verdade. O teorema estabelece que sob certas condições, as amostras de um sinal podem conter precisamente toda a informação a ele associada. Isto significa que o sinal pode ser perfeitamente recuperado a partir de amostras colhidas sem nenhuma aproximação. O estudo sobre o teorema da amostragem é aplicado a sinais banda limitado, isto é, aqueles que não possuem componentes espectrais para frequência acima de uma dada frequência (Fig. 3.3).

Fig. 3.3. Exemplo de um sinal banda limitado.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 69

Embora essa condição não seja rigorosamente verificada, ela é bastante útil em termos práticos.

3.1 Teorema de Shannon Teorema de Shannon: Um sinal de banda limitada por fm Hz está unicamente determinado por amostras, se são tomadas, pelo menos, 2.fm amostras eqüidistantes por segundo. Prova: Se as amostras são obtidas a cada Ts segundos, considera-se então um trem de impulsos δTs(t)

δ Ts (t ) =



∑ δ (t − nTs ) n = −∞

A amostragem de um sinal f(t) em intervalos de T segundos será definida por:

f s (t ) = f (t ).δ Ts (t ) =



∑ f (t ).δ (t − nTs) n = −∞

Então a função amostrada contém apenas informações acerca das amostras f(nTs), n = 0, 1, 2, 3, ...., pois

f s (t ) =



∑ f (nTs).δ (t − nTs) n = −∞

Toda a informação de um sinal banda limitada em fm Hz está contida nas amostras colhidas em intervalos uniformes menores que ½ fm Hz. Os pares sinal e transformada envolvidos no processo podem ser vistos na Fig. 3.4.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 70

Fig. 3.4. (topo) Exemplo de um sinal e sua transformada banda limitada em wm. (centro) Trem de impulsos e sua transformada e (embaixo) o resultado da amostragem do sinal; sua transformada é analisada a seguir. O espectro do sinal amostrado fs(t) pode ser determinado com o auxílio do teorema da convolução na frequência: f1(t).f2(t) ↔ (1/2π)F1(w)*F2(w) onde * é a operação de convolução. Segue, então, que: ∞ 1 f (t )δ T (t ) ↔ F ( w) * ∑ ws δ ( w − nwS ) 2π n = −∞

Se: fs(t) ↔ Fs(w) Então, o espectro de fs(t) é dado por:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

∞ 1 w Fs ( w) = F ( w) * ∑ wsδ ( w − nwS ) = s 2π 2π n = −∞

1 Fs ( w) = Ts

Página 71



∑ F ( w)δ ( w − nw

S

)

n = −∞



∑ F ( w)δ (w − nw

S

n =−∞

) , com ws = 2π/Ts

e, finalmente,

1 Fs ( w) = Ts



∑ F (w − nw

S

)

n = −∞

Este espectro é esboçado para vários valores de ws, isto é, vários valores para o espaçamento Ts entre amostras. A escolha do valor de Ts e, consequentemente, de ws é importante para evitar a sobreposição entre sinais no domínio da frequência. A fig. 3.5 apresenta três casos onde o valor de ws é maior, igual ou menor a wm (frequência limite da banda do sinal de entrada). Nesses três casos, pode-se ver que não há sobreposição quando ws ≥ 2wm. Então, o uso de um filtro passa-baixa ideal permite recuperar o sinal perfeitamente sem distorções (Fig. 3.6). A sobreposição dos sinais é chamada de aliasing e deve ser evitada.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 72

a)

b)

c)

d) Fig. 3.5. a) Sinal original banda limitado em wm; resultado no domínio da frequências de amostragens com: b) ws > 2wm, c) ws = 2wm, d) ws < 2wm (sobreposição de sinais – aliasing).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 73

Fig. 3.6. Recuperação do sinal original com um filtro passa-baixa. Para recuperação do sinal com um FPB sem distorções, é preciso que: ws ≥ 2wm ou seja 2π/Ts ≥ 2.2πfm ⇒ Ts ≤ 1/(2fm) seg O limite 1/Ts = 2fm é chamado de taxa de Nyquist. Valores de Ts que não atendam a essa condição podem provocar diversas distorções no sinal, como: •

Ganho nas altas frequências



Perda nas altas frequências



Modulação das frequências do sinal original



Casos híbridos

Esses problemas podem ser vistos na Fig. 3.7. A Figura 3.8 mostra uma distorção desse tipo em uma imagem. Esse problema (conhecido como efeito Moirée) surgiu por causa de uma baixa resolução utilizada na digitalização da imagem. Ele se apresenta de forma mais forte em partes da imagem que tenham um padrão repetitivo (como essas linhas circulares).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 74

Fig. 3.7. Distorções que podem ser provocadas por escolha errada na banda de passagem do fitro passa-baixa para recuperação do sinal de entrada após a amostragem.

Fig. 3.8. Efeito Moirée.

3.2 Re-Obtenção do Sinal a partir de suas amostras De acordo com o teorema de Shannon-Nyquist, se Ts ≤ 1/(2fm), então a passagem do sinal amostrado por um filtro passa-baixa ideal recupera exatamente o sinal analógico. Suponha que o filtro passa-baixa tem função de transferência: H(w) = Ts. ∏(w/(2wm)) então Fs(w).Ts. ∏(w/(2wm)) = F(w)

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 75

A seguir, vamos analisar o processo de re-obtenção do sinal no domínio do tempo: f(t) ↔ F(w) = Fs(w).Ts. ∏(w/(2wm)) O uso do teorema da convolução no tempo indica que f(t) = F-1(Fs(w))*F-1(Ts. ∏(w/(2wm))) Utilizando os pares de transformadas: fs(t) ↔ Fs(w) (wm/π) Sa(wmt) ↔ ∏(w/(2wm)) onde sa(t) é a chamada função sample e tem a forma sen(x)/x, tem-se f(t) = fs(t)*Ts(wm/π)Sa(wmt) logo

Ts wm  ∞  f (t ) = f ( nT ) δ ( t − nT ) ∑ s s  * Sa ( wm t ) π n= −∞  f (t ) =



Ts wm

π

∑ f (nT )[δ (t − nT ) * Sa (w t )] s

s

m

n = −∞

Lembrando da propriedade da amostragem da função impulso, segue-se

f (t ) = 2 f m .Ts



∑ f (nT )Sa (w s

m

(t − nTs ))

n = −∞

No caso particular em que Ts = 1/(2fm), tem-se

f (t ) =



∑ n = −∞

f(

n ) Sa( wmt − nπ ) 2 fm

Como o sinal é recomposto através das amostras, observa-se que f(t) corresponde à superposição de várias funções sample deslocadas, centradas em 0, ±T, ±2T, .... (Fig. 3.9).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 76

Fig. 3.9. Interpolação das amostras por filtro passa-baixa. Observações a) Nos pontos de amostragem nT, o valor correto de f(t) é f(nT). Em T = 0, todas as funções sample se anulam, exceto aquele centrado em t=0, cujo valor é f(0). Em t=T apenas a sample aí centrada não é nula, e assim por diante. b) Nos instantes diferentes de nT, as samples somam desde -∞ a +∞ e reconstituem o valor de f(t) no ponto analisado por interpolação.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 77

4. Filtros Digitais Um sistema discreto no tempo é definido matematicamente como uma transformação que mapeia uma sequência de entrada x[n] em uma sequência de saída y[n]. Isso pode ser denotado por: y[n]=T{x[n]} como representado na Fig. 4.1.

Fig. 4.1. Representação de um sistema discreto no tempo Uma classe importante de sistemas consiste naqueles que são lineares e invariantes no tempo. Os sistemas lineares são aqueles que obedecem ao princípio da superposição. Se a propriedade da linearidade é combinada com a representação de uma sequência geral como uma combinação de impulsos, então um sistema linear pode ser completamente caracterizado pela sua resposta ao impulso. Seja hk[n] a resposta do sistema a δ[n – k]. Assim, como:

x[ n] =



∑ x[k ]δ [n − k ] k = −∞

então ∞

y[ n] = T { ∑ x[ k ]δ [ n − k ]} k = −∞

Pelo princípio da superposição, podemos escrever:

y[ n] =





k = −∞

k = −∞

∑ x[k ]T {δ [n − k ]} = ∑ x[k ]h [n] k

De acordo com essa equação, a resposta do sistema a qualquer entrada pode ser expressa em termos da resposta a δ[n – k] (o impulso).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 78

A propriedade da invariância no tempo implica que, se h[n] é a resposta a δ[n], então a resposta a δ[n - k] é h[n – k]. Com isso, podemos dizer que: ∞

∑ x[k ]h[n − k ]

y[ n] =

k = −∞

(Eq. 4.1)

Como consequência, um sistema linear invariante no tempo é completamente descrito por sua resposta ao impulso. Essa equação é conhecida como soma de convolução (convolution sum) que pode ser representada pela notação: (Eq. 4.2)

y[n] = x[n]*h[n]

Apesar da semelhança na notação, deve-se salientar que a soma de convolução para sinais discretos não é uma aproximação da integral de convolução. Para qualquer que seja a entrada x[n] de um sistema: x[n]* δ[n] = x[n] Assim, em geral, se um sistema linear invariante no tempo tem uma resposta ao impulso h[n], então seus sistema inverso, se existir, tem resposta ao impulso hi[n] definida pela relação: h[n]*hi[n] = hi[n]*h[n] = δ[n] Uma classe importante de sistemas lineares invariantes no tempo consiste daqueles para os quais x[n] e y[n] se relacionam através de uma equação de diferenças de coeficientes constantes lineares de n-ésima ordem da forma: N

∑a k =0

M

k

y[ n − k ] = ∑ bk x[ n − k ] k =0

(Eq. 4.3)

Um exemplo de um tal sistema é um acumulador definido pela sequência cujo diagrama de blocos pode ser visto na figura abaixo:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 79

Esse sistema é representado pela equação de diferenças: y[n] = y[n – 1] + x[n] ou y[n] - y[n – 1] = x[n] Pela Eq. 4.3, temos: N = 1, a0 = 1, a1 = -1, M = 0 e b0 = 1.

4.1 Filtros Digitais

Em geral, estamos interessados em manipular o sinal. Por exemplo, podemos querer retirar algum ruído de um sinal, como no caso de um sinal de voz, onde o ruído deve ser diferenciado da voz propriamente dita. Para isso, filtros são utilizados. Filtros estão envolvidos em diversas partes de um sistema de processamento digital de sinal. Eles podem ser implementados tanto em hardware quanto em software e atuam em sinais digitais de diversas naturezas, como sons, voz, imagem ou vídeo. Em cada caso, os filtros assumem particularidades diferentes. Vamos entender um pouco como se dá o processo em sinais e, em seguida, particularizar para o caso de imagens digitais. Filtros digitais são formados por poucos componentes. Basicamente são apenas multiplicadores,

somadores

e

elementos

de

retardo

(delay).

Desses,

multiplicadores e somadores implementam essas operações aritméticas em sequências discretas. Retardos são unidades que processam elementos anteriores de uma sequência (Fig. 4.2).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 80

Fig. 4.2. Retardo (delay) aplicado a uma sequência x[n]. A representação mostrada na Fig. 4.2 em diagrama de blocos é comum para filtros. Os elementos básicos de um filtro também são representados dessa maneira. Nesse caso, o elemento de delay é representado como z-1, devido à Transformada Z. As representações em diagrama de blocos podem ser vistas na Fig. 4.3.

Fig. 4.3. Diagrama de blocos de: a) Somador de duas sequências, b) multiplicador de duas sequências, c) multiplicador de uma sequência por uma constante e d) retardo. Exemplos: 1) Podemos ver na Fig. 4.4 a representação em diagrama de blocos da equação de diferença definida por: y[n] = a1.y[n – 1] + a2.y[n – 2] + b.x[n]

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 81

cuja transformada Z (ou função de sistema) é dada por:

H (z) =

b 1 − a1 z −1 − a 2 z − 2

Fig. 4.4. Diagrama de blocos para uma equação de diferenças. 2) Uma equação de diferenças pode ser generalizada da forma: N

M

k =1

k =0

y[ n] − ∑ a k y[ n − k ] = ∑ bk x[ n − k ] com função de sistema correspondente: M

∑b z

−k

k

H ( z) =

k =0 N

1 − ∑ ak z − k

=

Y ( z) X ( z)

k =1

A função de sistema ou função de transferência corresponde à relação entre a saída e a entrada do sistema. Podemos re-escrever a equação de diferenças na forma de uma relação de recorrência:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

N

M

k =1

k =0

Página 82

y[ n] = ∑ ak y[ n − k ] + ∑ bk x[ n − k ] que pode ser representada em diagrama de blocos como na Fig. 4.5.

Fig. 4.5. Representação em diagrama de blocos de uma equação de diferenças geral. Nessa figura, temos: M

v[ n] = ∑ bk x[ n − k ] k =0 N

y[ n] = v[ n] + ∑ ak y[ n − k ] k =1

Como apresentado na Fig. 4.5, referimos a essa forma de diagrama de blocos como a Forma Direta I. Uma implementação com uma menor quantidade de retardos também pode ser utilizada e é chamada de Forma Direta II (Fig. 4.6, considerando, sem perda de generalizada, M = N).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 83

Fig. 4.6. Representação com menos retardos (Forma direta II). Os filtros são classificados em relação à sua resposta ao impulso. Nesse sentido, os filtros dividem-se em filtros FIR (Finite Impulse Response) e IIR (Infinite Impulse Response).

4.2 Filtros FIR A estrutura de um filtro FIR é bastante regular e, uma vez definidos os coeficientes, o filtro pode ser completamente especificado. Esses são os coeficientes do filtro. Na Fig. 4.7, podemos ver uma estrutura simples de um filtro FIR. Podemos observar que a passagem pelos componentes do filtro se dá sempre da esquerda para a direita. Por isso, esse filtro é chamado também de feed-forward.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 84

Fig. 4.7. Exemplo de um filtro FIR. Suponha na Fig. 4.7 que o sistema tem uma entrada x[n] = [1, 0]. Sendo um sistema causal, a entrada para n < 0 é igual a zero. Assim, para n = 0, temos:

E, para n = 1:

Logo, a saída seria y[n]=[0.5, 0.5]. A equação para cada termo é: y[0] = 0.5.x[0] + 0.5.x[-1] y[1] = 0.5.x[1] + 0.5.x[0]

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 85

Ou, de forma geral: y[n] = 0.5.x[n] + 0.5.x[n - 1] Os filtros FIR são expressos como: M

y[n] = ∑ bk x[n − k ] k =0

com função de transferência: M

H ( z ) = ∑ bk z − k k =0

A resposta ao impulso h[n] é dada por:

b h[n] =  n 0

0 ≤ n ≤ M −1 senão

e a representação em equação de diferenças é: y[n] = b0x[n] + b1x[n – 1] + ... + bN-1x[n – M + 1] Um filtro FIR pode ser representado em forma direta como:

Por simplicidade, pode-se representar um filtro FIR apenas com seus coeficientes. Por exemplo, seja um filtro FIR com coeficientes [1, -1], ele pode ser representado como:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 86

Dados os coeficientes, pode-se calcular de forma simples a saída do sistema para uma dada entrada. Considere uma entrada x[n]=[1, 2, 3, 4, 5] em um filtro com coeficientes [6, 7, 8]. A saída é dada por:

Há três importantes propriedades de um sistema: •

Causalidade



Linearidade



Invariância no tempo

Um sistema é dito causal quando ele não precisa de informações futuras para calcular a saída atual. Um sistema é linear se obedece ao princípio da superposição. Ou seja: T{a.x1[n] + b.x2[n]} = a.T{x1[n]} + b.T{x2[n]} Por último, um sistema é dito invariante no tempo se a saída do sistema reflete qualquer deslocamento que a entrada. Ou seja, se y[n] = T{x[n]}, então x[n – m] gera uma saída y[n – m]. Filtros FIR podem implementar diversas diferentes funções apenas com mudanças nos seus coeficientes. A função de um filtro depende de seu comportamento no domínio da frequência. Um filtro pode ser passa-baixa, passa-alta, passa-faixa, rejeita-faixa ou notch. Um filtro notch é um filtro que tem fendas profundas ou, idealmente, zeros perfeitos na sua resposta em frequência.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 87

Filtros notch são bastante úteis quando frequências específicas devem ser eliminadas. Isso acontece, por exemplo, quando precisamos eliminar a frequência de 60Hz (e seus harmônicos) da rede elétrica. Filtros passa-baixa ou passa-alta permitem passar baixas ou altas frequências de um sinal. As Figs. 4.8 e 4.9 apresentam exemplos simples de filtros assim.

Fig. 4.8. Exemplos de filtros passa-baixa e passa-alta ideais.

Fig. 4.9. Exemplos de filtros passa-baixa e passa-alta. Os filtros da Fig. 4.8 são filtros ideais não realizáveis. A Fig. 4.9 apresenta filtros com uma mudança mais suave da banda de passagem para a banda de corte (no FPB) e vice-versa (no FPA).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 88

Na prática, tais filtros têm características um pouco diferentes. Podemos observar ondulações e uma banda de transição mais suave. Essas características podem ser vistas na Fig. 4.10 a qual apresenta o espectro de diferentes filtros (ou seja, suas transformadas de Fourier). É através do espectro que podemos analisar o comportamento do filtro.

Fig. 4.10. Padrões de ondulação na banda de passagem ou na banda de parada e um banda de transição suave. Por exemplo, um filtro apenas com coeficientes [0,5 0,5] comporta-se como um FPB. Seu comportamento foi avaliado anteriormente, tendo sua saída definida por: y[n] = 0.5.x[n] + 0.5.x[n - 1]

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 89

que é o mesmo que y[n] = (x[n] + x[n – 1])/2. Por isso, filtros passa-baixa são chamados, às vezes, de filtro da média. Um filtro com coeficientes [0,5 -0,5] corresponde a um filtro passa-alta, chamado de filtro de diferenciação. O seguinte código no MatLab apresenta a transformada de Fourier para uma sequência de coeficientes. A Fig 4.11 apresenta os resultados para os coeficientes [0,5 0,5] e [0,5 -0,5]. x = [0.5, -0.5]; f = fft(x,8192); Freq = -5:10/8192:5-1/8192; plot(Freq, abs(fftshift(f)));

Fig. 4.11. (esquerda) Sequência [0,5 0,5] e sua transformada de Fourier (um FPB) e (direita) a sequência [0,5 -0,5] e sua transformada (um notch FPA). Vamos analisar o FPA: y[n] = (x[n] - x[n – 1])/2 Pequenas diferenças entre as amostras resultam em valores pequenos; grandes diferenças resultam em valores grandes. Assim, a resposta em frequência desse filtro deve atenuar mudanças suaves no sinal (como as relacionadas com as

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 90

baixas frequências) e enfatizar mudanças rápidas (como as relacionadas com as altas frequências). Dois outros tipos de filtros são notch e passa-faixa. Filtros notch eliminam frequências específicas. Filtros passa-faixa têm duas bandas de passagem. A Fig. 4.12 mostra exemplos desses dois filtros. Para ver como é o comportamento de um filtro, devemos ver sua resposta em frequência através da transformada de Fourier de seus coeficientes.

Fig. 4.12. (topo) filtro Notch e (baixo) filtro passa-faixa. Para ver como é o comportamento de um filtro, devemos ver sua resposta em frequência através da Transformada de Fourier de seus coeficientes. Exemplo: >> B2 = fir1(100, 0.3, 'low'); >> x = zeros (1, 1000); >> x(50) = 1; % x é um impulso >> Y2 = fft(conv(x, B2)); % apresentamos metade apenas pois o resto é simétrico >> half = 1:ceil(length(Y2)/2);

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 91

>> plot(half/max(half), abs(Y2(half)), 'b');

>> B2 = fir1(100, 0.3, 'high'); >> x = zeros (1, 1000); >> x(50) = 1; % x é um impulso >> Y2 = fft(conv(x, B2)); % apresentamos metade apenas pois o resto é simétrico >> half = 1:ceil(length(Y2)/2); >> plot(half/max(half), abs(Y2(half)), 'b');

 4.2.1 Sistemas com Fase Linear Em diversas aplicações como processamento de voz ou som, filtros digitais são usados

para

implementar

operações

seletivas

de

frequência.

Assim,

especificações são necessárias no domínio da frequência em termos de

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 92

magnitude desejada e resposta em fase do filtro. Em geral, uma resposta em fase linear na banda de passagem é desejada (Fig. 4.13).

Fig. 4.13. Exemplos de fases lineares e não-lineares. Considere um sistema LTI cuja reposta em frequência sobre um período é: Hid(ejω)=e-jωα,

|ω| < π

onde α é um número real, não necessariamente um inteiro. Esse sistema tem magnitude constante: |Hid(ejω)| = 1, fase linear ∠Hid(ejω) = -ωα e atraso de grupo constante grd[Hid(ejω)] = α A transformada inversa de Fourier de Hid(ejω) é dada por:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

1 hid [n] = 2π

π

∫ πe −

− jωα

e

jωn

1 dω = 2π

π

∫ πe

− jω (α − n )



Página 93



=

π π 1 1 1 1 e −ω ( jα − jn ) = e − jω (α − n ) = −π −π 2π j (n − α ) 2π j ( n − α )

=

1 1 [e − jπ (α − n ) − e jπ (α − n ) ] 2π j (n − α )

Sabendo que

senα = (e jα − e − jα ) / 2 , temos:

1 1 1 [e − jπ (α − n ) − e jπ (α − n ) ] = sen[π (n − α )] 2π j (n − α ) π (n − α ) hid [n] =

sen[π ( n − α )] π (n − α ) ,

-∞< n < ∞

(Eq. 1)

Assim

y[ n] = x[n] * hid [n] = x[n] *

y[n] =



∑ k = −∞

x[k ]

sen[π ( n − α )] π (n − α )

sen[π (n − α − k )] π (n − α − k )

Se α = nd, nd inteiro, pela propriedade do deslocamento do tempo da transformada de Fourier e lembrando que ℑ{δ[n]} = 1 : Hid(ejω) = e-jωnd ↔ hid[n] = δ[n – nd] Logo:

y[n] = x[ n] * δ [n − nd ] Ou seja, a mesma sequência de entrada apenas deslocada de nd amostras.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 94

De forma geral, o sistema é de fase linear se ∠Hid(ejω) = β - ωα,

-π < ω < π

Por exemplo, considere uma resposta em frequência com fase linear da forma H(ejω) = |H(ejω)|e-jωα,

|ω| < π

Suponha que H(ejω) é o filtro passa-baixa:

e − jωα , | ω |< ωc H LP (e ) =  ωc 0 1 + δ1

Exemplo: As especificações de um FPB definem as ondulações da banda de passagem em 0,25 dB e a atenuação na banda de corte em 50 dB. Determine δ1 e δ2. RP = 0,25 = -20 log10 [(1 - δ1)/(1 + δ1)] ⇒ δ1 = 0,0144 AS = 50 = -20 log10 [δ2/(1 + δ1)] ⇒ δ2 = 0,0032  Especificações semelhantes podem ser dadas para outros tipos de filtros seletores de frequência (como passa-alta ou passa-faixa).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 117

Analisaremos o problema de especificar um filtro passa-baixa e, facilmente, esses conceitos podem ser repassados para outros tipos de filtros. Nosso problema é projetar um filtro passa-baixa (i.e., obter sua função de transferência H(z) ou sua equação de diferenças) que tem uma banda de passagem [0, wp] com tolerância δ1 (ou RP in dB) e uma banda de corte [wS, π] com tolerância δ2 (ou AS in dB). A seguir, vamos projetar filtros digitais FIR. Esses filtros têm diversas vantagens de projeto e implementação: •

A resposta em fase pode ser exatamente linear;



São relativamente simples de projetar já que eles não têm problemas de estabilidade;



São eficientes para implementar;



A Transformada Discreta de Fourier pode ser usada em sua implementação.

5.1 Projeto de Filtros FIR

Tanto a aproximação quanto a implementação podem ser realizadas de diversas maneiras diferentes, com o resultado de que não existe uma solução única para o problema de projeto de filtros com um conjunto prescrito de especificações. Todavia, podemos mencionar três diferentes abordagens para o projeto de filtros analógicos e digitais: •

Abordagem analógica, a qual se aplica à classe de filtros analógicos.



Abordagem de analógico para digital, em que a motivação é projetar um filtro digital lançando mão de um projeto de filtro analógico.



Abordagem digital direta a qual se aplica à classe de filtros digitais.

Para o projeto de filtros FIR, as técnicas são divididas nas seguintes categorias: •

Projeto usando janelas

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello



Método da amostragem em frequência



Projeto equirriple ótimo



Projeto de mínimos quadrados

Página 118

5.1.1 Projeto usando janelas A ideia básica de um projeto por janelas é selecionar um filtro seletor de frequências ideal apropriado (que sempre é não-causal e de resposta ao impulso infinita) e então truncar sua resposta ao impulso em uma janela para obter um filtro FIR causal e de fase linear. Assim, o foco está na escolha de uma função de janelamento e um filtro ideal apropriados. Seja Hd(ejw) um filtro seletivo de frequência ideal que tem magnitude unitária e características de fase linear sobre sua banda de passagem, e resposta zero na banda de corte. Um filtro passa-baixa (FPB) ideal de largura de banda wc < π é dado por:

1.e − jαω , | ω |≤ ω c H d (e ) =  ω c 50   β = 0,5842( A − 21) 0,4 + 0,07886( A − 21) ,21 ≤ A ≤ 50  0 , A < 21 

Página 128

(Eq. 5.1)

Além disso, dados ∆w e A, M é aproximadamente:

M=

A−8 2,285∆w

O procedimento para projetar um filtro passa-baixa digital FIR usando a janela de Kaiser consiste nos seguintes passos: i) Estabelecer as especificações wP, wS e δ. ii) Estabelecer a frequência de corte wc do filtro passa-baixa ideal ao qual se aplicará a janela (wc = (wP + wS)/2). iii) Calcular A = 20log10 δ e ∆w = wP - wS e usar as fórmulas de Kaiser para encontrar os valores de M e β. iv) Encontra a resposta ao impulso do filtro através de h[n]=hd[n]w[n], onde w[n] é a janela de Kaiser e hd[n] = ℑ-1[Hd(ejw)]. Devido à complexidade de cálculos com funções de Bessel, o projeto dessas janelas não é fácil. A equação de w[n] definida por Kaiser tem valores encontrados empiricamente e são definidos sem prova.

Exemplo: Projetar, usando janelas de Kaiser, um filtro passa-baixa com as seguintes especificações: wP = 0,4π, wS = 0,6π e δ = 0,001. wc = (wS + wP)/2 = 0,5π ∆w = wS - wP = 0,2π A = -20log10 δ = 60 dB Como A > 50, pela Eq. 5.1: β = 0,1102(A – 8,7) ≅ 5,633

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 129

M = (A - 8)/(2,285∆w) ≅ 36,219 ⇒ M = 37 (M inteiro) A resposta ao impulso é:

h[ n] = hd [n]w[n] =

sen[ wc ( n − M / 2)] w[n] π (n − M / 2)

com w[n] dado pela definição da janela de Kaiser.  Implementações no MatLab O MatLab tem diversas funções para implementar janelas: 1. w = rectwin(M): Janela retangular 2. w = bartlett(M): Janela de Bartlett 3. w = hanning(M): Janela de Hanning 4. w = hamming(M): Janela de Hamming 5. w = blackman(M): Janela de Blackman 6. w = kaiser(M, beta): Janela de Kaiser Antes de projetarmos alguns exemplos, vamos implementar duas funções base importantes para os exemplos a seguir. Uma implementa uma resposta ao impulso ideal de um filtro passa-baixa hd[n]. A outra função implementa a plotagem no domínio da frequência, apresentando também a resposta em magnitude absoluta e em escala dB (é uma variação da função freqz do MatLab). Função 1: function hd = ideal_lp(wc, M) % Ideal low pass filter % wc = cutoff frequency % M = length of the ideal filter alpha = (M - 1)/2 n = [0:(M-1)]; m = n - alpha + eps; hd = sin(wc*m)./(pi*m);

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 130

Função 2: function [db, mag, pha, w] = freqz_m(b, a) % Versao modificada da funcao freqz [H, w] = freqz(b, a, 1000, 'whole'); H = (H(1:501))'; w = (w(1:501))'; mag = abs(H); db = 20*log10((mag + eps)/(max(mag))); pha = angle(H); Exemplo 1: Projetar um filtro passa-baixa FIR com as seguintes especificações wP = 0,2π, RP = 0,25 dB, wS = 0,3π e AS = 50 dB. Tanto a janela de Hamming quanto a de Blackman provêem atenuação de mais de 50 dB. Vamos escolher a janela de Hamming que provê a menor banda de transição e assim tem a menor ordem. wp = 0.2*pi; ws = 0.3*pi; tr_width = ws - wp; M = ceil(6.6*pi/tr_width) + 1 n = [0:M-1]; wc = (ws + wp)/2; hd = ideal_lp (wc, M); w_ham = (hamming(M))'; h = hd.*w_ham; [db, mag, pha, w] = freqz_m(h, [1]); delta_w = 2*pi/1000; Rp = -(min(db(1:wp/delta_w+1))) As = -round(max(db(ws/delta_w+1:501))) subplot(1, 1, 1) subplot (2, 2, 1); stem(n, hd); title('Resposta ao Impulso Ideal'); axis([0 M-1 -0.1 0.3]);xlabel('n');ylabel('hd[n]'); subplot (2, 2, 2); stem(n, w_ham); title('Janela de Hamming'); axis([0 M-1 0 1.1]);xlabel('n');ylabel('w[n]');

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 131

subplot (2, 2, 3); stem(n, h); title('Resposta ao Impulso Atual'); axis([0 M-1 -0.1 0.3]);xlabel('n');ylabel('h[n]'); subplot (2, 2, 4); plot(w/pi, db); title('Magnitude em dB');grid axis([0 1 -100 10]);xlabel('frequencia em pi unidades');ylabel('Decibeis'); M = 67 alpha = 33 Rp = 0,0394 As = 52



Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 132

Exemplo 2: Resolva o exemplo anterior usando uma janela de Kaiser. wp = 0.2*pi; ws = 0.3*pi; As = 50; tr_width = ws - wp; M = ceil((As - 7.95)/(14.36*tr_width/(2*pi))+1) + 1 n = [0:M-1]; beta = 0.1102*(As - 8.7) wc = (ws + wp)/2; hd = ideal_lp (wc, M); w_kai = (kaiser(M, beta))'; h = hd.*w_kai; [db, mag, pha, w] = freqz_m(h, [1]); delta_w = 2*pi/1000; As = -round(max(db(ws/delta_w+1:501))) subplot(1, 1, 1) subplot (2, 2, 1); stem(n, hd); title('Resposta ao Impulso Ideal'); axis([0 M-1 -0.1 0.3]);xlabel('n');ylabel('hd[n]'); subplot (2, 2, 2); stem(n, w_kai); title('Janela de Kaiser'); axis([0 M-1 0 1.1]);xlabel('n');ylabel('w[n]'); subplot (2, 2, 3); stem(n, h); title('Resposta ao Impulso Atual'); axis([0 M-1 -0.1 0.3]);xlabel('n');ylabel('h[n]'); subplot (2, 2, 4); plot(w/pi, db); title('Magnitude em dB');grid axis([0 1 -100 10]);xlabel('frequencia em pi unidades');ylabel('Decibeis'); M = 61 beta = 4,5513 alpha = 30 As = 52

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 133



Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 134

Exemplo 3: Vamos projetar o filtro com as seguintes especificações (conforme a figura abaixo): Borda da banda de corte mais baixa: w1s = 0,2π, As = 60 dB Borda da banda de passagem mais baixa: w1p = 0,35π, As = 1 dB Borda da banda de corte mais alta: w2s = 0,65π, As = 1 dB Borda da banda de passagem mais alta: w2p = 0,8π, As = 60 dB

Existem duas bandas de transição: ∆w1 = w1P – w1S, ∆w2 = w2S – w2P. Essas duas larguras de banda devem ser a mesma no projeto da janela; i.e., não há controle independente sobre ∆w1 e ∆w2. Assim ∆w1 = ∆w2 = ∆w1. Para esse projeto, podemos usar a janela de Kaiser ou a de Blackman. Vamos escolher a janela de Blackman. Vamos precisar também da resposta ideal ao impulso de um filtro passa-faixa hd[n]. Observe que essa resposta ao impulso pode ser obtida a partir de duas respostas em magnitude de filtros passa-baixa ideais, considerando que elas tenham a mesma resposta em fase. Isso pode ser visto na figura a seguir:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

ws1 = 0.2*pi; wp1 = 0.35*pi; wp2 = 0.65*pi; ws2 = 0.8*pi; As = 60; tr_width = min((wp1-ws1), (ws2-wp2)); M = ceil(11*pi/tr_width) + 1 n = [0:M-1]; wc1 = (ws1 + wp1)/2; wc2 = (ws2 + wp2)/2; hd = ideal_lp(wc2, M) - ideal_lp(wc1, M); w_bla = (blackman(M))'; h = hd.*w_bla; [db, mag, pha, w] = freqz_m(h, [1]); delta_w = 2*pi/1000; Rp = -(min(db(wp1/delta_w+1:wp2/delta_w))) As = -round(max(db(ws2/delta_w+1:501))) subplot (2, 2, 1); stem(n,hd); title('Resposta ao Impulso Ideal'); axis([0 M-1 -0.4 0.5]); xlabel('n'); ylabel ('hd[n]'); subplot (2, 2, 2); stem (n, w_bla); title ('Janela de Blackman'); axis ([0 M-1 0 1.1]); xlabel('n'); ylabel('w[n]'); subplot (2, 2, 3); stem(n, h); title('Resposta ao Impulso Atual'); axis([0 M-1 -0.4 0.5]);xlabel('n');ylabel('h[n]');

Página 135

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 136

subplot (2, 2, 4); plot(w/pi, db); title('Magnitude em dB');grid axis([0 1 -150 10]);xlabel('frequencia em pi unidades');ylabel('Decibeis'); M=

75

alpha = 37 Rp =

0,0030

As =

75



Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 137

Exemplo 4: A resposta em frequência de um filtro passa-faixa ideal é dada por:

0 ≤| w |< π / 3 1 ,  H e (e jw ) = 0 , π / 3 ≤| w |≤ 2π / 3 1 , 2π / 3 > a = [-64 0 0 0 0 0 1]; >> b = roots(a) b= -0.5000 -0.2500 + 0.4330i -0.2500 - 0.4330i 0.5000 0.2500 + 0.4330i 0.2500 - 0.4330i

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 157

Para termos um filtro causal e estável, usamos os pólos do semi-plano esquerdo:

H a ( s) =

1 ( s + 0,5)( s + 0,25 + j 0,433)( s + 0,25 − j 0,433)

H a (s) =

1 ( s + 0,5)( s 2 + 0,5s + 0,25)

Vamos ajustar o numerador para que o ganho na frequência zero seja unitário. Ou seja, no denominador, quando s = 0, temos: (s + 0,5)(s2 + 0,5s + 0,25) = 0,5.0,25 = 0,125 Logo, o numerador é multiplicado por um fator de 1/8 e temos:

H a ( s) =

1/ 8 0,125 = ( s + 0,5)( s 2 + 0,5s + 0,25) ( s + 0,5)( s 2 + 0,5s + 0,25)

Para transformar o filtro em digital, podemos usar o método de transformação bilinear. Nele, consideramos:

2 1 − z −1 1 + sT / 2 s= ⇒ z = T 1 + z −1 1 − sT / 2

(Eq. 5.5)

onde T é um parâmetro. Historicamente, o valor de T foi incluído porque a equação de diferenças correspondendo a H(z) pode ser obtida aplicando a regra da integração trapezoidal na equação de diferenças de H(s), com T representando o passo de integração. Dada a invariância ao impulso, o parâmetro T não tem consequência no projeto já que, no mapeamento de analógico para discreto, o efeito de T é cancelado. Logo, T pode ser escolhido de forma conveniente para cada problema. No nosso caso, seja T = 1:

1 − z −1 s=2 ⇒ H a ( z ) = H a ( s) s=21− z −1 = −1 1+ z 1+ z −1

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

H a ( z) =

Página 158

0,125 2   1 − z −1   1 − z −1   1 − z −1  2 1 + z −1 + 0,5  2 1 + z −1  + 0,5 2 1 + z −1  + 0,25       

 A transformação bilinear pode ser ligada à fórmula trapezoidal para integração numérica. Por exemplo, considere um filtro linear analógico com função de transferência:

H ( s) =

b s+a

(Eq. 5.6)

Esse sistema pode ser caracterizado também pela equação de diferenças:

dy (t ) + a. y (t ) = b.x(t ) dt Ao invés de substituir uma diferença finita pela derivada, suponha que integramos a derivada e aproximamos a integral pela fórmula trapezoidal. Assim: t

y (t ) = ∫ y ' (τ ) dτ + y (t0 ) t0

onde y’(t) denota a derivada de y(t). A aproximação da integral anterior pela fórmula trapezoidal em t = nT e t0 = nT – T leva a:

y (nt ) =

T [y ' (nT ) + y ' (nT − T )] + y (nT − T ) 2

(Eq. 5.7)

Agora, essa equação diferencial calculada em t = nT leva a:

y ' (nT ) = −a. y(nT ) + b.x( nT )

(Eq. 5.8)

Usamos a Eq. 5.8 na Eq. 5.7 e obtemos a equação de diferenças para o sistema discreto no tempo equivalente. Com y(n)≡ y(nT) e x(n)≡ x(nT), obtemos o resultado:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 159

bT  aT   aT  (x(n) + x(n − 1) ) 1 +  y ( n ) − 1 −  y ( n − 1) = 2 2 2     cuja transformada Z é

bT  aT   aT  −1 1 + Y ( z ) − 1 − z Y ( z ) = 1 + z −1 X ( z )     2  2  2  

(

)

Consequentemente, a função de transferência do filtro digital equivalente é:

Y ( z) (bT / 2)(1 + z −1 ) H ( z) = = X ( z ) 1 + aT / 2 − (1 − aT / 2) z −1 ou, equivalentemente:

H ( z) =

b 2  1 − z −1   +a −1  T 1+ z 

(Eq. 5.9)

Notadamente, comparando a Eq. 5.9 com a Eq. 5.6, ou seja, mapeando o plano s com o plano z, temos:

2  1 − z −1   s =  −1  T 1+ z  que é a chamada transformação bilinear. 2) Filtro Passa-Baixa de Chebyshev Existem dois tipos de filtros de Chebyshev. O Chebyshev do tipo I tem resposta equirriple na banda de passagem e o tipo II, na banda de corte. Os filtros Butterworth têm resposta monotônica em ambas as bandas. Lembramos que um filtro de resposta equirriple tem menor ordem. Assim, um filtro de Chebyshev tem menor ordem que um de Butterworth para as mesmas especificações. Veja o exemplo na Fig. 5.13 gerado usando o fdatool do MatLab. Nele, temos dois

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 160

filtros (um de Butterworth e um de Chebysshev tipo I) gerados sobre as mesmas condições, buscando sempre a menor ordem possível. O filtro de Butterworth tem ordem 31, enquanto o de Chebyshev I tem ordem 16. A resposta quadrática de magnitude de um filtro Chebyshev tipo I é dada por:

| H a ( jΩ ) | 2 =

1  Ω 1 + ε 2TN2   Ωc

  

onde N é a ordem do filtro, ε é o fator de ondulação da banda de passagem (Eq. 5.3) e TN(x) é o polinômio de Chebyshev dado por:

cos( N . cos −1 ( x)) , 0 ≤ x ≤ 1 TN ( x) =  −1  cosh(cosh ( x )) , 1 < x < ∞ Podemos considerar x = (Ω/Ωc). Para um filtro de Chebyshev do tipo II:

| H a ( jΩ ) | 2 =

1   Ω  1 + ε 2TN2  c   Ω  

−1

Ou seja, x = (Ω/Ωc) é substituído por seu inverso e ε2TN2(x) também.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 161

Fig. 5.13. Dois filtros com as mesmas especificações gerados como Butterworth e Chebyshev tipo I: o de Chebyshev tem menor ordem. 3) Filtro Passa-Baixa Elíptico Esses filtros apresentam ondulações na banda de passagem e de corte. São similares em magnitude a filtros FIR equirriple. São filtros ótimos no sentido que eles alcançam a menor ordem N para as dadas especificações. Esses filtros são muito difíceis de projetar e analisar. Não é possível projetá-los com ferramentas simples, sendo necessário uso de tabelas e computadores.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 162

A resposta quadrática de magnitude é dada por:

| H a ( jΩ) |2 =

1 Ω  1 + ε 2U N2  Ω  c

onde N é a ordem do filtro, ε é o fator de ondulação da banda de passagem (Eq. 5.3) e UN(x) é a função elíptica Jacobiana de ordem N. Apesar da análise complexa, o cálculo da ordem do filtro é simples e dado por: 2

N=

K (k ) K ( 1 − k1 ) K (k1 ) K ( 1 − k 2 )

onde

Ω k= P ΩS

,

k=

π /2

ε A −1 2

e

K ( x) =

∫ 0

1 1 − x sen θ 2

2



5.3 Transformações em Frequência

Como dissemos anteriormente, o projeto de filtros seletores de frequência como passa-alta, passa-faixa ou rejeita faixa, são feitos a partir de um protótipo do tipo passa baixa. A partir desse protótipo, é possível aplicar uma transformação algébrica para construir o filtro desejado. Seja HPB(Z) a função do sistema de um filtro passa-baixa dado o qual se quer transformar para obter uma nova função H(z). Observe que as variáveis complexas Z e z estão associadas ao filtro passa-baixa protótipo e ao filtro obtido pela transformação, respectivamente. O que se deseja, portanto, é uma função Z=G(z) que satisfaça:

H ( z ) = H PB ( Z ) Z −1 =G ( z −1 )

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 163

Se HPB(Z) é a função racional de um sistema causal e estável, uma exigência natural é que a função transformada H(Z) também apresente essas características. Isso implica que: 1. G(z-1) deve ser uma função racional de z-1. 2. O interior do círculo unitário do plano Z deve mapear o interior do círculo unitário do plano z. 3. O círculo unitário do plano Z deve mapear no círculo unitário do plano z. Denotando por θ e w as variáveis (ângulos) associados, respectivamente, aos planos Z e z, a transformação Z-1 = G(z-1) pode ser re-escrita como:

e − jθ = G (e − jw )

e− jθ =| G(e − jw ) | e j∠G (e

jw

)

De forma que: |G(e-jw)| = 1 e -θ= ∠G(e-jw) A forma mais geral da função G(z-1) que satisfaz às condições acima é:

Z

−1

z −1 − α k = G ( z ) = ±∏ −1 k =1 1 − α k z −1

N

onde |αk| < 1. Dependendo da escolha de N e αk, diversos mapeamentos podem ser obtidos. O mais simples é (N = 1, α1 = α):

Z

−1

z −1 − α = G( z ) = 1 − αz −1 −1

Agora, escolhendo uma ordem apropriada N e os coeficientes {αk}, podemos obter uma variedade de mapeamentos. As transformações mais comuns estão na Tabela 5.1.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 164

Nessa tabela, vale a pena comentar a transformação passa-baixa para passabaixa (primeira conversão da tabela). Isso é feito para que se possa construir um filtro passa-baixa que pode ser modificado apenas com a variação de um parâmetro: α.

5.4 Comparação entre Filtros FIR e IIR

Seja M o comprimento (número de coeficientes) de um filtro FIR de fase linear e N a ordem de um filtro elíptico (IIR). Se assumirmos que ambos os filtros atendem exatamente às mesmas especificações, os dois filtros são equivalentes e atendem à relação:

M ≅3 N Isso mostra que, para a maior parte das aplicações, filtros IIR elípticos são desejáveis do ponto de vista computacional. As condições mais favoráveis para filtros FIR são: 1. Grandes valores de δ1; 2. Pequenos valores de δ2; 3. Grande largura da banda de transição.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 165

Tabela 5.1. Transformações em frequência para filtros digitais (filtro passa-baixa protótipo tem frequência de corte em wc’).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 166

5.5 Exercícios 1. Projete um filtro passa-faixa, usando filtros passa-baixa ideais e janela de Hamming, de acordo com a seguinte resposta em frequência:

0 ≤| w |< 0,3π 1, 0, 0,3π ≤| w |< 0,4π  jw H e (e ) = 1, 0,4π ≤| w |< 0,5π 0, 0,5π ≤| w |< 0,6π  1, 0,6π ≤| w |< π AS = 50 dB e RP = 0,5 dB Plote a resposta ao impulso e a resposta em magnitude do filtro. 2. Projete um filtro passa-alta, usando filtros passa-baixa ideais e janela de Hanning, de acordo com as seguintes especificações: Frequência da Banda de corte: 0,4π Frequência da Banda de passagen: 0,6π AS = 60 dB e RP = 0,5 dB Plote a resposta ao impulso e a resposta em magnitude do filtro. Modifique o que for necessário do filtro para que as especificações sejam completamente atendidas. 3. A resposta em frequência de um filtro passa-faixa ideal é dada por:

0 ≤| w |< π / 3 0 ,  H e (e jw ) = 1 , π / 3 ≤| w |≤ 2π / 3 0 , 2π / 3 > xn = idfs(Xk, N) xn = 0 - 0i

1 - 0i

2 - 0i

3 + 0i.

Exemplo: Considere uma sequência representando uma onda quadrada periódica:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

No MatLab: >> L = 5; N = 20; k = [-N/2:N/2]; >> xn = [ones(1, L), zeros(1, N-L)]; >> Xk = dfs(xn, N); >> magXk = abs([Xk(N/2+1:N) Xk(1:N/2+1)]); % DFS magnitude >> stem(k, magXk); axis([-N/2, N/2, -0.5, 5.5]);xlabel('k'); ylabel('X[k]');

Para N = 40, temos:

Página 173

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 174

6.2 A Transformada Discreta de Fourier

Na prática, definimos a Transformada Discreta de Fourier (DFT) como o período primário da DFS. Essa DFT é a transformada de Fourier para sequências arbitrárias de duração finita. Primeiro, definimos a squência de duração finita x[n] que tem N amostras sobre 0 ≤ n ≤ N – 1 como uma sequência de N-pontos. Seja ~ x [n] um sinal periódico de período N, criado usando uma sequência de N-pontos x[n]; isto é:

~ x [ n] =



∑ x[n − rN ] r = −∞

O teorema da amostragem no domínio da frequência diz que, se x[n] é de duração finita ([0, N-1]), então N amostras de X(z) no círculo unitário determinam X(z) para todo z. Nesse sentido, N equidistantes amostras da transformada de Fourier discreta no tempo X(ejw) da sequência de N-pontos x[n] pode reconstruir unicamente X(ejw). Essas N amostras ao redor do círculo unitário são chamadas ~ de coeficientes da transformada discreta de Fourier. Seja X [k] =DFS ~ x [n], que é uma sequência periódica (e assim de duração finita). Seu intervalo primário é então a transformada discreta de Fourier, que é de duração finita. Essas noções

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 175

são claras na seguinte definição. A Transformada Discreta de Fourier de uma sequência de N-pontos é dada por:

~  X [k ], 0 ≤ k ≤ N − 1 X [k ] = DFT ( x[n]) =  senão  0, ou N −1

X [k ] = ∑ x[ n]W Nkn , n =0

0≤k≤N–1

Note que X[k] também é uma sequência de N-pontos, ou seja, ela não é definida fora do intervalo de 0 ≤ k ≤ N – 1. A transformada discreta de Fourier inversa de uma DFT de N-pontos X[k] é dada por:

x[n] = IDFT ( X [k ]) ou

1 x[n] = N

N −1

−kn X [ k ] W ∑ N , k =0

0≤n≤N–1

Novamente, x[n] não é definida fora do intervalo 0 ≤ n ≤ N – 1. A extensão de x[n] fora desse intervalo é ~ x [n]. Do início desse capítulo, fica claro que a DFS é praticamente equivalente à DFT quando 0 ≤ n ≤ N – 1. Assim a implementação da DFT pode ser feita de forma similar. Se x[n] e X[k] são organizados como vetores coluna x e X, respectivamente, então temos: X = W Nx e x = (1/N)W *NX

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 176

onde W N é a matriz DFS como antes. A implementação tanto da DFT quanto da IDFT no MatLab é igual às da DFS e IDFS que apresentamos anteriormente. Considere aquelas mesmas funções com nomes dft e idft apenas. Uma outra possível representação da transformada discreta de Fourier é a forma retangular que se utiliza da relação de Euler. A relação de Euler é dada por ejθ = cosθ + jsenθ . A DFT pode ser escrita então da seguinte forma:

  2πmn   2πmn  X [ m] = ∑ x[n]cos  − jsen   N  n =0   N  N −1

lembrando que j = √−1. Este é um conceito abstrato conveniente para nos ajudar a comparar a relação de fase entre várias componentes senoidais do sinal. A DFT apresenta algumas propriedades que são muito úteis no processamento digital de sinais, como: simetria, linearidade, deslocamento no tempo e frequência, entre outras. Fora a simetria, as outras propriedades são comuns à transformada de Fourier de tempo contínuo.

6.3 Propriedades da Transformada Discreta de Fourier 1) Linearidade Dadas duas sequências periódicas com período N, x1[n] e x2[n], e suas respectivas DFTs X1[k] e X2[k], então: a.x1[n] + b.x2[n] ↔ a.X1[k] + b.X2[k] Obs: Se x1[n] e x2[n] são sequências de durações diferentes (N1-pontos e N2pontos, por exemplo), escolha N3 = max(N1, N2). Se, por exemplo, N1 < N2, então X1[k] é a DFT de x1[n] aumentada de (N2 – N1) zeros. 2) Deslocamento de uma sequência Seja x[n] uma sequência periódica com coeficientes de Fourier X[m]. Assim:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 177

x[n – m] ↔ W NkmX[m] 3) Dualidade Se

x[n] ↔ X[k]

então

X[n] ↔ N.x[-k]

4) Simetria A simetria pode poupar muito esforço computacional. Quando a sequência do sinal for real, então X[N − m]* = X[m]. Ou seja, basta que calculemos as componentes de X[m] para 0 ≤ m ≤ N/2 . Prova: N −1

X [ k ] = ∑ x[ n]e

−j

2π kn N

n=0

Logo *

*

2π 2π 2π − j n ( N −m )  − j nN j nm   N −1  N −1 N N X [ N − m] = ∑ x[ n]e e N   = ∑ x[ n]e  n= 0   n= 0  *

*

2π j nm   N −1 * − j 2πn X [ N − m] = ∑ x[ n]e e N   n =0 

onde e-j2πk = cos(2πn) - jsen(2πn) = 1 – j.0 = 1. Assim: *

2π j nm   N −1 * X [ N − m] = ∑ x[n]e N   n= 0 

Se x[n] for real: N −1

X [ N − m] = ∑ x[n]e *

−j

2π nm N

= X [ m]

n =0

5) Convolução Periódica N −1

∑ x [ m ] x [ n − m] ↔ X [ k ] X 1

m =0

2

1

2

[k ]

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 178

onde o lado esquerdo da igualdade é conhecido como convolução, representado por x1[n]*x2[n]. É importante observar que o somatório ocorre no intervalo 0 ≤ m ≤ N-1. O valor de x2[n – m] se repete periodicamente fora desse intervalo. Exemplo: >> n = 0:99; >> fs = 200; >> Ts=1/fs; >>x=cos(2*pi*20*n*Ts + pi/4) + 3*cos(2*pi*40*n*Ts - 2*pi/5) + 2*cos(2*pi*60*n*Ts + pi/8); >> X = fft(x); >> m = 0:length(X) - 1; >> subplot(3, 1, 1); stem(x); xlabel('n');ylabel('x(n)');title('Sequencia'); >> subplot(3, 1, 2); stem(m*fs/length(X), abs(X), 'b'); ylabel('magnitude'); >> xlabel('frequencia (Hz)'); title('Magnitude da Resposta em Frequencia'); >> subplot(3,1,3); stem(m*fs/length(X), angle(X), 'b'); ylabel('Angulo'); >> xlabel('frequencia (Hz)'); title('Fase');

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 179

Observe que, como o sinal x[n] é real, a magnitude da resposta em frequência apresenta uma imagem refletida. Assim, precisamos apenas da primeira metade dela. Para a fase, o padrão também aparece refletido no eixo da frequência; novamente, só precisamos de metade da plotagem. Para a questão da magnitude podemos fazer: >> half_m = 0:ceil(length(X)/2); >> stem(half_m*fs/length(X), abs(X(half_m + 1)), 'b'); >> ylabel('magnitude'); >> xlabel('frequencia (Hz)'); title('Magnitude da Resposta em Frequencia');

6.4 A Transformada Discreta Bi-Dimensional de Fourier

Para duas dimensões, a DFT e sua inversa podem ser vistas como:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 180

Essa é a forma como a transformada é calculada para imagens digitais, por exemplo. Se considerarmos uma imagem em níveis de cinza onde o valor 0 corresponde à ausência de cor (o preto) e o valor 1 corresponde ao valor máximo da cor (o branco), a imagem abaixo:

Pode ser vista como uma figura tridimensional, cuja visão em perspectiva seria como na figura:

que é uma versão tridimensional da função porta. Dessa forma, a transformada também é uma função sample, mas também tridimensional:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 181

Uma propriedade importante da DFT aplicada a imagens é sua sensibilidade à rotação. Por exemplo, considere a figura abaixo e sua DFT:

Se for imposta uma rotação à imagem, a transformada guardará a informação da inclinação inicial, podendo ser possível encontrar o ângulo de rotação da imagem. Por exemplo, na figura a seguir, foi imposta uma rotação de 45º à imagem da figura acima. Veja o resultado da DFT como apresenta a inclinação.

6.5 O Espectrograma

O espectrograma apresenta a densidade espectral do sinal ao longo do tempo. Em processamento de voz, o espectrograma é usado para identificar fonemas

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 182

no sinal. A forma mais comum de representarmos um espectrograma é através de um gráfico bi-dimensional onde a abscissa corresponde ao tempo e a ordenada à frequência. Uma terceira dimensão indica a amplitude de cada frequência e é normalmente associada a uma cor. Com isso, o espectrograma pode ser visto como uma imagem. Normalmente, espectrogramas são gerados através do cálculo do quadrado da magnitude da STFT (Short-Time Fourier Transform – Transformada de Fourier de Tempo Curto) do sinal. Ou seja, Espectrograma(t, ω) = |STFT(t, ω)|2 Exemplo: Considere o sinal de voz abaixo. Nele está sendo dito: “jessica brown”. O som foi gerado por uma voz feminina, com ruído de fundo. Arquivo phrase59_16k.wav, da pasta Enroll_Session1 -> f16 -> female_list_4a (base TIMIT do MIT). Em seguida, apresentamos seu espectrograma. No padrão de cores do MatLab, as cores vermelha e amarela correspondem a picos (o que indica alta densidade da frequência), enquanto os tons azuis correspondem a valores baixos. Há um ruído no início da gravação.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 183

A função usada para gerar esse espectrograma pode ser vista abaixo: % read the signal [y,fs]=wavread('phrase59_16k.wav'); % calculate the table of amplitudes [B,f,t]=specgram(y,1024,fs,256,192); % calculate amplitude 50dB down from maximum bmin=max(max(abs(B)))/300; % plot top 50dB as image imagesc(t,f,20*log10(max(abs(B),bmin)/bmin)); % label plot axis xy; xlabel('Time (s)'); ylabel('Frequency (Hz)'); colormap(jet); (fonte: http://www.phon.ucl.ac.uk/courses/spsci/matlab/lect9.html) As figuras a seguir mostram as mesmas palavras ditas pela mesma mulher, mas com outro tipo de microfone. Observe as diferenças mais visíveis no espectrograma.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 184

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 185

6.6 Exercícios 1. Determine os coeficientes da DFS das seguintes sequências periódicas, usando a definição de DFS: a) x1[n] = {2, 0, 2, 0}, N = 4 b) x2[n] = {0, 0, 1, 0, 0}, N = 5 c) x3[n] = {3, -3, 3, -3}, N = 4 d) x4[n] = {j, j, -j, -j}, N = 4 2. Determine as sequências periódicas, dados os seguintes coeficientes DFS, usando a definição de IDFS: a) X1[k] = {5, -2j, 3, 2j}, N = 4 b) X2[k] = {4, -5, 3, -5}, N = 4 c) X3[k] = {1, 2, 3, 4, 5}, N = 5 d) X4[k] = {0, 0, 2, 0}, N = 4 3. Seja x1[n] periódica com período fundamental N = 50, onde um período é dado por:

ne−0,3n , 0 ≤ n ≤ 25 x1[n] =  26 ≤ n ≤ 49  0, e seja x2[n] periódica com período fundamental N = 100, onde um período é dado por:

ne−0,3n , 0 ≤ n ≤ 25 x21[n] =  26 ≤ n ≤ 99  0, a) Encontre DFT{x1[n]} e plote (usando a função stem) os gráficos de sua magnitude e de sua fase. b) Encontre DFT{x2[n]} e plote (usando a função stem) os gráficos de sua magnitude e de sua fase. c) Qual a diferença entre as duas plotagens?

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 186

4. Nas questões abaixo, para cada função, plote a magnitude e a fase de sua DFT (crie as funções no MatLab): a) Dente de serra:

b) Onda quadrada



Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 187

6.7 Bibliografia Complementar 1. Vinay K. Ingle, John G. Proakis, Digital Signal Processing, Thomson Learning, 2000. 2. Michael Weeks, Digital Signal Processing Using MatLab and Wavelets, Infinity Science Press, 2007. 3. Alan V. Oppenheim, Ronald Schafer, Discrete Time Signal Processing, Prentice Hall, 1989

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 188

7. Transformada Rápida de Fourier (FFT- Fast Fourier Transform) Embora a DFT seja o melhor procedimento matemático para determinar o conteúdo espectral de uma sequência no domínio do tempo, ela é muito ineficiente. Em 1965, um artigo foi publicado por J.W.Cooley e J.W.Tukey descrevendo um algoritmo eficiente para implementação da DFT, este algoritmo ficou conhecido como Transformada rápida de Fourier (FFT). Antes do advento da FFT, a DFT com muitos pontos estava restrita a grandes centros de pesquisas. Graças a Cooley e Tukey, e a indústria dos semicondutores, DFTs com 1024 pontos podem ser calculadas em apenas alguns segundos em computadores pessoais. O esforço computacional pode ser definido como o número máximo de operações elementares necessárias para resolver o problema. No caso da DFT, pode-se tratar da complexidade multiplicativa e complexidade aditiva i.e., número de multiplicações ponto flutuante (respectivamente adições) necessárias para calculá-la. Tradicionalmente tem-se usado apenas a complexidade multiplicativa como o parâmetro mais importante. A FFT foi implementada com o objetivo de diminuir complexidade (temporal) necessária para calcular uma DFT (Transformada Discreta de Fourier), visando aplicações em tempo real.Para uma sequência de N pontos, o algoritmo comum para cálculo da DFT realiza N2 multiplicações, enquanto o algoritmo FFT realiza apenas (N/2)log2N. A FFT usa um número reduzido de operações aritméticas para calcular a DFT em relação ao seu cálculo direto. As primeiras aplicações práticas da FFT usando computação digital foram resultantes de manipulações da DFT.

7.1 Algoritmos Rápidos

Existem diversos algoritmos para executar computações. Por exemplo, há diversos algoritmos dedicados à ordenação de uma sequência. O que difere esses algoritmos é o tempo de resposta deles ou a chamada complexidade do

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 189

algoritmo. No entanto, a análise de complexidade de um algoritmo não considera detalhes de implementação. Nesse sentido, os algoritmos rápidos propõem modificações na forma de resolver algum problema a fim de conseguir um ganho de tempo de processamento. Isso pode não afetar a complexidade do algoritmo, mas deve diminuir seu tempo de processamento. Claro, há condições específicas para que isso ocorra. Casos onde essas condições não são atendidas podem provocar até um aumento no tempo de processamento. A busca por soluções rápidas deve ser constante no desenvolvimento de um algoritmo. Por exemplo, considere a computação da variável A dada por: A = a.c + a.d + b.c + b.d Esse cálculo direto leva o programa a executar 4 multiplicações e 3 adições. Essa expressão, no entanto, pode ser simplificada para: A = (a + b).(c + d) provocando uma redução das operações para apenas 1 multiplicação e 2 adições. Em geral, a multiplicação é o elemento de maior custo considerado. Observamos que essa expressão é equivalente à primeira, apenas executando menos operações aritméticas. Um outro exemplo menos trivial é o cálculo de uma multiplicação complexa. O produto complexo: (e + jf) = (a + jb).(c + jd) é definido por: e = (ac – bd) f = (ad + bc) exigindo 4 multiplicações e duas adições. Um algoritmo mais eficiente calcula:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 190

e = (a – b)d + a(c – d) f = (a – b)d + b(c + d) tendo 3 multiplicações apenas. O aumento na quantidade de adições não prejudica o desempenho do algoritmo já que a multiplicação é o elemento mais custoso.

7.2 Algoritmo de Cooley-Tukey ou Decimação no Tempo

J.W.Cooley (IBM) em colaboração com J.W.Tukey (Bell Labs) conseguiram uma revolução maior no tratamento digital de sinais em 1965 com a publicação da transformada rápida de Fourier, a FFT. Trata-se de um método engenhoso e altamente eficiente de reagrupar os cálculos dos coeficientes de uma DFT. A idéia é representar uma DFT de tamanho arbitrário N = N1.N2 em termos de DFTs menores de tamanhos N1 e N2, procedendo recursivamente. Lembrando que os coeficientes da DFT são definidos por: N −1

X (k ) = ∑ x[n](e n =0

N −1

) = ∑ x[n]WNkn

− j 2 π / N kn

n =0

(Eq. 7.1)

onde k = 0, 1, 2, ...., N – 1. Calculada assim diretamente, a DFT requer O(N2) operações. A idéia do algoritmo de Cooley-Tukey é dividir a sequência x[n] em duas sequências: uma com os coeficientes de índice par e outra com os coeficientes de índice ímpar. Como a quebra é em duas sequências, o algoritmo é conhecido também como Radix-2. Algoritmos no qual a sequência é decomposta sucessivamente em sequências menores são chamados de algoritmos de decimação em tempo. O princípio do algoritmo de decimação em tempo pode ser analisado considerando que N é um inteiro potência de 2, i.e., N = 2v. Como N é um inteiro

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 191

par, podemos considerar calcular X(k), separando x[n] em duas sequências de N/2 pontos, consistindo dos pontos de índice par em x[n] e os pontos de índice ímpar em x[n]. Como X(k) é dado pela Eq. 7.1, separando x[n] no pontos de índice par e ímpar:

X (k ) =



∑ x[n]W

x[n]WNnk +

n _ par

nk N

n _ ímpar

Substituindo as variáveis n = 2r para n par e n = 2r + 1 para n ímpar:

X (k ) =

N / 2−1

∑ x[2r ]W

2 rk N

+

N / 2−1

r =0

X (k ) =

N / 2−1

∑ x[2r + 1]W

( 2 r +1) k N

(Eq. 7.2)

r =0

∑ x[2r ](W

) +W

2 rk N

r =0

N / 2 −1 k N

∑ x[2r + 1](W r =0

2 rk N

)

(Eq. 7.3)

Mas W N2 = W N/2 já que: W N2 = e-2j(2π/N) = e-2j(π/(N/2)) = W N/2 Consequentemente, a Eq. 7.3 pode ser escrita como:

X (k ) =

N / 2−1

∑ x[2r ]W

rk N/2

+W

r =0

X (k ) = G[k ] +WNk H [ k ]

N / 2−1 k N

∑ x[2r + 1]W

rk N /2

r =0

(Eq. 7.4)

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 192

Cada parcela na Eq. 7.4 é reconhecida como uma DFT de N/2 pontos, sendo a primeira parcela uma DFT de N/2 pontos dos pontos de índice par da sequência original e o segundo termos uma DFT de N/2 pontos dos pontos de índice ímpar da sequência original. A Fig. 7.1 apresenta um diagrama de fluxo do cálculo de uma DFT de 8 pontos.

Fig. 7.1. Decimação no tempo de uma DFT de N-pontos (N = 8) computada em duas DFTs de N/2 pontos. Na Fig. 7.1 duas DFTs de 4 pontos são calculadas, com G[k] designando a DFT de 4 pontos dos termos de índice par e H[k] designando a DFT de 4 pontos dos termos de índice ímpar. Na saída, X[0] é obtido multiplicando H[0] por W N0 e somando o produto com G[0]. X[1] é obtido multiplicando H[1] por W N1 e somando o resultado com G[1]. Para calcular X[4] deveríamos multiplicar H[4] por W N4 e somar o resultado com G[4]. Contudo, como G[k] e H[k] são

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 193

periódicas em k com período 4 (nesse caso), H[4] = H[0] e G[4] = G[0]. Assim, H[4] é obtido multiplicando h[0] por W N4 e somando o resultado com G[0]. Os outros valores são obtidos de forma similar. Com a computação re-estruturada de acordo com a Eq. 7.4, podemos analisar a complexidade desse novo método e comparar com o algoritmo clássico da DFT. A computação direta da DFT requer N2 multiplicações complexas e adições. A Eq. 4 requer o cálculo de duas DFTs de N/2 pontos o que significa 2(N/2)2 multiplicações complexas e o mesmo número de adições, se usarmos o método clássico para calcular cada DFT dessas. Então as duas DFTs de N/2 pontos devem ser combinadas precisando N multiplicações complexas, correspondendo a multiplicar H[k] pelo twiddle e N adições complexas para somar G[k] com o resultado desse produto. Assim, a computação da Eq. 6.4 para todos os valores de k requer, no máximo: N + 2(N/2)2 = N + N2/2 multiplicações complexas e adições. Para N> 2, esse valor é menor que as N2 operações necessárias pela DFT clássica. A Eq. 7.4 corresponde a quebrar a computação da DFT de N-pontos em duas DFTs de N/2 pontos. Se N/2 é par, o que acontece quando N é igual a uma potência de 2, podemos considerar calcular cada DFT de N/2 pontos usando o mesmo método. Assim, cada uma será quebrada em duas DFTs de N/4 pontos. Com isso, G[k] e H[k] serão dados por:

G[ k ] =

N / 4 −1

∑ g[2l ]W

lk N /4

+W

N / 4−1 k N /2

l =0

H [k ] =

lk N/4

(Eq. 7.5)

lk N /4

(Eq. 7.6)

l =0

N / 4−1

∑ h[2l ]W

lk N /4

l =0

∑ g[2l + 1]W

+W

N / 4 −1 k N/2

∑ h[2l + 1]W l =0

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 194

Consequentemente, a DFT de N/2 pontos G[k] pode ser obtida combinando as DFTs de N/4 pontos das sequências g[2l] e g[2l + 1]. O mesmo acontecendo com o cálculo de H[k]. Assim, se as DFTs de 4 pontos da Fig. 7.1 forem calculadas de acordo com as Eqs. 7.5 e 7.6, então o cálculo aconteceria como na Fig. 7.2. Inserindo a computação da Fig. 7.2 no diagrama de fluxo da Fig. 7.1, obtemos o diagrama completo da Fig. 7.3, onde expressamos os coeficientes em termos de potências de W N ao invés de WN/2, considerando que W N/2 = W N2.

Fig. 7.2. Gráfico de fluxo da decimação em tempo de uma DFT de N/2 pontos em duas DFTs de N/4 pontos (para N = 8).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 195

Fig. 7.3. Fluxo completo do cálculo da DFT de 8 pontos, sendo dividida em 4 de N/4 pontos. Para a DFT de 8 pontos que estamos usando como exemplo, a computação foi reduzida a DFTs de 2 pontos. A DFT de 2 pontos para, por exemplo, x[0] e x[4] é detalhada na Fig. 7.4.

Fig. 7.4. Detalhe do cálculo de uma DFT de 2 pontos. Para o caso geral, mas ainda considerando N como potência de 2, podemos continuar com a decomposição da DFT de N/4 pontos em duas de N/8 pontos e continuarmos até que só restem DFTs de 2 pontos. Como em uma árvore, esse

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 196

processo requer v estágios, onde v = log2N. Anteriormente, calculamos a quantidade de operações executadas para uma DFT usando uma única decimação em tempo (uma única quebra) e chegamos a N + 2(N/2)2 = N + N2/2. Quando temos uma decomposição de uma DFT de N/2 pontos e duas de N/4 pontos, o fator (N/2)2 é substituído por N/2 + 2(N/4)2, assim, a computação total requer: N + N + 4(N/4)2 multiplicações complexas e adições. Se N = 2v, isso pode ser feito no máximo v = log2N vezes. Assim, se fizermos a decomposição o maior número de vezes possível, temos uma quantidade total de multiplicações complexas e adições igual a N.log2N. Todo o processo ainda pode ser mais simplificado se explorarmos a simetria e periodicidade dos coeficientes W Nr. Primeiro, podemos observar que a passagem de um estágio para o outro na Fig. 7.3 tem uma computação básica como mostrada na Fig. 7.5. Ou seja, ela envolve a obtenção de um par de valores de um estágio a partir de um par de valores do estágio anterior, onde os coeficientes são sempre potências de W N e os expoentes são separados por N/2. Por causa de sua forma, essa computação é chamada de butterfly. Como: W NN/2 = e-j(2π/N)N/2 = e-jπ = -1 o fator W Nr+N/2 pode ser escrito como: W Nr+N/2 = W NN/2.W Nr = -W Nr Com isso em mente, o cálculo da butterfly da Fig. 7.5 pode ser simplificado para a forma da Fig. 7.6 que requer apenas uma multiplicação complexa ao invés de duas.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 197

Fig. 7.5. Gráfico de fluxo de uma computação butterfly.

Fig. 7.6. Gráfico de fluxo de uma computação butterfly simplificada. Em termos práticos, para desenvolver o cálculo apresentado na Fig. 7.3, poderíamos usar dois arrays: um para o array sendo computado e outro para o array usado na computação. Vamos denotar a sequência de números complexos resultante do m-ésimo estágio como Xm[l], onde l = 0, 1, ..., N-1, e m=1, 2, ...., v. Além disso, vamos definir o conjunto de amostras de entrada como X0[l]. Podemos pensar em Xm-1[l] como o array de entrada e Xm[l] como o array de saída do m-ésimo estágio. Assim, para o caso de m = 8 como na Fig. 7.3: X0[0] = x[0] X0[1] = x[4] X0[2] = x[2] X0[3] = x[6] X0[4] = x[1] X0[5] = x[5]

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 198

X0[6] = x[3] X0[7] = x[7] Usando essa notação, podemos legendar a entrada e a saída do butterfly da Fig. 7.6, como indicado na Fig. 7.7, de acordo com as seguintes equações:

(Eqs. 7.7) que podem ser re-escritas como:

(Eqs. 7.8)

Fig. 7.7. Gráfico de fluxo das Eqs. 7.8. Pelas equações 7.8 e pela Fig. 7.3, está claro que apenas o passo m-1 é necessário estar armazenado para poder calcular os valores do array no passo m. Esse tipo de computação é chamado de computação in-place. É importante observar também, pela Fig. 7.3, que a sequência de entrada é acessada de uma maneira não-sequencial. De fato, a ordem no qual os dados de entrada são armazenados e acessados é chamada de ordem bit-reverso. Para entendermos essa terminologia, a DFT de 8 pontos que vimos usando como exemplo precisa de 3 bits para armazenar os índices dos dados.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 199

Escrevendo esses índices na forma binária, obtemos o seguinte conjunto de equações: X0[000] = x[000] X0[001] = x[100] X0[010] = x[010] X0[011] = x[110] X0[100] = x[001] X0[101] = x[101] X0[110] = x[011] X0[111] = x[111] Se (n2, n1, n0) é a representação binária do índice da sequência x[n], então o valor da sequência x[n2, n1, n0] é armazenado no array na posição X0[n0, n1, n2], invertendo os bits do índice n. Essa ordenação em subsequências de índices pares e ímpares é apresentada no diagrama em árvore da Fig. 7.8. Outra forma de melhorar o desempenho do cálculo da DFT é através da subdivisão da sequência de saída. Esses algoritmos são chamados de algoritmos de decimação em frequência. Todo o processo é bem semelhante à decimação em tempo.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 200

Fig. 7.8. Diagrama em árvore apresentando a ordenação bit-reverso

Fig. 7.9. Diagrama final de uma DFT de 8 pontos

Fig. 7.10. Diagrama da DFT de 8 pontos usando computação butterfly

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 201

7.3 Outras FFTs

Existem diversas variações no algoritmo da FFT. O algoritmo de Cooley-Tukey ou de decimação no tempo re-arranja os elementos de entrada e depois constrói a saída em log2N iterações. Também é possível derivar algoritmos de FFT que primeiro desenvolvam um conjunto de log2N iterações nos dados de entrada e re-arranje os valores de saída em ordem reversa de bits. Tais algoritmos são chamados de decimação em frequência ou algoritmos de FFT de Sande-Tukey. Para algumas aplicações, como a convolução, os dados são convertidos para o domínio da frequência e depois de volta ao domínio do tempo. Nesses casos, é possível evitar todo o reverso dos bits. Outra classe de FFTs sub-dividem o conjunto de dados inicial de comprimento N em conjunto menores de tamanho proporcional a potências de 2, por exemplo, N = 4, FFTs de base 4, ou N = 8, FFTs de base 8. Essas transformações são feitas por seções de códigos otimizadas que usam características de simetria desses valores de N. Por exemplo, para N = 4, os senos e cossenos são todos ±1 ou 0, eliminando muitas multiplicações, deixando mais adições e subtrações. A melhoria de desempenho em relação a FFTs mais simples é de cerca de 20 a 30%. Existem também algoritmos de FFT que atuam em conjuntos de comprimento N que não é potência de 2. Eles trabalham usando relações análogas ao lema de Danielson-Lanczos

para

sub-dividir

o

problema

inicial

em

problemas

sucessivamente menores, não por potências de 2, mas por qualquer primo pequeno que divida N. Quanto maior for o maior fator primo de N, pior o método funciona. Se N é primo, então nenhuma sub-divisão é possível e o usuário termina usando uma FFT com complexidade O(N2) ao invés de O(N.log2N). Deve-se ficar atento a esse tipo de implementação. Algoritmos de Winograd são de certa forma análogos às FFTs de base 4 e 8. Winograd derivou códigos altamente otimizados para atuar em DFTs de N

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 202

pequeno, e.g., para N = 2, 3, 4, 5, 7, 8, 11, 13, 16. Os algoritmos também usam um método mais eficiente para combinar os sub-fatores. O método envolve uma re-ordenação de dados antes e depois do processamento, conseguindo uma grande redução no número de multiplicações do algoritmo. Para valores de N da ordem de potências de 2, o algoritmo de Winograd pode ser mais rápido que algoritmos mais simples de FFT. Essa vantagem deve ser analisada com cuidado já que o método torna bastante mais complicada a indexação dos dados envolvidos na transformada. Finalmente, uma classe interessante de transformadas para gerar convoluções mais rápidas são as transformadas baseadas em teoria dos números. Esses esquemas substituem a aritmética de ponto-flutuante por uma aritmética de inteiros módulo algum valor primo grande N. De fato, esses métodos não são transformadas de Fourier em absoluto, mas suas propriedades são similares e a velocidade computacional pode ser muito superior.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 203

7.4 Exercícios 1. Dada a equação abaixo para a transformada discreta do cosseno, apresente como ficaria sua implementação usando o algoritmo rápido de decimação no tempo.

 π ( 2n − 1)( k − 1)  y ( k ) = w( k ) ∑ x( n ) cos , 2N   n =1 N

k = 1, ...., N

Onde:

  w( k ) =   

1 k 2 N

k =1 2≤k ≤ N 

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 204

7.5 Bibliografia Complementar 1. Michael Weeks, Digital Signal Processing Using MatLab and Wavelets, Infinity Science Press, 2007. 2. Alan V. Oppenheim, Ronald Schafer, Discrete Time Signal Processing, Prentice Hall, 1989

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 205

8. Análise Wavelet Em 1807, Joseph Fourier propôs sua análise de frequência em sinais. Através dessa análise, um sinal no domínio do tempo poderia ser convertido para o domínio da frequência e vice-versa. Dessa forma, características do sinal podem ser observadas de uma maneira mais apropriadas. A transformada de Fourier é definida como: ∞

F (ω ) =



f (t )e − j 2πωt dt

−∞

(Eq. 8.1)

sendo a transformada inversa:

1 f (t ) = 2π



j 2 πωt F ( ω ) e dω ∫

(Eq. 8.2)

−∞

A Transformada de Fourier representa no domínio da frequência uma função do domínio do tempo. A representação no domínio do tempo especifica uma função, em cada intervalo de tempo, enquanto que a representação no domínio da frequência especifica as amplitudes relativas das componentes de frequência da função. Por exemplo, na Fig. 8.1, a transformada de Fourier da função porta é a chamada função sample (sen(x)/x).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 206

Fig. 8.1. Exemplo de transformada de Fourier. Lembrando que ejw = sen(w) + j.cos(w), a transformada de Fourier representa um sinal como uma série de senos e cossenos. O problema é que a transformada considera o sinal todo. A transformada não é sensível a mudanças de frequência no sinal. Assim, ela é apropriada para os chamados sinais estacionários: sinais cuja frequência não muda com o tempo. O problema é que os sinais reais são não-estacionários. Assim, nesses casos, a transformada de Fourier torna-se inútil. A Fig. 8.2 apresenta a representação de dois sinais: um estacionário e outro não. Uma solução para esse problema foi sugerida por Gabor em 1946. Ao invés da transformada de Fourier ser aplicada a todo o sinal, ela atuaria apenas em partes dele. O sinal passaria a ser visto em janelas e a transformada seria calculada em cada janela. A esse processo chamou-se de Transformada de Fourier de Tempo Curto (Short-Time Fourier Transform). O sinal passa a ser considerado apenas na porção que está sob a janela, sendo todo o restante desconsiderado nesse momento. Dentro da janela, considera-se que o sinal tem comportamento estacionário (Fig. 8.3).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 207

Fig. 8.2. Exemplo de um sinal estacionário e um não-estacionário.

Fig. 8.3. Transformada de Fourier de Tempo Curto A aplicação de janelas a um sinal é uma prática comum, usada bastante em processamento digital de voz. O problema associado ao uso dessa técnica está quanto ao tamanho da janela. No caso da Transformada de Fourier de Tempo Curto, a janela tem tamanho invariante durante todo o processamento. Assim,

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 208

uma janela pequena pode trazer pouca informação sobre o sinal e exige muito processamento. Já uma janela grande pode aumentar o erro na consideração de estacionaridade do sinal. Nesse sentido, o próximo passo natural na evolução das transformadas é a aplicação de uma transformada em uma janela de tamanho variável. Essa é a idéia básica da Transformada Wavelet. As janelas podem atuar em intervalos maiores quando queremos informações mais precisas sobre baixas frequências ou em intervalos menores quando queremos informações mais precisas sobre altas frequências (Fig. 8.4).

Fig. 8.4. Transformada Wavelet

8.1 A Transformada Wavelet

A função da transformada Wavelet contínua é dada por:

(Eq. 8.3) Nessa equação, s atua como fator de escala e τ atua como fator de translação (deslocamento) da janela; ψ é uma função conhecida como a wavelet mãe. Essa função é aplicada sobre a função em análise (x(t)), em janelas (cuja posição é definida pelo deslocamento τ) e com dimensões diferentes (definidas pelo fator de escala s). Variações nessa função criam as chamadas famílias de wavelets. A primeira família de wavelets é a Haar criada na tese de Alfred Haar ainda em 1909 sem o propósito atual das Wavelets.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 209

A Eq. 8.3 pode ser vista como uma forma geral da transformada que pode variar, dependendo da função assumida por ψ. Dessa forma, podemos entender a transformada de Fourier como um caso particular da transformada Wavelet com a wavelet mãe sendo a função exponencial. Existem condições que definem uma função como passível de ser wavelet, como veremos posteriormente. O nome wavelet é a versão em inglês para o termo original ondeletteque significa “pequena onda” como referência ao deslocar da onda por todo o sinal desde escalas pequenas. O termo também referencia o fato da janela ter comprimento finito. A wavelet mãe é a função que analisa o sinal, efetivamente. Todas as janelas são versões expandidas ou comprimidas e deslocadas dessa função. O fator de escala afeta o sinal de forma que:



Se s>1, então o sinal é expandido;



Se s> [som, Fz] = wavread(‘a_casa.wav’); >> plot (som); >> [cA1, cD1] = dwt(som, 'db1'); >> % reconstrução >> l_s = length(som); >> A1 = idwt(cA1,[ ],'db1',l_s); >> D1 = idwt([ ],cD1,'db1',l_s); >> subplot(2,1,1); plot(A1); title('Aproximacao A1'); >> subplot(2,1,2); plot(D1); title('Detalhes D1');

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Plotagem do sinal de voz:

Plotagem das aproximações e detalhes:

Recuperação do sinal: >> A0 = idwt(cA1,cD1,'db1',l_s); >> err = max(abs(som-A0)) err = 1.1102e-016 >> plot (A0);

Página 222

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 223

No wavemenu, selecione Wavelet 1-D, carregue o arquivo a_casa.wav e clique em analyze com uma wavelet haar e 5 níveis de decomposição. O resultado está apresentado abaixo:

Podemos visualizar a árvore de decomposição e o resultado final da reconstrução comparando com o arquivo original na próxima imagem:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 224

Para imagens, podemos usar o comando Wavelet 2-D do wavemenu. Carregando a imagem lena.bmp e processando com uma db1 com 5 níveis de decomposição, temos a janela apresentada na próxima figura e detalhada nas seguintes.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 225

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Imagem original

Imagem sintetizada

Página 226

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 227

8.5 Exercícios 1. a) Verifique se os coeficientes a = (1-√3)/(4√2), b = (3-√3)/(4√2), c = (3+√3)/(4√2) e d = (1+√3)/(4√2) podem ser coeficientes de uma wavelet de Daubechies. b) Use esses coeficientes para filtrar a sequência: x[n] = {8, 4, 0, 6, 3, 7, 2, 9} de acordo com o filter banks da figura desta questão. c) Agora, acrescente o downsampling antes das saídas z[n] e w[n] e um upsampling após o processamento dessas saídas (antes da soma que gera y[n]). Qual o erro entre a resposta da letra anterior e desta em relação à saída?

2. Para os coeficientes de filtros abaixo, use o MatLab para plotar a resposta em frequência. Determine se os coeficientes correspondem a filtros passa-baixa, passa-alta ou passa-faixa: a) {-0.0884, 0.08840, 0.7071, 0.7071, 0.0884, -0.0884} b) {-0.1294, 0.2241, 0.8365, 0.4830} c) {-0.4830, 0.8365, -0.2241, -0.1294}

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 228

3. No conjugate quadrature filter da Figura 8.16, se a = 3 e b = 1, temos uma transformada de Haar? Justifique. 4. Use o QMF da Figura 8.15 e encontre z, w e y para a = b = ½, dada a entrada x[n] = {6, 1, 3, 7, 2, 5, 8, 10}. 5. Apresente as condições e exemplo de coeficientes para outra família de wavelets. 

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 229

8.6 Bibliografia Complementar 1. Stéphane Mallat, A Wavelet Tour of Signal Processing, Academic Press, 2009. 2. Michael Weeks, Digital Signal Processing Using MatLab and Wavelets, Infinity Science Press, 2007.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 230

9. Processamento Digital de Imagens Ao longo dos anos, o interesse em técnicas de processamento digital de imagens (PDI) vem aumentando. Diversas são as aplicações que precisam utilizar algum algoritmo associado ao processamento digital de imagens. Na prática, os principais objetivos relacionados com PDI são: i) melhoria na qualidade

da

imagem

para

observação

humana

ou

para

um

mais

reconhecimento automático por máquinas; e ii) compressão para transmissão ou armazenamento de imagens. Cada um desses objetivos leva a um grande leque de técnicas e algoritmos. No primeiro caso, podemos destacar aplicações relacionadas com imagens via satélite, onde, em geral, as imagens chegam com distorções e ruídos que precisam ser filtrados para uma análise humana. Da mesma forma, a quantidade de estudos voltados para a visão computacional vêm crescendo mundialmente e, na maioria dos casos, o primeiro passo para um sistema de visão computacional é a aplicação de algoritmos de processamento de imagens para, por exemplo, extrair a borda de objetos, permitindo uma melhor análise da sua forma. No segundo caso, em termos de compressão e transmissão, podemos observar aplicações voltadas para a Internet que, cada vez mais, precisam usar imagens para transmitir informações. Algumas dessas aplicações exigem imagens de alta resolução, como o sensoriamento remoto. Nesses casos, é preciso usar algoritmos que provoquem uma grande redução na quantidade de dados, sem perder informação. Esse é o caso também de imagens médicas, mas, nesse tipo de aplicação, a preocupação maior é o armazenamento das imagens. Por exemplo, nos Estados Unidos, mamografia digitais precisam ser armazenadas por 5 anos após o exame. Cada exame gera diversas lâminas que são imagens de alta resolução ocupando GigaBytes de espaço de armazenamento. Nesse caso também, é essencial que a compressão seja feita sem perdas.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 231

Uma imagem digital pode ser entendida como uma função f(x,y), onde x e y são as coordenadas espaciais e a função f é o nível de cinza (ou de brilho) naquele ponto. Quando x, y e f estão numa escala finita e discreta, dizemos que temos uma imagem digital. A imagem digital pode ser gerada diretamente através de um dispositivo digital ou pode ser digitalizada a partir de uma imagem real. Esse segundo caso é o mais clássico, onde dispositivos, como scanners, por exemplo, faziam a transposição da imagem do meio real para o digital. Para tanto, alguns processos são fundamentais como veremos posteriormente. Em termos de pesquisa e desenvolvimento, processamento digital de imagens está inserido na grande área de processamento gráfico. Nessa área, encontramos ainda elementos de computação gráfica e de visão computacional. [Gomes e Velho, 1995] relacionam essas áreas de acordo com a representação gráfica da Fig. 9.1. Essa representação e essa relação estão associadas ao tipo de dado que entra e que sai de um sistema específico. Notadamente, essa representação está relacionada com a percepção humana para os dados inseridos

e

retornados

pelos

sistemas.

Para

os

computadores, tudo é apenas processamento de dados.

dispositivos,

como

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 232

Fig. 9.1. Relação entre processamento de imagens e outras áreas correlatas. Da Fig. 9.1, podemos definir os sistemas de processamento de imagens como sistemas que recebem uma imagem de entrada e devolvem uma imagem de saída. A computação gráfica refere-se ao uso de dados de entrada para geração das imagens de saída. Por exemplo, uma imagem 3D de uma esfera é gerada por um conjunto de dados que definem o centro da esfera, seu raio, quantidade de faces, etc. Esses dados são renderizados compondo a imagem final. Já a visão computacional corresponde ao oposto da computação gráfica: uma imagem é inserida no sistema e dados são extraídos dela. Um exemplo pode ser uma contagem automática de pessoas a partir de uma fotografia. As primeiras aplicações relacionadas a imagens datam do início do século XX com as primeiras transmissões de imagens para jornais. As imagens eram transmitidas em 5 tons de cinza em cerca de uma semana. Com a invenção do sistema Bartlane (dedicado para esse tipo de transmissão), o tempo de envio de uma imagem passou a ser de apenas poucas horas. Em 1929, as imagens

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 233

começaram a ser geradas em 15 tons de cinza. A partir daí, o tratamento de imagens começou a ter um maior desenvolvimento junto com o desenvolvimento de tecnologias digitais, de uma maneira geral. Na década de 60, registra-se o primeiro uso de computador para tratamento de imagens. No caso, procurava-se corrigir distorções nas imagens transmitidas pela sonda Ranger 7.

9.1 Digitalização Um sistema de processamento digital de imagens necessita de um dispositivo de digitalização (câmera digital, scanner, etc), um meio para processar e armazenar a imagem (como o computador) e uma forma de visualização da imagem. Em geral, a grande dificuldade está relacionada com a digitalização que pode gerar imagens com grande quantidade de dados a serem processados. Detalhando as principais funções relativas ao processamento digital de imagens, comecemos com o processo de geração de uma imagem digital a partir de uma imagem real: a digitalização. Dada uma imagem real, a digitalização consiste em colher amostras dessa imagem para representá-la em um meio discreto. O processo de coleta de amostras é o mesmo que a digitalização de uma função como pode ser visto na Fig. 9.2. Nela, vemos uma função no contínuo. Para ser representada em algum domínio discreto, é preciso “adaptar” a função a esse domínio. Ou seja, partes dela serão perdidas porque não podem ser representadas. Assim, amostras da função são coletadas por impulsos separados por intervalos definidos de tempo de forma que representem da melhor forma possível a função original. Notadamente, em muitos casos reais, essa representação perde elementos que não podem ser recuperados. Mas espera-se que a perda não seja significativa. De qualquer forma, a reconstrução do sinal leva a uma forma aproximada do sinal original. Isso está representado na Fig. 9.3. O sinal original é discretizado. Cada amostra é então codificada e armazenada. A decodificação é feita sem

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 234

perda, recuperando o sinal discreto correto. A reconstrução que seria o processo inverso da discretização é que ocorre de forma aproximada. O número de amostras que deve ser colhido de um sinal para poder recuperá-lo é definido pela taxa de Nyquist.

Fig. 9.2. Em azul (linha contínua) o sinal original e em vermelho (linha pontilhada) as amostras colhidas do sinal para representá-lo em um domínio discreto.

Fig. 9.3. Discretização e codificação em oposição à decodificação e reconstrução do sinal contínuo original.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 235

Tanto para sinais quanto para imagens, o processo de digitalização ocorre da mesma forma. Em imagens, porém, ainda há outros elementos a serem cuidados como será descrito posteriormente. Para geração do sinal (ou imagem) discretizado, é preciso ter definido todo o modelo conceitual dos objetos em estudo. Nesse caso, temos o que se chama [Gomes e Velho, 1995] do Paradigma dos Quatro Universos (Fig. 9.4). Nele, temos o Universo Físico (que são os objetos reais, como eles existem na natureza), o Universo Matemático (que é uma descrição abstrata desses objetos), o Universo de Representação (com descrições simbólicas dos objetos) e, por fim, o Universo de Implementação (onde são associadas às descrições abstratas e simbólicas com estruturas de dados implementáveis no computador). No caso, a imagem digital é representada no computador através de uma matriz. A matriz imagem tem suas dimensões definidas durante o processo de digitalização. A coleta de amostras define qual será a dimensão da matriz. Essa medida define a resolução da imagem e é especificada em dpi (dots per inch ou pontos por polegada). A resolução da imagem não pode ser alterada após o processo de digitalização a não ser por uma nova digitalização. Definida as dimensões da matriz, define-se cada elemento dessa matriz. Em uma imagem digital, o seu menor elemento, ou seja, a célula da matriz, é chamado de pixel. Seu valor é definido também durante a digitalização em um processo semelhante ao de amostragem chamado de quantização. Em uma analogia com sinais, como fizemos na Fig. 9.2, a quantização é responsável por discretizar o sinal em sua amplitude. Isso pode ser visto na Fig. 9.4. Nas imagens, a amplitude de cada célula da matriz corresponde à sua cor. Assim, através da quantização definimos quantas cores a imagem terá. A essa definição de cores chama-se de resolução de cor da imagem. Diferente da resolução da imagem, a resolução de cor, em alguns casos, pode ser alterada após a digitalização. Dessa forma, uma imagem digital está completamente definida: suas dimensões e a cor de cada pixel. Como está claro, então, uma imagem nada mais é do que

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 236

uma matriz onde cada célula tem uma cor específica. O conjunto e a disposição dessas cores é percebida pelo sistema visual humano e interpretado pelo nosso cérebro como uma imagem.

Fig. 9.4. Como antes (Fig. 9.3), em azul (linha contínua) temos o sinal original, em vermelho (linha pontilhada vertical) as amostras colhidas do sinal durante a amostragem e em pontilhado na horizontal temos a discretização das amplitudes durante a quantização. Dada a importância das cores na formação e percepção da imagem, descreveremos a seguir o sistema computacional de cores desde sua definição.

9.2 Sistema Computacional de Cores

A cor é tida como um fenômeno psicofísico. Ou seja, por um lado, ela deriva de um fenômeno físico relacionado com a luz. No entanto, nossa percepção da cor depende de sua interação com nosso sistema visual. Percebemos uma parede como branca se uma luz branca incidir sobre ela. Se a única fonte de luz no ambiente for uma luz vermelha, perceberemos a parede como um tom de vermelho e não conseguiremos distingui-lo de outra cor.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 237

No início do estudo sobre cores, o fenômeno que mais chamava a atenção era a decomposição da luz branca em todas as cores do espectro ao passar por um prisma. Acreditava-se que o prisma tinha essa propriedade “mágica” de decompor a luz. Foi Sir Isaac Newton, físico, matemático e astrônomo inglês, no século XVII, que derrubou essa idéia com um experimento simples: Newton colocou um prisma na frente de outro e a decomposição da luz branca provocada pelo primeiro prisma incidia sobre o segundo prisma retornando luz branca novamente (Fig. 9.5). Newton acreditava que o olho humano era composto por infinitas células fotossensíveis, cada uma responsável pela percepção de uma cor.

Fig. 9.5. Experimento de Newton sobre a decomposição da luz branca. No século XIX, Young propôs o modelo tricromático: nele, o sistema visual humano era composto apenas de três células que seriam responsáveis pela percepção de altas, médias e baixas frequências. A idéia do modelo tricromático foi comprovada por Helmholtz na década de 60, mas o modelo de Young não explicava alguns fenômenos do sistema visual. No entanto, com seu trabalho, Young mostrou que com apenas essas três cores primárias (de alta, média e baixa frequências) todas as cores do espectro poderiam ser geradas através de um processo aditivo. Atualmente, teoria da percepção das cores usa o modelo de Young-Helmholtz e o modelo de Hering. De fato, nosso sistema visual não é sensível às frequências

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 238

de forma separada, mas, sim, à composição delas. Seja L a componente de baixa frequência, M a média frequência e H a alta frequência, temos células fotossensíveis às combinações: L-M H – (L + M) L+M As altas frequências (baixo comprimento de onda) correspondem ao tom de azul (B), as médias aos tons de verde (G) e as altas frequências ao vermelho (R). Assim, percebemos as combinações: i) R – G ii) B – (R + G) iii) R + G A combinação (iii) corresponde ao amarelo ou à luminosidade da cor. As combinações (i) e (ii) formam a componente de crominância. Em 1931, a Companhia Internacional de Iluminação definiu o modelo RGB baseado na teoria de Young, onde a soma de diferentes intensidades de cada uma dessas cores primárias corresponderia a uma cor do sistema. Esse é o modelo adotado pelos sistemas computacionais, por televisores, projetores, monitores, etc. Além do sistema RGB, outros sistemas surgiram ao longo dos tempos para aplicações específicas como o HSV, HSL, CMYK, CieLab, Pantone, etc. A mudança de um sistema para outro pode trazer diversas vantagens dependendo da aplicação. No sistema computacional de cores, cada cor é representada pela tríplice (R, G, B), onde cada componente de cor tem seu valor inteiro variando de 0 a 255, ou seja, 1 byte. Assim, 3 bytes são necessários para representar uma cor. Com isso, a quantidade máxima de cores que uma imagem pode ter em um computador comum é cerca de 16 milhões.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 239

No sistema padrão do Windows, adotado pela maioria dos sistemas computacionais, as imagens podem ser armazenadas em 4 diferentes formatos, baseado na quantidade de bits necessária para armazenar a cor do pixel: 1) 1 bit – 2 cores 2) 4 bits – 16 cores 3) 8 bits – 256 cores 4) 24 bits (3 bytes) – 16 milhões de cores Nos casos 1, 2 e 3, o pixel armazena, de fato, uma entrada para uma tabela de cores. A tabela é que armazena, efetivamente, a cor daquele pixel. Essa tabela é chamada de paleta de cores. No quarto caso, o pixel armazena a cor propriamente dita, sem haver a necessidade de uma paleta. Ainda quanto ao modelo de cores, as imagens podem ser armazenadas também em uma paleta pré-definida, contendo apenas o nível de brilho de cada cor, também chamado de tom de cinza. Essa paleta contém 256 entradas (cores), precisando, assim, de 8 bits para cada pixel da imagem codificar a entrada da paleta. O nível de brilho de uma cor é calculado tomando como base sua cor (R, G, B). Seja C o tom de cinza: C = 0,310.R + 0,510.G + 0,11.B.

(Eq. 9.1)

Podemos observar que: i) um tom de cinza corresponde a iguais valores de R, G e B (já que a Eq. 9.1 gera apenas um valor C); ii) a contribuição do componente B é pequena em relação aos outros componentes. Existem diferentes formas de representar as cores de um sistema. A mais comum é através de um sólido como o cubo de cor, ou o cilindro ou o cone. Essas são três representações comuns para o sistema RGB.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 240

No sistema RGB, o branco corresponde à cor (255, 255, 255) e o preto à cor (0, 0, 0). Por exemplo, o vermelho puro seria (255, 0, 0), o verde puro é (0, 255, 0) e o azul é (0, 0, 255). Variações nesses valores geram as outras cores do sistema computacional de cores.

9.3 Histograma

Em uma imagem, o histograma é um gráfico que mostra a distribuição das cores na imagem. No eixo x, encontramos todos os valores possíveis de cada componente de cor de uma imagem. Cada ponto desse eixo corresponde a um contador que armazena quantas vezes aquela cor aparece na imagem. Observamos que o histograma não diz como as cores estão distribuídas na imagem; apenas quantas vezes cada componente aparece. No entanto, existem outras informações agregadas ao histograma de uma imagem que permitem alterar algumas de suas características. Por exemplo, suponha uma imagem em tons de cinza, com histograma variando de 0 a 255 (0 sendo o preto e 255 sendo o branco). Nesse caso, um histograma concentrado próximo ao 0 indica uma imagem escura, assim como um histograma concentrado próximo ao 255 indica uma imagem clara. Um histograma com uma pequena variação de cores (Fig. 9.6) indica uma imagem com baixo contraste (o contraste está associado à separação das cores na imagem).

Fig. 9.6. Histograma de uma imagem de baixo contraste. Por não conter informação sobre a distribuição das cores em uma imagem, diferentes imagens podem ter o mesmo histograma (Fig. 9.7)

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 241

Fig. 9.7. Imagens completamente opostas, mas que têm o mesmo histograma. As imagens podem ser manipuladas através de mudanças em seus histogramas. As operações mais básicas são de equalização, stretch e especificação. Na equalização, procura-se distribuir as cores de forma uniforme ao longo do histograma; isso faz com que o contraste de uma imagem aumente. No stretch, procura-se ocupar todo o espectro de cores de cada componente. Assim, se, por exemplo, o tom 20 do vermelho não estiver presente na imagem original, ele deverá estar na imagem final após a aplicação dessa operação. Já a especificação faz com que uma imagem passe a ter o histograma como definido em outra imagem. Por outro lado, mudanças na imagem trazem consequências em seu histograma. Por exemplo, se cada pixel da imagem é somado com um valor positivo X, as cores dessa imagem tornar-se-ão mais próximas do branco; a imagem estará mais clara. Se o valor de X for negativo, claro, a imagem ficará mais escura. O produto de cada pixel por um valor maior do que 1 provocará a expansão do histograma, aumentando seu contraste. Já o produto por um valor entre 0 e 1 provocará a compressão do histograma, diminuindo seu contraste. Nesse caso, valores negativos, claro, não fazem sentido já que as cores são positivas entre 0 e 255. Assim, através do histograma podemos obter algumas informações sobre a imagem que o gerou ou modificar a imagem já atingindo, de uma primeira forma, o objetivo inicial de manipular uma imagem digital. Outras formas de manipular uma imagem, modificando suas características são vistas a seguir.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 242

9.4 Filtragem de Imagens Digitais

A forma mais comum de manipular uma imagem (mudar suas características) é através do processo de filtragem. Existem diversos tipos de filtros e maneiras diferentes de realizar uma filtragem. Os filtros digitais podem ser classificados em: 1) Filtros Estatísticos ou Determinísticos: onde os estatísticos são os que usam alguma propriedade estatística da imagem. Exs: filtro da moda, da mediana. 2) Filtros lineares ou não-lineares: os filtros lineares não geram novas frequências na imagem, enquanto os lineares geram. Exs: Lineares: passabaixa, passa-alta, passa-faixa; Não-Lineares: filtros polinomiais com base de polinômios de ordem maior que 2. 3) Filtros Topológicos ou de Amplitude: filtros topológicos são os que afetam a estrutura da imagem (como os filtros de warping) e os filtros de amplitude atuam apenas no espaço de cores da imagem. Uma das formas de executar o processo de filtragem de uma imagem é através da convolução. A convolução é uma operação comum em processamento de sinais, resultante do seguinte cálculo: ∞

f (t ) * h(t ) =

∫ f (τ ).h(t − τ )dτ

(Eq. 9.2)

−∞

A Eq. 9.2 representa a convolução de uma função f(t) por uma função g(t). Em termos gráficos, a convolução pode ser representada como na Fig. 9.8 (onde as funções estão representadas como retângulos apenas para facilitar o entendimento). Uma das funções, h, é rebatida e desloca-se pelo espaço das funções. No momento que ela começa a ter alguma interseção com a função f a área dessa interseção é calculada (resultado da integração). Enquanto as funções tiverem área comum ao longo do deslocamento de h, o resultado é avaliado. A integração é feita de -∞ a +∞, mas, claro, a área só é diferente de zero enquanto há área em comum.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 243

Para imagens, a convolução é aplicada de forma discreta. Ou seja, no caso das imagens, as funções que convoluem são matrizes. Da mesma forma, a integração é substituída por somatório. Na sua execução, como na versão contínua, uma matriz é fixa e a outra desloca-se sobre ela. A área (resultado da integração) é a região em comum entre as funções. Podemos ver esse processo com as matrizes apresentadas na Fig. 9.10.

Fig. 9.8. Representação gráfica da convolução da função f pela função h.

Fig. 9.9. Convolução discreta aplicada a matrizes. Uma característica da convolução discreta não é desejável na filtragem de imagens. Por exemplo, considere na Fig. 9.9 que f é a imagem e h é o filtro. A imagem de entrada tem dimensões 2x3, enquanto o resultado da operação é uma matriz 3x4. Na prática, o processo de filtragem não pode acrescentar linhas ou colunas à imagem. Assim, para aplicação em imagens digitais, a convolução digital ocorre de maneira um pouco diferente.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 244

No caso de imagens, o pixel a ser processado de deve ser casado com o centro da matriz do filtro (Fig. 9.10). O resultado da filtragem para esse pixel será o somatório do produto de cada valor da máscara pelo valor da imagem sob a máscara.

Fig. 9.10. Processo de convolução aplicado em imagens. Por exemplo, suponha que a matriz de um filtro tem os valores:

w1 w2 w3 w4 w5 w6 w7 w8 w9 Quando o ponto w5 casar no pixel p1, suponha que os valores abaixo da matriz do filtro tenham valores:

z1 z 2 z3 z 4 z5 z 6 z7

z8 z 9

O resultado da filtragem será: w1.z1 + w2.z2 + .... + w10.z10. Assim, a matriz do filtro (chamada de máscara) atua como uma matriz de pesos. Para evitar perda das características do filtro, a máscara deve ser sempre multiplicada por 1/∑iw. Se o centro da máscara estiver numa posição (x,y) na imagem, o tom do pixel posicionado em (x,y) será substituído por R. A máscara é então movida para a

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 245

próxima posição de pixel na imagem e o processo se repete. É prática criar uma nova imagem para armazenar os valores de R em vez de mudar os valores de pixel no lugar. Isso evita o uso de pixels que tenham sido alterados na operação anterior. É preciso observar que essa operação exige algumas alterações na matriz imagem para fins de processamento. Suponha um filtro formado por uma matriz 3x3. No momento que o ponto central dessa matriz processa o primeiro pixel da imagem (pixel do canto superior esquerdo), parte da máscara não estará sobre nenhum elemento da imagem. No entanto, essa parte como todo o resto da imagem precisa ser processado. Para garantir que o processamento ocorra, é comum provocar uma extensão da imagem. Ou seja, a matriz imagem é estendida, ganhando novos elementos em sua borda externa de forma que a operação de convolução possa ser executada. É importante ressaltar que esses novos elementos são inseridos apenas para fins de processamento. Eles não farão parte da imagem original e nem da imagem de saída. Para um filtro 3x3 precisa-se estender a imagem de uma linha para cima, uma linha para baixo e uma coluna para cada lado. A Fig. 9.11 retrata essa situação, estando em cinza a imagem original e em branco a área estendida da imagem. Nessa figura, o filtro está sendo aplicado exatamente no primeiro pixel da imagem. Essa extensão é necessária para o processamento de toda a borda interna da imagem. A quantidade de elementos a ser estendidos depende da dimensão do filtro. Os elementos inseridos na extensão dependem do tipo de extensão. A extensão mais simples é a fixa que preenche toda a borda externa com um valor fixo. Se esse valor é zero, a extensão é chamada de nula. O preferível é que a extensão seja preenchida com os valores da borda interna da imagem para diminuir os “efeitos de borda” (pixels com cores não relacionadas com as cores presentes no restante da imagem).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 246

Fig. 9.11. A imagem original (em cinza) é estendida (parte em branco) para poder ser processada pelo filtro (em destaque no canto superior esquerdo). Dentre os filtros baseados em máscaras, os filtros lineares são os que têm as maiores aplicações práticas. Como definido, os filtros lineares não acrescentam novas frequências à imagem. Vamos descrever esses filtros, exemplificá-los e discutir a função deles em imagens. São eles: filtro passa-baixa, passa-alta e passa-faixa. 1) Filtro Passa-Baixa Teoricamente, esse filtro é gerado por uma função que tem valor 1 entre –w e w e zero fora desse intervalo (Fig. 9.12a). O filtro Box é um exemplo de um filtro passa baixa (Fig 9.12b). Como um filtro passa-baixa, sua função é deixar passar as baixas frequências (frequências entre –w e w) e eliminar as altas frequências. Na prática, esse filtro tem um comportamento como o da Fig. 9.12c, onde ele, na verdade, não elimina completamente as altas frequências, mas as atenua.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

a)

b)

Página 247

c)

Fig. 9.12. a) Forma de um filtro passa-baixa ideal, b) matriz de um filtro passabaixa (filtro Box) e c) forma de um filtro passa-baixa real. O resultado da aplicação de um filtro passa-baixa em uma imagem é seu embaçamento. Em imagens, as frequências estão associadas a regiões de mudanças bruscas entre tons (como, por exemplo, uma passagem de branco para preto). A atenuação dessas mudanças é interpretada por nosso sistema visual como um embaçamento na imagem. A Fig. 9.13 ilustra essa idéia. A Fig. 9.13a mostra uma região de alta frequência da imagem e a Fig. 9.13b apresenta o resultado de uma filtragem passa-baixa.

a)

b)

Fig. 9.13. Ilustração do efeito de um filtro passa-baixa: a) imagem original e b) imagem resultante. 2) Filtro Passa-Alta Esse filtro tem comportamento oposto ao passa-baixa e é gerado por uma função que tem valor zero entre –w e w e 1 fora desse intervalo (Fig. 9.14a). O

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 248

filtro Laplaciano é um exemplo de um filtro passa-alta (Fig 9.14b). Como um filtro passa-alta, sua função é deixar passar as altas frequências e eliminar as baixas frequências. Na prática, esse filtro tem um comportamento como o da Fig. 9.14c, onde ele, na verdade, não elimina completamente as baixas frequências, mas as atenua, intensificando as altas.

a)

b)

c)

Fig. 9.14. a) Forma de um filtro passa-alta ideal, b) matriz de um filtro passa-alta (filtro Laplaciano) e c) forma de um filtro passa-alta real. O resultado da aplicação de um filtro passa-alta em uma imagem é o destaque de seus contornos. A atenuação das baixas frequências e intensificação das altas provoca um realce nas regiões de fronteiras da imagem (regiões que há mudanças bruscas entre tons claros e escuros). Uma ilustração do efeito da aplicação desse filtro em uma imagem pode ser visto na Fig. 9.15.

a)

b)

Fig. 9.15. Ilustração do efeito de um filtro passa-alta: a) imagem original e b) imagem resultante.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 249

3) Filtro Passa-Faixa Esse filtro permite a passagem de frequências dentro de um intervalo e cortam as frequências fora dele (Fig. 9.16a). O filtro de Prewitt é um exemplo de um filtro passa-faixa (Fig 9.16b). Como um filtro passa-faixa, sua função é deixar passar frequências específicas da imagem. Na prática, esse filtro tem um comportamento como o da Fig. 9.16c.

a)

b)

c)

Fig. 9.16. a) Forma de um filtro passa-faixa ideal, b) matriz de um filtro passafaixa (filtro Prewitt – detector de linhas horizontais) e c) forma de um filtro passafaixa real. O resultado da aplicação de um filtro passa-faixa em uma imagem é o destaque de alguns componentes. Por exemplo, o filtro de Prewitt da Fig. 9.16b destaca as componentes horizontais de uma imagem. Além da extensão da imagem, na implementação de uma filtragem digital devese considerar questões relacionadas a cores não-realizáveis. O processo de filtragem pode, por exemplo, gerar uma cor negativa ou maior que 255. Esse fenômeno é chamado de “cor não-realizável”. Assim, é preciso truncar o resultado da filtragem para que as cores resultantes sejam sempre inteiras e entre 0 e 255.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 250

É possível também aplicar uma filtragem no domínio da frequência. Considere a função abaixo no MatLab que calcula a transformada de Fourier de uma imagem. function [F] = img_fourier (nome, ext) nome_in = [nome '.' ext]; im = imread(nome_in); figure, imshow (im); F = fft2(im); figure; F2 = fftshift(F); imshow(log(abs(F2)), []); colormap (jet);

O código acima pode ser complementado com as linhas abaixo para implementar um filtro passa-baixas (gaussiano) e um filtro passa-alta (laplaciano). nx = size(F, 2); ny = size(F, 1); cxrange = [0:nx/2, -nx/2+1:-1]; cyrange = [0:ny/2, -ny/2+1:-1]; [cx, cy] = meshgrid(cxrange, cyrange); fxrange = cxrange * 2*pi/nx; fyrange = cyrange * 2*pi/ny; [fx, fy] = meshgrid(fxrange, fyrange); sigma = 0.3; % Gaussiana ms = exp(-(fx.^2 + fy.^2)/(2*sigma^2)); smoothF = F.* ms; smooth = ifft2(smoothF); figure, imshow(smooth, []); ftd = F.*fx.*i; % Diferenciacao ftd(:, nx/2+1) = 0; d = ifft2(ftd); figure, imshow(d, []);

9.5 Compressão de Imagens

Como uma imagem é apenas uma matriz de dados, qualquer algoritmo de compressão de dados pode ser usado para gerar compressão no arquivo imagem. No entanto, podemos usar características da própria imagem para alcançar mais altas taxas de compressão.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 251

Por exemplo, um dos primeiros algoritmos utilizados especificamente para comprimir alguns tipos de imagens é o algoritmo de run-length. Esse algoritmo armazena a quantidade de vezes que uma cor se repete e qual essa cor. Ele é muito útil para alguns tipos de imagens, principalmente, imagens com apenas duas cores. Considere, por exemplo, uma imagem em preto-e-branco de um documento. Em geral, maior parte do documento é papel, ou seja, tons em branco. Assim, nesse exemplo, regiões inteiras da imagem podem ser codificadas com apenas um contador e o valor do tom branco. Em alguns casos como esse, o algoritmo de run-length é bastante eficiente. Para imagens coloridas em geral, o algoritmo não funciona bem, podendo até expandir o espaço de armazenamento necessário para a imagem. No entanto, esse algoritmo de compressão encontra-se implementado em uma variação do formato BMP, o BMP_RLE (Run-Length Encoding). Outro algoritmo que sofreu uma variação e foi implementado para imagens é o Lempel-Ziv. O LZ77 foi criado por Abraham Lempel e Jacob Ziv em 1977, sendo um algoritmo de compressão dinâmico. Ou seja, ele gera a codificação à medida que lê o arquivo de entrada. Isso é diferente de outros algoritmos clássicos de compressão de dados como o código de Huffman que, em sua versão clássica, primeiro lê todo o arquivo, gerando a codificação. Somente depois, outra varredura é feita para gerar a compactação. Em 1984, Terry Welch propôs uma modificação no LZ77 (a qual foi chamada de LZW) que o tornou mais eficiente. Essa modificação é, por exemplo, implementada

no

formato

GIF

(Graphic

Interchange

Format)

para

armazenamento de imagens de até 256 cores. O LZW é inicializado com um dicionário básico de codificação e esse dicionário vai ganhando novos códigos à medida que o arquivo vai sendo lido. Na transmissão ou armazenamento, apenas

o

dicionário

básico

é

enviado

com

o

arquivo.

descompactação, o mesmo dicionário é formado automaticamente.

Durante

a

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 252

Uma forma mais nova para gerar compressão é através do uso de wavelets. A decomposição wavelet gera um downsampling em cada nível que, por definição, já diminui a quantidade de dados. Assim, é bastante natural que ela seja usada como mecanismo para gerar compressão.

9.6 Processamento de Imagens no MatLab

O MatLab possui uma toolbox específica para o tratamento de imagens digitais. Essa toolbox possui diversos comandos para as diversas técnicas de processamento de imagens. Pelas próprias características do MatLab, ele se torna bastante apropriado para trabalhar com imagens. Por exemplo, a estrutura básica do MatLab é a matriz e uma imagem nada mais é do que uma matriz. Uma imagem é lida no MatLab e armazenada como uma matriz do tipo uint8. Esse tipo armazena valores inteiros de 0 a 255 (correspondendo aos tons da imagem), mas não podem ser usados com operadores de números do tipo double como adição, subtração, multiplicação e divisão. Para tanto, é preciso primeiro converter a matriz imagem para o tipo double. O seguinte código apresenta diversas funções do MatLab para imagens na prática: >> im = imread (‘lena.jpg’); % Leitura da imagem em tons de cinza >> [lin, col] = size(im); % lê o número de linhas e colunas de uma imagem % e armazena nas variáveis lin e col (variáveis quaisquer) >> imshow (im); % visualização de imagens >> im2 = double(im); % conversão da imagem para tipo numérico >> im2 = im2 + 10; % aumento do brilho de uma imagem >> im2 = uint8(im2); % volta ao tipo imagem >> imwrite (im2, ‘nome.bmp’, ‘bmp’); %salva a nova imagem O código acima apresenta apenas um exemplo de trabalho com imagens. No caso, uma imagem em tons de cinza é carregada e armazenada na variável im.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 253

Não há necessidade de indicar o tipo da imagem já que isso é lido direto do cabeçalho da mesma. O MatLab aceita imagens do tipo bmp, jpg, tif, pcx e alguns outros. A principal função desse código é a leitura do arquivo da imagem com o comando imread. É possível esse comando ter dois argumentos de saída quando queremos armazenar em uma variável a paleta de cores de uma imagem (no caso de imagens com até 256 cores). Isso pode ser feito da forma: [im, map] = imread(‘lena.bmp’); Para imagens armazenadas no formato true color (24 bits) não há paleta de cores. As matrizes R, G, B são armazenadas assim na imagem. Isso é tratado no MatLab como uma matriz 3 dimensional. Cada dimensõ contém uma matriz mxn que corresponde à matriz de um dos tons (exatamente na ordem RGB). Para separar cada componente, o seguinte código pode ser utilizado: >> im = imread(‘flowers.bmp’); % imagem 24 bits >> r = im(:, :, 1); % atribui todas as linhas e todas as colunas do primeiro plano % de im à variável r >> g = im(:, :, 2); % matriz do segundo plano >> b = im(:, :, 3); % matriz do terceiro plano Nesse caso, observe que a leitura das dimensões da imagem deve ser feita como: >> [lin, col, plano] = size(im); Ou seja, um terceiro parâmetro de saída deve ser usado. Podemos criar uma nova imagem 24 bits fazendo: >> im2 = uint8(zeros(lin, col, 3)); % criada uma imagem só de zeros Cada plano dessa nova imagem pode receber os planos da outra imagem, por exemplo: >> im2(:, :, 1) = r; >> im2(:, :, 2) = g; >> im2(:, :, 3) = b; Recorte de cores pode ser feito com os comandos:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 254

rgb2grey: conversão de 24 bits para tons de cinza im2bw: conversão para preto-e-branco (dado um ponto de corte) rgb2ind: conversão de 24 bits para 256 cores As dimensões de uma imagem podem ser alteradas com o comando imresize: B = imresize(A, M, ‘method’) % Retorna uma matriz que é M vezes maior (ou menor) que a imagem A % onde ‘method’ = % nearest = vizinho mais próximo % bilinear = interpolação bilinear % bicubic = interpolação bicúbica % Exemplo: >> B = imresize (A, 0.5, ‘nearest’); O comando imrotate rotaciona uma imagem: B = imrotate(A, Ângulo, ‘method’); onde method = nearest, bilinear ou bicubic. Exemplo: >> A = imread (‘eight’, ‘tif’); >> B = imrotate (A, 45, ‘nearest’); imhist calcula o histograma de uma imagem: >> h = imhist(im). Quanto a histograma, as funções histeq e imadjust provocam a equalização e a especificação do histograma de uma imagem, respectivamente. A filtragem de uma imagem pode ser conseguida com a função filter2. Observase que a função devolve uma matriz de valores reais. Assim, eles precisam ser arredondados e convertidos para uint8 para poderem ser visualizados e armazenados como uma imagem: >> im = imread(‘lena.bmp’); >> h = fspecial (‘average’, 5); % cria um filtro da média (box) >> im2 = uint8(round(filter2(h, im)));

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 255

>> imshow (im2); No código acima, usamos a função fspecial para criar o filtro da média. O parâmetro 5 indica a ordem do filtro (dimensões da matriz quadrada). A função permite ainda a criação de filtros: gaussian, sobel, prewitt, laplacian, log, average e unsharp. Cada um com sua particularidade quanto à ordem.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 256

9.7 Exercícios 1. Diferencie os processos de amostragem e quantização. 2. Sobre filtros digitais: a. Como os filtros se classificam de maneira geral? b. Como se classificam os filtros lineares? Explique o resultado da aplicação de cada um desses tipos a uma imagem. 3. O que representa o histograma de uma imagem e cite, pelo menos, duas características diferentes que podemos inferir de uma imagem olhando apenas para seu histograma (ou seja, sem precisar visualizar a imagem). 4. Considere a imagem abaixo: 1 1 2

2 0 2

3 2 0

Qual a imagem resultante após a aplicação de um filtro Box 3x3? 5. No MatLab, aplique um mesmo filtro passa-baixa de ordens diferentes nas imagens cameraman.bmp e lena.bmp. Compare os resultados encontrados e analise as diferenças à medida que as ordens se diferenciam mais e mais. Explique os motivos das diferenças encontradas nos resultados. 

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 257

9.8 Bibliografia Complementar 1. Rafael Gonzalez, Richard Woods, Digital Image Processing, Ed. PrenticeHall, 2007. 2. Jonas Gomes, Luiz Velho, Computação Gráfica: Imagem, Sociedade Brasileira de Matemática, 1996. 3. Hélio Pedrini, Análise de Imagens Digitais, Ed. Thomson, 2007.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 258

10. Técnicas de Codificação de Áudio e Vídeo Com a melhoria dos dispositivos digitalizadores, tem sido constante o aumento na quantidade de dados a serem armazenados. Isso é mais sensível quando falamos de dados relacionados com áudio ou imagens. Para imagens, o problema agrava-se com vídeos que nada mais são do que sequências de imagens. Para reduzir o espaço necessário para armazenar tais arquivos (seja para fins de preservação ou transmissão dos mesmos), algoritmos de compressão de dados são usados. A compressão de dados é uma forma de codificação que visa a reduzir o tamanho dos dados com ou sem perda de informação. Caso haja perda, essa perda pode ser relevante ou não. Assim, antes de começarmos a falar de codificação de áudio e vídeo, precisamos entender os conceitos associados à teoria dos códigos.

10.1 Teoria dos Códigos

Codificação consiste no mapeamento de um alfabeto (alfabeto fonte) em outro (alfabeto código). Cada símbolo ou palavra da fonte deve ser mapeada de forma única ou não em um código. O código pode ser formado por uma sequência de símbolos do alfabeto fonte. Por exemplo, seja o alfabeto fonte S = {A, B, C, D} que se deseja codificar usando bits (ou seja, o alfabeto código é apenas {0, 1}). Uma codificação possível seria: A = 00 B = 01 C = 10 D = 11 Os códigos podem ser classificados da seguinte maneira: Códigos de comprimento variável ou de bloco Os códigos de comprimento variável são aqueles que têm atribuídos códigos de comprimento diferente a uma mesma palavra. Por exemplo, se A é codificado como 0 ou como 01, temos um código de comprimento variável. Pode haver

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 259

diferentes comprimentos entre diferentes palavras de um código. Por exemplo, se: A=0 B = 01 temos um código de bloco. Os códigos de bloco, por sua vez, podem ser divididos em singulares ou nãosingulares. Nos códigos não-singulares todas as palavras código são distintas. Por exemplo: A = 10 B = 11 Se há repetição, nas palavras código, temos um código singular. Por exemplo: A = 10 B = 10 C = 01 Os códigos não-singulares são divididos em unicamente decodificáveis ou não unicamente decodificáveis. Os códigos unicamente decodificáveis não geram ambigüidades na decodificação; o mapeamento de volta ao alfabeto fonte é feito de forma única. Já os não-unicamente decodificáveis geram ambigüidades. Por exemplo: A = 10 B = 11 C = 01 é um código unicamente decodificável, enquanto: A=0 B=1 C = 01 não é. Se o receptor recebe a sequência “01”, ela pode ser decodificada em AB ou C.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 260

Por último, os códigos unicamente decodificáveis podem ser divididos em instantâneos ou não-instantâneos. Os códigos são ditos instantâneos se sua decodificação não precisa de informação futura. Por exemplo, o código: A = 10 B = 100 C = 1000 é não instantâneo. Para decodificar uma sequência de bits, precisamos ler o próximo bit para saber se ele é zero ou um, denotando o encerramento ou não da sequência. Já o código: A = 01 B = 001 C = 0001 é instantâneo; ao encontrarmos um bit 1 sabemos que o código acabou. Essa classificação pode ser vista em resumo na figura abaixo:

Uma condição necessária e suficiente para um código ser unicamente decodificável é que nenhuma palavra completa do código seja prefixo de outra palavra qualquer.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 261

Por exemplo, se: A = 10 B = 01 C=? C não pode receber nenhum código que comece com 10 ou 01 para garantir que o código seja unicamente decodificável. A desigualdade de Kraft garante que um código é instantâneo. Se, para um código de base r, com q palavras, cada palavra com comprimento Li, a desigualdade

é satisfeita, então o código é dito instantâneo. Por exemplo, considere o código: A = 0  comprimento Li=1 B = 01  comprimento Li=2 C = 11  comprimento Li=2 Número binário  base r=2 Ou seja, 2-1 + 2-2 + 2-2 = 1 Isso garante que o código é instantâneo. McMillan mostrou que, se um código satisfaz a mesma desigualdade, ele também é unicamente decodificável. Para um código, o comprimento médio é calculado como:

onde Li é o comprimento de cada uma das q palavras do código e Pi é a probabilidade de cada palavra. Um código é dito compacto para uma fonte S,

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 262

se seu comprimento médio é menor ou igual ao comprimento médio de todos os outros códigos unicamente decodificáveis para a mesma fonte S. Já a taxa de compressão, C, para arquivos em geral, é medida como:

C=

Compriment o _ do _ Arquivo _ Original Compriment o _ do _ Arquivo _ Compactado

10.2 Algoritmos de Compressão

Os algoritmos de compressão dividem-se em: - Algoritmos com perda ou sem perda - Algoritmos estáticos ou dinâmicos O termo “perda” relaciona-se com perda de informação. Algum símbolo que havia no arquivo original e foi perdido no arquivo compactado. Dependendo da fonte e do nível de perda, essa perda pode não ser sensível ao ser humano. Por exemplo, em termos de imagens, não percebemos a diferença entre tons muito próximos, principalmente, se colocados em posições adjacentes em uma imagem. Assim, se o ponto (i, j) em uma imagem tem tom de cinza 130 e o ponto (i, j + 1) tem tom 131, nós não conseguimos ver essa diferença. Assim, os dois pontos podem passar a ter o valor 130 sem que nosso sistema visual perceba. No entanto, isso pode provocar um aumento na taxa de compressão de um arquivo de imagem. Algoritmos baseados em wavelets e em quantização vetorial são algoritmos de compressão com perda. Já algoritmos sem perda, temos o código de Huffman, o Run-length e o Lempel-Ziv-Welch. Algoritmos estáticos são algoritmos que geram toda a tabela de codificação antes de, efetivamente, codificar o arquivo. Em geral, tais algoritmos são ditos de dois passos: primeiro, eles lêem todo o arquivo a fim de gerar a tabela de codificação e, em seguida, eles precisam ler o arquivo de novo para codificar o arquivo. Algoritmos dinâmicos geram a codificação e codificam à medida que eles lêem o arquivo de entrada. Assim, todo o processo é feito em um passo apenas.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 263

Vamos ver o exemplo de funcionamento de alguns algoritmos, começando com algoritmos de compressão sem perdas.

10.2.1 Código de Huffman Definido por David Huffman em 1952, é uma variação do algoritmo de ShannonFano. O código de Huffman divide o conjunto de entrada em dois subconjuntos, atribuindo 0 a um deles e 1 ao outro. Prossegue com a codificação da mesma forma. O algoritmo completo pode ser resumido da seguinte forma:



Organizam-se

os

símbolos

em

ordem

decrescente

de

suas

probabilidades;



Uma fonte reduzida é formada a partir dos 2 símbolos de menor probabilidade;



Continua o passo anterior até que só restem 2 símbolos;



Atribui-se 0 a um dos símbolos e 1 ao outro, aleatoriamente;



Continua atribuindo 0’s e 1’s até chegar aos símbolos iniciais.

Por exemplo, considere um arquivo com apenas 5 símbolos (a, b, c, d, e) dispostos na mensagem M da seguinte forma: M=aaabbbcecd Primeiro, deve-se calcular a probabilidade de cada símbolo. Assim, temos a com probabilidade de 0,3; b com probabilidade de 0,3; c com 0,2; d com 0,1; e e com 0,1. Esses símbolos são listados em ordem decrescente de probabilidade. Os símbolos de menor probabilidade vão sendo agrupados, gerando símbolos cuja probabilidade é dada pela soma das probabilidades dos símbolos que os gerou e criando, assim, as chamadas fontes reduzidas. O processo continua até que só reste uma quantidade de símbolos igual à base a que se deseja gerar a codificação (por exemplo, para uma codificação binária – base 2 – o processo continua até que só restem dois símbolos). A figura abaixo representa o processo:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 264

A partir dos símbolos da última fonte reduzida, atribui-se 0 para um símbolo e 1 para o outro, aleatoriamente. Esse processo vai se repetindo pelas outras fontes reduzidas até chegar aos símbolos da fonte. A partir da penúltima fonte, as atribuições de 0’s e 1’s são feitas à direita dos símbolos, garantindo que nenhuma palavra do código será prefixo de outra (tornando o código unicamente decodificável):

No caso desse exemplo, a seguinte codificação é gerada: a ↔ 10 (2 bits) b ↔ 11 (2 bits) c ↔ 00 (2 bits) d ↔ 010 (3 bits)

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 265

e ↔ 011 (3 bits) Assim, se no arquivo original, cada símbolo ocupava 8 bits, tínhamos uma mensagem com 80 bits. Agora, apenas 16 bits são necessários para codificar a mensagem (sem contar o espaço necessário para armazenar a tabela de codificação). O comprimento médio desse código é 1,6. Nesse exemplo, podemos observar algumas características do código de Huffman: 1) O código gerado é unicamente decodificável e instantâneo. 2) A codificação atribuiu para os símbolos de maior probabilidade os menores códigos (claro, observando, as condições para garantir o item 1 acima). O código de Huffman é um algoritmo de compressão sem perda e estático. Sua codificação é dita bottom-up já que podemos comparar a estrutura montada como uma árvore invertida (a raiz embaixo) cuja codificação iria da raiz às folhas. Existem algumas variações do código de Huffman como a versão para multi-símbolos, o código de Huffman adaptativo, o truncado e a versão modificada. O problema do código de Huffman é que, dependendo da quantidade de símbolos no código fonte, sua codificação pode atingir rapidamente grandes quantidades de bits. Uma tabela de codificação deve ser anexada ao arquivo, permitindo sua decodificação. Uma variação no código de Huffman é a Codificação Aritmética. Ela funciona basicamente da mesma forma que o código de Huffman, mas gera a codificação baseando-se em intervalos ao invés de probabilidades. Cada símbolo da fonte será representado por um intervalo, onde, à medida que o intervalo se torna menor, o número de bits necessário para especificá-lo aumenta.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 266

A codificação aritmética é utilizada em parte da compactação do formato JPEG para imagens.

10.2.2 Run-length O algoritmo de run-length é um dos mais simples. Ele é apropriado para alguns tipos de arquivos em condições específicas. Por exemplo, imagens em preto-ebranco com grandes quantidades de um dos tons, como uma imagem de um documento onde a maior parte é o branco do papel. O run-length armazena, como o nome diz, comprimentos de carreiras. Sua codificação é da forma: onde o contador diz quantas vezes o símbolo se repete em sequência. Por exemplo, para a sequência: 120 120 120 30 45 45 45 60 o resultado da codificação seria: Como dito antes, se o arquivo tem grandes repetições de um mesmo valor, essa codificação pode se mostrar bastante eficiente. O run-length é implementado em uma versão do formato BMP para armazenamento de imagens (o BMP_RLE).

10.2.3 Algoritmo de Lempel-Ziv-Welch Criado por Abraham Lempel e Jacob Ziv, o LZ-77 é um algoritmo de compressão dinâmico e sem perda. Em 1984, Terry Welch modificou o algoritmo, criando uma versão mais eficiente que é a utilizada hoje em dia, o LZW. No LZW, a codificação começa com um dicionário base o qual contém a codificação dos símbolos da fonte. Esse dicionário vai ganhando novos símbolos à medida que o arquivo original vai sendo lido e codificado.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 267

Por exemplo, considere o dicionário base abaixo (sem nos preocuparmos com o código que foi atribuído a cada símbolo da fonte): X ↔ #1 Y ↔ #2 Z ↔ #3 W ↔ #4 e a seguinte mensagem M: M = XYXZXYXW Ao ler o primeiro símbolo da mensagem (X), o algoritmo verifica se esse símbolo está no dicionário. Se estiver, atribui a codificação (#1). Em seguida, o próximo símbolo (Y) é lido e codificado de acordo com o dicionário (#2). Agora, o algoritmo verifica se XY (o símbolo anterior completo concatenado com o atual) faz parte do dicionário. Se não faz parte, ele é acrescentado com uma nova codificação (por exemplo, #5). O dicionário agora passa a ter essa entrada. O processo prossegue, acrescentando novas entradas que passam a poderem ser usadas na codificação. No entanto, apenas o dicionário base é armazenado junto com a mensagem codificada. Ao decodificar, o dicionário base é utilizado e é estendido da mesma forma que foi feito na codificação.

10.3 Algoritmos de codificação multimídia

Os algoritmos de compressão com perdas mais conhecidos utilizados em multimídia são: MPEG-1 – MPEG é a sigla de Moving Pictures Experts Group, que é um grupo de pesquisadores que desenvolvem padrões para compressão de áudio e vídeo. O MPEG-1 é o padrão original do MPEG e é capaz de codificar áudio e vídeo a uma taxa de 1,5 Mbps.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 268

O MPEG define três níveis ou camadas de compressão para áudio. Em cada camada o nível de compressão é mais complexo e exige mais poder computacional. A terceira camada (layer 3) se tornou bastante popular para a compressão de áudio e atualmente é o que conhecemos como MP3, ou melhor, MPEG Layer 3. MPEG-2 – É um padrão de compactação de maior qualidade utilizado em radiodifusão por satélite, por exemplo. Pode ser utilizado em transmissões a taxas de 4 a 9 Mbps. Uma versão modificada do MPEG-2 é usada pelo padrão HDTV e também nos DVDs. MPEG-4 e derivados - O padrão MPEG 4 e seus derivados (DiVX, XViD, etc.) é um

dos

mais

usados

atualmente.

Devido

à

melhoria

dos

recursos

computacionais, principalmente, eles podem oferecer qualidade semelhante à MPEG-2 sem ocupar tanto espaço. Vamos detalhar mais sobre compressão de áudio e vídeo a seguir:

10.3.1 Codificação de Vídeo A fim de avaliar sistemas de compressão de vídeo, os seguintes parâmetros devem ser considerados quanto ao desempenho da compressão:



Quantidade ou grau da compressão



Qualidade da Imagem



Velocidade da compressão e descompressão

É preciso analisar também a implementação em hardware ou software. O grau da compressão é, geralmente, avaliado como uma razão entre os dados de saída e os de entrada. Essa medida, no entanto, pode trazer problemas para imagens (estáticas ou dinâmicas) quando temos uma matriz m versus n com ainda uma quantidade de bits por pixel para representar a cor. Uma maneira

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 269

mais eficiente de especificar o total de compressão é determinar o número de bits por pixel apresentado (displayed) necessário no bitstream2 comprimido. Por exemplo, se estamos reproduzindo uma imagem 256x240 pixels de um bitstream de 15.000-byte, estamos comprimindo: (bits)/(pixels) = (15.000x8 bits)/(256x240 pixels) = 2 bits por pixel A taxa de compressão apenas, no entanto, não é medida suficiente para avaliar um sistema. Outro fator igualmente importante é a qualidade da imagem gerada. Nesse sentido, podemos dividir os algoritmos de compressão, de uma maneira geral, em com perda ou sem perda. Nos algoritmos de compressão sem perda, não há necessidade de avaliar a qualidade da imagem já que ela é exatamente igual à imagem original. Nesse caso, porém, deve ser feita a transmissão de todos os pixels da imagem. Algoritmos de compressão sem perda, normalmente, geram uma quantidade maior de dados a serem transmitidos. Algoritmos de compressão com perda provocam alguma mudança na imagem. O objetivo, porém, é fazer com que essa mudança não seja perceptível pelo usuário. Algoritmos de compressão com perda podem inserir diversos artefatos na imagem e não é fácil quantificar o desempenho desses algoritmos. Normalmente, essa avaliação é feita com algum critério subjetivo. Tais algoritmos ainda trazem um outro problema a ser tratado: a velocidade de compactação e descompactação. Para vídeo, esse é um problema fundamental, pois

são

milhares

de

imagens

compactados/descompactados.

Se,

(quadros para

ou

frames) imagens,

que

são uma

compactação/descompactação de 1 segundo é considerada rápida, para vídeos essa é uma taxa inaceitável. Uma taxa mais rápida está associada ao algoritmo utilizado e a como esse algoritmo é implementado (hardware ou software). Na maioria dos casos, hardware específico é necessário para conseguir implementar os algoritmos com a máxima eficiência.

2

Saída do compactador.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 270

Os algoritmos de compressão buscam reduzir a quantidade de elementos redundantes no arquivo. Em imagens de vídeo digital essa redundância pode ser encontrada de diferentes formas:



Algumas áreas do frame possuem a mesma cor que se espalha por mais de um pixel (redundância espacial);



Quando a cena ou parte dela contém predominantemente objetos orientados verticalmente existe grande probabilidade que duas linhas adjacentes sejam as mesmas (redundância espacial);



Imagens onde alguns pixels se repetem por diversos frames (redundância temporal).

Algoritmos de compressão podem explorar essas características de redundância a fim de conseguirem uma melhor taxa de compressão. Outros elementos podem ser considerados pelo algoritmo de compressão. Por exemplo, quanto à resolução de cor, o sistema visual humano tem certas limitações quanto à percepção de cores. Não conseguimos diferenciar cores que estão muito próximas no espectro. Necessitamos de uma diferença de até 10 tons (em termos de sistema computacional de cores) para perceber duas cores adjacentes diferentes. Assim, podemos converter duas cores adjacentes que tenham uma distância menor do que 10 entre elas para que se tornem uma mesma cor. Com isso, inserimos elementos redundantes que melhoram os resultados de algoritmos de compressão (observamos que essa mudança provoca perdas na imagem – mesmo elas não sendo perceptíveis, são mudanças na imagem original). As principais técnicas de compressão de vídeo são baseadas em:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello



Página 271

Color Look-Up Table: o pixel na matriz da imagem corresponde na verdade a um índice para uma tabela que aloca as cores reais.



Codificação Run-length: já explicada anteriormente.



Técnicas de interpolação: compressão através de interpolação atua a nível de pixel e consiste de transmitir um subconjunto de pixels, usando técnicas de interpolação para reconstruir os pixels intermediários. Interpolação é sugerida para ser usada em sistemas baseados no modelo YIQ (como o NTSC) ou YUV (como o Pal).



Técnicas preditivas: técnicas de compressão preditivas são baseadas no fato que podemos armazenar um elemento anterior (como um frame, por exemplo) e usar essa informação para predizer qual o próximo elemento. o DPCM: a forma mais simples de compressão preditiva é chamada de PCM diferencial (ou DPCM, onde PCM = pulse code modulation). Em DPCM, pixels adjacentes são comparados e apenas a diferença entre eles é transmitida. Há uma grande probabilidade de alta compressão por esse método porque pixels adjacentes, em geral, têm cores muito próximas. Assim, espera-se uma diferença pequena que pode ser transmitida em uma quantidade menor de bits. Um problema de DPCM ocorre quando a diferença entre os pixels ultrapassa o limite de representação da quantidade de bits adotada pelo sistema. Por exemplo, suponha um sistema que use apenas 4 bits para armazenar/transmitir a diferença entre tons. Se há uma região de mudança de preto para branco, essa mudança não poderá acontecer entre pixels adjacentes, pois não haveria como representá-la. Seria necessário um certo número de pixels intermediários para conseguir a

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 272

representação. Esse efeito é chamado de slope overload. Esse efeito pode provocar um embaçamento na imagem. o ADPCM: O slope overload pode ser reduzido tornando o DPCM adaptativo (ADPCM). Uma forma simples de implementá-lo é tornando adaptativa a quantidade de bits necessária para armazenar a diferença entre os pixels. O uso de ADPCM pode provocar ruídos nas regiões de alta frequência.



Técnicas de codificação por transformadas: uma transformada é uma técnica que converte um conjunto de dados de um domínio para outro mais apropriado para a aplicação. As transformadas, em geral, são reversíveis. Uma das transformadas mais utilizadas para compressão de imagem e vídeo é a Transformada Discreta do Cosseno (DCT). o DCT: A DCT é executada em blocos adjacentes de pixels (em geral, 8x8). Assim, 64 pixels por vez são processados pela DCT. A DCT é calculada como:

onde

Sendo a inversa calculada como:

A DCT está relacionada com a DFT; a DFT, de fato, é um passo no cálculo da DCT para uma sequência. A DCT, no entanto, tem

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 273

propriedades de compactação de energia, com apenas uns poucos coeficientes da transformada representando a maior parte da energia da sequência. Essas propriedades fazem a DCT bem apropriada para compressão de dados. Por causa dessa compressão, é possível reconstruir um sinal a partir de apenas alguns coeficientes da DCT. Apesar de serem relativamente fáceis de implementar em qualquer linguagem de computador, a compressão de imagens demanda um grande poder de processamento e por isso precisa ser otimizada ao máximo. O uso da DCT em imagens grandes, apesar de apresentar ótimos resultados, exige um processamento muito grande. Por isso na prática a estratégia que se adota é de dividir a imagem em blocos de tamanho menor (em geral de tamanho 8x8 pixels, como no JPEG), levando a nossa primeira otimização:



Otimização 1: a imagem a ser tratada deve ser dividida em blocos

menores

facilitando

a

computação

das

transformadas. Outra justificativa para esta abordagem é que apesar de terem bastante correlação com os vizinhos próximos, existe pouca ou nenhuma correlação entre pontos distantes

de

uma

mesma

imagem.

Os

ganhos

de

processamento com esta abordagem suplantam em muito as perdas em termos de compressão. O cálculo das funções de cosseno, por ser uma função transcendental, também exige bastante poder de processamento. Se verificarmos a fórmula da transformada discreta de cosseno veremos que podemos pré-calcular todos os valores de cosseno a serem utilizados, e depois disto apenas realizar operações

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 274

aritméticas de soma e multiplicação. Isso nos leva a segunda regra:



Otimização 2: os cossenos utilizados devem ser précalculados e armazenados, realizando-se assim apenas operações aritméticas ao se calcular a fórmula da transformada.

Ao aplicar a transformada discreta de cosseno, os coeficientes mais significativos se acumulam no início do vetor (ou matriz) dos dados, ficando o restante com valores muito pequenos e carregando pouca informação. Este tipo de distribuição já é suficiente para que uma técnica de redução de redundância (como os algoritmos LZ77, LZ78 ou LZW) ou uma codificação otimizada (como codificação de Huffman ou codificação aritmética) produzam melhores resultados do que na imagem ou nos dados originais. Entretanto, por trabalharmos sempre com uma precisão finita nas representações numéricas utilizadas, acabamos por ter uma perda nos dados. Portanto, mesmo sem aplicar nenhuma forma de quantização, a compressão usando transformada discreta de cosseno é uma compressão com perdas. Entretanto, a forma mais comum e que gera melhores resultados, é a aplicação de uma operação de quantização nos dados gerados pela transformada, e armazenar apenas os dados quantizados. Essa quantização permite uma maior eficiência das técnicas de codificação e eliminação de redundância utilizadas. Algumas formas de quantização normalmente utilizadas com a transformada discreta de cosseno são:



Eliminação

dos

componentes

menos

significativos

(determina-se um patamar de valor ou mesmo de posição

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 275

na matriz de resultados da transformada, e elimina-se ou substitui-se esses valores por 0).



Divisão

inteira

dos

valores

por

um

coeficiente

de

quantização fixo (assim pode-se usar menos dígitos, ou bits, para se representar os valores).



Divisão

inteira

por

uma

matriz

de

coeficientes

de

quantização (Esta técnica é a empregada pela maioria dos padrões de compressão de dados, pois é mais flexível e permite que se ajuste a matriz a qualidade desejada da imagem).



Codificação estatística: como o código de Huffman ou a codificação aritmética.

Dentre os formatos mais utilizados para compressão de áudio e vídeo, temos:



MPEG (Moving Picture Expert Groups)



DiVX

Vamos detalhar cada um desses. MPEG Na década de 80, ficou claro a necessidade de aliar imagem com tecnologia digital. Nesse sentido, em 1988 ISO esquematizou o MPEG (Moving Picture Experts Groups), para desenvolver padrões para o vídeo digital. Foram definidos três itens a serem desenvolvidos: 1. Vídeo e áudio associados a uma taxa de 1.5 Mbps (mais tarde chamado de MPEG-1); 2. Imagens em movimento e áudio associados a uma taxa de 10 Mbps (mais tarde chamado de MPEG-2);

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 276

3. Imagens em movimento e áudio associados a uma taxa de 60 Mbps (mais tarde reduzido para 40 Mbps e então cancelado). MPEG 1 era orientado como imagem digital armazenada em Mídia de armazenagem digital (DSM - Digital Storage Media). MPEG-2 foi orientado como broadcast. MPEG-3 para televisão de alta-definição (HDTV). Enquanto os padrões se desenvolviam ficou claro que as técnicas empregadas nos padrões poderiam ser usados em qualquer bit-rate (quantidade de bits necessários para codificar um segundo de informação, seja esta vídeo, áudio ou ambos). Assim, os títulos dos que incluíam a taxa de transmissão foram alterados para MPEG-1 e MPEG-2 e ficou claro que MPEG-2 poderia satisfazer as necessidades do HDTV, assim, o MPEG-3 foi descartado. O vídeo, áudio, ou qualquer outra informação para um serviço codificado em MPEG deve ser multiplexado num único fluxo de bits. Essa é a principal tarefa do MPEG-2 Systems. Quando o multiplexador está recebendo um fluxo de bits de vídeo e áudio comprimidos, como eles devem ser multiplexados para que o decodificador possa obtê-los sincronizados? Uma outra tarefa do sistema é fornecer meios para essa sincronização. Apesar de que um fluxo MPEG representa um fluxo constante de bits, os bits precisam ser organizados em grupos (pacotes) para que erros de bit não se propaguem além das fronteiras de um único pacote. Geralmente, quanto maior o pacote, mais suscetível ele é aos erros de bit. Por outro lado, agrupando os bits em pacotes cria um maior tráfego para acomodar os cabeçalhos dos pacotes. Geralmente quanto menores os pacotes, maior o tráfego. Assim, existe um trade-off entre escolher o tamanho do pacote e sua resiliência e eficiência. Podese considerar, portanto, que formar pacotes é uma terceira função para os MPEG Systems.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 277

Na maioria dos casos, decodificadores necessitam de Informações Específicas do Programa (PSI - Program Specific Information) para decodificar o os dados que chegam. Fornecer estas PSIs é a quarta tarefa do MPEG Systems. Um MPEG Systems deve: 1) Multiplexar fluxos de bits individuais num único fluxo de bits. 2) Prover maneiras para sincronizar os fluxos de bits que compõem um serviço de áudio e/ou vídeo. 3) Empacota os bits em grupos. 4) Provê informações específicas chamadas PSI. Nos MPEG-2 Systems, um programa é definido como o conjunto de Fluxos Elementares significativos, como áudio e vídeo, que têm a mesma base de tempo. Um arquivo MPEG é um arquivo digital contendo vídeo e áudio digitais codificados seguindo determinados padrões de compressão e armazenados em um dado formato específico. O comitê ISO especifica separadamente o tratamento de áudio e de vídeo, permitindo streams sem áudio, por exemplo. Um filme é uma sequência de blocos. Cada bloco do filme contém seções individuais para o vídeo e para o áudio. A sincronização entre o vídeo e o áudio é feita através de marcadores de tempo que são fixados durante a codificação nos identificadores de blocos. O padrão MPEG especifica 3 tipos de quadros comprimidos no arquivo de saída. Nos quadros I (Intraframe) somente se aplicam algoritmos de redução de redundância espacial. Nos quadros P (Predicted) e B (Bidirectionally Predicted) também se aplicam algoritmos de redução de redundância temporal. No caso dos quadros B a predição de movimento é bidirecional, ou seja, é feita com quadros no passado e no futuro em relação ao quadro sendo codificado.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 278

Os quadros apresentam diferentes taxas de compressão, sendo que os quadros B apresentam a maior taxa, seguidos dos P e dos I (Tabela 10.1). Isto se deve ao fato de que nos quadros I eliminamos apenas a redundância espacial. Quanto maior a compressão, maiores as perdas de qualidade sofridas nos quadros, por isso há a necessidade de intercalar quadros I de tempos em tempos para permitir a “restauração” da qualidade do sinal e também acesso aleatório aos quadros do filme (Fig. 10.1). Uma análise bilateral (observando frames passados e futuros) é importante para permitir que frames futuros sejam usados em uma predição mais correta. Tabela 10.1. Taxa de compressão de cada tipo de quadro no MPEG. Quadro Taxa de Compressão I

10-20:1

P

20-30:1

B

30-50:1

Fig. 10.1. Disposição dos quadros no formato MPEG. O padrão publicado pela ISO especifica o formato final do arquivo comprimido, deixando margem para que diferentes abordagens possam ser utilizadas, com diferentes compromissos entre compressão e complexidade computacional. Além disso, também fazem parte do padrão:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello



Página 279

Uso da Transformada Discreta do Cosseno (DCT), seguida de Quantização e Run Length Encoding (RLE) para redução da redundância espacial de cada quadro do filme;



Uso de Motion Estimation e Motion Compensation (MEC) preditiva e interpolativa para redução de redundância temporal entre quadros e



Uso de Codificação de Huffman ao final do processo, gerando a compressão efetiva.

A DCT faz uma transformação na imagem, mudando o domínio de representação da mesma. Este processo não introduz perdas de qualidade na imagem, sua utilização se dá porque ela permite uma representação mais compacta da imagem, facilitando a compressão. O uso da DCT faz com que as maiores frequências se concentrem no canto superior esquerdo da matriz (Fig. 10.2-direita, quadro em vermelho). Por exemplo, considere que na Fig. 10.2-esquerda temos o resultado da conversão de uma imagem do formato RGB para o formato YCbCr (mais indicado para vídeo). Após a aplicação da DCT nesse bloco da imagem, temos como resultado a matriz apresentada na Fig. 10.2-direita.

Fig. 10.2. Aplicação da DCT: (esquerda) região 8x8 da imagem em YCbCr e (direita) o resultado da aplicação da DCT nessa região.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 280

Após a aplicação da DCT, uma quantização é feita tomando uma matriz de quantização fixa (Fig. 10.3-esquerda). Cada valor da matriz gerada pela DCT é dividido pelo valor correspondente na máscara de quantização e arredondado para um inteiro. O resultado para a matriz DCT da Fig. 10.2-direita é apresentado na Fig. 10.3-esquerda.

Fig. 10.3. (esquerda) Matriz de quantização e (direita) resultado da quantização da matriz DCT da Fig. 10.2-direita. Observamos nessa matriz quantizada uma grande presença de valores zero. Assim, podemos agrupá-los, usando, por exemplo, uma codificação run-length. Para tê-los agrupados de forma mais adjacente, uma leitura em zig-zag (Fig. 10.4) é feita nessa matriz.

Fig. 10.4. Leitura em zig-zag da matriz DCT para aplicação da codificação RunLength.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 281

Existem diferentes formas de se detectar movimento de objetos numa sequência de imagens. O padrão MPEG adota algoritmos de MEC baseados em casamento de blocos. Este algoritmo consiste na procura de um bloco de tamanho fixo (16x16 pixels no padrão MPEG) de um quadro em uma janela de busca em um quadro seguinte (ou anterior). Esta janela pode ser de tamanho variável, mas o tamanho usual é de 30x30 pixels. A Fig. 10.5 mostra um exemplo de tal técnica.

Fig. 10.5. Aplicação de Motion Estimation. O padrão MPEG usa uma variação da DCT chamada MDCT (Modified DCT): n −1

S i = ∑ x k cos( k =0

π

n n [ 2k + 1 + ]( 2i + 1)), i = 0,1,..., − 1 2n 2 2

E a sua inversa, conhecida como IMDCT é dada por:

xk =

n / 2 −1

∑ i =0

S i cos(

π

n [ 2k + 1 + ](2i + 1)), k = 0,1,..., n − 1 2n 2

DivX O DivX é um codec de vídeo criado pela DivX, Inc. Ele foi produzido para ser usado em compactação de vídeo digital, deixando os vídeos com qualidade, apesar da alta compactação, utilizada para ocupar menos espaço no Disco rígido. Para alcançar tal compactação é necessário muito processamento, o que pode fazer com que um computador tecnologicamente defasado demore para

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 282

realizar a operação ou tenha dificuldades para realizar a exibição. O DivX é compatível com Windows, Linux, Solaris e Mac OS X. Atualmente, os arquivos DivX estão amplamente presentes nas redes dos programas de P2P, devido ao seu reduzido tamanho e à ótima qualidade. O método de compactação DIVX funciona como um MP3 para vídeo. Mas, ao contrário do MP3, que apaga sons sobrepostos que nosso cérebro não conseguiria reconhecer, o DIVX torna repetitivas as imagens que não se modificam no decorrer dos frames (quadros) que formam o vídeo. Simplificando: tomando-se uma cena onde a câmera é estática e fundo não se modifica, o codec DIVX grava um único frame dessa imagem e repete-o até a imagem sofrer alguma alteração. Na mesma cena, caso haja uma pessoa andando, somente os pixels em que sua imagem se sobrepõe são modificados. O resto da cena pode ser considerado, grosseiramente, como uma foto estática ao fundo do vídeo. Desta forma, são guardados muito menos dados pelo vídeo compactado, resultando um arquivo de tamanho reduzido com uma perda de qualidade pequena. Assim como que em outros programas e plug-ins encontrados na Internet, para se converter um arquivo de vídeo em formato não compactado para um em DivX é preciso comprar o DivX Codec que é o software responsável por esta tarefa, porém, se seu objetivo é apenas o de assistir os vídeos já compactados em DivX, é possível se fazer o download gratuito do tocador (player) no site oficial da DivX, Inc ou em quaisquer sites de downloads.

10.3.2 Codificação de Áudio Um dos primeiros sistemas desenvolvidos para compressão de áudio usa métodos parecidos com o algoritmo de run-length. A idéia da compressão usada em arquivos VOC é a redução dos chamados “blocos de silêncio”. A vantagem é a redução do tamanho a até um quarto do tamanho original. No entanto, como desvantagens têm a degradação no som, não é possível uma conversão para

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 283

outro formato e só é aplicado a arquivos amostrados com baixas taxas. Blocos de silêncio são marcadores que contêm um valor de duração do tempo que representa a extensão do silêncio ou quase silêncio.

Silêncio é definido como a amplitude da forma de onda que não ultrapassa a janela de silêncio. Uma extensão de silêncio menor que a janela é considerada muito curta para merecer a conversão para bloco de silêncio. Os Blocos de silêncio não existem na maioria dos formatos de arquivos de áudio. Outro problema é que pode haver uma confusão do silêncio com o início de um som (como um fricativo inaudível - /f/, /s/, /sh/) (Fig. 10.6).

Fig. 10.6. Som fricativo inaudível que pode ser confundido com um silêncio por ter baixas amplitudes em parte dele.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 284

MP3 MP3 é uma abreviação de MPEG 1 Layer-3 (camada 3). Trata-se de um padrão de arquivos digitais de áudio estabelecido pelo Moving Picture Experts Group (MPEG), grupo de trabalho de especialistas de Tecnologias da Informação vinculado ao ISO e à CEI. As camadas referem-se ao esquema de compressão de áudio do MPEG-1. Foram projetadas em número de 3, cada uma com finalidades e capacidades diferentes. Enquanto a camada 1, que dá menor compressão, se destina a utilização em ambientes de áudio profissional (estúdios, emissoras de TV, etc) onde o nível de perda de qualidade deve ser mínimo devido à necessidade de pré-processamento, a 3 se destina ao áudio que será usado pelo cliente final. Como se espera que esse áudio não sofrerá novos ciclos de processamento, a compressão pode ser menos conservadora e aproveitar melhor as características psicoacústicas do som limitando-se apenas pela qualidade desejada para o ouvido humano. A compressão típica da camada 1 é de 2:1 enquanto a da 3 é de 10:1. É importante lembrar que essa diferença da compressão não tem nada a ver com uma camada ser mais avançado que o outro tecnologicamente, mas sim com o objetivo da aplicação do áudio ser processado. Um erro comum é confundir o MP3 com MPEG-3. MPEG-3 é um formato morto, pois o formato MPEG-4 o suplantou com muitas vantagens. Enquanto o MPEG-3 deveria ter sido um formato para compressão tanto de áudio como de vídeo o MP3 responde apenas pela compressão de áudio do MPEG-1. As taxas de compressão alcançadas pelo MP3 chegam a até 12 vezes, dependendo da qualidade desejada. Para fazer isso o MP3 utiliza-se, além das técnicas habituais de compressão, de estudos de psico-acústica, sendo que estes permitem aproveitar-se das limitações e imperfeições da audição humana. A utilização dos limites da audição humana baseia-se em três princípios básicos:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello



Página 285

Faixa de frequência audível dos seres humanos; Faixa de frequência audível humana: O ouvido humano, devido às suas limitações físicas, é capaz de detectar sons em uma faixa de frequência que varia de 20 Hz a 20 KHz, sendo que estes valores podem variar de indivíduo para indivíduo e também com a idade (com o envelhecimento perdemos a capacidade de ouvir frequências mais altas). Assim, não faz sentido armazenar dados referentes a sons fora desta faixa de frequência, pois ao serem reproduzidos, os mesmos não serão percebidos por um ser humano. Esta é a primeira limitação da audição humana do qual o sistema MP3 faz uso para alcançar altas taxas de compressão. De acordo com o Teorema de Nyquist, para garantir a reprodução de um sinal, temos de amostrá-lo pelo menos a duas vezes sua frequência máxima. Ou seja, neste caso, como a frequência máxima de interesse é 20 KHz, basta amostrar a 40 KHz. Utiliza-se 44.100 Hz como taxa de amostragem, pois leva-se em consideração 10% de tolerância e busca-se um valor produto dos quatro primeiros números primos (Obs: (2x3x5x7)^2 = 44100). Dessa forma, esta taxa de amostragem funciona como um filtro passa-baixa, que remove todos os componentes de frequência fora da faixa de interesse, neste caso, acima de 20 Khz.



Limiar de audição na faixa de frequência audível; Limiar de audição na faixa de frequência audível: Outro fator utilizado pela codificação MP3 é a curva de percepção da audição humana dentro da faixa de frequências audíveis, ou Limiar de Audição. Apesar da faixa de audição humana variar entre 20Hz e 20KHz, a sensibilidade para sons dentro desta faixa não é uniforme. Ou seja, a percepção da intensidade de um som varia com a frequência em que este se encontra. Assim, o MP3 utiliza-se desta propriedade para obter compressão em arquivos de áudios. Esta abordagem é bastante intuitiva, sendo que o que se faz é descartar amostras que se encontrem abaixo deste limiar.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello



Página 286

Mascaramento em frequência e mascaramento temporal. Mascaramento em frequência e mascaramento temporal: Por fim, uma última propriedade da audição humana ainda é utilizada pelo método é o chamado mascaramento auditivo, ou “audiabilidade diminuída de um som devido à presença de outro”, podendo este ser em frequência ou no tempo. O mascaramento em frequência ocorre quando um som que normalmente poderia ser ouvido é mascarado por outro, de maior intensidade, que se encontra em uma frequência próxima. Ou seja, o limiar de audição é modificado (aumentado) na região próxima à frequência do som que causa a ocorrência do mascaramento, sendo que isto se deve à limitação da percepção de frequências do ouvido humano. O mascaramento em frequência depende da frequência em que o sinal se encontra, podendo variar de 100 Hz a 4 KHz. Em função deste comportamento, o que o método de compressão do MP3 faz é identificar casos de mascaramento em frequência e descartar sinais que não serão audíveis devido a este fenômeno. Além do mascaramento em frequência, temos ainda o mascaramento no tempo, sendo que este ocorre quando um som forte é precedido por um mais fraco que se encontra em uma frequência próxima à do primeiro. Se o intervalo de tempo entre os dois for suficientemente pequeno, este som mais fraco não será percebido pela audição humana. Se um som é mascarado após um som mais forte, temos o chamado pós-mascaramento. No caso de um som ser mascarado antes do som mais forte, temos o que chamamos de prémascaramento. O pré-mascaramento existe só por um curto momento, cerca de 20ms, enquanto que o pós-mascaramento tem efeito por até 200 ms. O método de compressão do MP3 utiliza-se, portanto, deste fenômeno, identificando casos onde o mesmo ocorre e descartando sons que seriam mascarados, o que permite reduzir a informação de áudio consideravelmente sem mudança audível.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 287

A Thomson Consumer Electronics controla o licenciamento da patente do MPEG-1/2 Layer 3 nos poucos países que reconhecem patentes de software, tais como Estados Unidos da América e Japão. Em setembro de 1998, o Instituto Fraunhofer enviou um comunicado a diversos desenvolvedores de programas MP3, exigindo cobrança de royalties por essa patente. O comunicado informava que o licenciamento era necessário para "distribuir e/ou vender decodificadores e/ou codificadores", e que os produtos não licenciados infringiam os "direitos sobre a patente do Instituto Fraunhofer e da Thomson. Para produzir, vender e/ou distribuir produtos que se utilizem do padrão MPEG-1/2 Audio Layer 3 e, portanto, de suas respectivas patentes, é necessário obter uma licença". O sistema empregado pelo MP3 também possibilita transmissões por streaming, onde o arquivo pode ser interpretado na medida em que é feito o download ou em que é baixado (não é necessário que o arquivo chegue inteiro para iniciar a reprodução).

10.4 Implementações no MatLab 10.4.1 Processamento de Vídeo no MatLab

O MatLab tem algumas funções para processamento de vídeo, trabalhando mais facilmnte com arquivos do tipo AVI (Audio Vídeo Interleave), aceitando alguns CODECs (codificadores/decodificadores) mais conhecidos como o XViD. É possível abrir arquivos MPEG também. Funções de Video file import/export:



aviread – Lê arquivo de vídeo (AVI)



aviinfo - Retorna informação sobre o arquivo AVI



avifile - Cria um novo arquivo AVI



mmreader – Lê frames de vídeo de um arquivo multimídia (como MPEG)

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 288



mmfileinfo - Retorna informação sobre o arquivo multimídia



movie2avi – Cria filme AVI a partir de um filme MATLAB (.mov – não do Quicktime)

Exemplo: >> info = aviinfo('video1.avi') info = Filename: 'D:\MATLABR2008b\work\video1.avi' FileSize: 2997760 FileModDate: '03-mai-2010 19:53:44' NumFrames: 13 FramesPerSecond: 15 Width: 320 Height: 240 ImageType: 'truecolor' VideoCompression: 'none' Quality: 4.2950e+007 NumColormapEntries: 0 Para acessar as informações: >> info.NumFrames ans = 13 >> h = info.Height; >> w = info.Width; A leitura do arquivo de vídeo é feita pelo comando aviread (arquivo AVI): >> mov = aviread('video1.avi'); É possível acessar um frame específico do arquivo de vídeo:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 289

>> mov = aviread('video1.avi', 3); No caso, o 3º frame está sendo lido. Mas o arquivo de saída continua sendo um arquivo de vídeo: >> whos Name mov

Size 1x1

Bytes Class

Attributes

230648 struct

Observe que a saída mov é do tipo struct. >> mov mov = cdata: [240x320x3 uint8] colormap: [ ] >> mov1 = mov.cdata; Agora, temos um arquivo de imagem que pode ser exibido como tal: >> imshow (mov1) Para exibição do vídeo podemos usar o comando movie: >> movie(mov, repetições, info.FramesPerSecond); O parâmetro repetições indica quantas vezes o vídeo será repetido. A conversão de imagens para frame é feita com o comando im2frame: >> mov1(i) = im2frame(imagem, map);

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 290

Isso faz com que imagem seja inserida como frame i do arquivo de vídeo mov1 com mapa de cores especificado em map. Variando i criamos o arquivo de vídeo a partir de diversas imagens. O MatLab permite também o processamento de vídeo usando o módulo Simulink. As funções (para imagem e vídeo) podem ser acessadas através do munu Vídeo and Image Processing Blockset conforme a Fig. 10.7.

Fig. 10.7. Acesso aos blocos de processamento de imagem e vídeo pelo Simulink. As possíveis entradas para o sistema são acessadas pelo item sources enquanto as saídas podem ser geradas pelos blocos sinks (Fig. 10.8).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 291

Fig. 10.8. Entrada e saída de dados multimídia via Simulink. A Fig. 10.9 apresenta um esquema simples com um vídeo exemplo do MatLab inserido e apresentado. Para executar a simulação, basta clicar em Simulation>Start (tecla de atalho: CTRL+T).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 292

Fig. 10.10. Sequência de blocos do Simulink para apresentar um vídeo. Outros blocos podem ser colocados entre a entrada e saída para gerar processamento do vídeo como na Fig. 10.11 (uma rotação) e na Fig. 10.12 (uma transformação geométrica).

Fig. 10.11. Execução de uma rotação em um vídeo

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 293

Fig. 10.12. Execução de uma transformação geométrica em um vídeo

10.4.2 Processamento de Áudio no MatLab

Um som pode ser gravado com a função wavrecord que gera um arquivo do tipo wav: >> som = wavrecord (16000, 8000, 1, ‘double’); Esse comando grava 16000 amostras com uma taxa de amostragem de 8 kHz e o armazena no vetor som do tipo double. O parâmetro ‘1’ indica que a gravação é feita em apenas um canal (mono) e não em estéreo. Para tocar o som, basta usar o comando soundsc: >> soundsc (som); Às vezes, é importante informar a frequência de amostragem: >> soundsc (som, 8000); O arquivo de som pode ser plotado em um gráfico como um vetor comum:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 294

>> plot (som); É comum precisarmos trabalhar com o arquivo de som normalizado. Para tanto, usamos: >> som = som/max(abs(som)); Isso não muda o sinal apenas o apresenta com amplitude entre -1 e 1. A leitura de um arquivo wav pode ser feita com o comando wavread: >> som = wavread (‘teste.wav’); ou >> [som, fs] = wavread (‘teste.wav’); Nesse segundo caso, a frequência de amostragem do sinal é salva na variável fs. O comando wavread não permite que o parâmetro de entrada seja uma variável com o nome do arquivo. A entrada precisa ser especificamente o nome do arquivo de som. O processamento do sinal de áudio pode ser feito através de filtros como o processamento de sinais, usando a função filter: >> y = filter (b, a, som); onde a e b são os coeficientes do filtro a ser aplicado (para filtros FIR, a = 1).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 295

Exemplo 1: >> som = wavread(‘a_casa.wav’); >> plot (som);

Calculando a transformada de Fourier: >> som_spec = fft (som, 256); >> plot (abs(som_spec));

Um gráfico em formato mais padrão pode ser obtido com as baixas frequências centralizadas: >> plot (abs(fftshift(som_spec)));

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 296

Suponha um filtro IIR com função de transferência: H(z) = 1 – 0,9375z-1: >> h = [1 -0.9375]; >> y = filter(h, 1, som); >> soundsc(y, 22000); Ouviremos um som mais nasal. Vamos fazer o mesmo processamento, mas dividindo o som em amostras de 240 frames cada que serão filtradas individualmente e re-agrupadas depois: >> w = 240; >> n = floor(length(som)/w); >> for k=1:n seg = som(1+(k - 1)*w:k*w); segf = filter(h, 1, seg); outsp(1+(k-1)*w:k*w) = segf; end >> soundsc(outsp, 22000); Observem, a seguir (Fig. 10.13), a plotagem do sinal original (som) e filtrado (outsp), assim como suas transformadas de Fourier:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 297

Fig. 10.13. (coluna da esquerda) Sinal original e sua transformada e (coluna da direita) sinal filtrado e sua transformada. 

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 298

Exemplo 2: Como um exemplo da dificuldade de analisar um sinal que muda constantemente, vamos construir um sinal “ágil na frequência” (um que muda rapidamente suas características de frequência): >> y = chirp([0:0.001:5],0,5,500); >> soundsc (y); % Escute o som para entende-lo!! >> z = [y, y(length(y):-1:1), y]; >> f = abs(fft(z, 8192)); >> plot(f(1:4096));

Mas esse gráfico representa mesmo o sinal que criamos? Vamos observar melhor o sinal quebrando ele em janelas e plotando-as como uma “queda d’água” (waterfall) para ver como as frequências mudam pelo tempo. >> s = spectrogram(z, 1024); >> waterfall(abs(s)');

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 299

A plotagem em “queda d’água” mostra cerca de 30 pedaços no tempo, cada um correspondendo a uma FFT-512 e indicando claramente que diferentes componentes de frequência estão presentes durante cada período de tempo. Veja o resultado para diferentes FFTs de N-Pontos: >> s = spectrogram(z, 256); >> waterfall(abs(s)');

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

>> s = spectrogram(z, 8192); >> figure, waterfall(abs(s)');

Página 300

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 301

Exemplo 3: Criando música no MatLab: Primeiro, vamos crier uma onda senoidal de amplitude A = 1, com uma frequência de 523,25 Hz (correspondente a um pitch C em um piano; uma oitava acima do C médio): cnote = sin(2*pi*523.25*(0:0.000125:0.5)); Esse vetor cnote contém amostras da onda senoidal de t = 0s a t = 0.5s, as amostras são separadas de 0.000125s (que é o intervalo de amostragem Ts). Note que esse intervalo de amostragem corresponde à frequência de amostragem de 8 kHz (1/Ts = fs). Podemos graver esse som com o comando wavwrite: wavwrite(cnote, ‘c.wav’); E temos a primeira nota. O seguinte site apresenta a frequência de diferentes notas (apresentadas na tabela a seguir): http://www.dolmetsch.com/musictheory27.htm.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 302

Usando essa informação, podemos criar diferentes notas no MatLab. Observe que existem diferentes oitavas da mesma forma que existem diferentes teclas em um piano. Aqui estão algumas no MatLab: f = sin(2*pi*174.61*(0:0.000125:0.5)); g = sin(2*pi*195.99*(0:0.000125:0.5)); a = sin(2*pi*220*(0:0.000125:0.5)); b = sin(2*pi*246.94*(0:0.000125:0.5)); Pas de música faça: line1 = [a,b,c,d,e,f]; line2 = [a,b,c,d,e,f]; As letras correspodem às notas que você cria no MatLab de acordo com a tabela anterior. Coloque as notas na ordem que você quiser tocá-las. Para crier uma música use: song = [line1, line2]; e toque com sound() ou soundsc().

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 303

10.5 Exercícios 1. Implemente no MatLab o Código de Huffman e aplique-o para compressão do arquivo de voz sentence.wav. 2. Como podemos avaliar a qualidade de um algoritmo de compressão para imagens estáticas ou dinâmicas (vídeos)? 3. No mesmo arquivo de voz, implemente a técnica DPCM e apresente qual a maior diferença entre tons adjacentes que ela possui. Nesse caso, você acha que o algoritmo seria eficiente para compressão ou não? 4. No MatLab, capture dois frames próximos do arquivo vipmen.avi e calcule com PSNR a diferença entre os frames. 5. Usando o MatLab (funções dct2.m e idct2.m), calcule através do uso do PSNR a perda provocada pelo uso da DCT na imagem lena.bmp. 6. Cite os princípios básicos de funcionamento da compressão MP3, definidos pela psicoacústica. 

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 304

10.6 Bibliografia Complementar 1. A.C.Bovik, The Essential Guide to Video Processing, Academic Press, 2009. 2. C.Wootton,A Practical Guide to Video and Audio Compression, Focal Press, 2005. 3. D.Hankersson ,Introduction to Information Theory and Data Compression, CRC Press, 2003.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 305

11. Processamento de Voz O som é uma vibração que propaga pelas moléculas do ar até nossos ouvidos. De uma forma geral, os sons são variações na pressão do ar ao longo do tempo em frequências que podemos ouvir. A voz é um tipo específico de som. Logo, um som pode ser uma voz ou não. A voz consiste de um conjunto de sons que podem ser gerados pelo ser humano. O sinal de voz pode ser plotado (Fig.11.1) como uma forma de onda na qual podemos observar valores positivos e negativos. Isso acontece porque a radiação de voz da boca faz com que a pressão do ar seja temporariamente maior ou menor que a pressão do ar do ambiente.

Fig. 11.1. Exemplo de plotagem de um sinal de voz. O propósito primário da voz é comunicação. De acordo com a Teoria da Informação conforme definida por Claude Shannon [Shannon, 1945], a voz pode ser representada em termos de conteúdo ou informação. Outra maneira de caracterizar o sinal de voz é como sendo uma onda acústica que carrega a informação. Para o processamento de voz, o mais comum é entendermos o sinal de voz como sendo uma onda ou algum modelo paramétrico como discutiremos posteriormente. A Informação gerada no cérebro é convertida em um conjunto de sinais neurais os quais controlam o mecanismo articulatório (movimentos da língua, lábios, cordas vocais, etc). As articulações movem-se em resposta a estes sinais neurais para desempenhar uma sequência de gestos os quais resultam em uma forma de onda acústica que contém a informação da mensagem original.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 306

A informação que é comunicada através do sinal de voz é intrinsicamente discreta, ou seja, pode ser representada como uma concatenação de um conjunto finito de símbolos – fonemas. Um fonema é uma unidade de voz, o conjunto que define todos os sons dos quais palavras podem ser construídas em uma linguagem particular: as línguas possuem cerca de 30 a 50 fonemas distintos (por exemplo, o inglês possui 42 fonemas). Assim, um código de 6 bits pode representar todos os fonemas. Na fala usamos cerca de 10 fonemas por segundo o que leva a uma taxa média de informação de 60 bits/seg. Ou seja, o equivalente escrito da voz contém informação equivalente a 60 bits/seg para uma taxa normal de fala. A voz é transmitida, armazenada e processada de maneiras diferentes de modo a preservar o seu conteúdo. O interesse em qualquer sistema é: - Preservação do conteúdo da mensagem no sinal de voz; - Representação do sinal de voz em uma forma que seja conveniente para transmissão ou armazenamento ou numa forma flexível tal que modificações possam ser feitas sem degradar o conteúdo do sinal de voz. A Fig. 11.2 mostra onde o processamento de sinais, de uma forma geral, se encaixa em todo o universo do sinal de voz. Nela, vemos a figura humana como sendo a fonte de informação, ou seja, de onde a voz é gerada. Essa informação é convertida para algum meio observável (a forma de onda) o qual é pode sofrer diferentes representações (como a mudança para o domínio da frequência) e transformações. Por fim, o sinal transformado é utilizado novamente pelo homem ou por algum dispositivo.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 307

Fig. 11.2. Visão geral da manipulação e processamento da informação. O processamento do Sinal de Voz é o veículo para obtenção de uma representação geral do sinal tanto como forma de onda ou na forma paramétrica Ele serve como função auxiliar no processo de transformar a representação do sinal em formas alternativas que sejam mais gerais em natureza, mas mais apropriadas para aplicações específicas. O processamento digital de sinais (PDS) tem interesse na obtenção de representações discretas dos sinais e no design e implementação de procedimentos numéricos para processar essa representação. As técnicas digitais surgiram, primeiramente, para simular sistemas analógicos. Em meados da década de 60, PDS tornou-se viável devido à criação de processadores mais rápidos e a avanços teóricos quanto ao tema. Há diversas vantagens dos sistemas digitais para os analógicos: - Sistemas digitais são mais confiáveis; - Grande capacidade de integração, podendo ser implementados em um único chip;

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 308

- Baixo custo; - Permitem comunicação em canais ruidosos; - Maior segurança de informação (permite inclusão de elementos de criptografia). O propósito do processamento digital pode ser: •

Saber se determinado sinal corresponde a um sinal de voz ou não



Classificar uma seção de um sinal de voz como: o voz audível (voiced speech) o voz inaudível (unvoiced speech) o silêncio ou ruído de fundo



Redução de ruído

Para redução de ruído, por exemplo, a filtragem digital do sinal usando filtros FIR ou IIR pode trazer bons resultados. Vejamos o exemplo a seguir. Dado o sinal de voz abaixo:

Trata-se de um sinal de voz ruidoso contendo a expressão “a casa” com um ruído de fundo. Esse sinal pode ser filtrado com a redução do ruído através do uso de uma janela de Hanning conforme o código: [y, fs] = wavread('casa1.wav'); b = fir1(98, 31/80, hanning(99)); filt_sp=filter(b,1,y); f = 0:8000/(127):8000; subplot(2,1,1) spect=fft(y, 256);

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 309

plot(f, abs(spect(1:128)))/max(abs(spect(1:128))); xlabel ('frequencia'); subplot(2,1,2); filt_spect=fft(filt_sp, 256); plot(f, abs(filt_spect(1:128))/max(abs(filt_spect(1:128)))); wavwrite (filt_sp, fs, 'casa1_firfilt.wav'); Gerando como resposta o seguinte sinal:

Os sonogramas abaixo mostram o resultado da aplicação do filtro no domínio da frequência, sendo esse o sinal original:

e esse o sinal filtrado:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 310

Considerando a aplicação de técnicas de processamento digital de sinais a problemas de comunicação por voz, é interessante observar três aspectos principais: a representação do sinal de voz na forma digital, a implementação das técnicas de processamento e a classe de aplicações. A representação do sinal de voz na forma discreta é, claro, de fundamental importância para todo o processo. Essa conversão é guiada pelo teorema da amostragem que diz que um sinal banda-limitado pode ser representado por amostras colhidas periodicamente no tempo desde que elas sejam tomadas a uma taxa alta o suficiente (teorema de Nyquist). Assim, o processo de amostragem é o passo inicial de toda a teoria e aplicações do processamento digital da voz. Existem muitas formas de representar um sinal de voz. Essas representações podem ser classificadas em dois grandes grupos (Fig. 11.3): representações em forma de onda e representações paramétricas. A representação em forma de onda está preocupada com a preservação da forma de onda do sinal analógico através de um processo de amostragem e quantização. Já a representação paramétrica está preocupada com a representação do sinal de voz como a saída de um modelo para produção de voz. A obtenção de uma representação paramétrica, em geral, começa com a forma de onda (ou seja, o sinal amostrado e quantizado). A seguir, o sinal é tratado para obtenção dos parâmetros necessários para sua representação. Esses parâmetros são classificados em parâmetros de excitação (relativos à fonte da voz) e parâmetros do trato vocal (relativos a sons de voz individuais).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 311

Fig. 11.3. Representações do sinal de voz. Existem diversas aplicações relacionadas com processamento do sinal de voz. A Fig. 11.4 exemplifica algumas delas. A transmissão e o armazenamento digital relacionam-se com técnicas de compressão do sinal de voz. A produção de voz humana para, por exemplo, leitura de textos é a preocupação em métodos de síntese de voz, onde os maiores problemas estão relacionados com a criação automática de elementos como entonação da voz e a produção de um texto que soe natural ao nosso sistema auditivo. O reconhecimento de interlocutor pode estar associado a questões de segurança; onde um dado sistema só se torna acessível se padrões de voz permitidos forem reconhecidos. O reconhecimento da fala pode permitir que o computador atenda a comandos vocais. O sinal de voz pode ser melhorado com eliminação de ruído ou eco como um préprocessamento para quaisquer das aplicações anteriores. Muitas dessas aplicações são naturalmente indicadas para ajudar pessoas com necessidades especiais como deficientes visuais.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 312

Fig. 11.4. Aplicações relacionadas com processamento de voz.

11.1 Amostragem e Quantização

Dada a relação direta entre processamento de voz e processamento de sinais, vamos fazer uma breve revisão de alguns conceitos básicos de processamento de sinais. Um sinal é geralmente representado por um padrão que varia no tempo. A voz produzida pelo ser humano é desta natureza: x(t). É possível representar um sinal como uma sequência de números: x(n). Esta sequência pode ser vista como uma sequência de amostras de um sinal analógico feitas com período de amostragem T: xa(nT). A Fig. 11.5 ilustra essa representação.

Fig. 11.5. Representação de um sinal de voz na forma de onda e amostrado.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 313

As funções básicas para o processamento digital de sinais são o impulso e o degrau unitário. Elas podem ser definidas como: Impulso: δ(n) = 1, para n = 0, e δ(n) = 0, caso contrário Degrau Unitário: u(n) = 1, para n ≥ 0, u(n) = 0, caso contrário No caso, podemos afirmar que: δ(n) = u(n) - u(n – 1) É através da função impulso que podemos representar as amostras de um sinal digitalizado (Fig. 11.6).

Fig. 11.6. Sequência de impulsos representando uma função exponencial discreta. A discretização do sinal é um passo fundamental para que o processamento posterior aconteça de forma adequada. A Fig. 11.7 ilustra os possíveis resultados da discretização de uma função com diferentes taxas de amostragem, resultando em um sinal de boa ou de má qualidade.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

a)

Página 314

b)

Fig. 11.7. a) Sinal amostrado com uma taxa apropriada para sua recuperação e b) o mesmo sinal amostrado de forma incorreta (baixa taxa de amostragem) tornando impossível uma recuperação fiel ao original. Além da amostragem, o sinal de voz passa por outro processo para ser digitalizado: a quantização. Na Fig. 11.8, podemos ver o sinal de entrada contínuo, sendo inserido em um amostrador que cuida da discretização do sinal no tempo. O quantizador é responsável então pela discretização do sinal em amplitude.

Fig. 11.8. Amostragem e quantização, gerando o sinal discreto final. Se um sinal analógico for banda limitado e amostrado na taxa de Nyquist podese reconstruir o sinal original. O sinal de voz não é banda limitado, embora o espectro tenda a cair rapidamente para frequências mais altas. Uma representação fiel da voz exige uma taxa de amostragem de, pelo menos, 20 kHz. As frequências que mais contribuem para o sinal de voz estão abaixo de 3,5 kHz. É por isso que há uma certa dificuldade em reconhecer uma voz ao

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 315

telefone. Se passarmos o sinal de voz por um filtro passa-baixa, podemos, para a maioria das aplicações, utilizar uma taxa de Nyquist de 8 kHz. É conveniente separar os processos de amostragem e quantização. Na prática é geralmente impossível distinguir entre eles. Números binários são usados para representarmos os níveis de quantização. Podemos representar a quantização como na Fig. 11.9. O sinal amostrado, x(n), é quantizado com um passo ∆, gerando o sinal codificado c(n). Esse sinal é transmitido e decodificado. Se não houve erros na transmissão, o sinal recebido c’(n) deverá ser igual a c(n).

Fig. 11.9. Processo de quantização, codificação e envio do sinal. Na transmissão, o sinal é decodificado. Se a transmissão foi sem erro, c(n) = c’(n). A quantização pode ser: a) Quantização Instanânea; b) Quantização Uniforme; c) Companding Instanâneo; d) Quantização Adaptativa. Na quantização instantânea as amplitudes das amostras são quantizadas dividindo-se a amplitude em um conjunto finito de pequenas variações de amplitude. Dá-se o mesmo valor a todas as amostras dentro de um mesmo

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 316

patamar de amplitude. Para uma representação em 3 bits há 8 possíveis rótulos (Fig. 11.10) e conseqüentemente o número de diferentes sequências de rotulação é o fatorial de 8.

Fig. 11.10. Quantização instantânea com 3 bits. Q quantização uniforme exige uma mesma distância entre xi e xi-1. Existem duas classes de quantizadores uniformes: mid-riser e mid-tread. No mid-riser, a origem aparece no ponto médio da parte crescente de uma função escada. O quantizador mid-riser é conveniente quando temos o número de níveis uma potência de 2. O mid-riser possui o mesmo número de níveis positivos e negativos que estão simetricamente posicionados em relação à origem. O quantizador mid-tread possui um nível negativo a mais que positivo. O quantizador mid-tread possui o zero (000) no meio da escala o que é útil em diversas aplicações. O quantizador mid-riser não possui o nível zero. Pode-se ter desde a codificação direta a escolhas que tentem manter equilibrada a potência utilizada entre os bits da amostra em relação a origem, etc. A Fig. 11.11 apresenta esses dois quantizadores para uma quantização de 3 bits como na Fig. 11.11.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 317

a)

b) Fig. 11.11. Quantizadores de 3 bits: a) mid-riser e b) mid-tread.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 318

Companding é uma expressão que significa compress + expand. Para tornar a porcentagem de erro constante os níveis de quantização devem ser espaçados logaritmicamente. Para tanto, o logaritmo da entrada é quantizado ao invés da própria entrada: y(n) = ln|x(n)| Cujo inverso é: x(n) = exp[y(n)]sgn[x(n)] Dessa maneira, pode-se mostrar que o nível sinal-ruído é independente da variância do sinal. Problemas acontecem com pequenas amplitudes (x[n] ≈ 0). A Fig. 11.12 apresenta em diagrama de blocos como se desenvolve a codificação e a decodificação do sinal.

Fig. 11.12. Representação da técnica de companding. O problema da quantização é quanto a quantidade de degraus. Desejamos fazer essa quantidade suficientemente grande para termos uma varredura pico-a-pico do sinal. Mas isso implica mais níveis de quantização. Porém, mais níveis de quantização implica em uma cpdificação com mais bits o que implica em maior tempo de processamento/espaço de armazenamento; o que não é interessante. Esse é o grande dilema.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 319

Uma solução está em utilizar um quantizador não-uniforme. Alternativamente, pode-se adaptar as propriedades do quantizador aos níveis do sinal de entrada. O tamanho do degrau ∆ varia casadamente com a variância do sinal de entrada. A Fig. 11.13 apresenta o comportamento de um tal quantizador.

Fig. 11.13. Quantização adaptativa.

11.2 Técnicas Temporais para Processamento de Voz

Técnicas temporais para processamento de voz envolvem a forma de onda do sinal diretamente (em contraste com métodos do domínio da frequência). São simples de implementar e ricas em informação. As técnicas mais difundidas são: a) Taxa de passagem pelo Zero (zero-crossing rate); b) Energia do Sinal; c) Magnitude do Sinal; d) Auto-Correlação.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 320

As propriedades do sinal de voz variam com o tempo: a excitação muda entre a voz audível e não audível; a amplitude do sinal varia; há uma variação significativa da frequência fundamental para a voz audível. Essas propriedades são nitidamente observáveis na forma de onda. Por isso, os métodos podem ser aplicados no domínio do tempo, diferente de outros tipos de sinais que são preferivelmente tratados no domínio da frequência. A maioria dos sistemas de processamento de voz assume que as propriedades da fala mudam relativamente devagar com o tempo. Afinal, não há variações bruscas num fonema ou entre fonemas. Assim, podem-se utilizar métodos de processamento em tempo curto (short-time), nos quais analisam-se amostras de curta duração do sinal. Cada segmento curto de voz é visto como um som estável com propriedades fixas. Às vezes, esses segmentos se sobrepõem. Essas amostras de curta duração são geralmente chamadas de moldura de análise (analysis frames). O resultado da análise de uma moldura pode ser um número ou um conjunto de números. A sequência gerada pode ser tomada como uma nova representação no tempo do sinal original. É geralmente assumido que o sinal de voz foi limitado em faixa e que foi amostrado em taxa não inferior a taxa de Nyquist (pelo menos 8.000 amostras/segundo). É também considerado que o sinal foi quantizado e que o erro de quantização é desprezível. A maioria das técnicas de processamento em tempo curto pode ser representada pela equação:

Qn =



∑ T [ x(m)]w(n − m) m = −∞

(Eq.

11.1) o sinal de voz, x(.), é submetido a transformação T[ ], linear ou não, a qual pode depender de um conjunto ajustável de parâmetros.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 321

Observando a Eq. 11.1, podemos vê-la como uma operação de convolução da transformação do sinal de entrada x() por uma função w. Aqui, podemos entender w como uma sequência de janelas posicionadas em um tempo correspondente a amostra índice n (Fig. 11.14). O produto é somado sobre todos os valores diferentes de zero. Geralmente, w é de duração finita, mas pode ser infinita.

Fig. 11.14. Processamento de um sinal de voz em uma janela w.

11.2.1 Energia de Curta Duração Das técnicas temporais para processamento de voz a mais simples é a Energia de Curta-Duração. A amplitude do sinal de voz varia apreciavelmente com o tempo. A voz audível apresenta amplitude maior que a voz inaudível ou o silêncio (ruído de fundo), assim, a energia de curta duração de um sinal provê uma representação conveniente que reflete as variações de amplitude. A energia de um sinal discreto no tempo pode ser definida como:

E=



∑x

2

(m)

m = −∞

Em relação à equação de Qn (Eq. 11.1), temos: T[ ] = quadrado w(n) = 1, 0 ≤ n ≤ N – 1 e 0, caso contrário. A energia de tempo curto de um sinal de voz pode ser definida como:

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 322



∑ [ x(m).w(n − m)]

En =

2

m = −∞

que pode ser re-escrita como:

En =



∑ x (m) .h(n − m) 2

m = −∞

com h(n) = w2(n). Observamos que En é um número e não uma função. Um problema relacionado ao processamento em tempo curto é o tamanho da janela. Para o caso da Energia, por exemplo, se a janela for muito longa e constante em amplitude, En varia muito pouco em relação ao tempo. Essa janela seria equivalente a um filtro de passa-baixa de banda (muito) estreita. Uma janela estreita demais não consegue produzir uma função suave de energia. Se a janela for muito estreita, não proverá medições suficientes para produzir uma função de energia suave. Se a janela for da ordem de vários picos do sinal, En não vai refletir as variações do sinal. Esse conflito é de grande importância na representação em tempo curto de sinais de voz. Dessa maneira o tamanho da janela varia desde: a) 20 amostras para uma voz aguda de mulher ou criança; b) 250 amostras para uma voz grave de homem. Na prática, para uma frequência de amostragem do sinal de 10 kHz deve-se utilizar uma janela da ordem de 100 < N < 200 amostras (10 ms < t < 20 ms). A maior significância de En está em conseguir distinguir entre segmentos com voz audível e voz inaudível. Os valores de En são significativamente maiores para sinais audíveis. En pode ser usada para determinar o tempo onde um sinal audível torna-se inaudível e vice-versa; se o sinal for de boa qualidade pode-se distinguir a voz do silêncio.

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 323

11.2.2 Magnitude de Curta Duração Outra técnica de processamento em tempo curto é a Magnitude de Curta Duração. O cálculo da energia é muito sensível a níveis altos de sinal (devido à potenciação na computação de En). Uma maneira de aliviar este problema é utilizar-se uma função de magnitude média: ∞

∑ | x(m) | w(n − m)

Mn =

m = −∞

Essa função é de aritmética mais simples que a energia, porém tem menor capacidade de diferenciação entre voz audível e inaudível. Tanto para a Energia quanto para a Magnitude de Curta Duração para uma janela de 20ms uma taxa de amostragem de 100 amostras/seg. é adequada. A janela não precisa ser restrita a qualquer função comumente utilizada como filtro. Ela também não precisa ser retangular; é necessário apenas que o filtro seja suave e passa-baixa. Pode ser um filtro FIR ou IIR; sugere-se FIR, pois a saída é mais fácil de ser computada a uma baixa taxa de amostragem. A janela não precisa ter dimensão finita; basta que a Transformada-Z seja uma função racional. Por exemplo, se: h(n) = an =0

,n≥0 ,n|a|

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 324

Que possui as propriedades de um filtro passa-baixa. A Energia e a Magnitude devem ser calculadas para cada amostra do sinal de entrada, correspondendo a filtros causais com fase linear.

Fig. 11.15. Um valor de a entre 0 e 1 pode produzir janelas de maior ou menor banda-passante.

11.2.3. Taxa de Passagem pelo Zero Diz-se que houve uma passagem pelo zero quando duas amostras sucessivas possuem sinais diferentes. A taxa com que há a passagem pelo zero é apenas uma medida do conteúdo de frequência do sinal. Este fato é particularmente verdadeiro para sinais faixa-estreita. Esse conceito define a técnica de processamento de Passagem pelo Zero em Tempo Curto. Um sinal senoidal de frequência F0, amostrado numa taxa Fs, possui Fs/F0 amostras por ciclo de senóide. Cada ciclo possui duas passagens pelo zero (Fig. 11.16), ou seja, a taxa média de passagens pelo zero é: Z = 2.F0/Fs passagens/amostra

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 325

Fig. 11.16. Uma senóide tem duas passagens pelo zero em um ciclo. Os sinais de voz são sinais faixa-larga e, portanto, a interpretação da taxa média de passagem pelo zero é menos precisa. Estimativas grosseiras das propriedades espectrais podem ser obtidas baseadas na taxa de passagem pelo zero média em tempo curto. Pode-se definir:

zn =



∑ | sgn[ x( m)] − sgn[ x(m − 1)] | w(n − m) m = −∞

onde sgn[x(m)] = 1, se x(n) ≥ 0 = -1, se x(n) < 0 e w(n) = 1/(2N), para 0 ≤ n ≤ N-1 = 0, caso contrário O modelo para a produção da fala sugere que a energia dos sinais de voz está concentrada abaixo de 3 kHz (340 Hz a 4 KHz) devido ao corte produzido pela onda produzida na glote. A maior parte da energia para sinais de voz não audíveis é de alta-frequência: altas frequências implicam uma taxa alta de passagem pelo zero e baixas frequências implicam numa taxa baixa de passagem pelo zero. Assim, há uma correlação forte entre taxa de passagem

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 326

pelo zero e a distribuição de energia com a frequência: se a taxa de passagem pelo zero é alta, o sinal é inaudível; do contrário, o sinal é audível. A taxa média de passagem pelo zero em tempo curto é de: i) 49 vezes por 10 ms para sinais não-audíveis. ii) 14 vezes por 10 ms para sinais audíveis. Há uma sobreposição das distribuições de sinais audíveis e não-audíveis de forma que esta divisão não pode ser tomada somente com a informação da taxa de passagem pelo zero. Isso dificulta a decisão entre voz audível e inaudível. A taxa de passagem pelo zero é fortemente afetada por: a) sinal de rede elétrica; b) qualquer ruído no processo de digitalização. Cuidado extremo deve ser tomado no processo analógico antes da digitalização; é preferível utilizar-se um filtro passa-faixa ao invés de passa-baixa. Para eliminar a frequência de 60 Hz da rede elétrica que pode corromper o sinal original. O problema de ruído de fundo é de grande importância no reconhecimento de voz. É essencial saber onde cada palavra inicia e termina. A separação Voz/Silêncio não é simples exceto no caso de gravações de alta-fidelidade em câmaras de gravação. Em gravações com alta relação sinal/ruído os sons da voz de menor intensidade são mais fortes que o ruído de fundo.

11.2.4. Função de Autocorrelação A última técnica de processamento de sinal de voz é a Função de Autocorrelação de Tempo Curto. A autocorrelação de um sinal determinístico discreto no tempo é dada por:

Φ (k ) =



∑ x (m) x(m + k ) m = −∞

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 327

A representação em função de autocorrelação de um sinal é um modo conveniente de apresentar algumas propriedades do sinal. Por exemplo, se o sinal é periódico com período de P amostras, então:

φ(k) = φ(k+P) Ou seja, a autocorrelação de uma função periódica também é periódica com o mesmo período. Outras propriedades importantes da função de autocorrelação são: 1) Ela é uma função par: φ(k) = φ(-k); 2) Ela alcança seu valor máximo quando k = 0; i.e.; |φ(k)|≤0, para todo k; 3) O valor de φ(0) é igual à Energia para sinais determinísticos ou à potência média para sinais periódicos. A função de autocorrelação para tempo curto é definida como:

Rn ( k ) =



∑ x ( m ) w( n − m ) x ( m + k ) w( n − k − m ) m = −∞

Ou seja, primeiro, um segmento de voz é selecionado pelo produto com a janela; em seguida, a autocorrelação é aplicada ao segmento de voz sob a janela. A técnica de autocorrelação pode ser usada para estimativa do pitch (frequência fundamental) de um sinal de voz. O seguinte código do MatLab pode ser usado para estimar a frequência fundamental de um sinal usando a função de autocorrelação: [x,fs]=wavread('casa1.wav'); ms20=fs/50;

% minimum speech Fx at 50Hz

% % plot waveform t=(0:length(x)-1)/fs; subplot(2,1,1); plot(t,x); legend('Waveform');

% times of sampling instants

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 328

xlabel('Time (s)'); ylabel('Amplitude'); % % calculate autocorrelation r=xcorr(x,ms20,'coeff'); % % plot autocorrelation d=(-ms20:ms20)/fs;

% times of delays

subplot(2,1,2); plot(d,r); legend('Autocorrelation'); xlabel('Delay (s)'); ylabel('Correlation coeff.'); % Estimativa da frequencia fundamental ms2=fs/1000; ms20=fs/50;

% maximum speech Fx at 1000Hz % minimum speech Fx at 50Hz

% just look at region corresponding to positive delays r=r(ms20+1:2*ms20+1); [rmax,tx]=max(r(ms2:ms20)); fprintf('rmax=%g Fx=%gHz\n',rmax,fs/(ms2+tx-1)); Podemos ver a aplicação desse código no sinal de voz correspondente ao som “a casa”. Nesse caso, a frequência fundametal estimada é: Fx=512.195Hz

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 329

11.3 Análise Cepstral

O nome “cepstrum” vem do inverso da primeira metade da palavra “spectrum” (espectro) e plota a amplitude de um sinal versus sua “quefrência” (que seria o inverso da frequência). Essa técnica é útil para separar componentes de um sinal complexo formado por diversos simultâneos, mas diferentes elementos combinados. O cepstrum é gerado pela transformada de Fourier de logaritmo da transformada de Fourier. São duas transformadas de Fourier calculadas, mas, de fato, na prática, a segunda transformada pode ser a transformada inversa. A utilidade da análise do cepstrum deriva do fato que ele corresponde à transformada inversa de Fourier do logaritmo da transformada de Fourier. Isso significa que os componentes de frequência foram ordenados logaritmicamente. Na matemática, um dos princípios do logaritmo é que, se alguma expressão é a combinação multiplicativa de dois elementos, então, no domínio logarítmico,

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 330

esses elementos são combinados aditivamente. Colocando de outra forma, se o sinal sob análise y(t) é igual a h(t) vezes x(t): y(t) = h(t).x(t) então: log[y(t)) = log[h(t)] + log[x(t)] No domínio do processamento digital de voz, x(t) pode ser o pitch enquanto h(t) é o componente do trato vocal. A quefrência é uma medida de tempo, embora não no sentido de um sinal no domínio do tempo. Por exemplo, se a taxa de amostragem de um sinal de áudio é 44100 Hz e existe um pico no gráfico do cepstrum cuja quefrência é 100 amostras, o pico indica a presença de um pitch que é 44100/100 = 441 Hz. Esse pico ocorre no cepstrum porque os harmônicos no espectro são periódicos e o período corresponde ao pitch. O código de MatLab abaixo estima a frequência fundamental do arquivo ‘casa1.wav’: [x,fs]=wavread('casa1.wav'); ms1=fs/1000;

% máxima frequência de voz Fx em 1000Hz

ms20=fs/50;

% mínima frequência de voz Fx em 50Hz

% % plotagem da forma de onda t=(0:length(x)-1)/fs; subplot(3,1,1); plot(t,x); legend('Waveform'); xlabel('Time (s)'); ylabel('Amplitude'); Y = fft(x); % plotagem do espectro abaixo de 5000Hz hz5000=5000*length(Y)/fs; f=(0:hz5000)*fs/length(Y);

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

subplot(3,1,2); plot(f,20*log10(abs(Y(1:length(f)))+eps)); legend('Spectrum'); xlabel('Frequency (Hz)'); ylabel('Magnitude (dB)'); % cepstrum C=fft(log(abs(Y)+eps)); % plotagem entre 1ms (=1000Hz) e 20ms (=50Hz) q=(ms1:ms20)/fs; subplot(3,1,3); plot(q,abs(C(ms1:ms20))); legend('Cepstrum'); xlabel('Quefrency (s)'); ylabel('Amplitude'); [c,fx]=max(abs(C(ms1:ms20))); fprintf('Fx=%gHz\n',fs/(ms1+fx-1));

Frequência estimada: 667.171Hz

Página 331

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 332

Outra aplicação do cepstrum é a extração da informação de envelope para análise da voz. Em geral, o envelope espectral é uma forma mais suave do gráfico da frequência, onde o processo de suavização ignora os componentes de mais alta frequência. No domínio cepstral, isso corresponde ao descarte de todos os coeficientes cepstrais relacionados às frequências maiores que o envelope da frequência. Isso pode ser conseguido no MatLab com o código abaixo: [som, fs] = wavread('casa1.wav'); ps = log(abs(fft(som))); len = length(som); cep = ifft(ps); % Filtragem cut = 30; cep2 = zeros(1, len); cep2(1:cut-1) = cep(1:cut-1)*2; cep2(1) = cep(1); cep2(cut) = cep(cut); % Converte para o dominio da frequencia env = real(fft(cep2)); act = real(fft(cep)); pl1 = 20*log10(env(1:len/2)); pl2 = 20*log10(act(1:len/2)); span = [1:fs/len:fs/2]; pl1(length(pl1)) = []; pl2(length(pl2)) = []; plot (span, pl1, 'k-.'); figure, plot(span, pl2, 'g'); Na figura a seguir temos o cepstrum (em verde) e o envelope (em preto).

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 333

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 334

11.4 Exercícios 1. Explique a técnica temporal de processamento de voz de Energia de Curta Duração, seguindo os seguintes passos: a) Defina a equação Qn =



∑ T [ x(m)]w(n − m) m = −∞

b) Cite quais os cuidados que devem ser tomados na definição da janela w(n). 2. Diferencie Quantização e Amostragem, relacionando as duas técnicas com o processo de Digitalização de um sinal. É correto afirmar que a quantização de um sinal pode compactá-lo? Essa compactação seria com ou sem perda de informação? 3. Construa o gráfico da função característica do quantizador de 2 bits definido pela seguinte relação entre as amostras quantizadas e a palavra código:

^

x = sign(c(n)) * (c(n) + 1) * ∆ / 2 onde a função sign(c(n)) é igual a +1, se o primeiro bit de c(n) for igual a zero, e igual a –1, se o primeiro bit de c(n) for 1. Para c(n) é usada uma representação em sinal-magnitude. Tal quantizador possui características de um quantizador mid-riser? E mid-tread? 

Processamento Digital de Sinais – Prof. Carlos Alexandre Barros de Mello

Página 335

11.5 Bibliografia Complementar 1. Lawrence Rabiner, Ronald W. Schafer, Digital Processing of Speech Signals, Prentice Hall, 1978. 2. Vilay K. Madisetti, The Digital Signal Processing Handbook, CRC Press, 2010. 3. VOICEBOX

(a

MATLAB

toolbox

for

speech

http://www.ee.ic.ac.uk/hp/staff/dmb/voicebox/voicebox.html

processing):

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF