Señales y sistemas escalares unidimensionales de variable real

September 15, 2017 | Author: yuuuuyu | Category: Physics & Mathematics, Physics, Theory, Vector Space, Mathematics
Share Embed Donate


Short Description

Descripción: Señales y sistemas escalares unidimensionales de variable real...

Description

Índice General

Introducción y Análisis General

1

1 Introducción

3

1.1

Presentación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3

1.2

Algunos ejemplos iniciales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

1.3

Algunas ideas de partida. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.4

Problemas directos e inversos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1.5

Abreviaturas y lista de símbolos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2 Espacios de Señales

19

2.1

Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2.2

Resumen del álgebra de funciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2.3

Algunos criterios para la clasi…cación de señales. . . . . . . . . . . . . . . . . . . . . . . . 21

2.4

2.5

2.6

2.7

2.8

2.3.1

Señales de variable continua y de variable discreta. . . . . . . . . . . . . . . . . . . 21

2.3.2

Señales escalares y vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.3.3

Señales reales y complejas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.3.4

Señales unidimensionales y multidimensionales. . . . . . . . . . . . . . . . . . . . . 22

2.3.5

Señales continuas y discontinuas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.3.6

Dominio de de…nición. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2.3.7

Señales periódicas y aperiódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

Resumen algebraico general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.4.1

Espacios de dimensión …nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2.4.2

Espacios de dimensión in…nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

Resumen algebraico aplicado a los espacios de señales. . . . . . . . . . . . . . . . . . . . . 28 2.5.1

Espacios de dimensión …nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2.5.2

Espacios de dimensión in…nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2.5.3

Comentarios …nales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

Espacios de partida de señales de variable continua. . . . . . . . . . . . . . . . . . . . . . 33 2.6.1

Señales periódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.6.2

Señales aperiódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

Espacios de partida de señales de variable discreta. . . . . . . . . . . . . . . . . . . . . . . 37 2.7.1

Señales periódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

2.7.2

Señales aperiódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

Visualización de señales complejas de variable real. . . . . . . . . . . . . . . . . . . . . . . 40

i

2.9

2.8.1

Señales continuas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

2.8.2

Señales discretas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

Parámetros prácticos para la caracterización de señales. . . . . . . . . . . . . . . . . . . . 43 2.9.1

Valor medio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

2.9.2

Potencia instantánea. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

2.9.3

Energía. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

2.9.4

Potencia media. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

2.10 Una clasi…cación adicional de señales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 2.10.1 Señales reales e imaginarias. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 2.10.2 Señales pares e impares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 2.10.3 Señales hermíticas y antihermíticas. . . . . . . . . . . . . . . . . . . . . . . . . . . 50 2.11 Operaciones básicas con señales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 2.11.1 Suma y producto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 2.11.2 Producto por un escalar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 2.11.3 Desplazamientos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 2.11.4 Abatimientos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 2.11.5 Cambios de escala. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 2.11.6 Combinaciones de operaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 2.12 Señales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 2.12.1 Álgebra de los espacios de señales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 2.12.2 Propiedades de las señales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3 Sistemas y Operadores 3.1

Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

3.2

Resumen algebraico de aplicaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

3.3

3.4

ii

59

3.2.1

Funcionales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

3.2.2

Formas bilineales y multilineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

3.2.3

Operadores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

Aplicaciones sobre los espacios de señales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 3.3.1

Funcionales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

3.3.2

Formas bilineales y cuadráticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

3.3.3

Operadores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

Propiedades de los sistemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.4.1

Linealidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

3.4.2

Invarianza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

3.4.3

Memoria. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

3.4.4

Invertibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

3.4.5

Causalidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

3.4.6

Estabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

c Emilio Gago-Ribas, 2002 °

3.5

Interconexiones básicas entre sistemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

3.6

Operadores y familias de operadores básicos. . . . . . . . . . . . . . . . . . . . . . . . . . 78 3.6.1

Operaciones básicas entre señales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

3.6.2

Operadores en variable continua. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

3.6.3

Operadores en variable discreta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

3.6.4

Operadores integrales con núcleo K(¿ ; ¿ 0 ): . . . . . . . . . . . . . . . . . . . . . . . 80

3.6.5 3.7

Operadores en sumas con núcleo K(¿ ; ¿ 0 ): . . . . . . . . . . . . . . . . . . . . . . . 82

Operaciones de convolución. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 3.7.1 3.7.2 3.7.3 3.7.4

Integral de convolución en S(¡1; 1). . . . . . . . . . . . . . . . . . . . . . . . . . 84 Integral de convolución en P (X0 ). Convolución periódica. . . . . . . . . . . . . . . 86 Convolución discreta en D(¡1; 1). Suma de convolución. . . . . . . . . . . . . . 88

Convolución discreta en D(N0 ). Suma de convolución periódica. . . . . . . . . . . 89

4 Transformadas y Dominios Transformados 4.1

93

Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4.1.1

Descripción general de una transformada. . . . . . . . . . . . . . . . . . . . . . . . 94

4.1.2

Importancia de los dominios transformados. . . . . . . . . . . . . . . . . . . . . . . 95

4.2

Espacios de señales de dimensión …nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

4.3

Espacios de señales de dimensión in…nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

4.4

Análisis de un conjunto de señales como base de un espacio. . . . . . . . . . . . . . . . . . 102

4.5

Ejemplos de espacios de señales, funciones base y transformaciones. . . . . . . . . . . . . . 103

4.6

Otras transformadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

Señales y Sistemas de Variable Continua

105

5 Señales de Partida Importantes

107

5.1

Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

5.2

Espacio de señales periódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

5.3

5.4

5.2.1

Señales sinusoidales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

5.2.2

Exponenciales de exponente imaginario. . . . . . . . . . . . . . . . . . . . . . . . . 111

Espacio de señales aperiódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 5.3.1

Exponenciales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

5.3.2

Exponenciales complejas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

Una familia importante de señales bidimensionales. . . . . . . . . . . . . . . . . . . . . . . 120 5.4.1

Señales sinusoidales de fase lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

5.4.2

Señales sinusoidales de fase arbitraria. . . . . . . . . . . . . . . . . . . . . . . . . . 122

c Emilio Gago-Ribas, 2002 °

iii

6 Operadores y Sistemas Lineales. La Delta de Dirac 6.1

Sistemas y espacios de señales aperiódicas. Funciones localizadoras. . . . . . . . . . . . . . 127 6.1.1

Funciones localizadoras de tipo impulsivo. La distribución delta de Dirac. . . . . . 128

6.1.2

De…nición del objeto ±(x). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

6.1.3

De…nición del objeto ±(x ¡ x0 ). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

6.1.4 6.1.5

6.2

Conjunto de objetos f±(x ¡ x0 )g : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 Representación de funciones en términos del conjunto f±(x ¡ x0 )g : . . . . . . . . . 133

6.1.6

Sistemas lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134

6.1.7

Sistemas lineales e invariantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

6.1.8

Nuevo espacio de señales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

Sistemas lineales e invariantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 6.2.1

Propiedades asociadas a la convolución. . . . . . . . . . . . . . . . . . . . . . . . . 138

6.2.2

Memoria. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

6.2.3

Invertibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

6.2.4

Causalidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

6.2.5

Estabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

7 Distribuciones o Funciones Generalizadas

143

7.1

Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

7.2

De…nición general de una distribución. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

7.3

7.4

7.5

iv

127

7.2.1

De…nición general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

7.2.2

De…nición a partir de una sucesión de funciones. . . . . . . . . . . . . . . . . . . . 148

7.2.3

Distribuciones como respuestas al impulso de un operador lineal e invariante. . . . 148

7.2.4

Distribuciones como respuestas al impulso de un operador lineal. . . . . . . . . . . 149

La distribución delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 7.3.1

De…nición a partir de una sucesión de funciones de buen comportamiento. . . . . . 150

7.3.2

De…nición general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150

7.3.3

La distribución delta de Dirac como respuesta al impulso. . . . . . . . . . . . . . . 150

7.3.4

Propiedades básicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151

La primera derivada de la delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 7.4.1

De…nición a partir de una sucesión de funciones de buen comportamiento. . . . . . 152

7.4.2

De…nición general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152

7.4.3

La primera derivada de la delta de Dirac como respuesta al impulso. . . . . . . . . 153

7.4.4

Propiedades básicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

La segunda derivada de la delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 7.5.1

De…nición a partir de una sucesión de funciones de buen comportamiento. . . . . . 154

7.5.2

De…nición general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

7.5.3

La segunda derivada de la delta de Dirac como respuesta al impulso. . . . . . . . . 155

7.5.4

Propiedades básicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

c Emilio Gago-Ribas, 2002 °

7.6

7.7

7.8

7.9

La distribución de Heaviside o escalón unidad. . . . . . . . . . . . . . . . . . . . . . . . . 156 7.6.1

De…nición a partir de una sucesión de funciones de buen comportamiento. . . . . . 156

7.6.2

De…nición general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

7.6.3

La distribución de Heaviside como respuesta al impulso. . . . . . . . . . . . . . . . 156

7.6.4

Propiedades básicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

La distribución signo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 7.7.1

De…nición a partir de una sucesión de funciones de buen comportamiento. . . . . . 158

7.7.2

De…nición general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159

7.7.3

La distribución signo como respuesta al impulso. . . . . . . . . . . . . . . . . . . . 159

Propiedades importantes de las distribuciones. . . . . . . . . . . . . . . . . . . . . . . . . 159 7.8.1

Producto por una función. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159

7.8.2

Convolución de una función y una distribución. . . . . . . . . . . . . . . . . . . . . 160

7.8.3

Convolución de dos distribuciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

Operadores, distribuciones y sucesiones de funciones. . . . . . . . . . . . . . . . . . . . . . 162

8 Desarrollos en Serie de Fourier

163

8.1

Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163

8.2

Exponenciales imaginarias como funciones base. . . . . . . . . . . . . . . . . . . . . . . . . 163

8.3

8.2.1

Funciones de partida. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163

8.2.2

Ortogonalidad del conjunto de funciones. . . . . . . . . . . . . . . . . . . . . . . . 165

8.2.3

Coe…cientes del desarrollo en serie de Fourier. . . . . . . . . . . . . . . . . . . . . . 165

8.2.4

De…nición del desarrollo en serie de Fourier. . . . . . . . . . . . . . . . . . . . . . . 166

8.2.5

Análisis del error en el desarrollo en serie de Fourier. . . . . . . . . . . . . . . . . . 167

Criterios de convergencia de los coe…cientes. . . . . . . . . . . . . . . . . . . . . . . . . . . 179 8.3.1

Señales de energía …nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180

8.3.2

Condiciones de Dirichlet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181

8.4

Propiedades del desarrollo en serie de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . 183

8.5

Desarrollo en serie de algunas señales continuas. . . . . . . . . . . . . . . . . . . . . . . . . 185

8.6

8.7

8.5.1

Armónico de pulsación » 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

8.5.2

Armónico de pulsación k» 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

8.5.3

Función coseno. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

8.5.4

Función seno. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

8.5.5

Función constante. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186

Desarrollo en serie de distribuciones de energía in…nita. . . . . . . . . . . . . . . . . . . . 186 8.6.1

Tren de deltas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187

8.6.2

Tren de primeras derivadas de la delta. . . . . . . . . . . . . . . . . . . . . . . . . 187

8.6.3

Tren de segundas derivadas de la delta. . . . . . . . . . . . . . . . . . . . . . . . . 187

Desarrollo en serie de distribuciones de energía …nita. . . . . . . . . . . . . . . . . . . . . . 188 8.7.1

Tren de pulsos de amplitud unidad y anchura ¢x. . . . . . . . . . . . . . . . . . . 188

c Emilio Gago-Ribas, 2002 °

v

8.7.2 8.8

8.9

Tren de triángulos de amplitud unidad y anchura ¢x: . . . . . . . . . . . . . . . . 189

Desarrollo en serie de señales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 8.8.1

Propiedades para señales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190

8.8.2

Propiedades para señales reales y pares. . . . . . . . . . . . . . . . . . . . . . . . . 191

8.8.3

Propiedades para señales reales e impares. . . . . . . . . . . . . . . . . . . . . . . . 192

El desarrollo en serie de Fourier y los sistemas lineales e invariantes. . . . . . . . . . . . . 193 8.9.1

Funciones propias del sistema. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

8.9.2

Análisis de los coe…cientes H(m): . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195

9 La Transformada de Fourier 9.1

Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

9.2

La transformada de Fourier a partir del desarrollo en serie. . . . . . . . . . . . . . . . . . 202

9.3

9.2.1

De…nición de la transformada de Fourier. . . . . . . . . . . . . . . . . . . . . . . . 204

9.2.2

Notaciones habituales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205

9.2.3

Coe…cientes de la combinación lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . 205

Criterios de convergencia de la transformada de Fourier. . . . . . . . . . . . . . . . . . . . 205 9.3.1

Señales de energía …nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206

9.3.2

Condiciones de Dirichlet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206

9.4

Propiedades de la transformada de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . 207

9.5

Transformadas de Fourier de algunas señales continuas. . . . . . . . . . . . . . . . . . . . 208

9.6

9.7

9.8

vi

201

9.5.1

Gaussiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208

9.5.2

Pseudo-Gaussiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209

9.5.3

Pseudo-Gaussiana multiplicada por x. . . . . . . . . . . . . . . . . . . . . . . . . . 210

Transformadas de Fourier de distribuciones y señales de energía in…nita. . . . . . . . . . . 214 9.6.1

Distribución delta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214

9.6.2

Distribución delta desplazada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216

9.6.3

Distribución primera derivada de la delta. . . . . . . . . . . . . . . . . . . . . . . . 217

9.6.4

Distribución segunda derivada de la delta. . . . . . . . . . . . . . . . . . . . . . . . 219

9.6.5

Distribución de Heaviside o salto unidad. . . . . . . . . . . . . . . . . . . . . . . . 220

9.6.6

Otras distribuciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222

9.6.7

Tabla resumen para señales de energía in…nita y distribuciones. . . . . . . . . . . . 223

Transformadas de Fourier de distribuciones y señales de energía …nita. . . . . . . . . . . . 229 9.7.1

Pulso unidad de ancho ¢x: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229

9.7.2

Pulso unidad de ancho ¢»: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231

9.7.3

Triángulo unidad de ancho ¢x: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233

9.7.4

Función exponencial a derechas (distribución exponencial). . . . . . . . . . . . . . 235

Transformada de Fourier de señales periódicas. . . . . . . . . . . . . . . . . . . . . . . . . 245 9.8.1

Expresión de la transformada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245

9.8.2

Análisis espectral de los coe…cientes del desarrollo en serie. . . . . . . . . . . . . . 247

c Emilio Gago-Ribas, 2002 °

9.9

9.8.3

Otra expresión de la transformada. . . . . . . . . . . . . . . . . . . . . . . . . . . . 251

9.8.4

Transformada de señales periódicas importantes. . . . . . . . . . . . . . . . . . . . 251

9.8.5

Transformada de distribuciones periódicas importantes. . . . . . . . . . . . . . . . 252

Transformada de Fourier de señales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 254 9.9.1

Propiedades para señales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254

9.9.2

Propiedades para señales reales y pares. . . . . . . . . . . . . . . . . . . . . . . . . 255

9.9.3

Propiedades para señales reales e impares. . . . . . . . . . . . . . . . . . . . . . . . 256

9.9.4

Tabla de señales reales importantes. . . . . . . . . . . . . . . . . . . . . . . . . . . 256

9.10 La transformada de Fourier y los sistemas lineales e invariantes. . . . . . . . . . . . . . . . 257 9.10.1 Transformación del conjunto de funciones base por un sistema lineal e invariante. . 257 9.10.2 Operadores transformados. Representación espectral de un sistema. . . . . . . . . 258 9.11 Algunas consideraciones algebraicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260 9.11.1 Propiedades del conjunto de funciones base. . . . . . . . . . . . . . . . . . . . . . . 261 9.11.2 Ortogonalidad de las funciones base. . . . . . . . . . . . . . . . . . . . . . . . . . . 261 9.11.3 Expresión de los coe…cientes en términos del producto escalar. . . . . . . . . . . . 262 9.11.4 Análisis de la mejor aproximación posible. . . . . . . . . . . . . . . . . . . . . . . . 262 9.11.5 Señales de energía …nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263 10 Análisis de Algunos Sistemas Básicos

265

10.1 Producto de señales en el dominio real. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265 10.2 Modulación en amplitud. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267 10.3 Ventaneado ideal en el dominio real. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272 10.4 Producto de funciones en el dominio espectral. . . . . . . . . . . . . . . . . . . . . . . . . 282 10.5 Ventaneado ideal en el dominio espectral. . . . . . . . . . . . . . . . . . . . . . . . . . . . 283 10.6 Problema de recuperación de una señal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286 10.6.1 Ejemplos de recuperación ideal de señales. . . . . . . . . . . . . . . . . . . . . . . . 289 10.7 Ventaneados reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295 10.7.1 Funciones ventana habituales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295 10.7.2 Ventaneados no ideales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 11 La Transformada de Laplace

299

11.1 Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 11.2 De…nición y propiedades básicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 11.2.1 De…nición de la transformada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . 301 11.2.2 Análisis del conjunto de funciones base. . . . . . . . . . . . . . . . . . . . . . . . . 301 11.2.3 Visualización de la transformada de Laplace. . . . . . . . . . . . . . . . . . . . . . 302 11.2.4 La transformada de Laplace y la transformada de Fourier. . . . . . . . . . . . . . . 302 11.2.5 Notaciones habituales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302 11.3 Región de convergencia de la transformada de Laplace. . . . . . . . . . . . . . . . . . . . . 305 11.3.1 Propiedades generales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305

c Emilio Gago-Ribas, 2002 °

vii

11.3.2 Propiedades particulares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306 11.4 Transformada inversa de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306 11.4.1 Análisis de la transformada inversa. . . . . . . . . . . . . . . . . . . . . . . . . . . 308 11.5 Propiedades de la transformada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . 309 11.6 Transformadas de Laplace racionales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309 11.7 Transformadas de Laplace de distribuciones y señales de energía in…nita. . . . . . . . . . . 311 11.7.1 Distribución delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 11.7.2 Distribución delta de Dirac desplazada. . . . . . . . . . . . . . . . . . . . . . . . . 311 11.7.3 Distribución primera derivada de la delta. . . . . . . . . . . . . . . . . . . . . . . . 312 11.7.4 Distribución segunda derivada de la delta. . . . . . . . . . . . . . . . . . . . . . . . 312 11.7.5 Distribución Gamma o de Heaviside. . . . . . . . . . . . . . . . . . . . . . . . . . . 313 11.8 Transformadas de Laplace de otras distribuciones y señales importantes. . . . . . . . . . . 319 11.8.1 Pulso unidad de ancho ¢(x). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319 11.8.2 Exponencial a derechas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319 11.8.3 Coseno a derechas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 11.9 La transformada de Laplace y los sistemas lineales e invariantes. . . . . . . . . . . . . . . 328 11.9.1 Transformación del conjunto de funciones base por un sistema lineal e invariante. . 328 11.9.2 Operadores transformados. Representación espectral de un sistema. . . . . . . . . 329

Apéndices

333

A Diccionario Básico de Álgebra de Espacios

335

A.1 Espacios métricos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 A.2 Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336 A.3 Espacios vectoriales normados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337 A.4 Espacios vectoriales con producto interno. . . . . . . . . . . . . . . . . . . . . . . . . . . . 338 A.4.1 Espacios vectoriales de dimensión …nita. . . . . . . . . . . . . . . . . . . . . . . . . 338 A.4.2 Extensión a espacios vectoriales de dimensión in…nita. . . . . . . . . . . . . . . . . 338 A.4.3 Espacios vectoriales con producto interno como espacios métricos. . . . . . . . . . 338 A.5 Espacios de Hilbert. Introducción al espacio L2 (a; b): . . . . . . . . . . . . . . . . . . . . . 339 A.6 Expansiones ortogonales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340 A.6.1 Teoría de la mejor aproximación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340 A.6.2 Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340 A.6.3 Convergencia de la serie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341 A.6.4 Completitud de secuencias ortonormales. . . . . . . . . . . . . . . . . . . . . . . . 341 A.6.5 ¿Cómo probar que una secuencia particular es completa? . . . . . . . . . . . . . . 341

viii

c Emilio Gago-Ribas, 2002 °

B Diccionario Básico de Álgebra de Operadores

343

B.1 Espacios duales (funciones escalares lineales). . . . . . . . . . . . . . . . . . . . . . . . . . 343 B.1.1 Espacios de dimensión in…nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343 B.2 Operadores lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343 B.2.1 Operadores lineales en espacios de dimensión …nita. . . . . . . . . . . . . . . . . . 343 B.2.2 Introducción a los operadores lineales en espacios de dimensión in…nita. . . . . . . 344 B.2.3 El espacio de Banach L(AK ; BK ): . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345

B.2.4 Ecuaciones. Operadores inversos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345 B.2.5 Operadores adjuntos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346 B.2.6 Operadores hermíticos (autoadjuntos). . . . . . . . . . . . . . . . . . . . . . . . . . 346 B.2.7 Espectro de un operador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346

B.3 Operadores compactos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346 B.3.1 Espectro de un operador compacto y hermítico. . . . . . . . . . . . . . . . . . . . . 347 B.3.2 Teorema espectral. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347 C De…nición de Distribuciones Mediante Sucesiones

349

C.1 Distribución delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 C.1.1 Sucesión de funciones sinc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 C.1.2 Sucesión de funciones sinc cuadrado. . . . . . . . . . . . . . . . . . . . . . . . . . . 349 C.1.3 Sucesión a partir de la distribución de Heaviside. . . . . . . . . . . . . . . . . . . . 350 C.2 Primera derivada de la delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 C.2.1 Sucesión de funciones sinc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 C.2.2 Sucesión de funciones sinc cuadrado. . . . . . . . . . . . . . . . . . . . . . . . . . . 351 C.2.3 Sucesión a partir de la distribución de Heaviside. . . . . . . . . . . . . . . . . . . . 352 C.3 Segunda derivada de la delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352 C.3.1 Sucesión de funciones sinc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352 C.3.2 Sucesión de funciones sinc cuadrado. . . . . . . . . . . . . . . . . . . . . . . . . . . 353 C.3.3 Sucesión a partir de la distribución de Heaviside. . . . . . . . . . . . . . . . . . . . 353 C.4 Distribución de Heaviside o salto unidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 C.4.1 Función de error. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 C.4.2 Funciones integrales sinosoidales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358 C.4.3 Función integral de la función sinc cuadrado. . . . . . . . . . . . . . . . . . . . . . 358 C.5 Tabla resumen de distribuciones y sucesiones de funciones . . . . . . . . . . . . . . . . . . 360 D Propiedades de las Distribuciones

361

D.1 Escalado de la variable independiente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361 D.2 Unidades de ±(x): . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361 D.3 Producto por una función. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361 D.4 Convolución de una función y una distribución. . . . . . . . . . . . . . . . . . . . . . . . . 363

c Emilio Gago-Ribas, 2002 °

ix

E Demostraciones y Desarrollos Matemáticos

365

E.1 Propiedades de algunos tipos de señales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365 E.2 Propiedades de la convolución continua. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366 E.3 Convolución periódica de señales continuas. . . . . . . . . . . . . . . . . . . . . . . . . . . 366 E.4 Propiedades de la convolución discreta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367 E.5 Convolución periódica de señales discretas. . . . . . . . . . . . . . . . . . . . . . . . . . . . 368 E.6 Señales de partida importantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369 E.6.1 Señales sinusoidales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369 E.6.2 Exponenciales de exponente imaginario. . . . . . . . . . . . . . . . . . . . . . . . . 369 E.6.3 Exponenciales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369 E.6.4 Exponenciales complejas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370 E.7 Desarrollo en serie de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370 E.7.1 Coe…cientes que minimizan la energía del error. . . . . . . . . . . . . . . . . . . . . 370 E.7.2 Condición de señales de energía …nita. . . . . . . . . . . . . . . . . . . . . . . . . . 371 E.7.3 Propiedades del desarrollo en serie de Fourier. . . . . . . . . . . . . . . . . . . . . . 373 E.8 Transformada de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376 E.8.1 Coe…cientes que minimizan la energía del error. . . . . . . . . . . . . . . . . . . . . 376 E.8.2 Condición de señales de energía …nita. . . . . . . . . . . . . . . . . . . . . . . . . . 378 E.8.3 Propiedades de la transformada de Fourier. . . . . . . . . . . . . . . . . . . . . . . 379 E.9 Análisis de algunos sistemas básicos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383 E.9.1 Espectro de la ventana de Hanning. . . . . . . . . . . . . . . . . . . . . . . . . . . 383 E.9.2 Espectro de la ventana de Welch. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383 E.10 Transformada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384 E.10.1 Propiedades asociadas a la ROC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384 F Señales y Funciones de Referencia Importantes

389

F.1 Funciones y distribuciones periódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389 F.2 Funciones y distribuciones aperiódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391 F.3 Análisis de la función Gaussiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395 F.4 Análisis de la función sinc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395 F.4.1 Análisis de tan(x) = x: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396 F.4.2 Análisis de tan(x) = 2x=(2 ¡ x2 ): . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397

F.4.3 Propiedades asociadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398

F.5 Funciones de error. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400 F.6 Integrales exponenciales y sinusoidales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401 F.6.1 Integral de la función sinc cuadrado. . . . . . . . . . . . . . . . . . . . . . . . . . . 402 F.7 Transformada de Fourier de la ventana de Hanning. . . . . . . . . . . . . . . . . . . . . . 403 F.8 Transformada de Fourier de la ventana de Welch. . . . . . . . . . . . . . . . . . . . . . . . 404

x

c Emilio Gago-Ribas, 2002 °

Introducción y Análisis General

1

1.

Introducción

1.1

Presentación. No resulta fácil realizar una introducción a los objetivos del presente texto con el que se inicia la serie Teoría de Señal dentro de ese proyecto que hemos tenido a bien denominar Cuadernos de Electromagnetismo y Teoría de Señal. Puede parecer pretencioso comenzar diciendo que este texto pretende establecer un cierto nexo de unión entre la denominada Teoría de Señal1 (o cualquiera de sus acepciones más comunes2 ), y la representación y forma de análisis habitual de los Problemas Físicos. Y sin embargo, es innegable que ésta ha sido una de las principales motivaciones que han dado lugar a la creación del mismo, siendo el autor plenamente consciente de que el resultado …nal, a buen seguro, acabará cumpliendo dicho objetivo en una mínima parte, y habrá de ser revisado, modi…cado y completado en posteriores ediciones. A pesar de ello, parece incuestionable el distanciamiento conceptual e incluso de lenguaje que ambas áreas han ido sufriendo a lo largo del tiempo. Quizás sea en este punto donde el presente texto, además de intentar servir como referencia básica para aquellos alumnos que cursen asignaturas de introducción al tratamiento de la señal, pueda servir también para contribuir en lo posible a la uni…cación de ambos ambitos del conocimiento, pudiéndose así acabar utilizando como guía básica y metodológica no sólo para entender los conceptos expuestos en él, sino también para su posterior extensión a otro tipo de técnicas matemáticas y su aplicación a problemas no abordadas en éste texto.

Figura 1.1. Representación esquemática de la idea general de partida para la construcción de la teoría básica de señales y sistemas.

Es incuestionable la importancia que la Teoría de Señales y Sistemas ha alcanzado a lo largo de los últimos años como modelo básico para representar y analizar problemas físicos de gran magnitud que, por su complejidad, carecen de un modelo matemático sencillo y preciso. En este sentido, el poder modelar cualquier problema físico como una caja negra capaz de realizar ciertas transformaciones sobre las magnitudes del problema, modeladas en forma de señales, supone ciertamente un avance práctico de gran importancia, sobre todo si nos atenemos a la complejidad de los problemas que es capaz de representar. Sin embargo, esta forma de visualizar los problemas físicos ha hecho que, en muchos casos, se llegue a perder la perspectiva física del problema en cuestión y, sobre todo, el origen de la matemática asociada a su descripción. En esta introducción intentaremos clari…car poco a poco estas a…rmaciones y al mismo tiempo, dejar entrever que resulta fundamental mantener la relación entre ambos tipos de análisis. Consideremos como punto de partida el esquema mostrado en la Fig. 1.1 y tengamos en mente, bien alguno de los problemas habituales con los que el lector esté familiarizado, bien cualquiera de los ejemplos que se mencionan en la Secc. 1.2. Sean cuales sean los problemas que nos planteemos inicialmente, todos 1 Lo

cual ha llevado a la creación de áreas de conocimiento especí…cas en muchas universidades de todo el mundo. de la Señal, Señales y Sistemas, Sistemas Lineales, etc.

2 Tratamiento

3

ellos tendrán dos aspectos comunes: (i) un conjunto de magnitudes involucradas en el problema particular (tensiones y corrientes, presión sonora, campos eléctricos, campos magnéticos, fuerzas, velocidades, etc.), y (ii) unas relaciones entre dichas magnitudes, habitualmente descritas en forma de ecuaciones, descriptivas del comportamiento del problema en cuestión y, por lo tanto, pudiendose ver como transformaciones de unas magnitudes en otras. Con esta imagen en mente, la pregunta de partida podría formularse en los siguientes términos: ¿existe alguna metodología de análisis que permita representar y abordar cualquier3 problema físico? La respuesta a esta pregunta podría ser justamente el punto de vista ofrecido por la Teoría de Señales y Sistemas, entendiendo ésta como una forma de representación de cualquier problema físico en términos de una serie de señales de entrada y salida a un cierto sistema. Así, las señales involucradas se corresponderán justamente con las magnitudes físicas del problema, y las relaciones o transformaciones que se produzcan entres estas magnitudes vendrán representadas por el sistema que lo describe. De…niremos inicialmente un problema de teoría de señal como cualquier proceso que intervenga en la transformación de las señales que describen las magnitudes asociadas a un cierto problema físico, Fig. 1.2.

Figura 1.2. Representación de un problema físico en términos de señales y sistemas descritos por funciones y operadores.

Con esta visión inicial en mente, deberíamos describir justamente los contenidos de la teoría de señales y sistemas, esto es, el conjunto de técnicas matemáticas y de análisis que permiten modelar cualquier problema físico en los términos citados. Quizás éste sea uno de los aspectos más problemático a la hora de decidir cómo presentar dichos contenidos. Comentaremos a continuación aquellas ventajas e inconvenientes que, a juicio del autor, están asociadas a las formas más habituales de presentación que nos podemos encontrar en la bibliografía especializada y que son las que en gran parte han motivado la realización de este texto. La forma habitual de presentar dichas técnicas desde el punto de vista de los que podríamos denominar como expertos en teoría de señal (véase, por ejemplo, la referencia ya tradicional en [10], o cualquiera de la extensa bibliografía aparecida posteriormente cuyo esquema sigue unas pautas totalmente similares) tiene el gran interés práctico de que, …nalizada su exposición, el lector tiene en mente un buen número de herramientas matemáticas de gran interés para su aplicación práctica, así como un buen número de señales básicas que le permiten identi…car propiedades de señales más complicadas en base a las primeras. A pesar de su gran interés práctico, es opinión del autor que dicha forma de exposición lleva a que buena parte de esos conocimientos acaben estando conceptualmente desvirtuados. Citaré algunos ejemplos ilustrativos de esta idea: (i) es habitual que se acabe teniendo la noción de que las herramientas matemáticas presentadas sólamente son aplicables en el dominio del tiempo; así por ejemplo, es habitual acabar estableciendo una relación intrínseca entre el dominio del tiempo4 y el dominio de la frecuencia de forma que hablar de un cierto dominio espectral es hablar del dominio de la frecuencia..... y no otro; (ii) la teoría de distribuciones o funciones generalizadas suele obviarse en mayor o menor medida, lo que lleva a introducir las señales de tipo impulsivo, por ejemplo, la delta de Dirac, en una forma poco clara5 y, lo que es más importante, sin tener una noción precisa de porqué es necesario introducir este tipo de objetos matemáticos en nuestra teoría de señal, y menos aún, su relación conceptual con la teoría de sistemas y operadores. En de…nitiva, y sin querer ahondar en otros ejemplos, la forma habitual de presentación tiene el interés inherente de su aplicación práctica, pero hace que sea muy fácil perder los 3 Aunque la pregunta esté formulada en términos demasiado generales y la respuesta casi evidente sería ’no’, el lector debe asumir que la expresión ’cualquier...’ ha de leerse como ’un buen número de...’ o ’el mayor número posible de...’. 4 En mi modesta experiencia como docente de este tipo de materias he podido constatar la gran di…cultad que se acaba teniendo para traducir y, sobre todo, interpretar resultados obtenidos con este tipo de técnicas en otros dominios de de…nición que no sean el tiempo o la frecuencia. 5 Véase el ejemplo típico de intoducir la delta de Dirac como el caso límite de una función pulso de ancho ¢ y altura 1=¢; caso que se ha obviado intencionadamente en el presente texto dado que el autor no considera demasiado riguroso obtener una distribución, en este caso ±(x); a partir de una función, el pulso, cuyo comportamiento no podríamos cali…car a priori de bueno para todo el dominio de de…nición y que, en realidad, debería de acabar estudiándose como una nueva distribución.

4

c Emilio Gago-Ribas, 2002 °

conceptos de base que la sustentan y, por lo tanto, hace muy difícil su generalización a otros problemas que no sean del tipo a los analizados en dichos textos. Desde un punto de vista más analítico, y perdiendo en parte el concepto de generalidad asociado a la teoría de señales y sistemas, podríamos citar aquellos textos que, independientemente de su mani…esta calidad, están orientados o van dirigidos: (i) a la exposición de técnicas matemáticas con aplicación directa en física (véanse, por ejemplo, las referencias [44]-[47] o similares); (ii) al análisis concreto de ciertas técnicas matemáticas y su aplicación (véase, por ejemplo, la referencia [34] o similares); (iii) a su aplicación a ciertos problemas muy concretos (véanse, por ejemplo, las referencias [48]-[49] y similares), o (iv) …nalmente, las que son extremadamente matemáticas y, por lo tanto, difíciles de relacionar con las aplicaciones prácticas habituales de la teoría de señal (por ejemplo, las referencias [17]-[33]). En virtud de las consideraciones realizadas en los párrafos precedentes, el presente texto encuentra su justi…cación en el objetivo concreto de logran un nexo de unión lo más general posible entre la forma habitual de presentar la teoría de señal y los textos más matemáticos y/o especializados. Así, se intentará no perder de vista la …nalidad de hacer de la teoría de señal una herramienta útil en la práctica, pero intentando sentar unas bases matemáticas sólidas que permitan entender no sólo la teoría expuesta en este texto, sino también cualquier otra técnica que pudiera surgir más allá de los presentes contenidos. Es en este punto donde deberemos hacer uso del álgebra de los espacios de funciones y de operadores (véase el esquema de la Fig. 1.1) como elementos representativos de las señales y de los sistemas, respectivamente. Intentaremos obviar en lo posible los aspectos más difíciles del álgebra funcional centrándonos en los aspectos que puedan ser más útiles para conformar la base algebraica de la teoría de señal. Esto dará lugar a realizar una presentación de la teoría de señales y sistemas en términos constructivos, es decir, asumiendo que somos nosostros los que, a medida que avanzamos en el texto, vamos construyendo dicha teoría. Esto nos obligará a entender el porqué de ciertas demostraciones, el porqué hemos de aumentar con nuevos elementos o restringir, en su caso, los diferentes espacios de señales, la relación existente entre un sistema u operador y el tipo de desarrollo o transformación de señales elegido, etc. El autor ha intentado que este proceso de construcción de la teoría de señales y sistemas quede re‡ejado no sólo en los propios contenidos del texto, sino también en la estructuración del mismo cuyo resumen queda recogido en el índice de contenidos. Así, en la primera parte del mismo, Introducción y Análisis General, se intenta recoger la base algebraica mencionada previamente que nos permitirá construir posteriormente la teoría de señales y sistemas y que deberíamos tener siempre presente. Así, en el Cap. 2 (Espacios de Señales) se realizarán las consideraciones más importantes asociadas al álgebra de los espacios vectoriales y, en concreto, a los espacios vectoriales de funciones y/o señales. Se establecerán unos espacios de señales de partida con los que comenzar a trabajar y se analizarán también algunos parámetros importantes para la caracterización práctica de las señales cuya de…nición suele estar relacionada, bien con el álgebra de…nido inicalmente, bien con los resultados habituales que aparecen en la resolución de problemas físicos. En el Cap. 3 (Sistemas y Operadores) recordaremos los conceptos algebraicos más importantes para el análisis de sistemas descritos en términos de operadores, y su aplicación a aquellos operadores que actúan sobre los espacios de señales. De…niremos las propiedades más importantes que permiten caracterizar el comportamiento de un sistema y realizaremos un resumen de los operadores básicos que deberíamos tener en mente desde el comienzo. El último capítulo de esta primera parte, Cap. 4 (Transformaciones y Dominios Transformados), está dedicado a un tipo de operadores de gran importancia, que denominaremos en general transformaciones, sentando las bases generales que nos permitirán entender tanto las transformaciones que presentaremos en este texto (el desarrollo en serie de Fourier, la transformada de Fourier y la transformada de Laplace de señales de variable continua) como aquellas transformaciones que puedan aparecer en otros textos o aplicaciones prácticas (el desarrollo en serie de Fourier, la transformada de Fourier y la transformada Z de señales de variable discreta, la transformada de Hartley para señales reales de variable continua, la transformada de Hankel para señales complejas de variable continua, etc.). En la segunda parte del texto, Señales y Sistemas de Variable Continua, nos centraremos en construir la teoría de señales y sistemas cuando la variable de de…nición de las funciones descriptivas de las señales es continua, esto es, f(x); x 2 R: Así, una vez analizadas algunas funciones básicas y su comportamiento, Cap. 5 (Señales de Partida Importantes), abordaremos el problema de la posibilidad de caracterizar cualquier sistema con una representación común a todos ellos, Cap. 6 (Operadores y Sistemas Lineales. La Delta de Dirac). Este análisis nos llevará a introducir, de forma natural, alguna señal de tipo localizador que nos permita seleccionar un valor de un continuo de valores. Con estas ideas en mente y el álgebra de…nido incialmente sobre el espacio de señales, aparecerá de forma totalmente natural el objeto

c Emilio Gago-Ribas, 2002 °

5

matemático denominado delta de Dirac. Este objeto matemático, junto con ciertas propiedades de los operadores (linealidad e invarianza) resultará esencial para poder lograr dicha caracterización común en términos de lo que denominaremos respuesta al impulso del sistema, h(x) = F [±(x)] : Dadas las particularidades, características y comportamiento particular de este objeto matemático, las sucesivas transformaciones de este elemento por diferentes sistemas u operadores F sugiere que la respuesta al impulso acabarán siendo nuevos objetos matemáticos también con comportamientos muy particulares, así como una estrecha relación con el sistema u operador al que caracterizan. Esto dará pié a introducir justamente la Teoría de Distribuciones o Funciones Generalizadas estudiada en el Cap. 7. El estudio particular de estos objetos no será sólo importante por su estrecha relación con la teoría de operadores, sino que permitirá conocer una serie de propiedades de estos nuevos objetos de gran importancia a la hora de operar correctamente con ellos. A partir de este momento, el texto estará dedicado a analizar en detalle las transformaciones básicas más importantes que permiten otras caracterizaciones de las señales y de los sistemas. Estudiaremos así la particularización de la teoría general expuesta en el Cap. 4 para diferentes espacios de señales, lo que dará lugar a los Caps. 8 (Desarrollos en Serie de Fourier), 9 (La Transformada de Fourier), y 11 (La Transformada de Laplace). El primer caso analizado, Cap. 8, nos ha de servir para enteder muchos de los conceptos algebraicos generales expuestos en los Caps. 2 y 4 dado que los espacios de señales sobre los que se aplica (espacios de señales periódicas) son de dimensión in…nita pero con bases numerables, esto es, constituídos por funciones '(x; m): Esto servirá para entender de forma práctica la metodología habitual de análisis asociada a conceptos algebraicos tales como ’mejor aproximación posible en términos de la métrica’ elegida a priori, relación entre la tranformación elegida y el sistema u operador a representar, etc. La extensión a espacios de señales arbitrarias (no periódicas) nos llevará a la transformada de Fourier analizada en el Cap. 9. Dada su importancia práctica, se pondrá tanto énfasis en exponer conceptos algebraicos fundamentales como sus propiedades, signi…cado y tranformadas importantes. Desde el punto de vista algebraico surgirá la misma metodología expuesta el el capítulo anterior con la complicación adicional de requerir de conjuntos base continuos, es decir, no numerables, esto es, '(x; »): Una vez más, estos conceptos algebraicos determinan las condiciones de existencia o no de la tranformación, analizándose posteriormente sobre señales concretas de importancia. Se analizará y discutirá también el importante problema de las transformadas de señales de distribuciones y señales de energía in…nita, poniéndose especial énfasis en su signi…cado. Una vez más aparecerá el papel fundamental que juegan las distribuciones, sin las cuales sería imposible representar adecuadamente la transformada de ciertos tipos de señales. Finalmente se estudiará también la importancia de poder generar representaciones espectrales de los sistemas u operadores que los describen. Dada la importancia de la transformada de Fourier, en el Cap. 10 se abordan algunos ejemplos ideales del análisis de sistemas de gran importancia en la práctica dado que constituyen la base para la posterior aplicación a casos reales. Los ejemplos expuestos (ventaneados ideales de señales en los dominios real y espectral, ejemplos básicos de modulación, etc.) se analizarán tanto en el dominio real como en el dominio transformado, pudiéndose entender así las ventajas y desventajas de cada uno de los análisis, las consecuencias de realizar cierto tipo de operaciones en uno u otro dominio, etc. La segunda parte de este texto …nalizará con la exposición de un caso particular de transformada analizado sólamente en parte en este texto, dado que su análisis riguroso se sale de los objetivos del mismo por aparecer funciones tranformadas de…nidas sobre una variable compleja, esto es, F (s); s 2 C: Este será el caso de la tranformada de Laplace. A pesar de ello, se expondrá lo mejor posible su relación con la teoría algebraica general del Cap. 4, su relación con la tranformada de Fourier, y las propiedades más importantes, todo ello encaminado a su posible aplicación práctica, aunque su análisis completo quede en parte pendiente para futuros textos que analicen la teoría de señales y sistemas de variable compleja. El presente texto se completa con una serie de apéndices en los que se recogen resúmenes algebraicos de interés, demostraciones importantes de muchos de los análisis realizados en el texto, estudios de ciertas señales de importancia que aparecen de forma habitual en el análisis de sistemas, etc. Aunque la primera parte del texto recoge la teoría general asociada también a señales y sistemas de variable discreta, señalar que su particularización a ciertos casos de interés y su relación con la teoría de variable continua se ha dejado para un segundo texto, Vol. ST-II de la serie, que aparecerá posteriormente. Con esta visión general de los contenidos del texto, que pretende dar una idea del proceso de construcción de la teoría mencionado al comienzo, pasaremos a continuación a clari…car un poco más estos aspectos a través de una serie de ejemplos sencillos que iremos además utilizando a lo largo de todo el libro. Conviene mencionar en cualquier caso que los conceptos resumidos anteriormente pueden desarrollarse

6

c Emilio Gago-Ribas, 2002 °

de múltiples formas, y la comentada aquí es sólamente una visión muy particular de las muchas que se pueden encontrar, todas ellas de igual o mayor validez si cabe; tómese como ejemplo la introducción realizada por Lacoume en [1], o cualquiera otra de las referencias especí…cas de textos versados en la teoría de señales y sistemas, [2]-[16]. Con todas ellas en mente, el autor considera que el resumen realizado anteriormente resulta su…ciente para presentar un modelo inicial de teoría de señales y sistemas asociado a cualquier problema físico, algunos de estos bien conocidos ya por cualquier lector.

1.2

Algunos ejemplos iniciales. ² Ejemplo 1. El problema eléctrico de una resistencia R sometida a una diferencia de potencia v(t) y recorrida por una corriente i(t); Fig. 1.3, podrá ser representado de la siguiente forma a partir de la ecuación que modela el problema,

Figura 1.3. Problema eléctrico de una resistencia de valor R:

v(t) = R i(t):

(1.1)

1. La variable que describe el problema será de naturaleza continua, esto es, la variable temporal, x ´ t 2 R: A su vez, el problema será unidimensional en t:

2. Las señales que describen el problema vendrán descritas por las funciones reales de variable real v(t) e i(t); identi…cando la primera como la señal de salida del sistema, y la segunda como la señal de entrada al mismo. Así, frente a una cierta distribución temporal de corriente i(t); el sistema responderá con una cierta tensión v(t) = R i(t):

3. El sistema en cuestión vendrá descrito por un operador que representará el escalado por una cantidad R 2 R de la magnitud de entrada; denotaremos por R ¢ I a dicho operador, siendo I el operador identidad, F = R ¢ I : i(t) ! v(t) = F [i(t)] = fR ¢ Ig [i(t)] = R i(t):

(1.2)

² Ejemplo 2. El problema eléctrico de una bobina de valor L sometida a una diferencia de potencial v(t); recorrida por una corriente i(t); Fig. 1.4, y descrita por la ecuación v(t) = L

di(t) ; dt

(1.3)

podrá visualizarse de la siguiente forma:

Figura 1.4. Problema eléctrico de una inductancia de valor L:

1. La variable que describe el problema será de naturaleza continua, esto es, la variable temporal, x ´ t 2 R: A su vez, el problema será unidimensional en t: c Emilio Gago-Ribas, 2002 °

7

2. Las señales que describen el problema vendrán descritas por las funciones reales de variable real v(t) e i(t); identi…cando la primera con la señal de salida y la segunda con la señal de entrada o función excitación del sistema. Así, frente a una cierta distribución temporal de corriente i(t); el sistema responderá con una cierta tensión v(t) = L di(t)=dt: 3. El sistema en cuestión vendrá descrito por un operador que representará la primera derivada de la señal de entrada; denotaremos por F = L d=dt a dicho operador, F=L

d di(t) : i(t) ! v(t) = F [i(t)] = L : dt dt

(1.4)

² Ejemplo 3. Consideremos el mismo problema presentado en el ejemplo anterior pero analizado ahora en el dominio de la frecuencia, esto es, asumiendo una variación temporal armónica en la forma ej!t ; siendo ! = 2¼f: Es sabido que, en este caso, la ecuación que describe el sistema se obtiene sin más que calcular la transformada de Fourier de la ecuación (1.3), obteniéndose la bien conocida relación, (1.5)

v~(!) = j!L ~{(!);

donde ZL = j!L es conocida como la impedancia de la bobina. Esta descripción alternativa del problema nos llevará a identi…car las siguientes magnitudes: 1. La variable que describe el problema será de naturaleza continua, esto es, la variable espectral (pulsación), x ´ ! 2 R: A su vez, el problema será unidimensional en !:

2. Las señales que describen el problema vendrán ahora modeladas por funciones complejas de variable real6 v~(!) e ~{(!); identi…cando la primera como la señal de salida del sistema, y la segunda como la señal de entrada al sistema o función excitación del sistema.

3. El sistema vendrá descrito ahora por un operador que se podrá identi…car fácilmente con un escalado por el factor ZL = j!L 2 C en la forma, F = j!L ¢ I : ~{(!) ! v~(!) = F [~{(!)] = j!L ~{(!):

(1.6)

² Ejemplo 4. Consideremos ahora un sistema que represente una cierta operación entre los contenidos de diferentes posiciones de la memoria de un ordenador, por ejemplo el especi…cado por la siguiente ecuación y esquematizado en la Fig. 1.5, (1.7)

y(n) = x(n + 1) + x(n) + x(n ¡ 1): En este caso, resulta evidente que:

1. La variable que describe el problema será de naturaleza discreta, esto es x ´ n 2 N; donde n representa la n-ésima posición de memoria. El problema será, obviamente, unidimensional. 2. Las señales involucradas serán las sucuencias complejas7 de variable entera x(n) e y(n), donde tanto x(n) como y(n) podrán tomar valores en la forma, x(n) = Refx(n)g + j Imfx(n)g = x0 (n) + jx00 (n); y(n) = Refy(n)g + j Imfy(n)g = y 0 (n) + jy 00 (n):

(1.8)

3. El sistema en cuestión vendrá descrito por un operador discreto que podrá representarse por, Fd = Id(+1) + Id + Id(¡1) : x(n) ! y(n) = Fd [x(n)] = x(n + 1) + x(n) + x(n ¡ 1);

(1.9)

identi…cando por Id al operador identidad operando sobre un espacio de señales discretas, y por Id(+1) e Id(¡1) a los operadores desplazamiento en §1 unidades. 6 Con la notación v ~(!) e ~{(!) identi…caremos lo que habitualmente denominamos fasores de las señales v(t) e i(t): En general, dichas magnitudes aparecerán aplicando la transformada de Fourier de las señales v(t) e i(t); esto es, v~(!) = TF [v(t)] e ~{(!) = TF [i(t)] : El análisis de esta transformación, así como su descripción fasorial, constituirán uno de los objetivos fundamentales del presente texto. 7 Imaginemos, por ejemplo, que dichas posiciones de memoria contienen números complejos descriptivos de alguna magnitud.

8

c Emilio Gago-Ribas, 2002 °

Figura 1.5. Ejemplo de un sistema discreto sencillo.

² Ejemplo 5. Consideremos un problema de propagación de señales como el mostrado en la Fig. 1.6. El problema inicial, recuadrado en la …gura, consiste en analizar la recepción de una cierta señal emitida f (t) que viaja por dos trayectos, uno directo (trayecto A), y el otro tras una re‡exión en un cierto obstáculo (trayecto B). La señal recibida será, por tanto, la suma de la señal que viaja por el trayecto A más la señal que viaja por el trayecto B, esto es, g(t) = f(t) + Af(t ¡ t0 );

(1.10)

siendo A(< 1) y t0 (¸ 0) la amplitud y el retraso debidos a la diferencia de longitudes entre los trayectos A y B.Asociado a este primer problema se puede de…nir un segundo problema consistente

Figura 1.6. Problema de emisión, recepción y recuperación de una señal analógica mediante un receptor digital.

en diseñar un sistema caracterizado por F¡1 que sea capaz de recuperar la señal original f(t) emitida. Finalmente, es posible determinar un tercer problema que consistiría en el diseño de un sistema digital o discreto del sistema F¡1 ; esto es, F¡1 d ; de forma que dicho sistema pudiese transformar una secuencia g(n) obtenida a partir de muestras de la señal continua g(t = nTs ) para obtener a la salida una secuencia f (n) ´ f (nTs ) a partir de la cual pudiésemos recuperar f(t): Analizando el problema en conjunto, podríamos identi…car en este caso las siguientes magnitudes y operadores: 1. Las variables que describen los diferentes problema serán: (i) de naturaleza continua en los problemas 1 y 2, esto es la variable temporal, x ´ t 2 R:; (ii) de naturaleza discreta en el c Emilio Gago-Ribas, 2002 °

9

problema 3, esto es x ´ n 2 Z: En todos los casos, los problemas serán unidimensionales.

2. Las señales involucradas vendrán representadas por las funciones reales de variable real f(t) y g(t) en los problemas 1 y 2, y por las funciones reales de variable entera f (n) y g(n) en el problema 3. 3. Cada uno de los problemas vendrá descrito por un cierto sistema. Así: (a) El problema 1 se podrá caracterizar por, F = I + A ¢ I(t0 ) : f(t) ! g(t) = F [i(t)] = I [f(t)] + A ¢ I(t0 ) [f (t)] = f (t) + Af (t ¡ t0 ); (1.11) denotando por I al operador identidad, y por I(t0 ) al operador desplazamiento en t: (b) El problema 2 vendrá identi…cado por el operador inverso del primer sistema, esto es, F¡1 : En este caso, el problema asociado consiste claramente en identi…car de alguna forma la invertibilidad del operador F descrito por (1.11), esto es, determinar si existe sistema inverso y, en su caso, caracterizarlo adecuadamente, F ¡! ¿F¡1 = [I + A £ It0 ]¡1 ?

(1.12)

(c) Finalmente, el problema 3 llevará implicito el análisis de los procesos de conversión de señales continuas a discretas (conversor A/D), y viceversa (conversor D/A), así como el estudio de la posibilidad de representar sistemas continuos mediante sistemas discretos, en este caso aplicado al operador inverso F¡1 ¡! F¡1 d : ² Ejemplo 6. Volvamos ahora a la con…guración descrita en el ejemplo 2, pero considerando como señal de entrada conocida la tensión, y como señal de salida incógnita la corriente. La descripción del sistema seguirá estando de…nida por la ecuación (1.3). Sin embargo, el problema así descrito pasaría por una representación como la mostrada en la Fig. 1.7. En este caso:

Figura 1.7. Representación general del problema eléctrico de una inductancia donde la señal de excitación es v(t) y la respuesta es i(t): Las condiciones iniciales del problema vienen dadas por i(0) = 0:

1. La variable que describe el problema será de naturaleza continua, esto es la variable temporal, x ´ t 2 R: A su vez, el problema será unidimensional en t:

2. Las señales que describen el problema serán las funciones reales de variable real v(t) e i(t); identi…cando la primera con la señal de entrada y la segunda con la señal de salida. Así, frente a una cierta distribución temporal de tensión v(t); el sistema responderá con una cierta corriente i(t) tal que la relación v(t) = L di(t)=dt se satisface. 3. Esto signi…ca que la ecuación que describe el sistema estará asociada inicialmente con el operador F de…nido en el ejemplo 2. Sin embargo, resolver el problema en este caso conllevará

10

c Emilio Gago-Ribas, 2002 °

determinar el operador inverso, F¡1 ; de forma que, ¸¡1 d ¡1 F = L : v(t) ! i(t) = F¡1 [v(t)] : dt

(1.13)

Además, es bien sabido por la teoría de ecuaciones diferenciales que la resolución de este problema pasa no sólo por encontrar el operador inverso citado (en este caso un operador integral), sino que la solución a i(t) para una cierta v(t) dada podrá existir y ser única si la señal de salida (función incógnita) satisface, por ejemplo, unas ciertas condiciones iniciales, tal como i(t = 0) = 0: Esto signi…ca que el problema completo vendrá descrito entonces de la siguiente froma: (i) ecuación que describe el comportamiento del problema directo en términos del operador diferencia F; y obtención del operador inverso F¡1 ; y (ii) las condiciones iniciales que ha de satisfacer la señal de salida o respuesta del sistema inverso. ² Ejemplo 7. Consideremos ahora el problema del potencial '(~r; ~r1 ) generado en un punto del espacio (descrito por el vector de posición ~r) por una carga puntual de valor Q localizada en otro punto del espacio (descrito por su vector de posición ~r1 ), Fig. 1.7. Es sabido que la ecuación que describe este problema viene dada por, r2 '(~r; ~r1 ) = ¡Q ±(~r ¡ ~r1 );

(1.14)

donde r2 representa el operador Laplaciana en el espacio8 , y ±(~r ¡ ~r1 ) la distribución delta de Dirac9 de…nida en el punto especi…cado por ~r1 : El problema así descrito tiene como solución la bien conocida ecuación en la forma, '(~r; ~r1 ) = K

Q ; j~r ¡ ~r1 j

(1.16)

donde el valor de la constante K 2 R se obvia en este caso dado que no es el objetivo fundamental de este texto tratar su signi…cado. El problema tendrá entonces una representación como la mostrada en la Fig. 1.8. En este caso: 1. La variable que describe el problema será de naturaleza continua, esto es la variable espacial, x ´ ~r 2 R3 : A su vez, el problema será claramente tridimensional, por ejemplo, en (x; y; z): Es importante destacar en este ejemplo que, debido a la simetría esférica del problema en torno al punto de excitación ~r1 ; el problema se puede tratar como si fuera unidimensional en términos de la variable R = j~r ¡ ~r1 j que describe la distancia entre el punto de observación y la fuente. Esto nos llevaría a una representación del problema en términos de x ´ R 2 R:

2. Las señales que describen el problema serán las funciones reales de variable real Q ±(~r ¡ ~r1 ) y '(~r; ~r1 ); respectivamente, identi…cando la primera con la señal de salida y la segunda con la señal de entrada del operador directo. Nótese que esta notación es la inversa a la utilizada normalmente, donde una cierta distribución espacial de carga, fuente de potencial o excitación del problema, en este caso localizada en un punto del espacio, Q ±(~r ¡ ~r1 ); dará lugar a una cierta respuesta a dicha fuente en forma de distribución de potencial en el espacio '(~r; ~r1 ): Ambas magnitudes estarán relacionadas por la ecuación diferencial en (1.14). 3. La ecuación que describe el sistema estará en este caso asociada con el operador F = r2 ¢. Ocurre entonces, como en el ejemplo 6, que resolver el problema en este caso conlleva determinar el operador inverso, F¡1 ; de forma que, £ ¤¡1 F¡1 = r2 ¢ ¡! '(~r; ~r1 ) = F¡1 [Q ±(~r ¡ ~r1 )] : (1.17)

8 Por

La solución de '(~r; ~r1 ) en (1.16) para una cierta carga Q podrá existir y ser única si la señal de salida (función incógnita) satisface unas ciertas condiciones de contorno, en este caso, por ejemplo, '(~r ! 1; ~r1 ) ! 0: Esto signi…ca que el problema completo se podrá describir entonces

ejemplo, en coordenadas cartesianas, su expresión viene dada por, r2 =

@2 @2 @2 + + : @x2 @y 2 @z 2

(1.15)

9 En posteriores capítulos se tratará extensamente la de…nición de la distribución delta de Dirac, así como las posibles interpretaciones asociadas a este objeto matemático.

c Emilio Gago-Ribas, 2002 °

11

de la forma siguiente: (i) la ecuación que describe el comportamiento del problema directo en términos del operador diferencial F; y obtención del operador inverso F¡1 ; y (ii) las condiciones de contorno que ha de satisfacer la señal de salida o respuesta del sistema inverso, en este ejemplo, el valor de la función potencial en un punto muy alejado del punto de excitación.

Figura 1.8. Representación general del problema del potencial generado por una carga puntual de valor Q:

1.3

Algunas ideas de partida. Resulta evidente que la cantidad de ejemplos que se podrían citar es demasiado grande para una introducción que, por de…nición, debería resultar sencilla e intuitiva; sin embargo, estos ejemplos nos servirán como referencia para sacar una serie de conclusiones o ideas de partida que nos permitan justi…car los contenidos que presentaremos posteriormente. Teniendo en mente el esquema mostrado en la Fig. 1.2, intentaremos a continuación ordenar estas ideas de partida. Relativas a las señales. ² Con f(x); g(x); x(n) e y(n) denotaremos unas funciones cualesquiera descriptivas de las señales o magnitudes involucradas en el problema representado. Dependiendo de la naturaleza de dichas magnitudes, las señales o funciones que las representen podrán ser magnitudes escalares o vectoriales, unidimensionales o multidimensionales, etc. En este momento puede resultar conveniente referirse a la Secc. 2.3 para una clasi…cación un poco más completa de los tipos de señales que podremos encontrarnos habitualmente. En este sentido, los conceptos de señal y función serán para nosostros totalmente equivalentes; hasta el momento, el autor no ha sido capaz de encontrar diferencias sustanciales entre ambos concepto, exceptuando las asociadas al hecho de que el término señal hace una referencia directa a la distribución de una magnitud física a lo largo de una cierta variable en los problemas prácticos, siendo la función el objeto matemático encargado de representar o modelar el comportamiento de dicha señal. En este sentido parece claro el término de señales escalares que aparece en el título del volumen haciendo una referencia directa al tipo de señales que trataremos en él. ² Resulta evidente que, en función del problema analizado, las magnitudes representadas serán diferentes, véanse v(t); i(t); f (n); x(n); '(~r; ~r1 ); etc. en los ejemplos citados anteriormente. Así, las unidades asociadas a una cierta función dependerán de la magnitud que representen. Con carácter general pensaremos que una señal representada por una función f (x) tendrá unas unidades asociadas que denotaremos por ”Un(f )”: Resulta también evidente que la variable independiente representará otra magnitud descriptiva del problema, por ejemplo, el tiempo t; un cierto espacio unidimensional cuyos puntos se distinguen por el valor de una coordenada, z; un espacio tridimensional descrito por ~r; etc. Con el mismo carácter de generalidad, diremos que la variable independiente asociada

12

c Emilio Gago-Ribas, 2002 °

a f(x) tendrá unas unidades10 que denotaremos por ”Un(x)”. En relación con este aspecto cabe resaltar que: 1. El tipo de funciones que analizaremos será unidimensional, esto es, dependientes de una sola variable independiente, como queda re‡ejado también en el título del volumen. La teoría de señal en el caso multidimensional estará basada en los coceptos expuestos en este texto. 2. La variable independiente podría ser una magnitud compleja, esto es, f(z); z 2 C: Las notables diferencias que aparecen en uno y otro caso hace que en este volumen nos centremos en el caso de variables reales, hecho que también queda recogido en el título del libro. ² En la práctica, las magnitudes asociadas a un determinado problema serán magnitudes reales (véanse los ejemplos 1, 2, 5, 6 y 7). Sin embargo, existen casos importantes donde las señales estarán representadas por funciones complejas. Estos casos estarán normalmente asociados al concepto de dominios transformados que analizaremos en el presente texto (véase el ejemplo 3 ) pero también pueden aparecer de forma normal por la propia naturaleza del problema representado (ejemplo 4). De esta forma, y con carácter de generalidad a lo largo de este texto, trataremos con funciones complejas de variable real; resulta evidente que toda la teoría expuesta se reducirá al caso más habitual de funciones reales de variable real realizando las particularizaciones correspondientes. Estas particularizaciones serán objeto de análisis y/o comentarios especí…cos a lo largo de todos los desarrollos presentados. ² El hecho de representar cualquier señal a través de una función nos llevará directamente a considerar siempre como punto de partida diferentes conjuntos o espacios de señales organizados en base a alguna característica común (por ejemplo, todas aquellas funciones que sean continuas en su dominio de de…nición). A su vez, estos espacios de señales quedarán perfectamente de…nidos una vez se dote de cierta estructura algebraica a esos conjuntos de señales. Esta estructura algebraica determinará no sólo las operaciones básicas entre elementos del espacio (suma de funciones y producto de funciones por un escalar), sino también la forma de medir dichas señales, bien sea asignando una regla de medida a cada uno de los elementos (norma del espacio), bien sea estableciendo reglas para diferenciar dos elementos cualesquiera (métrica del espacio). Los principales espacios de señales con los que trabajaremos a lo largo del presente texto, así como la de…nición de una estructura algebraica sobre dichos espacios se expondrá en el Cap. 2. Esta teoría básica se particularizará posteriormente al caso continuo. La particularización al caso discreto se abordará en el Vol. ST-II de esta serie. ² Otro de los objetivos principales asociados a la estructura algebraica establecida sobre un cierto espacio de señales será el de de…nir formas de representación de cualesquiera elementos del espacio, en este caso funciones arbitrarias complicadas, en términos de funciones bien conocidas de dicho espacio (bases, producto escalar, teoría de la mejor aproximación, etc). Este objetivo …nal será, en realidad, el punto de partida para desarrollar y entender lo que denominaremos como11 transformadas y dominios transformados. En el Cap. 4 se expondrán los conceptos principales que permiten entender cualquier tipo de transformación, particularizándose posteriormente a las transformaciones que se analizarán en el presente texto: el desarrollos en serie de Fourier, la transformada de Fourier y la Transformada de Laplace. Las principales transformaciones asociadas a las señales complejas de variable discreta se abordarán también en el Vol. ST-II de esta serie.

1 0 Algunas

unidades habituales de la variable independiente serán: x´t x´z x´! x´¯ x´-

! ! ! ! !

Un(t) ´ s (segundos) Un(z) ´ m (metros) Un(!) ´ rad/s (radianes/segundo) Un(¯) ´ rad/m (radianes/metro) Un(-) ´ rad (radianes)

(1.18)

1 1 Partiremos de una cierta función f (x); denominando por el término dominio real al dominio de de…nición de dicha función sobre la variable x; y obtendremos una representación unívoca de dicha función en un nuevo dominio »; esto es F (»): Al nuevo dominio de de…nición sobre la variable » le denominaremos como dominio transformado o dominio espectral.

c Emilio Gago-Ribas, 2002 °

13

Relativas a los sistemas. A la vista de los ejemplos expuestos, resulta evidente que el concepto de operador describiendo matemáticamente un sistema que, a su vez, representa un determinado problema, conlleva también una serie de ideas iniciales que intentaremos resaltar aquí. En primer lugar, ² Con F estaremos denotando al operador que describe la transformación de señales que dicho problema lleva asociada. Una vez más, el concepto de sistema estará íntimamente ligado a la creación de un modelo de un determinado problema, independientemente de la complejidad de éste; la representación matemática de un sistema acabará estando descrita habitualmente en la forma de uno o varios operadores que, con carácter de generalidad, modelen o describan las diferentes transformaciones de señales involucradas en el problema. ² Dependiendo de la naturaleza continua o discreta de las señales involucradas en un cierto problema modelado por un sistema, así el operador F asociado podrá ser continuo o discreto, respectivamente. ² En este sentido convendrá recordar los conceptos básicos del algebra asociado al análisis de los operadores o espacios de operadores, Cap. 3, así como la diferencia con otras aplicaciones importantes como es el caso de los funcionales y las formas bilineales, que también aparecerán continuamente a lo largo de este texto. En este sentido será fundamental recordar las diferentes representaciones que un operador puede tomar dependiendo de la base elegida en el espacio sobre el que actúa, lo que se traducirá en lo que denominaremos como representaciones espectrales de un operador. ² De vital importancia resultará estudiar formas de caracterización comunes a conjuntos especí…cos de operadores. En este sentido, todos los desarrollos realizados en el presente texto serán válidos para todos aquellos operadores que sean lineales, o lineales y, además, invariantes. ² Finalmente, y a la vista de los ejemplos citados previamente, cabe destacar la importancia de determinar a priori si el problema representado es un problema directo o inverso. En este sentido, y dada su importancia, describiremos este aspecto en la siguiente sección para clari…car de antemano la denominación utilizada tanto en este texto como en futuros volúmenes dedicados a otros problemas de señal.

1.4

Problemas directos e inversos. La distinción entre un problema directo e inverso resulta fundamental si pensamos en la coherencia de los desarrollos que realizaremos dado que, desde el punto de vista físico-matemático, la denominación habitual es en muchos casos la contraria. Como ya se ha citado, en el presente texto nos centraremos en los problemas directos, exponiendo aquellas técnicas de análisis más importantes, en particular aquellas basadas en los dominios o espacios transformados. Este tipo de técnicas se podrá aplicar posteriormente al análisis y la resolución de problemas inversos, como se abordará en futuros volúmenes de esta serie. Problemas directos. Denominaremos como problema directo a cualquier problema descrito en forma de un sistema representado a su vez por un cierto operador F coonocido que es capaz de transformar una señal de entrada también conocida, Fig. 1.2; el objetivo …nal de dicho problema podrá ser: 1. La caracterización de la señal de salida frente a cualquier señal de entrada (este sería el caso en los ejemplos 1, 2, 3, 4 y 5). 2. La obtención del operador inverso F¡1 (este sería el caso en los ejemplos 3 y 5). Con este punto de partida en mente, resultará fundamental realizar los siguientes análisis: ² Estudiar por un lado los posibles espacios de señales involucrados en el problema.

² Estudiar la forma de caracterizar los sistemas u operadores que actuarán sobre dichos espacios de señales. ² Estudiar las posibles formas de analizar dichos sistemas.

14

c Emilio Gago-Ribas, 2002 °

Problemas inversos. En general, un problema cualquier, y en particular un problema físico podrá esquematizarse de la siguiente forma: ² Una serie de magnitudes descriptivas del problema en cuestión, lo que conllevará la de…nición de un espacio de señales sobre el que operar. ² Una serie de operadores aplicados sobre dichas magnitudes y, por lo tanto, sobre los espacios de señales considerados. ² Una serie de condiciones especí…cas que han de satisfacer dichas magnitudes, habitualmente denominadas condiciones frontera asociadas a las señales involucradas y que determinarán la existencia o no de solución al problema total. Con estos conceptos en mente, podríamos describir estos problemas por la siguiente ecuación general, 9 8 = < F [u] = v; ; (1.19) : Condiciones sobre u ;

siendo u y v las magnitudes particulares descriptivas del problema (la primera desconocida y la segunda conocida), y F el operador que las relaciona para el problema concreto. Con esta notación general parece evidente que tanto el tipo de magnitudes como el tipo de operadores y el tipo de condiciones impuestas determinarán el análisis …nal del problema, esto es, si tiene o no solución, el tipo de la misma, etc. Este será el caso de los ejemplos 6 y 7.

En el caso particular de problemas asociados a física e ingeniería, el planteamiento general de la ecuación (1.19) se puede especi…car un poco más: ² Las magnitudes involucradas serán habitualmente funciones reales (o complejas) de variable real (o compleja), escalares o vectoriales, que dependerán inicialmente del espacio12 , ~r; y del tiempo, t. De esta forma podremos identi…car a las magnitudes genéricas u y v con u(t; ~r) y v(t; ~r): ² El operador F será habitualmente un operador diferencial, FD ; que describirá el comportamiento físico del sistema bajo análisis. Desde este punto de vista, el término sistema describirá de forma cualitativa un determinado problema físico, y estará directamente relacionado con el operador que caracterize dicho problema. Los operadores diferenciales nos llevarán directamente al estudio de la teoría de ecuaciones diferenciales, así como al estudio de la existencia o no del operador inverso F¡1 ; habitualmente operadores integrales que determinen la existencia o no de soluciones al problema; F [u(t; ~r)] = v(t; ~r) ! u(t; ~r) = F¡1 [v(t; ~r)] :

(1.20)

Desde este punto de vista, la función v(t; ~r) suele representar la excitación o fuente de un determinado problema, y la función u(t; ~r) suele ser la función incógnita o función respuesta a dicha excitación13 (véase el ejemplo 7). ² Finalmente, las condiciones frontera del problema determinarán la solución o soluciones especí…cas del problema concreto, determinando cuál de las in…nitas soluciones de la ecuación diferencial es la que satisface dichas condiciones, o en su caso, si ninguna de ellas la satisface, quedando el problema sin solución. Desde este punto de vista, las condiciones de contorno están unidas tanto al espacio de señales sobre el que operemos, como al operador concreto analizado. En general, estas condiciones frontera suelen denominarse condiciones de contorno si se aplican en el espacio ~r; o bien condiciones iniciales si se aplican en el dominio del tiempo t: En un problema arbitrario en el espacio y en el tiempo, ambas condiciones deberán ser establecidas para el problema concreto. Así, el sistema resultante asociado a este tipo de problemas vendrá determinado por: (i) el operador inicial F, y (ii) las condiciones frontera sobre la señal respuesta u(t; ~r): La resolución de estos problemas estará directamente relacionada con la teoría de las funciones de Green basada en buena parte en los conceptos que expondremos en el presente texto para el problema directo. En posteriores volúmenes de esta serie se abordará el problema en profundidad. 1 2 De…niremos

las coordenadas de un punto del espacio por su vector de posición ~ r: el punto de vista esquemático de la Fig. 1.2 puede resultar extraño que v sea la función excitación, cuando se representa como la respuesta del sistema a la señal u: Esto es debido a que, habitualmente, las magnitudes asociadas a la señal v en problemas físicos concretos, suele corresponderse justamente con la excitación o fuente de dicho problema. 1 3 Desde

c Emilio Gago-Ribas, 2002 °

15

1.5

Abreviaturas y lista de símbolos. En el presente texto, utilizaremos la siguiente notación: K VK ~a; ~b f~ai gM f~ai g Dim fVK g f~ei gN f~ei g

Conjunto de número naturales, enteros, reales o complejos (N; Z; R ó C):

x n t; z f(x) f0 (x) x(n) x0 (n) f(x; y) f(x; y) F [~a] F [~a; ~b]

Variable independiente x 2 R:

F [~a] E(VK ) L(VK ) LI(VK ) Dom fFg Ran fFg Ker fFg Aut fFg f¸i gF F [f(x)]

Operador sobre un elemento ~a de un espacio vectorial VK :

DSF¡1 DSF ff (x; n)gN ff (x; n)g TF¡1 TF ff (x; »)g TL¡1 TL ff (x; s)g TZ¡1 TZ fx(n; z)g

Desarrollo en serie de Fourier de señales periódicas.

16

Espacio vectorial de…nido sobre un cierto cuerpo de escalares K (K = R; C): Elementos genéricos de un espacio vectorial VK :

Conjunto de M elementos de un espacio vectorial VK :

Conjunto de in…nitos elementos de un espacio vectorial VK : Dimensión de un espacio vectorial VK :

Base de un espacio vectorial VK de dimensión N:

Base de un espacio vectorial VK de dimensión in…nita. Variable independiente discreta n 2 N:

Notaciones particulares para el tiempo y un espacio unidimensional. Función compleja de variable real. Función compleja de variable real, periódica de período X0 : Función compleja discreta (de variable entera). Función compleja discreta y periódica, de período N0 : Función de dos variables (x; y) 2 R2 :

Función de dos variables x e y funcionando ésta segunda como un parámetro descriptivo. Funcional sobre un elemento ~a de un espacio vectorial VK :

Forma bilineal sobre dos elementos ~a y ~b de un espacio vectorial VK : Espacios (conjunto) de operadores operando sobre VK :

Espacio (conjunto) de operadores lineales operando sobre VK :

Espacio (conjunto) de operadores lineales e invariantes operando sobre VK : Dominio de actuación de un operador F:

Rango o imagen de un operador F: Núcleo de un operador F: Conjunto de vectores propios (autovectores) de un operador F: Conjunto de valores propios (autovalores) de un operador F: Operador sobre un elemento de un espacio vectorial de funciones.

Coe…cientes del desarrollo en serie de Fourier. Conjunto …nito y discreto de N funciones en la variable x descritas por el parámetro n 2 N: Conjunto in…nito y discreto de funciones en la variable x descritas por el parámetro n 2 N: Transformada inversa de Fourier de señales aperiódicas. Transformada de Fourier de señales aperiódicas. Conjunto continuo de funciones en la variable x descritas por el parámetro » 2 R: Transformada inversa de Laplace de señales aperiódicas continuas. Transformada de Laplace de señales aperiódicas continuas. Conjunto continuo de funciones en la variable x descritas por el parámetro s 2 C: Transformada Z inversa de señales aperiódicas discretas. Transformada Z de señales aperiódicas discretas. Conjunto continuo de funciones discretas descritas por el parámetro z 2 C:

c Emilio Gago-Ribas, 2002 °

Espacios vectoriales de señales continuas P (X0 ) P(X0 ) P~ (X0 ) P 2 (X0 ) P D (X0 ) S(¡1; 1) S(¡1; 1) ~ S(¡1; 1) 2 L (¡1; 1) LD (¡1; 1)

Señales continuas de buen comportamiento de período X0 .

D(N0 ) D2 (N0 ) DD (N0 ) D(¡1; 1) D2 (¡1; 1) DD (¡1; 1)

Señales periódicas de período N0 .

Distribuciones periódicas continuas de período X0 .

P (X0 ) + P(X0 ): Subespacio de P~ (X0 ) de señales cuadrado integrables o de energía …nita sobre un período. Subespacio de P~ (X0 ) de señales que satisfacen las condiciones de Dirichlet sobre un período. Señales continuas aperiódicas de buen comportamiento de…nidas para todo valor de x: Distribuciones aperiódicas de…nidas para todo valor de x: S(¡1; 1) + S(¡1; 1): ~ Subespacio de S(¡1; 1) de señales cuadrado integrables o de energía …nita. ~ Subespacio de S(¡1; 1) de señales que satisfacen las condiciones de Dirichlet. Espacios vectoriales de señales discretas Subespacio de D(N0 ) de señales cuadrado sumables o de energía …nita sobre un período. Subespacio de D(N0 ) de señales absolutamente sumables sobre un período. Señales aperiódicas de…nidas para todo valor de n: Subespacio de D(¡1; 1) de señales cuadrado sumables o de energía …nita. Subespacio de D(¡1; 1) de señales absolutamente sumables.

Distribuciones de energía in…nita ±(x) ± 0 (x) ± 00 (x) ¡(x) sgn(x) c+ (x) s+ (x)

P¢x (x) T¢x (x) e+ (x)

Delta de Dirac. Primera derivada de la delta de Dirac. Segunda derivada de la delta de Dirac. Distribución de Heaviside o salto unidad. Distribución signo. Coseno a derechas. Seno a derechas.

Distribuciones de energía …nita Pulso centrado de ancho ¢x: Señal triangular de ancho ¢x: Exponencial a derechas.

Distribuciones periódicas de período X0 ± 0 (x) ± 00 (x) ± 000 (x) P0;¢x (x) e+ 0 (x)

Tren de deltas de Dirac. Tren de primeras derivadas de la delta de Dirac. Tren de segundas derivadas de la delta de Dirac. Tren de pulsos centrados de ancho ¢x. Tren de exponenciales.

c Emilio Gago-Ribas, 2002 °

17

18

c Emilio Gago-Ribas, 2002 °

2.

Espacios de Señales

2.1

Introducción. Una posible forma de abordar la construcción de la teoría de señales y sistemas consiste en recordar las bases algebraicas relacionadas con el análisis funcional y los espacios de funciones, asumiendo desde el principio que estos objetos matemáticos serán los que nos servirán para representar señales descriptivas a su vez de magnitudes físicas. Este resumen algebraico nos permitirá tener una base sólida sobre la que sustentar la teoría de señal que particularizaremos posteriormente. Comencemos entonces recordando la de…nición de una función para posteriormente hacer una breve descripción o clasi…cación del tipo de señales que aparecen habitualmente en la práctica. Como punto de partida, conviene recordar que el concepto de función no es algo trivial en absoluto; baste para ello entresacar algunas de las de…niciones o acepciones que aparecen frecuentemente en la literatura, por ejemplo, las realizadas por Spivak en [19]: ² Una ”regla” que asigna a cada uno de ciertos números otro numero. Desde este punto de vista baste citar los siguientes ejemplos: (i) la asignación de un número real a otro número real sería el caso de una función real continua de variable real (x 2 R ! f(x) 2 R); (ii) la asignación de un número real a un número entero sería el caso de una función real discreta (n 2 Z ! x(n) 2 R): Esta primera de…nición, por lo demás especialmente intuitiva, ha de completarse habitualmente con de…niciones más rigurosas desde un punto de vista matemático. ² Una ”regla” cualquiera que hace corresponder números a ciertos otros números, no necesariamente una regla que pueda ser expresada mediante una fórmula algebraica ni siquiera mediante una condición uniforme aplicable a todo nñumero; ni es tampoco necesariamente una regla a la que sea posible encontrar una aplicación en la práctica. Más aún, la regla puede prescindir de algunos números y puede incluso no estar del todo claro a qué números se aplica la función. ² Una función se de…ne a veces como una ”asociación” entre números; por desgracia la palabra ”asociación” escapa a las objeciones hechas contra ”regla” sólamente por el hecho de que es todavía más vaga. ² La de…nición que los matemáticos han aceptado …nalmente para ”funcion” es un hermoso ejemplo de los medios que han permitido incorporar las ideas intuitivas a la materia rigurosa. Lo que de verdad importa preguntar acerca de una función no es ”¿que es una regla?” o ”¿qué es una asociación?”, sino ”¿qué es lo que hace falta saber acerca de una función para saber absolutamente todo lo referente a ella?”. Quizás en esta última pregunta esté una de las claves de la teoría de señal y de las pequeñas intenciones del presente texto, esto es, poder ser capaces de identi…car el mayor número de propiedades asociadas o ”encerradas” en una señal que a su vez está describiendo el comportamiento de una magnitud física. ² De…nición ¿rigurosa?: Una función es una colección de pares de números con la siguiente propiedad: si (a; b) y (a; c) pertenecen ambos a la colección, entonces b = c; en otras palabras, la colección no debe contener dos pares distintos con el mismo primer elemento. Tomando como base estas acepciones, determinaremos de…nir una señal como la distribución de una cierta magnitud física a lo largo de una cierta variable independiente y que, de esta forma, vendrá descrita o modelada por una cierta función. En base a esta de…nición, no resulta tampoco fácil establecer una clasi…cación de señales y/o funciones. Convendrá entonces tener presente la teoría de números para así de…nir de forma algebráica una función y construir, a partir de ella, conjuntos o espacios de funciones. Esto nos llevará a recordar también la teoría algebraica de espacios vectoriales, en particular, aquellos formados por conjuntos de señales con alguna característica común. Para analizar estas características, expondremos previamente algunos de los criterios básicos de partida para la clasi…cación de señales, haciendo notar que existen otros muchos criterios y posibilidades de clasi…cación, algunos de los cuales irán apareciendo a lo largo del presente texto, obviándose en esta descripción inicial por estar intrinsecamente relacionados con ciertos operadores de interés que serán analizados en el Cap. 3. 19

Todas estas consideraciones nos llevarán a poder de…nir algunos espacios de señales de partida de gran interés práctico, con los que trabajaremos a lo largo del presente texto, así como el álgebra particular asociada a dichos espacios. Para ello, diferenciaremos entre espacios de señales continuas (de…nidas sobre una variable independiente real) y espacios de señales discretas (de…nidas sobre una variable independiente entera). Una vez de…nidos estos espacios de trabajo, dedicaremos una sección a recordar las posibles formas de visualizar y representar las señales que componen estos espacios, de especial importancia a la hora de su aplicación práctica. También dedicaremos una sección a recordar la de…nición de una serie de parámetros prácticos especialmente útiles para caracterizar el comportamiento de las señales (potencia instantánea, energía, etc.), su particularización a los espacios de partida previamente de…nidos, y su relación con el álgebra del espacio. Para concluir este capítulo, expondremos alguna clasi…cación adicional de señales, así como aquellas operaciones básicas entre señales que deberemos manejar perfectamente para operar de una forma e…ciente con las señales que posteriormente aparezcan en cualquier problema práctico. ² Notación general: dado que muchos de los aspectos comentados en esta primera parte del texto serán comunes tanto para señales de variable continua como para señales de variable discreta, determinaremos usar la siguiente notación general: 1. Denotaremos por ¿ a una variable independiente genérica que identi…cará tanto a variables de naturaleza continua como discreta; por ejemplo, ¿ ´ x; ¿ ´ n; etc.

2. Así, una función cualquiera la denotaremos por a(¿ ); identi…cando con esta notación tanto a señales de variable continua como de variable discreta.

3. Finalmente. utilizaremos la notación particular f(x) ó x(n) siempre que nos estemos re…riendo a los casos especí…cos de funciones de variable continua o de variable discreta, respectivamente.

2.2

Resumen del álgebra de funciones. Comenzaremos por recordar brevemente el álgebra de funciones para poder así de…nir espacios o conjuntos de éstas. Para ello, deberemos tener en mente los conjuntos de números más habituales y que denotaremos de forma genérica por K: Los habituales serán los números naturales, los enteros, los reales y los complejos, denotados por N, Z; R y C; respectivamente, o culaquier subconjunto de estos. En [18] y [19], por ejemplo, se puede encontrar una excelente exposición de la teoría de funciones, así como del análisis funcional. ² Funciones. Desde el punto de vista algebraico, de…niremos una función como una asociación (referirse al Cap. 3) de un conjunto de números K1 en otro conjunto de números K2 ; ) ( a : K1 ¡! K2 ; ¿ 2 K1 ; ¿ 0 = a(¿ ) 2 K2 : (2.1) ¿ 0 = a(¿ ) Los tipos de funciones más habituales serán los siguientes: 1. Funciones complejas de variable real. El conjunto de partida es R y el de llegada C; ( ) f : R ¡! C ; x 2 R; z = f(x) 2 C: z = f (x)

(2.2)

Este será el tipo de funciones usadas para modelar las señales de variable continua. 2. Funciones reales de variable real. Los conjuntos de partida y de llegada son el conjunto de los números reales, ( ) f : R ¡! R ; x 2 R; z = f(x) 2 R: (2.3) z = f (x) Dado que R es un subconjunto de C; el análisis de estas funciones (las más importantes desde el punto de vista del modelado de la mayoría de las señales de variable continua que aparecen en la práctica) se podrá realizar como un caso particular de las funciones complejas de variable real. 20

c Emilio Gago-Ribas, 2002 °

3. Funciones complejas de variable entera. El conjunto de partida es Z y el de llegada C; ( ) x : Z ¡! C ; n 2 Z; z = x(n) 2 C: z = x(n)

(2.4)

A este tipo de funciones las denotaremos habitualmente por x(n) y serán las encargadas de modelar las señales de variable discreta. 4. Funciones reales de variable entera. El conjunto de partida es Z y el de llegada R; ( ) x : Z ¡! R ; n 2 Z; z = x(n) 2 R: z = x(n)

(2.5)

Igual que en el caso continuo, su análisis se podrá realizar como un caso particular de las funciones complejas de variable discreta de…nidas previamente. 5. Funciones complejas de variable compleja. Tanto el espacio de partida como el de llegada es el conjunto de los números complejos, ( ) f : C ¡! C ; s 2 C; z = f (s) 2 C: (2.6) z = f (s) Nótese que esta de…nición algebraica es la que fundamenta el primer criterio de clasi…cación indicado en la Secc. 2.3 y que justi…ca la estructuración del presente texto, centrado en el análisis de señales complejas de variable continua. El análisis de las funciones y señales de variable discreta se realizará en el Vol. ST-II. Las funciones complejas de variable compleja y la teoría de señal asociada quedaán fuera de los objetivos del presente texto. ² Funciones lineales. Una función será lineal si satisface la propiedad en (3.17) respecto a un cuerpo de escalares K; a : K1 ¡! K2 es lineal sii a(®¿ 1 + ¯¿ 2 ) = ®a(¿ 1 ) + ¯a(¿ 2 ); (¿ 1 ; ¿ 2 ) 2 K1 ; (a(¿ 1 ); a(¿ 2 )) 2 K2 ; (®; ¯) 2 K:

(2.7)

Con el término ’sii’ denotaremos la a…rmación ’sí y sólo sí’. Habitualmente, los cuerpos de escalares a considerar serán los conjuntos de números reales o el caso más general de números complejos, esto es, K = R ó C:

2.3

Algunos criterios para la clasi…cación de señales.

2.3.1

Señales de variable continua y de variable discreta.

Este criterio de clasi…cación está relacionado con la naturaleza de la magnitud que describa, y servirá como base para la estructuración del presente texto, Vol. ST-I, dedicado prioritariamente a espacios de variable continua, y su continuación, Vol. ST-II, dedicado a los espacios de variable discreta y su relación con los de variable continua. Si la magnitud depende de una variable continua (por ejemplo la variable temporal x ´ t), estaremos pensando en señales como la dibujada en la Fig. 2.1(a); por ejemplo, la distribución de presiones en un determinado problema en función del tiempo, p(t): Si la naturaleza de la propia magnitud hace que ésta ocurra de forma discreta, la magnitud quedará de…nida entonces sobre una variable independiente n 2 Z; sirva como ejemplo los valores de la bolsa en cada uno de los días del año, b(n): Este tipo de magnitudes tendrá una representación como la mostrada en la Fig. 2.1(b). Especialmente importante desde el punto de vista de la ciencia e ingeniería es el caso en que las señales discretas se obtengan a partir de señales que inicialmente son continuas, esto es f (x) ! xf (n) = f (nXs ) ! f(n): Este será el caso habitual en el análisis de problemas físicos mediante técnicas numéricas, en las técnicas digitales de tratamiento de señal, etc. En estos casos, una determinada magnitud esencialmente continua es discretizada adecuadamente para poder representar y operar con un número …nito de muestras de dicha magnitud de partida, Fig. 2.1(a). La base fundamental de este tipo de transformaciones vendrá dada por el teorema de muestreo estudiado en el Vol. ST-II de esta serie. Desde este punto de vista, la notación que usaremos será la siguiente: c Emilio Gago-Ribas, 2002 °

21

p(t)

4 3

Ts

2 1

(a)

0 -1 -2 -3 -4 -5 1,0

b(n)

-4

-3

-2

-1

t

0

1

2

3

4

5

0,5

(b)

0,0

-0,5

-1,0 -10

-9

-8

-7

-6

-5

-4

-3

-2

-1

0

n

1

2

3

4

5

6

7

8

9

10

Figura 2.1. (a) Señal de variable continua p(t) y señal de variable discreta xp (n) = p(nTs ) obtenida a partir de la señal p(t) muestreada en ciertos valores t = nTs ; (b) Señal de naturaleza discreta b(n):

1. Señales de variable continua: f (x); g(x); h(x); ..... 2. Señales de variable discreta: x(n); y(n); h(n); ..... 3. Señales de variable discreta obtenidas a partir de señales de variable continua: xf (n) = f (nXs ); xg (n) = g(nXs ); xh (n) = h(nXs ); ..... 2.3.2

Señales escalares y vectoriales.

Clasi…cación en función de la magnitud que representan. Magnitudes escalares típicas serán la presión, la temperatura, el voltaje y la corriente eléctricas, etc. todas ellas representadas por funciones f (x): Magnitudes vectoriales típicas serán, por ejemplo, el campo eléctrico, el campo magnético, la velocidad, etc. que denotaríamos por f~(x): En el presente texto trabajaremos con señales que asumiremos representan magnitudes escalares. Las propiedades, análisis y teoría asociada a éstas ha de servir como base para su generalización y aplicación posterior a magnitudes vectoriales cuando éstas aparezcan. Dado que el carácter escalar o vectorial depende de la magnitud y no de la variable, el concepto será extensivo a funciones que representen señales de variable discreta. 2.3.3

Señales reales y complejas.

Las señales a tener en cuenta podrán venir representadas por funciones reales (2.3) o complejas (2.2), siendo las primeras un caso particular de las segundas. Así, a(¿ ) = Refa(¿)g + j Imfa(¿ )g = a0 (¿) + ja00 (¿):

(2.8)

En la Secc. 2.8 se presentarán las diferentes formas de visualización de este tipo de señales. 2.3.4

Señales unidimensionales y multidimensionales.

En función de la magnitud que represente la variable independiente. Una función unidimensional f (x) será aquella en que la magnitud representada dependa solamente de una sola variable. Un caso muy habitual es que dicha variable represente el tiempo, x ´ t; sin embargo, en problemas prácticos dicha variable puede representar cualquier otra magnitud, por ejemplo, x ´ R (coordenada radial, véase el ejemplo 7 del Cap. 1), x ´ ! (pulsación espectral), etc.

Las señales que aparecerán en los problemas físicos habituales serán normalmente señales multidimensionales. El caso práctico más general será el de las señales de cuatro dimensiones (4D), f (t; ~r); esto es, la magnitud descrita por la función dependerá de las tres coordenadas espaciales1 (x; y; z) representadas 1O

22

su versión equivalente en cualquiera de los sistemas de coordenadas conocidos.

c Emilio Gago-Ribas, 2002 °

3

f (x)

2 1

(a)

0 -1 -2 -3 -4 -5 3

f (x)

-4

-3

-2

-1

0

x

1

2

3

4

5

2

(b) 1

0 -5 40

f (x)

-4

-3

-2

-1

0

x

1

2

3

4

5

30

(c)

20 10 0 -1,00

-0,75

-0,50

-0,25

0,00

x

0,25

0,50

0,75

1,00

Figura 2.2. Ejemplos de señales: (a) sin discontinuidades, (b) con una discontinuidad …nita, y (c) con una discontinuidad in…nita.

de forma genérica por su vector de posición ~r; y la coordenada temporal, t: Algunos casos de gran interés práctico serán aquellos en los que alguna de las coordenadas espaciales se pueda reducir en dimensión debido a alguna simetría del problema en cuestión, o bien a que el problema no sea dependiente del tiempo, dando lugar a casos 3D y 2D como los siguientes: 1. f (t; ~r2D ) ´ f(t; x; z) ´ f (t; r; '); etc. (tiempo, espacio 2D).

2. f (t; z) ´ f (t; r); etc. (tiempo, espacio 1D).

3. f (~r2D ) ´ f (x; z) ´ f (r; '); etc. (espacio 2D). En el presente texto trabajaremos con señales 1D, abordándose el estudio de algún caso habitual de señales 2D de especial importancia en el análisis de problemas físicos relacionados con la propagación de señales, Secc. 5.4. También en este caso resulta trivial extender el concepto de funciones multidimensionales al caso de variable discreta, esto es, x(n1 ; .....; nN ): 2.3.5

Señales continuas y discontinuas.

En función de sus propiedades de continuidad. El punto de partida en nuestro caso serán las señales continuas dadas sus propiedades de buen comportamiento. En el caso de las señales discontinuas, la clasi…cación se podría ampliar desde el punto de vista del número de discontinuidades (en número …nito, in…nito numerable o in…nito no numerable), así como del tipo de discontinuidad (discontinuidades de salto …nito o in…nito), Fig. 2.2. En el presente texto, las propiedades de discontinuidad de una función nos llevarán directamente al concepto de función generalizada o distribución analizado con más detalle en el Cap. 7. Como veremos, esta generalización del concepto de función vendrá motivada en gran parte por algunos de los operadores más usuales que, de forma sistemática, se aplican sobre los espacios de señales; en particular, los operadores diferenciales. Resulta importante destacar anticipadamente que no sólo las funciones discontinuas estarán relacionadas …nalmente con una distribución, sino otro tipo de funciones que, por sus propiedades, no sean, por ejemplo derivables. Resulta también evidente que el concepto de continuidad o discontinuidad no es aplicable a señales discretas. A pesar de ello, estudiaremos las señales discretas que juegan un papel dual al de las distribuciones en variable continua.

c Emilio Gago-Ribas, 2002 °

23

2.3.6

Dominio de de…nición.

Un aspecto importante en la clasi…cación de señales será el dominio sobre el que está de…nida la función, que determinará algunas propiedades respecto a ciertas transformaciones de dichas señales. Podremos entonces distinguir entre: 1. Señales …nitas, de…nidas en un cierto intervalo [a; b] en el caso continuo, o un cierto intervalo [N1 ; N2 ] en el caso discreto. 2. Señales a derechas, de…nidas en el intervalo [a; +1) en el caso continuo, o en el intervalo [N1 ; +1) en el caso discreto. 3. Señales a izquierdas, de…nidas en el intervalo (¡1; b] en el caso continuo, o en el intervalo (¡1; N2 ] en el caso discreto. 4. Señales inde…nidas, o de…nidas en el intervalo (¡1; 1) para los casos, continuo y discreto. En este sentido, resulta importante destacar que, desde el punto de vista de teoría de la señal, cualquiera de las señales descritas previamente se podrá tratar de forma genérica como una señal de…nida en (¡1; 1) mediante la introducción de alguna señal que recorte el comportamiento de la función original al dominio de de…nición original. En este sentido, adelantaremos una vez más el importante papel que jugarán las distribuciones en este proceso, por ejemplo, la distribución de Heaviside2 , ¡(x): Un ejemplo sencillo sería el siguiente, f (x) = e¡x 6= 0 para todo x; ( e¡x ; x > 0 g(x) = f (x)¡(x) = 0; x 0; y cero para todo x < 0: por ejemplo el caso de la variable radial r en un sistema de coordenadas esférico. Es sabido que dicha magnitud, por representar distancias, no puede tomar nunca valores negativos y, por lo tanto, su dominio de de…nición será siempre r 2 [0; +1): 3 Nótese

24

c Emilio Gago-Ribas, 2002 °

f0(x)

1,0

0,5

0,0

-0,5

-1,0 -1 1,0

x0(n)

0

x

1

2

6

n

12

3

0,5

0,0

-0,5

-1,0

0

Figura 2.3. Ejemplos de señales periódicas con X0 = 1 y N0 = 6:

2.4

Resumen algebraico general. Realizaremos a continuación un resumen de aquellos aspectos algebraicos que nos permitirán de alguna forma sentar las bases para establecer una teoría general de análisis que posteriormente aplicaremos a conjuntos o espacios de señales. Nos centraremos principalmente en describir conceptualmente la importancia de tener presentes dichos conceptos algebraicos. Gran parte de los detalles matemáticos asociados al resumen que se presenta a continuación se pueden encontrar en el Ap. A, escrito en forma de un diccionario algebraico básico.Un análisis mucho más riguroso, extenso y en profundidad de los conceptos aquí expuestos se puede encontrar en [17]-[21], o de una forma más orientada al análisis de señal en [1]- [3].

2.4.1

Espacios de dimensión …nita. ² Espacio de partida. En primer lugar, de…niremos un espacio de partida como un conjunto de elementos fa; b; ....g arbitrarios caracterizados por una serie de propiedades. Aprovecharemos alguna de estas propiedades para estableces ese conjunto de elementos de partida que denotaremos por V: En la Fig. 2.4 se muestra una representación esquemática cuando los elementos del conjunto son funciones. ² Métrica. Una vez de…nido un conjunto de partida, deberemos establecer alguna regla que nos permita diferenciar dos elementos del conjunto. Esta regla se denomina habitualmente métrica del espacio, Ap. A.1, y nos permite medir diferencias o distancias entre los elementos del conjunto. Dicha distancia será una aplicación que asocia a dos elementos del espacio un valor real y positivo, esto es, ( ) d : V £ V ¡! R+ ; ; a; b 2 V y ® 2 R+ : (2.12) ® = d(a; b); La de…nición de métrica que se imponga determinará totalmente la forma de medir diferencias entre elementos, y por lo tanto, establecerá los criterios a seguir para determinar si dos elementos del espacio son iguales o diferentes en virtud de dichos criterios. ² Espacio vectorial. El siguiente paso importante será dotar a dicho conjunto de una estructura de espacio vectorial respecto a un cierto cuerpo K de escalares, lo que permitirá generalizar las propiedades vectoriales del espacio Euclídeo a los elementos de dicho espacio. Esto signi…ca que los elementos del espacio inicial fa; b; ....g podrán ser analizados como vectores f~a; ~b; ....g: El espacio resultante será un espacio vectorial dobre un cuerpo K de escalares, VK : Las dos propiedades asociadas a un espacio vectorial que será necesario de…nir adecuadamente serán las leyes de operación (i) interna, y (ii) externa respecto a K, esto es:

c Emilio Gago-Ribas, 2002 °

25

(i) La suma de vectores: ~a + ~b = ~c: (ii) El producto por un escalar: ®~a = ~b; con ® 2 K: En relación con la estructura de espacio vectorial, cabe destacar los siguientes aspectos: 1. La de…nición adecuada de estas operaciones, Ap. A.2, asegura que el resultado de ambas dará lugar a un nuevo elemento perteneciente al espacio vectorial VK de origen. Así, podremos representar nuevos elementos del espacio a través de la combinación de las sos operaciones, ~c = ®~a + ¯~b 2 VK .

(2.13)

2. El siguiente concepto asociado a espacios vectoriales de gran importancia es el de independencia lineal de dos vectores. Así, diremos que dos vectores son linealmente independientes cuando la igualdad ®~a + ¯~b = ~0 se satisface sólamente si ® = ¯ = 0: 3. De…nidas estas operaciones, será ya posible construir combinaciones lineales de cualesquiera M vectores del espacio, esto es, f~am gM ¡!

M X

m=1

®m~am = ~b 2 VK ;

(2.14)

y generalizar a esos M vectores el concepto de independencia lineal, f~am gM linealmente independientes =)

M X

m=1

®m~am = ~0 sii ®m = 0 8m:

(2.15)

4. Los conceptos de combinación lineal e independencia lineal nos llevan directamente al concepto de base del espacio vectorial, esto es, aquel conjunto de N elementos f~em gN del espacio VK linealmente independientes tales que todas las combinaciones lineales posibles entre ellos dan lugar a todo el espacio VK : El número de elementos N de dicho conjunto será la dimensión del espacio vectorial, f~em gN ! ~a =

N X

m=1

®m~em ; 8~a 2 VK :

(2.16)

Nótese que estamos asumiendo de antemano que la dimensión N del espacio es …nita. Comentaremos posteriormente las diferencias que aparecen en el caso de espacios cuya dimensión no sea …nita. ² Norma. Una vez generado un espacio vectorial, de…niremos una aplicación que permita medir el tamaño de los elementos de dicho espacio. Esta aplicación se denomina norma, Ap. A.3, y dará lugar a un espacio vectorial normado, ( ) k¢k : VK ¡! R+ ; ; ~a 2 VK y ® 2 R+ : (2.17) ® = k~ak De…nida una norma válida, será posible seleccionar como métrica particular del espacio la denominada métrica natural o métrica inducida por dicha norma (caso habitual en los espacios de señales con los que trabajaremos), esto es, d(~a; ~b) =k ~a ¡ ~b k :

(2.18)

² Producto escalar. Finalmente, será muy importante de…nir una nueva aplicación sobre el espacio vectorial considerado de…nida como producto escalar, h~a; ~bi; Ap. A.4, ( ) h¢; ¢i : VK ! C; ; ~a; ~b 2 VK y ® 2 C: (2.19) ® = h~a; ~bi 26

c Emilio Gago-Ribas, 2002 °

Esta operación permitirá introducir en dicho espacio todas aquellas ventajas inherentes a la operación del producto escalar de vectores en el espacio Euclídeo, todas ellas asociadas al concepto de proyección de un elemento sobre otro. Por otro lado, de…nido un producto escalar válido, es posible asegurar que la siguiente de…nición de norma es también válida, k~ak = h~a; ~ai1=2 :

(2.20)

d(~a; ~b) =k ~a ¡ ~b k= h~a ¡ ~b; ~a ¡ ~bi1=2 :

(2.21)

Diremos entonces que es la norma inducida por el producto escalar. Nótese que, usando la métrica inducida por la norma, es posible de…nir una métrica válida a partir del producto escalar, En virtud de estos resultados, podemos entresacar las siguientes conclusiones de especial importancia: 1. El tamaño de la proyección de un vector ~a sobre otro ~b vendrá dado por su producto escalar. 2. Si el tamaño de dicha proyección es nulo, esto es, h~a; ~bi = 0; diremos que ambos vectores son ortogonales, ~a ? ~b:

3. Esto permite seleccionar, de entre todas las posibles bases del espacio, aquellas cuyos elementos sean ortogonales entre sí, dando lugar a una base ortogonal, f~em gN ortogonal ! h~em ; ~en im6=n = 0; m; n = 1 ..... N:

(2.22)

Si la base es ortogonal, y la norma de cada elemento es la unidad, k~ei k = 1; hablaremos de bases ortonormales. 4. El concepto de ortogonalidad de una base es sumamente importante dado que asegura que los coe…cientes de la combinación lineal que permite expresar cualquier elemento ~a del espacio, esto es, las componentes del vector ~a; en términos de la base, se pueden expresar como la proyección del elemento original sobre cada uno de los elementos de dicha base, o lo que es lo mismo, como el producto escalar del elemento ~a sobre cada elemento ~em ; f~em gN ortogonal ! ~a =

N X

m=1

®m~em ; con ®m = h~a; ~em i ; m = 1; :::::; N:

(2.23)

5. Nótese que seguimos considerando que el espacio es de dimensión …nita N: Esto signi…ca que la igualdad anterior es una suma de un número …nito de términos, y por lo tanto convergente. La evaluación de dicha igualdad deberá hacerse en términos de la métrica de…nida en el espacio. Así, si los coe…cientes ®m se calculan como el producto escalar h~a; ~em i ; podemos asegurar que dicha igualdad es cierta en términos de la métrica inducida por el producto escalar, esto es, µ N ¶ P d ~a; ®m~em = 0: (2.24) m=1

Dicho en otras palabras, el conjunto de coe…cientes f®m gN = fh~a; ~em igN son exactamente las componentes del vector ~a en la base f~em gN : Este concepto, trasladado a espacios de dimensión in…nita, dará lugar al término mejor aproximación posible a, que analizaremos a continuación.

2.4.2

Espacios de dimensión in…nita.

Todo el esquema algebraico descrito anteriormente sigue siendo válido si la dimensión del espacio vectorial bajo estudio es in…nita (caso habitual en todos los espacios de funciones de variable continua, como estudiaremos a lo largo del presente texto), teniendo en cuenta las siguientes consideraciones: ² Que la dimensión sea in…nita signi…ca que el número de elementos de cualquier base necesarios para representar el espacio original VK es in…nito, esto es, f~em gN ! f~em g:

² Así, y asumiendo que la base sea ortogonal, un elemento cualquiera del espacio debería expresarse ahora en los siguientes términos, f~em gortogonal ! ~a =

1 X

m=¡1

®m~em ; con ®m = h~a; ~em i ; para todo m 2 Z;

(2.25)

sin más que considerar la forma más general de un sumatorio in…nito a partir de (2.23). c Emilio Gago-Ribas, 2002 °

27

² Resulta evisdente que, en estos casos, el sumatorio, por ser de in…nitos términos, podría ser convergente o podría no serlo. Esto signi…ca que deberemos estudiar la convergencia de dicha serie. Desde el punto de vista algebraico, la convergencia de dicha serie viene asegurada por la teoría de la mejor aproximación, Ap. A.6. Enunciada en forma sencilla diremos que dicha teoría asegura: (i) que si los coe…cientes vienen dados por h~a; ~em i ; la serie es convergente, y (ii) que la mejor aproximación posible al elemento ~a en términos de una cierta base f~em g es la que viene dada por los coe…cientes expresados en la forma h~a; ~em i de forma que la distancia natural entre el elemento original y su representación como una serie es la menor posible. Habitualmente ocurrirá también que dicha distancia tiende a cero, ¶ µ 1 P (2.26) d ~a; h~a; ~em i ~em ! 0; m=¡1

siendo d la métrica inducida por el producto escalar. Nótese que el análisis de (2.26) está, de alguna manera, identi…cando el signi…cado de la igualdad en (2.25) en términos de la forma de medir que establece la propia de…nición que hagamos del producto escalar.

² Citar por último que, en ciertos casos, la combinación lineal en (2.25) puede dejar de tomar la forma de una serie, y convertirse en un operador más general. Este será el caso de los espacios de señales de variable continua, por ejemplo. Podríamos describir matemáticamente este caso como, f~em g ortogonal ! ~a = CL [h~a; ~em i ~em ] ;

(2.27)

identi…cando por CL a un cierto operador que represente de alguna forma la combinación lineal de todos los elementos de la base. ² Sea cual sea el espacio, a la combinación lineal representada en (2.25) se la denomina desarrollo en serie de Fourier del elemento ~a. ² Asociado a todos estos conceptos, existe un concepto más general que es el de la completitud de un espacio vectorial que asegura que todo lo dicho hasta el momento es válido para cualquier elemento de dicho espacio. A un espacio vectorial con un producto escalar válido de…nido que es, además, completo se le denomina espacio de Hilbert (Ap. A.5). Desde el punto de vista algebraico, la obtención de espacios de Hilbert garantiza que todos los aspectos mencionados, en particular el relativo a las series de Fourier, sean válidos. Uno de los objetivos del presente texto será lograr espacios (de señales) que sean espacios de Hilbert, abordando el problema de la completitud de los espacios en la forma más sencilla posible, esto es, a través del análisis de (2.26) en virtud de la métrica de…nida en cada caso.

2.5

Resumen algebraico aplicado a los espacios de señales. El análisis general de señales debería llevar implícito el tener siempre en mente la teoría algebraica de espacios de funciones, aún cuando ésta pueda intentar obviarse desde un punto de vista más práctico. La importancia de tener presente siempre este álgebra viene determinada porque es ésta la que determina la forma de cuanti…car los tamaños de cada función, las diferencias entre unas y otras funciones, su forma de representación en términos de funciones más sencillas, etc. En esta sección expondremos, a modo de resumen, las propiedades algebraicas más importantes que no perderemos nunca de vista a la hora de trabajar con espacios de señales y que servirán como base para los desarrollos expuestos a lo largo del presente texto. Estos conceptos nos permitirán entender algunos de los espacios de señales más utilizados en la práctica, por ejemplo, el espacio L2 (¡1; 1)4 en el caso de señales continuas, y su correspondiente en el caso de variable discreta D2 (¡1; 1); a los que llegaremos a través de construcciones lo más sencillas posibles, pero que siempre tendrán como base este resumen algebraico. Realizaremos a continuación un análisis particular de los conceptos expuestos en la Secc. 2.4 aplicados a conjuntos de señales.

2.5.1

Espacios de dimensión …nita. ² De…niremos en primer lugar un espacio de partida como un conjunto de elementos F = fa(¿ ); b(¿); c(¿ ) ....g caracterizados por una serie de propiedades comunes, por ejemplo, cualquiera de los criterios de clasi…cación especi…cados en la Secc. 2.3 u otras propiedades que aparecerán con posterioridad5 . 4 En

5 Por

28

el caso de señales f (x) de…nidas sólamente sobre el intervalo x 2 [a; b] hablaremos del espacio L2 [a; b]: ejemplo, propiedades asociadas a la derivabilidad de una función, a su energía, etc.

c Emilio Gago-Ribas, 2002 °

Figura 2.4. Representación esquemática de dos espacios de señales: (a) complejas de variable real, y (b) complejas de variable discreta, de…nidas para todos los valores de la variable independiente.

Recordamos que dichos elementos denotarán funciones de variable continua o de variable discreta indistintamente. De esta forma, la notación a(¿ ); b(¿ ); etc. identi…cará cualquier función de…nida en la forma descrita en la Secc. 2.2 independientemente de cuál sea el cuerpo de escalares K1 de partida. A modo de ejemplo, (a) En el caso de señales de variable continua, uno de los espacios que tomaremos como punto de partida será el espacio S(¡1; 1) de…nido como el conjunto de funciones a(¿ ) ´ f(x) complejas de variable real de…nidas en el intervalo (¡1; 1) y que son de buen comportamiento6 para todo valor de x en dicho intervalo de de…nición, Fig. 2.4(a). (b) En el caso de señales de variable discreta, uno de los espacios que tomaremos como punto de partida será el espacio D(¡1; 1); es decir, funciones a(¿ ) ´ x(n) complejas discretas (sucesiones de números complejos) de…nidas en el intervalo (¡1; 1); , Fig. 2.4(b). En este caso, el concepto de sucesiones de buen comportamiento carece de sentido en sí mismo, dada la naturaleza discreta de las señales. ² Una vez establecido un cierto espacio F de funciones de partida, de…niremos una métrica válida, Ap. A.1, que permita medir diferencias o distancias entre los elementos del conjunto. Dicha distancia será ahora una aplicación en la forma, ) ( d : F £ F ¡! R+ ; ; a(¿ ); b(¿) 2 F y ® 2 R+ ; (2.28) ® = d(a(¿ ); b(¿ )); es decir, que asocia a dos elementos del espacio un valor real y positivo. En este caso, la métrica determinará claramente los criterios que estableceremos para decir que dos funciones cualesquiera a(¿) y b(¿ ) del espacio son iguales o diferentes. El resultado será un espacio métrico de funciones. A modo de ejemplo: (a) En el caso de señales de variable continua, la métrica medirá distancias entre dos funciones f (x) y g(x) del espacio S(¡1; 1), considerando éste como el espacio de partida. Así, la distancia será una aplicación en la forma, Fig. 2.4(a), d(f(x); g(x)) ¡! R+ ; f(x); g(x) 2 S(¡1; 1):

(2.29)

(b) En el caso de señales discretas, la métrica medirá distancias entre dos sucesiones x(n) e y(n) del espacio D(¡1; 1) de partida. Así, la distancia será una aplicación en la forma, Fig. 2.4(b), d(x(n); y(n)) ¡! R+ ; x(n); y(n) 2 S(¡1; 1):

(2.30)

6 El concepto de funciones de buen comportamiento suele ser utilizado generalmente para identi…car que las funciones bajo estudio satisfacen aquellas propiedades que más nos interesen en cada caso. Por ejemplo, si sobre el espacio de funciones se va a aplicar un operador diferencial de primer orden, funciones de buen comportamiento serían aquellas que tuvieran asegurada la existencia de su primera derivada para todo x del intervalo de de…nición.

c Emilio Gago-Ribas, 2002 °

29

² El siguiente paso será dotar a dicho conjunto de una estructura de espacio vectorial respecto a un cierto cuerpo K de escalares, Ap. A.2. Los vectores correspondiente serán en este caso funciones del conjunto F de…nido inicialmente: ~a ´ a(¿ ); ~b ´ b(¿ ). El espacio resultante será un espacio vectorial de funciones que donotaremos por FK : Las leyes de operación interna y externa serán en este caso de la forma: (i) La suma de vectores: ~a + ~b ´ a(¿) + b(¿ ) = h(¿ ):

(ii) El producto por un escalar: ®~a ´ ®a(¿) = p(¿ ); con ® 2 K: Asumiendo que se ha dotado al espacio de funciones FK de una estructura de espacio vectorial, podremos destacar los siguientes aspectos: 1. La de…nición adecuada de ambas operaciones hará que los elementos resultantes h(¿ ) y p(¿) pertenezcan también a FK :

2. Podremos así aplicar el concepto de independencia lineal de dos funciones. Diremos entonces que dos funciones son linealmente independientes cuando la igualdad7 ®a(¿) + ¯b(¿) = 0 se satisface sólamente si ® = ¯ = 0: 3. De…nidas estas operaciones, será ya posible construir combinaciones lineales de cualesquiera M funciones del espacio, esto es fam (¿ )gM ¡!

M X

m=1

®m am (¿ ) = a(¿ ) 2 FK ;

(2.31)

y generalizar a esas M funciones el concepto de independencia lineal, fam (¿ )gM linealmente independientes ¡!

M X

m=1

®m am (¿ ) = 0 sii ®m = 0 8m:

(2.32)

4. Los conceptos de combinación lineal e independencia lineal nos llevan directamente al concepto de base del espacio vectorial de funciones. Así, denotaremos en forma genérica una posible base de un espacio vectorial de funciones por el conjunto fem (¿ )gN ; todas las posibles combinaciones lineales de dichos elementos darán así lugar al espacio de funciones original, fem (¿)gN ! a(¿ ) =

N X

m=1

®m em (¿ ); 8a(¿ ) 2 FK :

(2.33)

Estas consideraciones son rigurosamente ciertas cuando la dimensión del espacio vectorial considerado N es …nita. Este será el caso de algunos espacios de señales de variable discreta analizados en el Vol. ST-II. ² De…niremos a continuación una norma válida, Ap. A.3, que dará lugar a espacios vectoriales de señales normados, y que nos permitirá identi…car el tamaño asociado a cualquier función del espacio, 8 9 < k¢k : FK ¡! R+ ; = ; a(¿ ) 2 FK y ® 2 R+ : (2.34) : ; ® = ka(¿ )k De…nida una norma válida, será posible seleccionar como métrica particular del espacio la métrica natural o métrica inducida por dicha norma (caso habitual en los espacios de señales con los que trabajaremos), esto es, (2.35)

d(a(¿); b(¿ )) = ka(¿ ) ¡ b(¿ )k : ² Finalmente, de…niremos un producto escalar de funciones, Ap. A.4, en la forma, ( ) h¢; ¢i : FK ! C; ; a(¿ ); b(¿) 2 FK y ® 2 C: ® = ha(¿ ); b(¿ )i

(2.36)

Cabe destacar los siguientes comentarios: 7 En

30

este caso, el elemento 0 a la derecha de la igualdad representaría la función nula, esto es, ~a = a(¿ ) = 0; 8¿ :

c Emilio Gago-Ribas, 2002 °

1. El valor complejo asignado a dos funciones cualesquiera a(¿ ) y b(¿ ) por dicha aplicación mide la proyección de la primera sobre la segunda. 2. Si el valor de dicha proyección es nulo, diremos que las funciones son ortogonales: ha(¿ ); b(¿ )i = 0 ! a(¿ ) ? b(¿):

3. Podremos pues considerar bases ortogonales, fem (¿ )gN del espacio FK bajo análisis, es decir, en las que el producto escalar de todos sus elementos entre si es nulo. Si la norma de los elementos de la base es la unidad, hablaremos de una base ortonormal, fem (¿)gN ortogonal ! hem (¿ ); en (¿ )im6=n = 0; m; n = 1 ..... N:

(2.37)

4. Podremos entonces expresar cualquier elemento a(¿ ) 2 FK como una combinación lineal de los elementos de la base. Las componentes de a(¿ ) en dicha base, lo que es lo mismo, los coe…cientes de la combinación lineal, podrán expresarse como la proyección del elemento original a(¿) sobre cada uno de los elementos em (¿) de dicha base; en términos del producto escalar, 8 N P > < a(¿) = ®m em (¿); m=1 (2.38) fem (¿ )gN ortogonal ! > : ®m = ha(¿ ); em (¿ )i ; m = 1; :::::; N:

5. Asumiendo una vez más que el espacio vectorial FK de funciones es de dimensión …nita, podremos asegurar que la expresión anterior asegura que la distancia natual entre la función a(¿ ) y su expresión en términos de la combinación lineal de las funciones de la base sea nula, µ ¶ N P d a(¿); ha(¿); em (¿)i em (¿ ) = 0: (2.39) m=1

Esto será cierto en aquellos espacios de funciones cuya dimensión sea …nita, por ejemplo, en los espacios de señales de variable discreta periódicas de período N0 : Sin embargo, la mayor parte de espacios de funciones a considerar serán de dimensión in…nita. Deberemos entonces hacer notar las diferencias que aparecerán en este caso.

2.5.2

Espacios de dimensión in…nita.

Ya se ha citado que en la mayoría de los casos relacionados con espacios de señales, estos serán de dimensión in…nita. Esto signi…ca que se requerirán conjuntos de base formados por in…nitas funciones para lograr representar cualquier función arbitraria del espacio. Veamos la particularización general de los conceptos expuestos en la Secc. 2.4.2 para el caso de los espacios de funciones. ² Como ya hemos citado en el caso general, que la dimensión de un espacio vectorial FK sea in…nita signi…ca que el número de elementos de cualquier base necesarios para representar dicho espacio es in…nito, esto es, fem (¿ )gN ! fem (¿ )g:

² Bases compuestas de un conjunto in…nito y numerable de funciones.

1. Asumiendo que la base considerada sea ortogonal, un elemento cualquiera del espacio debería expresarse ahora en los siguientes términos, 8 1 P > < a(¿ ) = ®m em (¿ ); m=¡1 fem (¿ )gortogonal ! (2.40) > : ®m = ha(¿ ); em (¿ )i ; para todo m 2 Z; sin más que considerar en este caso la forma generalizada de un sumatorio in…nito a partir de (2.38).

2. Deberemos, por lo tanto, estudiar la convergencia de dicha serie. Una vez más, la convergencia de dicha serie viene viene asegurada por la teoría de la mejor aproximación, Ap. A.6. Así: (i) si los coe…cientes vienen dados por ha(¿ ); em (¿ )i ; la serie es convergente, y (ii) que la mejor aproximación posible a la función a(¿) en términos de una cierta base fem (¿ )g ortogonal es la que viene dada por los coe…cientes expresados en la forma ha(¿); em (¿)i de forma que la c Emilio Gago-Ribas, 2002 °

31

distancia natural entre el elemento original y su representación como una serie es la menor posible y tiende a cero, µ ¶ 1 P d a(¿); ha(¿); em (¿)i em (¿ ) ! 0; (2.41) m=¡1

siendo la métrica utilizada la inducida por el producto escalar. Nótese que, en este caso, el examen de esta propiedad está identi…cando una vez más el signi…cado de la igualdad en (2.25) en términos de la forma de medir que establece la propia de…nición que hagamos del producto escalar. ² Bases compuestas de un continuo de funciones. 1. Asumiendo que la base considerada sea ortogonal, puede ser que la combinación lineal en (2.38) se transforme ahora, no en una suma in…nita como en (2.40), sino en un operador integral en la forma, Z fe(¿; »)gortogonal ! a(¿ ) = ®(»)e(¿ ; ») d»; (2.42) »

siendo ®(») = ha(¿ ); e(¿ ; »)i ; » 2 R:

(2.43)

Nótese el papel que juegan las funciones de la base como núcleo del operador integral, Secc. 3.6.4. Así, dicho operador actuando sobre un elemento arbitrario, (¢); puede interpretarse como R (¢)e(¿ ; ») d»: »

2. La justi…cación del paso de combinaciones lineales en la forma de (2.38) a combinaciones lineales continuas en la forma de un operador integral8 como en (2.42) no es sencilla desde un punto de vista riguroso, e intentaremos abordarla en la forma más sencilla posible a lo largo del presente texto.

3. En este caso, el análisis de la convergencia de una serie pasará a ser el análisis de la convergencia del operador integral en (2.42). El análisis de la mejor aproximación posible requerirá del análisis de, µ ¶ Z d a(¿ ); ®(»)e(¿ ; ») d» ; (2.44) »

siendo la métrica utilizada la inducida por el producto escalar. El examen de esta propiedad identi…cará una vez más el signi…cado de la igualdad en (2.42) en términos de la forma de medir que establece la propia de…nición que hagamos del producto escalar. ² Nótese que el paso de la primera representación en términos de una serie de Fourier en (2.40) a un operador integral en la forma de (2.42) conlleva en sí mismo el paso de conjuntos numerable a conjuntos continuos de funciones, esto es, fem (¿)g ! fe(¿ ; »)g ó bien fe(¿ ; m)g ! fe(¿ ; »)g :

(2.45)

En cualquiera de los casos, el concepto existente detrás de estos desarrollos (representación de cualquier señal en términos de un conjunto de señales conocidas) será la base para obtener y entender los conceptos de transformadas de señales y dominios transformados abordado en el Cap. 4 en su forma más general. La forma de generalizar este concepto será la de utilizar siempre la notación fe(¿; ¿ 0 )g ;

(2.46)

donde ¿ representará la variable de de…nición propia de las funciones (x ó n) y ¿ 0 representará una variable actuando como un parámetro descriptivo de las funciones de un conjunto (m 2 ZN en el caso de un conjunto …nito, m 2 Z si es un conjunto in…nito y numerable, y » 2 R si es un conjunto continuo). 8 Nótese con anticipación que la integración no es más que una suma sobre una variable continua. En estos casos haremos referencia a una suma continua como el equivalente a un operador integral.

32

c Emilio Gago-Ribas, 2002 °

² Todos estos análisis han de llevarnos de una forma relativamente sencilla al concepto de completitud de un espacio vectorial de señales, y por lo tanto, al concepto de espacios de señales que son espacios de Hilbert (Ap. A.5). Para ello, partiremos de una serie de espacios de…nidos a partir de propiedades sencillas sobre los que iremos imponiendo restricciones de forma que ampliaremos o reduciremos el número de elementos de dicho espacio. El espacio …nal resultante será un espacio de Hilbert, por ejemplo, el espacio L2 (¡1; 1): Este proceso será el seguido en la parte dedicada al análisis de señales de variable continua, Vol. ST-I, y posteriormente en el Vol. ST-II dedicado a las señales y los sistemas de variable discreta. 2.5.3

Comentarios …nales.

Con estos conceptos en mente, será posible considerar dos propiedades básicas como punto de partida para de…nir espacios de señales iniciales con los que trabajar: (i) señales de variable continua y de variable discreta, y (ii) señales periódicas y aperiódicas. Como quedará claro a lo largo del presente texto, estas dos propiedades se eligen como puntos de partida en relación con la dimensión de los espacios de señales a que dan lugar y, consecuentemente, al concepto posterior de transformada de dichos espacios, Cap. 4. Así, veremos como: 1. La dimensión de un espacio de señales de variable discreta puede ser …nita, esto es, se podrán elegir bases de dicho espacio compuestas por un número …nito N de funciones. En este caso identi…caremos la base genérica de funciones por, fe(¿ ; ¿ 0 )gN ´ fÁ(n; m)gN ; m = 0; :::::; N ¡ 1:

(2.47)

2. La dimensión de un espacio de señales de variable continua y periódicas de período …jo es in…nita y numerable, esto es, se podrán elegir bases de dicho espacio compuestas por un número in…nito pero numerable de funciones. Identi…caremos en este caso las funciones base por, fe(¿; ¿ 0 )g ´ f'(x; m)g; m 2 Z:

(2.48)

3. La dimensión de un espacio de señales aperiódicas de variable continua es in…nita y no numerable, esto es, cualquier conjunto base de dicho espacio estará formado por un continuo (y por lo tanto en número in…nito) de funciones identi…cadas por una variable »; esto es, fe(¿ ; ¿ 0 )g ´ f'(x; »)g; » 2 R (C):

(2.49)

Pasaremos a continuación a describir las características más importantes de dichos espacios de partida, así como el álgebra particular que de…niremos sobre ellos y que usaremos de forma extensiva a lo largo del presente texto. Aunque estas de…niciones algebraicas no son únicas, son las más utilizadas puesto que están relacionadas directamente con la medida de ciertos parámetros físicos asociados a las señales como se verá en la Secc. 2.9.

2.6

Espacios de partida de señales de variable continua. Teniendo en cuenta la clasi…cación inicial de señales expuesta en la Secc. 2.3 y el resumen algebraico expuesto en la Secc. 2.5, expondremos a continuación los principales espacios de señales continuas que consideraremos como punto de partida para los desarrollos expuestos en el presente texto.

2.6.1

Señales periódicas.

Un caso muy importante de señales en la práctica son aquellas que se repiten de forma continuada cada cierto valor de la variable independiente x: Al menor de dichos valores de repetición se le denomina período fundamental9 de la señal, X0 . Una señal periódica se de…ne entonces como una señal f0 (x) de…nida en el intervalo (¡1; 1) tal que se repite de forma inde…nida para todos los intervalos [kX0 ; (k + 1)X0 ]; es decir, f0 (x + X0 ) = f0 (x); 8x: 9 Nótese

(2.50)

que cualquier divisor entero X0 =m de dicho valor también será un período válido de la señal.

c Emilio Gago-Ribas, 2002 °

33

Re{f0 (x)}

1,5

P(X0)

1,0 0,5 0,0

f0(x)

-0,5 -1,0 -1,5 -1 1,5

g0(x)

Im{f0 (x)}

0

x

1

2

3

0

x

1

2

3

1,0 0,5 0,0 -0,5 -1,0 -1,5 -1

Figura 2.5. Representación genérica del espacio de señales continuas P (X0 ); así como de un elemento arbitrario de dicho espacio.

² Álgebra del espacio.

De…niremos el espacio vectorial de señales P (X0 ) respecto al cuerpo de escalares C como el conjunto de funciones, Fig. 2.5: (a) Complejas10 de variable real, f0 : R ! C:

(b) De…nidas y continuas11 en el intervalo (¡1; 1); y de período fundamental X0 :

(c) Como elemento de un espacio vectorial, identi…caremos un vector genérico del espacio con la función f0 (x); de forma que tanto la suma como el producto por un escalar del cuerpo C se de…nen punto a punto.

(d) Un elemento genérico de dicho espacio de funciones vendrá descrito por f0 (x) = Re ff0 (x)g + j Im ff0 (x)g = jf0 (x)j ej'f0 (x) ; Fig. 2.5. En este caso, el producto escalar, la norma y la métrica se de…nen sobre un período arbitrario de la señal, hX0 i ; de la siguiente forma, Z hf0 (x); g0 (x)i = f0 (x)g0¤ (x) dx 2 C; (2.51) hX0 i

kf0 (x)k2 = hf0 (x); f0 (x)i1=2 =

Z

hX0 i

d2 (f0 (x); g0 (x)) = kd0 (x)k2 = hd0 (x); d0 (x)i1=2 =

jf0 (x)j2 dx 2 R+ ; Z

hX0 i

jd0 (x)j2 dx 2 R+ ;

(2.52)

(2.53)

d0 (x) = f0 (x) ¡ g0 (x): Nótese que tanto el producto escalar como la norma y la métrica inducidas se de…nen integrando en cualquier intervalo de longitud X0 : Esta de…nición es debida a que si consideramos las expresiones en (2.54), (2.55) y (2.56), sus valores no serán convergentes, esto es, tanto el producto escalar como la norma y la métrica tienden a in…nito y, por lo tanto, no toman valores acotados. En virtud de las 10 El espacio P (X ) así de…nido también contiene a todas las funciones reales de variable real de período X que pueden 0 0 estudiarse como una particularización de las funciones complejas cuando la parte imaginaria de la función es nula. Lo mismo ocurrirá para cualquier otro espacio de señales complejas. 11 La continuidad a lo largo de todo el intervalo exigida inicialmente en la de…nición del espacio determina el hecho de que los valores de la función en los extremos de sus períodos sean iguales.

34

c Emilio Gago-Ribas, 2002 °

Re{f(x)}

3 2 1

S(-`,`) f(x)

0 -1 -2 -3 -2 3

g(x)

Im{f(x)}

-1

0

x

1

2

3

-1

0

x

1

2

3

2 1 0 -1 -2 -3 -2

Figura 2.6. Representación genérica del espacio de señales continuas S(¡1; 1); así como de un elemento arbitrario de dicho espacio.

propiedades de repetición de las señales periódicas, parece evidente que la enterior de…nición resulta razonable. De hecho, como se verá en la Secc. 2.9, el valor medio de una señal periódica se reduce de forma natural a su valor medio en un período, por ejemplo. ² Notaciones habituales. (a) En el caso particular en que x represente la variable temporal t; es decir, señales f0 (t); el período fundamental se suele denotar por T0 : (b) En el caso particular en que x represente una variable espacial, es decir, señales f0 (z); el período fundamental se suele denotar por ¸0 : Esta notación adquiere todo su signi…cado en señales sinusoidales que representan fenómenos de propagación en el tiempo t y en el espacio z; siendo ¸0 la longitud de onda fundamental a lo largo del espacio, Secc. 5.4. Por extensión de este caso, utilizaremos en general dicha notación. 2.6.2

Señales aperiódicas.

En los problemas prácticos, los espacios de señales más habituales son el espacio L2 (¡1; 1) o el espacio L2 [a; b]: Dichos espacios, que resultan ser espacios de Hilbert, es decir, un espacio completo respecto a la métrica inducida por el producto escalar de…nido sobre él, se han desarrollando históricamente a partir de otros espacios de señales iniciales que luego han resultado ser espacios no completos (Ap. A.5). En nuestro caso, trabajaremos con el espacio L2 (¡1; 1); es decir, el espacio de funciones de…nidas para todo el intervalo de la variable x: Para construir este espacio, partiremos de un espacio de señales que denominaremos S(¡1; 1):y que presentaremos seguidamente. Futuras restricciones y/o ampliaciones de este espacio darán lugar al espacio L2 (¡1; 1): ² Álgebra del espacio.

De…niremos el espacio vectorial de partida S(¡1; 1) respecto al cuerpo C de escalares como el conjunto de señales, Fig. 2.6, (a) Complejas de variable real, f : R ! C:

(b) De…nidas y de buen comportamiento en el intervalo (¡1; 1); esto es, para todo x 2 R:

(c) Como elemento de un espacio vectorial, identi…caremos un vector cualquiera con la función f (x); de forma que tanto la suma como el producto por un escalar se de…nen punto a punto.

(d) Un elemento genérico de dicho espacio de funciones será f (x) = Re ff (x)g + j Im ff(x)g = jf (x)j ej'f (x) ; Fig. 2.6. c Emilio Gago-Ribas, 2002 °

35

El producto escalar, la norma y la métrica vendrán de…nidos en este caso por, Z 1 hf(x); g(x)i = f (x)g¤ (x) dx 2 C;

(2.54)

¡1

2

kf(x)k = hf(x); f (x)i =

2

Z

1

¡1

jf (x)j2 dx 2 R+ ;

2

d (f(x); g(x)) = kd(x)k = hd(x); d(x)i =

Z

1 ¡1

jd(x)j2 dx 2 R+ ;

(2.55)

(2.56)

d(x) = f (x) ¡ g(x): Nótese que la métrica, como medida de la diferencia existente entre dos elementos cualesquiera del espacio de funciones de…nida a partir de este producto escalar, no es más que el error cuadrático medio utilizado normalmente para analizar la diferencia entre dos funciones. El espacio así de…nido resulta muy útil en el análisis de problemas físicos, en particular porque el producto escalar induce una norma que está directamente relacionada con la energía de la señal, como se verá en la Secc. 2.9, es decir, de la integral o área bajo la curva del cuadrado del módulo de la función, y no de sus valores punto a punto, lo que determinará ciertas características particulares desde el punto de vista de distinguir dos señales o funciones diferentes dentro del espacio12 . ² Notaciones habituales. (a) En el caso particular en que x represente la variable temporal, x ´ t; de forma que las señales vendrán descritas por f(t): (b) En el caso particular en que x represente una variable espacial 1D, utilizaremos la notación x ´ z; es decir, que las señales vendrán descritas en nuestro caso por f(z): (c) En el caso en que la variable independiente represente el espacio 3D ó 2D, las variable x debería ser sustituída por el vector de posición ~r de cada punto del espacio, de forma que las señales vendrán descritas en este caso por funciones f(~r):

² Otros espacios de partida. En general, se podrán considerar espacios de partida todos aquellos que surgen de la generalización de los valores (¡1; 1) a diferentes situaciones de interés; los espacios resultantes se podrán denotar por S[a; b]; S[a; 1) y S(¡1; b]: Las de…niciones del producto escalar, norma y métrica serán las misma sin más que sustituir adecuadamente los límites de integración. Con estas consideraciones en mente, generalizaremos la notación usada en (2.54), (2.55) y (2.56) de la siguiente forma, Z hf (x); g(x)i = f (x)g¤ (x) dx 2 C; (2.57) x

kf (x)k = hf (x); f(x)i1=2 =

Z

d(f(x); g(x)) = kd(x)k = hd(x); d(x)i

x

¸1=2 jf (x)j2 dx 2 R+ ;

1=2

=

Z

x

¸1=2 2 jd(x)j dx 2 R+ ;

(2.58)

(2.59)

d(x) = f (x) ¡ g(x):

R donde x (¢) dx denota los límites de integración adecuados en x respecto al dominio de de…nición de las señales.

12 Resulta evidente que con la presente de…nición de métrica, dos señales f (x) y g(x) que di…eran sólamente en puntos aislados, serán la misma señal desde el punto de vista de la métrica de…nida. Aunque esta condición requeriría que alguna de las dos funciones fuese discontinua, y éstas no estan contempladas en nuestro espacio de funciones inicial, veremos que en algún momento deberemos considerarlas dentro de dicho espacio, de forma que el comentario anterior tomará entonces todo su signi…cado.

36

c Emilio Gago-Ribas, 2002 °

2.7

Espacios de partida de señales de variable discreta. De forma similar a los espacios de señales continuas expuestos en la sección anterior, es decir, teniendo en cuenta la clasi…cación inicial de señales expuesta en la Secc. 2.3 y el resumen algebraico expuesto en la Secc. 2.5 que deberemos mantener siempre en mente, expondremos a continuación los principales espacios de señales de variable discreta que consideraremos como punto de partida para los desarrollos particulares expuestos en el Vol. ST-II. 1,0

Re{x(n)} . . . .

0,5

0,0

x'(-2)+jx''(-2) -0,5

x'(-1)+jx''(-1) x'(0)+jx''(0)

-1,0 -4 1,0

-2

0

2

4

Im{x(n)}

n

6

8

10

12

14

x'(1)+jx''(1) x'(2)+jx''(2) x'(3)+jx''(3)

0,5

x'(4)+jx''(4)

. . . .

0,0

-0,5

-1,0 -4

-2

0

2

4

n

6

8

10

12

14

Figura 2.7. Ejemplo de una señal de variable discreta y su visualización como una secuencia de valores ordenados por la variable independiente n:

En este caso, es importante destacar el hecho de que una señal discreta puede ser visualizada como una sucesión de valores ordenados en términos de la variable entera n; dicha ordenación se podrá escribir como un vector (…la o columna) que contiene a la sucesión de valores en cuestión, Fig. 2.7. Esta representación será especialmente importante desde un punto de vista computacional, y también teórico cuando las sucesiones sean …nitas, dado que podrán establecerse relaciones de tipo matricial dada su naturaleza discreta. Resulta evidente que este tipo de representaciones no será posible en el caso de señales de variable continua dado que en cualquier intervalo [a; b] de de…nición, el número de valores de la señal en dicho intervalo será no numerable. 2.7.1

Señales periódicas.

De forma similar a como se realizó para señales periódicas de variable continua en la Secc. 2.6.1, diremos que una señal de variable discreta es periódica si el comportamiento de dicha función se repite de forma continuada cada cierto valor de la variable independiente n: Al menor de dichos valores de repetición le denominaremos período fundamental de la señal, N0 . Una señal periódica se de…ne entonces como una señal x0 (n) de…nida en el intervalo (¡1; 1) tal que se repite para todos los intervalos [kN0 ; (k + 1)N0 ]; es decir, x0 (n + N0 ) = x0 (n); 8n:

(2.60)

² Álgebra del espacio.

De…niremos el espacio vectorial de señales D(N0 ) sobre el cuerpo C de escalares como el conjunto de funciones, Fig. 2.8: (a) Complejas de variable entera, x0 : Z ! C:

(b) De…nidas en el intervalo (¡1; 1) y de período fundamental N0 :

(c) Como elemento de un espacio vectorial, identi…caremos un elemento genérico con la sucesión x0 (n); de forma que tanto la suma como el producto por un escalar se de…nen punto a punto13 .

1 3 Para

cada valor de la variable independiente n:

c Emilio Gago-Ribas, 2002 °

37

Re{x0(n)}

1,0

0,5

D(N0) x0(n)

0,0

-0,5

-1,0 -5

y0(n)

1,0

Im{x0(n)}

0

n

5

10

15

0

n

5

10

15

0,5

0,0

-0,5

-1,0 -5

Figura 2.8. Representación genérica del espacio de señales de variable discreta de período N0; D(N0 ); así como de un elemento arbitrario de dicho espacio.

(d) Un elemento genérico de dicho espacio de funciones vendrá descrito por x0 (n) = Re fx0 (n)g + j Im fx0 (n)g = jx0 (n)j ej'x0 (n) ; Fig. 2.8. En este caso, el producto escalar, la norma y la métrica se de…ne sobre un período arbitrario, hN0 i ; de la siguiente forma, X x0 (n)y0¤ (n) 2 C; hx0 (n); y0 (n)i = (2.61) hN0 i

kx0 (n)k2 = hx0 (n); x0 (n)i =

X

hN0 i

jx0 (n)j2 2 R+ ;

d2 (x0 (n); y0 (n)) = kd0 (n)k2 = hd0 (n); d0 (n)i = d0 (n) = x0 (n) ¡ y0 (n):

P

hN0 i

(2.62)

jd0 (n)j2 2 R+ ;

(2.63)

Nótese que tanto el producto escalar como la norma y la métrica inducidas se de…nen integrando en cualquier intervalo de longitud N0 : Esta de…nición es debida, igual que en el caso de señales continuas, a que si consideramos las expresiones en (2.64), (2.65) y (2.66), los valores de las series que de…nen dichos valores no tienen porqué ser convergentes en la mayoría de los casos, esto es, tanto el producto escalar como la norma y la métrica tienden a in…nito (no toman valores acotados). Como se verá en la Secc. 2.9, el valor medio de una señal periódica discreta se reducirá de forma natural a su valor medio de…nido sobre un un período de la señal. ² Notaciones habituales. En este caso, la variable independiente n que indexa la sucesión discreta de valores es adimensional, no existiendo por lo tanto diferencias de notación a especi…car. 2.7.2

Señales aperiódicas.

De forma similar a como se realizó para señales aperiódicas de variable continua en la Secc. 2.6.2, el espacio de señales discretas a utilizar en la práctica resultará ser un espacio de Hilbert, es decir, un espacio completo respecto a la métrica inducida por el producto escalar de…nido sobre él (ver Ap. A.5). Para construir de forma progresiva este espacio, partiremos de un espacio de señales que denominaremos D(¡1; 1):y que de…niremos a continuación. Futuras restricciones y/o ampliaciones del mismo darán lugar al espacio D2 (¡1; 1): 38

c Emilio Gago-Ribas, 2002 °

Re{x(n)}

1,0

0,5

D(-`,`) 0,0

x(n) -0,5

-1,0 -5

y(n)

1,0

Im{x(n)}

0

n

5

10

15

0

n

5

10

15

0,5

0,0

-0,5

-1,0 -5

Figura 2.9. Representación genérica del espacio de señales discretas D(¡1; 1), así como de un elemento genérico de dicho espacio.

² Álgebra del espacio.

De…niremos el espacio vectorial D(¡1; 1) respecto al cuerpo C de escalares como el conjunto de funciones, Fig. 2.9, (a) Complejas de variable entera, x : Z ! C; y de…nidas en el intervalo n 2 (¡1; 1):

(b) Como elemento de un espacio vectorial, identi…caremos un elemento genérico con la sucesión x(n); de forma que tanto la suma como el producto por un escalar se de…nen punto a punto. (c) Un elemento genérico de dicho espacio de funciones será x(n) = Re fx(n)g + j Im fx(n)g = jx(n)j ej'x (n) ; Fig. 2.9. El producto escalar, la norma y la métrica vendrán de…nidas en este caso por, hx(n); y(n)i =

1 X

n=¡1

kx(n)k2 = hx(n); y(n)i =

x(n)y ¤ (n) 2 C; 1 X

n=¡1

jx(n)j2 2 R+ ;

d2 (x(n); y(n)) = kd(n)k2 = hd(n); d(n)i = d(n) = x(n) ¡ y(n):

1 P

n=¡1

jd(n)j2 2 R+ ;

(2.64)

(2.65)

(2.66)

Nótese que la métrica, como medida de la diferencia existente entre dos elementos cualesquiera del espacio de funciones, de…nida a partir de este producto escalar, no es más que el error cuadrático medio utilizado normalmente para analizar la diferencia entre dos sucesiones discretas de valores.En este caso, el producto escalar induce una norma que también está directamente relacionada con la energía de una señal discreta, como se verá en la Secc. 2.9. Resulta evidente que la métrica resultante es función de la energía de la señal, es decir, de la integral o área bajo la curva de la función, y no de sus valores punto a punto, lo que determinará ciertas características particulares desde el punto de vista de diferenciar dos señales o funciones diferentes dentro del espacio. ² Notaciones habituales. Igual que en el caso de señales discretas aperiódicas, la variable independiente n que indexa la sucesión discreta de valores es adimensional, no existiendo por lo tanto diferencias de notación a especi…car. c Emilio Gago-Ribas, 2002 °

39

² Otros espacios de partida. En general, se podrán considerar espacios de partida todos aquellos que surgen de la generalización de los valores (¡1; 1) a diferentes situaciones de especial interés; los espacios resultantes se podrán denotar por D[N1 ; N2 ]; D[N1 ; 1) y D(¡1; N2 ]: Las de…niciones del producto escalar, norma y métrica serán las misma sin más que sustituir adecuadamente los límites de la serie. Con estas consideraciones en mente, podremos generalizar la notación usada en (2.64), (2.65) y (2.66) de la siguiente forma, X hx(n); y(n)i = x(n)y ¤ (n) 2 C; (2.67) n

kx(n)k2 = hx; xi =

X n

jx(n)j2 2 R+ ;

d2 (x(n); y(n)) = kd(n)k2 = hd(n); d(n)i =

P n

(2.68)

jd(n)j2 2 R+ ;

(2.69)

d(n) = x(n) ¡ y(n):

P donde n denota los límites de integración adecuados en n en función del dominio de de…nición de las señales.

2.8

Visualización de señales complejas de variable real. Antes de proseguir con el análisis de los espacios de señales especi…cados, será interesante recordar las diferentes formas de visualizar o representar cualquiera de las señales perteneciente a alguno de esos espacios. Estas formas de visualización vienen determinadas por el hecho de que cualquiera de dichos espacios contiene funciones complejas de variable real14 , lo que determina diferentes modos de visualización que pueden ser más o menos convenientes en función del tipo de propiedades a estudiar, del tipo de operaciones a realizar, etc.

2.8.1

Señales continuas. ² Partes real e imaginaria. La primera forma de visualizar una función compleja de variable real vendrá determinada por el tipo de variación que tenga dicha función en términos de su parte real y su parte imaginaria, esto es, f (x) = Reff (x)g + j Imff(x)g = f 0 (x) + jf 00 (x): Así, en el espacio S(¡1; 1) por ejemplo, la visualización de un elemento genérico será como la mostrada en la Fig. 2.10(a). ² Módulo y fase. Otra forma alternativa de visualización será la representación de la variación con x tanto del módulo como de la fase de la función f (x) = jf(x)j ej'f (x) : Resulta evidente que, en cualquier caso, la fase vendrá dada en sus unidades habituales (radianes, grados, o cualquier otra medida angular válida). En la Fig. 2.10(b) se muestra un ejemplo de este tipo de representación. ² Representación compleja. Además de las representaciones comentadas previamente, existe una tercera especialmente importante que consiste en representar la función f (x) en su plano complejo, esto es, representando Re ff(x)g en el eje de abscisas y Im ff (x)g en el eje de ordenadas. En este caso, la ecuación de la curva resultante sobre dicho plano será de la forma, fRe ff (x)g ; Im ff (x)gg ¡! Ecuación paramétrica de parámetro x:

(2.70)

La forma explicita de la curva se obtendrá fácilmente sin más que eliminar la variable x considerada como parámetro, obteniéndose su ecuación en la forma Im ff(x)g = F on [Re ff(x)g] :

(2.71)

La misma representación se puede analizar en términos del módulo y la fase de f(x); © ª jf (x)j ; 'f (x) ¡! Ecuación paramétrica de parámetro x:

14 En

Z ½ R:

40

(2.72)

el caso de las señales discretas, la variable n 2 Z puede ser vista como un caso particular de variable real dado que

c Emilio Gago-Ribas, 2002 °

La forma explicita de f(x) se obtendrá una vez más eliminando el parámetro x; obteniéndose la representación compleja en forma polar, £ ¤ (2.73) jf (x)j = F on 'f (x) :

En la Fig. 2.11 se muestra la representación compleja correspondiente a las señales mostradas en la Fig. 2.10. 4

Re{f (x)}

10

|f (x)|

2 8 0 6

-2 -4

4

-6 2 -8 -10 -5,0 2

-2,5

0,0

Im{f (x)}

x

2,5

5,0

7,5

10,0

0 -5,0

-2,5

0,0

x

2,5

5,0

7,5

10,0

0,0

x

2,5

5,0

7,5

10,0

Fase{f (x)} 1,0π

1

0,5π 0,0π

0

-0,5π

-1

-1,0π -2 -5,0

-2,5

0,0

x

2,5

5,0

7,5

10,0

-5,0

-2,5

(a)

(b)

Figura 2.10. Señal compleja de variable real en términos de (a) su parte real y su parte imaginaria, y (b) su módulo y su fase. 2

x =-1

Im{f (x)}

1

x =0 x =1

x =-1

x =-2

f '(x)

0

ϕf(x) x =-3

|f (x)| -1

x =-4

f ''(x)

x =-5

-2 -10,0

-7,5

-5,0

-2,5

0,0

2,5

5,0

7,5

10,0

Re{f (x)}

Figura 2.11. Señal compleja de variable continua representada en el plano complejo.

c Emilio Gago-Ribas, 2002 °

41

2.8.2

Señales discretas. ² Partes real e imaginaria. La primera forma de visualizar una función compleja de variable entera (señal discreta) vendrá determinada por el tipo de variación que tenga dicha función en términos de su parte real y su parte imaginaria, esto es, x(n) = Refx(n)g + j Imfx(n)g = x0 (n) + jx00 (n): Así, en el espacio D(¡1; 1); por ejemplo, una visualización genérica será como la mostrada en la Fig. 2.12(a). ² Módulo y fase. Otra forma alternativa de visualización será la representación de la variación con n tanto del módulo como de la fase de la función x(n) = jx(n)j ej'x (n) : La fase vendrá dada una vez más en sus unidades habituales (radianes, grados, etc.). En la Fig. 2.12(b) se muestra un ejemplo de este tipo de representación. ² Representación compleja. Además de las representaciones comentadas previamente, existe también en este caso una tercera representación que consiste en representar la función discreta x(n) en su plano complejo, esto es, representando Re fx(n)g en el eje de abscisas y Im fx(n)g en el eje de ordenadas. En este caso, la ecuación de la curva resultante sobre dicho plano será de la forma, fRe fx(n)g ; Im fx(n)gg Ecuación paramétrica de parámetro n:

(2.74)

La forma explicita de la curva se obtendrá fácilmente sin más que eliminar la variable n considerada como parámetro, obteniéndose su ecuación en la forma Im fx(n)g = F on [Re fx(n)g] :

(2.75)

La misma representación se puede analizar en términos del módulo y la fase de x(n); © ª jx(n)j ; 'f (n) Ecuación paramétrica de parámetro n:

(2.76)

La forma explicita de x(n) se obtendrá una vez más eliminando el parámetro n; obteniéndose la representación de la función en polares, £ ¤ jx(n)j = F on 'f (n) : (2.77)

En la Fig. 2.13 se muestra la representación compleja correspondiente a las señales mostradas en la Fig. 2.12. Nótese cómo en este caso, al eliminar el parámetro n; obtendríamos funciones continuas en la forma dada por (2.75) ó (2.77), dado que x(n) 2 C y, por lo tanto, Refx(n)g 2 R y Imfx(n)g 2 R: Lógicamente, los valores válidos sobre la curva continua obtenida serían los correspondientes a cada uno de los valores de n; sin más que recuperar su expresión paramétrica en (2.74) ó (2.76). 4

Re{x(n)}

20

|x(n)|

18

2

16 0

14 12

-2

10 -4

8 6

-6

4 -8

2

-10 -10 2

-8

-6

-4

-2

Im{x(n)}

0

n

2

4

6

8

10

0 -10

-8

-6

-4

-2

n

0

2

4

6

8

10

-4

-2

n

0

2

4

6

8

10

Fase{x(n)} 1,0π

1

0,5π 0,0π

0

-0,5π

-1

-1,0π -2 -10

-8

-6

-4

-2

0

n

2

4

6

8

10

-10

-8

-6

Figura 2.12. Señal compleja de variable discreta en términos de (a) su parte real y su parte imaginaria, y (b) su módulo y su fase.

42

c Emilio Gago-Ribas, 2002 °

2,0

1,5

n =0

1,0

Im{ x (n)}

0,5

n = -1

n=1

x'(n)

0,0

ϕx(n)

|x(n)| -0,5

n = -6

-1,0

x''(n) -1,5

n= -10

-2,0 -10,0

-7,5

-5,0

-2,5

0,0

2,5

5,0

Re{x(n)}

Figura 2.13. Señal compleja de variable discreta representada en el plano complejo.

2.9

Parámetros prácticos para la caracterización de señales. Describiremos a continuación algunos de los parámetros que más habitualmente se utilizan para caracterizar señales. Para su de…nición, consideraremos como espacios de partida los siguientes casos: S[a; b]; S(¡1; 1) y P (X0 ) en el caso de señales continuas, y D[N1 ; N2 ]; D(¡1; 1) y D(N0 ) en el caso de señales discretas. Es importante destacar la relación que dichos parámetros, de…nidos como una generalización de las soluciones obtenidas en la resolución de problemas físicos concretos, presentan en relación con el álgebra de señales previamente de…nido, Secc. 2.5. Comentaremos estos aspectos en cada uno de los casos. Los parámetros que estudiaremos son: 1. Valor medio, ha(¿ )i:

2. Potencia instantánea, pa (¿ ): 3. Energía, E [a(¿ )] : 4. Potencia media, hpa (¿ )i:

2.9.1

Valor medio.

En general, el valor medio de un conjunto …nito de N valores viene dado por hvi i =

v1 + v2 + ..... + vN : N

(2.78)

En base a esta sencilla de…nición podremos de…nir el valor medio tanto para señales discretas como para señales continuas. ² Señales de variable discreta. 1. D[N1 ; N2 ] : la aplicación de (2.78) a este caso es muy sencilla, dado que las señales consideradas tienen un número N de muestras …nito de forma que resulta sencillo escribir, N2 1 X hx(n)i = x(n) = Re fhx(n)ig + j Im fhx(n)ig 2 C: N

(2.79)

n=N1

2. D(¡1; 1) : dado que en este caso las sucesiones del espacio son de longitud in…nita, deberemos de…nir el valor medio a partir del valor medio como si la sucesión fuese …nita, habitualmente entre ¡N y N; lo que implica una sucesión de 2N + 1 valores, y obtener posteriormente el

c Emilio Gago-Ribas, 2002 °

43

límite cuando N ! 1; esto es, N X 1 x(n) = Re fhx(n)ig + j Im fhx(n)ig 2 C: N!1 2N + 1

hx(n)i = lim

(2.80)

n=¡N

En la Fig. 2.14(a) se muestra la representación grá…ca asociada a este concepto.

3. D(N0 ) : en el caso de una sucesión periódica, de…niremos el valor medio sobre un período cualquiera de la señal, dado que de…nido como una sucesión in…nita, el valor de (2.80) sería divergente, Fig. 2.14(b); así, 1 X hx0 (n)i = x0 (n) = Re fhx0 (n)ig + j Im fhx0 (n)ig 2 C: (2.81) N0 hN0 i

² Señales de variable continua. 1. S[a; b] : en el caso de una señal continua de…nida en el intervalo [a; b]; el conjunto de valores de la función será un conjunto continuo, y por lo tanto in…nito, de forma que consideraremos N puntos discretos de la función equiespaciados un cierto valor ¢x y promediados respecto a N ; para este conjunto de puntos será posible aplicar la expresión habitual del valor medio en (2.79), Fig. 2.14(c). Finalmente, consideraremos el límite cuando N ! 1; de forma que el intervalo ¢x ! 0: De esta forma, la suma de los N valores, en el límite, se convertirá en la suma continua o integral de la función a lo largo del intervalo [a; b] de de…nición sin más que multiplicar y dividir por ¢x la expresión del límite, esto es, f (a) + f (a + ¢x) + f(a + 2¢x) + ..... ¢x ¢ = N ¢x f (a)¢x + f(a + ¢x)¢x + f(a + 2¢x)¢x + ..... = lim = N!1(¢x!0) N ¢x Z b 1 = f (x) dx = Re fhf (x)ig + j Im fhf(x)ig 2 C: b¡a a

hf(x)i =

lim

N!1(¢x!0)

(2.82)

2. S(¡1; 1) : si la señal es continua y de…nida para todo el rango de valores de la variable independiente, será posible aplicar el concepto de valor medio en (2.82) considerando la señal en un intervalo …nito, y calculando posteriormente el límite de ambos intervalos tendiendo a in…nito. Dado que el intervalo [a; b] a considerar es arbitrario, es usual considerar un intervalo simétrico entre [¡b; b] como en (2.80) y calcular el límite cuando b ! 1; Fig. 2.14(d), 1 hf(x)i = lim b!1 2b

Zb

¡b

f (x) dx = Re fhf(x)ig + j Im fhf (x)ig 2 C:

(2.83)

3. P (X0 ) : …nalmente, en el caso de señales continuas periódicas, de…niremos su valor medio igual que en (2.82) a lo largo de un período arbitrario por las mismas razones que en (2.81), Z 1 hf0 (x)i = f0 (x) dx = Re fhf0 (x)ig + j Im fhf0 (x)ig 2 C: (2.84) X0 hX0 i ² Algunos comentarios importantes. (a) Para una señal compleja, su valor medio también es complejo, igual al valor medio de las partes real e imaginaria, respectivamente. (b) El valor medio se puede ver como la componente continua de una señal, de…nida ésta como aquel valor que sumado a otra señal de valor medio nulo e igual forma de variación que la original, nos da la señal original, Figs. 2.14(e) y 2.14(f),

44

f(x) = hf (x)i + f1 (x); hf1 (x)i = 0;

(2.85)

x(n) = hx(n)i + x1 (n); hx1 (n)i = 0:

(2.86)

c Emilio Gago-Ribas, 2002 °

4

x(n)

N

-N

1,0

x0(n)

2 0,8 0

(a)

(b)

0,6

-2 -4

0,4

-6 0,2 -8 -10 -10

1,2

-8

f(x)

-6

-4

-2

0

n

2

4

a

6

8

10

b

0,0 -8

2

0

f(x)

8

16

n 2b

-b

24

b

1,0 1 0,8

(c) 0,6

(d)

0

0,4 -1 0,2

0,0 -2,0 -1,5 -1,0 -0,5

0,0

0,5

x Re{f(x)}

1,0

1,5

2,0

2,5

3,0

-2 -5

-4

-3

-2

-1

0

1

2

3

4

5

x Im{f(x)}

2,5

4

3

2,0

(e)

2

( f)

1,5 1 1,0 0 0,5

0,0 -5

-1

-4

-3

-2

-1

0

x

1

2

3

4

5

-2 -5

-4

-3

-2

Re{f1(x)}

-1

0

x

1

2

3

4

5

Im{f1(x)}

Figura 2.14. Algunos conceptos importantes asociados al valor medio de señales de variable discreta y de variable continua.

2.9.2

Potencia instantánea.

La potencia instantánea15 se de…ne como el módulo de la señal al cuadrado, P [a(¿ )] = ja(¿ )j2 = a(¿ ) a¤ (¿ ):

(2.87)

Esta de…nición no es más que la generalización de resultados particulares que surgen del análisis de diferentes problemas físicos donde la potencia viene asociada siempre, bien al cuadrado de la magnitud correspondiente si es real, bien al producto de la magnitud por su complejo conjugado si es compleja16 . En las Figs. 2.15 y 2.16 se muestran algunos ejemplos de la potencia instantánea para señales de variable continua y discreta. 1 5 Nótese que utilizaremos la notación asociada a un operador dado que la potencia instantánea será un caso particular de operador actuando sobre el mismo espacio, Secc. 3.3.3. 1 6 Uno de los problema físicos más sencillos donde aparece una potencia instantánea es el caso de una resistencia de valor R; cuya tensión en bornas es v(t); y la corriente que la atraviesa, i(t): Es bien sabido que, en este caso, pi (t) = v(t) i(t) = R i2 (t): En este caso, las magnitudes v(t) e i(t) son señales reales de variable real. Análisis más detallados y generales de este tipo de términos se pueden encontrar asociados, por ejemplo, a la ecuación de balance de potencias dada por el Teorema de Poynting, donde las magnitudes involucradas serán, bien señales vectoriales reales o señales vectoriales complejas de cuatro (t; ~ r) y tres (~ r) variables, respectivamente.

c Emilio Gago-Ribas, 2002 °

45

2

Re{f (x)}

2

X0

Re{f0(x)}

1

1

0 0 -1 -1

-2

-2 -4

-3

-2

-1

Im{f (x)} 2

0

x

1

2

3

-3 -1

4

2

0

Im{f0(x)}

x

1

2

1

2

1

2

1 1 0 0 -1 -2 -4 4

-3

-2

P[f(x)]

-1

0

x

1

2

3

-1 -1

4

8

3

6

2

4

1

2

0 -4

-3

-2

-1

0

x

1

2

3

0

P[f0(x)]

0 -1

4

0

x

x

Figura 2.15. Potencia instantánea de dos señales de variable continua en los espacios S(¡1; 1) y P (X0 ): 3

Re{x0(n)}

2 1 0 -1 -2 -8 3

Im{x0(n)}

0

n

8

16

0

n

8

16

0

n

8

16

2 1 0 -1 -2 -8 5

P[x0(n)]

4 3 2 1 0 -8

Figura 2.16. Potencia instantánea de una señal discreta en el espacio D(N0 ) con N0 = 8:

² Algunos comentarios importantes. (a) El término instantánea hace referencia al tiempo, y por lo tanto, a la distribución de potencia a lo largo de dicha magnitud. Desde el punto de vista de una variable genérica x, haremos referencia a que existe un valor de potencia para cada valor de x: Por ejemplo, si la variable x representa una magnitud espacial, estaremos haciendo referencia a la distribución de potencia a lo largo del espacio. Esta representación es perfectamente generalizable a una variable entera n: (b) Tanto si la señal es real como compleja, el valor de su potencia instantánea será siempre real y positivo para todo valor de la variable independiente, en virtud de las propiedades del módulo de una función. (c) Resulta evidente que el dominio de de…nición de la potencia instantánea será el mismo que el de las señales originales, de forma que la potencia instantánea será otra señal más del espacio de partida. Por ejemplo, en el caso de considerar el espacio de señales periódicas P (X0 ); su potencia instantánea será otra señal periódica perteneciente también a P (X0 ): 46

c Emilio Gago-Ribas, 2002 °

2.9.3

Energía.

La energía se puede de…nir como el valor acumulado de la potencia instantánea a lo largo de la variable independiente: Desde este punto de vista, su origen está, una vez más, íntimamente ligado al análisis de problemas físicos. En particular, podremos hacer el siguiente desarrollo en el dominio del tiempo para luego extender el resultado a cualquier variable continua o discreta. Es bien sabido que la potencia instantánea es la derivada de la energía instantánea respecto del tiempo, de forma que podremos escribir, Z t Z 1 dE(t) p(t) = ¡! E(t) = p(t0 ) dt0 ! E = pi (t) dt; (2.88) dt ¡1 ¡1 expresión que se puede analizar grá…camente tal y como se muestra en la Fig. 2.17. En el caso de considerar la energía total para todo instante de tiempo, t ! 1 y, por lo tanto, obtendremos la energía acumulada por toda la señal. Generalizando este resultado: ² Espacio S(¡1; 1) de variable continua, Z 1 Z E [f (x)] = P [f (x)] dx = ¡1

1

¡1

jf(x)j2 dx:

(2.89)

jx(n)j2 :

(2.90)

² Espacio D(¡1; 1) de variable discreta, E [x(n)] =

1 X

P [x(n)] =

n=¡1

3,0

1 X

n=¡1

Re{f (x)}

1,5 0,0 -1,5 -3,0 -4 3,0

-3

-2

-3

-2

Im{f (x)}

-1

0

x

1

2

3

4

-1

0

x

1

2

3

4

2

3

4

1,5 0,0 -1,5 -3,0 -4 4

P[f(x)]

2

|f(x)|

E[f(x)]

3 2 1 0 -4

-3

-2

-1

0

x

1

Figura 2.17. Potencia instantánea y energía de una señal de variable continua en el espacio S(¡1; 1):

² Algunos comentarios importantes. (a) En el caso de considerar espacios diferentes a S(¡1; 1) y D(¡1; 1); las expresiones de la energía en (2.89) y (2.90) se pueden reescribir fácilmente sin más que modi…car adecuadamente los límites de integración o de la serie ajustados a los dominios de de…nición correspondientes. Así, para S[a; b] y D[N1 ; N2 ] obtendremos, Z b Z b 2 E [f(x)] = P [f(x)] dx = jf (x)j dx; (2.91) a

E [x(n)] =

a

N2 X

n=N1

c Emilio Gago-Ribas, 2002 °

P [x(n)] =

N2 X

n=N1

jx(n)j2 :

(2.92)

47

Si el espacio fuese P (X0 ) ó D(N0 ); las expresiones anteriores se de…nirían sobre un período arbitrario de forma similar a como se realizó para el valor medio. Así, Z Z E [f0 (x)] = P [x0 (n)] dx = jf0 (x)j2 dx; (2.93) hX0 i

hX0 i

X

E [x0 (n)] =

n=hN0 i

P [x0 (n)] =

X

n=hN0 i

jx0 (n)j2 :

(2.94)

(b) Desde el punto de vista grá…co, nótese que la energía asociada a una señal continua no es más que el área bajo la curva de P [f(x)] ; tal y como se muestra en la Fig. 2.17. (c) A la vista de las expresiones anteriores es fácil darse cuenta que el valor de la energía de una señal coincide justamente con el cuadrado de la norma de…nida sobre el espacio de señales correspondiente; por ejemplo: (i) en el caso de señales periódicas, con (2.52) y (2.65); (ii) en el caso de señales aperiódicas de…nidas para todo valor de la variable independiente, con (2.55) y (2.65). Esto quiere decir que el tamaño de cada uno de los elementos de un cierto espacio de señales se medirá en términos de la energía de dicho elemento, y por lo tanto, será una medida que dependerá del comportamiento de la señal en todos los valores de la variable independiente y no una medida local para cada uno de dichos valores. Este tipo de medición del tamaño de los elementos determinará más adelante el concepto de señales cuadrado integrables o lo que es lo mismo, de energía …nita, restricción que será necesario imponer a la hora de tratar con los dominios transformados asociados a un cierto espacio de señales. (d) En el caso de señales continuas, si la variable x representa el tiempo t; la energía representará el valor acumulado de la potencia instantánea a lo largo del tiempo. Si la variable x representa una coordenada espacial z, la energía representará el valor acumulado de la potencia a lo largo del espacio representado por z: 2.9.4

Potencia media.

La potencia media tiene exactamente la misma interpretación que el valor medio de una señal, considerando ahora como señal la potencia instantánea P [a(¿ )] : De esta forma, su valor vendrá dado por las ecuaciones (2.79)-(2.81) aplicadas a la potencia instantánea cuando las señales sean discretas, y por (2.82)-(2.84) aplicadas a la potencia instantánea cuando las señales sean continuas. Así, ² Señales de variable continua. 1. f(x) 2 S(¡1; 1) : 1 b!1 2b

Z

1 hP [f (x)]i = b¡a

Z

hP [f(x)]i = lim 2. f(x) 2 S[a; b] :

3. f0 (x) 2 P (X0 ) : hP [f0 (x)]i =

1 X0

Z

b

1 b!1 2b

P [f (x)] dx = lim

¡b

b

1 P [f (x)] dx = b¡a

a

P [f0 (x)] dx =

hX0 i

1 X0

Z

Z

Z

b

¡b

b

a

hX0 i

jf (x)j2 dx:

(2.95)

jf(x)j2 dx:

(2.96)

jf0 (x)j2 dx:

(2.97)

² Señales de variable discreta. 1. x(n) 2 D(¡1; 1) : N N X X 1 1 2 P [x(n)] = lim jx(n)j : N!1 2N + 1 N!1 2N + 1

hP [x(n)]i = lim 48

n=¡N

(2.98)

n=¡N

c Emilio Gago-Ribas, 2002 °

1,0

Re{f (x)}

4

0,8

Re{f (x)}

3

0,6 2 0,4 1

0,2 0,0

1,0

-6

-4

-2

Im{f (x)}

0

x

2

4

0

6

1,0

0,5

-4

-2

x

0

0

2

4

6

2

4

6

2

4

6

0,5

0,0

0,0

-0,5

-0,5

-1,0

-6

Im{f (x)}

-6

P[f(x)]

-4

-2

0

x

2

4

-1,0

6

20

1,5

-6

-4

-2

-6

-4

-2

P[f(x)]

x

E[f(x)]

15 1,0 10 0,5 5 0,0

-6

-4

-2

0

x

2

4

E[f(x)]

0

6

0

x

Figura 2.18. Potencia instantánea de dos señal continuas en el espacio S(¡1; 1) cuya energía es …nita en el primer caso e in…nita en el segundo.

2. x(n) 2 D[N1 ; N2 ] : hP [x(n)]i =

1 N

3. x0 (n) 2 D(N0 ) : hP [x0 (n)]i =

N2 X

1 N

N2 X

jx(n)j2 :

(2.99)

1 X 1 X P [x0 (n)] = jx0 (n)j2 : N0 N0

(2.100)

P [x(n)] =

n=¡N1

hN0 i

n=¡N1

hN0 i

² Algunos comentarios importantes. (a) La interpretación de estas expresiones no es más que la suma continua o discreta de la potencia instantánea en un cierto intervalo y promediada sobre dicho intervalo: La interpretación grá…ca sería la misma que en la Fig. 2.14 considerando que la señal sobre la que se calcula el valor medio es la potencia instantánea. Dado que la potencia instantánea es siempre real, la potencia media también lo será. (b) Desde el punto de vista de la energía, es fácil ver que tanto los términos integrales en señales de variable continua como las series en señales de variable discreta, no son más que la energía de la señal correspondinte a un cierto intervalo de forma que dicha cantidad, dividida por el intervalo, representará una densidad de energía por unidad de la variable independiente. Así por ejemplo, para señales en S(¡1; 1); podemos escribir, 1 E [f(x)]jb¡b : b!1 2b

hpf (x)i = lim

(2.101)

De forma similar se podría hacer para el resto de los casos. Cuando x ´ t; la potencia media representa la densidad de energía por unidad de tiempo; cuando x represente una coordenada espacial z; tendremos una representación de la distribución de energía por unidad de espacio. (c) En el caso de una señal f(x) 2 S(¡1; 1) cuya energía sea …nita, la potencia media será nula. En la Fig. 2.18 se muestra un ejemplo de este caso. Para que la energía de esa señal tenga un valor …nito ha de suceder que su potencia instantánea sea nula cuando x ! §1; es decir, c Emilio Gago-Ribas, 2002 °

49

que P [f (x)] no puede ni crecer ni mantenerse constante (comportamiento asintótico) en §1: Esto quiere decir que el límite en (2.95) será del tipo limb!1 E [f(x)] (…nita)=1 ! 0: Desde un punto de vista grá…co, como P [f (x)] es siempre positiva, al realizar la suma continua y promediada a todo el eje x; no existirán valores que puedan promediar la señal a un valor diferente de cero. Si f (x) es tal que E [f(x)] ! 1; entonces el valor medio de la potencia podrá ser diferente de cero, dado que limb!1 E [f(x)] (in…nita)=1 = (1=1) y dicha indeterminación podrá converger a un valor concreto, e incluso diverger tendiendo a in…nito, si el término de energía tiende a in…nito más rápidamente que el término lineal 2b del denominador, Fig. 2.18.

2.10

Una clasi…cación adicional de señales.

2.10.1

Señales reales e imaginarias.

² Una señal ar (¿ ) que sea real satisface la siguiente igualdad: ar (¿ ) = a¤r (¿ ):

² Una señal ai (¿) que sea imaginaria satisface la siguiente igualdad: ai (¿ ) = ¡a¤i (¿):

² Toda señal a(¿) se puede expresar como la suma de una señal real ar (¿) y una señal imaginaria ai (¿ ) en la forma, 8 9 < ar (¿ ) = 1 [a(¿) + a¤ (¿)] = 2 a(¿ ) = ar (¿ ) + ai (¿) ¡! : (2.102) : a (¿ ) = 1 [a(¿) ¡ a¤ (¿ )] ; i 2 La demostración de esta propiedad se puede encontrar en el Ap. E.1.

2.10.2

Señales pares e impares.

² Una señal ae (¿ ) se dice que es par si es simétrica respecto al eje de ordenadas: ae (¿ ) = ae (¡¿ ):

² Una señal ao (¿ ) se dice que es impar si es simétrica respecto al origen: ao (¿ ) = ¡ao (¡¿ ):

² Toda señal a(¿) se puede expresar como la suma de una señal par ae (¿ ) y una señal impar ao (¿ ) en la forma, 8 9 < ae (¿) = 12 [a(¿) + a(¡¿)] = a(¿ ) = ae (¿ ) + ao (¿) ¡! : (2.103) : a (¿ ) = 1 [a(¿ ) ¡ a(¡¿ )] ; o 2 La demostración de esta propiedad se puede encontrar en el Ap. E.1. En la Fig. 2.19 se muestra un ejemplo de esta propiedad para dos señales, una real y otra compleja, respectivamente.

2.10.3

Señales hermíticas y antihermíticas.

² Una señal ah (¿ ) se dice que es hermítica si ah (¿ ) = a¤h (¡¿ ): A partir de esta expresión resulta evidente que una señal hermítica será aquella en que su parte real es par, Refah (¿ )g = Refah (¡¿ )g; y su parte imaginaria impar, Imfah (¿ )g = ¡ Imfah (¡¿ )g:

² Una señal aah (¿ ) se dice que es antihermítica si aah (¿) = ¡a¤ah (¡¿ ): Resulta también evidente comprobar que una señal antihermítica será aquella en que su parte real es impar, Refaah (¿)g = ¡ Refaah (¡¿)g; y su parte imaginaria es par, Imfaah (¿ )g = Imfaah (¡¿ )g:

² Toda señal a(¿) se puede expresar como la suma de una señal hermítica ah (¿) y una señal antihermítica aah (¿) en la forma, 8 9 < ah (¿ ) = 12 [a(¿ ) + a¤ (¡¿)] = a(¿ ) = ah (¿) + aah (¿ ) ¡! : (2.104) : a (¿) = 1 [a(¿ ) ¡ a¤ (¡¿)] ; ah 2

La demostración de esta propiedad se puede encontrar en el Ap. E.1. En la Fig. 2.20 se muestra un ejemplo de esta propiedad.

50

c Emilio Gago-Ribas, 2002 °

Re{f (x)}

3,0 1,5 0,0 -1,5 -3,0 -5

-4

Re{fe(x)}

3,0 1,5 0,0 -1,5 -3,0 -5

-4

Im{f (x)}

-3

-2

-3

-1

-2

0

-1

0

Re{fo(x)}

3,0 1,5 0,0 -1,5 -3,0 -5

-4

-3

-2

-1

x

x

0

x

Re{f (x)}

3,0 1,5 0,0 -1,5 -3,0 -5

-4

-3

-2

-1

x

0

Re{fe(x)}

2 1 0 -1 -2 -5

-4

-3

-2

-1

0

x

Re{fo(x)}

2 1 0 -1 -2 -5

-4

-3

-2

-1

0

x

1

2

1

3

2

3

4

3,0 1,5 0,0 -1,5 -3,0 5 -5

-4

-3

-2

-1

0

x

1

2

3

4

5

4

3,0 1,5 0,0 -1,5 -3,0 5 -5

-4

-3

-2

-1

0

x

1

2

3

4

5

-3

-2

-1

0

x

1

2

3

4

5

-3

-2

-1

0

x

1

2

3

4

5

-3

-2

-1

0

x

1

2

3

4

5

-3

-2

-1

0

x

1

2

3

4

5

Im{fe(x)}

Im{fo(x)}

1

2

3

4

3,0 1,5 0,0 -1,5 -3,0 5 -5

-4

Im{f (x)}

1

2

3

4

3,0 1,5 0,0 -1,5 -3,0 5 -5

-4

Im{fe(x)}

1

2

3

4

5

2 1 0 -1 -2 -5

5

2 1 0 -1 -2 -5

-4

Im{fo(x)}

1

2

3

4

-4

Figura 2.19. Descomposición de dos señales de variable continua, la primera real y la segunda compleja, en sus partes par e impar, fe (x) y fo (x):

3

Re{f (x)}

3

2

2

1

1

0

0

-1

-1

-2

-2

-3 -5 3

-4

-3

-2

-1

0

Re{fh(x)}

x

1

2

3

4

5

-3 -5 3

2

2

1

1

0

0

-1

-1

-2

-2

-3 -5 3

-4

-3

-2

-1

0

Re{fah(x)}

x

1

2

3

4

5

3 2

1

1

0

0

-1

-1

-3 -5

-4

-3

-2

-1

0

x

1

2

3

4

5

-2

-1

0

x

1

2

3

4

5

-2

-1

0

x

1

2

3

4

5

Im{fh(x)}

-3 -5

2

-2

Im{f (x)}

-4

-3

Im{fah(x)}

-2 -4

-3

-2

-1

0

x

1

2

3

4

5

-3 -5

-4

-3

Figura 2.20. Señal compleja de variable continua descompuesta en su parte hermítica, fh (x); y en su parte antihermítica, fa h (x): Se pueden observar claramente las propiedades de paridad e imparidad de sus partes reales e imaginarias.

c Emilio Gago-Ribas, 2002 °

51

2.11

Operaciones básicas con señales.

Describiremos a continuación algunas de las operaciones con señales más importantes a la hora de poder trabajar con éstas de una forma e…ciente. Este tipo de operaciones, así como su interpretación, deberían ser de uso continuado y rutinario para poder abordar más e…cazmente otro tipo de operaciones más complicadas que irán apareciendo a lo largo del presente texto. Desde este punto de vista, su descripción parece lógica en este capítulo; sin embargo, este tipo de operaciones deberán verse en general como casos particulares de operadores, funcionales, formas bilineales o multilineales tal y como se describen en el Cap. 3. Utilizaremos una vez más la notación general sobre la variable ¿ usada en la Secc. 2.5 para describir funciones de variable continua o de variable discreta indistintamente, siempre que las operaciones sean similares. Distinguiremos aquellos casos concretos en los que las operaciones di…eran en algún aspecto importante. 2.11.1

Suma y producto.

Las operaciones de suma y producto se realizan punto a punto, s(¿ ) = a(¿ ) + b(¿); 2.11.2

(2.105)

p(¿) = a(¿)b(¿):

Producto por un escalar.

Esta operación se realiza también punto a punto, (2.106)

a(¿ ) ¡! b(¿ ) = Aa(¿ ): ² En el caso general, A 2 C, es decir, A = jAj ej'A : De esta forma, 8 9 < jb(¿ )j = jAj ja(¿ )j = b(¿ ) = jAj ja(¿ )j ej['A +'a (¿ )] ¡! : : ' (¿ ) = ' (¿) + ' : ; b a A

(2.107)

² En relación con el módulo de las señales, es fácil obtener las siguientes conclusiones, jAj = 1 ! jb(¿ )j = ja(¿ )j ! El módulo se mantiene jAj > 1 ! jb(¿ )j > ja(¿ )j ! Ampli…cación de la señal ¡! jAj ´ Ganancia

:

jAj < 1 ! jb(¿ )j < ja(¿ )j ! Atenuación de la señal ¡! 1= jAj ´ Atenuación Nótese que dichas condiciones se pueden representar en el plano complejo de la variable A como circunferencias de radio igual, mayor o menor que la unidad, respectivamente, Fig. 2.21. En la Fig. 2.22 se muestra un ejemplo para los tres casos analizados. ² En relación con la fase de las señales, es posible identi…car cómo dependiendo del signo de 'A ; la fase resultante se desplaza verticalmente la cantidad j'A j ; 'A = 0 ! 'b (¿ ) = 'a (¿)

! La fase se mantiene

'A > 0 ! 'b (¿ ) = 'a (¿) + j'A j ! La fase se desplaza verticalmente una cantidad j'A j

:

'A < 0 ! 'b (¿ ) = 'a (¿) ¡ j'A j ! La fase se desplaza verticalmente una cantidad ¡ j'A j Nótese que dichas condiciones se pueden representar en el plano complejo de la variable A como rectas partiendo del origen y de ángulo 'A ; Fig. 2.21. En la Fig. 2.22 se muestra un ejemplo para los tres casos analizados. ² Si A 2 R; es evidente que bien 'A = 0 (A > 0) bien 'A = ¼ (A < 0): En este segundo caso se dice que se produce un cambio de polaridad, al cambiar el signo de la señal original.

52

c Emilio Gago-Ribas, 2002 °

Figura 2.21. Plano complejo del cuerpo de escalares representado por A: 2,5

|A|=2

|f (x)|, |g(x)|

|A|=1

|A|=0.5

2,0 1,5 1,0 0,5 0,0 -5 1,00π

-4

-3

Fase{f (x), g(x)}

-2

-1

0

x

1

-1

0

x

1

ϕA=0

2

3

4

5

4

5

ϕA=π/4

0,75π 0,50π 0,25π 0,00π -0,25π -0,50π -0,75π -1,00π

ϕA=-π/8 -5

-4

-3

-2

2

3

Figura 2.22. Algunos ejemplos en variable continua de la operación producto por un escalar para los casos con A = 1; A = 2ej¼=4 y A = 0:5e¡j¼=2 :

2.11.3

Desplazamientos.

Un desplazamiento de la señal a lo largo de la variable independiente se podrá representar de la siguiente forma, a(¿) ¡! b(¿) = a(¿ + ¿ 0 ) = a0 (¿ + ¿ 0 ) + ja00 (¿ + ¿ 0 ):

(2.108)

² En el caso de señales de variable continua, ( ) x0 < 0 ! Desplazamiento a la derecha f (x + x0 ) ¡! : x0 > 0 ! Desplazamiento a la izquierda Si la variable independiente representa el tiempo, x ´ t; los desplazamientos a derecha o izquierda de la señal se identi…caran calaramente con retrasos o adelantos respecto de la señal de partida, respectivamente. En la Fig. 2.23 se muestra un ejemplo de esta operación. ² En el caso de señales de variable discreta, el valor del desplazamiento n0 deberá ser entero, lo que supondrá un desplazamiento de la sucesión de valores en la forma indicada en la Fig. 2.23. 2.11.4

Abatimientos.

Un abatimiento no es más que una simetría respecto al eje de ordenadas o respecto al origen. ² Simetría respecto al eje de ordenadas: a(¿ ) ¡! a(¡¿ ) = a0 (¡¿) + ja00 (¡¿ ):

² Simetría respecto al origen: a(¿ ) ¡! ¡a(¡¿ ) = ¡a0 (¡¿) ¡ ja00 (¡¿ ):

En la Fig. 2.24 se muestran ejemplos de ambas operaciones para señales de variable continua y discreta. c Emilio Gago-Ribas, 2002 °

53

1,0

Re{f (x)}, Re{f (x+x0)}

1,0

x0

0,5

Im{f (x)}, Im{f (x+x0)}

0,5

0,0

0,0

x0 -0,5 -5 2

-4

-3

-2

-1

0

1

Re{x(n)}, Re{x(n+n0)}

x

2

3

4

5

-0,5 -5 2

n0

-4

-3

-2

-1

0

Im{x(n)}, Im{x(n+n0)}

1

x

2

3

4

5

4

6

8

10

n0

1

1

0 0 -1 -1

-2

-2 -10

-8

-6

-4

-2

n

0

2

4

6

8

10

-3 -10

-8

-6

-4

-2

0

n

2

Figura 2.23. Desplazamientos de señales de variable continua y de variable discreta con x0 = ¡2 y n0 = ¡5; respectivamente.

Re{f (-x)}

Im{f (-x)}

Re{f (x)}

0,75

0,75

0,50

0,50

0,25

0,25

0,00

0,00

-0,25

-0,25

-0,50

-0,50

-0,75 -5 3

-4

-3

-2

-1

0

Re{x(n)}

x

1

2

3

4

5

-0,75 -5

Re{x(-n)}

-4

-3

Im{f (x)}

-2

-1

0

x

1

2

-4

-2

0

n

2

4

Im{x(n)}

3

4

5

8

10

Im{x(-n)}

3

2

2

1

1

0

0

-1

-1

-2

-2

-3 -10

-8

-6

-4

-2

0

Re{f(x)}

n

2

4

6

8

10

-3 -10

1,0

1,0

0,5

0,5

0,0

0,0

-0,5

-0,5

-1,0

-8

-6

-Im{f(-x)}

-Re{f(-x)}

6

Im{f(x)}

-1,0

-2,0

-1,5

-1,0

-0,5

0,0

Re{x(n)}

x

0,5

1,0

1,5

2,0

-2,0 3,0

1

1,5

0

0,0

-1

-1,5

-2 -10

-8

-6

-4

-2

0

n

2

4

6

8

10

-1,5

-1,0

-0,5

0,0

Im{x(n)}

-Re{x(-n)}

2

-3,0 -10

-8

-6

-4

-2

0

x

n

0,5

1,0

1,5

2,0

-Im{x(-n)}

2

4

6

8

10

Figura 2.24. Ejemplos de abatimientos respecto al eje de ordenadas y respecto al origen de señales de variable continua y discreta.

54

c Emilio Gago-Ribas, 2002 °

2.11.5

Cambios de escala.

Los cambios de escala se re…eren a cambios respecto a la variable independiente. Conviene distinguir ahora entre el caso de señales de variable continua y discreta. ² Señales continuas. f (x) ¡! f(ax); a 2 R

(2.109)

Resulta evidente que el factor de escala a sólamente puede ser real para conservar la condición inicial de la variable independiente. Resulta sencillo analizar los siguientes casos, Fig. 2.25: (a) Si a > 0; 8 9 > ! Misma señal > < a=1 = : a > 1 ! 1=a < 1 ! Compresión > > : ; a < 1 ! 1=a > 1 ! Expansión

(2.110)

(b) Si a < 0; ocurre lo mismo que para a > 0 pero con un abatimiento respecto al eje de ordenadas añadido. En la Fig. 2.25 se muestran algunos ejemplos de este tipo de operación. Im{f (x)}

Re{f (x)}

1,0 0,5 0,0 -0,5 -1,0 -2,0

-1,5

-1,0

-0,5

0,0

Re{f (ax)}

1,0 0,5 0,0 -0,5 -1,0 -2,0

-1,5

-1,0

-0,5

0,0

Re{f (ax)}

1,0 0,5 0,0 -0,5 -1,0 -2,0

-1,5

-1,0

-0,5

0,0

Re{f (ax)}

1,0 0,5 0,0 -0,5 -1,0 -2,0

-1,5

-1,0

-0,5

0,0

Re{f (ax)} 1,0 0,5 0,0 -0,5 -1,0 -2,0

-1,5

-1,0

-0,5

0,0

Re{f (ax)}

1,0 0,5 0,0 -0,5 -1,0 -2,0

-1,5

-1,0

-0,5

0,0

x

x

x

x

x

x

0,5

1,0

1,5

1,0 0,5 0,0 -0,5 -1,0 2,0 -2,0

a=1 -1,5

-1,0

-0,5

0,0

Im{f (ax)}

0,5

1,0

1,5

1,0 0,5 0,0 -0,5 -1,0 2,0 -2,0

0,5

1,0

1,5

-1,5

-1,0

-0,5

0,0

0,5

1,0

1,5

-1,5

-1,0

-0,5

0,0

0,5

1,0

1,5

-1,5

-1,0

-0,5

0,0

0,5

1,0

1,5

2,0

x

0,5

1,0

1,5

2,0

x

0,5

1,0

1,5

2,0

x

0,5

1,0

1,5

2,0

a=-3 -1,5

-1,0

-0,5

0,0

Im{f (ax)}

1,0 0,5 0,0 -0,5 -1,0 2,0 -2,0

1,5

a=-1

Im{f (ax)}

1,0 0,5 0,0 -0,5 -1,0 2,0 -2,0

1,0

a=0.4

Im{f (ax)}

1,0 0,5 0,0 -0,5 -1,0 2,0 -2,0

0,5

a=3

Im{f (ax)}

1,0 0,5 0,0 -0,5 -1,0 2,0 -2,0

x

x

0,5

1,0

1,5

2,0

a=-0.4 -1,5

-1,0

-0,5

0,0

x

0,5

1,0

1,5

2,0

Figura 2.25. Escalado de la variable independiente de una señal compleja continua f (x); para los casos con a = 1; 3; 0:4; ¡1; ¡3 y ¡0:4:

² Señales discretas. En este caso, la variable sólamente puede ser escalada por un número entero, y de forma genérica escribiremos, x(n) ¡! x(nN ); N 2 Z

(2.111)

Veamos los siguientes casos: (a) N = 0 : Este caso es trivial, dando lugar a una sucesión constante de valor x(0):

c Emilio Gago-Ribas, 2002 °

55

3

Re{x(n)}

3

3

2 1 0

0

4

1 2

0

4

5

-1

-2

6

-2

-3 -10

-8

-6

-4

-2

0

Re{x(Nn)}, N > 0

n

3

2

4

6

8

10

0

-1

-2

-2 -6

-4

-2

0

n

Re{x(n/N)}, N > 0

2

4

6

8

10

n

0

2

4

6

8

10

2

4

6

8

10

3 0 6

-3 -10

-8

-6

-4

-2

n

0

3

3

1

2

3

1

1 0

1

0

2

0

2

-1

-1

-2 -3 -10

-2

Im{x(n/N)}, N > 0

2

0

-4

0

0

-8

-6

1

-1

-3 -10

-8

Im{x(Nn)}, N > 0

2

6

1

-3 -10 3

3

2

3

3

1

5

0 2

-1

2

6

1

Im{x(n)}

-2 -8

-6

-4

-2

0

n

2

4

6

8

10

-3 -10

-8

-6

-4

-2

0

n

2

4

6

8

10

Figura 2.26. Escalada de la variable independiente de una señal compleja discreta x(n) para los casos con N = 1; 3 y 1=N = 1=3:

(b) N > 0 : (

N =1 ! Misma señal N > 1 ! 1=a < 1 ! Diezmado de la señal

)

:

El equivalente en señales de variable continua a un estrechamiento de la señal, e señales de variable discreta se denomina diezmado de la señal. Es fácil comprobar que, en este caso, el escalado de la variable independiente hace que se eliminen muestras de la señal original. Resulta también evidente que, con la de…nición dada en (2.111) no es posible obtener un equivalente en discreta al concepto de ensanchamiento. De…niremos entonces una nueva señal en la forma, ( x(m) n = mN (2.112) x(n) ¡! x (n=N ) = 0 n 6= mN Resulta sencillo comprobar que la nueva señal producirá el equivalente a un ensanchamiento de la señal original por el proceso de añadir ceros entre las muestras de esta última. El proceso suele denominarse como adición de ceros a la señal. En la Fig. 2.26 se muestran algunos ejemplos de este tipo de operaciones. (c) Si N < 0; ocurre lo mismo que para N > 0 pero con un abatimiento adicional. 2.11.6

Combinaciones de operaciones.

Respecto a las combinaciones de operaciones, cabe destacar las relacionadas con los abatimientos y desplazamientos, que tendrán especial importancia en los términos de convolución de la forma a(¿ ¡ ¿ 0 ) que aparecerán posteriormente. Es importante hacer notar cómo dos operaciones aplicadas en orden inverso no tienen porqué dar el mismo resultado. Veamos un ejemplo en variable continua: ² Abatimiento + desplazamiento a derecha. Términos de convolución. f(x) ¡! f1 (x) = f(¡x) ¡! f2 (x) = f(¡(x ¡ x0 )) = f (x0 ¡ x): 56

(2.113)

c Emilio Gago-Ribas, 2002 °

Esta operación representa un abatimiento respecto al eje de ordenadas combinado con un desplazamiento a la derecha si x0 > 0 o un desplazamiento a la izquierda si x0 < 0: Este tipo de términos se usarán extensivamente en las operaciones de convolución tal y como se presentan en las Seccs. 3.7.1 y 3.7.3 para los casos de variable continua y discreta, respectivamente. ² Desplazamiento a derecha + abatimiento. f(x) ¡! f1 (x) = f (x ¡ x0 ) ¡! f2 (x) = f (¡x ¡ x0 ):

(2.114)

Nótese que esta operación es equivalente a f(¡x ¡ x0 ) = f(¡(x + x0 ))

(2.115)

que representa un abatimiento combinado con un desplazamiento a la izquierda si x0 > 0 o un desplazamiento a la derecha si x0 < 0: Resulta evidente que esta operación no es equivalente a la anterior.

2.12

Señales reales.

En los problemas prácticos de la realidad, las magnitudes involucradas serán cantidades reales y, por lo tanto, se trabajará habitualmente con funciones reales que modelen dichas señales, esto es, con subespacios de los espacios de señales complejas de variable real mencionados previamente. Denotaremos por SR (¡1; 1); PR (X0 ); DR (¡1; 1) y DR (N0 ) a los subepacios de S(¡1; 1); P (X0 ); D(¡1; 1) y D(N0 ) que contienen sólamente funciones reales de variable real o entera. En estos casos, tanto las de…niciones algebraicas estudiadas en las Seccs. 2.6 y 2.7, como ciertas de las propiedades estudiadas previamente se simpli…can notablemente. Veremos algunas de las particularizaciones que será conveniente tener siempre presentes en estos casos. 2.12.1

Álgebra de los espacios de señales.

1. P R (X0 ) : hf0 (x); g0 (x)i = kf0 (x)k2 = d2 (f0 (x); g0 (x)) =

Z

Z

Z

hX0 i

hX0 i

hX0 i

2. S R (¡1; 1) :

f0 (x)g0 (x) dx 2 C;

f02 (x) dx 2 R+ ;

(2.116)

[f0 (x) ¡ g0 (x)]2 dx 2 R+ :

Z

hf (x); g(x)i = f(x)g(x) dx 2 C; x Z kf (x)k2 = f 2 (x) dx 2 R+ ; x Z d2 (f (x); g(x)) = [f (x) ¡ g(x)]2 dx 2 R+ :

(2.117)

x

3. DR (N0 ) : hx0 (n); y0 (n)i = kx0 (n)k2 = d2 (x0 (n); y0 (n)) =

P

hN0 i

P

hN0 i

P

hN0 i

c Emilio Gago-Ribas, 2002 °

x0 (n)y0 (n) 2 C;

x20 (n) 2 R+ ;

(2.118)

[x0 (n) ¡ y0 (n)]2 2 R+ :

57

4. DR (¡1; 1) :

P

hx0 (n); y0 (n)i = kx0 (n)k2 = d2 (x0 (n); y0 (n)) = 2.12.2

n

P n

P n

x0 (n)y0 (n) 2 C;

x20 (n) 2 R+ ;

(2.119)

[x0 (n) ¡ y0 (n)]2 2 R+ :

Propiedades de las señales reales.

Las siguientes equivalencias serán válidas para señales reales y, a su vez, triviales de demostrar, dejando este punto como ejercicio para el lector: f (x) real Valor medio Potencia instantánea Señal par

¡! ¡! ´

x(n) real

¡!

Valor medio

¡!

Potencia instantánea

¡!

Señal par

58

¡!

´

f (x) = f ¤ (x) hf(x)i real P [f (x)] = f(x)f ¤ (x) = f 2 (x) real Señal hermítica x(n) = x¤ (n) hx(n)i real P [x(n)] = x(n)x¤ (n) = x2 (n) real Señal hermítica

c Emilio Gago-Ribas, 2002 °

3.

Sistemas y Operadores

3.1

Introducción. Resulta claro que la representación matemática de cualquier problema físico, tal cual se presentó en el Cap. 1 de introducción al presente texto, pasará por analizar transformaciones de señales de diferente naturaleza. El ejemplo más sencillo lo constituirán las operaciones básicas descritas en la Secc. 2.11, aunque el lector ya puede imaginarse una gran cantidad de operaciones sobre diferentes señales sin más que repasar mentalmente cualquiera de los problemas físicos que haya abordado hasta la fecha, o bien tomar como referencia los ejemplos mencionados en la citada introducción. En este sentido, intentaremos presentar a continuación una introducción al concepto de sistema, como forma más general o práctica del concepto de operador aplicado sobre un espacio de señales. En este sentido, diremos que un sistema es cualquier proceso que intervenga en la transformación de señales. Desde este punto de vista, la transformación se verá como una caja negra de la cual nos importará analizar las entradas y salidas, así como describir de alguna forma dicha transformación, Fig. 3.1. Con carácter de generalidad a lo largo del presente texto, asumiremos entonces que un sistema como el mostrado en la Fig. 3.1 viene descrito en términos de un cierto operador F; dando en este caso una equivalencia directa al concepto de operador como transformación de cualquier señal. La notación general a(¿ ) identi…cará una vez más tanto las señales de variable continua como discreta cuando los comentarios realizados sean comunes a ambos casos.

Figura 3.1. Representación genérica de un sistema asumiendo que la transformación de señales que produce viene descrita por un cierto operador F.

F : a(¿ ) ! b(¿ ) = F[a(¿ )]:

(3.1)

Conviene mencionar que la notación F [a(¿ )] deberá leerse en este caso como F [a(¿ )] (¿ ); esto es, una nueva función de…nida sobre la variable original, aunque esta última notación se reduzca a la primera por simplicidad en las presentaciones. Nótese que seguiremos utilizando la notación sobre la variable ¿ introducida en el Cap. 2 para identi…car tanto la variable continua como la discreta. En los casos en los que exista alguna diferencia particularizaremos la notación a x ó n según el caso. La descripción entonces de cualquier transformación representada por un cierto sistema debería realizarse en términos algebraicos de…niendo adecuadamente diferentes espacios de operadores y analizando sus propiedades asociadas. Al igual que hicimos para los espacios de señales, intentaremos obviar en lo posible los conceptos algebraicos más complejos o abstractos, pero manteniendo en consideración aquellos conceptos básicos relacionados con los espacios de operadores. Para ello, recordaremos incialmente algunas de…niciones y conceptos importantes asociados con difrentes tipos de aplicaciones entre espacios, como es el caso de los funcionales, formas bilineales y operadores, que nos permitirán distinguir en cada caso la naturaleza de las operaciones que utilizemos a lo largo del texto. Posteriormente, de…niremos una serie de propiedades básicas asociadas a los sistemas que nos permitirán evaluar su comportamiento y propiedades de una forma sencilla e intuitiva. Muchas de estas propiedades no son más que una traducción práctica del concepto general de sistemas del álgebra de operadores, por ejemplo, la invertibilidad, la estabilidad, etc. Un propiedad particularmente importante será la propiedad de linealidad que, desde un punto de vista algebraico, se corresponderá con el análisis de la teoría de operadores lineales. Estos sistemas constituirán el centro de atención en el presente texto; en particular, no sólo nos centraremos en los sistemas lineales como tales, sino que habitualmente, además de la propiedad de linealidad, asumiremos una segunda propiedad de gran importancia como es la propiedad de invarianza. 59

Al …nal del capítulo realizaremos una descripción de los funcionales y operadores matemáticos más importantes que nos encontraremos habitualmente en los problemas de señal. Algunos de estos operadores serán los responsables de extender o restringir los espacios de señales de partida que hemos descrito en el Cap. 2. En virtud de los conceptos expuestos en el capítulo anterior, resulta también evidente que deberemos diferenciar entre los sistemas continuos y discretos en función de los espacios de señales sobre los que opere la transformación bajo estudio. En este sentido, cabe destacar la relación que existirá entre ambos tipos de sistemas estudiada en el Vol. ST-II de la presente serie, análisis que constituirá la base para poder implementar sistemas continuos en términos de sistemas discretos equivalentes. Nótese también que, a la hora de analizar un problema, será particularmente importante tener presente la distinción realizada en el capítulo de Intoducción acerca de si el problema analizado es directo o inverso. Como ya hemos dicho, en el presente texto abordaremos los aspectos de la teoría de señal que más nos interesan desde el punto de vista de la resolución de problemas directos. De esta forma, lograremos entender adecuadamente las técnicas descritas para poder ser usadas igualmente en la representación y resolución de problemas inversos. En el Ap. B se presenta un resumen algebraico más detallado de la teoría de operadores y operadores lineales. Así mismo, las siguientes referencias conforman una buena base para el análisis riguroso de ciertos aspectos de la teoría que expondremos a lo largo del presente texto: [2], [3], [20], [21], [22] y [24].

3.2

Resumen algebraico de aplicaciones. Resulta fundamental saber identi…car a priori las diferencias existentes entre diferentes transformaciones o aplicaciones entre conjuntos de elementos arbitrarios, algunas de las cuales pueden ser más o menos coincidentes y/o confusas en la literatura especializada. Asumiremos que cualquier conjunto de elementos ha sido dotado de una estructura de espacio vectorial válida respecto a un cuerpo de escalares K, Secc. 2.4. Con esta hipótesis de partida, realizaremos un breve repaso de las transformaciones algebraicas más importantes para, posteriormente, identi…car con ellas algunas de las operaciones más importantes con las que nos encontraremos a lo largo del texto cuando los conjuntos de elementos involucrados sean espacios de señales, …jando también de esta forma la notación usada a posteriori.

3.2.1

Funcionales.

De…nimos un funcional como una aplicación que asigna a cada elemento de un espacio vectorial VK de ~ partida, un cierto número de un cuerpo de escalares K, 8 9 ~ = < F : VK ¡! K ~ ; ~a 2 VK ; z 2 K: (3.2) : z = F [~a] ;

~ será habitualmente el cuerpo de los números reales, R o, en el caso más general, El cuerpo de escalares K de los números complejos, C: En la Fig. 3.2(a) se muestra el esquema grá…co de un funcional operando sobre un espacio vectorial arbitrario. ² Funcionales lineales. Una funcional como el de…nido en (3.2) será lineal si satisface la propiedad, h i F ®~a + ¯~b = ®F [~a] + ¯F [~b]; (3.3) ³ ´ ~ (®; ¯) 2 K: (~a; ~b) 2 VK ; F [~a] ; F [~b] 2 K; ² Ejemplos. Un ejemplo típico de funcional será la de…nición de la norma de un espacio vectorial, (2.17) y Ap. A.3. En la Secc. 3.3 se presentarán los funcionales más importantes relacionados con la teoría de señales y sistemas que utilizaremos en el presente texto.

60

c Emilio Gago-Ribas, 2002 °

3.2.2

Formas bilineales y multilineales.

Una forma bilineal es una aplicación que asigna a una pareja de elementos de dos espacios vectoriales de ~ siendo lineal en ambos argumentos, [20], partida VK1 y WK2 , un número de un cuerpo de escalares K; 9 8 ~ = < F : VK1 £ WK2 ¡! K ~ ; ~a 2 VK1 ; ~b 2 WK2 ; z 2 K: (3.4) ; : z = F [~a; ~b]

Conviene recordar aquí que el concepto de linealidad respecto a los dos argumentos tiene el siguiente signi…cado, 8 9 F [®~a1 + ¯~a2 ; ~b] = ®F [~a1 ; ~b] + ¯F [~a2 ; ~b]; > > < = (3.5) ³ ´ > : (~a ; ~a ) 2 V ; (®; ¯) 2 K , ~b 2 W ; F [~a ; ~b]; F [~a ; ~b] 2 K; ; ~ > 1 2 K1 1 K2 1 2 8 > <

F [~a; ¹~b1 + ´~b2 ] = ¹F [~a; ~b1 ] + ´F [~a; ~b2 ];

9 > =

³ ´ > : ~a 2 V ; (~b ; ~b ) 2 W ; (¹; ´) 2 K ; F [~a; ~b ]; F [~a; ~b ] 2 K: ; ~ > K1 1 2 K2 2 1 2

(3.6)

² Un caso habitual será aquel en el que los espacios vectoriales de partida son los mismos1 , esto es, VK1 = WK2 = VK , 8 9 ~ = ³ ´ < F : VK £ VK ¡! K ~ ; ~a; ~b 2 VK ; z 2 K: (3.7) : ; z = F [~a; ~b] En la Fig. 3.2(b) se muestra el esquema grá…co de una forma bilineal operando sobre dos elementos de un mismo espacio vectorial.

² Formas cuadráticas. Cuando los dos argumentos de una forma bilineal son iguales hablaremos de una forma cuadrática. ² Formas multilineales. La generalización a M espacios vectoriales de una forma bilineal dará lugar a ~ una forma multilineal, esto es, una aplicación que asocia un número de un cuerpo de escalares K a un conjunto de M vectores pertenecientes a unos ciertos espacios vectoriales de partida, siendo lineal en todos sus argumentos, [20], 8 9 ~ = < F : V1K1 £ V2K2 £ ¢ ¢ ¢ ¢ ¢ £ VMKM ¡! K ~ ; ~a1 2 V1K1 ; ~a2 2 V2K2 ; :::::; ~aM 2 VMKM ; z 2 K: : ; z = F [~a1 ; ~a2 ; :::::; ~aM ] (3.8) ² Ejemplos. La de…nición de un producto escalar válido sobre un espacio vectorial (Ap. A.4), constituye un ejemplo típico de forma bilineal. Así mismo, la métrica (Ap. A.4.3) inducida por el producto escalar será también un ejemplo de forma bilineal. Nótese también cómo la norma inducida por un producto escalar válido se puede ver como una forma cuadrática dado que k~ak = h~a; ~ai1=2 : 3.2.3

Operadores.

De…niremos un operador como una regla o aplicación mediante la cual, a los elementos de un determinado espacio vectorial de partida VK1 les asignamos otros elementos de un cierto espacio vectorial de llegada WK2 (Ap. B.2), 8 9 < F : VK1 ¡! WK2 = ; ~a 2 VK1 ; ~b 2 WK2 : (3.9) : ; ~b = F [~a]

En la Fig. 3.2(c) se muestra el esquema grá…co de un operador relacionando dos espacios vectoriales arbitrarios. 1 Nótese que si los espacios vectoriales son los mismos, el cuerpo de escalares asociado a cada espacio será también el mismo.

c Emilio Gago-Ribas, 2002 °

61

² Algunos conceptos importantes. 1. Dominio del operador: Subconjunto de elementos de VK1 sobre los que actúa F; Fig. 3.2(c). Lo denotaremos por Dom fFg ; de forma que (3.10)

Dom fFg µ VK1 :

2. Rango del operador: La transformación de todos los elementos del dominio de VK1 a través del operador F dará lugar a un conjunto de elementos en WK2 que denominaremos imagen o rango del operador, Fig. 3.2(c), y que denotaremos por Ran fFg; así, (3.11)

Ran fFg µ WK2 :

3. Operadores inyectivos: En general, un operador cualquiera podrá relacionar un elemento del Dom fFg con uno o más elementos del Ran fFg ; los operadores del tipo uno-a-uno se denominarán operadores inyectivos y serán fundamentales en diferentes aplicaciones, en particular, en caso de tener que obtener el operador inverso de uno dado. 4. Operadores suprayectivos: Cuando el operador relaciona todo el espacio de partida con todo el espacio de llegada, se dice que es un operador suprayectivo, esto es, Dom fFg = VK1 y Ran fFg = WK2 ;

(3.12)

5. Operadores biyectivos: Si el operador es inyectivo y suprayectivo, diremos que es un operador biyectivo. En este sentido, dado un operador F; la existencia de F¡1 queda asegurada si F es biyectivo. 6. Caso habitual: Un caso muy habitual en la práctica es aquel en que los espacios de partida y de llegada del operador son los mismos, y además coinciden con el dominio y el rango del operador, respectivamente. Este será un caso muy habitual cuando los espacios vectoriales bajo consideración sean espacios de funciones, VK1 = Dom fFg ; WK2 = Ran fFg ; y VK1 = WK2 = VK :

(3.13)

² Subespacios importantes. De…nido un cierto operador sobre un espacio vectorial, será muy importante tener presentes los siguientes subespacios: 1. Núcleo del operador: Es el subespacio de VK1 que se transforma en el elemento nulo (elemento neutro respecto a la ley interna del espacio vectorial, ~0) de WK2 ; lo denotaremos por KerfFg; n o KerfFg = ~a 2 VK1 = F [~a] = ~0 2 WK2 : (3.14) 2. Vectores propios: El conjunto de vectores propios (o autovectores) de un operador, Aut fFg ; es el subespacio de vectores que se transforman en ellos mismos multiplicados por un cierto valor escalar ¸; AutfFg = f~a 2 VK = F [~a] = ¸~a 2 VK y ¸ 2 Kg :

(3.15)

Nótese en primer lugar que la de…nición del subespacio de vectores propios requiere de operadores donde los espacios de salida y de llegada sean los mismos, esto es, 8 9 < F : VK ¡! VK = ; ~a; ¸~a 2 VK ; y ¸ 2 K: (3.16) : F [~a] = ¸~a ;

Al conjunto de valores f¸g para los que existe solución a F [~a] = ¸~a serán los valores propios (o autovalores) del espacio VK asociados al operador F: Nótese también que resolver un problema de autovalores no es más que encontrar el subespacio de vectores propios y los valores propios asociados para un cierto operador.

62

c Emilio Gago-Ribas, 2002 °

3. Bases: Aunque el concepto de una base está asociado intrínsecamente a la estructura de espacio vectorial de…nida sobre un conjunto de elementos, también resulta de gran importancia a la hora de analizar su relación con un cierto operador F; dado que éste adquiere representaciones diferentes sependiendo de cuál sea la base del espacio elegida. Veremos cómo, cuando los espacios vectoriales son espacios formados por señales, la elección de una determinada base del espacio no sólo dependerá del propio espacio de señales, sino también del tipo de operadores que vayan a operar sobre dicho espacio. ² Operadores lineales. En el caso en que el operador en (3.9) satisfaga las propiedades habituales de linealidad (Ap. B), estaremos hablando de operadores lineales, esto es, F : VK1 ¡! WK2 es lineal sii F(®~a + ¯~b) = ®F(~a) + ¯F(~b); (~a; ~b) 2 VK1 ;

³ ´ F(~a); F(~b) 2 WK2 ; (®; ¯) 2 K1 :

(3.17)

² Espacios de operadores. Hablaremos de espacios de operadores como aquellos conjuntos de operadores reunidos en función de alguna característica común que los describa. Denotaremos por EVK a un cierto conjunto de operadores aplicados sobre un cierto espacio vectorial VK : Las propiedades más importante a considerar para generar espacios de operadores serán: 1. La linealidad descrita en (3.17), dando lugar al espacio de operadores lineales L(V K ).

2. La invarianza, dando lugar a los espacios de operadores lineales e invariantes, LI(V K ):

3. La invertibilidad. Las condiciones de invertibilidad de un operador dependerán también de la dimensión de los espacios vectoriales sobre los que actúen los operadores, Ap. B.2.4. ² Ejemplos. En nuestro caso, los espacios vectoriales a considerar serán conjuntos de funciones complejas o reales de variable real o entera como los descritos en el Cap. 2, esto es, P (X0 ); S(¡1; 1); D(N0 ) y D(¡1; 1) o sucesivas modi…caciones de estos espacios. En estos casos hablaremos de operadores aplicados sobre espacios de funciones. Ejemplos de operadores particulares serán los analizados en la Secc. 3.3, así como otros operadores analizados a lo largo del presente texto.

Figura 3.2. Esquema de diferentes tipos de transformaciones: (a) funcional operan~ (b) forma bilineal do entre un espacio vectorial VK y un cuerpo de escalares K; operando sobre dos elementos de un mismo espacio vectorial VK y un cuerpo de ~ y (c) operador como transformación entre dos espacios vectoriales. En escalares K; este caso, DomfFg ½ VK1 y RanfFg ½ WK2 :

c Emilio Gago-Ribas, 2002 °

63

3.3

Aplicaciones sobre los espacios de señales. El resumen algebraico descrito en la Secc. 3.2 nos permitirá ahora particularizar la clasi…cación allí descrita cuando los espacios sobre los que se opera son espacios vectoriales de señales FK como los descritos en el Cap. 2. Partiendo del concepto de función expuesto en la Secc. 2.2, deberemos tener siempre en mente las siguientes equivalencias: K ´ C (R) FK FK ´ P (X0 ) FK ´ S(¡1; 1) FK ´ D(N0 ) FK ´ D(¡1; 1)

3.3.1

¿ x x

~ ´ C (R) K ~a = a(¿ ) ~a = f0 (x) ~a = f (x)

n n

~a = x0 (n) ~a = x(n)

~b = b(¿ ) ~b = g0 (x) ~b = g(x) ~b = y0 (n) ~b = y(n)

Funcionales.

A partir del resumen presentado en la Secc. 3.2.1, es posible particularizar el concepto de funcional ~ será el de los a cualquiera de los espacios de señales de interés. En general, el cuerpo de escalares K números complejos, el caso particular del cuerpo de los reales, o algún subconjunto de estos últimos. Podremos entonces escribir, 9 8 ~ = < F : FK ¡! K ~ ; a(¿) 2 FK ; z 2 K: (3.18) : z = F [a(¿ )] ;

En la Fig. 3.3(a) se muestra el esquema grá…co de un funcional cuando FK ´ FC ´ S(¡1; 1); en este caso, a(¿) ´ f (x):

² Funcionales lineales. En base a la de…nición dada en (3.3), es posible identi…car si un cierto funcional de…nido sobre un espacio de funciones es lineal o no, F [®a(¿ ) + ¯b(¿ )] = ®F [a(¿ )] + ¯F [b(¿ )]; ~ (®; ¯) 2 K: (a(¿ ); b(¿ )) 2 FK ; (F [a(¿ )] ; F [b(¿ )]) 2 K;

(3.19)

² Algunos ejemplos. (a) Las normas de…nidas en (2.52), (2.55), (2.62) y (2.65) a partir de los correspondientes productos escalares constituyen un caso particular de funcional sobre el cuerpo de los números reales (positivos incluyendo el cero), Fig. 3.4. Nótese que, claramente, dichas normas son funcionales no lineales. (b) El valor medio, la energía y la potencia media de…nidos en la Secc. 2.9 son casos particulares de funcionales sobre el cuerpo de los números complejos en el primer caso, y sobre el cuerpo de los números reales en el resto (positivos incluyendo el cero), Fig. 3.4. FK ! C

a(¿ )

! ha(¿ )i 2 C;

E [¢] : FK ! R

a(¿ )

! E [a(¿ )] 2 R;

h¢i : h¢i :

FK ! R

(3.20)

pa (¿ ) ! hpa (¿ )i 2 R:

(c) Un ejemplo de gran importancia en el caso de variable continua será el de las distribuciones o funciones generalizadas analizadas en el Cap. 7. Tómense aquí como ejemplos particulares algunos de los casos basados en la distribución delta de Dirac, Z ±(x) : f (x) ¡! f(x)±(x) dx = f (0) 2 C; (3.21) x

±(x ¡ x0 ) : f(x) ¡! 64

Z

x

f (x)±(x ¡ x0 ) dx = f(x0 ) 2 C;

(3.22)

c Emilio Gago-Ribas, 2002 °

Fig. 3.4. Nótese como, por simplicidad, al funcional se le denota como si fuera una nueva función, ±(x) en el ejemplo, cuando en realidad deberíamos escribir ± [f (x)] ; esto es, el funcional ± operando sobre una función f (x): El hecho de que el operador que describe este tipo de funcionales suela ser un operador integral viene determinado una vez más por el álgebra asociada al espacio de señales, en este caso la de…nida en la Secc. 2.6.2. Por ejemplo, Z ±(x) = ± [f (x)] ´ (¢)±(x) dx = h(¢); ±(x)i ; (3.23) x

adelantando el hecho de que el objeto ±(x) será siempre un funcional real. Todos estos aspectos deberán quedar más claros en el Cap. 6, donde se introduce el concepto de la distribución delta como señal localizadora impulsiva por excelencia, y en el Cap. 7 donde se generalizará el concepto de distribución y se analizarán otras distribuciones importantes. Los funcionales en (3.21) y (3.22), son, claramente, funcionales lineales. 3.3.2

Formas bilineales y cuadráticas.

A partir del resumen presentado en la Secc. 3.2.2, es posible particularizar el concepto de forma bilineal ~ será el de a cualquiera de los espacios de señales de interés. Como es habitual, el cuerpo de escalares K los números complejos, o el caso particular del cuerpo de los reales. Así, 9 8 ~ = < F : FK1 £ GK2 ¡! K ~ ; a(¿) 2 FK1 ; b(¿ ) 2 GK2 ; z 2 K: (3.24) : z = F [a(¿); b(¿ )] ;

En la Fig. 3.3(b) se muestra el esquema grá…co de una forma bilineal cuando FK1 = GK2 = FK ´ FC ´ S(¡1; 1); en este caso, a(¿) ´ f (x) y b(¿ ) ´ g(x): ² Algunos ejemplos. (a) Los productos escalares de…nidos en (2.51), (2.61), (2.54) y (2.64) serán casos particulares de formas bilineales sobre el cuerpo de los números complejos, Fig. 3.4. (b) Las métricas de…nidas en (2.53), (2.63), (2.56) y (2.66) inducidas por los productos escalares anteriores serán casos particulares de formas bilineales sobre el cuerpo de los números reales (positivos incluyendo el cero), Fig. 3.4. 3.3.3

Operadores.

A partir del resumen presentado en la Secc. 3.2.3, es posible particularizar el concepto de operador a ~ será el de cualquiera de los espacios de señales de interés. Como es habitual, el cuerpo de escalares K los números complejos, o el caso particular del cuerpo de los reales. Escribiremos enconces, 8 9 < F : FK1 ¡! GK1 = ; a(¿ ) 2 FK1 ; b(¿ 0 ) 2 GK2 : (3.25) : b(¿ 0 ) = F [a(¿)] ;

En la Fig. 3.3(c) se muestra el esquema grá…co de un operador cuando FK1 = GK2 = FK ´ FC ´ S(¡1; 1); en este caso, a(¿) ´ f (x) y b(¿ 0 ) ´ g(x): ² Núcleo del operador. El núcleo del operador estará constituído por todas aquellas funciones que se transformen en la función nula, esto es, Ker fFg = fa(¿ ) 2 FK1 = F [a(¿)] = 0g ; 0 2 GK2 :

(3.26)

² Espacio de funciones propias. Los espacios de funciones propias o autofunciones, Aut fFg ; serán en este caso subespacios de los espacios de señales de partida que satisfacen la siguiente propiedad, Aut fFg = fa(¿ ) 2 FK = F [a(¿ )] = ¸a(¿ ) 2 FK ; ¸ 2 Kg :

(3.27)

² Espacios de operadores. Teniendo en cuenta las propiedades más importantes asociadas a los operadores, podremos destacar los siguientes espacios de operadores: c Emilio Gago-Ribas, 2002 °

65

1. La linealidad, dando lugar a los espacios de operadores lineales L(F K ); Secc. 3.4.1.

2. La invarianza, Secc. 3.4.2, dando lugar a los espacios de operadores lineales e invariantes LI(F K ):

3. La invertibilidad. Como ya adelantamos, las condiciones de invertibilidad de un operador dependerán no sólo del tipo de operador analizado sino también de la dimensión de los espacios vectoriales sobre los que actúen los operadores, caso de especial importancia cuando estos sean espacios de señales. En la Secc. 3.4 se analizarán las propiedades de los sistemas, todas ellas provenientes del análisis algebraico de los operadores aplicados sobre espacios de señales como modelos matemáticos para describir transformaciones de señales. ² Algunos ejemplos. 1. El primer ejemplo sencillo que cabe citar será el caso de la potencia instantánea analizado en la Secc. 2.9, donde los espacios de partida y de llegada coinciden; así, una señal a(¿ ) 2 FK se tranformará en otra señal P [a(¿ )] 2 FK a través del operador F ´j ¢ j2 ; Fig. 3.4.

2. Otros ejemplos sencillos de operadores serán algunas de las operaciones básicas entre señales estudiadas en la Secc. 2.11, esto es, los desplazamientos, los abatimientos y los cambios de escala, analizadas como un operador aplicado sobre una cierta función, Secc. 3.6. 3. Ejemplos muy importantes de operadores aplicados a espacios de señales serán las operaciones de convolución y de correlación, tanto para señales de variable continua como de variable discreta, así como sus versiones para los espacios de señales periódicas. En la Secc. 3.7 se analizará la primera de ellas en detalle. 4. También de suma importancia serán los operadores diferenciales y en diferencias, y los operadores integrales y en sumas. Los más importantes se recogen en la Secc. 3.6.

5. Finalmente, cabe citar una clase de operadores de gran importancia en el análisis de señales, y objetivo prioritario de estudio en este libro; estos operadores serán lo que denominaremos transformadas de una señal. En este volumen estudiaremos en detalle el desarrollo en serie de Fourier, Cap. 8, la transformada de Fourier, Cap. 9 y la transformada de Laplace, Cap. 11. Las versiones respectivas de estas transformaciones para señales de variable discreta (los desarrollos en serie y la transformada de Fourier, así como la transformada Z) serán tratados en detalle en el Vol. ST-II. Citémos dos de estas transformaciones a modo de ejemplo2 ;3 , 8 9 DSF : P 2 (X0 ) ¡! D(¡1; 1) > > < = Z ; f0 (x) 2 P 2 (X0 ) y a(m) 2 D(¡1; 1): 2¼ 1 > f0 (x)e¡m X0 x dx > : DSF [f0 (x)] = a(m) = ; X0 hX0 i (3.28) 8 > > <

TF : D2 (¡1; 1) ¡! P (2¼)

> > : TF [x(n)] = X(-) =

1 X

n=¡1

9 > > =

x(n)e¡j-n > > ;

; x(n) 2 D2 (¡1; 1) y X(-) 2 P (2¼): (3.29)

Nótese cómo en estas transformaciones, los espacios de partida y de llegada no tienen porqué ser los mismos. Así por ejemplo, la Transformada de Fourier citada en el segundo caso opera entre un espacio de señales de variable discreta aperiódicas y un espacio de señales periódicas de variable continua de período 2¼: Como veremos al analizar cada una de ellas, los espacios de aplicación tampoco tendrán porqué ser los espacios de partida que hemos considerado hasta el momento. En el segundo ejemplo, el espacio de partida será el espacio D2 (¡1; 1); esto es, el subespacio de D(¡1; 1) de secuencias cuadrado sumables. El análisis general de este tipo de operadores en forma de transformadas de un cierto espacio se abordará de forma independiente en el Cap. 4. 2 El espacio P 2 (X ) será el espacio de señales complejas de variable real, continua y discontinuas (vistas como distribu0 ciones) que son cuadrado integrables sobre cualquier intervalo de longitud el período. 3 El espacio P (2¼) no es más que un caso particular del espacio P (X ) cuando X = 2¼: 0 0

66

c Emilio Gago-Ribas, 2002 °

Figura 3.3. Esquema de diferentes tipos de transformaciones aplicadas sobre espacios de señales: (a) funcional operando entre el espacio vectorial S(¡1; 1) y un ~ (b) forma bilineal operando sobre dos elementos del espacio cuerpo de escalares K; ~ y (c) operador como transformación vectorial S(¡1; 1) y un cuerpo de escalares K; del espacio vectorial S(¡1; 1) sobre él mismo.

Figura 3.4. Representación esquemática de algunos funcionales (distribución delta, valor medio, norma y energía), formas bilineales (distancia y producto escalar), y operadores (potencia instantánea, j ¢ j2 ) actuando sobre un espacio de señales complejas R FK : Denotamos por FK al subespacio de señales reales.

c Emilio Gago-Ribas, 2002 °

67

3.4

Propiedades de los sistemas. Analizaremos a continuación las siguientes propiedades asociadas a un sistema como el de…nido en la Fig. 3.1, aplicables tanto para sistemas operando sobre señales de variable continua como discreta: 1. Linealidad. 2. Invarianza. 3. Memoria. 4. Invertibilidad. 5. Causalidad. 6. Estabilidad.

3.4.1

Linealidad.

Un sistema descrito por un cierto operador será lineal cuando una combinación lineal de señales a la entrada produce una combinación lineal de señales a la salida con los mismos coe…cientes, es decir, 9 F : a1 (¿ ) ¡! b1 (¿ ) = F [a1 (¿ )] = =) F : a2 (¿ ) ¡! b2 (¿ ) = F [a2 (¿ )] ; (3.30) F : ®a1 (¿) + ¯a2 (¿ ) ¡! ®b1 (¿ ) + ¯b2 (¿ ) = ®F [a1 (¿ )] + ¯F [a2 (¿ )] :

En esta de…nición estamos asumiendo que hemos de…nido a su vez la suma y el producto por un escalar de funciones, lo cuál en nuestro caso se ha realizado ya convenientemente en el Cap. 2. Desde este punto de vista, un sistema lineal se dice que es aditivo y homogéneo. La expresión anterior se podría generalizar a una combinación lineal de N elementos de la siguiente forma, F:

N X

m=1

®m am (¿ ) ¡!

N X

(3.31)

®m F[am (¿ )]:

m=1

En relación con esta última interpretación es importante hacer notar el hecho de que pueden existir sistemas particulares que sean lineales ante la suma de un número N …nito de señales de entrada, pero que no lo sean si el número de señales de entrada es in…nito. Si el sistema es lineal en este último caso, se dice que es un sistema liso. A lo largo del presente texto, asumiremos que un sistema lineal es liso, de forma que se satisfará siempre la siguiente condición, F:

1 X

m=¡1

®m a(¿; m) ¡!

1 X

(3.32)

®m F[a(¿ ; m)]:

m=¡1

Esta propiedad será extremadamente importante cuando consideremos desarrollos de la señal de entrada en la forma descrita en (2.40), por ejemplo. En este caso, estaremos suponiendo siempre que el sistema es lineal para la combinación de in…nitas señales que representen a la señal de entrada, F : a(¿ ) =

1 X

m=¡1

®m e(¿ ; m) ¡! b(¿ ) =

1 X

®m F [e(¿ ; m)] :

(3.33)

m=¡1

De forma paralela, mantendremos en mente que si el sistema es lineal para una combinación lineal de in…nitos elementos, también lo es para la versión continua de dicha combinación de elementos, por ejemplo, cuando las señales de entrada venga desarrolladas en la forma descrita por (2.42), Z Z F : a(¿ ) = ®(»)e(¿; ») d» ¡! b(¿ ) = ®(»)F [e(¿ ; »)] d»: (3.34) »

68

»

c Emilio Gago-Ribas, 2002 °

3.4.2

Invarianza.

Diremos que un sistema es invariante cuando un desplazamiento sobre la variable independiente de la señal de entrada produce el mismo desplazamiento sobre la señal a la salida. Matemáticamente, (3.35)

a(¿ ) ¡! b(¿) = F[a(¿)] =) a(¿ ¡ ¿ 0 ) ¡! b(¿ ¡ ¿ 0 ): ² Otra de…nición matemática.

(3.36)

8 ¿ 0 : f[8¿ : a2 (¿ ) = a1 (¿ ¡ ¿ 0 )] =) [8¿ : b2 (¿) = b1 (¿ ¡ ¿ 0 )]g : ² Comentarios importantes para sistemas de variable continua.

(a) Dominio temporal (x ´ t): en este caso diremos que un adelanto/retraso en la señal de entrada produce el mismo adelanto/retraso en la señal de salida. En la Fig. 3.5 se muestra un ejemplo de invarianza en el dominio temporal. Re{g(t)}

Re{f (t)}

3 2 1 0 -1 -2 -3 -2

0

2

Im{f (t)}

3 2 1 0 -1 -2 -3 -2

0

Re{f (t - t0)}

3 2 1 0 -1 -2 -3 -2

0

Im{f (t - t0)}

3 2 1 0 -1 -2 -3 -2

0

2

2

2

t

t

t

t

4

6

8

3 2 1 0 -1 -2 -3 -2

8

3 2 1 0 -1 -2 -3 -2

8

3 2 1 0 -1 -2 -3 -2

8

3 2 1 0 -1 -2 -3 -2

0

2

t

4

6

8

0

2

t

4

6

8

0

2

t

4

6

8

0

2

t

4

6

8

Im{g(t)}

4

4

4

6

6

6

F

Re{g(t - t0)}

Im{g(t - t0)}

Figura 3.5. Ejemplo de transformación de una señal de entrada f (t) en una señal g(t) mediante un sistema invariante modelado por el operador F:

(b) Dominio espacial (x ´ z): el concepto de invarianza es particularmente importante en el caso de aquellos sistemas que representan problemas físicos con variación en una cierta coordenada espacial, por ejemplo z en el caso unidimensional. Consideremos para ello el problema mostrado en la Fig. 3.6. Imaginemos un caso ideal que claramente permite simpli…car el análisis de esta propiedad; este es el caso de considerar que la función f(z) de entrada al sistema fuese una señal localizadora4 en el espacio situada en el origen, es decir, una función que es nula fuera de un entorno ¢z ! 0 alrededor del origen; imaginemos también que la respuesta a dicha señal en un punto z viene representada por la función g(z): Diremos que el sistema es invariante si 4 Este es el primer ejemplo en el que introduciremos el concepto de una señal de carácter localizador. A través de ejemplos como éste iremos introduciendo la necesidad de generar funciones localizadoras dentro de los espacios de funciones de…nidos inicialmente. Dichas funciones localizadoras darán lugar posteriormente a su formalización en términos de funciones generalizadas o distribuciones. Para introducir su conveniencia desde un punto de vista intuitivo imaginemos que somos capaces de generar una función que va a representar una fuente de una cierta magnitud descrita en este caso por g(z); y muy localizada en el espacio, por ejemplo, de valor no nulo en un cierto ¢z alrededor del origen. Con una función f (z) de este tipo podríamos pensar que la fuente está situada en dicho punto cuando ¢z ! 0; de forma que fuera de dicho punto es nula. La primera razón para pensar en términos de funciones como ésta viene propiciada por el hecho de que, a través de ellas, podríamos identi…car de una forma clara la propia fuente, f (z) = 0 fuera del origen, de su respuesta g(z) con una supuesta variación arbitraria. La generalización matemática de dicha función dará lugar posteriormente al concepto de la distribución delta de Dirac, señal de carácter localizador por excelencia.

c Emilio Gago-Ribas, 2002 °

69

Figura 3.6. Ejemplo de un sistema que describe un problema espacial unidimensional utilizando una señal de entrada f (z) de tipo localizador, así como la respuesta del sistema g(z) a dicha señal. Se representa el concepto de invarianza espacial para este caso. 1,0

Re{f (t)}

2

Re{g(t)}

1 0,5

0 -1

0,0 -2 1

-1

0

1

Im{f (t)}

t

2

3

4

5

-2 -2

6

2

-1

0

1

t

2

3

4

5

6

-1

0

1

t

2

3

4

5

6

-1

0

1

t

2

3

4

5

6

-1

0

1

t

2

3

4

5

6

Im{g(t)}

1 0

0

-1 -1 -2 1,0

-1

0

Re{f (t - t0)}

1

t

2

3

4

5

6

F

-2 -2 2

Re{g(t - t0)}

1 0

0,5

-1 0,0 -2 1

-1

0

Im{f (t - t0)}

1

t

2

3

4

5

6

-2 -2 2

Im{g(t - t0)}

1 0

0

-1 -1 -2

-1

0

1

t

2

3

4

5

6

-2 -2

Figura 3.7. Ejemplo de la transformación de una señal de entrada f (t) de tipo localizador real en una señal g(t) mediante un sistema invariante modelado por un operador F.

un desplazamiento en la posición de la señal localizadora (por ejemplo, del origen a un cierto z 0 ) hace que la respuesta g(z; z 0 ) no dependa del punto de observación, z; ni del punto donde se localiza la señal, z 0 ; por separado sino de su diferencia, g(z ¡ z 0 ):

(c) Generalización práctica: la propiedad de invarianza aplicada a sistemas que describen problemas físicos tanto en el espacio como en el tiempo se podría entonces leer como que las señales descriptivas de las magnitudes involucradas en el problema, no dependen del origen de coordenadas elegido para su representación.

(d) Así mismo, el concepto de señal impulsiva introducido previamente a través de un ejemplo en el dominio espacial, parece también muy útil en el dominio temporal. Así, el concepto de localización temporal permitiría pensar en términos de excitar sistemas con señales de entrada de muy corta duración, de forma que la respuesta a esa excitación pudiera compararse muy bien con el instante de tiempo en que se generó la excitación impulsiva, permitiéndo más fácilmente determinar si el sistema es o no invariante, o cualquier otra propiedad de las que analizaremos posteriormente. En la Fig. 3.7 se muestra un ejemplo de esta idea en el dominio temporal. Estos conceptos intuitivos quedarán corroborados con los análisis realizados en el Cap. 7.

70

c Emilio Gago-Ribas, 2002 °

² Algunos ejemplos. (a) El sistema de variable continua identi…cado por la ecuación g(x) = f (x) ¡ f(x ¡ x0 ) es, claramente, un sistema invariante. Así, si la entrada f (x) se desplaza a x1; la salida vendrá dada por g1 (x) = f(x ¡ x1 ) ¡ f(x ¡ x1 ¡ x0 ) = g(x ¡ x1 ):

(b) El potencial Á(~r; ~r1 ) en un punto de observación ~r generado en el vacío por una carga puntual de valor Q localizada en un punto identi…cado por el vector de posición ~r1 es un sistema invariante respecto a la variable espacial, Á(~r; ~r1 ) =

1 Q : 4¼²0 j~r ¡ ~r1 j

(3.37)

En este caso, las funciones involucradas son funciones escalares, Q y Á; dependientes de tres variables espaciales descritas por el vector de posición ~r = (x; y; z); en lugar de unidimensionales; en cualquier caso, el concepto de invarianza será el mismo, independientemente de la naturaleza de dichas magnitudes. Nótese que el concepto matemático de carga puntual de valor Q está directamente relacionado con el concepto de señal localizadora, esto es, una excitación de valor Q que está idealmente concentrada en un punto del espacio. (c) El concepto de invarianza en un sistema de variable discreta es el mismo; por ejemplo, dado un sistema identi…cado por la ecuación y(n) = x(n ¡ 3); que identi…caría un desplazamiento de tres unidades de la sucesión x(n) de entrada, es claramente un sistema invariante puesto que cualquier desplazamiento de la secuencia de entrada x(n ¡ n0 ) daría lugar a una salida con el mismo desplazamiento, esto es, x(n ¡ n0 ¡ 3) = y(n ¡ n0 ): 3.4.3

Memoria.

Diremos que un sistema es sin memoria cuando la salida en cada valor de la variable independiente sólo dependa de la entrada en dicho valor: En otro caso, diremos que el sistema es con memoria. Matemáticamente, dado un valor ¿ 0 ; b(¿ 0 ) = F[a(¿ 0 )]; 8¿ 0 :

(3.38)

² Otra de…nición matemática. 8¿ 0 : [a1 (¿ 0 ) = a2 (¿ 0 ) =) b1 (¿ 0 ) = b2 (¿ 0 )] :

(3.39)

² Algunos ejemplos. (a) El problema de una resistencia R en cuyos extremos hay una diferencia de potencial v(t) y que es recorrida por una corriente i(t) es un ejemplo sencillo de sistema caracterizado por5 F ´ IR sin memoria, Fig. 3.8.

Figura 3.8. El problema eléctrico de una resistencia con una tensión en sus bornas v(t) y recorrida por una corriente i(t) es un ejemplo típico de un sistema sin memoria. 5 Denotaremos por I al operador identidad. En el ejemplo citado en el texto, el operador I se sobreentiende aplicado a una función de variable continua.

c Emilio Gago-Ribas, 2002 °

71

8

Re{f(x)}

8

4

4

0

0

-4

-4

-8 -2 8

-1

0

1

Im{f(x)}

x

2

3

4

5

-8 -2

6

-1

0

1

x

2

3

4

5

6

0

1

x

2

3

4

5

6

0

1

x

2

3

4

5

6

0

1

x

2

3

4

5

6

SIN MEMORIA Im{g(x)} 8

4

4

0

0

-4

-4

-8 -2 3,0

Re{g(x)}

(a) -1

0

1

Re{f(x)}

x

2

3

4

5

6

-8 -2 18

1,5

-1

Re{g(x)}

12

0,0 6

-1,5 -3,0 -2 3,0

-1

0

1

Im{f(x)}

x

2

3

4

5

0 -2

6

-1

CON MEMORIA Im{g(x)} 18

1,5

12

0,0 6

-1,5 -3,0 -2

(b) -1

0

1

x

2

3

4

5

6

0 -2

-1

Figura 3.9. Transformación de una señal f (x) mediante: (a) un sistema sin memoria caracterizado por g(x) = 3f (x); y (b) un sistema con memoria. En este último caso se muestra un ejemplo del valor de la señal de salida en x = 3; g(3); que depende de todos los valores de la señal de entrada en el intervalor [¡2; 3]:

(b) En cambio, un sistema de variable continua tan sencillo como el caracterizado por g(x) = f(x) + f (x ¡ xa ) constituye un ejemplo de sistema con memoria, dado que en un cierto x0 ; la señal de salida g(x0 ) no sólo depende de la señal de entrada en x = x0 ; sino también de la señal de entrada en x = x0 ¡ xa : (c) Otro sistema de variable continua claramente con memoria sería aquel caracterizado por, s¯Z s¯Z ¯ ¯ ¯ x ¯ ¯ x ¯ Re ff(x0 )g dx0 ¯¯ + j ¯¯ Im ff(x0 )g dx0 ¯¯: (3.40) g(x) = ¯¯ ¡2

¡2

En la Fig. 3.9 se muestra el análisis grá…co de este ejemplo para una señal de entrada arbitraria.

3.4.4

Invertibilidad.

Diremos que un sistema es invertible si existe otro sistema tal que, aplicado a la señal de salida del primero, nos devuelve la señal original de entrada a dicho sistema inicial. Matemáticamente, F es invertible si 9 F¡1 tal que F¡1 [F [a(¿ )]] = a(¿ ); 8a(¿) 2 Dom fFg :

(3.41)

En la Fig. 3.10 se muestra una descripción grá…ca de este concepto para ambos casos. ² Otras de…niciones matemáticas.

72

[9¿ 0 : a1 (¿ 0 ) 6= a2 (¿ 0 )] =) [9 ¿ 00 : b1 (¿ 00 ) = b2 (¿ 00 )] ;

(3.42)

[8¿ : b1 (¿ ) = b2 (¿)] =) [8¿ : a1 (¿ ) = a2 (¿ )] :

(3.43)

c Emilio Gago-Ribas, 2002 °

Figura 3.10. Representación esquemática de la propiedad de invertibilidad desde el punto de vista de los sistemas.

Figura 3.11. Ejemplo de un operador continuo en relación varios a uno. En este caso, no existirá operador inverso, dado que un mismo elemento g(x) podría tranformarse en tres elementos diferentes del espacio de partida.

² Algunos ejemplos.

p p (a) Sea un sistema de variable continua caracterizado por F ´ (¢); es decir g(x) = f (x); de…nida sólamente para f (x) ¸ 0 en el rango de x: En este caso, es fácil ver que g2 (x) = hp i2 f (x) = f (x); de forma que el operador F será invertible, siendo F¡1 ´ [(¢)]2 :

(b) En el caso en que F ´ [(¢)]2 ; es decir, g(x) = [f (x)]2 ; no existe operador inverso, dado que el operador raiz cuadrada nos devolvería dos soluciones, +f (x) y ¡f(x); diferentes. En este caso, diremos que el operador F no es invertible. ² Algunos comentarios importantes. (a) Para un sistema arbitrario cualquiera, no tiene en general porqué existir un sistema inverso. (b) En caso de que el sistema esté descrito por un operador analítico, la condición de invertibilidad o no de dicho operador estará directamente relacionada con las condiciones de existencia del operador inverso: Este último concepto estará intimamente ligado con el hecho de que el operador sea una aplicación del tipo ”uno a uno” o ”varios a uno”, en cuyo caso no existiría el operador inverso, Fig. 3.11. El operador deberá ser …nalmente biyectivo para que tenga operador inverso. En el Ap. B se pueden encontrar algunas consideraciones algebraicas importantes acerca de la invertibilidad de los operadores lineales. (c) En operadores ligados a la descripción de problemas físicos, por ejemplo, los operadores diferenciales, la existencia del operador inverso está íntimamente relacionada con la teoría de funciones de Green y la resolución de problemas inversos descritos en la Introducción del presente texto. La descripción de esta teoría queda pendiente para futuros textos. 3.4.5

Causalidad.

La propiedad de causalidad, aunque de…nida de forma general para una variable arbitraria continua o discreta, está directamente relacionada desde un punto de vista práctico con la variable temporal, t y es en este dominio donde toma su principal signi…cado. Diremos que un sistema es causal cuando el valor de la salida en un cierto valor de la variable independiente depende del valor de la entrada en valores anteriores o iguales a dicho valor. Matemáticamente, Dado un valor ¿ 0 ; b(¿ 0 ) = F[a(¿ c Emilio Gago-Ribas, 2002 °

¿ 0 )]; 8¿ 0 =) Causal.

(3.44) 73

3,0

Re{f(x)}

1,5

15

0,0

0

-1,5

-15

-3,0 -3 3,0

-2

-1

0

1

Im{f(x)}

x

2

3

4

5

6

7

CAUSAL

-30 -2

0

1

x

2

3

4

5

6

0

1

x

2

3

4

5

6

0

1

x

2

3

4

5

6

0

1

x

2

3

4

5

6

15

(a)

0,0 -1,5

0 -15

-3,0 -3

-2

-1

0

1

Re{f(x)}

x

2

3

4

5

6

-30 -2

7

15

0,0

0

-1,5

-15

-3,0 -3

-2

-1

0

1

Im{f(x)}

x

2

3

4

5

6

7

-30 -2

ANTICAUSAL

-1

Im{g(x)}

30

1,5

15

(b)

0,0 -1,5 -3,0 -3

-1

Re{g(x)}

30

1,5

3,0

-1

Im{g(x)}

30

1,5

3,0

Re{g(x)}

30

0 -15

-2

-1

0

1

x

2

3

4

5

6

7

-30 -2

-1

Rx Figura 3.12. Dos ejemplos de sistemas: (a) causal caracterizado por F ´ ¡1 (¢) R x+1 dx0 ; y (b) anticausal caracterizado por F ´ x¡1 (¢) dx0 : En ambos casos se muestra un ejemplo del valor de la señal de salida en x = 2:

En otro caso, diremos que el sistema es no causal o anticausal. ² Otra de…nición matemática. 8¿ 0 : f[8¿

¿ 0 : a1 (¿ ) = a2 (¿ )] =) [8¿

¿ 0 : b1 (¿ ) = b2 (¿ )]g :

² Algunos ejemplos. (a) Un sistema continuo caracterizado por el operador F ´ F : f(x) ! g(x) =

Z

x

Rx

¡1

(3.45)

(¢) dx0 ; esto es

f(x0 ) dx0 ;

(3.46)

¡1

será un sistema causal dado que la señal de salida en cualquier x depende de la señal de entrada en valores anteriores o iguales a dicho x: Su interpretación grá…ca se muestra en la Fig. 3.12(a). R x+a (b) Un sistema continuo caracterizado por el operador F ´ x¡a (¢) dx0 ; esto es F : f(x) ! g(x) =

Z

x+a

f (x0 ) dx0 ;

(3.47)

x¡a

será un sistema anticausal, dado que la señal de salida en cualquier valor de x dependerá de la señal de entrada en valores anteriores y posteriores a dicho x: Su interpretación grá…ca se muestra en la Fig. 3.12(b). (c) Los sistemas discretos equivalentes a los anteriores vendrían descritos por los siguientes operadores, F´

74

n X

m=¡1

(¢) : x(n) ! y(n) =

n X

x(m);

(3.48)

m=¡1

c Emilio Gago-Ribas, 2002 °

2

Re{f (t)}

2

1

Re{g(t)}

2

1

1

0

0

-1

-1

Im{g(t)}

F causal 0

t0>0 -1

-2 -2

2,0

0

t

2

4

-2 -2

6

Re{f (z)}

2,0

1,5

0

t

2

4

6

Re{g(z)}

-2 -2

2,0

1,5

1,5

1,0

1,0

0

t

2

4

0

2

6

Im{g(z)}

F 1,0

no causal 0,5

0,0 -4

0,5

-2

0

z

2

0,0 -4

4

0,5

-2

z0

0,0 -4

-2

z0

Figura 3.13. Ejemplos de la propiedad de causalidad en el tiempo y en el espacio representada en términos de excitaciones localizadoras de tipo impulsivo.



n+N X

m=n¡N

(¢) : x(n) ! y(n) =

n+N X

x(m):

(3.49)

m=n¡N

² Algunos comentarios importantes para sistemas de variable continua. (a) Dominio temporal (x ´ t): desde el punto de vista de la variable temporal, la propiedad de causalidad es muy importante y es una de las condiciones habituales que deben imponerse en cualquier problema físico, dado que su signi…cado se puede interpretar fácilmente en términos de que no es posible que exista respuesta de un sistema g(t0 ) antes que excitación f (t > t0 ): Una vez más, este es un ejemplo intuitivo claro de cómo, para analizar la propiedad de causalidad de un sistema, las funciones localizadoras introducidas previamente podrían ser de gran valor, dado que su carácter de localización de excitaciones en intervalos de tiempo muy pequeños alrededor de un instante dado, podría facilitar el análisis de la respuesta a ese tipo de excitaciones, Fig. 3.13. (b) Dominio espacial (x ´ z): en problemas de…nidos en el espacio, esta propiedad es mucho menos importante dado que el hecho de existir respuesta ”antes” o ”después” de un determinado valor de la variable independiente donde existe una cierta excitación, no representa más que la existencia de respuesta a la derecha o a la izquierda de la localización de la fuente, lo cuál, lógicamente, sucederá de forma habitual. A pesar de ello, sigue resultando intuitivo entender esta propiedad en términos de funciones localizadoras y, una vez más, anticipar la posible importancia de este tipo de señales, tal y como se muestra en la Fig. 3.13. 3.4.6

Estabilidad.

La condición de estabilidad de un sistema reviste gran importancia desde el punto de vista práctico de su diseño y del análisis de su comportamiento. Su descripción inicial podría leerse en la siguiente forma: Un sistema es estable cuando pequeñas variaciones sobre la señal de entrada producen pequeñas variaciones sobre la señal de salida. Desde un punto de vista matemático, diremos que un sistema (continuo o discreto) es estable si para toda señal de entrada acotada la señal de salida también está acotada, ja(¿ )j c Emilio Gago-Ribas, 2002 °

A ¡! jb(¿ )j

B; con A; B 2 R:

(3.50) 75

1,5

f (x)

800

F

1,0

g(x)

600

no estable 0,5

400

0,0

200

-0,5 -2

-1

0

1

2

x

3

4

5

6

0 -2

-1

0

1

2

x

3

4

5

6

Figura R x 3.14. Ejemplo de un sistema inestable caracterizado por el operador integral F ´ ¡1 (¢) dx0 : En este ejemplo la señal f (x) de entrada es real y nula para x 0: 3,0

Re{f(x)}

F

1,5 0,0 10

-1,5 -3,0 -2 3,0

-1

0

1

Im{f(x)}

x

2

3

4

5

|f(x)|

6 5

1,5 0 -2

0,0

-1

0

1

x

2

3

4

5

6

4

5

6

-1,5 -3,0 -2 8

-1

0

1

Re{g(x)}

x

2

3

4

5

6

G

4 0 10

-4 -8 -2 8

-1

0

1

Im{g(x)}

x

2

3

4

5

6

|g(x)|

5

4

0 -2

0

-1

0

1

x

2

3

-4 -8 -2

-1

0

1

x

2

3

4

5

6

Figura 3.15. Ejemplo del comportamiento de un sistema estable caracterizado por g(x) = [f (x)]2 frente a una señal acotada.

² Algunos ejemplos. (a) Sea un sistema tal que F ´

Rx

¡1

(¢) dx0 ; es decir,

F : f (x) ! g(x) =

Z

x

f(x0 ) dx0 :

(3.51)

¡1

Resulta fácil comprobar que este sistema no es estable, dado que existen gran cantidad de señales de entrada acotadas que dan lugar a señales de salida no acotadas. En la Fig. 3.14 se muestra un ejemplo de este caso, junto con la interpretación grá…ca del operador. (b) Sea un sistema continuo caracterizado por el operador F ´ [(¢)]2 ; es decir, F : f (x) ! g(x) = [f (x)]2 :

(3.52)

Resulta trivial comprobar que, para cualquier señal de entrada acotada por un cierto valor F; su cuadrado también será una señal acotada tal que G = F 2 : En este caso el sistema será, por lo tanto, estable. En la Fig. 3.15 se muestra un ejemplo de este caso. 76

c Emilio Gago-Ribas, 2002 °

3.5

Interconexiones básicas entre sistemas. Desde un punto de vista algebraico, la interconexión de sistemas está directamente relacionada con la composición de operadores. Matemáticamente, estas interconexiones adoptan las siguientes expresiones: ² Serie. c(¿) = F2 [b(¿)] = F2 [F1 [a(¿ )]] :

(3.53)

c(¿ ) = F1 [a(¿ )] + F2 [a(¿ )] :

(3.54)

b(¿ ) = F1 [a(¿ ) + F2 [b(¿)]] :

(3.55)

² Paralelo.

² Realimentados.

En la Fig. 3.16 se muestran los esquemas correspondientes a los tres tipos de interconexión descritos.

Figura 3.16. Esquema de las tres con…guraciones básicas de interconexión de sistemas: (a) en serie; (b) en paralelo, y (c) realimentados. En todos los casos se ha utilizado la notación general, identi…cando por a(¿ ) ´ f (x) ó x(n); b(¿ ) ´ g(x) ó y(n) y c(¿ ) ´ h(x) ó h(n); para los casos de variable continua y discreta, respectivamente. En cada caso, los operadores F1 y F2 identi…carán sistemas continuos o discretos.

c Emilio Gago-Ribas, 2002 °

77

3.6

Operadores y familias de operadores básicos. Presentaremos a continuación algunos de los operadores más importantes que aparecerán en los problemas físico-matemáticos y que es conveniente tener siempre presentes, no sólo por su uso habitual, sino porque pueden modi…car de alguna forma los espacios de señales de partida que hemos de…nido en el Cap. 2. Su clasi…cación se detalla a continuación, realizándose posteriormente su descripción general. ² Operaciones básicas entre señales: descritas en la Secc. 2.11: destacaremos entre ellas las familias de operadores de desplazamiento y escalado. El operador identidad será un caso particular de esta última familia, de especial relevancia como elemento neutro de los espacios de operadores, así como por su relación con la distribución delta de Dirac en el caso de variable continua. ² Operadores en variable continua. 1. Operadores diferenciales: de especial importancia dado su amplio uso en el modelado analítico de problemas físicos, así como por las propiedades adicionales que generan sobre los espacios de señales (señales derivables en todos los puntos, señales no derivables en puntos aislados, etc.). En este caso hablaremos siempre de operadores en derivadas sobre una variable, dn =dxn , manteniendo en mente las posibles versiones de los operadores diferenciales que aparecen en problemas multidimensionales. 2. Operadores integrales: (a) Integrales inde…nidas (b) Integrales de…nidas. ² Operadores en variable discreta. 1. Operadores en diferencias: de especial importancia dada su relación con los operadores diferenciales en variable continua; en particular, cuando se trata de modelar problemas de…nidos originalmente en variable continua mediantes señales y sistemas discretos. 2. Operadores en sumas: (a) Series …nitas. (b) Series in…nitas. ² Operadores integrales con núcleo K(¿ ; ¿ 0 ):

² Operadores en sumas con núcleo K(¿ ; ¿ 0 ): 3.6.1

Operaciones básicas entre señales. ² Operador identidad: este operador, aunque trivial en su de…nición, resulta fundamental desde un punto de vista algebraico y, como veremos, también por su relación con la señal localizadora de tipo impulsivo básica, ±(x); en el caso de variable continua, o su dual en el caso de variable discreta, ±(n); (3.56)

F ´ I : a(¿) ! b(¿) = I [a(¿)] = a(¿ ):

² Operadores desplazamiento: en virtud de que la señal transformada por el operador es la misma que la señal obtenida, escribiremos esta familia de operadores en la forma, © ª fFg ´ D(¿ 0 ) : a(¿ ) ¡! b(¿) = D(¿ 0 ) [a(¿ )] = a(¿ + ¿ 0 ): (3.57) El valor del desplazamiento ¿ 0 (x0 ó n0 ) ha de ser visto como un parámetro descriptivo de la familia de operadores. Fijado un valor de ¿ 0 ; seleccionaremos un operador desplazamiento concreto.

² Operadores escalado: el escalado de una señal por un cierto valor K 2 C queda de…nido dentro del álgebra de los espacios de señales (espacios vectoriales), recogiéndose aquí por ser otra familia de operadores básicos en ciertos problemas físicos. Su de…nición está basada en el operador identidad y descrita por el valor escalar K como parámetro descriptivo de la familia; así, fFg ´ fKIg : a(¿) ¡! b(¿) = (KI) [a(¿ )] = Ka(¿ ): 78

(3.58)

c Emilio Gago-Ribas, 2002 °

3.6.2

Operadores en variable continua. ² Operador primera derivada: operador básico para la caracterización matemática de problemas físicos. Actuará punto a punto sobre una determinada señal de entrada f (x): Su generalización tanto en orden como en dimensiones será la base de los problemas descritos en términos de ecuaciones diferenciales, F´

d df (x) : f (x) ¡! g(x) = = f 0 (x) = f (1) (x): dx dx

Conviene recordar algunas de las de…niciones asociadas a este operador, ¯ df (x) ¯¯ f(x0 ) ¡ f (x0 ¡ ¢x) f (x0 + ¢x) ¡ f(x0 ) = lim ; = lim ¢x!0 dx ¯x0 ¢x!0 ¢x ¢x ¯ df (x) ¯¯ f(x0 + ¢x=2) ¡ f (x0 ¡ ¢x=2) : = lim dx ¯x0 ¢x!0 ¢x

(3.59)

(3.60)

(3.61)

En el límite, todas las de…niciones son equivalentes asumiendo que f (x) tenga derivada en x0 ; esto es, que las derivadas por la izquierda y por la derecha de x0 existan y coincidan en valor. Este aspecto es sumamente importante por su relación con las distribuciones o funciones generalizadas que analizaremos en el Cap. 7. Justamente una de las razones que dan lugar a de…nir dichos objetos matemáticos y analizar ciertas ’funciones’ como si fueran distribuciones (véase por ejemplo la distribución de Heaviside, Secc. 7.6) es el de asegurar la existencia de la derivada (primera o de orden superior) para todo el rango de de…nición de la función original6 . Desde el punto de vista práctico, un sistema caracterizado por el operador diferencial de primer orden suele denominarse derivador. ² Operador derivada n-ésima: partiendo del operador primera derivada, podremos de…nir derivadas de ordenes superiores, µ ¶ d2 d2 f(x) d df(x) F ´ 2 : f(x) ¡! g(x) = = = f 00 (x) = f (2) (x); (3.62) dx dx2 dx dx F´

d3 d3 f(x) d2 : f (x) ¡! g(x) = = dx3 dx3 dx2

y, en general, F´

µ

df (x) dx

dn f (x) dn¡1 dn : f(x) ¡! g(x) = = n¡1 n n dx dx dx



µ

= f 000 (x) = f (3) (x);

df (x) dx



= f (n) (x):

(3.63)

(3.64)

² Operador integral inde…nida: los operadores integrales estarán relacionados con el operador derivada y, de…nidos adecuadamente, tendrán que ver con el operador inverso del operador derivada. En este caso, el operador es punto a punto, operando sobre una función en la forma, Z Z F ´ (¢) dx ¡! g(x) = f (x) dx: (3.65) Nótese que para cada f (x) existen in…nitas g(x) que di…eren entre sí por una constante arbitraria.

² Operador integral de…nida: En el caso de la integral de…nida, ésta dependerá del dominio de de…nición correspondiente; así por ejemplo, Z x Z x 0 F´ (¢) dx ¡! g(x) = f (x0 ) dx0 : (3.66) a

a

Un caso de especial importancia en el espacio S(¡1; 1) será el operador, Z x Z x F´ (¢) dx0 ¡! g(x) = f(x0 ) dx0 : ¡1

(3.67)

¡1

6 En el caso de la distribución ¡(x); vista como ’función’ no tendría de…nida su derivada en el punto donde se encuentra localizada la discontinuidad, pero sí podría de…nirse su derivada en dicho punto si se analiza como una distribución. En este caso, su derivada vendrá expresada para todo x en términos de otra distribución, la delta de Dirac. Diremos por tanto que d¡(x)=dx = ±(x); para todo x:

c Emilio Gago-Ribas, 2002 °

79

3.6.3

Operadores en variable discreta. ² Operador primera diferencia: el operador primera diferencia será el equivalente al operador primera derivada en señales de variable continua. Dada la naturaleza de estas señales, podremos de…nir las siguientes operaciones importantes, F ´ D(1) ¡ I : x(n) ! y(n) = x(n + 1) ¡ x(n);

(3.68)

F ´ I ¡ D(¡1) : x(n) ! y(n) = x(n) ¡ x(n ¡ 1):

(3.69)

² Operadores en diferencias: a partir del operador primera diferencia, se pueden de…nir operadores en diferencias de ’ordenes’ superiores, equivalentes a los operadores en derivadas de orden superior a la unidad. Así por ejemplo, F ´ D(1) ¡ 2I + D(¡1) : x(n) ! y(n) = x(n + 1) ¡ 2x(n) + x(n + 1);

(3.70)

o cualquier otra combinación de la señal original pesada y desplazada adecuadamente. ² Operadores en sumas: los operadores en sumas serán el equivalente en espacios de señales de variable discreta a los operadores integrales, dependiendo también en este caso del dominio de de…nición; así por ejemplo, F´

n X

m=N

(¢) : x(n) ! y(n) =

n X

x(m);

(3.71)

m=N

o el caso particular de especial importancia en el espacio D(¡1; 1); F´

n X

m=¡1

(¢) : x(n) ¡! y(n) =

n X

x(m):

(3.72)

m=¡1

En la Fig. 3.17 se muestra la representación de algunos de estos operadores básicos en su forma práctica de sistemas. Operadores integrales con núcleo K(¿; ¿ 0 ):

3.6.4

Una familia de operadores integrales de particular importancia en el análisis de problemas físicomatemáticos es aquella descrita en la forma general, F : f(¿ (0) ) ! g(¿ (0) ) = F [f (¿ )] Z F´ (¢) K(¿; ¿ 0 ) d¿ (0) ;

(3.73)

¿ (0)

donde la notación ¿ (0) representa cualquiera de las dos variables ¿ y ¿ 0 : El conjunto continuo de funciones fK(¿ ; ¿ 0 )g se denomina núcleo de la integral. Dependiendo del problema representado y de la interpretación buscada, tanto ¿ como ¿ 0 podrán jugar el papel de parámetro descriptivo del conjunto de funciones, esto es, ¿ podrá describir un conjunto de funciones sobre ¿ 0 ; o viceversa. La forma de las funciones representadas por K así como las variables ¿ y ¿ 0 serán las encargadas de describir diferentes familias de operadores. Algunos de los casos más importantes son los siguientes: ² Integrales de convolución en variable continua. En este caso, (¿ ; ¿ 0 ) ´ (x; x0 ): La ecuación (3.73) tomará la siguiente forma particular, F : f (x) ¡! g(x) = F [f (x)] ; Z F´ (¢) K(x ¡ x0 ) dx0 :

(3.74)

x0

En este caso, ambas variables harán referencia al mismo dominio de de…nición7 . En las Seccs. 3.7.1 y 3.7.2 se presenta una descripción detallada de esta operación así como su formulación en términos de un operador integral donde la variable x identi…cará cada una de las funciones del núcleo. 7 Por ejemplo, si la variable x representa el dominio temporal, la variable x0 también describirá dicho dominio, x ´ t y x0 ´ t0 :

80

c Emilio Gago-Ribas, 2002 °

Figura 3.17. Representación en forma de sistema de los operadores básicos para los casos de variable continua y discreta: (a) operador identidad; (b) operador desplazamiento; (c) operador escalado; (d) operador primera derivada y primera diferencia, y (e) integrador y sumador.

² Representación de un sistema lineal en variable continua. En este caso, (¿ ; ¿ 0 ) ´ (x; x0 ): El conjunto de funciones núcleo recibirán el nombre de respuestas al impulso del sistema y habitualmente se denotarán por fh(x; x0 )g ó fG(x; x0 )g ; esta última asociada a la teoría de funciones de Green relacionada con problemas inversos y mencionada ya en la Secc. 3.4.4. La ecuación (3.73) tomará la siguiente forma particular, 2 3 2 3 F : f (x) ¡! g(x) = F [f (x)] ; F : f (x) ¡! g(x) = F [f (x)] ; 6 7 6 7 Z Z (3.75) 4 5 ó 4 5 0 0 0 0 F´ (¢) h(x; x ) dx : F´ (¢) G(x; x ) dx : x0

x0

En el Cap. 6 se abordará ampliamente este problema para los problemas directos. Una vez más, ambas variables harán referencia al mismo dominio de de…nición, siendo la variable x0 la encargada de jugar el papel de parámetro descriptivo del conjunto de funciones respuesta al impulso.

² Representación de un sistema lineal e invariante en variable continua. Este es un caso particular del anterior cuando el sistema es, además, invariante. En este caso, el conjunto de funciones núcleo se podrá representar a partir de una única función h(x) ó G(x); de forma que fh(x; x0 )g = fh(x ¡ x0 )g ó fG(x; x0 )g = fG(x ¡ x0 )g : La ecuación (3.73) tomará la siguiente forma particular, 2 3 2 3 F : f (x) ¡! g(x) = F [f (x)] ; F : f (x) ¡! g(x) = F [f (x)] ; 6 7 6 7 Z Z (3.76) 4 5 ó 4 5 0 0 0 0 F´ (¢) h(x ¡ x ) dx : F´ (¢) G(x ¡ x ) dx : x0

x0

En el Cap. 6 se abordará ampliamente este problema particular para problemas directos.

² Transformadas en variable continua. En este caso, (¿ ; ¿ 0 ) ´ (x; ¿ 0 ): La variable ¿ 0 será habitualmente la encargada de describir al conjunto de funciones fK(x; ¿ 0 )g ; pudiendo identi…car tanto valores discretos, ¿ 0 ´ m 2 Z; como continuos, dependiendo de que dicho conjunto de funciones sea numerable o continuo, respectivamente. La variable ¿ 0 se identi…cará habitualmente como la ’variable espectral’, siendo x la ’variable real’. En este caso, las variables identi…carán dominios de de…nición de diferente naturaleza8 . Dependiendo de cuál sea el conjunto de funciones fK(x; ¿ 0 )g obtendremos una transformación o familia de operadores diferentes. Cabe destacar los siguientes ejemplos: 8 En

el caso de la tranformada de Fourier, por ejemplo, si x representa un dominio espacial (denotado en la práctica

c Emilio Gago-Ribas, 2002 °

81

1. En el caso de las transformadas directas, el operador integral en (3.73) se particularizará de la siguiente forma, F : f(x) ¡! F (¿ 0 ) = F [f (x)] ; Z F ´ (¢) K(x; ¿ 0 ) dx:

(3.77)

x

Este será el caso de: (i) los coe…cientes del desarrollo en serie de Fourier, DSF; de señales periódicas de variable continua con un núcleo integral numerable, Cap. 8, y (ii) las transformadas de Fourier y de Laplace, TF y TL; con un núcleo integral continuo9 , Caps. 9 y 11. 2. En el caso de las transformadas inversas, la variable ¿ 0 identi…cará siempre a una variable continua, esto es, ¿ 0 ´ »; el operador integral en (3.73) se particularizará como sigue, F¡1 : F (») ¡! f(x) = F¡1 [F (»)] ; Z F¡1 ´ (¢) K(x; ») d»:

(3.78)

»

Este será el caso de las transformadas inversas de Fourier y de Laplace, TF¡1 y TL¡1 ; con un núcleo integral continuo, Caps. 9 y 11. ² Transformadas en variable discreta. En este caso, (¿ ; ¿ 0 ) ´ (n; ¿ 0 ): La interpretación de la variable ¿ 0 es totalmente similar a la realizada en el punto anterior para el caso de variable continua. Cabe destacar el siguiente caso: 1. En el caso de las transformadas inversas, la variable ¿ 0 identi…cará siempre a una variable continua, esto es, ¿ 0 ´ -; el operador integral en (3.73) se particularizará como sigue, F¡1 : X(-) ¡! x(n) = F¡1 [X(-)] ; Z F¡1 ´ (¢) K(n; -) d-:

(3.79)

-

Este será el caso de las transformadas inversas de Fourier y Z de señales discretas, TF¡1 y TZ¡1 ; con un núcleo integral continuo10 . Estos casos se analizarán en el Vol. ST-II. Operadores en sumas con núcleo K(¿; ¿ 0 ):

3.6.5

El equivalente en variable discreta a los operadores integrales de núcleo K(¿ ; ¿ 0 ) serán los operadores en sumas descritos en su forma más general por, £ ¤ F : x(¿ (0) )) ¡! y(¿ (0) ) = F x(¿ (0) ) ; X (3.80) F´ (¢) K(¿ ; ¿ 0 ); ¿ (0)

representando por ¿ (0) a cualquiera de las dos variables ¿ y ¿ 0 : Nótese que esta representación general indica que la variable sobre la que se realiza el sumatorio ha de ser siempre discreta. El conjunto de funciones fK(¿ ; ¿ 0 )g será ahora el núcleo del sumatorio. Una vez más, dependiendo del problema representado y de la interpretación buscada, cualquiera de las dos variables ¿ y ¿ 0 podrá jugar el papel de parámetro descriptivo del conjunto de funciones. Los principales casos a destacar son: ² Sumas de convolución en variable discreta. En este caso, (¿; ¿ 0 ) ´ (n; m): La ecuación (3.80) tomará la siguiente forma particular, F : x(n) ¡! y(n) = F [x(n)] ; X F´ (¢) K(n ¡ m):

(3.81)

m

¿0

por z), representará el dominio del número de onda (representado habitualmente por ¯): Así, tendremos un conjunto de funciones núcleo descrito …nalmente por fK(z; ¯)g : 9 En el caso de la transformada de Laplace, la variable ¿ 0 ´ s 2 C: 10 En el caso de la transformada Z, la variable ¿ 0 ´ z 2 C:

82

c Emilio Gago-Ribas, 2002 °

En las Seccs. 3.7.3 y 3.7.4 se realiza una descripción detallada de esta operación así como su interpretación analizada como un operador en sumas donde la variable n acabará identi…cando a cada una de las funciones del núcleo. ² Representación de un sistema lineal en variable discreta. En este caso, (¿; ¿ 0 ) ´ (n; m): El conjunto de funciones núcleo recibirán el nombre de respuestas al impulso del sistema y habitualmente se denotarán por fh(n; m)g : La ecuación (3.80) tomará la siguiente forma particular, F : x(n) ¡! y(n) = F [x(n)] ; X F´ (¢) h(n; m);

(3.82)

m

siendo ahora m la variable encargada de describir dicho conjunto de funciones. Estos aspectos serán analizados en el Vol. ST-II correspondiente a señales y sistemas de variable discreta. ² Representación de un sistema lineal e invariante en variable discreta. Este es un caso particular del anterior cuando el sistema es, además, invariante. En este caso, el conjunto de funciones núcleo se podrá representar a partir de una única función h(n) de forma que fh(n; m)g = fh(n ¡ m)g : La ecuación (3.80) tomará la siguiente forma particular, F : x(n) ¡! y(n) = F [x(n)] ; X F´ (¢) h(n ¡ m):

(3.83)

m

Estas representaciones serán analizadas en el Vol. ST-II correspondiente a señales y sistemas de variable discreta. ² Transformadas en variable discreta. En este caso, (¿; ¿ 0 ) ´ (n; ¿ 0 ): La variable ¿ 0 será la encargada de describir al conjunto de funciones fK(n; ¿ 0 )g, pudiendo identi…car a una variable discreta o continua, dependiendo de que dicho conjunto de funciones sea numerable o continuo, respectivamente. La variable ¿ 0 se identi…cará habitualmente como la ’variable espectral’, siendo en este caso n la ’variable real’. Cabe destacar los siguientes ejemplos: 1. En el caso de las transformadas directas, el operador en (3.80) se particularizará de la siguiente forma, F : x(n) ¡! X(¿ 0 ) = F [x(n)] ; X F´ (¢) K(n; ¿ 0 ):

(3.84)

n

Este será el caso de: (i) los coe…cientes del desarrollo en serie de Fourier, DSF; de señales discretas periódicas con un núcleo integral numerable, y (ii) las transformadas de Fourier y Z, TF y TZ; de señales de variable discreta con un núcleo integral continuo11 . Todos estos casos quedarán recogidos en el Vol. ST-II. 2. En el caso de las transformadas inversas, el operador en (3.80) se particularizará como sigue, F¡1 : X(k) ¡! x(n) = F¡1 [X(k)] ; X F¡1 ´ (¢) K(x; k):

(3.85)

k

Nótese que en este caso es obligado que la variable espectral ¿ 0 ´ k 2 Z: Este será el caso del desarrollo en serie de Fourier, DSF¡1 ; de señales discretas periódicas analizado en el Vol. ST-II. ² Transformadas en variable continua. En este caso, (¿ ; ¿ 0 ) ´ (x; m): La interpretación de la variable m es totalmente similar a la realizada en el punto anterior para el caso de variable discreta. Cabe destacar el siguiente caso: 1 1 En

el caso de la transformada Z, la variable ¿ 0 ´ z 2 C:

c Emilio Gago-Ribas, 2002 °

83

1. En el caso de las transformadas inversas, el operador integral en (3.80) se particularizará como sigue, F¡1 : F (m) ¡! f(x) = F¡1 [F (m)] ; X F¡1 ´ (¢) K(x; m):

(3.86)

m

Este será el caso del desarrollo en serie de Fourier, DSF¡1 ; de señales periodicas de variable continua con un núcleo numerable de funciones, Cap. 8.

3.7

Operaciones de convolución. En esta sección analizaremos en detalle las operaciones de convolución para los casos de variable continua y discreta. Esta forma de organización es debida a la importancia que en su momento jugarán estas operaciones en la representación tanto de sistemas de variable continua, analizados en este texto, como de variable discreta, analizados en el Vol. ST-II. Presentaremos aquí su análisis matemático detallado, su interpretación como un operador integral y sus propiedades más importantes.

3.7.1

Integral de convolución en S(¡1; 1).

La convolución de dos señales f (x) y g(x) se de…ne en términos de un operador integral en la forma, Z 1 c(x) = f(x) ¤ g(x) = f (x0 )g(x ¡ x0 ) dx0 : (3.87) ¡1

Como se verá en los Caps. 6 y 7, este operador aparece de forma natural al de…nir señales localizadoras de tipo impulsivo que permiten caracterizar de forma general un sistema. La aparición de este tipo de operadores será debida, una vez más, a la métrica de…nida sobre el espacio de señales, dependiente del producto escalar de…nido en (2.54) como una forma bilineal integral. Dada su importancia, estudiaremos a continuación sus propiedades más importantes, así como su análisis e interpretación. ² Propiedades. 1. Conmutativa: (3.88)

f (x) ¤ g(x) = g(x) ¤ f(x); Z

1

0

¡1

0

0

f(x )g(x ¡ x ) dx =

Z

1

¡1

f(x ¡ x0 )g(x0 ) dx0 :

(3.89)

2. Asociativa: f(x) ¤ [g(x) ¤ h(x)] = [f(x) ¤ g(x)] ¤ h(x):

(3.90)

f(x) ¤ [g(x) + h(x)] = f(x) ¤ g(x) + f(x) ¤ h(x):

(3.91)

3. Distributiva:

Las demostraciones correspondientes a estas propiedades pueden resultar interesantes desde el punto de vista de obtener práctica en el manejo de este tipo de operaciones, y se pueden encontrar en el Ap. E.2. ² Análisis. Nótese que ésta operación pasa por entender las siguientes operaciones: 1. Asumiendo un valor de x = x1 …jo donde queremos conocer el valor de la convolución de ambas funciones: (a) De…nir ambas funciones sobre una variable intermedia x0 y mantener una de las funciones tal cuál ha sido especi…cada, por ejemplo f(x0 ): 84

c Emilio Gago-Ribas, 2002 °

(b) Re‡ejar la otra función, por ejemplo g(x0 ) ! g(¡x0 ); respecto al eje de ordenadas, y desplazar posteriormente dicha función una cierta cantidad especi…cada por el valor de x1 ; obteniéndose g(x1 ¡ x0 ): (c) Finalmente, deberemos integrar en x0 la función resultante de multiplicar punto a punto y para todo x0 las funciones f (x0 ) y g(x1 ¡x0 ): Esta operación de multiplicación, dependiendo del valor de x1 ; será la que en muchos casos determine los valores adecuados para los límites de integración en función del dominio de de…nición resultante de dicho producto.

(d) La operación de convolución …nal, de…nida para todo x; se obtendrá sin más que repetir el proceso anterior para todos los valores de x del dominio de de…nición de las funciones. El resultado …nal será, por supuesto, una nueva función en la variable original x: 2. Si las señales involucradas en la convolución son reales, esto es, Im ff(x)g = 0 e Im fg(x)g = 0; la convolución de ambas será también una señal real en la forma, Z 1 c(x) = Re fc(x)g = f (x0 )g(x ¡ x0 ) dx0 ; (3.92) ¡1

de forma que la interpretación de la convolución resulta especialmente sencilla, tal y como se muestra en el ejemplo de la Fig. 3.18. 3. En el caso más general de señales complejas, el análisis de la convolución pasa por considerar el producto f(x0 )g(x ¡ x0 ) en sus partes real e imaginaria, 8 Z 1 > 0 > c (x) = [f 0 (x0 )g 0 (x ¡ x0 ) ¡ f 00 (x0 )g 00 (x ¡ x0 )] dx0 ; > > < ¡1 c(x) ! (3.93) Z 1 > > > > [f 0 (x0 )g 00 (x ¡ x0 ) + f 00 (x0 )g 0 (x ¡ x0 )] dx0 ; : c00 (x) = ¡1

tal y como se muestra en el ejemplo de la Fig. 3.19.

² Expresión general. La de…nición anterior la expresaremos habitualmente de la siguiente forma, Z c(x) = f (x) ¤ g(x) = f(x0 )g(x ¡ x0 ) dx0 : (3.94) x0

Con esta de…nición asumiremos, en general, que los límites de integración, denotados de forma genérica por x0 ; han de ser los adecuados en función del rango de valores de la variable independiente donde las funciones sean no nulas. En este sentido, la interpretación grá…ca de esta operación resultará de gran importancia a la hora de determinar los límites de integración adecuados en el proceso de cálculo de la misma. ² Interpretación como un operador integral. Consideremos R en primer lugar el análisis de la operación de convolución para un cierto valor x1 ; esto es, c(x1 ) = x0 f(x0 )g(x1 ¡ x0 ) dx0 : Resulta sencillo asociar esta operación con un funcional F; Secc. 3.3.1, en la forma, F : f(x) ! c(x1 ) 2 C; Z F ´ (¢)g(x1 ¡ x0 ) dx0

(3.95)

x0

Esta representación identi…caría a un funcional F como aquel que a una función f (x) le asocia un cierto valor complejo c(x1 ): Nótese que el funcional contiene en su propia de…nición a la función g(x1 ¡ x0 ): Diferentes funciones g(x) darían lugar a diferentes funcionales, describiendo así cualquier operación de convolución para el valor x1 especi…cado. Extendiendo este resultado para todo valor de x; esto es x1 ! x 2 R; podremos claramente identi…car la convolución con un operador integral en la forma, F : f (x) ! c(x); Z F´ (¢)g(x ¡ x0 ) dx0

(3.96)

x0

c Emilio Gago-Ribas, 2002 °

85

donde la función g(x ¡ x0 ) juega el papel de núcleo del operador integral. Nótese también que para cada valor de x; la función g(x ¡ x0 ) es una diferente, de forma que el núcleo será en realidad una familia de funciones fg(x ¡ x0 )g identi…cadas en este caso por la varibale x original del problema. En la Fig. 3.18 se pueden ver tres ejemplos correspondientes a las funciones g(x1 ¡ x0 ); g(x2 ¡ x0 ) y g(x3 ¡ x0 ) para el caso de funciones reales. 3,0

f(x')

3,0

g(x')

3,0

1,5

1,5

0,0

0,0

0,0

-1,5

-1,5

-1,5

-3,0 -5 3,0

-4

-3

-2

-1

g(x1-x')

0

x'

1

2

3

4

5

1,5

-3,0 -4

-3

g(x2-x')

3,0

-2

-1

0

x'

1

2

3

4

-3,0 -4 3,0

1,5

1,5

1,5

0,0

0,0

0,0

-1,5

-1,5

-1,5

-3,0 -5 3,0

-4

-3

f(x')g(x1-x')

-2

-1

0

x'

1

2

-3,0 3 -4 3,0

-3

-2

f(x')g(x2-x')

-1

0

x'

1

2

3

4

3,0

1,5

0,0

0,0

0,0

-1,5

-1,5

-1,5

-4

-3

-2

-1

0

x'

1

2

3

-3,0 -4

-3

-2

-1

0

1

2

3

4

-2

-1

0

1

2

3

4

5

-2

-1

x'

0

1

2

3

4

5

g(x3-x')

-3,0 -3

1,5

-3,0 -5

g(-x')

f(x')g(x3-x') x'

x'

1,5

-3

-2

-1

0

x'

3,0

1

2

3

c(x2)

4

-3,0 -3

c(x)

1,5

c(x1)

c(x3)

0,0 -1,5 -3,0 -5

-4

-3

-2

-1

0

x

1

2

3

4

5

Figura 3.18. Ejemplo del proceso involucrado en la convolución de dos señales reales de variable continua. Los valores de c(x) mostrados son c(x1 ) = c(¡1); c(x2 ) = c(0) y c(x3 ) = c(1):

3.7.2

Integral de convolución en P (X0 ). Convolución periódica.

Dado que en el espacio de señales periódicas de período X0 ; la integral de convolucion en (3.87) resultaría divergente, de…niremos una operación equivalente de…nida sobre un período cualquiera de la señal. Esta operación será la convolución periódica, y quedará de…nida por, Z c0 (x) = f0 (x) ¤ g0 (x) = f0 (x0 )g0 (x ¡ x0 ) dx0 : (3.97) hX0 i

Resulta trivial demostrar que, tanto las propiedades como su interpretación grá…ca, son las mismas que para la convolución continua de señales no periódicas. Es también sencillo demostrar que el resultado de la convolución de dos señales periódicas de período X0 es otra señal periódica del mismo período, es decir, que el resultado tambien pertencece a P (X0 ): En el Ap. E.3 se puede encontrar una demostración de esta propiedad.

86

c Emilio Gago-Ribas, 2002 °

3,0

Im{f (x')}

Re{f (x')}

3,0

1,5

1,5

0,0

0,0

-1,5

-1,5

-3,0

-2

-1

0

1

2

3

x'

4

-3,0

5

Re{g(x')} 3,0

1,5

1,5

0,0

0,0

-1,5

-1,5

-3

-2

-1

0

1

2

x'

3

4

-3,0 -4

Re{g(-x')} 3,0

1,5

1,5

0,0

0,0

-1,5

-1,5

-3

-2

-1

0

1

2

x'

3

4

Re{g(x-x')} 1,5

1,5

0,0

0,0

-1,5

-1,5

-1

0

1

2

3

f '(x')g'(x-x')-f ''(x')g''(x-x')

x'

4

5

-3,0

3,0

1,5

1,5

0,0

0,0

-1,5

-1,5

-2

-1

0

1

2

3

Re{c(1.5)}

Re{c(x)}

x'

4

5

-3,0

3,0

1,5

1,5

0,0

0,0

-1,5

-1,5

-2

-1

3

x'

4

x'

-2

-1

0

1

2

-3

-2

-1

0

1

2

0

1

2

-2

-1

0

-2

-1

0

3

x

1

2

3

4

5

-3,0

-2

1

2

3

2

3

Im{c(1.5)}

Im{c(x)}

3,0

-3,0

2

f '(x')g''(x-x')+f ''(x')g'(x-x')

3,0

-3,0

1

5

3

4

x'

3

4

Im{g(x-x')} 3,0

-2

-3

-3,0 -4

3,0

-3,0

0

Im{g(-x')}

3,0

-3,0 -4

-1

Im{g(x')}

3,0

-3,0 -4

-2

-1

0

1

4

5

x'

4

5

x

4

5

x'

Figura 3.19. Ejemplo del proceso involucrado en la convolución de dos señales complejas de variable continua. El valor de c(x) indicado es el de c(x = 1:5):

c Emilio Gago-Ribas, 2002 °

87

3.7.3

Convolución discreta en D(¡1; 1). Suma de convolución.

La convolución de dos señales de variable discreta se de…ne de la forma siguiente, c(n) = x(n) ¤ y(n) =

1 X

m=¡1

(3.98)

x(m)g(n ¡ m);

donde se ha supuesto que las señales x(n) e y(n) están de…nidas en todo el intervalo de la variable independiente n: ² Propiedades. 1. Conmutativa: (3.99)

x(n) ¤ y(n) = y(n) ¤ x(n); 1 X

m=¡1

x(m)y(n ¡ m) =

1 X

m=¡1

x(n ¡ m)y(m):

(3.100)

2. Asociativa: x(n) ¤ [y(n) ¤ h(n)] = [x(n) ¤ y(n)] ¤ h(n):

(3.101)

x(n) ¤ [y(n) + h(n)] = x(n) ¤ y(n) + x(n) ¤ h(n):

(3.102)

3. Distributiva:

Las demostraciones correspondientes a estas propiedades se pueden encontrar en el Ap. E.4. ² Análisis. De forma similar a como ocurría para señales de variable continua, ésta operación pasa por entender las siguientes operaciones: 1. Asumiendo un valor de n = n1 …jo donde queremos conocer el valor de la convolución de ambas funciones: (a) De…nir ambas funciones sobre una variable intermedia m y mantener una de las secuencias en la forma especi…cada, por ejemplo x(m): (b) Re‡ejar la otra secuencia, por ejemplo y(m) ! y(¡m); respecto al eje de ordenadas, y desplazar posteriormente dicha función una cierta cantidad especi…cada por el valor de n1 ; obteniéndose y(n1 ¡ m): (c) Finalmente, deberemos sumar para todo m la función resultante de multiplicar punto a punto (para todo m) las funciones x(m) e y(n1 ¡ m): Esta operación de multiplicación, dependiendo del valor de n1 ; será la que determine los valores adecuados para los límites del sumatorio en función del dominio de de…nición resultante de ese producto.

(d) La operación de convolución …nal, de…nida para todo n; se obtendrá sin más que repetir el proceso anterior para todos los valores de n del dominio de de…nición de las funciones. El resultado …nal será, por supuesto, una nueva secuencia en la variable original n: 2. En la Fig. 3.20 se muestra un resumen grá…co de la interpretación de esta operación en el caso general de señales complejas. Nótese que las siguientes expresiones son equivalentes sin más que desarrollar el producto x(m)y(n ¡ m) en su parte real e imaginaria, 8 1 X > > 0 > (n) = [x0 (m)y 0 (n ¡ m) ¡ x00 (m)y 00 (n ¡ m)] c > > < m=¡1 (3.103) c(n) ! 1 > X > > 00 0 00 00 0 > [x (m)y (n ¡ m) + x (m)y (n ¡ m)] > : c (n) = m=¡1

88

c Emilio Gago-Ribas, 2002 °

3. Si las secuencias involucradas en la convolución son reales, esto es, x00 (n) = 0 e y 00 (n) = 0; la convolución de ambas será también una señal real en la forma, c(n) = c0 (n) =

1 X

m=¡1

x(m)y(n ¡ m):

(3.104)

En la Fig. 3.21 se muestra un ejemplo grá…co de la interpretación de esta operación para el caso más sencillo de dos señales reales. ² Expresión general. En el caso en que el espacio de señales esté de…nido sobre un intervalo diferente a (¡1; 1) la de…nición es la misma sin más que restringir adecuadamente los límites del sumatorio. En general, denotaremos una operación de convolución de señales de variable discreta de la siguiente forma, X c(n) = x(n) ¤ y(n) = x(m)y(n ¡ m); (3.105) m

donde se asume que los límites del sumatorio denotados de forma genérica por m han de ser los adecuados en función de las señales involucradas. En este sentido, la interpretación grá…ca de esta operación resulta de gran importancia a la hora de determinar dichos límites cuando se pretende realizar su cálculo. ² Interpretación como un operador en sumas. Consideremos Pen primer lugar el análisis de la operación de convolución para un cierto valor n1 ; esto es, c(n1 ) = m x(n1 )y(n1 ¡ m): Resulta sencillo asociar esta operación con un funcional F; Secc. 3.3.1, en la forma, X F ´ (¢)y(n1 ¡ m) : x(n) ! c(n1 ) 2 C: (3.106) m

Esta representación identi…caría a un funcional F como aquel que a una función discreta x(n) le asocia un cierto valor complejo c(n1 ): Nótese que el funcional contiene en su propia de…nición a la función y(n1 ¡ m): Diferentes funciones y(n) darán lugar a diferentes funcionales, describiendo así cualquier operación de convolución para el valor n1 especi…cado. Extendiendo este resultado para todo valor de n; esto es n1 ! n 2 Z; podremos claramente identi…car la suma de convolución con un operador en la forma, X F´ (¢)y(n ¡ m) : x(n) ! c(n); (3.107) m

donde la función y(n ¡ m) juega el papel de núcleo del operador en sumas. Nótese también que para cada valor de n; la función y(n ¡ m) es una diferente, de forma que el núcleo será en realidad una familia de funciones fy(n ¡ m)g identi…cadas en este caso por la varibale n original del problema. 3.7.4

Convolución discreta en D(N0 ). Suma de convolución periódica.

Dado que en el espacio de señales periódicas de período N0 ; la suma de convolucion en (3.98) resultaría divergente, de…niremos una operación equivalente de…nida sobre un período cualquiera de la señal. Esta operación será la suma de convolución periódica, y quedará de…nida por, X c0 (n) = x0 (n) ¤ y0 (n) = x0 (m)y0 (n ¡ m): (3.108) hN0 i

Resulta evidente que tanto las propiedades como su interpretación grá…ca, son las mismas que para la convolución discreta de señales no periódicas. Resulta sencillo demostrar también que el resultado de la convolución de dos señales periódicas de variable discreta de período N0 es otra señal periódica discreta del mismo período, es decir, que el resultado tambien pertencece a D(N0 ); Ap. E.5.

c Emilio Gago-Ribas, 2002 °

89

3,0

Re{x(m)}

3,0

1,5

1,5

0,0

0,0

-1,5

-1,5

-3,0

3,0

-10

-8

-6

-4

-2

0

2

4

6

8

10

-3,0

12

m

Re{y(m)}

3,0

1,5

1,5

0,0

0,0

-1,5

-1,5

-3,0 -8

3,0

-6

-4

-2

0

2

4

6

8

10

12

14

16

m

Re{y(-m)}

3,0 1,5

0,0

0,0

-1,5

-1,5

-3,0 -16 -14 -12 -10

-8

-6

-4

-2

0

2

4

6

8

3,0

1,5

1,5

0,0

0,0

-1,5

-1,5

-3,0

4

-10

-8

-6

-4

-2

0

2

4

6

8

10

12

m x'(m)y'(n-m)-x''(m)y''(n-m)

-3,0

4

2

2

0

0

-2

-2

-4

3,0

-10

-8

-6

-4

-2

0

2

m

Re{c(n)}

4

6

8

10

12

-4

Re{c(5)}=Sum(m) 3,0

1,5

1,5

0,0

0,0

-1,5

-1,5

-3,0

-10

-8

-6

-4

-2

0

n

2

4

6

8

10

12

-8

-6

-4

-3,0

-2

0

Im{y(m)}

-6

2

4

-4

-2

0

2

4

6

-8

-6

-4

-2

10

12

-6

8

10

12

14

16

0

2

4

6

8

m

Im{y(n-m)}

-8

8

m

Im{y(-m)}

-10

6

m

-3,0 -16 -14 -12 -10

m

Re{y(n-m)}

-10

-3,0 -8

1,5

3,0

Im{x(m)}

-4

-2

0

2

4

6

8

10

12

2

4

6

8

10

12

m x'(m)y''(n-m)+x''(m')y'(n-m)

-10

-8

-6

-4

-2

Im{c(n)}

-10

-8

0

m

-6

-4

-2

0

Im{c(5)}=Sum(m)

2

4

6

8

10

12

n

Figura 3.20. Ejemplo del proceso involucrado en la suma de convolución de dos señales de variable discreta. El valor de c(n) indicado es c(n = 5): Las sucesiones de valores se han unido con rectas para facilitar su lectura e interpretación.

90

c Emilio Gago-Ribas, 2002 °

3,0

x(m)

3,0

y(m)

3,0

1,5

1,5

1,5

0,0

0,0

0,0

-1,5

-1,5

-1,5

-3,0 -18 -15 -12 -9

-6

-3

0

3

6

9

-3,0

-3

0

m 3,0

3

6

9

12

15

-3,0 -15

3,0

y(n2-m)

3,0

1,5

1,5

0,0

0,0

0,0

-1,5

-1,5

-1,5

-3,0 -18 -16 -14 -12 -10 -8 -6 -4 -2

0

m

2

-3,0 -15

-12

-9

-6

-3

0

m

-3,0

3

x(m) y(n2-m)

x(m) y(n1-m) 2

2

0

0

0

-2

-2

-2

-9

-6

-3

-6

-3

0

0

3

-4 -15

m

-12

3

-9

y(n3-m)

-9

-6

-3

0

3

6

9

0

3

6

9

m

x(m) y(n3-m)

2

-12

-9

m

1,5

-15

-12

m

y(n1-m)

-4 -18

y(-m)

-6

-3

0

-4

3

m

c(n2)=Sum(m)

-9

-6

-3

m

3,0

c(n)=x(n) * y(n) 1,5

c(n1)=Sum(m)

c(n3)=Sum(m) 0,0

-1,5

-3,0 -18 -15 -12 -9

-6

-3

0

3

6

9

n Figura 3.21. Ejemplo del proceso involucrado en la suma de convolución de dos señales reales de variable discreta. Los valores de c(n) mostrados son c(n1 ) = c(¡3); c(n2 ) = c(0) y c(n3 ) = c(4): Las sucesiones de valores se han unido mediante rectas para facilitar su lectura e interpretación.

c Emilio Gago-Ribas, 2002 °

91

92

c Emilio Gago-Ribas, 2002 °

4.

Transformadas y Dominios Transformados

4.1

Introducción. En el presente capítulo estudiaremos una familia muy concreta de operadores, llamados transformadas, de gran importancia tanto desde el punto de vista teórico como en la práctica, así como el concepto de dominios transformados asociados a ellas de forma natural. Los principios que describiremos a continuación deberían servir no sólo para entender las transformaciones más habituales, como el desarrollo en serie de Fourier y la transformada de Fourier, sino también para poder generalizar estos conceptos a otras transformaciones menos habituales pero no por ello menos importantes1 . Así mismo, la introducción aquí expuesta será válida también, dado su carácter general, para espacios de señales discretas y sus correspondientes transformaciones (desarrollo en serie de Fourier, transformada de Fourier y transformada Z), casos que se abordarán en detalle en el Vol. ST-II. Desde este punto de vista, habremos de recurrir una vez más al álgebra de señales expuesto en el Cap. 2 como base fundamental para entender dichas transformaciones. También será necesario tener presente el álgebra de operadores expuesto en el Cap. 3 dado que estas transformaciones no son más que un tipo concreto de operador integral del tipo a los descritos en (3.73) ó (3.80). Recordaremos para ello los conceptos más importantes asociados a los espacios de dimensión …nita para generalizar posteriormente dichos resultados a espacios de dimensión in…nita, caso habitual en los espacios de señales continuas. Consideremos inicialmente un espacio de señales FK1 indicando con a(¿ ) un elemento cualquiera de dicho espacio (ya sea de variable continua o discreta), y pensemos en un tipo de operador especí…co que denotaremos por T y que denominaremos como transformación del espacio original de señales FK1 en un nuevo espacio transformado de señales que denominaremos F~K1 , Fig. 4.1; así, 8 9 < T : FK1 ¡! F~K1 = ; a(¿ ) 2 FK1 ; A(¿ 0 ) 2 F~K1 : (4.1) : A(¿ 0 ) = T [a(¿ )] ;

Figura 4.1. Representación en forma de sistema de un problema de transformación de señales a través de un operador transformada T y su transformación inversa T¡1 : El espacio de señales de partida se representa por FK1 ; denotando por F~K1 al espacio transformado. Asumimos que la transformación relaciona de forma univoca a las funciones a(¿ ) 2 FK1 y A(¿ 0 ) 2 F~K1 :

Con este esquema inicial presente, diremos que un dominio transformado2 será aquel que provenga de transformar o convertir la variable original del problema (domino real, ¿)3 en una nueva variable genérica ¿ 0 que utilizaremos para describir dicho dominio transformado. En posteriores capítulos, esta variable 1 Este

será el caso, por ejemplo, de la transformada de Laplace abordado en este libro. denominaremos a un cierto dominio transformado como dominio espectral. 3 Las variables x ó n en los casos de variable continua y discreta, respectivamente. 2 También

93

tomará denominaciones diferentes dependiendo de la transformación particular analizada y del proceso físico de interés. Algunos ejemplos de las notaciones más habituales pueden encontrarse en el esquema presentado en la Secc. 4.5. La aparición de esta nueva variable y, por lo tanto, el concepto asociado de un dominio transformado, será lo que intentaremos analizar en este capítulo de forma general, particularizándose en capítulos posteriores a algunas de las transformadas más importantes. La interpretación y el signi…cado que pueda tener la nueva variable estarán sujetos tanto al tipo de transformación concreta, como al tipo de problema analizado, de la misma forma que la variable real x podrá representar variaciones temporales, espaciales, etc. siendo diferente su interpretación en cada caso. Nótese que la transformación como tal no solamente cambiará el dominio de de…nición de las señales, sino que asociará a una cierta señal a(¿ ) otra señal A(¿ 0 ) de forma unívoca, lo que garantiza además la existencia de transformada inversa. La relación existente entre la señal en el dominio real y su asociada en el dominio espectral dependerá de los criterios generales descritos en este capítulo, así como de criterios particulares en función de cual sea la transformada en cuestión. 4.1.1

Descripción general de una transformada.

A partir de las consideraciones realizadas, y en virtud de los conceptos algebraicos expuestos en los Caps. 2 y 3, podremos resumir las bases algebraicas para la de…nición de transformaciones y obtención de sus correspondientes dominios transformados en los siguientes términos generales: ² Bases.

Dado un cierto espacio vectorial de señales FK1 , analizar posibles conjuntos de vectores (funciones) fe(¿; ¿ 0 )g 2 FK1 linealmente independientes que constituyan una base de dicho espacio. De esta forma, cualquier elemento a(¿ ) 2 FK1 podrá escribirse en función de los elementos de dicha base. Esto se realizará en la forma habitual de generar combinaciones lineales de los elementos de la base que den lugar al elemento a representar. Veremos cómo la forma que tomen estas combinaciones lineales dependerá de que los espacios representados sean de dimensión …nita o in…nita, así como de la base considerada; ambos aspectos determinarán la transformación T¡1 ; 8 9 < T¡1 : F~K1 ¡! FK1 = ; a(¿ ) 2 FK1 ; A(¿ 0 ) 2 F~K1 ; (4.2) : a(¿ ) = T¡1 [A(¿ 0 )] ;

y, consecuentemente, la transformación T en (4.1). Nótese que la transformación T¡1 indica cualquier forma que pueda tomar la combinación lineal. ² Adecuación de la base.

Además, de todas las posibles bases que pudiéramos considerar en el espacio de partida FK1 , nos centraremos en aquellas que sean adecuadas desde el punto de vista de los sistemas o espacio de operadores F que actuarán sobre dicho espacio de señales, Fig. 4.2. En nuestro caso, una base adecuada estará formada normalmente por vectores propios de dichos operadores, esto es, F : fe(¿ ; ¿ 0 )g ! F [e(¿ ; ¿ 0 )] = ¸(¿ 0 ) fe(¿ ; ¿ 0 )g :

(4.3)

La notación ¸(¿ 0 ) indica una vez más el carácter de la variable ¿ 0 como parámetro que describe a las función del conjunto continuo; así, una función fe(¿ ; ¿ 0i )g tendrá asociado un valor propio ¸(¿ 0i ): Esto quiere decir que el conjunto de elementos fe(¿; ¿ 0 )g será un subespacio de vectores propios de F (Secc. 3.2.3), fe(¿ ; ¿ 0 )g 2 Aut fFg :

(4.4)

Esta característica será fundamental para todos aquellos sistemas que sean lineales, y en concreto para los que además sean invariantes, esto es, modelados por operadores pertenecientes al espacio L(FK1 ) o al subespacio de éste último LI(FK1 ): Veremos también cómo existirá una versión transformada del operador F respecto a la transformación T que denotaremos por F¿ 0 : ² Conviene mencionar que el concepto de base de un espacio que usaremos a lo largo del presente texto es un concepto relativamente relajado respecto a su de…nición algebraica rigurosa. Con esto queremos decir que el proceso algebraico seguido para demostrar la completitud de una cierta base y, por lo tanto, de un cierto espacio, será sustituido por un proceso inverso en el que, partiendo de 94

c Emilio Gago-Ribas, 2002 °

un cierto conjunto de elementos de un cierto espacio, demostremos que dicho conjunto es una base bien del espacio original, bien de nuevos espacios que puedan de…nirse a partir del espacio inicial tras sucesivas restricciones o ampliaciones4 . Este proceso, menos riguroso que el estrictamente algebraico, resulta ser muy importante en la práctica dada la gran variedad de señales con las que podemos encontrarnos. En la Secc. 4.4 se recojerá el proceso de análisis seguido en este texto. 4.1.2

Importancia de los dominios transformados.

Las razones principales que avalan la importancia de los dominios transformados se podrían resumir de la siguiente forma: ² Desde el punto de vista de los espacios de señales involucrados en un cierto problema físico, Fig. 4.2(a), podríamos destacar dos razones: (a) Poder representar señales de comportamiento complicado en términos de señales más sencillas cuyo comportamiento es bien conocido. Esta razón nos llevará directamente a intentar encontrar bases de los espacios de funciones con unas características determinadas. (b) El hecho de que un buen número de propiedades de la señal original de…nida sobre el dominio real se podrá analizar más fácilmente a través de su representación espectral. Por ejemplo, la energía de una señal f(x) puede no ser sencilla de analizar en el dominio real x, pero sí en el dominio espectral a través de la energía de su correspondiente transformada que denominaremos por F (»): En general, conocida la relación o trasformación entre ambos dominios, será posible traducir las propiedades de una señal de un dominio a otro. ² Desde el punto de vista de los sistemas, la razón fundamental estará ligada al hecho de que el análisis de los mismos se puede ver facilitado en gran medida si en lugar de analizar el problema en el dominio real, lo analizamos sobre la nueva variable espectral. Este hecho viene directamente ligado al concepto de las diferentes representaciones que un operador toma en función de la base elegida en el espacio vectorial sobre el que va a operar. En la Fig. 4.2 se muestra un esquema de este concepto. Un ejemplo sencillo de esta propiedad se puede encontrar en los ejemplos 2 y 3 del Cap. 1.

Figura 4.2. (a) Visualización algebraica general de un problema de señal donde se muestran tanto las relaciones entre los espacios correspondientes a los dominios real y espectral, FK1 Ã! F~K1 y GK2 Ã! G~K2 ; como la relación entre FK1 y GK2 para un cierto sistema descrito por el operador F. (b) Esquema general de análisis de un sistema caracterizado por el operador F a través de su versión espectral F¿ 0 : Nótese que la transformación del dominio real al dominio espectral no es más que un caso particular de operador T: El operador inverso de dicha transformación, T¡1 ; será el encargado de describir realmente el signi…cado propio de la transformación. 4 Tómense como referencia, por ejemplo, los diferentes criterios de convergencia de la transformada de Fourier, que determinan diferentes restricciones sobre el espacio de señales de partida, Secc. 9.3.

c Emilio Gago-Ribas, 2002 °

95

4.2

Espacios de señales de dimensión …nita. Asumiremos en primer lugar que el espacio de señales FK1 analizado es un espacio vectorial de dimensión …nita sobre el que se ha de…nido un producto escalar válido. Denotaremos por a(¿ ) a cualquier señal perteneciente a dichos espacios, esto es, a(¿) 2 FK1 ; Dim fFK1 g = N 2 Z+ :

(4.5)

² Si el espacio es de dimensión …nita signi…ca que cualquier base estará compuesta de N funciones linealmente independientes, siendo N la dimensión del espacio. Consideraremos entonces una base arbitraria descrita por fe(¿; m)gN ´ fem (¿ )gN ; m = 1; :::::; N:

² Diremos que cualquier elemento a(¿) del espacio original de funciones puede representarse en la forma descrita por (2.33), a(¿ ) =

N X

A(m)e(¿ ; m);

(4.6)

m=1

esto es, por una combinación lineal de los elementos de la base. Denotaremos al conjunto de coe…cientes Am por A(m) de forma que quede explicitamente indicada la naturaleza de señal de variable discreta que posee dicho conjunto de coe…cientes. Por coveniencia en posteriores desarrollos, denotaremos al conjunto fem (¿ )gN por fe(¿ ; m)gN : Nótese cómo la variable m ha de ser tomada como un parámetro que identi…ca a cada una de las funciones que componen el conjunto de base. Esta notación quedará más clara cuando extendamos estos resultados a los espacios de dimensión in…nita. ² Teoría de la mejor aproximación. Si la base es, además, ortogonal respecto al producto escalar de…nido en el espacio, diremos que cuando los coe…cientes A(m) son justamente la proyección del elemento a(¿ ) sobre cada uno de los elementos de la base, entonces la combinación lineal de…nida previamente es la mejor aproximación posible a a(¿ ) en términos de fe(¿ ; m)gN : Matemáticamente, A(m) = ha(¿ ); e(¿ ; m)i :

(4.7)

A dicha combinación lineal se la suele denominar desarrollo en serie de Fourier de a(¿ ); independientemente del conjunto de funciones base elegido. Históricamente, el desarrollo de Fourier presupone el uso de una base de funciones seno y coseno. El análisis de que la expresión en (4.6) junto con (4.7) es la mejor aproximación posible puede resumirse en los siguientes pasos: (i) Que la serie en (4.6) sea convergente. Este paso es trivial en espacios de dimensión …nita dado que la serie tiene N términos y por lo tanto, será siempre convergente. Una forma especialmente conveniente de visualizar dicha ecuación será expresarla en forma matricial; podremos entonces escribir, 32 3 3 2 2 A(1) a(1) e(1; 1) e(1; 2) ¢ ¢ ¢ e(1; N ) 76 7 7 6 6 6 a(2) 7 6 e(2; 1) e(2; 2) ¢ ¢ ¢ e(2; N ) 7 6 A(2) 7 76 7 7 6 6 76 7 6 ¢ 7=6 (4.8) ¢ ¢ ¢ ¢ ¢ ¢ ¢ 7 6 7 6 76 7 6 7 6 76 ¢ ¢ ¢ ¢ ¢ ¢ ¢ 54 5 4 ¢ 5 4 e(N; 1) e(N ; 2) ¢ ¢ ¢ e(N; N ) A(N) a(N )

Nótese que en esta representación hemos anticipado de alguna forma que la combinación lineal en (4.6) ha de ser equivalente a un sistema de N ecuaciones con N incógnitas, siendo N la dimensión del espacio, de forma que el sistema pueda tener solución, hecho equivalente a que la serie en (4.6) sea convergente. Esto sugiere que la variable genérica ¿ ha de ser obligatoriamente una variable entera n, hecho que se ha expresado haciendo ¿ ´ n: Podemos así adelantar que los únicos espacios de señales que podrán ser de dimensión …nita serán aquellos cuyos elementos sean funciones de variable discreta5 . Es fácil comprobar que la independencia lineal de los elementos de la base aseguran que el determinante de dicho sistema sea nulo y, por lo tanto, que tenga solución única.

5 Este será el caso, por ejemplo, cuando F K1 ´ D(N0 ); esto es, el espacio de señales periódicas de variable discreta de período N0 que estudiaremos en el Vol. ST-II.

96

c Emilio Gago-Ribas, 2002 °

(ii) Que la serie en (4.6) represente al elemento a(¿ ) ´ a(n) y no a otro. Este hecho queda asegurado cuando los valores de A(m) se obtienen justamente a través del producto escalar de…nido en (4.7). El término ’mejor aproximación posible’ ha de interpretarse en este caso como que la igualdad en (4.6) es exacta en términos de la métrica inducida por el producto escalar, esto es, µ ¶ N P d a(n); A(m)e(n; m) = her(n); er(n)i1=2 = 0; (4.9) m=1

denotando por er(n) a la función resultante de la diferencia entre la fución original a(n) y su expresión en términos de la combinación lineal en (4.6), er(n) = a(n) ¡

N X

A(m)e(n; m);

(4.10)

m=1

y A(m) los valores dados por (4.7). ² Diremos entonces que el desarrollo en serie de Fourier de a(¿ ) ´ a(n) en (4.6) se corresponderá con el operador transformada inversa T¡1 que representa la señal a(n) a partir de una señal discreta A(m) de longitud N perteneciente al espacio D(N): El operador T vendrá expresado en este caso por la ecuación de obtención de los coe…cientes en (4.7). El esquema mostrado en la Fig. 4.1 se podrá particularizar a este caso en la forma mostrada en la Fig. 4.4. La particularización de las expresiones (4.2) y (4.1) quedará como sigue (nótese que, en este caso, la variable espectral ¿ 0 ´ m), 8 9 ¡1 > < T : A(m) ¡! a(n) > = ; a(n); e f(n; m)gN 2 FK1 ; A(m) 2 D(N ); (4.11) N P > : T¡1 (¢) = ; (¢)e(n; m) > m=1

8 9 < T : a(n) ¡! A(m) = : T(¢) ´ h(¢); e(n; m)i ;

; a(a); fe(a; m)gN 2 FK1 ; A(m) 2 D(N ):

(4.12)

Nótese que el espacio genérico FK1 sería también un espacio de señales discretas de dimensión N; esto es, D(N ); aunque se ha conservado la notación original para mantener la generalidad del desarrollo. ² Finalmente, como el conjunto de funciones fe(n; m)gN es una base, deberá ser un conjunto completo, esto es, todo el espacio original de funciones FK1 podrá generarse a partir de dicha base. En la práctica, y dependiendo de cuál sea el conjunto de funciones base, el espacio de señales original FK1 podrá restringirse, aumentarse o mantenerse igual de forma que se cumpla esta propiedad. Este tipo de restricciones vendrá asociado habitualmente al análisis de (4.9). Estas consideraciones será de especial importancia en el caso de espacios de dimensión in…nita. En el caso de dimensión …nita, la completitud de la base viene asegurada por la igualdad en (4.9).

4.3

Espacios de señales de dimensión in…nita. Cuando la dimensión del espacio vectorial bajo análisis FK1 es in…nita, es decir, a(¿ ) 2 FK1 ; Dim fFK1 g ! 1;

(4.13)

el esquema anterior se mantiene teniendo en cuenta una serie de consideraciones importantes. Este será, por ejemplo, el caso de los espacios P (X0 ); S(¡1; 1) y D(¡1; 1); este último con una serie de matizaciones adicionales que se analizarán en el Vol. ST-II. ² Bases.

Considerando ahora un conjunto de base compuesto por un número in…nito de elementos. Podremos pensar entonces en dos tipos de bases: 1. Un conjunto numerable de in…nitas funciones que denotaremos por fe(¿; m)g ; donde la variable discreta ¿ 0 ´ m vuelve a jugar el papel de un parámetro que determina cada una de las funciones del conjunto.

c Emilio Gago-Ribas, 2002 °

97

rango de valores de la variable m como parámetro descriptivo del conjunto {e(τ;m)}

8

e(τ;m) m = 2(2ξ0)

6

m = 1(ξ0)

4

m=0

2 0 -2 -3(ξ0) -2(ξ0) -1(ξ0) 0(ξ0)

1(ξ0)

m (mξ0)

2(ξ0)

3(ξ0) -4 -4 8

-2

e(τ;ξ) ξ=2

0

τ

2

4

0

τ

2

4

ξ = 1.3

6

ξ=1

4

ξ = 0.5 ξ=0

2 -3

-2

-1

0

1

2

3

ξ

rango de valores de la variable ξ como parámetro descriptivo del conjunto {e(τ;ξ)}

0 -2 -4 -4

-2

Figura 4.3. Algunos ejemplos de conjuntos in…nitos y numerables, fe(¿ ; m)g ; y continuos, fe(¿ ; »)g de funciones. En el primer caso se han representado ejemplos de las funciones e(¿ ; 0); e(¿ ; 1) y e(¿ ; 2): En el segundo caso se han representado cinco funciones correspondientes a los valores » = 0; 0:5» 0 ; »0 ; 1:3» 0 y 2» 0 ; siendo » 0 un valor de referencia asociado habitualmente a la forma de las funciones e(¿ ; »):

2. Un conjunto continuo de funciones que denotaremos por fe(¿ ; »)g : El continuo de funciones vendrá descrito justamente por la variable contiua ¿ 0 ´ » funcionando, desde este punto de vista, como el parámetro que identi…ca a cada una de las funciones del conjunto continuo. En la Fig. 4.3 se muestran algunos ejemplos de estas representaciones. ² Combinaciones lineales. La combinación lineal en (4.6) se convierte ahora en uno de los siguientes casos: 1. Una combinación lineal in…nita y discreta, 1 X

a(¿ ) =

A(m)e(¿ ; m):

(4.14)

A(»)e(¿ ; ») d»:

(4.15)

m=¡1

2. Una combinación lineal continua, a(¿ ) =

Z

1

»=¡1

² Coe…cientes.

Si la base es, además, ortogonal respecto al producto escalar de…nido en el espacio de partida FK1 ; el valor de los coe…cientes de dichas combinaciones lineales podrá escribirse en términos de dicho producto escalar para lograr así obtener la mejor aproximación posible al elemento original. Diremos entonces que, 1. En el primer caso, los coe…cientes A(m) serán un conjunto in…nito y numerable y, por lo tanto, discreto dado por, A(m) = ha(¿); e(¿; m)i :

98

(4.16) c Emilio Gago-Ribas, 2002 °

Así, el espacio de llegada F~K1 de la transformación será el espacio de señales discretas D(¡1; 1):

2. En el segundo caso, el conjunto de coe…cientes A(») será un conjunto continuo dado por, A(») = ha(¿ ); e(¿ ; »)i :

(4.17)

En este último caso, la lista continua de coe…cientes respresentará una nueva función compleja en términos del parámetro » considerando a éste como una nueva variable, y que denominaremos normalmente como transformada de a(¿): El espacio de llegada F~K1 de la transformación será ahora un espacio de señales de variable continua, por ejemplo, S(¡1; 1). La transformada A(») puede ser vista entonces como6 el conjunto de coe…cientes necesarios para representar a(¿ ) en términos de la base continua de funciones fe(¿ ; »)g : ² Pares de transformaciones. 1. Combinación lineal in…nita y discreta (la variable espectral ¿ 0 ´ m): A la combinación lineal discreta in…nita en (4.14) junto con el valor de los coe…cientes dado por (4.16) le seguiremos denominando desarrollo en serie de Fourier de la señal a(¿) independientemente de cuál sea el conjunto de funciones fe(¿; m)g : Diremos entonces que el desarrollo en serie de a(¿) en (4.14) se corresponde con el operador T¡1 que nos provée de la representación de a(¿ ) a partir de una señal discreta in…nita A(m) 2 D(¡1; 1): El operador transformada directa, o transformada simplemente, T; vendrá dado por la ecuación de obtención de los coe…cientes en (4.16). El esquema mostrado en la Fig. 4.1 se podría particularizar a este caso en la forma mostrada en la Fig. 4.5. Las expresiones generales en (4.2) y (4.1) quedarán particularizadas de la siguiente forma, 8 ¡1 9 T : D(¡1; 1) ¡! FK1 > > > > > > < = ¡1 a(¿) = T [A(m)] ; a(¿); fe(¿; m)g 2 FK1 ; A(m) 2 D(¡1; 1): (4.18) > > 1 P > > > > ¡1 : T (¢) = (¢)e(¿ ; m) ; m=¡1

8 > T : FK1 ¡! D(¡1; 1) > < A(m) = T [a(¿ )] > > : T(¢) ´ h(¢); e(¿ ; m)i

9 > > = > > ;

; a(¿ ); fe(¿ ; m)g 2 FK1 ; A(m) 2 D(¡1; 1):

(4.19)

2. Combinación lineal continua (la variable espectral ¿ 0 ´ »): A la pareja formada por la señal original, a(¿ ); expresada en términos de la combinación lineal continua en (4.15), junto con el valor de los coe…cientes en (4.17), representados por la función A(»); formarán el par transformado de a(¿): Diremos entonces que su expresión en (4.15) se corresponde con el operador transformada inverso T¡1 que nos provée de la representación del elemento original a(¿ ) a partir de una señal continua A(») 2 F~K1 : El operador transformada, T; vendrá dado por la ecuación de obtención de los coe…cientes en (4.17). El esquema mostrado en la Fig. 4.1 se podría particularizar a este caso en la forma mostrada en la Fig. 4.6, quedando las expresiones (4.2) y (4.1) particularizadas de la siguiente forma, 8 9 T¡1 : F~K1 ¡! FK1 > > > > > > < = a(¿ ) =ZT¡1 [A(»)] ; a(¿ ); fe(¿ ; »)g 2 FK1 ; A(») 2 F~K1 : (4.20) > > > > > > ¡1 : T (¢) = (¢)e(¿ ; ») d» ; »

8 > T : FK1 ¡! F~K1 > < A(») = T [a(¿ )] > > : T(¢) ´ h(¢); e(¿ ; »)i

9 > > = > > ;

; a(¿); fe(¿ ; »)g 2 FK1 ; A(») 2 F~K1 :

(4.21)

6 Nótese que, dependiendo de cual sea el conjunto continuo de funciones fe(¿ ; »)g así tendremos un conjunto de coe…cientes A(»); asumiendo que la señal a(¿ ) es …ja.

c Emilio Gago-Ribas, 2002 °

99

² Análisis de la mejor aproximación.

El análisis de la mejor aproximación pasará en este caso por: (i) Analizar la convergencia de la serie en (4.14) o del operador integral en (4.15); nótese cómo en estos casos ya no es posible representar el operador T¡1 como un sistema de ecuaciones, como ocurría en los espacios de dimensión …nita. (ii) Analizar la convergencia de (4.14) ó de (4.15) al elemento a(¿ ) original.

En estos casos, la teoría de la mejor aproximación asegura que: 1. Las combinaciones lineales en (4.14) y (4.15) son convergentes si la base es ortogonal. 2. Si los coe…cientes vienen dados por el producto escalar, (4.16) ó (4.17), las expresiones (4.14) y (4.15) constituyen la mejor aproximación posible al elemento original en virtud de la métrica inducida por dicho producto escalar. Habitualmente, esta condición llevará a las siguientes a…rmaciones: (a) En el caso de combinaciones lineales discretas, µ ¶ 1 P d a(¿); A(m)e(¿ ; m) = her(¿); er(¿ )i ! 0:

(4.22)

m=¡1

(b) En el caso de combinaciones lineales continuas, µ ¶ Z 1 d a(¿ ); A(»)e(¿; ») d» = her(¿); er(¿ )i ! 0:

(4.23)

¡1

En ambos casos denotamos como er(¿ ) a las funciones resultantes de la diferencia entre la función original a(¿ ) y su expresión en términos, bien de la combinación lineal en (4.14), bien del operador integral en (4.15), er(¿ ) = a(¿ ) ¡

er(¿ ) = a(¿ ) ¡

1 X

A(m)e(¿ ; m);

(4.24)

A(»)e(¿; ») d»:

(4.25)

m=¡1

Z

1

¡1

² Completitud.

Este paso resulta especialmente complicado cuando los espacios de señales son de dimensión in…nita. Su análisis pasará por el estudio de la métrica natural representada en (4.22) ó (4.23); el resultado habitual de dicho estudio será la rede…nición del espacio de partida FK1 para que dicha propiedad se satisfaga. Esto será así en virtud de la forma habitual de abordar el problema que describiremos en la Secc. 4.4.

² Comentarios.

Resulta importante mencionar que el paso de la variable discreta m a la variable continua » estará normalmente relacionado con algún valor de referencia » 0 asociado habitualmente a la forma que tomen las funciones de la base elegida de forma que la relación entre ambos conjuntos de funciones se podrá ver como fe(¿ ; m)g = fe(¿ ; m» 0 )g y, por lo tanto, A(m) ´ A(m» 0 ); por ejemplo. Este aspecto quedará más claro al analizar transformaciones especí…cas como las estudiadas en el presente texto y constituirá la base para entender el paso de una variable in…nita y numerable a una variable continua.

100

c Emilio Gago-Ribas, 2002 °

Figura 4.4. Representación en forma de sistema de un problema de transformación de señales a través de un operador transformada T: El espacio FK1 ; de dimensión …nita, tiene conjuntos base …nitos y, por lo tanto, numerables, siendo el espacio transformado el espacio de señales discretas D(N ) de longitud N = Dim hFK1 i cuyos elementos son los coe…cientes A(m) de la transformación descritos en forma de funciones sobre la variable discreta m:

Figura 4.5. Representación en forma de sistema de un problema de transformación de señales a través de un operador transformada T: El espacio FK1 ; de dimensión in…nita, tiene conjuntos base numerables, siendo el espacio transformado el espacio de señales discretas D(¡1; 1) cuyos elementos son los coe…cientes A(m) de la transformación descritos en forma de funciones sobre la variable discreta m:

Figura 4.6. Representación en forma de sistema de un problema de transformación de señales a través de un operador transformada T: El espacio FK1 ; de dimensión in…nita, tiene conjuntos base continuos, siendo el espacio transformado un nuevo espacio de señales F~K1 cuyos elementos son los coe…cientes A(») de la transformación descritos en forma de funciones sobre la variable continua »:

c Emilio Gago-Ribas, 2002 °

101

4.4

Análisis de un conjunto de señales como base de un espacio. Con los conceptos descritos en las Seccs. 4.2 y 4.3, el problema habitual será, una vez más, el comprobar si un subconjunto de funciones de un espacio de funciones dado constituye una base adecuada de dicho espacio. El proceso a seguir generalizará de alguna manera los conceptos asociados tanto a espacios de dimensión …nita como in…nita y se basará en el siguiente esquema general. ² Ortogonalidad.

Comprobaremos que el conjunto de in…nitas funciones es ortogonal respecto al producto escalar de…nido sobre el espacio vectorial de partida.

² Cálculo de los coe…cientes.

Comprobaremos que a partir de las combinaciones lineales en (4.6), (4.14) ó (4.15) existe una expresión de los coe…cientes en términos del producto escalar de…nido en el espacio.

² Mejor aproximación.

Comprobaremos que para cualquier elemento a(¿ ) del espacio, su representación en términos de la combinación lineal de los elementos de la base en la forma dada por (4.6), (4.14) ó (4.15) cuando los coe…cientes se obtienen a través del producto escalar, (4.7), (4.16) ó (4.17), constituye la mejor aproximación posible de dicho elemento. Esto lo haremos a través de la métrica de…nida en el espacio de funciones, es decir, a través de la distancia existente entre entre el elemento original a(¿) a representar, y su transformacion inversa T¡1 ; ¡ ¢ d a(¿ ); T¡1 [A(¿ 0 )] : (4.26)

Estas ’medidas’ nos permitirán entender el sentido de las igualdades en (4.6), (4.14) ó (4.15). Dicho en otras palabras, cómo hay que entender la igualdad entre el elemento original a(¿ ) y su representación en términos de un conjunto de funciones fe(¿ ; ¿ 0 )g en términos de la métrica natual de…nida en el espacio de partida correspondiente. ² Completitud.

La forma habitual de abordar el problema de la completitud de la base será a través de la de…nición de los criterior de convergencia de T¡1 [A(m)] en (4.14) ó T¡1 [A(»)] en (4.15). Estos criterios de convergencia serán una consecuencia del análisis de (4.26). Obtendremos así una serie de restricciones adicionales sobre los espacios de partida que darán lugar a nuevos espacios donde aseguraremos que las combinaciones lineales discreta o continua son convergentes, y por lo tanto, que el conjunto de funciones elegido sí es completo respecto a los nuevos espacios de señales obtenidos.

² Funciones propias.

Comprobaremos que el conjunto de funciones fe(¿ ; m)g ó fe(¿ ; »)g seleccionado en FK1 es el adecuado respecto al operador F o espacios de operadores bajo análisis, por ejemplo, L(F K1 ) ó LI(F K1 ); Fig. 4.2. Una vez más, este hecho se traducirá habitualmente en probar la condición general de funciones propias expresada en (4.4).

102

c Emilio Gago-Ribas, 2002 °

4.5

Ejemplos de espacios de señales, funciones base y transformaciones. D(N0 ) D(¡1; 1) D2 (¡1; 1) P (X0 ); P (2¼) P~ (X0 ) P~ 2 (X0 ) ~ S(¡1; 1) 2 L (¡1; 1) C(ROC)

Espacio de señales complejas de variable discreta de período N0 : Espacio se señales complejas de variable discreta de…nidas para todo n: Subespacio de D(¡1; 1) de aquellas señales que son cuadrado sumables. Espacio de señales complejas de variable real y de período X0 (2¼):

Espacio de señales complejas (funciones y distribuciones) de variable real y de período X0 : Subespacio de P~ (X0 ) de aquellas señales que son cuadrado integrables. Espacio de señales complejas (funciones y distribuciones) de variable real de…nidas para todo x:

~ Subespacio de S(¡1; 1) de aquellas señales que son cuadrado integrables.

Espacios de funciones complejas de variable compleja para los cuales la transformación

T¡1 correspondiente es convergente (región de convergencia, ROC). -m = m-0 ; -0 = 2¼=N0 ; » m = m» 0 ; » 0 = 2¼=X0 ; » = 2¼=X; s0 = Refsg

N Dim fFK1 g

FK1

D. Real (¿ )

$

$

F~K1

Transformaciones: 0

D. Esp. (¿ )

Funciones base: fe(¿ ; ¿ 0 )gN

T : a(¿ ) ! A(¿ 0 )

T¡1 : A(¿ 0 ) ! a(¿ )

Desarrollo en serie de Fourier (señales de variable discreta) N0

D(N0 ) $ D(N0 ) n2Z $ m2Z © jm- n ª 0 fÁ0 (n; m)g = e

a0 (m) = DSF [x0 (n)] = hx0 (n); Á0 (n; m)i P x0 (n) = DSF¡1 [a0 (m)] = a0 (m)Á0 (n; m)

D2 (¡1; 1) $ P (2¼) n2Z $ -2R © ª fÁ(n; -)g = ej-n

X(-) = TF [x(n)] = hx(n); Á(n; -)i R 1 x(n) = TF¡1 [X(-)] = 2¼ X(-)Á(n; -)d-

m=hN0 i

Transformada de Fourier (señales de variable discreta)

1



Transformada Z (señales de variable discreta)

1

D2 (¡1; 1) $ C(ROC) n2Z $ z2C fÁ(n; z)g = fz n g

X x(n) Á(n; z) n H 1 x(n) = TZ¡1 [X(z)] = 2¼j X(z) = TZ [x(n)] =

jzj=cte

X(z) z Á(n; z)dz

Desarrollo en serie de Fourier (señales de variable continua) 1

P 2 (X0 ) $ D(¡1; 1) x2R $ m2Z © j» x ª f'0 (x; m)g = e 0

a(m) = DSF [f0 (x)] = hf0 (x); '0 (x; m)i P f0 (x) = DSF¡1 [a(m)] = a(m)'0 (x; m) m

Transformada de Fourier (señales de variable continua)

2

1

1

L (¡1; 1) $ L2 (¡1; 1) x2R $ »2R © ª f'(x; »)g = ej»x

F (») = TF [f (x)] = hf (x); '(x; »)i R 1 f(x) = TF¡1 [F (»)] = 2¼ F (»)'(x; »)d» »

Transformada de Laplace (señales de variable continua) R f (x) ~ S(¡1; 1) $ C(ROC) F (s) = TL [f(x)] = x '(x;s) dx R x2R $ s2C 1 f (x) = TL¡1 [F (s)] = 2¼j F (s)'(x; s)ds f'(x; s)g = fesx g s0 =cte

c Emilio Gago-Ribas, 2002 °

103

4.6

Otras transformadas. Enumeraremos a continuación otras transformadas de gran importancia en la práctica. Su análisis detallado se deja para futuros textos. En [34] se puede encontrar una buena introducción a algunas de las transformadas citadas a continuación. ² Transformada de Fourier en coseno y en seno.

² Transformada de Hartley. ² Transformada de Bessel.

² Transformada de Hankel. ² Transformada de Mellin. ² Transformada de Abel.

² Transformada de Hilbert.

² Transformada de Gabor. ² Transformada Wavelet.

² Transformada de Gel’fand-Levitan-Marchenco.

104

c Emilio Gago-Ribas, 2002 °

Señales y Sistemas de Variable Continua

105

5.

Señales de Partida Importantes

5.1

Introducción. Comenzaremos la parte correspondiente a las señales y los sistemas continuos describiendo el comportamiento de algunas de las señales de partida de mayor importancia a lo largo del presente texto. Estas señales pertenecerán a los espacios P (X0 ) y S(¡1; 1) descritos en el Cap. 2. El álgebra de…nida sobre dichos espacios se puede encontrar en las Seccs. 2.6.1 y 2.6.2, y será de aplicación sobre las señales estudiadas en el presente capítulo, así como los parámetros de señal descritos en la Secc. 2.9. Las señales aquí analizadas serán la base de posteriores desarrollos en el estudio de los dominios transformados, en particular, el Desarrollo en Serie de Fourier, la Transformada de Fourier, y la Transformada de Laplace de señales unidimensionales, Caps 8, 9 y 11, respectivamente. Aunque fuera del contexto de este libro, se presentará también a modo de ejemplo un caso de señal bidimensional de gran importancia a la hora de analizar problemas …sico-matemáticos relacionados con la propagación de señales. A su vez, el estudio de estas señales debería servir como introducción a la teoría de señales multidimensionales, teoría que surge como una extensión de la abordada en este libro.

5.2 5.2.1

Espacio de señales periódicas. Señales sinusoidales. ² Dominio temporal. 1. Consideremos inicialmente que la variable independiente representa el tiempo t; una señal senoidal de período T0 vendrá de…nida por, ) )µ ) ( ( ( ¶ sin sin sin 2¼ ('t ): (5.1) (! 0 t) = A f0 (t) = A t =A T0 cos cos cos Resulta evidente que el factor de escala ! 0 = 2¼=T0 se introduce para que el argumento total de la función 't sea un ángulo (medido habitualmente en radianes). De esta forma logramos que para todo valor t = mT0 ; el argumento recorra una vuelta completa entre 0 y 2¼ rad. logrando así una señal senoidal como la representada en la Fig. 5.1(a). Al factor de escala ! 0 se le denomina pulsación de la señal (rad/s); denominando f0 = 1=T0 (Hz=s-1 ) a la frecuencia de la señal, las siguientes relaciones resultan evidentes, !0 =

2¼ = 2¼f0 : T0

(5.2)

Ambos parámetros miden la rapidez de ‡uctuación de la señal sinusoidal en el tiempo. Si ! 0 ó f0 aumentan, T0 disminuye, o viceversa, y la señal varía en t más rápidamente; de forma similar, si !0 ó f0 disminuyen, T0 aumenta, o viceversa, y la señal variará en t más lentamente. Finalmente, el factor A representará la amplitud de dicha señal senoidal. Resulta evidente que existe, por lo tanto, una relación intrínseca entre el ángulo 't y los valores temporales, relación que es lineal en la forma 't = ! 0 t: La linealidad en el tiempo de dicha relación nos permite identi…car rápidamente la siguiente tabla, 't (rad) t (s)

¡2¼ ¡T0

¡3¼=2 ¡3T0 =4

¡¼ ¡T0 =2

¡¼=2 ¡T0 =4

0 0

¼=2 T0 =4

¼ T0 =2

3¼=2 3T0 =4

2¼ T0

(5.3)

2. Consideremos ahora un desplazamiento de dicha señal en el tiempo en la forma, ( ) ( ) ( ) µ ¶¸ sin sin sin '0 f0 (t + t0 ) = A (! 0 t + '0 ) = A !0 t + =A !0 (t + t0 ): !0 cos cos cos (5.4) 107

2

sin(ω0t)

2

1

1

0

0

-1

-1

-2 -1 2

0

1

sin(ω0t + ϕ0)

t

2

3

2

1

0

0

-1

-1

0

1

t

2

3

(a)

-2 -1

1

-2 -1

cos(ω0t)

0

1

cos(ω0t + ϕ0)

-2 -1

t

2

3

(b)

0

1

t

2

3

Figura 5.1. Ejemplos de señales sinusoidales en el dominio del tiempo de período T0 = 1 s. y amplitud A = 1: (a) señales de referencia de fase '0 = 0; y (b) señales retrasadas T0 = 3=4 s. es decir, con una fase '0 = ¡3¼=2 rad. En ambas …guras se ha destacado en negrita un período de referencia.

Si t0 > 0; la señal estará adelantada un tiempo t0 respecto a (5.1), mientras que si t0 < 0; la señal estará retrasada un tiempo igual a jt0 j respecto a (5.1). La relación entre '0 y t0 es, evidentemente, la misma que entre 't y t; de forma que la tabla anterior es válida para medir retrasos o adelantos de una señal de fase '0 respecto a una señal de fase nula '0 = 0 considerada ésta como señal de referencia. Así, para la expresión (5.4), ' ' t0 = 0 = 0 T0 (s) (5.5) !0 2¼ Nótese que los desfases temporales vienen expresados en términos del período T0 de la señal. El signo de t0 será el que indique adelanto o retraso de la señal respecto a una señal de referencia de fase nula. Así por ejemplo, un desfase '0 = ¼ (rad) producirá un adelanto temporal de valor t0 = T0 =2: En la Fig. 5.1(b) se muestra un ejemplo de señales sinusoidales desplazadas. 3. Todas estas consideraciones, aunque en principio son bien conocidas, se detallan aquí dada su importancia a la hora de analizar e interpretar resultados de problemas …sico-matemáticos analizados bajo variación armónica y/o régimen sinusoidal permanente (RSP). En general, bajo RSP, una cierta magnitud vendrá representada por un fasor complejo F = jF j ej'F ; de forma que la variación temporal vendrá dada por F ej!0 t a una cierta pulsación ! 0 : Como se verá, la información de la amplitud senoidal vendrá dada por el módulo del fasor, jF j ´ A; mientras que la información de la fase vendrá dada por 'F ´ '0 (referirse a la Secc.. 5.2.2). La interpretación de la fase en el tiempo resulta evidente sin más que obtener el desfase temporal dado por t0 ; (5.5), determinando así los posibles adelantos o retrasos de dicha magnitud frente a una señal de referencia pre…jada de fase nula. ² Generalización a una variable arbitraria. Siguiendo la notación del presente texto, podremos generalizar las consideraciones realizadas previamente para una cierta variable x en la forma, ( )µ ( ) ( ) ¶ sin 2¼ sin sin f0 (x) = A x =A (» 0 x) = A ('x ); (5.6) X0 cos cos cos para una señal de fase nula, y ( ) ( ) ( ) µ ¶¸ sin sin sin '0 f0 (x) = A (» 0 x + '0 ) = A »0 x + =A [» 0 (x + x0 )] ; »0 cos cos cos 108

(5.7)

c Emilio Gago-Ribas, 2002 °

para una señal de fase '0 6= 0: Con esta notación general diremos que: 1. » 0 es la pulsación asociada a la variable x (rad/Un(x)): 2. X0 es el período de la señal (Un(x)), que identi…ca al período del espacio de señales P (X0 ): 3. x0 será el desplazamiento en x asociado al desfase '0 de la señal. 4. Las sigueintes relaciones seguirán siendo válidas, x0 =

'0 ' = 0 X0 ; »0 2¼

(5.8)

donde según sea x0 > 0 ó x0 < 0; la señal estará desplazada hacia la izquierda o hacia la derecha respecto a una señal de referencia de fase nula. ² Notaciones habituales. Con carácter de generalidad, a lo largor del presente texto usaremos la variable x para identi…car cualquier variable física. En este sentido, las notaciones más habituales serán las correspondientes a los casos cuando x ´ t y cuando x ´ z; representando en este último caso una variable espacial genérica. La notación para el tiempo ya fue introducida previamente, repitiéndose aquí sólamente por homogeneidad en el texto. 1. x ´ t : Período (X0 ) Pulsación (» 0 ) Frecuencia

Notación habitual

Denominación habitual

Unidades

T0 !0 f0

Período

s

Pulsación

rad/s

Frecuencia

Hz=s-1

f0 (t) = A sin(!0 t + '0 ); g0 (t) = A cos(! 0 t + '0 ): 2. x ´ z : Período (X0 ) Pulsación (» 0 )

Notación habitual

Denominación habitual

Unidades

¸0 k0 ; ¯ 0

Longitud de onda

m

Número de onda

rad/m

Frecuencia

m-1

f0 (z) = A sin(¯ 0 z + '0 ); g0 (z) = A cos(¯ 0 z + '0 ): Longitud de onda, número de onda1 y frecuencia espacial.

² Representación en partes real-imaginaria y módulo-fase. A pesar de la sencillez de estas señales, conviene analizar sus posibles representaciones dado que, en general, trabajaremos con funciones complejas de variable real, de forma que éstas, siendo reales, serán un caso particular del espacio de señales general. Resulta evidente en este caso que, 8 9 < Re ff0 (x)g = A sin(» 0 x + '0 ) = f0 (x) = A sin(» 0 x + '0 ) ¡! (5.9) : Im ff (x)g = 0 ; 0 8 9 jf0 (x)j = A jsin(» 0 x + '0 )j > > > > < ( ) = f0 (x) = A sin(» 0 x + '0 ) ¡! 0; sgn ff0 (x)g > 0 > > > > : Fase ff0 (x)g = ; ¼; sgn ff0 (x)g < 0

(5.10)

En la Fig. 5.2 se muestra un ejemplo de la representación de estas señales para la función seno. La representación para la función coseno es totalmente similar. 1 La notación empleada en este caso adquiere todo su sentido cuando se analizan señales sinusoidales que representan fenómenos propagativos, esto es, señales de la forma f (t; z) = sin(!0 t ¨ ¯ 0 z): Este caso particular de señales 2D será analizado en la Secc. 5.4. Por otro lado, citar que no es habitual trabajar con frecuencias espaciales, aunque se podría hacer sin más que identi…car la frecuencia espacial con el inverso de la longitud de onda.

c Emilio Gago-Ribas, 2002 °

109

2

Re{sin(ξ0x + ϕ0)}

2,0

1

1,5

0

1,0

-1

0,5

-2 -1,0 2

-0,5

0,0

Im{sin(ξ0x + ϕ0)}

0,5

x

1,0

1,5

2,0

|sin(ξ0x + ϕ0)|

0,0 -1,0

-0,5

0,0

0,5

x

1,0

1,5

2,0

-0,5

0,0

0,5

x

1,0

1,5

2,0

Fase{sin(ξ0x + ϕ0)}

1,0π 1

0,5π 0,0π

0

-0,5π

-1

-1,0π -2 -1,0

-0,5

0,0

0,5

x

1,0

1,5

2,0

-1,0

Figura 5.2. Señal senoidal de amplitud A = 1; período X0 = 1; y fase '0 = ¼ rad. representada en sus partes real e imaginaria, y en módulo y fase.

² Propiedades. 1. sin » 0 x : real, impar y antihermítica. 2. cos » 0 x : real, par y hermítica. ² Parámetros característicos. En base a las de…niciones realizadas en la Secc. 2.9, podremos de…nir los parámetros característicos de señales sinusoidales. En la Fig. 5.3 se muestra la interpretación grá…ca de estos valores. 1. Valor medio: el valor medio de cualquier señal sinusoidal de período X0 ; de amplitud A; y de fase '0 , (5.7), es nulo. En otras palabras, su componente continua es siempre cero, (Ap. E.6), (5.11)

hf0 (x)i = 0: 2. Potencia instantánea: como estas señales son reales, jf0 (x)j2 = f02 (x); de forma que ( ) sin2 A2 A2 2 P [f0 (x)] = A (» x + ' ) = ¨ cos(2» 0 x + 2'0 ): 0 0 2 2 cos2

(5.12)

A la vista de estas señales se puede deducir rápidamente que su valor medio o componente continua es A2 =2; coincidiendo con el valor que se obtendrá en (5.14). Además, la potencia instantánea será una nueva señal periódica de pulsación 2» 0 ; esto es, de período X0 =2: Lógicamente, dado que el período fundamental es la mitad del período original, las señales P [f0 (x)] pertenecerán también al espacio original P (X0 ): Finalmente, la fase original vendrá multiplicada por dos, de forma que el desfase asociado a la variable independiente se mantendrá sin 2 cambios (i) respecto a la señal de referencia A2 cos(2» 0 x) para el caso del coseno, y (ii) respecto 2 a la señal de referencia ¡ A2 cos(2» 0 x) para el caso del seno, x0 = 2'0 =2» 0 = '0 =» 0 :

3. Energía: según lo dicho en relación con (2.93) la energía de una señal sinusoidal de…nida sobre un período tomará el valor, (Ap. E.6), E [f0 (x)] =

110

A2 X0 : 2

(5.13)

c Emilio Gago-Ribas, 2002 °

4

sin(ξ0x + ϕ0)



4

2

2

0

0

-2

-2

cos(ξ0x + ϕ0)



(b)

(a) -4 -1,0

-0,5

P1[f0(x)]

4

0,0

0,5

x

1,0

X0

1,5

-4 -1,0

2,0

E[f0(x)]

4

2

2

0

0

-2

-2

-0,5

P1[f0(x)]

0,0

0,5

x 0

1,0

X0

1,5

(c) -4 -1,0

-0,5

0,0

Pref[f0(x)] x

x0

0,5

1,0

1,5

2,0

2,0

E[f0(x)]

(d) -4 -1,0

-0,5

Pref[f0(x)]

0,0

x

x0

0,5

1,0

1,5

2,0

Figura 5.3. Parámetros característicos de dos señales sinusoidales de amplitud, período y fase A = 2; X0 = 1 y '0 = 3¼=2 rad: (a) Señal seno y valor medio; (b) Señal coseno y valor medio; (c) Para la señal en (a): potencia instantánea, media y energía, y (d) Mismos parámetros para la señal en (b). Se han incluído también las siguientes representaciones: (i) las señales de referencia para la potencia instantánea, Pre f [f0 (x)] ; y (ii) la potencia instantánea sin su valor medio, P1 [f0 (x)] :

4. Potencia media: el valor medio de la potencia, hP [f0 (x)]i ; será el valor medio de las funciones en (5.12). Resulta evidente que dicho valor, promediado a un período, será el valor de la energía dividido por X0 ; esto es, el valor al cuadrado de su amplitud dividido por dos, hP [f0 (x)]i = A2 =2:

(5.14)

Como ya habiamos adelantado, la potencia media representa una densidad de energía por unidad de x, en este caso, la distribución de energía en un período. 5.2.2

Exponenciales de exponente imaginario.

La descripción de estas funciones resulta de especial importancia en los desarrollos de este libro. En particular, si el período de la señal es …jo, X0 ; el subespacio de señales generado a partir de considerar este tipo de señales de períodos X0m = X0 =m; actuará como base del espacio de señales periódicas de período X0 , dando lugar al desarrollo en serie de Fourier tratado en el Cap. 8. Realizando una extensión analítica de X0m = X0 =m ! X; esto es, haciendo que el período deje de ser un múltiplo divisor de X0 y se convierta en una variable o parámetro continuo descriptivo de un nuevo subespacio de señales, las mismas funciones actuarán como base del espacio de señales aperiódicas de…nidas para todo x en la transformada de Fourier analizada en el Cap. 9. Describiremos inicialmente este tipo de señales asumiendo que pertenecen al espacio P (X0 ) donde el período X0 o cualquier múltiplo divisor de éste se supone de valor …jo.

c Emilio Gago-Ribas, 2002 °

111

² Representación inicial. Consideraremos una representación inicial de una exponencial de exponente imaginario como una combinación lineal compleja de funciones coseno y seno de pulsación » 0 = 2¼=X0 en la forma, f0 (x) = ej»0 x = cos » 0 x + j sin » 0 x:

(5.15)

Obviamente, la señal compleja resultante de dicha combinación lineal también será una señal periódica de período X0 : Resulta evidente que su descripción en partes real e imaginaria vendrá dada por, Re ff0 (x)g = cos » 0 x;

(5.16)

Im ff0 (x)g = sin » 0 x:

(5.17)

De forma similar, su representación en módulo y fase vendrá dada por, jf0 (x)j = 1;

(5.18)

'f0 (x) = » 0 x:

(5.19)

Resulta trivial generalizar dicha representación cuando las exponenciales tengan una amplitud diferente de la unidad y una fase diferente de cero. ² Representación en partes real-imaginaria y en módulo-fase. Fasores. Consideremos una exponencial en la forma, f0 (x) = Aej(»0 x+'0 ) = A cos(» 0 x + '0 ) + jA sin(» 0 x + '0 ); A 2 R:

(5.20)

Su análisis se reducirá al realizado en el apartado anterior para señales sinusiodales considerando que la función coseno representa la parte real de la señal y que la función seno representa su parte imaginaria. Desde el punto de vista de su análisis en módulo y fase, resultan evidentes las siguientes relaciones, jf0 (x)j = A;

(5.21)

'f0 (x) = » 0 x + '0 :

(5.22)

En base a esta representación, y teniendo en cuenta que f0 (x) = Aej(»0 x+'0 ) = Aej»0 x ej'0 ;

(5.23)

podremos de…nir un número complejo F~ = Aej'0 que describa la amplitud y fase de la exponencial. A dicho número se le denominará habitualmente por el término de fasor, esto es, dado un cierto fasor F~ descriptivo de una determinada magnitud, se asume que la variación de dicha magnitud respecto a una cierta variable x es de la forma, f0 (x) = F~ ej»0 x ;

(5.24)

de forma que: (i) el módulo de F~ determina la amplitud de la exponencial, y por lo tanto de las señales ceseno y seno, y (ii) la fase de F~ determina la fase de la exponencial, y por lo tanto, de las señales sinusoidales que la forman, 8 9 < Re ff0 (x)g =j F~ j cos(» 0 x + 'F~ ) = f0 (x) = F~ ej»0 x ¡! ; (5.25) : Im ff (x)g =j F~ j sin(» x + ' ) ; ~ 0 0 F f0 (x) = F~ ej»0 x ¡!

8 < jf0 (x)j =j F~ j

9 =

: Fase ff (x)g = » x + ' ; 0 0 F~

:

(5.26)

En la Fig. 5.4 se muestra un ejemplo de estas señales y su relación con F~ en sus representaciones real-imaginaria y módulo-fase. 112

c Emilio Gago-Ribas, 2002 °

3

Re{f0(x)}

x0 2,5

2

|f0(x)|

2,0

1 1,5 0 1,0 -1 0,5

-2 -3 -1,0 3

-0,5

Im{f0(x)}

0,0

x0

x

0,5

1,0

1,5

2,0

0,0 -1,0

-0,5

Fase{f0(x)}

0,0

x

0,5

1,0

1,5

2,0

0,0

x

0,5

1,0

1,5

2,0

x0

1,00π 2 1

0,50π

0

0,00π

-1

-0,50π

-2 -3 -1,0

-1,00π -0,5

0,0

x

0,5

1,0

1,5

2,0

-1,0

-0,5

Figura 5.4. Exponenencial de exponente imaginaria de período X0 = 1 descritas por los fasores F~ = 1 (j F~ j= 1; 'F~ = 0); y F~ = 2ej¼=2 (j F~ j= 2; 'F~ = ¼=2): En este segundo caso, el desfase de ¼=2 rad. representa un desplazamiento de la señal a la izquierda de valor jx0 j = X0 =4: En ambas …guras se ha destacado un período de referencia.

² Notaciones habituales. Las notaciones habituales serán las mismas que en el caso de las señales sinusoidales. 1. x ´ t : f0 (x) = F~ ej!0 t :

2. x ´ z : f0 (x) = F~ e¡j¯ 0 z : La justi…cación de este cambio de signo se puede encontrar en la Secc. 5.4.

² Propiedades. f0 (x) = ej»0 x :

¡ ¢¤ 1. Compleja y hermítica, dado que f0¤ (¡x) = e¡j»0 x = ej»0 x = f0 (x):

2. Su parte real es par y hermítica y su parte imaginaria impar y antihermítica. 3. Su módulo es constante, y por lo tanto par. Su fase es lineal con x; siendo » 0 el valor de su pendiente. ² Parámetros característicos. Dado que este tipo de exponenciales son una combinación lienal de señales sinusoidales, los parámetros característicos estarán directamente relacionados con los de estas últimas. En la Fig. 5.5 se muestra una descripción grá…ca de estos valores. 1. Valor medio: el valor medio de cualquier señal exponencial de fasor F~ ; (5.24), es nulo en base a (5.11), esto es, su componente continua es siempre cero, hf0 (x)i = hf00 (x)i + j hf000 (x)i = 0 + j0:

(5.27)

2. Potencia instantánea: la potencia instantánea vendrá dada por jf0 (x)j2 ; de forma que para una señal en la forma descrita por (5.20) ó (5.24), la potencia instantánea será constante con x y de valor igual al cuadrado de la amplitud de las señales sinusoidales, esto es, P[f0 (x)] =j F~ j2 = A2 : c Emilio Gago-Ribas, 2002 °

(5.28) 113

3

0 : la exponencial es creciente en el sentido de crecimiento de x: 2. a = 0 : la exponencial toma el valor constante A; de forma que f (x) = A para todo x: Nótese que, en este caso, la función constante también pertenece al espacio de señales S(¡1; 1) vista como una señal de período X0 ! 1: Si A = 1; f (x) = 1 representará el elemento neutro de S(¡1; 1) respecto del producto de funciones.

3. a < 0 : la exponencial es decreciente en el sentido de crecimiento de x:

Para cualquiera de los casos anteriores, el valor del parámetro A claramente representa el valor en el origen de la exponencial, esto es, f (0) = A: En la Fig. 5.6 se presentan algunos ejemplos de este tipo de señales reales. 8

f (x)=exp(a x)

7 6

a>0 5

a 0; s000 > 0), obtendremos señales de parte real coseno y de parte imaginaria seno, de pulsación s000 creciendo exponencialmente. 2. Si s0 en el segundo cuadrante (s00 < 0; s000 > 0); obtendremos señales de parte real coseno y de parte imaginaria seno, de pulsación s000 decreciendo exponencialmente. 3. Si s0 en el tercer cuadrante (s00 < 0; s000 < 0), obtendremos señales de parte real coseno y de parte imaginaria -seno, de pulsación js000 j ; decreciendo exponencialmente.

4. Si s0 en el cuarto cuadrante (s00 > 0; s000 < 0); obtendremos señales de parte real coseno y de parte imaginaria -seno, de pulsación js000 j ; creciendo exponencialmente.

5. Si s000 = 0; estaremos en el caso descrito en la Secc. 5.3.1, esto es, exponenciales reales.

6. Si s00 = 0; estaremos en el caso descrito en la Secc. 5.2.2, esto es, exponenciales de exponente imaginario. En este caso, las señales serán periódicas de período 2¼=s000 : 7. Nótese que el papel de la pulsación viene descrito ahora por s000 = Imfs0 g: ² Representación en partes real-imaginaria y módulo-fase.

f (x) = F es0 x =

9 8 < Re ff(x)g = jF j es00 x cos(s000 x + 'F ) =

: Im ff (x)g = jF j es00 x sin(s00 x + ' ) ; F 0 9 8 0 = < jf (x)j = jF j es0 x : = : Fase ff(x)g = s00 x + ' ; 0 F

6

Im{f(x)}

1: x = -2 2: x = -1 3: x = 0 6

5

5

4

4

3

3

2

2

1

1

3 2

0

0

1

-1

-2

-3

-3

-4

-4

-5

-5 0

1

Re{f(x)}

2

3

4

1

1: x = -2 2: x = -1 3: x = 0

2 3

-1

-2

-6 -6 -5 -4 -3 -2 -1

Im{f(x)}

(5.41)

=

5

6

-6 -6 -5 -4 -3 -2 -1

0

1

2

3

4

5

6

Re{f(x)}

Figura 5.10. Representación en el plano compljeo de las exponenciales analizadas en las Figs. 5.8 y 5.9.

118

c Emilio Gago-Ribas, 2002 °

² Notaciones habituales. 1. x ´ t : Período (X0 ) Variable compleja (s0 ) Frecuencia

Notación habitual

Denominación habitual

Unidades

T0 = 2¼=! 0 ¾ 0 + j! 0 f0 = !0 =2¼

Período

s

Pulsación compleja

(s¡1 ;rad/s)

Frecuencia

Hz=s-1

f (t) = e§s0 t = F e§(®0 +j!0 )t : 2. x ´ z : Período (X0 ) Variable compleja (s0 )

Notación habitual

Denominación habitual

Unidades

¸0 = 2¼=¯ 0 k0 = k00 + jk000

Longitud de onda

m

Número de onda complejo

(m¡1 ;rad/m)

° 0 = ®0 + j¯ 0

f (z) = F e§° 0 z = F e§(®0 +j¯ 0 )z : ² Propiedades. 1. es0 x ; s0 2 C : compleja, no es par ni impar, ni hermítica ni antihermítica.

2. s00 = 0 : propiedades descritas en la Secc. 5.2.2.

3. s000 = 0 : propiedades descritas en la Secc. 5.3.1. ² Parámetros característicos.

En base a las de…niciones realizadas en la Secc. 2.9, podremos de…nir los parámetros característicos de una señal exponencial de exponente complejo en la forma es0 x , s0 2 C : 1. Valor medio: el valor medio de una exponencial compleja de exponente s0 arbitrario es divergente, (Ap. E.6), hes0 x i ! 1:

(5.42)

Este resultado es sencillo de adivinar a la vista del comportamiento mostrado en las Figs. 5.8 y 5.9. Si s00 = 0; la exponencial será imaginaria y su valor medio será el obtenido en la Secc. 5.2.2. Si s000 = 0; la exponencial será real y su valor medio será el obtenido en la Secc. 5.3.1. 2. Potencia instantánea: vendrá dada por 2

0

P [es0 x ] = jes0 x j = e2s0 x ;

(5.43)

esto es, una exponencial real de exponente el doble del valor de s0 = Refsg: Esto permite anticipar que su valor medio será divergente, (5.45). Si s00 = 0; la potencia instantánea será la función constante unidad, de…nida en el espacio S(¡1; 1); y su valor medio será la unidad.

3. Energía: para un valor arbitrario de s; estas señales son de energía in…nita, (Ap. E.6), E [f(x)] ! 1:

(5.44)

Si s0 = 0; la exponencial será imaginaria y su energía será la obtenida en la Secc. 5.2.2. Si s00 = 0; la exponencial será real y su energía será la obtenido en la Secc. 5.3.1. 4. Potencia media: el valor medio de la potencia será el valor medio de la función en (5.43). Resulta evidente que dicho valor, promediado a lo largo de todo el rango de la variable independiente será divergente, hP [es0 x ]i ! 1:

(5.45)

Si s00 = 0; su valor medio será la unidad. Si s000 = 0; la exponencial será real y su energía será la obtenido en la Secc. 5.3.1. c Emilio Gago-Ribas, 2002 °

119

5.4

Una familia importante de señales bidimensionales. A pesar de que los contenidos del presente texto están encaminados al análisis de señales unidimensionales, el autor considera importante analizar cierto tipo de señales de gran interés práctico a la hora de describir fenómenos de propagación de señales. A su vez, estas señales serán la base de la transformada de Fourier analizada en el Cap. 9 pero aplicada a aquellos problemas donde se describen los citados fenómenos de propagacion. Para ello, expondremos aquí aquellas señales que son la base de dicha descripción. El caso más sencillo de todos consistirá en considerar un espacio de señales bidimensionales, donde las variables descriptivas de dicho espacio serán el tiempo, t; y una cierta coordenada espacial, z; que describa un espacio físico unidimensional3 . Estas señales serán de la forma f(t; z): La representación común en la práctica a un espacio de cuatro dimensiones, esto es, el tiempo, y el espacio físico 3D, de este tipo de fenómenos estará basado en la generalización de estas señales, f (t; ~r):

5.4.1

Señales sinusoidales de fase lineal. ² De…nición y análisis. Basándonos en todas las consideraciones realizadas en la Secc. 5.2.1 del presente capítulo, consideraremos inicialmente señales de la forma4 , f(t; z) = sin(!0 t ¡ ¯ 0 z):

(5.46)

Resulta evidente que dichas señales describen variaciones periódicas en la variable t de pulsación temporal ! 0 ; esto es, de período T0 = 2¼=! 0 ; y variaciones periódicas en la variable z de pulsación espacial (número de onda) ¯ 0 ; esto es, de período espacial o longitud de onda ¸0 = 2¼=! 0 : Como cualquier señal bidimensional, su análisis se podrá realizar …jando una de las coordenas y variando la otra; por ejemplo, …jado un cierto punto z del espacio, analizar la variación temporal, o bien, …jado un cierto instante de tiempo, analizar la instantánea de la señal a lo largo de la coordenada z: De esta forma, podremos visualizar inicialmente los parámetros que la describen, esto es, pulsaciones y períodos asociados a cada variable. En la Fig. 5.11 se presentan dos ejemplos de este tipo de señales, donde la interpretación en cada variable será similar a la realizada en la Secc. 5.2.1 para señales sinusoidales unidimensionales.Así, …jando un cierto punto z = z1 > 0 del espacio, la señal sinusoidal en t estará retrasada respecto a la señal de referencia en z = 0 un cierto valor t0 dado por, µ ¶ ¯ ¯ T0 z1 f(t; z1 ) = sin ! 0 t ¡ 0 z1 ¡! t0 = 0 z1 = z1 = T0 : (5.47) !0 !0 ¸0 ¸0 Nótese que este retraso de la señal respecto a lo que ocurría en z = 0 está representando un fenomeno de propagación de la señal f (t; z) a lo largo de la coordenada espacial z: La última expresión, aunque evidente, nos muestra que el retraso viene expresado en una fracción del período T0 ; dada por el cociente entre el punto z1 de observación y el período espacial, ¸0 : Generalizando este resultado para cualquier valor de z; podremos asociar dicho retraso de la señal con una cierta velocidad de propagación de la señal que denominaremos velocidad de fase en la forma, t0 =

¸0 z !0 = ¡! vf = (m/s). vf ¯0 T0

(5.48)

Nótese que la velocidad de fase asociada a la señal senoidal es constante y viene dada por la relación entre el período espacial y el período de repetición temporal, lo que signi…ca que sea cual sea el punto de observación z; la velocidad de fase de la onda es la misma. Leído de otra forma, aparece la de…nición habitual de la longitud de onda como el espacio recorrido por una señal con variación sinusoidal de período T0 durante un tiempo igual al período de la señal T0 a la velocidad de fase vf : Habitualmente, esta velocidad de fase será un parámetro característico, y por tanto conocido, asociado al problema descrito por la señal f(t; z): De forma similar, podremos analizar la variación a lo largo de z para diferentes instantes de tiempo, lo que permite visualizar claramente el proceso de propagación de la señal a lo largo de z: Consideremos como señal de referencia en este caso la señal en z para un cierto instante t = 0; f (t = 0; z) = ¡ sin ¯ 0 z:

(5.49)

3 La de…nición de estas variables particulares, y no dos variables generales x y x ; se debe al interés práctico de las 1 2 primeras. Un análisis bidimensional genérico consideraría señales genéricas en la forma f (x1 ; x2 ); igual que en el caso unidimensional, la notación general utilizada es la de f (x): 4 El análisis de la variación cosenoidal será totalmente paralelo al expuesto a continuación.

120

c Emilio Gago-Ribas, 2002 °

2

t0

f (t, z)

z=0

T0

z = z1

1

A

0

-1

-2 -2,0 2

-1,5

f (t, z)

-1,0

-0,5

0,0

-1,0

-0,5

0,0

t = 0 t = t1

z0

0,5

1,0

0,5

1,0

t (s)

1,5

2,0

2,5

3,0

1,5

2,0

2,5

3,0

λ0

3,5

4,0

3,5

4,0

1

0

-1

-2 -2,0

-1,5

z (m)

Figura 5.11. Ejemplo de una señal senoidal bidimensional de período T0 = 1 s. y de longitud de onda ¸0 = 2 m: (a) variando t para z1 = 0:5 m. y (b) a lo largo de z para t1 = 0:25 s. En ambos casos se representan las señales de referencia en z = 0 y t = 0; respectivamente. En el primer caso, la señal estará retrasada un tiempo t0 = z1 T0 =¸0 = 1=4 = 0:25 s. respecto a la señal de referencia; en el segundo caso, la señal estará desplazada a la derecha una distancia z0 = ¸0 t1 =T0 = 1=2 = 0:5 m.

Si analizamos la instantánea de la señal en un cierto instante t1 > 0; la señal en z vendrá dada por, ¶ µ !0 t1 ; (5.50) f(t1 ; z) = sin(! 0 t1 ¡ ¯ 0 z) = ¡ sin ¯ 0 z ¡ ¯0 lo que signi…ca un desplazamiento de la señal en el sentido positivo de z respecto a la señal en t = 0 un cierto valor z0 dado por, z0 =

!0 ¸0 t1 t1 = t1 = ¸0 : ¯0 T0 T0

(5.51)

En este caso, el desplazamiento espacial viene expresado en fracciones t1 =T0 del período espacial ¸0 : Generalizando este resultado para cualquier instante de tiempo t; vemos que la velocidad asociada al proceso de…nida como espacio dividido por el tiempo transcurrido coincide con la obtenida previamente, z0 =

!0 ¸0 ¸0 t= t ¡! vf = (m/s): ¯0 T0 T0

(5.52)

En la Fig. 5.12 se muestran varias instantáneas de la señal a lo largo de z, esto es, para diferentes instantes de tiempo, visualizándose sobre ella el proceso de propagación a lo largo de z descrito por la señal. Nótese que, sea cual sea el análisis realizado, la propagación de la señal la estamos midiendo considerando el movimiento de un punto de fase constante5 , de ahí el nombre de velocidad de fase.

5 Por ejemplo, en el caso de la señal seno, tomaremos como referencia el punto de fase nula, esto es cuando t = 0 s. y z = 0 m. lo que es lo mismo, el comienzo de un período de la señal senoidal cuando ésta es creciente, punto A en la Fig. 5.11.

c Emilio Gago-Ribas, 2002 °

121

2

f (t, z)=sin(ω0t - β0z) t = 0.5s t = 1.25s

t = 0s 1

A

0

A

A

-1

z01

z02

-2 -2

-1

0

1

z (m)

2

3

4

Figura 5.12. Instantáneas de la señal senoidal de período T1 = 1 s. y de longitud de onda ¸0 = 2 m. para los instantes t0 = 0 s. (señal de referencia de fase ¼ rad. indicada por el punto A), t1 = 0:5 s. y t2 = 1:25 s. Los desplazamientos de la fase serán z01 = ¸0 t1 =T0 = 0:5¸0 = 1 m. y z02 = ¸0 t2 =T0 = 1:25¸0 = 2:5 m. respectivamente.

² Generalización. Velocidad de fase. Consideremos la señal (5.53)

f(t; z) = sin(!0 t ¨ ¯ 0 z):

Fijando un punto de referencia de fase constante y diferenciando la expresión, obtendremos la velocidad de fase en la forma, !0 t ¨ ¯ 0 z = cte ¡! ! 0 dt ¨ ¯ 0 dz = 0 ¡! vf =

dz ¸0 !0 =§ =§ (m/s): dt ¯0 T0

(5.54)

Nótese que el signo § indicará en este caso velocidades positivas si la propagación de la señal se produce en el sentido positivo de z; y velocidades negativas si la propagación se produce en el sentido negativo de z: Con esta interpretación en mente se pueden analizar señales más generales de gran interés práctico dado que representan señales propagativas con velocidades de fase no constantes. Pasaremos a analizar estas señales y algunos ejemplos importantes. 5.4.2

Señales sinusoidales de fase arbitraria. ² Análisis general. Consideremos una señal como la representada por (5.53) pero considerando un término de fase dependiente de z en la forma, (5.55)

f (t; z) = sin [! 0 t ¡ '0 (z)] ;

esto es, con un término de fase '0 (z) dependiente de z en forma arbitraria. Como ya es habitual, dicho término de fase representará, respecto de la variable t; un cierto adelanto o retraso de la señal para cada valor de z y, por lo tanto, estará representando fenómenos propagativos. Fijando entonces un punto de referencia de fase constante y diferenciando la expresión, obtendremos una expresión general para la velocidad de fase asociada a dicha señal en la forma, ! 0 t ¡ '0 (z) = cte ¡! ! 0 dt ¡ '00 (z)dz = 0 ¡! vf (z) =

!0 dz = 0 (m/s); dt '0 (z)

(5.56)

denotando por '00 (z) a la primera derivada de la función de fase '0 (z) respecto de z; esto es, d'0 (z)=dz: Nótese que esta expresión indica que, para una función de fase genérica, la velocidad de fase asociada a la señal será otra función de z; es decir, que en cada punto z del espacio, la señal tendrá una velocidad de fase diferente. La interpretación grá…ca de este resultado se puede entender 122

c Emilio Gago-Ribas, 2002 °

bien si pensamos en una cierta función de fase '0 (z) de forma que, en cada punto z; la pendiente de la tangente será la derivada de la función; el valor inverso de dicha magnitud escalado por la pulsación ! 0 nos dará la velocidad de fase en cada punto. Así, si la pendiente en un cierto punto z es positiva, la velocidad de fase será también positiva, lo que representará propagación local en el sentido positivo; si la pendiente en un cierto z es negativa, la velocidad de fase lo será también, representando propagación local de la señal en el sentido negativo. Veamos a continuación algunos ejemplos importantes. ² Fase lineal. Consideremos una señal senoidal de fase lineal en la forma, '0 (z) = §¯ 0 z;

(5.57)

donde ¯ 0 indica la pendiente de la recta. Resulta evidente que este caso se reduce al estudiado en primer lugar, obtenéndose el resultado ya conocido obtenido en (5.54), '00 (z) = §¯ 0 ¡! vf = §

!0 ¸0 =§ (m/s): ¯0 T0

(5.58)

En este caso, la primera derivada de la función de fase es constante e igual a §¯ 0 ; obteniéndose una velocidad de fase constante para todo z: En la Fig. 5.13 se muestra una descripción completa de este caso. Una forma alternativa de representación es la mostrada en la Fig. 5.14, donde se muestra la señal en el tiempo para diferentes puntos del espacio. ² Fase lineal y sinusoidal. Consideremos la señal

f (t; z) = sin [! 0 t ¡ '0 (z)] ! '0 (z) = ¯ 0 z + sin(2¯ 0 z); ¯ 0 = 2¼=¸0 :

(5.59)

En este caso, la función de fase tiene un término lineal y un termino sinusoidal (función seno en este caso), ambos dependientes de z: Su representación será como la mostrada en la Fig. 5.15. La velocidad de fase vendrá dada entonces por, '00 (z) = ¯ 0 + 2¯ 0 cos(2¯ 0 z) ! vf (z) =

¸0 =T0 : 1 + 2 cos(2¯ 0 z)

(5.60)

Nótese cómo tanto '00 (z) como vf (z) son periódicas de período ¼=¯ 0 = ¸0 =2: A las vista de la representación de vf (z) en la Fig. 5.15, es posible entresacar las siguientes propiedades importantes: 1. Existen tramos en z en los que la velocidad de fase es positiva, lo que signi…ca que la señal, en esos puntos, tenderá a avanzar en la dirección positiva de z: 2. Existen otros tramos en z en los que la velocidad de fase es negativa; en dichos puntos, la señal tenderá a avanzar en sentido negativo de z (propagación en la dirección opuesta). 3. Por último, existen puntos z especí…cos donde la pendiente de '0 (z) es nula; en dichos puntos, la velocidad de fase tiende a in…nito, lo que es lo mismo, los efectos propagativos son despreciables dado que la propagación sería instantánea. Estas diferencias de velocidad en cada punto del espacio dan lugar a que la señal sufra deformaciones a lo largo de z como las que se muestran en la columna derecha de la Fig. 5.15, donde se muestra la distribución de la magnitud f (t; z) para diferentes instantes de tiempo. Estos efectos serán los habituales para funciones de fase arbitrarias. En la Fig. 5.16 se muestra una representación z ¡ t de la señal en (5.59) representada en la Fig. 5.15 para diferentes puntos del espacio identi…cados por zi : En cada caso, será posible de…nir el adelanto o retraso de la señal respecto a la señal de referencia en z = 0 sin más que aplicar la relación (5.47) para la señal de fase arbitraria, esto es, µ ¶ ' (zi ) ' (zi ) ' (zi ) f(t; zi ) = sin ! 0 t ¡ 0 ! t0i = 0 = 0 T0 : (5.61) !0 !0 2¼ La siguiente tabla muestra los valores de t0i correspondientes a los casos presentados en la Fig. 5.16.

c Emilio Gago-Ribas, 2002 °

z0i (m)

'0 (zi )

t0i =T0

0

0

0

0.2

1.5794

0.2514

0.4

1.8444

0.2935

0.6

1.2972

0.2065

0.8

1.5622

0.2486

Tabla 5. I

123

15

ϕ0(z)

2

sin[-ϕ0(z)]

12 9

1

6 3

0

0

β0

-3 -6 -9 -2 4

ϕ'0(z)

-1

0

1

z

-1

2

3

4

-2 -2 2

β0

3

1

2

0

1

-1

0 -2 3

vf (z)

-1

0

1

z

2

3

4

-2 -2 2

1

z

2

3

4

0

1

z

2

3

4

0

1

2

3

4

-1

0

-1

-1

sin[ω0t1 - ϕ0(z)]

z01

sin[ω0t2 - ϕ0(z)]

1 2 0 1 -1 0 -2

-1

0

1

z

2

3

4

-2 -2

z02 z

Figura 5.13. Función senoidal f (t; z) de período T0 = 1 s. y con una función de fase lineal '0 (z) = ¯ 0 z rad, ¯ 0 = 2¼ rad/m. La velocidad de fase es constante e igual a !0 =¯ 0 m/s. Se muestran tres instantaneas de la señal para t = 0; t = 0; 75T0 ; y t = 1:25T0 :

3T0

t

z = 3λ0/8

z = 7λ0/8

2T0

1T0

vf=λ0/T0 0T0

0,000λ0

z

0,125λ0

0,250λ0

0,375λ0

0,500λ0

0,625λ0

0,750λ0

0,875λ0

1,000λ0

Figura 5.14. Diagrama z ¡ t de la función representada en la Fig. 5.13. Se representan las señales en función de t para los valores z = 0; z = 3¸0 =8; y z = 7¸0 =8:

124

c Emilio Gago-Ribas, 2002 °

15

A: Puntos de pendiente nula B: Tramos de pendiente negativa A A A B

ϕ0(z)

12 9

A

0,0

B

3 0 0,0

-0,5

B 0,5

1,0

ϕ'0(z)

1,5

sin[-ϕ0(z)]

0,5

B

6

10

1,0

2,0

z

2,5

3,0

3,5

4,0

-1,0 0,0 1,0

0,5

1,0

1,5

2,0

z

2,5

3,0

3,5

4,0

0,5

1,0

1,5

2,0

z

2,5

3,0

3,5

4,0

0,5

1,0

1,5

2,0

z

2,5

3,0

3,5

4,0

sin[ω0t1 - ϕ0(z)]

0,5 5 0,0 0 -0,5 -5 0,0 10

0,5

1,0

vf (z)

1,5

2,0

z

2,5

3,0

3,5

4,0

-1,0 0,0 1,0

5

0,5

0

0,0

-5

-0,5

-10 0,0

0,5

1,0

1,5

2,0

z

2,5

3,0

3,5

4,0

sin[ω0t2 - ϕ0(z)]

-1,0 0,0

Figura 5.15. Función senoidal f (t; z) de período T0 = 1 s. con una función de fase '0 (z) = ¯ 0 z + sin(2¯ 0 z) rad, ¯ 0 = ¼ rad/m. Se muestran tres instantáneas de la señal a lo largo de z para t = 0; t1 = 0; 15T0 ; y t2 = 0:25T0 : En las grá…cas de la función y de la velocidad de fase están indicados los valores de z que se presentan en la Fig. 5.16.

3T0

z1

t

z2

z3

z4

2T0

1T0

t01 0T0

0,0

z

0,2

t02 0,4

t03 0,6

t04 0,8

Figura 5.16. Diagrama z ¡t de la función representada en la Fig. 5.15. Se muestran las variaciones en t para ciertos valores zi = 0; 0:2; 0:4; 0:6; y 0:8 m. Los valores de '0 (zi ) y vf (zi ) son los indicados la Fig. 5.15; los retrasos t0i respecto a la señal en z = 0 son los mostrados en la tabla 5. I.

c Emilio Gago-Ribas, 2002 °

125

126

c Emilio Gago-Ribas, 2002 °

6.

Operadores y Sistemas Lineales. La Delta de Dirac

6.1

Sistemas y espacios de señales aperiódicas. Funciones localizadoras. Consideremos un sistema cualquiera caracterizado en la forma habitual por, g(x) = F[f (x)]:

(6.1)

Como ya hemos anticipado en algunos ejemplos citados en la sección anterior, una forma intuitivamente clara de visulizar el problema directo sería la de considerar que la señal de entrada f (x) es la señal de excitación o fuente del problema descrito por dicho sistema, siendo la señal g(x) la respuesta a dicha excitación. Con estas ideas básicas en mente, intentamos ver si existe alguna manera de caracterizar o describir un sistema de forma única, entendiendose por este término que cualquier sistema se pueda representar en alguna forma común, sea quien sea el operador F que lo describe. En el caso más general, pensaremos incluso que dicho operador pueda no tener una representación analítica conocida. Una primera forma de caracterizar dicho sistema consistiría en disponer de un conjunto de funciones de entrada muy grande en número tal que, analizando la salida a cada una de esas señales, pudieramos de alguna forma identi…car el sistema, Fig. 6.1. Parece claro que este proceso, así descrito, resultaría inviable o inexacto: ¿cuántas señales serían necesarias?, ¿aseguramos así la correcta identi…cación del sistema y su correcto comportamiento frente a cualquier otra señal arbitraria?, etc.

Figura 6.1. Identi…cación de un sistema usando múltiples señales fuente y respuesta.

Una segunda forma de abordar el problema consistiría en pensar en aprovechar alguna propiedad general que conociéramos del sistema; por ejemplo, si supiéramos que el sistema es causal, intentaríamos restringir de alguna forma su posible descripción en virtud de dicha propiedad. Desde este punto de vista, las propiedades más importantes que utilizaremos para intentar obtener dicha caracterización son las propiedades de linealidad e invarianza, como veremos a lo largo del presente texto. A pesar de adelantar ya la importancia que estas dos propiedades presentarán en la caracterización de un sistema, queda un tercer aspecto importante por afrontar, esto es, el problema de qué tipo de señales deberemos utilizar para lograr su caracterización. En este sentido, el álgebra de señales y de operadores nos facilita la labor a través del concepto de bases de un espacio. Así, supuesto un cierto espacio de señales de partida, y asumiendo que hemos encontrado una base para representar dicho espacio, Secc. 2.5, el sistema quedará caracterizado a través de la transformación de los elementos de la base, esto es, F : f'(x; m)g ¡! F [f'(x; m)g] = fF ['(x; m)]g :

(6.2)

De esta forma lograríamos predecir el comportamiento del sistema para cualquier señal del espacio de partida. Sin embargo, este concepto no aclara qué conjunto de funciones deberíamos de elegir como base para poder caracterizar el sistema dado que, como ya se citó en el Cap. 4, la elección de una base viene determinada no sólo por el espacio a representar sino también por los operadores que van a actuar sobre dicho espacio. Este aspecto será uno de los puntos de partida para introducir el concepto de funciones 127

localizadoras y de…nir, a partir de él, una función que acabará siendo un objeto matemático1 denominado delta de Dirac, ±(x); con una serie de propiedades importantes asociadas, entre ellas, la de servir como conjunto base ideal para representar cualquier espacio de señales y, por lo tanto, permitir la caracterización de un sistema con alguna de las propiedades citadas anteriormente. Este objeto matemático ideal servirá como punto de partida para generar nuevos objetos de carácter localizador, lo que dará lugar posteriormente a las Distribuciones o Funciones Generalizadas introducidas en el Cap. 7. 6.1.1

Funciones localizadoras de tipo impulsivo. La distribución delta de Dirac.

Habíamos visto en la sección anterior cómo para describir o ejempli…car ciertas propiedades generales de los sistemas, podía ser conveniente pensar en términos de algún tipo de función que se caracterizase por estar de…nida2 en un intervalo de la variable independiente ¢x muy pequeño. Este tipo de funciones constituirán el punto de partida para pensar a su vez en funciones con un comportamiento localizador ideal justamente cuando dicho intervalo tienda a cero, ¢x ! 0: Desde un punto de vista práctico, este tipo de objetos servirían, por ejemplo, para: ² Representar variaciones instantáneas en el tiempo, es decir, representar magnitudes muy localizadas en un determinado instante de tiempo, Fig. 6.2(a). ² Representar magnitudes muy localizadas en torno a un punto del espacio, Fig. 6.2(b).

Figura 6.2. Representación genérica de dos señales de tipo impulsivo localizadas en torno al origen (a) de tiempos, y (b) de una coordenada espacial.

² Desde el punto de vista de las propiedades de un sistema, parece que este tipo de señales serían especialmente adecuadas para su caracterización de forma que, en lugar de usar funciones arbitrarias para lograr dicho objetivo, intentaremos usar señales de entrada con este comportamiento. Generalizando estos conceptos a señales de…nidas sobre una variable cualquiera intentaremos generar un objeto matemático de partida que se ajuste al comportamiento descrito; así, estaríamos hablando de funciones i¢x (x) que podríamos caracterizar inicialmente de la siguiente forma, Fig. 6.3(a): 1. De…nidas en (¡1; 1); esto es, pertenecientes al espacio S(¡1; 1):

2. Continuas y de buen comportamiento en torno al punto de de…nición (inicialmente el origen del sistema de coordenadas). 3. Reales de variable real, lo que facilitará su de…nición inicial. 4. Pares (esta propiedad se puede imponer a priori si pensamos que el comportamiento de la función en torno al punto de de…nición nos es indiferente una vez que el comportamiento de estas funciones se haya llevado al límite cuando ¢x ! 0):

5. Desde el punto de vista analítico impondremos: (i) que sean señales nulas para cualquier valor de x fuera del intervalo de longitud ¢x; (ii) dentro de dicho intervalo, su forma de variación y valores son desconocidos y arbitrarios, exceptuando las características citadas en los puntos 2 y 4. 1 Este objeto matemático resultante será un funcional que operará sobre una función de buen comportamiento, Seccs. 3.2.1 y 3.3.1. 2 En este sentido, el término estar de…nida se usa como sinónimo de tomar valores no nulos en un cierto intervalo. Por supuesto, el espacio de señales sobre el que estamos trabajando inicialmente es S(¡1; 1) y, por lo tanto, cualquier señal estará de…nida para todo el rango de la variable independiente.

128

c Emilio Gago-Ribas, 2002 °

1,5

i∆x(x) ∆x

1,0

(a) 0,5

0,0 -4 1,5

δ(x)

-3

-2

-1

0

x

1

2

3

4

∆x

0

1,0

(b) 0,5

0,0 -4

-3

-2

-1

0

x

1

2

3

4

Figura 6.3. Obtención de la distribución ±(x) a partir de una señal i¢x (x) arbitraria de…nida en un cierto intervalo ¢x cuando ¢x ! 0:

Nótese cómo con esta de…nición inicial, el caracter impulsivo de dichas señales aparece claramente, independientemente de la forma de variación que tengan en el intervalo donde dichas funciones no se anulan. A partir de ellas, el comportamiento impulsivo ideal quedaría de…nido cuando ¢x ! 0: De forma intuitiva, parece evidente que, en el límite, lo que obtenemos no es una función usual sino un nuevo objeto que podríamos de…nir inicialmente de la siguiente forma, Fig. 6.3(b): 1. De…nido en (¡1; 1):

2. En el límite, la continuidad se pierde, de forma que este nuevo objeto presenta un comportamiento discontinuo justo en el origen. Este comportamiento ya nos da pie a pensar que el nuevo objeto pertenecerá, bien a un espacio de señales diferente al de partida., bien a ampliar nuestro espacio de funciones con funciones discontinuas.

3. Real de variable real. 4. El comportamiento de este objeto es claramente par, propiedad que previamente se ha usado al de…nir las funciones i¢x (x) iniciales. 5. Analíticamente, este objeto quedaría descrito de la siguiente forma: (a) De valor nulo para todo x 6= 0:

(b) No de…nido en x = 0:

A este nuevo objeto le llamaremos delta de Dirac, y lo denotaremos por ±(x): Su representación grá…ca será como la mostrada en la Fig. 6.3(b). El proceso de de…nición que hemos seguido ha consistido en partir de una función i¢x (x) de buen comportamiento y ver qué objeto se obtendría al hacer tender el intervalo de de…nición de dicha función a cero, ¢x ! 0: Este hecho sugiere que un proceso más riguroso consistiría en de…nir una sucesión de funciones dn (x) de buen comportamiento tales que el límite de la sucesión diese lugar a ±(x): Este será el método habitual seguido en el Cap. 7 para introducir las distribuciones o funciones generalizadas en su forma más general. Es importante destacar también que el hecho de que ±(x) no esté de…nida en el origen supone un grado de libertad inicial que nos tomamos en la de…nición de un objeto de estas características. De hecho, esta inde…nición vendría intuitivamente promovida por haber considerado funciones de partida i¢x (x) cuya forma de variación no hemos de…nido en el intervalo ¢x:

c Emilio Gago-Ribas, 2002 °

129

Figura 6.4. Representación de una transformación operando entre dos espacios de señales por un sistema arbitrario asumiendo que dichos espacios puedieran contener objetos matemáticos de tipo localizador.

Con estas ideas en mente, el objetivo …nal será estudiar si estos objetos facilitan la obtención de alguna de…nición característica de un sistema, Fig. 6.4. Desde el punto de vista algebraico, esto será equivalente a obtener alguna representación alternativa del operador F que describe el comportamiento del sistema. Este proceso pasará por ver si este tipo de objetos pueden ser usados como base del espacio de señales, analizando así la transformación de dicha base citada previamente. Para ello intentaremos basarnos una vez más en aquellas propiedades especiales que poseen objetos localizadores como la ±(x): Así, parece lógico imaginar que cualquier función localizadora i¢x (x) podría servir también para representar funciones de entrada al sistema f(x) arbitrarias dado que su comportamiento nulo fuera del intervalo de de…nicion en torno al origen nos permitirá seleccionar un intervalo de f (x) de ancho ¢x en torno a x = 0: Si posteriormente desplazamos de forma continua la función i¢x (x) a otros puntos, i¢x (x ¡ xi ), iremos seleccionando nuevos intervalos de f(x) centrados en xi hasta conseguir así seleccionar la función completa. Si este proceso lo intentamos visualizar cuando ¢x ! 0; estaríamos obteniendo, si esto es posible, la representación de una función f(x) arbitraria en términos de ±(x ¡ xi ); concepto equivalente a pensar en los objetos ±(x ¡ xi ) como elementos de una base del espacio de funciones. En la Fig. 6.5 se esquematizan estos conceptos. i∆x(x - xi)

1

f (x)

(a)

0

∆x

-1 -6 1

δ(x - xi)

-4

-2

0

x

f (x)

2

4

6

∆x

0

(b)

0

-1 -6

-4

-2

0

x

2

4

6

Figura 6.5. Proceso de ’muestreo’ de una señal mediante el desplazamiento de funciones localizadoras i¢x (x¡ xi ): En el límite cuando ¢x ! 0; dichas funciones serían objetos en la forma ±(x ¡ xi ): Se representan los casos con xi = ¡3; xi = 0 y xi = 2:

130

c Emilio Gago-Ribas, 2002 °

Figura 6.6. Visualización del concepto de proyección de un elemento f (x) del espacio S(¡1; 1) sobre el objeto ±(x):

Este proceso de construcción, aparentemente razonable, nos llevará rápidamente a la de…nición rigurosa del objeto ±(x): Como se analizará en el Cap. 7, a partir de la de…nición de este objeto, se podrán construir nuevos objetos de carácter localizador, ya sean impulsivos o no. Lo que parece evidente a estas alturas del proceso es que la forma inicial de seleccionar pequeños trocitos de una función arbitraria f (x) mediante i¢x (x) sería multiplicando ambas funciones. Fuera cual fuera el resultado en el intervalo ¢x; resulta evidente también que fuera de dicho intervalo, el producto siempre será nulo, y la función producto resultante estaría directamente relacionada con f(x) dentro del intervalo ¢x; 8 8 ¢x < 0 < 0 x 6= 0 x2 = (¡ ¢x 2 ; 2 ) (6.3) ¡! [¢x ! 0] ¡! f (x)±(x) = f (x)i¢x (x) = : no def. x = 0 : no def. x 2 (¡ ¢x ; ¢x ) 2 2

6.1.2

De…nición del objeto ±(x).

Nótese en primer lugar que el producto de f (x) por ±(x) sigue siendo un objeto no de…nido en el origen, así que dicha operación no parece su…ciente para conseguir la representación …nal de f (x) buscada. Es por esto que, una vez más, deberíamos de recurrir a la métrica de…nida sobre nuestro espacio de funciones para ver si, a través de ella, podemos lograr alguna medida concreta. En concreto, buscando representar f (x) en términos de una base formada por objetos del tipo ±(x); deberíamos intentar representar los coe…cientes de dicha combinación lineal en términos del producto escalar de…nido en (2.54) donde la segunda función en este caso sería el objeto ±(x); pensando entonces en ’muestrear’ la función f (x) en la coordenada donde se encuentra el objeto localizador, podríamos realizar la siguiente asignación, Z 1 hf (x); ±(x)i = f (x)±(x) dx = f(0): (6.4) ¡1

En esta expresión, hemos usado el hecho de que ±(x) sea un objeto real. Justamente el valor asignado a este producto escalar será el de la función f (x) en el origen, es decir, f(0): De esta forma estaremos logrando, a través de dicha operación, obtener el carácter de objeto muestreador continuo de ±(x) que estábamos buscando, usando además el grado de libertad del que todavía disponíamos respecto a su de…nición en torno al origen. Aquí aparece precisamente el carácter de funcional mencionado en la Secc. 3.3.1 del objeto delta de Dirac, dado que su de…nición en el origen no pasa por asignarle un valor concreto sino que pasa por actuar sobre otra función de buen comportamiento. Podríamos entonces describir el funcional ±(x) de la siguiente forma, ±(x) : S(¡1; 1) ¡! C; Z 1 ±(x) : f(x) ¡! f (0) = f(x)±(x) dx 2 C:

(6.5)

¡1

Es decir, el objeto ±(x) es en realidad un funcional, Secc. 3.3.1 y Fig. 3.4 que se aplica sobre una función f (x) en el espacio vectorial de funciones S(¡1; 1), devolviéndonos un valor complejo igual al valor de la función en el origen, f (0): Esta de…nición se puede leer de otras formas también importantes: ² Desde el punto de vista algebraico, esa de…nición se podría interpretar como la proyección de una función f(x) de buen comportamiento sobre un nuevo objeto matemático ±(x) introducido en el espacio de señales. Dicho objeto se de…niría entonces como aquel elemento tal que la proyección de una función arbitraria sobre él es exactamente igual al valor de la función en el origen, Fig. 6.6. c Emilio Gago-Ribas, 2002 °

131

f (x)

i∆x(x)

2 1 0 -1 -2 -6

-4

-2

0

x

f(0)

2

4

6

2

4

∆x

2

4

6

f (x) i∆x(x)

2 1 0

∆x

-1 -2 -6

-4

-2

0

f(0)

x

f (x)

6

0

2 1 0 -1 -2 -6

-4

-2

0

x

Figura 6.7. Interpretación grá…ca de la de…nición integral del funcional ±(x) aplicado a una función f (x) de buen comportamiento partiendo de una función localizadora i¢x (x) cuando ¢x ! 0:

² Desde el punto de vista de las funciones localizadoras i¢x (x); la interpretación se podría realizar en términos del esquema mostrado en la Fig. 6.7, donde la integral del producto f(x)i¢x (x) se obliga a que sea justamente f (0) cuando ¢x ! 0; y no otro valor. Nótese cómo, a partir de la de…nición dada en (6.4), es posible obtener una propiedad también básica del objeto ±(x); particularizando dicha expresión cuando f (x) = 1; es decir, la función constante unidad, Z 1 h1; ±(x)i = ±(x) dx = f (0) = 1; (6.6) ¡1

es decir, que el objeto, o funcional ±(x); integrado en cualquier intervalo tal que contenga a la posición donde se localiza el objeto (el origen en este caso), será siempre igual a la unidad. De esta propiedad se desprende claramente que el comportamiento en el origen de la delta debería ser singular (! 1) de forma que el área bajo este objeto localizador impulsivo dé lugar a una indeterminación 0 ¢ 1 tal que su valor sea justamente la unidad. Una vez de…nido el carácter muestreador de ese objeto impulsivo en el origen, bastará desplazarlo a valores fuera del origen para generalizar el concepto de muestreo de ±(x) en cualquier valor de la variable independiente, generando así un conjunto de funciones base de tipo localizador que permite representar cualquier elemento f(x) 2 S(¡1; 1): 6.1.3

De…nición del objeto ±(x ¡ x0 ).

La de…nición de la delta de Dirac fuera del origen se obtiene sin más que generalizar la expresión (6.4) a un punto cualquiera x0 ; obteniéndose directamente Z 1 hf (x); ±(x ¡ x0 )i = f (x)±(x ¡ x0 ) dx = f (x0 ): (6.7) ¡1

La representación grá…ca sería como la mostrada en la Fig. 6.5 con x0 6= 0: Diremos entonces que el objeto ±(x ¡ x0 ) localizado en x0 y de…nido para todo x; aplicado sobre una función de buen comportamiento f (x); nos devuelve el valor de dicha función en el punto x0 : Como funcional podremos entonces escribir

132

c Emilio Gago-Ribas, 2002 °

la siguiente expresión, ±(x ¡ x0 ) : S(¡1; 1) ¡! C; Z 1 ±(x ¡ x0 ) : f(x) ¡! f (x0 ) = f (x)±(x ¡ x0 ) dx 2 C:

(6.8)

¡1

Tanto las interpretaciones como las formas de visualización serán totalmente similares a las expuestas para el objeto ±(x) descrito previamente. 6.1.4

Conjunto de objetos f±(x ¡ x0 )g :

Consideremos a continuación que el punto de localización x0 pueda tomar cualquier valor en el intervalo de de…nición de la variable independiente de forma que pueda ser considerado como un parámetro descriptivo de diferentes objetos impulsivos de tipo delta localizados en diferentes posiciones. Denotaremos por x0 al desplazamiento considerado como un parámetro variable del problema, de forma que la expresión (6.7) se podrá escribir en la forma siguiente, Z 1 0 hf(x); ±(x ¡ x )i = f (x)±(x ¡ x0 ) dx = f (x0 ); (6.9) 0

¡1

es decir, la distribución delta localizada en x nos devuelve el valor de la función sobre la que se aplica en dicho valor. Nótese que en esta última ecuación, x0 denota el continuo de valores a lo largo de los cuales iremos localizando objetos de tipo ±(x); en otras palabras, x0 es una variable que describe la posición donde se localiza la fuente impulsiva, denominada habitualmente como coordenada o punto fuente. Si consideramos el continuo de posibles valores del parámetro x0 ; estaremos describiendo una familia continua de objetos localizadores de tipo impulsivo en la forma, fi(x; x0 )g = f±(x ¡ x0 )g :

(6.10)

Nótese que todos estos objetos son discontinuos, de forma que estaremos ampliando el espacio de funciones original S(¡1; 1) con este conjunto de elementos impulsivos y discontinuos. También es posible intuir el hecho de que, aplicando diferentes operadores sobre una distribución delta de Dirac, obtendremos nuevas señales de tipo localizador con nuevas propiedades asociadas. Al conjunto de funciones localizadoras fD(x)g que denominaremos como distribuciones y que analizaremos en el Cap. 7 lo denotaremos por D(¡1; 1): Así, el conjunto de distribuciones en (6.10) será un subconjunto de D(¡1; 1): 6.1.5

Representación de funciones en términos del conjunto f±(x ¡ x0 )g :

Hemos visto previamente cómo el conjunto in…nito y continuo de distribuciones fi(x; x0 )g = f±(x ¡ x0 )g descrito por el parámetro x0 permite muestrear de forma continua una función f (x) de buen comportamiento sobre la que actúa dicho conjunto. Siguiendo entonces el esquema general presentado en (2.42) junto con (2.43), o bien su versión más detallada presentada en el Cap. 4, ecuaciones (4.20)-(4.21)3 , podremos intentar escribir f (x) en términos de una combinación lineal continua de los elementos del conjunto fi(x; x0 )g en (6.10), Z Z 0 0 0 f (x) = A(x )i(x; x ) dx = A(x0 )±(x ¡ x0 ) dx0 ; (6.11) x0

x0

siendo los coe…cientes A(x0 ) los dados por el producto escalar, Z A(x0 ) = hf(x); ±(x ¡ x0 )i = f (x)±(x ¡ x0 ) dx = f (x0 ):

(6.12)

x

En la última igualdad se ha utilizado la de…nición en (6.9) ya conocida. Esto quiere decir que los coe…cientes de la combinación lineal son justamente la misma función sobre la que actúa el conjunto f±(x ¡ x0 )g de…nida sobre la variable x0 que describe la posición de cada una de las deltas, esto es, Z f(x) = f (x0 )±(x ¡ x0 ) dx0 : (6.13) x0

Podemos entonces resumir el proceso en los siguientes puntos: 3 Nótese que lo que allí denominábamos variable espectral » es, en este caso, otra variable en el dominio real, x0 : Así, el conjunto de coe…cientes A(») ´ A(x0 ); siendo a(¿ ) ´ f (x): El conjunto de funciones base denotado allí por e(¿ ; ») será ahora i(x; x¶):

c Emilio Gago-Ribas, 2002 °

133

² La variable x original del problema describe la forma de variación de cualquier función f(x); pudiéndose denominar como la coordenada o punto de observación de una cierta magnitud representada por f (x) y descrita por dicha variable. ² La nueva variable x0 describe el conjunto de funciones f±(x ¡ x0 )g identi…cando la posición donde se localiza cada una de las señales impulsivas. Asumiendo que ésta sea la fuente original para caracterizar el sistema, denotaremos a dicha variable como la coordenada o punto fuente. Veremos en las siguientes secciones cómo estos objetos matemáticos permiten caracteriza un sistema, objetivo …nal del presente desarrollo. ² La expresión de la combinación lineal continua en (6.13) en términos de la nueva variable x0 se puede reescribir usando la expresión de la convolución en (3.87) sobre dicha variable, Z f(x) = f (x0 )±(x ¡ x0 ) dx0 = f(x) ¤ ±(x); (6.14) x0

expresión sobre la variable x que identi…ca las siguientes propiedades: 1. El objeto ±(x) de…nido es capaz de muestrear de forma ideal cualquier función continua, esto es, permite seleccionar un valor de un conjunto continuo de valores. En este caso, el conjunto continuo de valores será cualquier función f (x) de buen comportamiento. Si la delta se localiza en el origen, selecciona el valor f (0); fuera del origen, la delta selecciona el valor de la función en dicho punto. 2. En virtud de la propiedad anterior, el conjunto continuo f±(x ¡ x0 )g es capaz de representar a través de una combinación lineal continua sobre x0 a cualquier función f(x) de buen comportamiento para todo valor de x; (6.14). 3. Esta combinación lineal continua puede escribirse en la forma de una convolución de dos señales, f(x) 2 S(¡1; 1) y ±(x) 2 D(¡1; 1): Se satisfacen entonces todas las propiedades asociadas a la convolución descritas en la Secc. 3.7.1; así por ejemplo, podremos escribir, (6.15)

f(x) = f (x) ¤ ±(x) = ±(x) ¤ f (x); lo que equivale a, f(x) =

Z

x0

f (x0 )±(x ¡ x0 ) dx0 =

Z

x0

f(x ¡ x0 )±(x0 ) dx0 :

(6.16)

² Nótese cómo el carácter de funcional del objeto ±(x) en la expresión (6.14) se mantiene sin más que interpretar adecuadamente la operación de convolución. Consideremos para ello a f (x) como un conjunto de in…nitos elementos descrito por la variable x considerada ésta como parámetro descriptivo del conjunto ff (x)g : Así, para cada valor de x = xi obtendremos un valor complejo f (xi ); Z f(xi ) = f (x0 )±(xi ¡ x0 ) dx0 2 C: (6.17) x0

El carácter de funcional descrito en (6.5) y (6.8) se mantiene entonces4 para todo valor de xi ; esto es, para todo valor de la variable original x: 6.1.6

Sistemas lineales.

En virtud de los objetos localizadores de…nidos así como de las propiedades que presentan, retomaremos ahora el problema inicial de intentar caracterizar un sistema con ayuda de estos nuevos objetos funcionales, Fig. 6.4. Parece evidente que, para un sistema genérico descrito por un operador F arbitrario, el hecho de haber introducido estas nuevas señales no facilita, a priori, la caracterización del mismo, a menos que seamos capaces de extraer dicha caracterización de alguna propiedad importante. Así, ¸ Z 0 0 0 F : f(x) = f (x) ¤ ±(x) ! g(x) = F [f (x)] = F f(x )±(x ¡ x ) dx : (6.18) x0

4 Nótese que la operación de convolución analizada respecto a x0 conlleva una re‡exión y un desplazamiento que no afecta al carácter de funcional descrito.

134

c Emilio Gago-Ribas, 2002 °

Figura 6.8. Representación esquemática del concepto asociado al conjunto continuo de funciones respuesta al impulso fh(x; x0 )g descriptivas de un sistema caracterizado por un operador F lineal.

Si sobre esta expresión general consideramos la propiedad de linealidad descrita en (3.4.1) la expresión anterior podrá ser desarrollada como en (3.34), identi…cando una vez más la variable » que allí aparece con x0 ; y los coe…cientes de la combinación lineal A(») con los valores f(x0 ) en (6.12) Así, Z F : f (x) = f(x) ¤ ±(x) ¡! g(x) = F [f (x)] = f(x0 )F [±(x ¡ x0 )] dx0 : (6.19) x0

En esta última ecuación aparece ya la conveniencia de las funciones impulsivas del tipo ±(x) para la caracterización de un sistema, dado que la combinación lineal que representa la señal de salida está escrita en términos de F [±(x ¡ x0 )] ; es decir, del sistema operando sobre deltas. De esta forma, podremos concluir que: ² Sea quien sea el operador F que describe el sistema, si es lineal, lo único que deberemos conocer para obtener la respuesta a cualquier señal de entrada f (x) es la respuesta a señales impulsivas del tipo delta de Dirac localizadas a lo largo de todo el dominio de de…nición de la variable independiente, Fig. 6.8, esto es, h(x; x0 ) = F [±(x ¡ x0 )] :

(6.20)

Estas funciones constituirán un conjunto de in…nitas funciones fh(x; x0 )g descritas por el parámetro x0 y que denominaremos conjunto de respuestas del sistema al impulso. Denotaremos a su vez por L(S; D) al espacio o conjunto de operadores que son lineales sobre los espacios S(¡1; 1) y D(¡1; 1):

² Conocido el conjunto de funciones fh(x; x0 )g ; cualquier operador o sistema que sea lineal tendrá siempre una representación alternativa única en términos de un operador integral cuyo núcleo, Secc. 3.6.4, ecuación (3.73), es dicho conjunto de funciones en la forma, Z Para todo F 2 L(S; D) ! F(¢) ´ (¢)h(x; x0 ) dx0 : (6.21) x0

Nótese que esta integral no es, en general, una integral de convolución como la de…nida en (3.87). ² La colección de funciones fh(x; x0 )g ; por ser consecuencia de una cierta transformación (lineal) del conjunto de distribuciones f±(x ¡ x0 )g ; será un subconjunto de D(¡1; 1); esto es, un conjunto in…nito de nuevas distribuciones, Fig. 6.11. En la Fig. 6.9 se muestra un ejemplo sencillo de varias funciones respuesta al impulso arbitrarias. Estas consideraciones contribuyen también al hecho de estudiar este tipo de funciones con un poco más de detalle, lo que se abordará en el Cap. 7. 6.1.7

Sistemas lineales e invariantes.

A partir de la representación de un sistema lineal obtenida previamente, es posible dar un paso más en su caracterización si, además, el sistema presenta la propiedad de invarianza, Secc. 3.4.2. En base a dicha propiedad resulta evidente que si la excitación impulsiva se localiza en un cierto x0 6= 0; la respuesta a dicha excitación será la misma que la correspondiente a una excitación impulsiva localizada en el origen pero con un desplazamiento de valor x0 ; es decir, 8 < ±(x) ¡! h(x) = F [±(x)] (6.22) : ±(x ¡ x0 ) ¡! h(x; x0 ) = F [±(x ¡ x0 )] = h(x ¡ x0 ) c Emilio Gago-Ribas, 2002 °

135

2,0

δ(x - x')

1,5

x' =4

x' =0

1,0

x' =8

0,5

0,0 -10 1,0

-8

h(x;x')

-6

-4

-2

0

x

h(x;0)

2

4

6

10

h(x;8)

h(x;4)

0,5

8

0,0 -0,5

-1,0 -3

-2

-1

0

1

x

2

3

4

5

6

Figura 6.9. Algunos ejemplos de distribuciones pertenecientes al conjunto fh(x; x0 )g para diferentes localizaciones de ±(x ¡ x0 ):

La representación correspondiente a una señal de entrada arbitraria f(x) vendrá dada sin más que aplicar este resultado a la forma integral del sistema obtenida en (6.21). Así pues, para un sistema lineal e invariante, Z F : f(x) = f (x) ¤ ±(x) ¡! g(x) = F [f (x)] = f(x0 )h(x ¡ x0 ) dx0 = f (x) ¤ h(x): (6.23) x0

En base a este resultado podemos entresacar las siguientes conclusiones:

² Sea quien sea F; si es lineal e invariante, sólo necesitaremos conocer una única función respuesta al impulso h(x) a una delta localizada en el origen, ±(x); para lograr su caracterización en forma integral. Dicha función describirá el conjunto de in…nitas funciones fh(x ¡ x0 )g ; núcleo del operador integral que representa al sistema, h(x) = F [±(x)] ; F(¢) ´

Z

x0

(¢)h(x ¡ x0 ) dx0 :

(6.24) (6.25)

² Denominaremos por LI(S; D) al conjunto de operadores que son lineales e invariantes sobre los espacios vectoriales S(¡1; 1) y D(¡1; 1):

² La respuesta del sistema a una señal arbitraria f (x) se podrá obtener, por tanto, en base a dicha representación integral que, además, se reduce a una integral de convolución como la de…nida en (3.87), en este caso de la función de entrada con la respuesta al impulso del sistema, Z F : f (x) ¡! g(x) = f (x0 )h(x ¡ x0 ) dx0 = f(x) ¤ h(x): (6.26) x0

² Las propiedades de esta representacion integral serán entonces las descritas en la Secc. 3.7.1.

² De especial relevancia resulta interpretar el papel que juega en este caso la respuesta al impulso dentro de la operación de convolución; para ello, bastará con trasladar la interpretación grá…ca de la convolución a este caso. Asumiendo que los términos subintegrales fuesen como los mostrados en la Fig. 6.10, es fácil notar que la respuesta al impulso juega en este caso el papel de aquella función que determina el rango de valores de la señal de entrada que in‡uye o aporta valores a la integral, y por lo tanto, a la señal de salida para cada valor de x: Esta característica será fundamental a la hora de trasladar las propiedades de los sistemas al caso de los sistemas lineales e invariantes, como veremos en la Secc. 6.2. 136

c Emilio Gago-Ribas, 2002 °

Figura 6.10. Representación esquemática del papel de ’selección’ que juega la respuesta al impulso h(x) asociada a un sistema lineal e invariante frente a la señal de entrada.

6.1.8

Nuevo espacio de señales.

En virtud de las consideraciones realizadas en las secciones anteriores, podremos considerar un nuevo ~ espacio de señales ampliado que denotaremos por S(¡1; 1): Este espacio contendrá tanto al espacio inicial S(¡1; 1) de funciones continuas de buen comportamiento, como al espacio D(¡1; 1) de las distribuciones. Así, a partir de ahora mantendremos en mente el esquema mostrado en la Fig. 6.11.

Figura 6.11. Representación esquemática de un sistema descrito por un cierto operador F actuando inicialmente sobre el espacio de funciones S(¡1; 1): Al espacio de distribuciones fD(x)g generado aplicando diferentes transformaciones al objeto impulsivo inicial ±(x) lo denominaremos por D(¡1; 1): El conjunto de funciones f±(x ¡ x0 )g así como su transformado fh(x; x0 )g a través de un operador F serán ~ subconjuntos de este último espacio. Denominaremos por S(¡1; 1) al espacio completo que contiene tanto a las funciones continuas en S(¡1; 1) como a las funciones ~ discontinuas que serán analizadas como distribuciones, D(¡1; 1); Cap. 7.

c Emilio Gago-Ribas, 2002 °

137

6.2

Sistemas lineales e invariantes. Hemos visto cómo la de…nición de una función impulsiva básica nos ha permitido lograr una caracterización de cualquier sistema que sea lineal en términos de un operador integral de núcleo el conjunto de respuestas al impulso fh(x; x0 )g ; (6.21). Si el sistema es, además, invariante, la caracterización se realiza a través de una única función respuesta al impulso h(x); (6.24)-(6.25). Como resultado de esto, conviene analizar y describir el resto de las propiedades de un sistema de…nidas en la Secc. 3.4 en términos de la respuesta al impulso del sistema para el conjunto de sistemas lineales e invariantes (SLI) identi…cado ~ por el espacio de operadores LI(S):

6.2.1

Propiedades asociadas a la convolución.

En base a las propiedades de la operación de convolución descritas en la Secc. 3.7.1, podemos identi…car las siguientes propiedades trasladadas a uno o varios sistemas lineales e invariantes: ² Conmutatividad: f(x) ¤ h(x) = h(x) ¤ f(x):

Esta propiedad, básica a priori, proporciona una lectura adicional muy importante, y es que un problema descrito en términos de un SLI caracterizado por h(x) y alimentado por una señal f (x) se puede analizar como un problema diferente en el que el SLI que lo describe tiene una respuesta al impulso f(x); siendo h(x) la señal a la entrada. En la Fig. 6.12 se representa grá…camente esta propiedad.

Figura 6.12. Propiedad conmutativa de la convolución transladada a un sistema lineal e invariante. Los dos problemas, caracterizados por sistemas diferentes, darían la misma respuesta g(x).

² Asociatividad: f (x) ¤ [h1 (x) ¤ h2 (x)] = [f(x) ¤ h1 (x)] ¤ h2 (x):

Esta propiedad está directamente relacionada con la asociación de sistemas en serie descrita en la Secc. 3.5. Nótese cómo el término a la derecha de la igualdad representa la salida de un primer SLI de respuesta al impulso h1 (x) que, a su vez, pasa por un segundo SLI de respuesta al impulso h2 (x): El término a la izquierda identi…ca el hecho de que la asociación en serie de dos SLI’s se pude ver como un único SLI cuya respuesta al impulso hs (x) es la convolución de las respuestas al impulso de los sistemas iniciales, Fig. 6.13, (6.27)

hs (x) = h1 (x) ¤ h2 (x):

Figura 6.13. Propiedad asociativa de la convolución trasladada a dos sistemas lineales e invariantes caracterizados por sus respuestas al impulso h1 (x) y h2 (x):

138

c Emilio Gago-Ribas, 2002 °

² Distributividad: f (x) ¤ [h1 (x) + h2 (x)] = f (x) ¤ h1 (x) + f(x) ¤ h2 (x):

Esta propiedad está directamente relacionada con la asociación de sistemas en paralelo descrita en la Secc. 3.5. Nótese cómo el término a la derecha de la igualdad representa la suma de las salidas de dos SLI’s de respuestas al impulso h1 (x) y h2 (x) alimentados por la misma señal de entrada f (x): El término a la izquierda identi…ca el hecho de que la asociación en paralelo de dos SLI’s se pude ver como un único SLI cuya respuesta al impulso hp (x) es la suma de las respuestas al impulso de los sistemas iniciales, Fig. 6.14, hp (x) = h1 (x) + h2 (x):

(6.28)

Figura 6.14. Propiedad distributiva de la convolución trasladada a dos sistemas lineales e invariantes caracterizados por sus respuestas al impulso h1 (x) y h2 (x):

6.2.2

Memoria.

En base a la de…nición de memoria dada en la Secc. 3.4.3 y teniendo en cuenta el papel que juega la función respuesta al impulso dentro de la integral de convolución descrita en la sección anterior, parece evidente que un sistema como el descrito en la Fig. 6.10 sería un sistema con memoria, dado que la señal de salida en cualquier x dependerá de la señal de entrada en valores diferentes a ese x; tal y como se muestra en dicha …gura. Así, podremos hacer la pregunta al revés: ¿qué respuesta al impulso caracterizaría a un sistema sin memoria? La respuesta es sencilla, dado que, hasta el momento, sólamente conocemos un tipo de señal que seleccione un único punto de la función de entrada f(x); que es la delta de Dirac. En base a esto, el caso de un sistema lineal e invariante sin memoria sería como el representado en la Fig. 6.15, esto es, h(x ¡ x0 ) = ±(x ¡ x0 ) =) h(x) = ±(x) =) F ´ I;

(6.29)

es decir, la respuesta al impulso del operador identidad5 . Nótese que en este análisis, h(x) se obtendrá después de deshacer el desplazamiento y la re‡exión respecto al eje vertical (término a la derecha de la ecuación anterior). Este hecho sólo es factible gracias a la propiedad asociada a la familia de distribuciones f±(x ¡ x0 )g obtenida en (6.16) que resulta ser justamente la respuesta del sistema identidad para cualquier señal arbitraria, Z g(x) = I [f (x)] = f (x) = f(x0 )±(x ¡ x0 ) dx0 : (6.30) x0

5 Resulta

trivial comprobar que si h(x) = ±(x); el operador que describe el sistema será el operador identidad, F ´ I:

c Emilio Gago-Ribas, 2002 °

139

Figura 6.15. Visualización del concepto asociado a un sistema sin memoria en relación con su respuesta al impulso.

Resulta también evidente generalizar dicho resultado para cualquier operador en la forma, (6.31)

F = K ¢ I ¡! g(x) = Kf (x) ¡! h(x) = K±(x);

es decir, los únicos sistemas lineales e invariantes que son sin memoria son el identidad y la familia de operadores de escalado por una constante K 2 C: Nótese que el problema de una resistencia de valor R recorrida por una corriente i(t) puesto como ejemplo de sistema sin memoria en la Secc. 3.4.3 no es más que un caso particular del operador escalado cuando K = R: 6.2.3

Invertibilidad.

En la Secc. 3.4.4 de…nimos el operador inverso como aquel operador F¡1 que satisface la relación, F¡1 fF [f (x)]g = f (x);

(6.32)

equivalente a la asociación en serie de dos sistemas descritos por F y F¡1 ; respectivamente, donde las señales de entrada y de salida serían f (x): Esto signi…ca que la composición de ambos operadores, en caso de existir F¡1 ; debería ser igual al operador identidad, F¡1 fF(¢)g = I:

(6.33)

Asumiendo que ambos operadores, F y F¡1 ; son lineales e invariantes, cada uno de ellos estaría caracterizado por su respuesta al impulso h(x) y h¡1 (x); respectivamente, de forma que el operador completo vendría caracterizado por la convolución de ambas respuestas al impulso (Secc. 6.2.1). Como el operador identidad tiene por respuesta al impulso a ±(x); fácilmente podremos escribir la siguiente relación, (6.34)

h(x) ¤ G(x) = ±(x);

denotando6 por G(x) a la respuesta al impulso de F¡1 : Diremos entonces que un SLI caracterizado por h(x) tiene operador inverso si existe otro SLI caracterizado por G(x) tal que satisface la relación (6.34). Nótese que la posible existencia de operador inverso de un SLI no implica a priori que el inverso sea tambien lineal e invariante, ~ ; F¡1 2LI(S): ~ F 2LI(S) 6.2.4

(6.35)

Causalidad.

En base a la de…nición dada en la Secc. 3.4.5, y teniendo en cuenta el papel que la respuesta al impulso juega como determinante de qué parte de la señal de entrada in‡uye en la integral de convolución que caracteriza la señal de salida, resulta evidente describir la propiedad de causalidad en términos de h(x ¡ x0 ): Si h(x ¡ x0 ) toma valores diferentes de cero para puntos fuente x0 mayores que el punto de observación x; entonces el sistema será anticausal, dado que estaremos seleccionando valores de f(x0 ) a la derecha del valor x analizado. Este es el caso descrito, por ejemplo, en la Fig. 6.10. Analizado a la inversa, diremos que un SLI es causal si h(x ¡ x0 ) = 0 para todo x0 > x; 6 La

140

(6.36)

notación G(x) hace referencia a lo que habitualmente se conoce como función de Green de un operador.

c Emilio Gago-Ribas, 2002 °

tal y como se muestra en la Fig. 6.16. Deshaciendo una vez más el desplazamiento a x y la re‡exión respecto al eje vertical, diremos que el sistema es causal si h(x) = 0 para todo x < 0;

(6.37)

es decir, que la respuesta al impulso de un SLI sólo podría tomar valores diferentes de cero para x ¸ 0: En la Fig. 6.17 se muestra un ejemplo de respuesta al impulso para un SLI causal. Nótese cómo, con este ejemplo, se está anticipando una vez más que la respuesta a una ±(x) podrá ser, en general, otra señal de carácter localizador (impulsiva o no), en este caso una señal discontinua con una discontinuidad de valor …nito unidad. El paso de cero a uno se localiza en el origen produciéndose dicho salto de forma instantánea.

Figura 6.16. Visualización de la propiedad de causalidad de un sistema lineal e invariante en relación con su respuesta al impulso.

Figura 6.17. Ejemplo de la respuesta al impulso h(x) asociada a un sistema causal.

6.2.5

Estabilidad.

La propiedad de estabilidad de…nida en la Secc. 3.4.6 se puede trasladar directamente a la respuesta al impulso sin más que imponer la condición de valor acotado a la integral de convolución que de…ne la señal de salida, esto es, jf (x)j

F ¡! jg(x)j

G;

¯Z ¯ ¯Z ¯ ¯ ¯ ¯ ¯ 0 0 0¯ 0 0 0¯ ¯ ¯ jg(x)j = ¯ f (x )h(x ¡ x ) dx ¯ = ¯ f (x ¡ x )h(x ) dx ¯ 0 x0 Zx jf(x ¡ x0 )j jh(x0 )j dx0 x0 Z F jh(x0 )j dx0 = G:

(6.38)

(6.39)

x0

En este desarrollo se han tenido en cuenta las siguientes propiedades: (i) en la segunda igualdad se ha aplicado la propiedad conmutativa de la convolución; (ii) en la segunda desigualdad se ha tenido en cuenta que una re‡exión y un desplazamiento de la señal de entrada no modi…can la cota superior F que c Emilio Gago-Ribas, 2002 °

141

esta función peseía inicialmente y, por lo tanto, el valor del módulo de f (x ¡ x0 ) siempre será menor o igual que F; y (iii) que el valor …nal obtenido podría igualarse a la cota de g(x): De esta forma, podemos concluir que siendo F una cantidad …nita, para que la cota G lo sea también ha de satisfacerse que, Z 1 jh(x)j dx < 1; (6.40) ¡1

o lo que es lo mismo, que la respuesta al impulso del sistema h(x) sea absolutamente integrable.

142

c Emilio Gago-Ribas, 2002 °

7.

Distribuciones o Funciones Generalizadas

7.1

Introducción. Hemos estudiado hasta el momento los conceptos más básicos relativos a los espacios de señales de variable continua así como a la caracterización general de los sistemas operando sobre dichos espacios. En forma de resumen, podríamos hacer un esquema general de las principales ideas que deberíamos tener en mente en estos momentos: ² En relación con los espacios de señales, hemos considerado como punto de partida los espacios S(¡1; 1) y P (X0 ); compuestos de funciones complejas de variable real, aperiódicas o periódicas de período X0 ; continuas y de buen comportamiento. Una vez dotados dichos espacios de una estructura de espacio vectorial, hemos de…nido también un producto escalar válido, que dota al espacio de una norma y una métrica naturales, lo que nos permite medir distancias entre señales, medidas de la propia señal, proyecciones de unas señales sobre otras, y representaciones de elementos en teérminos de conjuntos de base, Caps. 2, 4 y 5.

Figura 7.1. Representación general de un problema descrito mediante los espacios de señales de partida S(¡1; 1) ó P (X0 ); y un sistema descrito por un operador F 2 L(S); L(P ); LI(S) ó LI(P ):

² Desde el punto de vista de los sistemas, es conveniente recordar dos hechos especialmente importantes: 1. Hemos introducido unos objetos matemáticos nuevos caracterizados por ser señales básicas localizadoras de tipo impulsivo. De forma totalmente intuitiva hemos llegado a obtener la de…nición de cómo sería uno de estos objetos, obteniéndose así: (i) el objeto conocido como delta de Dirac, ±(x); señal impulsiva que tomaremos como punto de partida; (ii) el mismo objeto desplazado fuera del origen, ±(x ¡ x0 ); y (iii) la colección de objetos f±(x ¡ x0 )g descritos por el parámetro x0 que describe todas las posibles localizaciones en forma continua, Cap. 6. 2. El punto anterior, junto con ciertas propiedades de los sistemas, nos ha permitido caracterizar cualquier sistema en términos de un operador integral cuya función núcleo es la así llamada respuesta al impulso. Si el sistema es lineal, la respuesta al impulso es un conjunto in…nito y continuo de funciones denotado por fh(x; x0 )g ; si el sistema es lineal e invariante, el sistema queda caracterizado por una única función respuesta a una delta localizada en el origen, h(x): El conjunto de funciones fh(x ¡ x0 )g queda, por lo tanto, descrito por una única función, Seccs. 6.1.6 y 6.1.7. 143

Figura 7.2. Representación general de las respuestas al impulso de un sistema lineal y de un sistema lineal e invariante. En el primer caso, la respuesta al impulso es un conjunto in…nito y continuo de funciones fh(x; x0 )g descritas por la variable x0 ; en el segundo caso, una única función h(x) identi…ca al conjunto fh(x ¡ x0 )g y, por lo tanto, el comportamiento del sistema. En todos los casos es previsible que dichas respuestas al impulso sean nuevas distribuciones D(x; x0 ) ó D(x):

3. Como consecuencia de ello, para un sistema lineal, el operador integral que de…ne el sistema puede ser escrito en términos de una integral de tipo convolutivo en la forma, Z g(x) = f (x0 )h(x; x0 ) dx0 : (7.1) x0

Para un sistema lineal e invariante, el operador integral de tipo convolutivo que de…ne el sistema se reduce a la operación de convolución estudiada en la Secc. 3.7.1, esto es, la salida g(x) se puede expresar en términos de la entrada f (x) en la forma Z g(x) = f (x) ¤ h(x) = f (x0 )h(x ¡ x0 ) dx0 : (7.2) x0

Nótese que esta de…nición es aplicable también a señales pertenecientes a P (X0 ) a menos que el sistema venga caracterizado por una respuesta al impulso periódica de perído X0 ; en cuyo caso la convolución será de tipo periódico tal y como se estudió en la Secc. 3.7.2. ² En base a este esquema general, hemos anticipado también que, una vez introducida una primera señal localizadora en el espacio de señales (la delta de Dirac), es natural anticipar el hecho de que aparezcan nuevas señales de carácter localizador sin más que aplicar diferentes operadores F sobre dicha señal de partida. Es decir, h(x) = F [±(x)] será, previsiblemente, una nueva función de carácter localizador (de tipo impulsivo o no), Fig. 7.2. Esto sugiere que deberíamos ampliar nuestros espacios de señales con objetos de este tipo. Estos objetos, tratados en forma general, serán lo que denominaremos distribuciones o funciones generalizadas, que denotaremos por D(x) dado, como veremos, su carácter de funcional.Así, hemos anticipado ya la ampliación de los espacios de señales de partida mediante la inclusión de D(¡1; 1) y P(X0 ); objeto de análisis del presente capítulo. ~ Dicha ampliación dio lugar a los espacios S(¡1; 1) y P~ (X0 ); Secc. 6.1.8.

² La obtención de distribuciones, y por lo tanto, de los espacios D(¡1; 1) y P(X0 ) se puede entender bien si tenemos en mente el concepto de generar nuevos objetos localizadores a partir de aplicar diferentes operadores sobre el objeto inicialmente de…nido, ±(x): De esta forma, las nuevas distribuciones se podrán interpretar como las respuestas al impulso de los diferentes operadores aplicados sobre ±(x); Fig. 7.2. Es más, como probaremos más adelante, y como se puede intuir fácilmente, la distribución ±(x) podrá ser considerada como la respuesta al impulso del operador identidad, F ´ I, operador básico dentro del espacio de operadores lineales e invariantes. Matemáticamente, podríamos expresar estos conceptos de la siguiente forma, I : ±(x) ¡! h(x) = I [±(x)] ´ D(x) = ±(x);

(7.3)

F : ±(x) ¡! h(x) = F [±(x)] ´ D(x): ² Parece lógico pensar entonces que, dado el carácter que cualquier distribución D(x) va a presentar como respuesta al impulso asociada a un determinado operador F lineal, o lineal e invariante, su de…nición como funcional pasa por el concepto de ser la función núcleo del operador integral de tipo convolutivo en (7.1), o la integral de convolución en (7.2), esto es, Z g(x) = F [f(x)] = f (x0 )D(x; x0 ) dx0 ; (7.4) x0

144

c Emilio Gago-Ribas, 2002 °

Figura 7.3. Ejemplo del modelado macroscópico de un problema en el tiempo mediante distribuciones. La señal de entrada será la distribución delta de Dirac de peso V0 , esto es, V0 ±(t); siendo la señal de salida (respuesta al impulso del sistema) la carga en el condensador Q(t) = F [V0 ±(t)] = CV0 ¡(t); descrita en términos de la distribución de Heaviside. El operador que describe el sistema será un operador Rt integral en la forma F = C ¡1 (¢) dt0 :

g(x) = F [f(x)] = f (x) ¤ D(x) =

Z

x0

f (x0 )D(x ¡ x0 ) dx0 :

(7.5)

Sólamente con estas razones de partida sería más que necesario intentar generalizar el concepto de funciones localizadoras. Sin embargo, podemos acudir a ejemplos de problemas físicos típicos para obtener más razones que avalen la ampliación de nuestros espacios de señales. Veamos algunos de estos ejemplos. ~ 1. Ejemplo en S(¡1; 1) siendo x ´ t:

Consideremos un sistema como el mostrado en la Fig. 7.3 constituído por un generador de tensión continua de valor V0 V. que se conecta a un condensador en el instante t = 0: Resulta evidente que existe un proceso transitorio de carga del condensador en instantes muy próximos a t = 0 que hace que no se produzca un salto instantáneo de carga en el mismo desde 0 hasta Q = C ¢ V0 Coulomb; sin embargo, dicho proceso transitorio se produce en instantes de tiempo extremadamente cortos, lo que hace que desde un punto de vista temporal macroscópico resulte muy útil modelar tanto la tensión como la carga por funciones escalón como las mostradas en la Fig. 7.3.

Nótese cómo estas funciones escalón, en principio, no serían tales dado que en el origen, t = 0; no tienen porqué estar de…nidas, y de hecho, sin describir el proceso transitorio, no lo están. Sólamente tendrían de…nido su valor a la derecha e izquierda del origen, de forma similar a la ±(x); mientras que justamente en el origen, lo que describen es un cambio instantáneo (localizado) de la señal, por lo cuál deberíamos considerarlas como un nuevo objeto localizador1 . ~ 2. Ejemplo en S(¡1; 1) siendo x ´ r:

Un ejemplo típico de discontinuidad espacial sería el problema del potencial creado por una carga puntual en el espacio de valor Q (Coulomb) a una distancia r de dicha carga2 , tal y como se muestra en la Fig. 7.4. Es bien sabido que el potencial varía inversamente proporcional a la distancia r; esto es, '(r) / 1=r; tal y como se muestra también en la Fig. 7.4. Este resultado es fruto de asumir toda la carga Q concentrada o localizada en un punto ideal del espacio de tamaño despreciable, aunque resulta evidente que desde el punto de vista físico, dicha carga ocupará una cierta región del espacio por muy pequeña que sea. Así mismo, la respuesta a dicho sistema resulta ser una función no de…nida en el origen (en este caso, además, es singular), es decir, justamente en el punto donde está localizada la fuente; desde este punto de vista, la función representa perfectamente lo que ocurre fuera de la carga; es más, si asumimos que la variable r fuese continua en (¡1; 1); la respuesta a esa carga podría pertenecer al espacio S(¡1; 1) de forma que, justamente en r = 0; tendríamos

1 Como veremos, una función escalón de salto unidad vista como una distribución será justamente la que denominaremos como distribución de Heaviside o distribución escalón. 2 Nótese que este problema es una versión unidimensional de un problema tridimensional donde r denota la coordenada esférica de…nida sólamente en el intervalo [0; 1):

c Emilio Gago-Ribas, 2002 °

145

Figura 7.4. Ejemplo del modelado macroscópico de un problema en el espacio mediante distribuciones. La señal de entrada será la distribución delta de Dirac de peso Q, esto es, Q±(r); siendo la señal de salida el potencial generado por dicha carga puntual '(r) = F [Q±(r)] = K Q=r; expresión que podríamos describir en términos de la distribución de Heaviside en la forma '(r) = [K Q=r] ¡(r). En este caso, '(r) ´ h(r); es decir, la respuesta al impulso del sistema. Nótese la singularidad en el origen de esta función, que da lugar a una discontinuidad in…nita.

una vez más un salto de tipo impulsivo (en este caso particular, en torno a r = 0; el salto sería entre 0 e in…nito, dada la singularidad de la función 1=r). 3. Ejemplo en P~ (X0 ) siendo x ´ t:

Otro ejemplo de interés práctico es considerar un sistema en el tiempo cuya señal de entrada es un tren de pulsos como el mostrado en la Fig. 7.5. Nos interesará en este caso analizar la respuesta del sistema frente a señales de variación instantánea de cero (apagado) a un cierto valor (encendido), y de un cierto valor a cero, de forma que, además, ese proceso se repita cada cierto tiempo T0 de forma inde…nida. Estaríamos hablando de nuevos objetos que describen un número in…nito y numerable de variaciones instantáneas localizadas3 de la señal. En este caso, el sistema estará operando sobre señales del espacio P (T0 ) discontinuas con saltos localizados en ciertos valores de la variable independiente. El resultado será entonces una distribución periódica de período T0 :

Figura 7.5. Ejemplo de un sistema operando sobre el espacio de señales P (T0 ): La señal de entrada f (t) será un tren de pulsos de amplitud unidad que consideraremos como una distribución periódica.

3O

146

…nito, si nos centramos en el análisis de un solo período de la señal.

c Emilio Gago-Ribas, 2002 °

Figura 7.6. Ejemplo práctico de recorte de una señal de buen comportamiento en un cierto intervalo. Desde el punto de vista matemático debería verse como el producto de una función de buen comportamiento f (x) y una distribución D(x); resultando de dicha operación una nueva distribución T (x) = f (x)D(x):

Nótese cómo en todos estos ejemplos, no sólo aparece el concepto ya mencionado de transformación de una señal localizadora que da lugar a nuevas señales localizadoras, sino que intrínsecamente aparecen nuevas señales localizadoras de gran interés práctico. Por otro lado, analizando cuidadosamente este tipo de objetos, podemos observar que tienen en común una propiedad muy importante, y es que en todos ellos aparecen funciones discontinuas. Esto signi…ca que con el análisis de estos objetos, estaremos incorporando de forma implicita a nuestros espacios de señales las señales discontinuas, o lo que es equivalente, las señales de…nidas a tramos. En cualquier caso, como funciones discontinuas que son, estaremos de alguna forma deshaciendo el concepto inicial de señales de buen comportamiento, dado que, por ejemplo, estas funciones, presentan la cualidad de no ser derivables en los puntos de discontinuidad. Nótese que las operaciones diferenciales (d=dx; d2 =dx2 ; etc.) son operaciones básicas desde dos puntos de vista: (i) introducen propiedades adicionales para la descripción del comportamiento de una función de forma local en cada punto (i.e. pendiente de la tangente para la primera derivada), y (ii) constituyen la base de todos aquellos sistemas descritos en términos de ecuaciones diferenciales, de especial importancia en la resolución de problemas prácticos. En este sentido, el incluir distribuciones o funciones generalizadas será también sumamente importante, dado que permitirán dar sentido a este tipo de operaciones para todo el dominio de de…nición de la variable independiente. Matemáticamente, sea f(x) una función discontinua en un punto x0 y de buen comportamiento a ambos lados de dicho punto; en este caso, df (x)=dx estaría de…nida para todo x excepto en x0 : Considerando f (x) como una distribución o función generalizada f(x) ´ F (x), la dF (x)=dx estará de…nida para todo x; incluído x0 : Este aspecto será tambien fundamental como razón para establecer la teoría de distribuciones y representar funciones en términos de ellas. Es importante hacer notar también que, en virtud de los conceptos expuestos anteriormente, las funciones discontinuas vistas como distribuciones, nos permitirán representar funciones a tramos a partir de funciones de buen comportamiento, tal y como se muestra en el ejemplo de la Fig. 7.6, conservando así las propiedades diferenciales para todo el dominio de de…nición de la nueva función, dado que el resultado del producto de una función f(x) de buen comportamiento por una distribución D(x) será, como veremos, una nueva distribución T (x) = f (x)D(x). Citar …nalmente que en las referencias [28]-[33] se puede encontrar una información mucho más detallada, exhaustiva y rigurosa acerca de la teoría algebraica de espacios de funciones generalizadas o espacios de distribuciones.

c Emilio Gago-Ribas, 2002 °

147

7.2

De…nición general de una distribución.

7.2.1

De…nición general.

Una distribución es un funcional lineal sobre un espacio su…cientemente amplio de funciones de buen comportamiento actuando sobre éstas a través del producto escalar de…nido en dicho espacio de funciones, Z 1 D : f(x) ¡! hf (x); D(x)i = f(x)D(x)dx 2 C: ¡1

(7.6)

Si la función f (x) = 1; obtendremos una de…nición propia de la distribución en la forma, Z 1 h1; D(x)i : 1 ¡! D(x) dx 2 R ½ C:

(7.7)

¡1

Nótese que justamente esta propiedad es la que se usó en el caso de ±(x) para su de…nición inicial, (6.4). La de…nición en términos del producto escalar y su traducción en términos de un operador integral de núcleo la distribución D(x) no es arbitraria sino que viene motivada por todo lo expuesto en el Cap. 6 en relación con la distribución delta y la posterior representación de cualquier operador en términos de la respuesta al impulso. 7.2.2

De…nición a partir de una sucesión de funciones.

En base al desarrollo realizado para ±(x) en la Secc. 6.1.1 partiendo de funciones continuas, podremos generalizar este resultado diciendo que cualquier distribución se podrá construir como el límite de una sucesión de funciones de buen comportamiento. Esta de…nición será especialmente útil para visualizar algunas de las propiedades asociadas a las distribuciones. En general, de…niremos dicha sucesión de funciones en la forma, fd¢ (x)g tal que lim d¢ (x) = D(x):

(7.8)

n!0

Veremos algunos ejemplos de este tipo de sucesiones al estudiar las distribuciones que analizaremos en el presente capítulo. 7.2.3

Distribuciones como respuestas al impulso de un operador lineal e invariante.

Teniendo en cuenta los conceptos expuestos anteriormente y recalcándo el hecho de que un sistema (o el operador que lo identi…ca) que sea lineal e invariante, basa su caracterización general en términos de una función localizadora e impulsiva a su entrada (la delta de Dirac) y de la operación de convolución ya de…nida (7.5), podremos generalizar este resultado a cualquier función localizadora de la forma siguiente: ² Consideremos el esquema mostrado en la Fig. 7.2 donde cualquiera de los operadores F que actúen sobre la señal de entrada sean lineales e invariantes. La respuesta al impulso se corresponderá con una nueva distribución de…nida a través de dicho operador en la forma, 8 9 > < F : ±(x) ¡! h(x) = D(x) = F [±(x)] > = =) > > : F : f (x) ¡! g(x) = F [f (x)] ; =) F [f (x)] =

Z

x0

f(x0 )D(x ¡ x0 ) dx0 :

(7.9)

² Esta última expresión se puede generalizar de la siguiente forma, F [f (x)] = f (x) ¤ D(x);

(7.10)

expresión que representará la forma de actuación de D(x) sobre una función f(x) para todo valor de x:

148

c Emilio Gago-Ribas, 2002 °

² Dehaciendo las dos operaciones básicas asociadas a la operación de convolución, esto es: (a) el desplazamiento sobre D(x ¡ x0 ); por ejemplo, calculando la función de salida en el origen, g(0); Z g(0) = f (x)D(¡x) dx; (7.11) x

y (b) la re‡exión D(¡x); podremos relacionar la de…nición de una distribución con la siguiente de…nición: Una distribución D(x) es un funcional real (Seccs. 3.2.1 y 3.3.1) tal que a una función f (x) de buen comportamiento le asocia un número complejo (o real como caso particular), esto es, D : FK ¡! C; D : f(x) ¡!

Z

x

(7.12)

f (x)D(x) dx 2 C;

denotando por el subíndice x de la integral el dominio de de…nición adecuado de la función4 . En virtud de las propiedades que tenga la distribución D(x) bajo análisis, así será la relación entre ambas expresiones. ² De…nición propia: considerando la función f(x) = 1 en (7.12) obtendremos la que denominamos previamente como de…nición propia de la distribución, D : FC ¡! R ½ C; D : 1 ¡!

Z

x

(7.13)

D(x) dx 2 R ½ C:

Esta de…nición hará normalmente referencia a alguna propiedad particular de la distribución; por ejemplo, en el caso en que D(x) ´ ±(x); la de…nición propia vendrá dada por (6.6).

² En las siguientes secciones del presente capítulo analizaremos algunas de las distribuciones asociadas a algunos de los operadores lineales e invariantes más importantes, en particular los relativos a operadores diferenciales e integrales. Los desarrollos allí expuestos nos permitirán visualizar mejor las di…niciones previamente analizadas. En la tabla de la Secc. 7.9 se recogen en forma de resumen los casos que analizaremos en las siguientes secciones. 7.2.4

Distribuciones como respuestas al impulso de un operador lineal.

Si el sistema (o el operador que lo identi…ca) es lineal sólamente, su caracterización vendrá dada en términos de una función localizadora e impulsiva a su entrada (la delta de Dirac) y de la operación de tipo convolutivo de…nida en (7.4). Podremos entonces generalizar este resultado a cualquier función localizadora de la forma siguiente: ² Consideremos el esquema mostrado en la Fig. 7.2 donde cualquiera de los operadores F que actúen sobre la señal de entrada sean lineales. El conjunto de respuestas al impulso fh(x; x0 )g se corresponderá con un conjunto de nuevas distribuciones fD(x; x0 )g de…nidas a través de dicho operador en la forma, 8 9 < F : ±(x ¡ x0 ) ¡! h(x; x0 ) = D(x; x0 ) = F [±(x ¡ x0 )] = =) : F : f(x) ¡! g(x) = F [f(x)] ; =)

F [f (x)] =

Z

x0

f (x0 )D(x; x0 ) dx0 :

(7.14)

² En este caso la de…nición de la distribución no se puede reducir a una única distribución, obteniendo una de…nición para todo el conjunto de distribuciones descritas por D(x; x0 ) a través de la relación en (7.14). 4 Valores

de x donde la función no es nula.

c Emilio Gago-Ribas, 2002 °

149

7.3

La distribución delta de Dirac. Dado que la función impulsiva ±(x) ya se obtuvo en el Cap. 6, realizaremos aquí un análisis de dicha distribución a modo de repaso en base a las de…niciones generales dadas anteriormente.

7.3.1

De…nición a partir de una sucesión de funciones de buen comportamiento.

Consideremos la siguiente sucesión de funciones de buen comportamiento5 , d¢ (x) =

2 2 1 p e¡x =¢ : ¢ ¼

(7.15)

Dicha sucesión de funciones, controlada por el parámetro ¢; se ha de…nido de forma que su integral a lo largo de su intervalo de de…nición (¡1; 1) sea la unidad, esto es, Z 1 d¢ (x) dx = 1: (7.16) ¡1

Nótese que esto se hace pensando en la condición previamente exigida de que la integral de ±(x) a lo largo de todo el eje x es siempre la unidad. La representación de algunas de esas funciones para diferentes valores de ¢ se muestra en la Fig. 7.7(a), Secc. 7.9. A medida que ¢ disminuye, las funciones tienden a hacerse cada vez más estrechas y de amplitud cada vez mayor, pero conservado la propiedad de que el área bajo la curva es siempre la unidad. En el límite cuando ¢ ! 0 obtendremos una señal de tipo localizador e impulsivo de…nida ésta como aquella de ancho nulo y de amplitud in…nita tal que su integral es siempre la unidad. Dicha señal de tipo impulsivo será la delta de Dirac, ±(x); ¸ Z 1 2 2 1 p e¡x =¢ ; tal que ±(x) = lim d¢ (x) = lim ±(x) dx = 1: (7.17) ¢!0 ¢!0 ¢ ¼ ¡1 Como siempre, esta visión nos da una idea intuitiva del comportamiento de la distribución. Veamos ahora su de…nición más rigurosa. 7.3.2

De…nición general.

La de…nición general dada en (7.6) se particularizará ahora de la siguiente forma, Z 1 ± : f(x) ¡! hf(x); ±(x)i = f(x)±(x) dx = f (0): ¡1

7.3.3

(7.18)

La distribución delta de Dirac como respuesta al impulso. ² Reproduciendo el esquema de la Secc. 7.2.3, resulta trivial identi…car a ±(x) como la respuesta al impulso del operador identidad; así, 8 9 Z < I : ±(x) ¡! D(x) = I [±(x)] = ±(x) = =) f(x) = f (x0 )±(x ¡ x0 ) dx0 ; (7.19) : I : f(x) ¡! g(x) = I [f(x)] = f(x) ; 0 x f(0) =

Z

f(x)±(¡x) dx;

(7.20)

f (x)±(x) dx:

(7.21)

x

f(0) =

Z

x

5 En este caso consideraremos funciones de tipo Gaussiano aunque se pueden utilizar otro tipo de funciones para su de…nición, algunas de las cuales se estudian en el Ap. C. En el Ap. F.3 se presenta un análisis detallado de las funciones usadas en este capítulo.

150

c Emilio Gago-Ribas, 2002 °

En la última relación se ha utilizado la propiedad de paridad de ±(x) para deshacer la re‡exión. Diremos entonces que ±(x) es un funcional tal que, ± : FC ¡! C; Z 1 ± : f (x) ¡! f (x)±(x) dx = f (0);

(7.22)

¡1

expresión totalmente equivalente a la dada por (7.18). ² Su de…nición propia vendrá dada por, ± : 1 ¡! h1; ±(x)i =

Z

1

±(x) dx = 1:

¡1

(7.23)

² Nótese que estas de…niciones vendrían complementadas con la propiedad trivial, ±(x) = 0 para todo x 6= 0;

(7.24)

mientras que en x = 0 la distribución no está de…nida. 7.3.4

Propiedades básicas.

Describiremos a continuación algunas propiedades importantes de la delta de Dirac. ² La distribución ±(x) es real y par: ±(x ¡ y) = ±(y ¡ x):

(7.25)

Un caso particular de esta propiedad resulta cuando el desplazamiento es nulo, de forma que (7.26)

±(¡x) = ±(x): ² Resulta también trivial demostrar la siguiente propiedad: Z 1 Z 1 f (0) = f(x)±(x) dx = f(x)±(¡x) dx: ¡1

(7.27)

¡1

² Escalado de la variable independiente: sea a un número real no nulo; la siguiente propiedad de escalado se satisface siempre, ±(ax) =

1 ±(x); jaj

(7.28)

La demostración de esta propiedad se puede encontrar en el Ap. D. Nótese que la expresión anterior debe interpretarse como, Z 1 1 1 ±(x)f (x) dx = f(0): (7.29) jaj jaj ¡1 ² Unidades de ±(x): A partir de la de…nición básica puede observarse que las unidades de ±(x) han de ser el inverso de las unidades de la magnitud que represente la variable independiente, por ejemplo, s-1 en el caso del tiempo, o m-1 en el caso de representar una magnitud espacial unidimensional. Nótese que desde un punto de vista físico, la relación f (x)±(x) = f(0)±(x);

(7.30)

(véase la Secc. 7.8) representa una densidad de la magnitud f(x) en el origen respecto de la magnitud representada por la variable independiente. Veamos algunos ejemplos sencillos: 1. La densidad de corriente impulsiva en el tiempo J (Amp/s) correspondiente a una corriente I (Amp) se puede representar de la siguiente forma, Z 1 Z 1 J(t) = I±(t) ¡! J(t) dt = I±(t) dt = I (Amp): (7.31) ¡1

c Emilio Gago-Ribas, 2002 °

¡1

151

2. La representación de una densidad de carga impulsiva en un espacio-1D ½(r) (Coulomb/m) correspondiente a una carga total Q (Coulomb) se puede realizar de la siguiente forma, Z 1 Z 1 ½(r) = Q±(r) ¡! ½(r)dr = Q±(r)dr = Q (Coulomb): (7.32) ¡1

0

Es por esta razón que la distribución delta se usa de forma extensiva para representar densidades de fuentes en modelos matemáticos de diferentes problemas físicos tales como problemas de radiación y propagación de ondas electromagnéticas y acústicas, etc. ² Nótese de la ecuación (7.19) que la convolución de una función f(x) con la distribución ±(x) da lugar al muestreo de la función f(x); f(x) ¤ ±(x) = f (x):

7.4

(7.33)

La primera derivada de la delta de Dirac. Consideremos ahora el esquema mostrado en la Fig. 7.2 cuando el operador F = d=dx: En este caso, la respuesta al impulso será un nuevo objeto matemático que identi…caremos con ± 0 (x):

7.4.1

De…nición a partir de una sucesión de funciones de buen comportamiento.

Para obtener la primera derivada de ±(x) bastará con considerar la sucesión de funciones de buen comportamiento obtenida a partir de derivar la sucesión de funciones para la delta en (7.15), obteniéndose fácilmente la siguiente expresión6 , d0¢ (x) =

2 2 ¡2 p xe¡x =¢ : 3 ¢ ¼

(7.34)

Resulta fácil comprobar a través de su representación grá…ca que la integral de dicha función es nula, esto es, Z 1 d0¢ (x) dx = 0: (7.35) ¡1

La representación de algunas de esas funciones para diferentes valores de ¢ se muestra en la Fig. 7.7(b), Secc. 7.9. A medida que ¢ disminuye, las funciones tienden a hacerse cada vez más estrechas a izquierda y derecha del origen y, en ambos casos, de amplitud mayor, pero conservado la propiedad de que el área bajo la curva es siempre cero. En el límite cuando ¢ ! 0 obtendremos un nuevo objeto de tipo localizador e impulsivo que puede ser representado, a tenor del comportamiento de la sucesión de funciones en el límite, por dos deltas localizadas en x = 0¨ : Denotaremos a este nuevo objeto impulsivo por ± 0 (x); ¸ Z 1 ¡2 0 0 ¡x2 =¢2 p xe ; tal que ± 0 (x) dx = 0: (7.36) ± (x) = lim d¢ (x) = lim ¢!0 ¢!0 ¢3 ¼ ¡1 En el Ap. C se muestran otras posibles sucesiones de buen comportamiento igualmente válidas para su caracterización. 7.4.2

De…nición general.

La de…nición general dada en (7.6) se particularizará ahora de la siguiente forma, Z 1 ® ± 0 : f (x) ¡! f (x); ± 0 (x) = f (x)± 0 (x) dx = ¡f 0 (0): ¡1

(7.37)

Veremos a continuación la demostración de esta de…nición. 6 En

152

el Ap. F.3 se presenta un análisis detallado de esta función.

c Emilio Gago-Ribas, 2002 °

7.4.3

La primera derivada de la delta de Dirac como respuesta al impulso. ² Como respuesta al impulso, ± 0 (x) identi…ca al es lineal e invariante. Así, 8 d±(x) > > = ± 0 (x) < F : ±(x) ¡! D(x) = dx > > : F : f (x) ¡! g(x) = df(x) = f 0 (x) dx f 0 (0) =

operador primera derivada, F ´ d=dx; operador que 9 > > = > > ;

Z

=) f 0 (x) =

Z

x0

f (x0 )± 0 (x ¡ x0 ) dx0 ;

f (x)± 0 (¡x) dx;

(7.38)

(7.39)

x

¡f 0 (0) =

Z

f(x)± 0 (x) dx:

(7.40)

x

Nótese que en este caso se ha utilizado la propiedad de imparidad de ± 0 (x) para deshacer la re‡exión, propiedad que resulta evidente a partir del comportamiento de la sucesión de funciones en (7.34). La demostración de la última igualdad se podría también analizar sin más que aplicar una integración por partes7 . Diremos entonces que ± 0 (x) es un funcional tal que, ± 0 : FC ¡! C; Z 1 ± 0 : f (x) ¡! f(x)± 0 (x) dx = ¡f 0 (0);

(7.41)

¡1

expresión que se corresponde exactamente con (7.37). ² Su de…nición propia vendrá dada por, ® ± (x) : 1 ¡! 1; ± 0 (x) = 0

Z

1

± 0 (x) dx = 0:

¡1

(7.42)

² La distribución primera derivada de la delta se de…ne entonces como aquella distribución que, aplicada sobre una función de buen comportamiento, nos devuelve el valor de la derivada de dicha función en el origen cambiada de signo. Nótese que estas de…niciones vendrían complementadas con la propiedad trivial, ± 0 (x) = 0 para todo x 6= 0;

(7.43)

mientras que en x = 0 la distribución no está de…nida y presenta un comportamiento impulsivo como el indicado previamente. 7.4.4

Propiedades básicas.

Describiremos a continuación algunas propiedades importantes de la primera derivada de la delta de Dirac. ² La distribución ± 0 (x) es real e impar: ± 0 (x ¡ y) = ¡± 0 (y ¡ x):

(7.44)

Un caso particular de esta propiedad resulta cuando el desplazamiento es nulo, de forma que

7 Consideremos

R

± 0 (¡x) = ¡± 0 (x):

(7.45)

u(x) = f (x) y v(x) = ± 0 (x) dx = ±(x): De esta forma, R1 R1 1 0 0 0 ¡1 f (x)± (x) dx = [f (x)±(x)]¡1 ¡ ¡1 f (x)±(x) dx = ¡f (0):

c Emilio Gago-Ribas, 2002 °

153

² Resulta trivial demostrar la siguiente propiedad a partir de la de…nición en (7.41) y la ecuación (7.45), Z Z f 0 (0) = f(x)± 0 (¡x) dx = ¡ f (x)± 0 (x) dx: (7.46) x

x

² Nótese de la ecuación (7.38) que la convolución de una función f(x) con la distribución ± 0 (x) da lugar al muestreo de la primera derivada de la función f(x); f (x) ¤ ± 0 (x) = f 0 (x):

7.5

(7.47)

La segunda derivada de la delta de Dirac. Consideremos el esquema mostrado en la Fig. 7.2 cuando el operador F = d2 =dx2 : En este caso, la respuesta al impulso será un nuevo objeto matemático que identi…caremos por ± 00 (x):

7.5.1

De…nición a partir de una sucesión de funciones de buen comportamiento.

Para obtener la segunda derivada de ±(x) bastará con considerar la sucesión de funciones de buen comportamiento obtenida a partir derivar nuevamente la primera derivada de la sucesión de funciones para la delta en (7.34), obteniéndose fácilmente la siguiente expresión8 , ¸ 2 2 2 x2 00 d¢ (x) = 3 p 2 2 ¡ 1 e¡x =¢ : (7.48) ¢ ¼ ¢ Resulta fácil comprobar a través de su representación grá…ca que la integral de dicha función será nula como en el caso de la primera derivada, esto es, Z 1 d00¢ (x) dx = 0: (7.49) ¡1

La representación de algunas de esas funciones para diferentes valores de ¢ se muestra en la Fig. 7.7(c), Secc. 7.9. A medida que ¢ disminuye, las funciones tienden a hacerse cada vez más estrechas a la izquierda, a la derecha y en el mismo origen y, en ambos casos, de amplitud mayor, pero conservado la propiedad de que el área bajo la curva sea siempre cero. En el límite cuando ¢ ! 0 obtendremos un nuevo objeto de tipo localizador e impulsivo que ser representado, a tenor del comportamiento de la sucesión de funciones en el límite, por dos localizadas en x = 0¨ y otra delta de amplitud doble y signo negativo en x = 0: Denotaremos nuevo objeto impulsivo por ± 00 (x); ¸ ¸ x2 2 ¡x2 =¢2 p ± 00 (x) = lim d00¢ (x) = lim 2 ¡ 1 e ; ¢!0 ¢!0 ¢3 ¼ ¢2 Z 1 tal que ± 00 (x) dx = 0:

puede deltas a este

(7.50)

¡1

En el Ap. C se muestran otras posibles sucesiones de buen comportamiento igualmente válidas. 7.5.2

De…nición general.

La de…nición general dada en (7.6) se particularizará ahora de la siguiente forma, Z 1 ® ± 00 : f (x) ¡! f (x); ± 00 (x) = f(x)± 00 (x) dx = f 00 (0): ¡1

(7.51)

Veremos a continuación la demostración de esta de…nición. 8 En

154

el Ap. F.3 se presenta un análisis detallado de esta función.

c Emilio Gago-Ribas, 2002 °

7.5.3

La segunda derivada de la delta de Dirac como respuesta al impulso. ² Como respuesta al impulso, ± 00 (x) identi…ca al operador segunda derivada, F ´ d2 =dx2 ; operador que es lineal e invariante. Así, 8 9 d2 ±(x) > > 00 > Z = ± (x) > < F : ±(x) ¡! D(x) = = dx2 00 =) f (x) = f(x0 )± 00 (x ¡ x0 ) dx0 ; (7.52) 2 > > 0 d f (x) x > > 00 : F : f (x) ¡! g(x) = ; = f (x) dx2 Z f 00 (0) = f (x)± 00 (¡x) dx; (7.53) x

f 00 (0) =

Z

f (x)± 00 (x) dx:

(7.54)

x

Nótese que en este caso se ha utilizado la propiedad de paridad de ± 00 (x) para deshacer la re‡exión. Esta propiedad es evidente sin más que recurrir a su representación en términos de la sucesión de funciones previamente analizada. Diremos entonces que ± 00 (x) es un funcional tal que, ± 00 : f (x) ¡! C; Z 1 ± 00 : f(x) ¡! f (x)± 00 (x) dx = f 00 (0);

(7.55)

¡1

expresión que se corresponde exactamente con (7.51). ² Su de…nición propia vendrá dada por,

® ± (x) : 1 ¡! 1; ± (x) = 00

-

00

Z

1

± 00 (x) dx = 0:

¡1

(7.56)

² La distribución delta segunda se de…ne entonces como aquella distribución que, aplicada sobre una función de buen comportamiento, nos devuelve el valor de la segunda derivada de dicha función en el origen. Nótese que, una vez más, estas de…niciones vendrían complementadas con la de…nición trivial, ± 00 (x) = 0 para todo x 6= 0;

(7.57)

asumiendo con dicha de…nición que en x = 0 la distribución no está de…nida y tiene el comportamiento indicado previamente. 7.5.4

Propiedades básicas.

Describiremos a continuación algunas propiedades importantes asociadas a la segunda derivada de la delta de Dirac. ² La distribución ± 00 (x) es real y par:

± 00 (x ¡ y) = ± 00 (y ¡ x):

(7.58)

± 00 (¡x) = ± 00 (x):

(7.59)

Un caso particular de esta propiedad resulta cuando el desplazamiento es nulo, de forma que

² Resulta trivial demostrar la siguiente propiedad en virtud de la de…nición en (7.55) junto con la propiedad de paridad, Z Z 00 00 f (0) = f(x)± (x) dx = f (x)± 00 (¡x) dx: (7.60) x

x

² Nótese de la ecuación (7.52) que la convolución de una función f(x) con la distribución ± 00 (x) da lugar al muestreo de la segunda derivada de la función f (x); f(x) ¤ ± 00 (x) = f 00 (x): c Emilio Gago-Ribas, 2002 °

(7.61)

155

7.6

La distribución de Heaviside o escalón unidad. La función de Heaviside o distribución escalón unidad se de…ne como, 9 8 < 0 si x < 0 = : ¡(x) = : 1 si x > 0 ;

(7.62)

Nótese en primer lugar que dicha función es discontinua y no está de…nida en x = 0; de forma que, por ejemplo, vista como función usual, tanto la primera derivada como las derivadas sucesivas no están de…nidas en el origen. Esto hace que esta función deba de ser analizada también como una distribución, dado su caracter localizador en el origen (salto de 0 a 1 en un ¢x ! 0): 7.6.1

De…nición a partir de una sucesión de funciones de buen comportamiento.

Para obtener la distribución de Heaviside ¡(x) bastará con considerar alguna sucesión de funciones de buen comportamiento que, en el límite, represente el comportamiento descrito en (7.62), por ejemplo, ³x´ 1 1 d¢ (x) = + tan¡1 : (7.63) 2 ¼ ¢ Resulta fácil comprobar a través de su representación grá…ca que la integral de dicha función será divergente, esto es, Z 1 d¢ (x) dx ! 1: (7.64) ¡1

La representación de algunas de esas funciones para diferentes valores de ¢ se muestra en la Fig. 7.7(d), Secc. 7.9. A medida que ¢ disminuye, las funciones tienden al valor nulo para valores negativos de la variable independiente, y al valor unidad para valores positivos. En el límite cuando ¢ ! 0 obtendremos una nueva señal de tipo localizador que coincide en comportamiento con la función de Heaviside, con la excepción de que, en el origen, la sucesión de funciones tiende al valor de 1=2; 9 8 > ¸ 0 si x < 0 > = < ´ ³ 1 1 x : (7.65) ¡(x) = lim d¢ (x) = lim + tan¡1 =) ¡(x) = 1=2 si x = 0 > ¢!0 ¢!0 2 > ¼ ¢ ; : 1 si x > 0 Nótese que esta nueva de…nición no tiene mayor trascendencia desde el punto de vista algebraico dado que la de…nición de 1=2 en el origen no modi…ca en nada la métrica del espacio de señales, de…nida en términos integrales. En el Ap. C se muestran otras posibles sucesiones de buen comportamiento igualmente válidas.

7.6.2

De…nición general.

La de…nición general dada en (7.6) se particularizará ahora de la siguiente forma, Z 1 R1 ¡ : f (x) ¡! hf(x); ¡(x)i = f(x)¡(x) dx = 0 f(x) dx: ¡1

(7.66)

Veremos a continuación la demostración de esta de…nición. Nótese que en este caso la de…nición particular no identi…ca ninguna propiedad de la distribución, Z 1 h1; ¡(x)i : 1 ¡! ¡(x) dx ! 1: (7.67) ¡1

7.6.3

La distribución de Heaviside como respuesta al impulso. Rx ² Como respuesta al impulso, ¡(x) identi…ca al operador integral F ´ ¡1 dy; operador que es lineal e invariante. Así, 8 9 Z x > > > > F : ±(x) ¡! D(x) = ±(y) dy = ¡(x) > > Z x Z < = ¡1 f (y) dy = f(x0 )¡(x ¡ x0 ) dx0 ; (7.68) =) Z x > > 0 ¡1 x > > > > f(y) dy ; : F : f (x) ¡! g(x) = ¡1

156

c Emilio Gago-Ribas, 2002 °

Z

0

f(y) dy =

¡1

Z

Z

f(x)¡(¡x) dx;

(7.69)

x

f (x)¡(x) dx = x

Z

1

f (x) dx:

(7.70)

0

Nótese como, en este caso, la distribución ¡(x) no es par ni impar, de forma que la re‡exión se deshace en base a la de…nición obtenida a partir de su representación en términos de la sucesión de funciones previamente analizada. Diremos entonces que ¡(x) es un funcional tal que,

¡ : f(x) ¡!

Z

¡ : f (x) ¡! C;

1

f (x)¡(x) dx =

0

Z

1

(7.71) f (x) dx;

0

expresión que se corresponde exactamente con (7.66). ² La distribución de Heaviside se de…ne entonces como aquella distribución que, aplicada sobre una función de buen comportamiento, nos devuelve el valor de la integral desde 0 a in…nito de dicha función. Nótese que, en este caso, el hecho de que la de…nición propia sea divergente no plantea ningún problema dado que en este caso, el comportamiento localizador no es impulsivo sino …nito y, por lo tanto, perfectamente de…nido entre cero y uno, a diferencia de las distribuciones ±(x); ± 0 (x) y ± 00 (x); que en todos los casos son señales impulsivas divergentes en torno al origen, en cuyo caso sí que la de…nición propia es necesaria. 7.6.4

Propiedades básicas.

Describiremos a continuación algunas propiedades importantes de la distribución de Heaviside: ² Resulta trivial comprobar la siguiente propiedad, Z Z f (x)¡(¡x) dx =

0

f(x) dx:

(7.72)

¡1

x

² Esta distribución se puede representar y expresar en términos de la distribución delta de la forma siguiente (nótese que ±(x) tampoco está de…nida en x = 0), Z x ¡(x) = ±(y) dy: (7.73) ¡1

A partir de ella se puede inferir rápidamente la siguiente propiedad importante, ±(x) =

d¡(x) : dx

(7.74)

La interpretación grá…ca de esta última relación se puede ver grá…camente comparando las Figs. 7.7(a) y 7.7(d). ² En virtud de la propiedad anterior es importante hacer notar cómo a través de la de…nición de las distribuciones es posible extender la operación derivada a todo el rango de la variable independiente para funciones sobre las que inicialmente dicha operación no estaba de…nida sobre todos sus puntos. En particular, para cualquier función que tenga una discontinuidad …nita en un cierto punto x0 ; su derivada en dicho punto será una delta sin más que escribir inicialmente dicha discontinuidad en términos de ¡(x): ² La propiedad descrita en (7.74) es claramente extensible a las sucesiones de funciones asociadas a cada una de las distribuciones; por ejemplo, si consideramos la sucesión d¢ (x) en (7.63) de…nida para obtener ¡(x); su primera derivada, d0¢ (x) deberá darnos una sucesión válida para ±(x): Así, d¢ (x) =

³x´ 1 1 ¢=¼ + tan¡1 ¡! d0¢ (x) = 2 ; 2 ¼ ¢ x + ¢2

(7.75)

obteniéndose una sucesión perfectamente válida para de…nir ±(x); Ap. C. c Emilio Gago-Ribas, 2002 °

157

² Desde el punto de vista de describir (7.74) y (7.73) en términos de los operadores asociados a cada distribución, es posible obtener la siguiente propiedad, 8 9 ¸ d > > > > > < ¡(x) ¡! F = dx ¡! ±(x) > = =) ¡(x) ¤ ± 0 (x) = ±(x); (7.76) ¸ > > d > > 0 > > ¡! ± (x) ; : ±(x) ¡! F = dx o lo que es lo mismo, en base a la propiedad (6.34), diremos que el operador derivada es el inverso del operador integral entre ¡1 y x; o viceversa, Z x d F= =) F¡1 = dy: (7.77) dx ¡1

² Nótese de la ecuación (7.68) que la convolución de una función f(x) con la distribución ¡(x) da lugar a la integral de f(x) entre ¡1 y x para todo valor de x; Z x f(x) ¤ ¡(x) = f(y) dy: (7.78) ¡1

7.7

La distribución signo. La función signo se de…ne como, sgn(x) =

8 9 < ¡1 si x < 0 = :

1 si x > 0 ;

(7.79)

:

Esta función se puede relacionar directamente con la función de Heaviside analizada previamente. Para ello, sólamente es necesario analizar el valor medio de ¡(x) que resulta ser 1=2; podremos escribir entonces, 1 ¡1 (x) = ¡(x) ¡ ; 2 directamente relacionada con la función signo, ¡1 (x) =

(7.80)

1 sgn(x): 2

(7.81)

Una vez más, la distribución sgn(x) es discontinua y no está de…nida en x = 0; de forma que analizada como función usual, tanto la primera derivada como sus derivadas sucesivas no están de…nidas en el origen. Esto hace que esta función deba de ser también analizada como una distribución, dado su caracter localizador en el origen (salto de ¡1 a 1 en un ¢x ! 0): 7.7.1

De…nición a partir de una sucesión de funciones de buen comportamiento.

Resulta evidente que la distribución de funciones de buen comportamiento para de…nir ¡1 (x) será la misma que para la distribución de Heaviside en (7.63) sin más que restarle su valor medio, y multiplicando por dos para el caso de la distribución sgn(x); ³x´ 1 ¡! [¢ ! 0] ¡! ¡1 (x); (7.82) d¢ (x) = tan¡1 ¼ ¢

³x´ 2 tan¡1 ¡! [¢ ! 0] ¡! sgn(x): (7.83) ¼ ¢ Resulta fácil comprobar a través de su representación grá…ca que la integral de dicha función será nula, esto es, Z 1 d¢ (x) dx = 0: (7.84) d¢ (x) =

¡1

La representación de algunas de esas funciones para diferentes valores de ¢ se muestra en la Fig. 7.7. Su análisis será similar al realizado para la distribución de Heaviside. 158

c Emilio Gago-Ribas, 2002 °

7.7.2

De…nición general.

La de…nición general dada en (7.6) se particularizará ahora de la siguiente forma, Z 1 Z 1 Z 0 sgn : f(x) ¡! hf (x); sgn(x)i = f (x) sgn(x) dx = f (x) dx ¡ f (x) dx: ¡1

¡1

0

(7.85)

Veremos a continuación la demostración de esta de…nición. 7.7.3

La distribución signo como respuesta al impulso. Rx R1 ² Como respuesta al impulso, sgn(x) identi…ca al operador integral F ´ ¡1 dy ¡ x dy; operador que es lineal e invariante. Así, 8 9 Z x Z 1 > > > > F : ±(x) ¡! D(x) = ±(y) dy ¡ ±(y) dy = sgn(x) > > < = ¡1 x =) Z x Z 1 > > > > > > f (y) dy ¡ f (y) dy : F : f (x) ¡! g(x) = ; ¡1 x Z x Z 1 Z =) f (y) dy ¡ f (y) dy = f (x0 ) sgn(x ¡ x0 ) dx0 ; (7.86) ¡1

Z

0

¡1

Z

x0

x

f (y) dy ¡

Z

1

f (y) dy =

0

f (x) sgn(x) dx =

x

Z

f (x) sgn(¡x) dx;

(7.87)

x

Z

0

1

f (x) dx ¡

Z

0

f (x) dx:

(7.88)

¡1

Diremos entonces que sgn(x) es un funcional tal que,

sgn : f (x) ¡!

Z

1 0

sgn : FC ¡! C; Z 1 Z f(x) sgn(x) dx = f(x) dx ¡ 0

(7.89)

0

f(x) dx; ¡1

expresión que se corresponde exactamente con (7.85). ² Su de…nición propia vendrá dada por, sgn : 1 ¡! h1; sgn(x)i =

7.8

Z

1

sgn(x) dx = 0:

¡1

(7.90)

Propiedades importantes de las distribuciones. Describiremos a continuación algunas propiedades especialmente importantes a la hora de operar con funciones y distribuciones. La demostración de estas propiedades se puede encontrar en el Ap. D.

7.8.1

Producto por una función.

En general, el producto de una función f (x) por una distribución D(x) da lugar a una nueva distribución, T (x); T (x) = f (x)D(x):

(7.91)

La nueva distribución T (x) actua sobre cualquier función g(x) de buen comportamiento en la forma esperada, Z 1 T : f (x) ! hg(x); T (x)i = g(x) [f (x)D(x)] dx: (7.92) ¡1

La de…nición sólo tiene sentido si f (x) es de buen comportamiento. En la siguiente tabla see recogen algunos casos particulares de especial interés. c Emilio Gago-Ribas, 2002 °

159

±(x)

f(x)±(x ¡ x0 ) = f (x0 )±(x ¡ x0 ) f(x)±(x) = f (0)±(x) x±(x) = 0±(x)

± 0 (x)

f(x)± 0 (x ¡ x0 ) = ¡f 0 (x0 )±(x ¡ x0 ) f(x)± 0 (x) = ¡f 0 (0)±(x) x± 0 (x) = ¡±(x)

± 00 (x)

f(x)± 00 (x ¡ x0 ) = f 00 (x0 )±(x ¡ x0 ) f(x)± 00 (x) = f 00 (0)±(x) x2 ± 00 (x) = 2±(x)

¡(x)

f(x)¡(x ¡ x0 ) = F (x ¡ x0 )9 f(x)¡(x) = F (x) f(x)¡(¡x) = F1 (x)10

Producto de algunas distribuciones por funciones de buen comportamiento.

7.8.2

Convolución de una función y una distribución.

La convolución de una función f(x) con una distribución D(x) será una nueva función g(x); g(x) = f (x) ¤ D(x):

(7.95)

Nótese que esta propiedad de…ne directamente la salida g(x) de un sistema lineal e invariante cuya respuesta al impulso sea D(x) frente a una entrada f(x) arbitraria. En la siguiente tabla se recogen algunos casos particulares. ±(x)

f(x) ¤ ±(x ¡ x0 ) = f(x ¡ x0 ) f(x) ¤ ±(x) = f(x)

± 0 (x)

f(x) ¤ ± 0 (x ¡ x0 ) = f 0 (x ¡ x0 ) f(x) ¤ ± 0 (x) = f 0 (x)

± 00 (x)

¡(x)

f(x) ¤ ± 00 (x ¡ x0 ) = f 00 (x ¡ x0 ) f(x) ¤ ± 00 (x) = f 00 (x) R x¡x f(x) ¤ ¡(x ¡ x0 ) = ¡1 0 f(y) dy Rx f(x) ¤ ¡(x) = ¡1 f(y) dy

Convolución de algunas distribuciones con funciones de buen comportamiento. 9 La

distribución F (x ¡ x0 ) se puede describir como, F (x ¡ x0 ) =

10 La

distribución F1 (x) se puede describir como, F1 (x) =

160

8 < f (x) :

0

8 < f (x) :

0

si

x > x0

si

x < x0

si

x0

(7.93)

(7.94)

c Emilio Gago-Ribas, 2002 °

Las propiedades descritas en la tabla anterior se pueden describir de la siguiente forma: ² La salida a un sistema caracterizado por el operador identidad I será la misma señal. Su representación integral vendrá expresada en términos de la respuesta al impulso ±(x); I : f (x) ! I [f (x)] = f (x) ¤ ±(x) = f (x):

(7.96)

El objeto ±(x) permite, como ya hemos mencionado anteriormente, representar una señal f (x) de buen comportamiento seleccionando cada uno de sus valores de forma continua mediante el conjunto f±(x ¡ x0 )g para todo valor de x0 :

² La salida a un sistema caracterizado por el operador primera derivada F = d=dx será la primera derivada de la señal de entrada f (x): Su representación integral vendrá expresada en términos de la respuesta al impulso ± 0 (x); F´

d : f (x) ! F [f (x)] = f(x) ¤ ± 0 (x) = f 0 (x): dx

(7.97)

El objeto ± 0 (x) permite representar la señal f 0 (x) = df (x)=dx de buen seleccionando © comportamiento ª cada uno de sus valores de forma continua mediante el conjunto ± 0 (x ¡ x0 ) para todo valor de x0 :

² La salida a un sistema caracterizado por el operador segunda derivada F = d2 =dx2 será la segunda derivada de la señal de entrada f (x): Su representación integral vendrá expresada en términos de la respuesta al impulso ± 00 (x); F´

d2 : f (x) ! F [f(x)] = f (x) ¤ ± 00 (x) = f 00 (x): dx2

(7.98)

El objeto ± 00 (x) permite, por tanto, representar la señal f 00 (x) = d2 f(x)=dx2 de buen © comportamienª to seleccionando cada uno de sus valores de forma continua mediante el conjunto ± 00 (x ¡ x0 ) para todo valor de x0 : Rx ² La salida a un sistema caracterizado por el operador integral F = ¡1 dy será justamente la integral de la señal de entrada desde ¡1 hasta x; para todo valor de x: Su representación integral vendrá expresada en términos de la respuesta al impulso ¡(x); Z x Z x F´ dy : f(x) ! F [f (x)] = f(x) ¤ ¡(x) = f (y) dy: (7.99) ¡1

Rx

¡1

El objeto ¡(x) permite así representar la señal ¡1 f (y) dy; de buen comportamiento, seleccionando cada uno de sus valores en x de forma continua mediante el conjunto f¡(x ¡ x0 )g descrito por la variable x0 : Este tipo de interpretación será de gran importancia a la hora de abordar y generalizar el problema inverso de un sistema caracterizado en su forma directa por operadores diferenciales, conformando la base de la teoría de funciones de Green tan importante en la representación y resolución de problemas físicos. 7.8.3

Convolución de dos distribuciones.

La convolución de dos distribuciones D(x) y T (x) será una nueva distribución H(x); H(x) = D(x) ¤ T (x):

(7.100)

En la siguiente tabla se recogen algunos casos particulares. ± 0 (x) ¤ ¡(x) = ±(x) ±(x) ¤ ¡(x) = ¡(x) ±(x) ¤ ± 0 (x) = ± 0 (x) Convolución de algunas distribuciones.

c Emilio Gago-Ribas, 2002 °

161

7.9

Operadores, distribuciones y sucesiones de funciones. Operador: F

Z

Def. Propia:

d2 dx2

±(x)

± 0 (x)

± 00 (x)

f (0)

¡f 0 (0)

f 00 (0)

0

0

I

Distribución: D(x) De…nición:

d dx

1

f(x)D(x) dx

¡1 Z 1

D(x) dx

1

Z

dy ¡1

¡(x) Z

1

d∆(x)

x ¡1

dy ¡

f(x) dx

1

dy

x

¡1

0

1

2,0

Z

sgn(x) Z 1 Z 0 f (x) dx ¡ f (x) dx

0

¡1

1,5

Z

x

0

δ(x)

1,5 1,0 1,0 0,5 0,5

0,0 -4

2,0

-3

-2

-1

0

1

2

3

4

0,0 -4

x

d∆(x)

1,0

-3

-2

-1

0

1

2

3

4

1

2

3

4

1

2

3

4

x

δ'(x)

1,5 1,0

0,5

0,5 0,0

0,0

-0,5 -1,0

-0,5

-1,5 -2,0 -4

6

-3

-2

-1

0

1

2

3

4

-1,0 -4

x

d∆(x)

1,0

-3

-2

-1

0

x

δ''(x)

4 2

0,5

0 -2

0,0

-4 -6

-0,5

-8 -10 -4

1,5

-3

-2

-1

0

1

2

3

4

-1,0 -4

x

d∆(x)

1,5

1,0

1,0

0,5

0,5

0,0 -10

1,5

-8

-6

-4

-2

0

2

4

6

8

10

d∆(x)

1,5

1,0

1,0

0,5

0,5

0,0

0,0

-0,5

-0,5

-1,0

-1,0

-1,5 -10

-8

-6

-4

-2

0

x

2

4

6

8

10

-2

-1

-8

-6

-4

-2

-8

0

2

4

6

8

10

2

4

6

8

10

x

sgn(x)

-1,5 -10

0

x

Γ(x)

0,0 -10

x

-3

-6

-4

-2

0

x

Figura 7.7. Ejemplos de sucesiones de funciones de buen comportamiento d¢ (x) asociadas a la de…nición de las distribuciones ±(x); ± 0 (x); ± 00 (x); ¡(x) y sgn(x):

162

c Emilio Gago-Ribas, 2002 °

8.

Desarrollos en Serie de Fourier

8.1

Introducción. Comenzaremos en este capítulo por analizar el caso más sencillo en relación con los dominios transformados. En este caso, el espacio de señales de partida será1 P~ (X0 ) El conjunto de funciones base bajo estudio serán en este caso exponenciales complejas de pulsación múltiplo de la fundamental asociada al período del espacio, » 0 = 2¼=X0 : A partir del análisis de este conjunto de funciones base veremos cómo el espacio P~ (X0 ) es de dimensión in…nita y numerable, dando lugar a una representación en términos de una combinación lineal in…nita como la descrita en (4.14). Recordaremos a continuación el álgebra (producto escalar, norma y distancia) de…nida sobre este espacio de señales (Secc. 2.6.1), dado que determinará la métrica a utilizar a lo largo de todo el capítulo:

hf0 (x); g0 (x)i =

kf0 (x)k = hf0 (x); f0 (x)i

Z

hX0 i

1=2

"Z

=

2

hX0 i

d(f0 (x); g0 (x)) = kf0 (x) ¡ g0 (x)k =

8.2

f0 (x)g0¤ (x) dx;

"Z

(8.1) #1=2

jf0 (x)j dx

(8.2)

;

#1=2

2

hX0 i

jf0 (x) ¡ g0 (x)j dx

:

(8.3)

Exponenciales imaginarias como funciones base. Seguiremos a continuación todas las consideraciones realizadas en los Caps. 2 y 4 para un caso particular de funciones base. Seguiremos así mismo la notación introducida entonces.

8.2.1

Funciones de partida.

Consideremos una señal periódica arbitraria f0 (x) 2 P~ (X0 ); un ejemplo de una señal de este espacio podría ser como la mostrada en la Fig.8.1. 1,25

f0 (x)

1,00

0,75

0,50

0,25

0,00 -1,0

-0,5

0,0

0,5

1,0

x / X0

1,5

2,0

2,5

3,0

Figura 8.1. Ejemplo de una señal periódica arbitraria perteneciente al espacio de señales P~ (X0 ): 1 Recordamos

que el nuevo espacio de señales P~ (X0 ) obtenido a partir de P (X0 ) será el espacio que contiene a las señales complejas de variable real, que son continuas y/o discontinuas en un número …nito o in…nito pero numerable de discontinuidades, tratadas éstas como distribuciones, y que son periódicas de período X0 :

163

1,5

Re{ϕ(x;m)} m=1

m=0

m=4

1,0 0,5 0,0 -0,5 -1,0 -1,5 0

x /X0

1

Im{ϕ(x;m)} 1,5

2

m=0

3

4

m=4

m=1

1,0 0,5 0,0 -0,5 -1,0 -1,5 0

x /X0

1

2

3

4

Figura 8.2. Algunos ejemplos de funciones pertenecientes al conjunto f'(x; m)g = © jm» x ª 0 e de período X0 =m, y pulsación » 0 = m2¼=X0 .

Un subconjunto de P~ (X0 ) lo constituyen las exponenciales imaginarias periódicas de período X0 =m o pulsación » 0 = m2¼=X0 analizadas a partir de las exponenciales descritas en la Secc. 5.2.2. Resulta evidente que una señal de período X0 =m; también tiene como período a X0 ; y por lo tanto, pertenece al espacio P~ (X0 ): El conjunto total de dichas señales f'(x; m)g que resulta ser in…nito y numerable, se puede describir de la forma siguiente, ¾ ½ 2¼ © ª x jm f'(x; m)g = ejm»0 x = e X0 = fcos(m» 0 x) + j sin(m» 0 x)g : (8.4)

Recordamos que para un cierto armónico m; la pulsación será m» 0 y el período mínimo de la señal será X0 =m: Así mismo, si m = 0; '(x; 0) = 1+j0; es decir, la función constante unidad2 vista como una señal periódica de período X0 : En la Fig. 8.2 se muestran algunas de estos armónicos a modo de ejemplo. Consideremos ahora una combinación lineal de dichas funciones para el caso más general de coe…cientes complejos,

= :::::::::

1 X

a(m)'(x; m) =

m=¡1 + a¡2 e¡j2»0 x

1 X

a(m)ejm»0 x =

(8.5)

m=¡1

+ a¡1 e¡j»0 x + a0 + a1 ej»0 x + a2 ej2»0 x + :::::::::

Nótese que dicha ecuación contiene un término constante a0 que aportará un nivel de continua complejo a la señal total, dos términos en §» 0 que dan como resultado una señal periódica de período X0 ; dos términos en §2» 0 que dan como resultado una señal periódica de período X0 =2; y así sucesivamente. Destacar el hecho de que las pulsaciones negativas están asociadas con el conjugado de la función, esto es, parte real cosenoidal y parte real senoidal cambiada de signo. Resulta evidente también que el resultado …nal de la suma completa será una señal arbitraria pero de pulsación » 0 o período X0 : Es decir, que la combinación lineal de las in…nitas funciones '(x; m) dará como resultado otra señal periódica f0 (x) de período X0 ; f0 (x) =

1 X

m=¡1

a(m)ejm»0 x 2 P~ (X0 ):

(8.6)

2 En general, cualquier funcion constante pertenecerá a cualquier espacio de señales arbitrarias o de señales periódicas de período arbitrario, exceptuando el caso de período nulo. Nótese que tanto la función constante unidad como la función constante nula son los elementos neutros de cualquier espacio de señales respecto al producto y a la suma, respectivamente.

164

c Emilio Gago-Ribas, 2002 °

La función f0 (x) resultante dependerá, sin duda, del valor que tomen cada uno de los coe…cientes fa(m)g de la serie. Nótese que dichos coe…cientes modi…can las señales coseno y seno del armónico m-ésimo tanto en módulo como en fase, Refa(m)'(x; m)g = ja(m)j cos(mW0 x + 'a(m) );

(8.7)

Imfa(m)'(x; m)g = ja(m)j sin(mW0 x + 'a(m) );

(8.8)

es decir, desplazando las señales sinusoidales un valor igual a, x0 =

'a(m) 'a(m) 'a(m) X0 = = X0m ; X0m = : m» 0 » 0m 2¼ m

(8.9)

Visto al revés, si una combinación lineal de exponenciales complejas periódicas es capaz de generar funciones periódicas arbitrarias, podríamos pensar en representar cualquier elemento del espacio f0 (x) 2 P~ (X0 ) como una combinación lineal de dichas exponenciales, lo que signi…caría que ese conjunto de funciones son una base del espacio vectorial de partida. Para analizar este aspecto, seguiremos el proceso general expuesto en la Secc. 4.3. 8.2.2

Ortogonalidad del conjunto de funciones.

Comprobaremos en primer lugar que el conjunto de funciones de…nido en (8.4) es un conjunto ortogonal. Para ello, no tendremos más que considerar el producto escalar de…nido sobre el espacio de funciones, (8.1), aplicado a dos funciones cualesquiera '(x; m) y '(x; n) del conjunto. Dicho producto escalar podrá desarrollarse fácilmente de la siguiente forma3 , Z Z h'(x; m); '(x; n)i = '(x; m)'¤ (x; n) dx = ej(m¡n)»0 x dx = hX0 i hX0 i 8 ³ ´ < 0 si m 6= n 1 = ej(m¡n)2¼ ¡ 1 = : (8.10) : X si m = n j(m ¡ n)» 0 0

De este resultado se deduce rápidamente que:

² El conjunto de funciones f'(x; m)g es ortogonal por ser el producto escalar nulo para cualesquiera dos funciones diferentes. ² La norma de todas las funciones es la misma e igual a p k'(x; m)k = X0 :

(8.11)

² Para trabajar con un conjunto ortonormal, deberíamos de…nir el conjunto de funciones de la siguiente forma, 1 '(x; m) = p ejm»0 x : X0

8.2.3

(8.12)

Coe…cientes del desarrollo en serie de Fourier.

El siguiente paso consistiría en comprobar si es posible escribir los coe…cientes de la combinación lineal en términos del producto escalar, esto es, en términos de las proyecciones del elemento original sobre cada uno de los elementos de la base. Asumiendo entonces que un elemento arbitrario f0 (x) del espacio se puede escribir en la forma (8.6), y multiplicando ambos miembros de la ecuación por el conjugado de un elemento arbitrario, '¤ (x; n) = e¡jn»0 x ; de la supuesta base, f0 (x)e¡jn»0 x =

1 X

a(m)ej(m¡n)»0 x :

(8.13)

m=¡1 3 La expresión que sigue se ha simpli…cado para englobar las dos situaciones que se producen. Nótese que, en realidad, cuando m = n; el resultado de la integral no está R de…nido. El valor de X0 en este caso se obtiene sin más que volver a la integral inicial e imponer m = n; de forma que hX i dx = X0 : 0

c Emilio Gago-Ribas, 2002 °

165

Integrando ambos miembros en un período (por ejemplo, el fundamental [0; X0 ]); Z

X0

f0 (x)e¡jn»0 x dx =

0

1 X

a(m)

Z

X0

ej(m¡n)»0 x dx:

(8.14)

0

m=¡1

Nótese que la integral en el término de la derecha no es más que el producto escalar de…nido sobre el espacio vectorial de funciones periódicas de período X0 ; Z

X0

f0 (x)e¡jn»0 x dx =

0

1 X

m=¡1

(8.15)

a(m) h'(x; m); '(x; n)i ;

de forma que todos los sumandos del sumatorio serán nulos exceptuando el término especí…co m = n; es decir, Z

X0

f0 (x)e¡jm»0 x dx = a(m)X0 :

(8.16)

0

Despejando a(m) de la última expresión obtendremos el valor de los coe…cientes del desarrollo en serie de Fourier de la señal f0 (x); a(m) =

1 X0

Z

X0

f0 (x)e¡jm»0 x dx =

0

1 hf0 (x); '(x; m)i ; X0

(8.17)

expresión que queda escrita de forma general en términos del producto escalar (compárese con la expresión general en 4.16). 8.2.4

De…nición del desarrollo en serie de Fourier.

Al par de ecuaciones (8.6)-(8.17) se le denomina desarrollo en serie de Fourier de la señal periódica f0 (x); f0 (x) =

1 X

2¼ ; X0

(8.18)

f0 (x)e¡jm»0 x dx:

(8.19)

a(m)'(x; m); '(x; m) = ejm»0 x y » 0 =

m=¡1

1 1 a(m) = hf0 (x); '(x; m)i = X0 X0

Z

hX0 i

La primera ecuación se suele denominar ecuación de análisis, siendo la segunda la ecuación de síntesis. Queda en cualquier caso pendiente de demostrar la validez o no de dichos desarrollos para cualquier señal del espacio, esto es, la demostración de que dicho desarrollo es la mejor aproximación posible a f0 (x) en términos de la métrica de…nida en el espacio, así como la completitud o no de la base bajo estudio. Utilizando la notación algebraica introducida en el Cap. 4, ecuaciones (4.18) y (4.19), podremos escribir, 8 DSF¡1 : D(¡1; 1) ¡! P~ (X0 ) > > > > < f0 (x) = DSF¡1 [a(m)] > > 1 P > > : DSF¡1 (¢) = (¢)'(x; m) m=¡1

9 > > > > =

8 > DSF : P~ (X0 ) ¡! D(¡1; 1) > > < y a(m) = DSF [f0 (x)] > > > > > > > : ; DSF(¢) = X10 h(¢); '(x; m)i

© ª f0 (x); f'(x; m)g = ejm»0 x 2 P~ (X0 ) y a(m) 2 D(¡1; 1):

9 > > > = > > > ;

;

(8.20)

recordando que D(¡1; 1) es le espacio de funciones complejas de variable entera de…nidas para todo valor de la variable independiente. En la Fig. 8.3 se muestra el esquema de estas transformaciones.

166

c Emilio Gago-Ribas, 2002 °

Figura 8.3. Representación en forma de sistema de las transformaciones asociadas al desarrollo en serie de Fourier.

8.2.5

Análisis del error en el desarrollo en serie de Fourier.

Como ya anticipamos en el Cap. 4, la combinación lineal de…nida en (8.18) será la mejor aproximación posible a f0 (x) siempre que los coe…cientes en (8.19) sean los adecuados para garantizar que no existe otro conjunto de valores fb(m)g que proporcionen una aproximación mejor bajo la métrica de…nida en el espacio. Desde este punto de vista, asumiremos en esta sección que los coe…cientes de la combinación lineal son desconocidos, e intentaremos medir la diferencia entre el elemento original f0 (x) y el resultado de la combinación lineal, que denominaremos4 DSF¡1 [a(m)]; 1 X

DSF¡1 [a(m)] =

a(m)'(x; m);

(8.21)

m=¡1

de forma que el desarrollo en serie de Fourier se podría escribir ahora como f0 (x) = DSF¡1 [a(m)] :

(8.22)

Nótese que estudiar la validez de esta última expresión es equivalente a identi…car el signi…cado del signo igual entre ambas funciones; dicho de otra forma, intentaremos dar un signi…cado propio a esa igualdad, que podríamos imaginar escrita como f0 (x) ¼ DSF¡1 [a(m)] : Para estudiar dicha aproximación recurriremos a la métrica propia del espacio de señales en (8.3), partiendo inicialmente de una combinación lineal …nita de 2N + 1 términos, y estudiando posteriormente el límite cuando N ! 1: Llamemos entonces DSF¡1 N [a(m)] al desarrollo en serie truncado en la forma, DSF¡1 N [a(m)] =

N X

a(m)'(x; m):

(8.23)

m=¡N

Para medir la diferencia existente entre el elemento original f0 (x) y la función DSF¡1 N [a(m)] aplicaremos el concepto de distancia de…nido en este espacio de señales, ° °2 ¡ ¢ ° = d2 f0 ; DSF¡1 = °f0 (x) ¡ DSF¡1 N [a(m)] N [a(m)] Z ¯ ¯ ¯f0 (x) ¡ DSF¡1 [a(m)]¯2 dx; = (8.24) N hX0 i

obteniéndose la expresión habitual del error cuadrático medio entre ambas funciones. Nótese que la función diferencia, de…nida punto a punto y, por lo tanto, también periódica y perteneciente al espacio P~ (X0 ); se podrá denominar función de error para la serie truncada a 2N + 1 términos, e0N (x) = f0 (x) ¡ DSF¡1 N [a(m)] ;

(8.25)

de forma que la expresión del cuadrado de la distancia entre ambos elementos no es más que la energía del error, Z Z ¯ ¯ 2 ¯f0 (x) ¡ DSF¡1 [a(m)]¯2 dx: E [e0N (x)] = je0N (x)j dx = (8.26) N hX0 i

hX0 i

4 Seguiremos en este caso la notación general correspondiente a una transformación T introducida en el Cap. 4 vista como un tipo particular de operador. Así, la ecuación de análisis debería leerse como DSF¡1 [a(m)] (x); esto es, una función en el dominio x:

c Emilio Gago-Ribas, 2002 °

167

Figura 8.4. Esquema de la interpretación del error asociado al desarrollo en serie de Fourier truncado de una señal periódica. La distancia entre el elemento original f0 (x) y su aproximación DSF¡1 N [a(m)] se mide en términos de la energía de la diferencia punto a punto entre las dos señales sobre un período cualquiera.

En otras palabras, la distancia o diferencia entre dos señales del espacio se realiza no punto a punto sino en términos de la energía del error. Lógicamente, la función je0N (x)j2 no es más que la potencia instantánea asociada a la función e0N (x): La interpretación de la distancia entre ambos elementos se muestra en la Fig. 8.4. Con estos conceptos en mente, diremos entonces que la mejor aproximación posible de f0 (x) a través de un desarrollo truncado DSF¡1 N [a(m)] se producirá para aquellos coe…cientes que hagan mínima la energía del error, dE [e0N (x)] 1 = 0 ¡! a(m) = hf0 (x); '(x; m)i : da(m) X0

(8.27)

La demostración de este resultado se puede encontrar en el Ap. E.7.1. Esto quiere decir que los coe…cientes a(m) obtenidos a través de la proyección de f0 (x) sobre cada elemento de la base '(x; m) nos proporcionan justamente la mejor aproximación posible a f0 (x) a través del desarrollo en serie truncado. Este primer resultado nos asegura claramente que: (i) el valor de los coe…cientes que minimizan la energía del error deberá ser el obtenido en (8.19), y (ii) el valor de dichos coe…cientes es independiente del número de términos N elegido. Así, su valor para dos valores de truncamiento N1 y N2 diferentes será el mismo para los términos comunes. Esto será extensible, lógicamente, cuando N ! 1. Además, es fácil demostrar que cuando N ! 1; es decir, considerando los in…nitos elementos de la base, la energía del error tiende a cero, esto es e0N (x) ! e0 (x)

(8.28)

lim E [e0N (x)] = E [e0 (x)] ! 0;

(8.29)

y N!1

es decir, que el desarrollo en serie de Fourier en (8.18)-(8.19) no sólo es la mejor aproximación posible a f0 (x) sino que el error tiende a cero en términos de su energía. La igualdad en (8.18) no es, por lo tanto, una igualdad punto a punto, sino una igualdad en términos de que la energía del error tiende a anularse. En otras palabras, la función original f0 (x) y su desarrollo en serie de Fourier DSF¡1 [a(m)] no tienen porqué coincidir punto a punto, pudiendo diferir incluso en un número grande de puntos aislados. Una vez más, este hecho no es más que una consecuencia de la de…nición de la métrica del espacio, de…nida en términos integrales y no punto a punto. Por ejemplo, un cambio en la de…nición de la métrica del espacio podría hacer que el desarrollo en serie de Fourier así de…nido ya no fuera la mejor aproximación posible a la función original.

168

c Emilio Gago-Ribas, 2002 °

² Algunos ejemplos. 1. En las Figs. 8.5 y 8.8 se muestran dos ejemplos en los que las señales periódicas, en este caso distribuciones, son trenes de pulsos de ancho ¢x y período X0 en la forma, 9 8 > > jx + kX0 j < ¢x=2 = < 1 ; k 2 Z: (8.30) P0;¢x (x) = > > : 0 ¢x=2 < jx + kX0 j < X0 =2 ; Los dos ejemplos mostrados se corresponden con ¢x = 0:5 y ¢x = 0:75; siendo X0 = 1 en ambos casos. El análisis de la función de error e0N (x) así como su potencia instantánea, je0N (x)j2 ; para cada una de las aproximaciones mostradas previamente en función de N se muestra en las Figs. 8.6 y 8.9. En ellas se representa también la energía E [e0N (x)] como el área bajo la curva de la potencia instantánea en un período. Nótese como, a medida que N crece, la energía del error va decreciendo. En el límite N ! 1; la energía del error será nula.

En las Figs. 8.7 y 8.10 se muestran en primer lugar, las partes real e imaginaria de los coe…cientes a(m) de los desarrollos en serie de las señales representadas. A continuación se muestra el valor que toma el desarrollo en serie de Fourier truncado a 2N + 1 términos en cada uno de los puntos de discontinuidad de la función original, esto es DSF¡1 N [a(m)] (0) = DSF¡1 [a(m)] (X ) = etc. Nótese cómo dicho valor tiende al valor medio de la discontinuidad 0 N a medida que el número de términos aumenta; en estos ejemplos, lim DSF¡1 N [a(m)] (0) = (1 + 0)=2 = 0:5;

N!1

en ambos casos. Estos valores se muestran también en las grá…cas de las Figs. 8.5 y 8.8. Finalmente se muestra la energía del error en función de N para cada uno de los ejemplos analizados. Nótese como el resultado en (8.29) se satisface en ambos casos. 2. Un análisis similar al del tren de pulsos se presenta en las Figs. 8.10, 8.11 y 8.12 para un tren de exponenciales reales en la forma, e0;¢x (x) = e¡ax=X0 ; (8.31) 0

x + kX0 < X0 ; k 2 Z; a 2 R+ :

El ejemplo mostrado se corresponde con el caso a = 1 y X0 = 1: En la Figs. 8.11 se muestran diferentes aproximaciones de las señales originales en función del número de términos N considerado en su desarrollo en serie truncado. En la Fig. 8.12 se muestran tanto el error e0N (x) como su potencia instantánea, je0N (x)j2 ; para cada una de las aproximaciones mostradas previamente en función de N: También se representa la energía del error E [e0N (x)] como el área bajo la curva de la potencia instantánea. Nótese como, una vez más, a medida que N se hace mayor, la energía del error va decreciendo. Finalmente, en la Fig. 8.13 se muestran: (a) Las partes real e imaginaria de los coe…cientes a(m) de los desarrollos en serie de las señales representadas. (b) El valor de transición en cada discontinuidad del desarrollo en serie de Fourier trucado ¡1 a 2N + 1 términos, esto es DSF¡1 N [a(m)] (0) = DSFN [a(m)] (X0 ) = etc. Dicho valor tiende al valor medio de la discontinuidad a medida que el número de términos aumenta, en este caso, ¡1 lim DSF¡1 )=2 = 0:6839: N [a(m)] (0) = (1 + e

N!1

Estos valores se muestran también en las grá…cas de la Fig. 8.11. (c) La energía del error en función de N para cada uno de los casos analizados, veri…cándose una vez más el resultado en (8.29).

c Emilio Gago-Ribas, 2002 °

169

f0 (x) = P0;¢x (x) =

8 < 1

jx + kX0 j < ¢x=2

: 0

; k2N

¢x=2 < jx + kX0 j < X0 =2

-1

-1

N=1: DSFN [a(m)](disc.)=0.5 (B)

N=0: DSFN [a(m)](disc.)=0.5 (A) 1,50

1,50

f0(x)

1,25

¢x = 0:5; X0 = 1

f0(x)

-1

DSFN [a(m)]

1,25

-1

DSFN [a(m)]

A 1,00

1,00

0,75

0,75

0,50

0,50

0,25

0,25

0,00

0,00

-0,25

-0,25

-0,50

1,50

0

x /X0 [a(m)](disc.)=0.5 (C) 1

N=3: DSFN

-1

-0,50

x /X0 N=5: DSFN [a(m)](disc.)=0.5 (D) 0

f0(x)

-1

DSFN [a(m)]

1,25

1,00

1

0,75

0,75

0,50

0,50

0,25

0,25

0,00

0,00

-0,25

-0,25

1,50

0

1

-0,50

2

x /X0 -1 N=10: DSFN [a(m)](disc.)=0.5 (E) f0(x)

1,25 1,00

1,50

D

0

f0(x)

1,25

2

-1

DSFN [a(m)]

1,00

E

0,75

0,50

0,50

0,25

0,25

0,00

0,00

-0,25

-0,25

0

1

x /X0 -1 N=50: DSFN [a(m)](disc.)=0.5 (F)

-1

DSFN [a(m)]

0,75

-0,50

-1

DSFN [a(m)]

1,00

C

-0,50

2

-1

1,50

f0(x)

1,25

2

B

1

2

x /X0

-0,50

F

0

1

2

x /X0

-1

DSF [a(m)](disc.)=0.5 Figura 8.5.

DSF¡1 N [a(m)] =

170

N P

m=¡N

a(m)ejm»0 x

a(m) = X0

sin(m¼¢x=X0 ) m¼

c Emilio Gago-Ribas, 2002 °

f0 (x) = P0;¢x (x) =

0,75

e0N (x)

8 < 1

jx + kX0 j < ¢x=2

: 0

N =0

0,75

0,50

0,50

0,25

0,25

0,00

0,00

-0,25

-0,25

-0,50

-0,50

-0,75

0,3

0

1 2

|e0N (x)|

2

E[e0N (x)] (a)

-0,75

0,3 0,2

0,1

0,1

0,75

0

1

e0N (x)

2

0,75 0,50

0,25

0,25

0,00

0,00

-0,25

-0,25

-0,50 0

|e0N (x)|

1

2

2

E[e0N (x)] (c)

0,3

0,1

0,1

0,0

0

1

e0N (x)

2

N =10

0,75 0,50

0,25

0,25

0,00

0,00

-0,25

-0,25

-0,50

2

x /X0

1

2

x /X0

2

x /X0

2

x /X0

E[e0N (x)] (d)

2

|e0N (x)|

0

1

e0N (x)

N =50

-0,50 0

|e0N (x)|

1 2

2

E[e0N (x)] (e)

x /X0

-0,75

0,3

0,2

0,2

0,1

0,1

0,0

x /X0

N =5

0

0,0

x /X0

0,50

0,3

2

1

e0N (x)

-0,75

0,2

-0,75

0

x /X0

0,2

0,75

1

E[e0N (x)] (b)

2

-0,50

-0,75

0,3

|e0N (x)|

0,0

0,50

N =1

0

x /X0

N =3

¢x = 0:5; X0 = 1

e0N (x)

x /X0

0,2

0,0

; k2N

¢x=2 < jx + kX0 j < X0 =2

0

1

2

0,0

x /X0

0

|e0N (x)|

1

E[e0N (x)] (f)

2

0

1

2

x /X0

Figura 8.6.

e0N (x) = f0 (x) ¡ DSF¡1 N [a(m)]

c Emilio Gago-Ribas, 2002 °

E [e0N (x)] =

Z

2

hX0 i

je0N (x)j dx

171

8 < 1

f0 (x) = P0;¢x (x) =

0,6

jx + kX0 j < ¢x=2

: 0

Re{a(m)}

0,6

0,5

0,5

0,4

0,4

0,3

0,3

0,2

0,2

0,1

0,1

0,0

0,0

-0,1

-0,1

-0,2 -20

0,6

-15

; k2N

¢x=2 < jx + kX0 j < X0 =2

-10

-5

0

5

m

10

15

20

¢x = 0:5; X0 = 1

Im{a(m)}

-0,2 -20

-15

-10

-5

0

5

10

15

20

0

5

10

15

20

m

Fase{a(m)}

|a(m) | 1,0π

0,5 0,4

0,5π

0,3

0,0π

0,2

-0,5π

0,1

-1,0π

0,0 -20

-15

-10

-5

0

5

m

10

15

20

-20

-1

1,00

DSFN [a(m)](disc.)

0,30 0,25

A

0,75

E

C

F

-15

-10

-5

m

E[e0N(x))] a

0,20 0,15

0,50

B

0,25

b

D

0,10

c d e

f

0,05 0,00

0

5

10

15

20

25

30

N

35

40

45

50

0,00

0

5

10

15

20

-1

DSF [a(m)](disc.)=0.5

25

N

30

35

40

45

50

Figura 8.7. (a) y (b) Partes real e imaginaria de los coe…cientes am del desarrollo en serie de Fourier; (c) y (d) Módulo y fase de los coe…cientes am del desarrollo en serie de Fourier; (e) y (f) Convergencia del valor del desarrollo en serie en las discontinuidades y de la energía del error en función de N:

DSF¡1 N [a(m)] =

a(m) = X0

a(m)ejm»0 x

DSF¡1 [a(m)] =

Z

hX0 i

1 P

a(m)ejm»0 x

m=¡1

m=¡N

sin(m¼¢x=X0 ) m¼

E [e0N (x)] =

172

N P

¡1 lim DSF¡1 [a(m)] (0) N [a(m)] (0) = DSF

N!1

je0N (x)j2 dx

lim E [e0N (x)] = E [e0 (x)] ! 0

N!1

c Emilio Gago-Ribas, 2002 °

f0 (x) = P0;¢x (x) =

8 < 1

jx + kX0 j < ¢x=2

: 0

N=0: DSFN [a(m)](disc.)=0.75 (A) f0(x)

A

1,50

-1

DSFN [a(m)]

1,25

1,00

0,75

0,75

0,50

0,50

0,25

0,25

0,00

0,00

-0,25

-0,25

1,50 1,25

x /X0 -1 N=3: DSFN [a(m)](disc.)=0.538 (C) 0

1

f0(x)

C

2

-0,50

1,50

-1

DSFN [a(m)]

1,00

0,75

0,75

0,50

0,50

0,25

0,25

0,00

0,00

-0,25

-0,25

0

1

-0,50

2

x /X0 N=10: DSFN [a(m)](disc.)=0.484 (E) -1

1,50

f0(x)

1,25

1,50

1,00

0,75

0,75

0,50

0,50

0,25

0,25

0,00

0,00

-0,25

-0,25

0

1

2

x /X0

-1

DSFN [a(m)]

0 1 2 x /X0 -1 N=5: DSFN [a(m)](disc.)=0.474 (D)

f0(x)

-1

DSFN [a(m)]

D

x /X0 N=50: DSFN [a(m)](disc.)=0.497 (F) 0

f0(x)

1

2

-1

-0,50

DSFN [a(m)]

F

1,25

1,00

-0,50

B

-1

-1

DSFN [a(m)]

E

f0(x)

1,25

1,00

-0,50

N=1: DSFN [a(m)](disc.)=0.432 (B)

1,25

1,00

-0,50

¢x = 0:75; X0 = 1

-1

-1

1,50

; k2N

¢x=2 < jx + kX0 j < X0 =2

0

1

2

x /X0

-1

DSF [a(m)](disc.)=0.5 Figura 8.8.

DSF¡1 N [a(m)] =

c Emilio Gago-Ribas, 2002 °

N P

m=¡N

a(m)ejm»0 x

a(m) = X0

sin(m¼¢x=X0 ) m¼

173

f0 (x) = P0;¢x (x) =

0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8

0,6

e0N (x)

8 < 1

jx + kX0 j < ¢x=2

: 0

N =0

0

1 2

|e0N (x)|

2

E[e0N (x)] (a)

x /X0

0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8

0,6

0,5

0,5

0,4

0,4

0,3

0,3

0,2

0,2

0,1

0,6

0

1

e0N (x)

2

x /X0

N =3

0

|e0N (x)|

1

2

2

x /X0

0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8

E[e0N (x)] (c) 0,6 0,5

0,4

0,4

0,3

0,3

0,2

0,2

0,1

0,1

0,0

0,6

0

1

e0N (x)

2

x /X0

N =1

0

|e0N (x)|

1

2

x /X0

2

x /X0

2

x /X0

2

x /X0

2

x /X0

E[e0N (x)] (b)

2

N =10

0

|e0N (x)|

1 2

2

E[e0N (x)] (e)

x /X0

0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8

0,6 0,5

0,4

0,4

0,3

0,3

0,2

0,2

0,1

0

1

e0N (x)

N =5

0

|e0N (x)|

0,0

0,5

0,0

e0N (x)

0,0

0,5

0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8

¢x = 0:75; X0 = 1

0,1

0,0

0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8

; k2N

¢x=2 < jx + kX0 j < X0 =2

1

E[e0N (x)] (d)

2

0

1

e0N (x)

N =50

0

|e0N (x)|

1

E[e0N (x)] (f)

2

0,1 0

1

2

x /X0

0,0

0

1

2

x /X0

Figura 8.9.

e0N (x) = f0 (x) ¡ DSF¡1 N [a(m)]

174

E [e0N (x)] =

Z

hX0 i

je0N (x)j2 dx

c Emilio Gago-Ribas, 2002 °

8 < 1

f0 (x) = P0;¢x (x) =

jx + kX0 j < ¢x=2

: 0

; k2N

¢x=2 < jx + kX0 j < X0 =2

¢x = 0:75; X0 = 1

Im{a(m)}

Re{a(m)} 0,8

0,8

0,7 0,6

0,6

0,5 0,4

0,4

0,3 0,2

0,2

0,1 0,0

0,0

-0,1 -0,2 -20

-15

-10

-5

0

m

5

10

15

20

-0,2 -20

-15

-10

-5

0

5

10

15

20

0

5

10

15

20

m

Fase{a(m)}

|a(m) | 0,8 1,0π 0,6

0,5π 0,0π

0,4

-0,5π

0,2

-1,0π 0,0 -20

-15

-10

-5

0

m

-1

1,00

5

10

15

20

DSFN [a(m)](disc.)

-20

0,5

0,75

-10

-5

m

E[e0N (x)] a

A C

-15

0,4

F 0,3

b

0,50

E

c

D

0,25

0,00

0,2

B 0

5

d

10

15 20

25 30

N

35

40 45

50

0,0

0

5

10

f

e

0,1

15

20 25

-1

DSF [a(m)](disc.)=0.5

30 35

40

45 50

N

Figura 8.10. (a) y (b) Partes real e imaginaria de los coe…cientes a(m) del desarrollo en serie de Fourier; (c) y (d) Módulo y fase de los coe…cientes a(m) del desarrollo en serie de Fourier; (e) y (f) Convergencia del valor del desarrollo en serie en las discontinuidades y de la energía del error en función de N:

DSF¡1 N [a(m)] =

a(m) = X0

N P

a(m)ejm»0 x

c Emilio Gago-Ribas, 2002 °

Z

hX0 i

1 P

a(m)ejm»0 x

m=¡1

m=¡N

sin(m¼¢x=X0 ) m¼

E [e0N (n)] =

DSF¡1 [a(m)] =

¡1 lim DSF¡1 [a(m)] (0) N [a(m)] (0) = DSF

N!1

je0N (x)j2 dx

lim E [e0N (n)] = E [eN (n)] ! 0

N!1

175

f0 (x) = e0 (x) = e¡ax=X0 ; x 2 [0; X0 )

-1

-1

1,00

N=0: DSFN [a(m)](disc.)=0.632 (A)

N=1: DSFN [a(m)](disc.)=0.663 (B)

1,00

A

B

0,75

0,75

0,50

0,50

0,25

0,25

f0(x) 0,00

1,00

f0(x)

-1

DSFN [a(m)]

0

1

2

x /X0 -1 N=3: DSFN [a(m)](disc.)=0.675 (C)

3

0,00

1,00

1

0,75

0,50

0,50

0,25

3

0,25

f0(x)

f0(x)

-1

DSFN [a(m)]

0

1

2

x /X0 N=10: DSFN [a(m)](disc.)=0.681 (E)

3

0,00

1

2

x /X0 N=50: DSFN [a(m)](disc.)=0.683 (F)

3

-1

1,00

E

F

0,75

0,75

0,50

0,50

0,25

0,25

f0(x) 0

-1

DSFN [a(m)]

0

-1

0,00

2

x /X0 -1 N=5: DSFN [a(m)](disc.)=0.678 (D)

D

0,75

1,00

-1

DSFN [a(m)]

0

C

0,00

a = 1; X0 = 1

f0(x)

-1

DSFN [a(m)] 1

2

x /X0 3

0,00

-1

DSFN [a(m)]

0

1

2

x /X0 3

-1

DSF [a(m)](disc.)=0.6839 Figura 8.11.

DSF¡1 N [a(m)] =

176

N P

m=¡N

a(m)ejm»0 x

a(m) =

1 ¡ e¡(a+j2¼m) a + j2¼m

c Emilio Gago-Ribas, 2002 °

f0 (x) = e0 (x) = e¡ax=X0 ; x 2 [0; X0 )

0,4 0,3 0,2 0,1 0,0 -0,1 -0,2 -0,3 -0,4

0,15

e0N (x)

N =0

0

1

|e0N (x)|

2

x /X0 3

E[e0N(x)] (a)

2

0,4 0,3 0,2 0,1 0,0 -0,1 -0,2 -0,3 -0,4

0,10

0,05

0,05

0,00

0,4 0,3 0,2 0,1 0,0 -0,1 -0,2 -0,3 -0,4

0,15

0

1

e0N (x)

2

x /X0

3

N =3

0

1

|e0N (x)|

2

E[e0N(x)] (c)

2

x /X0

3

0,00

0,4 0,3 0,2 0,1 0,0 -0,1 -0,2 -0,3 -0,4

0,10

0,05

0,05

0,4 0,3 0,2 0,1 0,0 -0,1 -0,2 -0,3 -0,4

0,15

0

1

e0N (x)

x /X0

3

N =10

0

1

|e0N (x)|

2

2

x /X0 3

E[e0N(x)] (e)

2

0,00

0,4 0,3 0,2 0,1 0,0 -0,1 -0,2 -0,3 -0,4

0,10

0,05

0,05

0,00

0

1

2

x /X0

3

0,00

1

|e0N (x)|

1

e0N (x)

1

2

x /X0

2

x /X0 3

E[e0N(x)] (d)

2

0

1

e0N (x)

3

2

x /X0

3

N =50

0

|e0N (x)|

x /X0 3

N =5

0

|eN (x)|

2

E[e0N(x)] (b)

2

0

0,15

0,10

N =1

0

0,15

0,10

0,00

e0N (x)

0,15

0,10

a = 1; X0 = 1

1

2

E[e0N(x)] (f)

2

0

1

2

x /X0

3

x /X0

3

Figura 8.12.

e0N (x) = f0 (x) ¡ DSF¡1 N [a(m)]

c Emilio Gago-Ribas, 2002 °

E [e0N (x)] =

Z

hX0 i

je0N (x)j2 dx

177

f0 (x) = e0 (x) = e¡ax=X0 ; x 2 [0; X0 ) Re{a(m)}

0,7

0,2

a = 1; X0 = 1

Im{a(m)}

0,2

0,6 0,5

0,1

0,1

0,0

0,0

-0,1

-0,1

0,4 0,3 0,2 0,1 0,0 -0,1 -20

-15

-10

-5

0

5

m

10

15

-0,2 -20

20

|a(m) |

0,7

-15

-10

-5

0

5

10

15

-0,2 20

0

5

10

15

20

m

Fase{a(m)} 1,0π

0,6 0,5

0,5π

0,4 0,0π 0,3 -0,5π

0,2 0,1

-1,0π

0,0 -20

-15

-10

-5

0

5

m

-1

10

15

20

DSFN [a(m)](disc.)

0,70

-20

0,035

-15

-10

-5

m

E[e0N (x)] a

F

0,030

0,65

0,025

A B

C D

E

b

0,020

0,60

c

0,015 0,010

0,55

d e

f

0,005 0,50

0

5

10

15 20 25 30

N

35

40 45 50

0,000

0

10

20

-1

DSF [a(m)]=0.6839

30

40

50

N

Figura 8.13. (a) y (b) Partes real e imaginaria de los coe…cientes a(m) del desarrollo en serie de Fourier; (c) y (d) Módulo y fase de los coe…cientes a(m) del desarrollo en serie de Fourier; (e) y (f) Convergencia del valor del desarrollo en serie en las discontinuidades y de la energía del error en función de N:

DSF¡1 N [a(m)] =

a(m) =

a(m)ejm»0 x

Z

DSF[a(m)] =

hX0 i

1 P

a(m)ejm»0 x

m=¡1

m=¡N

1 ¡ e¡(a+j2¼m) a + j2¼m

E [e0N (x)] =

178

N P

¡1 lim DSF¡1 N [a(m)](0) = DSF [a(m)](0)

N!1

je0N (x)j2 dx

lim E [e0N (x)] = E [eN (x)] ! 0

N!1

c Emilio Gago-Ribas, 2002 °

8.3

Criterios de convergencia de los coe…cientes. Los aspectos comentados © jm» x ªhasta el momento garantizan que el conjunto de funciones bajo análisis, f'(x; m)g = e 0 ; resulta ser un conjunto: (i) in…nito de funciones, lo que signi…ca que n o Dim P~ (X0 ) = 1; (ii) numerable, pudiéndose establecer una relación uno-a-uno entre cada uno de

los elementos de la base y el conjunto de los números enteros Z; (iii) ortogonal, y (iv) que, asociado al conjunto de coe…cientes fa(m)g dado por (8.19), hacen que el desarrollo en serie en (8.18) sea la mejor aproximación posible a un elemento f0 (x) 2 P~ (X0 ) bajo la métrica de…nida en el espacio por (8.3). Para asegurar que dicho conjunto es una base, faltaría por estudiar la completitud o no de ese conjunto de funciones base en el espacio P~ (X0 ); lo que es lo mismo, responder a las siguientes preguntas equivalentes: ¿todo elemento del espacio de señales considerado puede ser representado en términos de un desarrollo en serie en la forma (8.18)-(8.19)?, ó ¿existe un conjunto válido de coe…cientes en la forma descrita por (8.19) para toda f0 (x) 2 P~ (X0 )? Este problema, nada sencillo desde el punto de vista algebraico, se puede abordar de una forma intuitiva y aproximadamente válida siguiendo el siguiente proceso alternativo:

² Partiendo del espacio considerado, en este caso P~ (X0 ); consideraremos que la validez del desarrollo en serie en (8.18), esto es, su convergencia, viene directamente asociada a la existencia de los coe…cientes para cualquier señal del espacio, lo que nos lleva directamente al problema de analizar los criterios de convergencia de los coe…cientes, esto es, los criterior de convergencia de la ecuación (8.19). ² La imposición de estos criterios de convergencia determinará el considerar ciertos subespacios dentro del espacio de señales de partida en los cuales podremos asegurar que el par de ecuaciones (8.18)(8.19) resultarán ser válidas para todo elemento de dicho subespacio, lo que equivale a asegurar la convergencia del desarrollo en serie para todo elemento de ese subespacio de señales. Este hecho estará íntimamente ligado con el concepto de completitud de un espacio, en concreto los espacios de Hilbert en el caso de espacios con un producto escalar válido de…nido que son completos, descrito en el Ap. A. Antes de exponer los dos criterios de convergencia más habituales en la práctica, cabe destacar que: ² El hecho de asegurar la existencia del desarrollo en serie para todos los elementos de los nuevos subespacios originados a partir de los criterios de convergencia, no signi…ca que elementos fuera de dichos subespacio no puedan tener también una representación en términos del par de ecuaciones (8.18)-(8.19), aunque esta no pueda asegurarse a priori, y deba de analizarse de alguna forma alternativa. ² La convergencia de los coe…cientes, esto es, de (8.19), no garantiza la convergencia del desarrollo en serie en (8.18); el hecho de considerar que la existencia de coe…cientes garantiza la existencia del desarrollo en serie es una aproximación válida para la mayor parte de señales en la práctica. El análisis de los criterios de convergencia pasa por considerar dos casos particularmente importantes contenidos en nuestro espacio de señales P~ (X0 ) : ² Convergencia en el caso de señales continuas: En el caso de considerar elementos f0 (x) 2 P~ (X0 ) que sean continuos para todo valor de x; es posible probar de forma sencilla que la convergencia de los coe…cientes está siempre asegurada, y por lo tanto, la existencia de su desarrollo en serie. Partiendo de (8.19), resulta evidente que la función subintegral g0 (x) = f0 (x)'¤ (x; m) 2 P~ (X0 ):

(8.32)

A la vista del comportamiento de cualquier función '¤ (x; m) analizado en la Secc. 8.2, resulta evidente que si f0 (x) es continua, también lo será g0 (x); como se muestra en el ejemplo de la Fig. 8.14. De esta forma, integrando sobre un período arbitrario hX0 i, el valor de los coe…cientes, dado por Z 1 a(m) = g0 (x) dx; (8.33) X0 hX0 i interpretado como el área bajo la curva en ese intervalo, Fig. 8.14, resulta ser …nito, y por lo tanto, la integral será convergente, asegurando la existencia de los coe…cientes para toda f0 (x) que sea continua. c Emilio Gago-Ribas, 2002 °

179

0,6

f0(x)

0,3

0,0 -0,3

-0,6 -1

Re{ϕ*(x;m)}

0



x /X0

1

1

1

0

0

-1

-1

-1 0,6

0

Re{g0(x)}

1

x /X0

2

f0(x)

-1 0,6

0,3

0,3

0,0

0,0

-0,3

-0,3

-0,6 -1

0

x /X0

1

2

Re{a(m)}/X0

2

Im{ϕ*(x;m)}



0

x /X0

0

x /X0

Im{g0(x)}

-0,6 -1

1

f0(x)

1

2

2

Im{a(m)}/X0

Figura 8.14. Ejemplo grá…co del análisis de la función subintegral g0 (x) = f0 (x)'¤ (x; m) cuando f0 (x) es continua para todo x: Se muestra el caso con una función f0 (x) real de período X0 = 1 para el armónico m = 3: Se ha destacado sombreada el área bajo la curva correspondiente a un intervalo hX0 i arbitrario.

² Convergencia en el caso de funciones discontinuas: En el caso en que las funciones f0 (x) 2 P~ (X0 ) consideradas sean discontinuas, podrá ocurrir que el valor de la integral en (8.18) que permite obtener el valor de los coe…cientes no sea convergente. Es en este caso cuando se estudian y aplican los criterios de convergencia que describiremos a continuación. 8.3.1

Señales de energía …nita.

El primer criterio de convergencia hace referencia a la norma de las señales del espacio P~ (X0 ): Consideremos para ello una cierta señal f0 (x) 2 P~ (X0 ) que sea discontinua, con un número …nito o in…nito pero numerable de discontinuidades por período. Como ya analizamos en la Secc. 8.2.5, la métrica de…nida sobre el espacio determina que la distancia o diferencia entre dos señales venga dada en términos de la energía de su diferencia punto a punto, esto es, la energía de la función error de…nida como e0 (x) = f0 (x) ¡ g0 (x): Si la segunda señal es el desarrollo en serie de Fourier, DSF¡1 [a(m)] ; de la primera, hemos visto cómo los coe…cientes dados por (8.18) y no otros, hacen que la energía del error se anule, Z Z ¯ ¯ 2 ¯f0 (x) ¡ DSF¡1 [a(m)]¯2 dx ! 0: E [e0 (x)] = je0 (x)j dx = (8.34) hX0 i

hX0 i

El hecho de que esta condición se satisfaga exige que la norma (tamaño en términos de la métrica del espacio) de la función f0 (x) sea …nita, lo que equivale a decir que la señal f0 (x) ha de ser de energía …nita, Z 2 E [f0 (x)] = jf0 (x)j dx < 1: (8.35) hX0 i

La demostración de esta conclusión se puede encontrar en el Ap. E.7.2. Si esto ocurre, estaremos asegurando la existencia de los coe…cientes a(m) del desarrollo en serie, y por lo tanto, la existencia de 180

c Emilio Gago-Ribas, 2002 °

éste último en términos de que la energía del error se minimiza. Esto quiere decir, como ya hemos visto, que la función original f0 (x) y su desarrollo en serie, DSF¡1 [a(m)] ; podrían diferir en un buen número de puntos, pero satisfaciendo siempre la condición (8.34). Al subespacio de funciones f0 (x) 2 P~ (X0 ) que son de energía …nita (o cuadrado integrables) le denominaremos a lo largo del presente texto como P~ 2 (X0 ); asumiendo entonces el esquema representado en la Fig. 8.15(a). 8.3.2

Condiciones de Dirichlet.

Un segundo criterio, habitualmente más restrictivo que el anterior, son las condiciones de Dirichlet que enumeraremos y describiremos sólamente. Consideremos una vez más una señal f0 (x) 2 P~ (X0 ) que sea discontinua, con un número …nito o in…nito pero numerable de discontinuidades por período. Diremos que f0 (x) satisface las condiciones de Dirichlet si: 1. La señal f0 (x) es absolutamente integrable en cualquier período, esto es, Z jf0 (x)j dx < 1:

(8.36)

hX0 i

Nótese que esta condición no es exactamente la misma que E [f0 (x)] < 1: Se deja como ejercicio para el lector el establecer similitudes y diferencias de ambas condiciones para diferentes señales. 2. El número de máximos y de mínimos en cualquier intervalor de longitud hX0 i ha de ser …nito.

3. El número de discontinuidades en cualquier intervalor de longitud hX0 i ha de ser …nito, y además, dichas discontinuidades han de ser de valor …nito. En este caso, se puede a…rmar que la señal original f0 (x) y su desarrollo en serie DSF¡1 [a(m)] coinciden punto a punto, excepto en las discontinuidades, donde la función DSF¡1 [a(m)] toma el valor medio de la discontinuidad. En este caso, la igualdad en (8.18) es punto a punto exceptuando las discontinuidades de la señal. Al subespacio de funciones f0 (x) 2 P~ (X0 ) que satisfacen las condiciones de Dirichlet le denominaremos a lo largo del presente texto como P~ D (X0 ); asumiendo entonces el esquema representado en la Fig. 8.15(b).

Figura 8.15. Representación genérica de los subespacios de dimensión in…nita P~ 2 (X0 ) y P~ D (X0 ) de…nidos como los subespacios de P~ (X0 ) = P (X0 ) + P(X0 ) que contienen a todas las señales cuadrado integrables o de energía …nita en el primer caso, y que satisfacen las condiciones de Dirichlet en el segundo.

Un ejemplo típico de señal que satisface las condiciones de Dirichlet es el tren de pulsos de…nido en (8.30). Los análisis mostrados en las Figs. 8.5 y 8.8 muestran el desarrollo de Fourier truncado a N términos. Nótese cómo el desarrollo en serie (N ! 1): (i) en las discontinuidades toma el valor medio de la misma. Las Figs. 8.7(e) y 8.10(e) muestran la convergencia de ese valor hacia el valor medio a medida que N crece; y (ii) el desarrollo en serie, fuera de las discontinuidades, coincide con el tren de pulsos punto a punto. El ejemplo del tren de exponenciales reales de…nido en (8.31) y analizado en la Fig. 8.11, satisface también las condiciones de Dirichlet y, por lo tanto, el análisis de su desarrollo en serie es totalmente similar; véase, por ejemplo, la convergencia del valor que toma el desarrollo en serie

c Emilio Gago-Ribas, 2002 °

181

en las discontinuidades, Fig. 8.13(e), en función de N: Veamos otros ejemplos que ilustren los criterios de convergencia (las siguientes de…niciones han de considerarse sobre un período): ² En la Fig. 8.16(a) se muestra un ejemplo de la señal periódica, µ ¶ 2¼X0 f0 (x) = sin : x

(8.37)

Nótese cómo esta función no satisface las condiciones de Dirichlet dado que en el entorno por la derecha de xk = kX0 ; k 2 N; presenta un número in…nito de máximos y mínimos al no estar de…nido su valor en dichos puntos y presentar in…nitas oscilaciones cuando x ! x+ k:

² En la Fig. 8.16(b) se muestran un ejemplo de la señal periódica, f0 (x) = X0

1 : x

(8.38)

Esta distribución periódica es de gran interés desde el punto de vista práctico. Como puede apreciarse, presenta una discontinuidad en xk = kX0 ; pero la discontinuidad es in…nita, de forma que no satisface la tercera condición de Dirichlet. Por otro lado, la señal tampoco es absolutamente integrable en un período, X0

Z

X0

0

1 dx = X0 ln X0 ¡ X0 ln 0 ! 1: x

(8.39)

Ademas, esta señal no sería tampoco cuadrado integrable, es decir, no es una señal de energía …nita, E [f0 (x)] =

X02

Z

X0 0

X02 1 dx = ¡X + ! 1: 0 x2 0

(8.40)

Podemos entonces concluir que la señal periódica de…nida a partir de la función inversa, no es un elemento ni de P~ 2 (X0 ); ni de P~ D (X0 ): ² Otra señal de importancia práctica es la mostrada en la Fig. 8.16(c) de…nida como, f0 (x) =

p 1 X0 p : x

(8.41)

Esta nueva distribución periódica presenta discontinuidades en xk = kX0 ; igual que la anterior, y estas discontinuidades no son …nitas, de forma que tampoco satisface la tercera condición de Dirichlet. Además, esta señal tampoco es cuadrado integrable, es decir, Z X0 1 E [f0 (x)] = X0 dx = X0 ln X0 ¡ X0 ln 0 ! 1: (8.42) x 0 p Podemos entonces concluir que la señal periódica de…nida a partir de la función inversa de x, no es un elemento ni de P~ 2 (X0 ); ni de P~ D (X0 ): Nótese que, en este caso, la señal sí sería absolutamente integrable, lo que puede resultar importante en diferentes consideraciones prácticas, p Z X0

X0 0

p 1 p dx = 2 X0 < 1: x

(8.43)

² Finalmente, en la Fig 8.16(d) se muestra una distribución periódica de…nida sobre un período en la forma, ¸ X0 X0 1 f0 (x) = m ; x 2 m (¡X0 ); m+1 ; m 2 N y m = 0: (8.44) 2 2 2 El término entre paréntesis (¡X0 ) se aplica sólamente cuando m = 0: Se puede apreciar claramente como esta señal no satisface la tercera condición de Dirichlet dado que sobre un período cualquiera, presenta in…nitas discontinuidades. Esta señal, por lo tanto, no pertenece a P~ D (X0 ): Se deja como ejercicio para el lector el comprobar si esta señal pertenece o no a P~ 2 (X0 ):

182

c Emilio Gago-Ribas, 2002 °

5

1,5 1,0

4

0,5 3 0,0 2 -0,5 1

-1,0 -1,5 -1,0

-0,5

0,0

x /X0

0,5

1,0

1,5

(a)

2,0

5

0 -1,0

-0,5

0,0

-0,5

0,0

x /X0

0,5

1,0

1,5

0,5

1,0

1,5

(b)

2,0

1,50 1,25

4

1,00 3 0,75 2 0,50 1

0 -1,0

0,25

-0,5

0,0

x /X0

0,5

1,0

1,5

(c)

2,0

0,00 -1,0

x /X0

(d)

2,0

Figura 8.16. Algunos ejemplos de señales que no satisfacen alguno o ninguno de los criterios de convergencia deplos coe…cientes del desarrollo £en serie: (a) sin (2¼X0 =x)¤ ; p (b) X0 ¢ 1=x; (c) X0 ¢ 1= x; y (d) f0 (x) = 1=2m ; x 2 X0 =2m (¡X0 ); X0 =2m+1 ; m 2 N +:

8.4

Propiedades del desarrollo en serie de Fourier. Las siguientes propiedades se basan todas ellas en considerar una o dos señales arbitrarias f0 (x) y g0 (x) tales que sus desarrollos en serie de Fourier vengan caracterizados por los conjuntos de coe…cientes fa(m)g y fb(m)g : Las demostraciones de estas propiedades pueden encontrarse en el Ap. E.7.3, recomendándose al lector que las aborde por sí mismo con el objeto de adquirir práctica con ellas. 1. Linealidad. ®f0 (x) + ¯g0 (x) $ ®a(m) + ¯b(m):

(8.45)

f0 (x ¡ x0 ) $ a(m)e¡jm»0 x0

(8.46)

2. Desplazamientos en x:

3. Producto por el armónico M -ésimo. f0 (x)ejM»0 x

$ a(m ¡ M )

(8.47)

4. Conjugado de la función. f0¤ (x) $ a¤ (¡m)

(8.48)

f0 (¡x) $ a(¡m)

(8.49)

5. Re‡exión sobre el eje vertical.

6. Escalado de la variable independiente. f0 (ax); a > 0 y X00 =

X0 a

$ a(m)

(8.50)

7. Convolución periódica. f0 (x) ¤ g0 (x) $ X0 a(m)b(m) c Emilio Gago-Ribas, 2002 °

(8.51) 183

8. Producto. 1 X

f0 (x)g0 (x) $

k=¡1

a(k)b(m ¡ k)

(8.52)

Como se ha de…nido en la Secc. 3.7.3, la expresión en el dominio transformado m no es más que la convolución discreta de las secuencias a(m) y b(m): Así, la propiedad conmutativa de la convolución será de aplicación, de forma que la propiedad asociada al producto se puede reescribir en las siguientes formas, todas ellas equivalentes, f0 (x)g0 (x) $

1 X

k=¡1

a(k)b(m ¡ k) =

1 X

k=¡1

a(m ¡ k)b(k) = a(m) ¤ b(m):

(8.53)

Podemos concluir entonces que un producto de señales periódicas continuas es equivalente, en el dominio espectral, a una convolución de señales discretas. Este resultado nos hace intuir que la convolución de dos señales discretas cualesquiera5 tendrá, en un cierto dominio transformado de variable continua, un equivalente en términos de productos de señales periódicas continuas de…nidas sobre dicho dominio. En el Vol. ST-II se analizará justamente este caso a la hora de abordar la transformada de Fourier de señales discretas. 9. Primera derivada. df0 (x) dx

(8.54)

$ jm» 0 a(m)

10. Derivada n-ésima. dn f0 (x) dxn

$ (jm» 0 )n a(m)

(8.55)

11. Integración. Se puede comprobar fácilmente que esta propiedad es consistente sólamente si la componente continua del desarrollo en serie de la señal integrada es nula, es decir, si a0 = 0: En estos casos, Z x 1 a(m) f0 (x0 ) dx0 $ (8.56) jm» 0 ¡1 12. Relación de Parseval.

Z

2

hX0 i

jf0 (x)j dx = X0

1 P

m=¡1

2

ja(m)j ;

(8.57)

E [f0 (x)] = X0 E [a(m)] : Nótese cómo, con esta propiedad, estamos obteniendo una relación entre la energía de una señal continua periódica y la energía de una señal discreta, (2.90), en este caso, la secuencia a(m) que describe los coe…cientes del desarrollo en serie de Fourier. 13. Funciones pares. f0 (x) = f0 (¡x) $ a(m) = a(¡m)

(8.58)

f0 (x) = ¡f0 (¡x) $ a(m) = ¡a(¡m)

(8.59)

f0 (x) = f0¤ (x) $ a(m) = a¤ (¡m)

(8.60)

14. Funciones impares.

15. Funciones reales.

5 Nótese que los coe…cientes del desarrollo en serie de una señal periódica cualquiera son elementos del espacio de señales de variable discreta D(¡1; 1):

184

c Emilio Gago-Ribas, 2002 °

8.5

Desarrollo en serie de algunas señales continuas. Expondremos a continuación los desarrollos en serie de algunas señales continuas de especial interés. Nótese que todas ellas son señales de energía …nita y, por lo tanto, pertenecientes al espacio P~ 2 (X0 ); lo que asegura la existencia de su desarrollo en serie. En la Fig. 8.17 se muestra la representación de estas señales junto con los coe…cientes de su desarrollo en serie.

8.5.1

Armónico de pulsación » 0 . f0 (x) = ej»0 x :

(8.61)

En este caso, la obtención de los coe…cientes a(m) es inmediata sin más que identi…car la función con el primer término (armónico fundamental) del desarrollo en serie, ej»0 x =

1 X

m=¡1

a(m)ejm»0 x ¡!

a(1) = 1

(8.62)

a(m) = 0 8m 6= 1

Es importante hacer notar que la identi…cación está justi…cada por la independencia lineal de las funciones de la base. 8.5.2

Armónico de pulsación k» 0 . f0 (x) = ejk»0 x :

(8.63)

La obtención de los coe…cientes a(m) es también inmediata sin más que identi…car la función con el término k-ésimo del desarrollo en serie, ejk»0 x =

1 X

m=¡1

8.5.3

a(m)ejm»0 x ¡!

a(k) = 1

(8.64)

a(m) = 0 8m 6= k

Función coseno. © ª f0 (x) = cos(» 0 x) = Re ej»0 x :

(8.65)

La obtención de los coe…cientes en este caso también es inmediata sin más que desarrollar el coseno en funciones exponenciales e identi…car posteriormente el resultado obtenido con la expresión del desarrollo en serie, a(1) = 1=2 1 X ej»0 x + e¡j»0 x cos(» 0 x) = = a(m)ejm»0 x ¡! 2 m=¡1

8.5.4

(8.66)

a(¡1) = 1=2 a(m) = 0

8m 6= §1

Función seno. © ª f0 (x) = sin(» 0 x) = Im ej»0 x :

(8.67)

El desarrollo de la función en este caso es totalmente similar al de la función cosenoidal, 1 X ej»0 x ¡ e¡j»0 x sin(» 0 x) = = a(m)ejm»0 x ¡! 2j m=¡1

c Emilio Gago-Ribas, 2002 °

a(1) = ¡j=2 (8.68)

a(¡1) = j=2 a(m) = 0

8m 6= §1 185

1

Re{exp(jξ0x)}

1

Im{exp(jξ0x)}

1,0

Re{a(m)}

0,5 0

0

0,0 -0,5

-1 -1 1

0

Re{exp(jkξ0x)}

x /X0

1

2

-1 -1 1

0

Im{exp(jkξ0x)}

x /X0

1

-1,0 -6

2

1,0

-5

-4

-3

-2

-1

-3

-2

-1

-3

-2

-1

-2

-1

Re{a(m)}

0

1

2

3

4

5

6

0

1

2

3

4

5

6

0

1

2

3

4

5

6

0

1

2

3

4

5

6

m

0,5 0

0

0,0 -0,5

-1 -1 1

Re{cosξ0x}

0

x /X0

1

2

-1 -1 1

Im{cosξ0x}

0

x /X0

1

-1,0 -6

2

1,0

-5

-4

Re{a(m)}

m

0,5 0

0

0,0 -0,5

-1 -1 1

Re{sinξ0x}

0

x /X0

1

2

-1 -1 1

Im{sinξ0x}

0

x /X0

1

-1,0 -6

2

1,0

-5

-4

Re{a(m)}

m

0,5 0

0

0,0 -0,5

-1 -1 1

0

Re{K}=0.5

x /X0

1

2

-1 -1 1

0

0

Im{K}=-0.5

x /X0

1

0

-1 -1

0

x /X0

1

2

-1 -1

0

x /X0

1

-1,0 -6

2

2

-5

-4

-3

m

Re{a(m)} 1,0

1,0

0,5

0,5

0,0

0,0

-0,5

-0,5

Im{a(m)}

-1,0 -1,0 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6

m

m

Figura 8.17. Algunas señales continuas importantes del espacio de señales P~ 2 (X0 ) junto con los coe…cientes de su desarrollo en serie de Fourier: (a) f0 (x) = ej»0 x ; (b) f0 (x) = ejk»0 x ; (c) f0 (x) = cos(» 0 x); (d) f0 (x) = sin(»0 x); y (e) f0 (x) = K 2 C:

8.5.5

Función constante. f0 (x) = K 2 C:

(8.69)

La función constante, interpretada como una señal periódica de período X0 6= 0 tiene un desarrollo en serie trivial obtenido también a partir de identi…car el término constante del desarrollo en serie, K=

1 X

m=¡1

8.6

a(m)ejm»0 x ¡!

a(0) = K a(m) = 0

(8.70)

8m 6= 0

Desarrollo en serie de distribuciones de energía in…nita. Expondremos a continuación los desarrollos en serie de algunas distribuciones importantes cuya particularidad es que son señales de energía in…nita y por lo tanto, no son elementos pertenecientes a P~ 2 (X0 ): Sirvan así como ejemplos de señales que, a pesar de no satisfacer los criterios de convergencia, posee desarrollo en serie de Fourier. Las consideraciones más rigurosas relativas a la energía de estas señales, de…nida sobre un período, están íntimamente relacionadas con las realizadas para las distribuciones …nitas que sirven como base para la de…nición de las distribuciones periódicas. Su desarrollo ha de pasar previamente por estudiar el concepto de transformada de Fourier, pudiéndose encontrar su análisis en la Secc. 9.6. Además, todas las distribuciones analizadas son reales de forma que la propiedad (8.60) se satisface en todos los casos. En la Fig. 8.18 se muestra la representación de estas señales junto con los primeros coe…cientes de su desarrollo en serie.

186

c Emilio Gago-Ribas, 2002 °

8.6.1

Tren de deltas. ± 0 (x) =

1 X

(8.71)

±(x ¡ nX0 ):

n=¡1

Esta expresión representa una distribución de período X0 en el espacio P~ (X0 ), correspondiente a un tren de deltas localizado en cada valor de nX0 : Aplicando la expresión de los coe…cientes en términos del producto escalar, 1 X0

a(m) =

Z

± 0 (x)e¡jm»0 x dx =

hX0 i

1 X0

Z

X0 =2

±(x)e¡jm»0 x dx;

¡X0 =2

1 ; 8m; X0

a(m) =

(8.72)

expresión en la que se ha utilizado la de…nición de la distribución delta (7.18). 8.6.2

Tren de primeras derivadas de la delta. ± 00 (x) =

1 X

n=¡1

± 0 (x ¡ nX0 ):

(8.73)

En este caso, la señal a representar será una distribución de período X0 en el espacio P~ (X0 ), correspondiente a un tren de derivadas de la distribución delta localizadas en cada valor de X0 : Aplicando la expresión de los coe…cientes en términos del producto escalar, a(m) =

Z

1 X0

hX0 i

Z

1 X0

T ± 00 (x)e¡jm»0 x dx =

a(m) = j

X0 =2

± 0 (x)e¡jm»0 x dx =

¡X0 =2

jm» 0 ; X0

2¼ m: X02

(8.74)

En esta expresión se ha utilizado la de…nición de la distribución primera derivada de la delta (7.41). 8.6.3

Tren de segundas derivadas de la delta. ± 000 (x) =

1 X

n=¡1

± 00 (x ¡ nX0 ):

(8.75)

En este caso, la señal a representar será una distribución de período X0 en el espacio P~ (X0 ), correspondiente a un tren de segundas derivadas de la distribución delta localizadas en cada valor de X0 : Aplicando la expresión de los coe…cientes en términos del producto escalar, a(m) =

1 X0

Z

hX0 i

± 000 (x)e¡jm»0 x dx =

1 X0

a(m) = ¡

Z

X0 =2

¡X0 =2

4¼ 2 2 m : X03

± 00 (x)e¡jm»0 x dx = ¡

m2 » 20 ; X0

(8.76)

En esta expresión se ha utilizado la de…nición de la distribución segunda derivada de la delta (7.55).

c Emilio Gago-Ribas, 2002 °

187

1,5

δ0(x)

1,5

Re{a(m)}

1,5

1,0

1,0

1,0

0,5

0,5

0,5

0,0

0,0

0,0

-0,5

-0,5

-0,5

-1,0

-1,0

-1,0

-1,5 -4 1,5

-3

-2

-1

δ0'(x)

0

x /X0

1

2

3

0,5 0,0 -0,5 -1,0

1,5

-3

-1,5 -6 40

1,0

-1,5 -4

4

-2

-1

δ0''(x)

0

x /X0

1

2

3

0,5

-2

Re{a(m)}

0

m

2

4

6

-1,5 -6 40

30

30

20

20

10

10

0

0

-10

-10

-20

-20

-30

-30

-40 4 -6 250

1,0

-4

-4

-2

Re{a(m)}

0

m

2

4

6

Im{a(m)}

-40 -6 250

0

0

-250

-250

-500

-500

-4

-2

Im{a(m)}

-4

-2

Im{a(m)}

0

2

4

6

m

0

2

4

6

0

2

4

6

m

0,0 -0,5 -1,0 -1,5 -4

-3

-2

-1

0

x /X0

1

2

3

-750

-750

-1000

-1000

-1250

-1250

-1500 4 -6

-4

-2

0

m

2

4

-1500 6 -6

-4

-2

m

Figura 8.18. Algunas distribuciones periódicas de energía in…nita del espacio de señales P~ (X0 ) junto con los coe…cientes de su desarrollo en serie de Fourier: (a) ± 0 (x); (b) ±00 (x); y (c) ± 000 (x):

8.7

Desarrollo en serie de distribuciones de energía …nita. Expondremos a continuación los desarrollos en serie de algunas distribuciones importantes de energía in…nita y, por lo tanto, elementos pertenecientes a P~ 2 (X0 ): Nótese como el carácter impulsivo de estas distribuciones está asociado, bien a discontinuidades de valor …nito, bien a puntos donde las funciones son continuas pero no derivables; en el caso de la distribución delta y sus derivadas, el carácter impulsivo es de tipo in…nito, y por lo tanto, singular. Como todas las señales analizadas son reales, ha de satisfacerse la propiedad (8.60) en todos los casos. En la Fig. 8.19 se muestra la representación de estas señales junto con los coe…cientes de su desarrollo en serie.

8.7.1

Tren de pulsos de amplitud unidad y anchura ¢x.

Esta señal se obtiene por la repetición de pulsos de ancho ¢x; Fig. 8.19(a),

P0;¢x (x) =

8 < 1

: 0

si

jxj <

si

¢x 2

¢x 2

< jxj

X0 2

(8.77)

:

Aplicando la expresión de los coe…cientes en términos del producto escalar, Z Z X0 =2 Z ¢x=2 1 1 1 ¡jm»0 x ¡jm»0 x P0;¢x (x)e dx = e dx = e¡jm»0 x dx = X0 hX0 i X0 ¡X0 =2 X0 ¡¢x=2 ³ ´ ³ ´ 1 1 = e¡jm»0 ¢x=2 ¡ ejm»0 ¢x=2 = sin m¼ ¢x X0 ; ¡jmX0 » 0 ¼m ³ ´ ¢x a(m) = sinc m¼ ¢x : X 0 X0 188

(8.78)

c Emilio Gago-Ribas, 2002 °

1,5

∆x

P0,∆x(x)

1,00

a(m) (a1)

0,75

1,0

0,50 0,5 0,25 0,0

0,00

-0,5 -2

-0,25 2 -10

-1

0

1

x

(a)

1,00

-8

-6

-4

X0a(ξ=mξ0)/∆x

-2

0

m

2

4

6

8

10

(a2)

0,75 0,50 0,25 0,00

1,5

-0,25 -10 ξ0

∆x

T0,∆x(x)

1,00

-8 ξ0

a(m)

-6 ξ0

-4 ξ0

-2 ξ0

0 ξ0

ξ

2 ξ0

4 ξ0

6 ξ0

8 ξ0

(b1)

0,75

1,0

10 ξ0

0,50 0,5 0,25 0,0

0,00

-0,5 -2

-0,25 2 -10

-1

0

1

x

(b)

1,00

-8

-6

-4

2X0a(ξ=mξ0)/∆x

-2

0

m

2

4

6

8

10

(b2)

0,75 0,50 0,25 0,00 -0,25 -10 ξ0

-8 ξ0

-6 ξ0

-4 ξ0

-2 ξ0

0 ξ0

ξ

2 ξ0

4 ξ0

6 ξ0

8 ξ0

10 ξ0

Figura 8.19. Algunas distribuciones periódicas de energía …nita del espacio de señales P~ 2 (X0 ) con X0 = 1; junto con los coe…cientes de su desarrollo en serie de Fourier. También se muestra la representación de los coe…cientes obtenidos a partir de la función continua a(») particularizada en » = m» 0 :

En este desarrollo se han tenido en cuenta los siguientes puntos: (i) el valor de la pulsación en función del período, » 0 = 2¼=X0 ; (ii) el desarrollo de una exponencial compleja en términos de su parte real cosenoidal y su parte imaginaria senoidal y, (iii) el escalado por ¢x=X0 para poder escribir la expresión …nal en términos de la función sinc :6 Nótese cómo los coe…cientes son siempre reales, dado que la función sinc es real. Identi…cando la variable discreta m» 0 con una variable continua »; es fácil escribir dicha expresión en la forma a(m) = a(» = m» 0 ) =

¡ ¢ ¢x sinc ¢x 2 » »=m»0 ; X0

(8.79)

es decir, que el valor de los coe…cientes se podría representar por las muestras de una función sinc continua en la variable » particularizada en los valores » m = m2¼=X0 ; Fig. 8.19(a2). 8.7.2

Tren de triángulos de amplitud unidad y anchura ¢x:

En este caso, la señal se obtiene como repetición de señales triangulares de anchura ¢x; Fig. 8.19(b),

T0;¢x (x) =

8 < ¡ 2 jxj + 1 ¢x :

0

si

jxj <

si

¢x 2

¢x 2

< jxj

X0 2

:

(8.80)

6 A lo largo del presente texto de…niremos la función sinc como sin(x)=x: En el Ap. F.4 se puede encontrar un análisis detallado de esta función.

c Emilio Gago-Ribas, 2002 °

189

Aplicando una vez más la expresión de los coe…cientes en términos del producto escalar, Z Z ¢x=2 ¡ ¡2 ¢ 1 2 ¡jm» 0 x a(m) = T0;¢x (x)e dx = jxj + 1 cos(m» 0 x) dx = ¢x X0 hX0 i X0 0 Z ¢x=2 Z ¢x=2 ¡4 2 = x cos(m» 0 x) dx + cos(m» 0 x) dx = X0 ¢x 0 X0 0 £ ¡ ¡ ¢¤ ¢ 4 8 1 ¡ cos ¢x = = sin2 ¢x 2 2 2 m» 0 4 m» 0 = 2 2 X0 m » 0 ¢x X0 m » 0 ¢x ¢ ¡ 2 ¢x ¡ ¢ ¢x ¢x sin 4 m» 0 = m» 0 ; sinc2 ¢x ¢2 = ¡ ¢x 4 2X0 2X0 m» 4

a(m) =

0

¢x 2X0

³ ´ ¢x sinc2 m¼ 2X : 0

(8.81)

En este desarrollo se han utilizado los siguientes resultados y propiedades: (i) la señal triangular es par; 1 (ii) el desarrollo de la primera integral mediante integración por partes con u = x y v = m» sin(m» 0 x); 0 2 (iii) el desarrollo del seno del ángulo mitad, 2 sin (a=2) = 1 ¡ cos a; y (iv) la expresión de la función sinc. Nótese que, en este caso, todos los coe…cientes son reales y positivos, dado que la función sinc cuadrado es siempre positiva. Identi…cando la variable discreta m» 0 con una variable continua »; es fácil identi…car la expresión de los coe…cientes con, a(m) = a(» = m» 0 ) =

¡ ¢ ¢x sinc ¢x » »=m» ; 4 0 2X0

(8.82)

es decir, que el valor de los coe…cientes se podría representar por las muestras de una función sinc2 continua en la variable » particularizada en los valores » m = m2¼=X0 ; Fig. 8.19(b2).

8.8

Desarrollo en serie de señales reales. Un caso especialmente importante en la práctica es cuando las señales son reales. En virtud de esta propiedad, descrita en (8.60), existen un buen número de nuevas propiedades derivadas de ella de especial importancia en el análisis de problemas físicos reales. Analizaremos a continuación algunas de ellas.

8.8.1

Propiedades para señales reales.

Sea f0 (x) una señal real, esto es, f0 (x) = f0¤ (x); de período X0 : ² La señal discreta a(m) 2 D(¡1; 1); espectro de f0 (x); satisface que: (i) su parte real es par, y (ii) su parte imaginaria es impar, 8 < Re fa(m)g = Re fa(¡m)g f0 (x) real ¡! (8.83) : Im fa(m)g = ¡ Im fa(¡m)g Esta propiedad es una consecuencia directa del resultado en (8.60).

² La señal discreta a(m) 2 D(¡1; 1); espectro de f0 (x); satisface que: (i) su módulo es par, y (ii) su fase es impar, 8 < ja(m)j = ja(¡m)j f0 (x) real ¡! (8.84) : ' (m) = ¡' (¡m) a a Esta propiedad es también una consecuencia directa del resultado en (8.60).

² Las partes real e imaginaria de la señal discreta a(m) se pueden escribir en la forma, Z 1 Re fa(m)g = f0 (x) cos(m» 0 x) dx; X0 hX0 i 190

(8.85)

c Emilio Gago-Ribas, 2002 °

Im fa(m)g = ¡

1 X0

Z

hX0 i

f0 (x) sin(m» 0 x) dx:

(8.86)

Ambas expresiones son claramente par e impar en la variable m; respectivamente. ² La expresión de f0 (x); equivalente a su desarrollo en serie de Fourier, podrá escribirse entonces de la siguiente forma, # " X X jm» 0 x = [Refa(m)g cos(m» 0 x) ¡ Imfa(m)g sin(m» 0 x)] : (8.87) f0 (x) = Re a(m)e m

m

Nótese que por ser f0 (x) real, la parte imaginaria de su desarrollo en serie ha de anularse, # " X X X jm»0 x = Refa(m)g sin(m» 0 x) + Imfa(m)g cos(m» 0 x) = 0; Im a(m)e m

m

(8.88)

m

hecho que resulta evidente dado que tanto Refa(m)g sin(m» 0 x) como Imfa(m)g cos(m» 0 x) resultan ser funciones impares7 en m y, por lo tanto, su suma será siempre nula. ² Relación entre el espectro para valores positivos y el espectro total. Es habitual en la práctica trabajar sólamente con la parte positiva del espectro de una señal, esto es, [a(m)]m¸0 : Denominemos a dicho espectro como a1 (m); 8 < a(m) m¸0 a1 (m) = (8.89) : 0 m > ~ ~ > > > TF : S(¡1; 1) ¡! S(¡1; 1) > > > > > > > > > < = < = f(x) = TF¡1 [F (»)] y ; (9.19) F (») = TF [f (x)] Z > > > > > > > > > > > > ¡1 > 1 > : ; : ; TF (¢) = 2¼ (¢)'(x; ») d» TF(¢) = h(¢); '(x; »)i »

© ª ~ f (x); f'(x; »)g = ej»x y F (») 2 S(¡1; 1):

En la Fig. 9.3 se muestra el esquema de estas transformaciones. 204

c Emilio Gago-Ribas, 2002 °

Figura 9.3. Representación en forma de sistema de las transformaciones asociadas a la transformada de Fourier.

9.2.2

Notaciones habituales. 1. En el dominio temporal, la variable real será t;©siendo ª ! la variable espectral; el conjunto de funciones base se representa entonces por f'(t; !)g = ej!t y el par de transformadas vendrá dado por Z 1 Z 1 1 j!t f(t) = F (!)e d! $ F (!) = f (t)e¡j!t dt: (9.20) 2¼ !=¡1 t=¡1 2. En el dominio espacial, la variable real será, por ejemplo, z; espectrales; © siendo ª ¯ o k las variables © ª el conjunto de funciones base se denotará por f'(z; ¯)g = e¡j¯z ó f'(z; k)g = e¡jkz ; y el par de transformadas vendrá dado por Z 1 Z 1 1 f (z) = F (¯)e¡j¯z d¯ $ F (¯) = f (z)ej¯z dz; (9.21) 2¼ ¯=¡1 z¡1 f (z) =

1 2¼

Z

1

k=¡1

F (k)e¡jkz dk $ F (k) =

Z

1

f (z)ejkz dz:

(9.22)

z¡1

La justi…cación del cambio de signo para este caso está asociada a los conceptos descritos en la Secc. 5.4 relativos a la representación de señales sinusoidales en el tiempo y en el espacio que representes fenómenos propagativos para valores de z crecientes. 9.2.3

Coe…cientes de la combinación lineal.

Nótese que los coe…cientes F (») en (9.18) correspondientes a la combinación lineal continua en (9.17) satisfacen una vez más las propiedades descritas en el Cap. 4, es decir, los coe…cientes se pueden escribir como el producto escalar del elemento f (x) original por el continuo de elementos de la base en (9.16) y, por lo tanto, como la proyección de f(x) sobre cada uno de los elementos de la base. Matemáticamente, Z F (») = TF [f (x)] = f (x)e¡j»x dx = hf(x); '(x; »)i: (9.23) x

Desde el punto de vista algebraico esto sugiere que el operador transformada inversa TF¡1 [F (»)] en (9.17) descrito en términos de los coe…cientes en (9.18) ha de constituir la mejor aproximación posible a f (x) en términos de la base f'(x; »)g en (9.16). El sentido de esta aproximación se traducirá una vez más en los criterior de convergencia que pasamos a analizar en la siguiente sección.

9.3

Criterios de convergencia de la transformada de Fourier. El análisis de los criterios de convergencia de la transformada inversa de Fourier en (9.17) pasa por las mismas consideraciones que los realizados acerca del desarrollo en serie de Fourier en (8.18), esto es, el estudio de la convergencia de los coe…cientes, en aquel caso los a(m) y en este caso los valores de F (») de…nidos en (9.18). Igual que el caso del desarrollo en serie, aunque la convergencia de F (») no asegura la convergencia de la transformada inversa en (9.17), el criterio es válido para la mayor parte de las señales que aparecen en la práctica. Dichos criterios de convergencia son los mismos que en el caso de las señales periódicas. c Emilio Gago-Ribas, 2002 °

205

9.3.1

Señales de energía …nita.

El primer criterio de convergencia de F (») está directamente relacionado con el análisis de la ’mejor aproximación posible’ en términos de la distancia entre el elemento f(x) original y su representación como una combinación lineal continua, TF¡1 [F (»)] : Esto nos lleva a la conclusión de que la función f (x) ha de ser cuadrado integrable, esto es, Z jf (x)j2 dx < 1: (9.24) x

En términos físicos este criterio equivale a decir que la señal f (x) es de energía …nita, a partir de la ~ de…nición habitual de la energía de una señal en S(¡1; 1): Esta propiedad puede enunciarse de la siguiente forma: de…niendo la función de error como, e(x) = f(x) ¡ TF¡1 [F (»)] ;

(9.25)

y estudiando la norma de dicha función, Z Z ¯ ¯2 je(x)j2 dx = ¯f (x) ¡ TF¡1 [F (»)]¯ dx; x

(9.26)

x

es posible demostrar que la energía de e(x) tiende a cero,

(9.27)

E [e(x)] ! 0; es decir, la distancia d(f (x); TF¡1 [F (»)]) =

¸1=2 Z ¯ ¯ ¯f (x) ¡ TF¡1 [F (»)]¯2 dx !0

(9.28)

x

justamente cuando TF¡1 viene dada por (9.17) y F (») = TF [f(x)] por (9.18). Dicha demostración se puede encontrar detallada en el Ap. E.95. Con este criterio, las funciones f(x) y su transformada inversa de Fourier podrán diferir en un buen número de puntos, pero serán iguales desde el punto de vista de la métrica del espacio. ~ Imponiendo la condición (9.24) sobre el espacio S(¡1; 1); obtendremos el espacio denominado habitualmente L2 (¡1; 1); esto es, el espacio de funciones complejas de variable real, continuas y discontinuas1 , que son cuadrado integrables2 , tal y como se muestra en la Fig. 9.4(a). 9.3.2

Condiciones de Dirichlet.

Las condiciones de Dirichlet para el caso de la transformada de Fourier son equivalentes a las vistas ya en el caso del desarrollo en serie de Fourier: 1. Que f (x) sea absolutamente integrable, Z

x

jf (x)j dx < 1:

(9.29)

2. El número de máximos y de mínimos de f(x) ha de ser …nito para cualquier intervalo de la señal considerado. 3. El número de discontinuidades de f(x) ha de ser …nito para cualquier intervalo de la señal considerado, y además, todas las discontinuidades han de ser …nitas. Con estos criterios, obtendremos que la señal original f (x) y su transformada inversa de Fourier, TF¡1 [F (»)] ; conicidirán punto a punto excepto en las discontinuidades, donde la transformada inversa tomará el valor medio de dicha discontinuidad. Imponiendo estas restricciones sobre el espacio ~ S(¡1; 1); obtendremos un nuevo espacio que denominaremos LD (¡1; 1); esto es, el espacio de funciones complejas de variable real, continuas y discontinuas, que satisfacen las condiciones de Dirichlet, tal y como se muestra en la Fig. 9.4(b). 1 Como

ya es habitual, las funciones discontinuas las trataremos siempre como distribuciones. un punto de vista algebraico, el espacio L2 (¡1; 1) es el resultado de considerar, además, que las funciones son cuadrado integrables en el sentido de Lebesgue, [22] y Ap. A.5. Este re…namiento algebraico es posible obviarlo para la mayor parte de funciones útiles en la práctica. 2 Desde

206

c Emilio Gago-Ribas, 2002 °

Figura 9.4. Representación genérica de los subespacios de dimensión in…ni~ ta L2 (¡1; 1) y LD (¡1; 1) de…nidos como los subespacios de S(¡1; 1) = S(¡1; 1) + S(¡1; 1) que contienen a todas las señales de energía …nita en el primer caso, y que satisfacen las condiciones de Dirichlet en el segundo.

9.4

Propiedades de la transformada de Fourier. Las siguientes propiedades se basan todas en considerar una o dos señales arbitrarias f (x) y g(x) cuyas transformadas de Fourier se representan por F (») y G(»): La demostración de estas propiedades se puede encontrar en el Ap. E.8.3, recomendándose al lector que aborde su resolución con el …n de adquirir práctica y manejo con ellas. En este sentido, cabe mencionar que, desde el punto de vista de realizar cálculos concretos, será conveniente utilizar estas propiedades siempre que sea posible, dado su carácter general. 1. Linealidad. ®f(x) + ¯g(x) $ ®F (») + ¯G(»):

(9.30)

f(x ¡ x0 ) $ F (»)e¡j»x0

(9.31)

2. Desplazamientos en x:

3. Producto por una exponencial imaginaria de pulsación » 0 : f (x)ej»0 x

$ F (» ¡ » 0 )

(9.32)

4. Conjugado de la función. f ¤ (x) $ F ¤ (¡»)

(9.33)

f (¡x) $ F (¡»)

(9.34)

5. Re‡exión sobre el eje vertical.

6. Escalado de la variable independiente. f (ax) $

1 F jaj

µ ¶ » a

(9.35)

7. Convolución. f (x) ¤ g(x) $ F (») G(»)

(9.36)

8. Producto. f (x)g(x) $ c Emilio Gago-Ribas, 2002 °

1 F (») ¤ G(») 2¼

(9.37)

207

9. Primera derivada. df (x) dx

(9.38)

$ j»F (»)

10. Derivada n-ésima. dn f (x) dxn

$ (j»)n F (»)

(9.39)

11. Integración. La demostración de esta propiedad requiere previamente de la transformada de Fourier de la distribución ¡(x), demostración que se puede encontrar en la Secc. 9.6.5. Z x 1 f (x¶) dx0 $ F (») + ¼F (0)±(») (9.40) j» ¡1 12. Producto por xn ; n > 0: xn f(x) $ (¡j)¡n

dn F (») d» n

(9.41)

13. Dualidad. (9.42)

F (x) $ 2¼f(¡»)

14. Relación de Parseval. Esta propiedad es de suma importancia desde un punto de vista físico dado que relaciona la energía de la señal f (x) con la energía de su representación espectral F (»): Z Z 1 jF (»)j2 d» jf(x)j2 dx = 2¼ » x 1 E [f (x)] = E [F (»)] (9.43) 2¼ 15. Funciones pares. f (x) = f(¡x) $ F (») = F (¡»)

(9.44)

f(x) = ¡f(¡x) $ F (») = ¡F (¡»)

(9.45)

f (x) = f ¤ (x) $ F ¤ (¡») = F (»)

(9.46)

16. Funciones impares.

17. Funciones reales.

9.5

Transformadas de Fourier de algunas señales continuas. Se presentan a continuación algunos ejemplos de señales continuas de buen comportamiento pertenecientes a L2 (¡1; 1) y su transformada de Fourier, así como algunos análisis importantes asociados.

9.5.1

Gaussiana. ¡ax2

f(x) = e

$ F (») =

r

¼ ¡»2 =4a e : a

(9.47)

² Demostración. La demostración de esta transformada es muy simple de obtener sin más que hacer b = j» y c = 0 en la siguiente integral estandar, r Z 1 ¼ (b2 ¡4ac)=4a ¡(ax2 +bx+c) e dx = e : (9.48) a ¡1 208

c Emilio Gago-Ribas, 2002 °

² Análisis de la energía. Calculando la energía de las señales f(x) y F (») es posible comprobar fácilmente la relación de Parseval en (9.43). r Z 1 Z 1 Z 1 ¼ 2 ¡2ax2 ¡2ax2 E [f(x)] = jf (x)j dx = e dx = 2 e dx = : (9.49) 2a ¡1 ¡1 0 E [F (»)] =

Z

1

¡1

2

jF (»)j d» =

Z

1 ¡1

¼ ¡»2 =2a ¼ e d» = 2 a a

1 1 =) E [f (x)] = E [F (»)] = ¼ 2¼ 2¼

Z

r

1

¡»2 =2a

e

d» = ¼

0

2¼ = a

r

r

2¼ : a

¼ : 2a

(9.50)

(9.51)

² Análisis del ancho de la señal. A la vista de la representación de las funciones f (x) y F (») se puede comprobar fácilmente como cuanto más estrecha es la señal en x; másp ancha es la señal en »; y viceversa. Así, el valor f (x) = maxff (x)g=e p se produce en x = §1= a; mientras que el valor F (») = max fF (»)g =e se produce en » = §2 a: Esta propiedad relativa a la relación de anchuras de las señales en ambos dominios será trasladable a otras muchas señales, como se verá a continuación y en secciones posteriores. ² Otras propiedades. Nótese como, por ser f(x) real, se cumple la propiedad en (9.46), esto es, F ¤ (¡») = F (»): En este caso, F (») también es real, de forma que la propiedad se reduce a que la función espectral sea par. También es importante destacar que la función F (») 2 L2 (¡1; 1); esto es, una señal compleja de variable real, »; continua y de energía …nita. ² En la Fig. 9.5 se muestra una análisis grá…co de esta transformación. 9.5.2

Pseudo-Gaussiana. f (x) =

1 ¼ $ F (») = e¡bj»j : 2 +b b

x2

(9.52)

² Demostración. La demostración de esta propiedad pasa por descomponer la integral entre (¡1; 0) y entre (0; 1), hacer el cambio de x por ¡x en la primera integral, agrupar en una sola integral entre (0; 1) el resultado …nal y hacer …nalmente ¯ = » en la integral Z 1 ¼ cos ¯x dx = e¡bj¯j ; (9.53) 2 2 x +b 2b 0 esto es, Z

1

¡1

1 e¡j»x dx = x2 + b2

Z

0

¡1 0

1 e¡j»x dx + x2 + b2

Z

0

1

1 e¡j»x dx = x2 + b2

Z 1 1 1 j»x = e (¡dx) + e¡j»x dx = 2 2 2 x + b2 0 1 x +b Z 1 ¡ j»x ¢ 1 = e + e¡j»x dx = 2 2 x +b 0 Z 1 cos »x ¼ = 2 dx = e¡bj»j : 2 + b2 x b 0 Z

(9.54)

² Análisis de la energía. Calculando la energía de las señales f(x) y F (») es posible comprobar fácilmente la relación de Parseval en (9.43).también en este caso, Z 1 Z 1 Z 1 1 1 2 E [f (x)] = jf (x)j dx = dx = 2 dx = 2 2 2 2 (x + b2 )2 ¡1 ¡1 (x + b ) 0 ³ ´¸1 x 1 ¼ ¡1 x = 2 + tan = 3: (9.55) 2b2 (x2 + b2 ) 2b3 b 0 2b c Emilio Gago-Ribas, 2002 °

209

E [F (»)] = =

Z

1

2

jF (»)j d» =

¡1 2 £

Z

1 ¡1

¼2 ¡2bj»j ¼2 e d» = 2 b2 b2

¤ ¼2 ¼ ¡2b» 1 = e : 0 ¡b3 b3 =) E [f (x)] =

Z

1

e¡2b» d» =

0

(9.56)

1 1 ¼2 ¼ E [F (»)] = = 3: 2¼ 2¼ b3 2b

(9.57)

² Análisis del ancho de la señal. A la vista de la representación de las funciones f(x) y F (») se puede comprobar también cómo cuanto más estrecha es la señal en x; más ancha es la señal en »; y viceversa. ² Otras propiedades. Nótese como, por ser f (x) real, se cumple también la propiedad en (9.46), esto es, F ¤ (¡») = F (»): En este caso, igual que en la función Gaussiana, F (») también es real, de forma que la propiedad se reduce una vez más a que la función espectral sea par. En este caso, también F (») 2 L2 (¡1; 1); esto es, una señal compleja de variable real, »; continua y de energía …nita. Nótese que en este caso, la función no es derivable en » = 0. ² En la Fig. 9.6 se muestra una análisis grá…co de esta transformación. 9.5.3

Pseudo-Gaussiana multiplicada por x. f (x) =

x $ F (») = ¡j¼ sgnf»ge¡bj»j : x2 + b2

(9.58)

² Demostración directa. La demostración de esta propiedad pasa por descomponer la integral entre (¡1; 0) y entre (0; 1), hacer el cambio de x por ¡x en la primera integral, agrupar en una sola integral entre (0; 1) el resultado …nal y hacer …nalmente ¯ = » en la integral Z 1 ¼ x sin ¯x dx = sgnf¯ge¡bj¯j ; (9.59) x2 + b2 2 0 esto es,

Z

1 ¡1

x e¡j»x dx = x2 + b2

Z

0

¡1 0

Z

x e¡j»x dx + x2 + b2

Z

0

1

x e¡j»x dx = x2 + b2

Z 1 ¡x j»x 1 = e (¡dx) + e¡j»x dx = 2 2 2 x + b2 1 x +b 0 Z 1 ¡ j»x ¢ x = ¡e + e¡j»x dx = 2 2 x +b 0 Z 1 x sin »x = ¡2j dx = ¡j¼ sgnf»ge¡bj»j : x2 + b2 0

(9.60)

² Demostración usando propiedades. También es posible obtener la misma expresión anterior sin más que aplicar la propiedad de multiplicación por x en (9.41) a la función 1=(x2 + b2 ); de forma que ³¼ ´ e¡bj»j d b = ¡j¼ sgnf»ge¡bj»j : (9.61) F (») = j d» ² Análisis del ancho de la señal. A la vista de la representación de las funciones f (x) y F (») una vez más se puede comprobar cómo cuanto más estrecha es la señal en x; más ancha es la señal en »; y viceversa. ² Otras propiedades. Nótese como, por ser f (x) real, se cumple también la propiedad en (9.46), esto es, F ¤ (¡») = F (»); lo que es lo mismo, jF (»)j es par y 'F (») es impar. En este caso, también es posible verlo a traves de la imparidad de ImfF (»)g que coincide en este caso con F (»): Igual que en el caso anterior, F (») 2 L2 (¡1; 1); esto es, una señal compleja de variable real, »; continua y de energía …nita. Nótese que la función tampoco es derivable en » = 0. ² En la Fig. 9.7 se muestra una análisis grá…co de esta transformación. 210

c Emilio Gago-Ribas, 2002 °

1,25

|f (x)|

Re{f (x)}

1,25

a=1

1,00 0,75

0,75

a=2

0,50

0,50

0,25

0,25

0,00

0,00

-0,25 -6

1,0

-4

-2

0

x

2

4

6

Im{f (x)}

1,0π

0,5π

0,0

0,0π

-0,5

-0,5π

2,0

-4

-2

0

Re{F(ξ)}

x

2

4

6

a=2

-0,25 -6

0,5

-1,0 -6

a=1

1,00

-4

0

x

2

4

6

-2

0

x

2

4

6

Fase{f (x)}

-1,0π -6

2,0

-2

-4

|F(ξ)|

a=1 1,5

a=1 1,5

a=2

1,0

1,0

0,5

0,5

0,0

0,0

-6

1,0

-4

-2

0

Im{F(ξ)}

ξ

2

4

6

-6

1,0π

0,5

0,5π

0,0

0,0π

-0,5

-0,5π

-1,0 -6

-4

-2

0

ξ

2

4

6

a=2

-2

0

ξ

2

4

6

-2

0

ξ

2

4

6

Fase{F(ξ)}

-1,0π -6

Figura 9.5. f (x) = exp(¡ax2 ) Ã! F (») =

c Emilio Gago-Ribas, 2002 °

-4

-4

r

¼ exp(¡» 2 =4a): a

211

|f(x)|

Re{f (x)} 4

b=0.5

3

4

b=1

2

2

1

1

0

0

-6

1,0

-4

-2

0

2

x

4

6

Im{f (x)}

1,0π

0,5π

0,0

0,0π

-0,5

-0,5π

-3

0

3

x

6

-2

0

2

x

4

-3

0

3

x

|F(ξ)|

b=0.5

6

b=0.5

5

4

4

b=1

3

b=1

3

2

2

1

1

0

6

Fase{f (x)}

6

5

0

-6

-4

-2

0

Im{F(ξ)}

2

ξ

4

6

-6

1,0π

0,5

0,5π

0,0

0,0π

-0,5

-0,5π

-1,0 -6

-3

0

ξ

3

Figura 9.6. f (x) =

212

-4

-1,0π -6

Re{F(ξ)} 6

1,0

b=1

-6

0,5

-1,0 -6

b=0.5

3

6

-4

-2

0

Fase{F(ξ)}

-1,0π -6

-3

0

2

ξ

ξ

4

3

6

6

1 ¼ Ã! F (») = exp(¡b j»j): x2 + b2 b

c Emilio Gago-Ribas, 2002 °

0,75

Re{f (x)}

0,75

|f (x)|

0,50 0,50 0,25 0,00

0,25

-0,25 0,00 -0,50 -0,75 -10

1,0

-8

-6

-4

-2

0

x

2

4

6

8

10

Im{f (x)}

-0,25 -10

1,0π

0,5

0,5π

0,0

0,0π

-0,5

-0,5π

-1,0 -10

1,0

-8

-6

-4

-2

0

Re{F(ξ)}

x

2

4

6

8

10

-8

-6

-4

-2

0

-4

-2

0

x

2

4

6

8

10

4

6

8

10

Fase{f (x)}

-1,0π -10

-8

-6

2

x

|F(ξ)| 3

0,5 2 0,0 1 -0,5 0 -1,0 -8

4

-6

-4

-2

0

Im{F(ξ)}

ξ

2

4

6

8

-8

-6

-4

-2

0

ξ

2

4

6

8

-2

0

ξ

2

4

6

8

Fase{F(ξ)} 1,0π

3 2

0,5π

1 0,0π

0 -1

-0,5π

-2 -3 -4 -8

-1,0π -6

-4

-2

0

ξ

2

Figura 9.7. f (x) =

c Emilio Gago-Ribas, 2002 °

4

6

8

-8

-6

-4

x Ã! F (») = ¡j¼ sgnf»g exp(¡b j»j); b = 1: x2 + b2

213

9.6

Transformadas de Fourier de distribuciones y señales de energía in…nita. En la siguiente sección abordaremos el importante problema de la transformada de Fourier de las distribuciones, funciones generalizadas o funciones localizadoras y de su no menos importante dual, la transformada de Fourier de señales que no son cuadrado integrables, es decir, cuya energía no está acotada. Este caso es especialmente importante dado que, a priori, para cualquier señal que no fuese de energía …nita (el criterio de convergencia más relajado de los dos citados en la Secc. 9.3) no podríamos asegurar que tiene transformada de Fourier. Veremos cómo el concepto de la transformada de Fourier se puede extender a señales de energía in…nita justamente por disponer de la teoría de distribuciones, dicho de otra forma, por haber de…nido estos nuevos objetos matemáticos. Este será también el caso de la transformada de Fourier de señales periódicas analizado en la Secc. 9.8. Como veremos, el papel que juega el orden de variación3 de una función o de su energía, así como su valor medio, estará íntimamente ligado con el hecho de haber introducido funciones impulsivas o distribuciones; en otro caso, no sería posible de…nir a priori la transformada de Fourier de este tipo de señales. De hecho, esta es otra de las razones que justi…caron en su día la necesidad de generar una serie de objetos matemáticos impulsivos conocidos posteriormente como distribuciones o funciones generalizadas. En la tabla de la Secc. 9.6.7 se recogen los aspectos más importantes que analizaremos a continuación, así como su relación con las distribuciones. Para de…nir o estudiar la transformada de Fourier de una distribuión D(x) genérica es conveniente recordar su de…nición como funcional operando sobre una función de buen comportamiento f(x); Z 1 D(x) : f (x) ¡! f(x)D(x) dx 2 C: (9.62) ¡1

Nótese que esta de…nición es directamente aplicable a la expresión de la transformada de Fourier cuando las funciones de buen comportamiento sobre las que aplicamos la distribución son las funciones de la base conjugadas, '¤ (x; ») = e¡j»x ; Z 1 D(x) : e¡j»x ¡! e¡j»x D(x) dx = TF fD(x)g : (9.63) ¡1

Este concepto será aplicable a distribuciones de tipo netamente impulsivo, como ±(x); ± 0 (x), ± 00 (x) y ±(x ¡ x0 ): En otros casos, recurriremos al uso de las propiedades de la transformada de Fourier, así como a ciertas propiedades que veremos a continuación. 9.6.1

Distribución delta.

La de…nición de ±(x) como distribución venía dada por, Z ±(x) : f(x) ¡! f(x)±(x) dx = f(0):

(9.64)

x

En base a (9.63) cuando D(x) = ±(x); el valor de e¡j»x en el origen será la unidad, de forma que el par transformado de ±(x) vendrá dado por ±(x) $ 1 8»;

(9.65)

La representación de estas funciones se muestra en la Fig. 9.8. Algunos comentarios importantes: 1. Por ser ±(x) real, su transformada de Fourier F (») ha de satisfacer F ¤ (¡») = F (»): Dado que F (») = 1; esto es evidente, por ser una función real y par en »: 2. La función F (») = 1 es una señal de energía in…nita; usando la relación de Parseval en (9.43) podemos inferir4 rápidamente que la energía de la distribución ±(x) es también in…nita, E [±(x)] =

1 E [F (»)] ! 1; 2¼

(9.66)

y por lo tanto, no es una distribución cuadrado integrable. 3 De…niremos el orden de variación como la forma de variación de una señal cuando x ! §1: Habitualmente se obtendrá a través del comportamiento de la aproximación polinómica deRgrado n de f (x): 4 Nótese que la energía de ±(x) vendría dada por E [±(x)] = 1 ± 2 (x) dx; integral que no es posible calcular dado que ¡1 no hemos de…nido el producto de dos distribuciones y, por lo tanto, ±2 (x) no ha sido de…nido.

214

c Emilio Gago-Ribas, 2002 °

3. Nótese también que el orden de variación de F (») en el in…nito es cero (función constante unidad), y por lo tanto, el orden de variación de la energía es la unidad, Z E [F (»)] = 1 d» / » ! O (E [F (»)]) = »: (9.67) »

Esto quiere decir que el objeto ±(x) es una señal cuya energía crece linealmente con una variación de orden 1: ² Dualidad.

A partir del resultado en (9.65) y aplicando la propiedad de dualidad en (9.42), resulta evidente obtener la siguiente relación, ±(x) Ã! 1

1; 8»

Ã! 2¼±(¡») = 2¼±(»)

(9.68)

En la última relación se ha utilizado la propiedad de paridad de la distribución delta. La representación de estas funciones se muestra en la Fig. 9.8. Algunos comentarios importantes en relación con este resultado: 1. La función f(x) = 1 de energía in…nita, posee transformada de Fourier expresada en términos de ±(»): Esta transformada no sería posible en caso de no haber de…nido el objeto impulsivo delta de Dirac. 2. La función constante unidad permite expresar cualquier función constante K 2 C en términos de ella. Su transformada de Fourier será entonces 2¼K±(x): A su vez, la componente continua de cualquier señal será una constante de forma que cualquier señal que posea una componente continua no nula, tendrá una transformada de Fourier en la que aparecerá un término ±(») debido a dicha componente continua, esto es, 8 9 8 9 < f (x) = hf(x)i + f1 (x) = < F (») = 2¼ hf (x)i ±(») + F1 (») = Ã! (9.69) : ; : ; con hf1 (x)i = 0 F1 (») = TF ff1 (x)g

3. Nótese que otra conclusión importante es que una señal cuyo orden de variación en el in…nito sea 0, tendrá una energía cuyo orden de variación será la unidad, Z E [f(x)] = 1 dx / x ! O (E [f (x)]) = x: (9.70) x

Así, su espectro contendría necesariamente a ±(»): 4. Resulta muy importante destacar también el papel que ±(») juega, una vez más, como objeto capaz de seleccionar un valor de un continuo de valores. Aplicando la transformada inversa a la función unidad, Z 1 1= F (»)ej»x d»; (9.71) 2¼ » resulta evidente que el único objeto matemático capaz de devolver la función unidad a través de la integral espectal resulta ser justamente la distribución delta pesada adecuadamente, esto es, F (») = 2¼±(»): De esta forma, el valor de la integral se obtendrá sin £ ¤ más que aplicar la de…nición de la distribución delta sobre la función ej»x ; esto es 2¼ ej»x »=0 = 2¼: Nótese que este desarrollo matemático trivial lleva impícito el concepto de selección de un valor de un continuo de valores; en este caso, ©el conjunto continuo viene dado por el espacio in…nito y ª continuo de funciones f'(x; »)g = ej»x descrito por el parámetro »: El objeto ±(») lo único que hace es seleccionar la función constante de dicho conjunto, función que ocurre justamente cuando » = 0:

c Emilio Gago-Ribas, 2002 °

215

9.6.2

Distribución delta desplazada.

La de…nición de ±(x ¡ x0 ) como distribución viene dada por, Z ±(x ¡ x0 ) : f (x) ¡! f (x)±(x ¡ x0 ) dx = f (x0 );

(9.72)

x

esto es, ±(x¡x0 ) nos devuelve el valor de la función f(x0 ) sobre la que se aplica. En base a (9.63) cuando D(x) = ±(x ¡ x0 ); el valor de e¡j»x en x0 será e¡j»x0 ; de forma que el par transformado de ±(x ¡ x0 ) vendrá dado por ±(x ¡ x0 ) $ e¡j»x0 :

(9.73)

La representación de estas funciones se muestra en la Fig. 9.9. Algunos comentarios importantes: 1. El par transformado en (9.73) se puede obtener a partir del par transformado en (9.65) y la propiedad de desplazamiento en (9.31), Ã!

±(x)

1

±(x ¡ x0 ) Ã! 1 ¢ e¡j»x0 = e¡j»x0

(9.74)

2. El objeto ±(x ¡ x0 ) es real, de forma que © su transformada de Fourier ©F (») haªde satisfacer F ¤ (¡») = ª ¡j»x0 F (»); esto resulta evidente dado que Re e es par en », y Im e¡j»x0 es impar en »:

3. La función F (») = e¡j»x0 es una señal de período 2¼=x0 y por lo tanto de energía in…nita como una señal en (¡1; 1): A través de la relación de Parseval en (9.43) podemos inferir5 que la energía de la distribución ±(x ¡ x0 ) es también in…nita, E [±(x ¡ x0 )] =

1 E [F (»)] ! 1; 2¼

(9.75)

y por lo tanto, no es una distribución cuadrado integrable. 4. El orden de variación de F (») en el in…nito es cero (función cosenoidal y senoidal en sus partes real e imaginarias, y por lo tanto acotadas entre ¡1 y 1), y por lo tanto, el orden de variación de la energía es la unidad6 , Z E [F (»)] = 1 d» / » ! O (E [F (»)]) = »: (9.76) »

Esto quiere decir que el objeto ±(x¡x0 ) es una señal cuya energía crece linealmente con una variación de orden 1; como cabía esperar a tenor del resultado para la delta localizada en el origen. ² Dualidad.

A partir del resultado en (9.73) y aplicando la propiedad de dualidad en (9.42), resulta evidente obtener la siguiente relación, ±(x ¡ x0 ) Ã! e¡j»0 x ej»0 x

e¡j»x0

Ã! 2¼±(¡» ¡ » 0 ) = 2¼±(» + » 0 ) Ã!

(9.77)

2¼±(» ¡ » 0 )

En la última relación se ha utilizado la propiedad de paridad de la distribución delta. La representación de estas funciones se muestra en la Fig. 9.9. Algunos comentarios importantes en relación con este resultado: 1. La función f (x) = ej»0 x ; de período 2¼=» 0 y por lo tanto de energía in…nita, posee transformada de Fourier expresada en términos de ±(» ¡ » 0 ): Esta transformada no sería posible una vez más si no se hubiera de…nido el objeto impulsivo delta de Dirac. R1 2 que la energía de ±(x ¡ x0 ) vendría dada por E [±(x ¡ x0 )] = ¡1 ± (x ¡ x0 ) dx; integral que no es posible calcular una vez¯ más dado que no hemos de…nido el producto de dos distribuciones. ¯ 6 Nótese que ¯ e¡j»x0 ¯ = 1: 5 Nótese

216

c Emilio Gago-Ribas, 2002 °

2. El valor medio de f(x) = ej»0 x es nulo (valores medios del coseno y del seno nulos). Así, la función delta que aparece en el dominio espectral no es debida a su componente continua, sino al orden de variación de la señal, y por lo tanto, de su energía, 9 9 8 8 = < < f (x) = hf(x)i + f1 (x) = F (») = F1 (») (9.78) Ã! : F (») = 2¼±(» ¡ » ) ; : hf (x)i = 0 y f (x) = f (x) ; 1 1 0

3. Como conclusión importante, citar que una señal periódica cuyo orden de variación en el in…nito sea 0, tendrá una energía cuyo orden de variación será la unidad, Z 1 E [f (x)] = 1 dx / x ! O (E [f(x)]) = x; (9.79) ¡1

y por lo tanto su espectro vendrá entonces descrito necesariamente en términos de ±(» ¡ » 0 ); lo que es lo mismo, en términos de deltas con un desplazamiento espectral proporcionla al período de la señal. Esta conclusión determinará y justi…cará la posibilidad de de…nir transformadas de Fourier de señales periódicas, como se verá en la Secc. 9.8. 4. Resulta muy importante destacar el papel que el objeto ±(» ¡ » 0 ) juega una vez más como objeto capaz de seleccionar un valor de un continuo de valores. Aplicando la transformada inversa a la función ej»0 x , Z 1 j»0 x e = F (»)ej»x d»; (9.80) 2¼ » el único objeto matemático capaz de devolver dicha función a través de la integral espectal resulta ser justamente la distribución delta pesada y desplazada adecuadamente, esto es, F (») = 2¼±(» ¡ » 0 ): De esta forma, el valor de la integral se obtendrá sin más que la de…nición £ aplicar ¤ de la distribución delta desplazada sobre la función ej»x ; esto es 2¼ ej»x »=» = 2¼ej»0 x : 0 Nótese que este desarrollo matemático lleva impícito el concepto de selección de un valor de un continuo de valores; en este caso, continuo viene dado por el espacio in…nito y © el conjunto ª continuo de funciones f'(x; »)g = ej»x descrito por el parámetro »: El objeto ±(» ¡ » 0 ) lo que consigue es seleccionar la función adecuada, función que ocurre justamente cuando » = » 0 : 9.6.3

Distribución primera derivada de la delta.

La de…nición de ± 0 (x) como distribución viene dada por, Z 0 ± (x) : f (x) ¡! f (x)± 0 (x) dx = ¡f 0 (0);

(9.81)

x

esto es, ± 0 (x) nos devuelve el valor en el origen de la primera derivada de la función f(x) cambiada de signo. En base a (9.63) cuando D(x) = ±(x); el valor de la primera derivada de e¡j»x en el origen y cambiada de signo será igual a j», de forma que el par transformado de ± 0 (x) vendrá dado por ± 0 (x) $ j»;

(9.82)

es decir, una función imaginaria y lineal con »: La representación de estas funciones se muestra en la Fig. 9.10. Algunos comentarios importantes: 1. El par transformado en (9.82) se puede obtener a partir del par transformado en (9.65) y la propiedad asociada a la derivación en (9.38), ±(x)

Ã!

1

± 0 (x) Ã! j» ¢ 1 = j»

(9.83)

2. Por ser ± 0 (x) real, su transformada de Fourier F (») ha de satisfacer F ¤ (¡») = F (»): Dado que F (») = j»; esto es evidente, por ser una función imaginaria e impar en »:

c Emilio Gago-Ribas, 2002 °

217

3. La función F (») = j» es una señal de energía in…nita, de forma que a través de la relación de Parseval en (9.43) podemos inferir que la energía de la distribución ± 0 (x) es también in…nita, £ ¤ 1 E ± 0 (x) = E [F (»)] ! 1; 2¼

(9.84)

y por lo tanto, no es una distribución cuadrado integrable7 .

4. Nótese también que el orden de variación de F (») en el in…nito es la unidad (función lineal), y por lo tanto, el orden de variación de la energía es de 3; Z E [F (»)] = » 2 d» / » 3 ! O (E [F (»)]) = » 3 : (9.85) »

Esto quiere decir que ± 0 (x) es una señal cuya energía crece con una variación de tercer orden. ² Dualidad.

A partir del resultado en (9.82) y aplicando la propiedad de dualidad en (9.42), resulta evidente obtener la siguiente relación, ± 0 (x) Ã! jx x



Ã! 2¼± 0 (¡») = ¡2¼± 0 (») Ã!

(9.86)

0

2¼j± (»)

En la última relación se ha utilizado la propiedad de imparidad de la distribución primera derivada de la delta. La representación de estas funciones se muestra en la Fig. 9.10. Algunos comentarios importantes en relación con este resultado: 1. La función f(x) = x de energía in…nita, posee transformada de Fourier expresada en términos de ± 0 (»): Esta transformada no sería posible en caso de no haber de…nido el objeto impulsivo primera derivada de la delta de Dirac. 2. El valor medio de f (x) = x es nulo8 . Así, la distribución delta prima que aparece en el dominio espectral no es debida a su componente continua, sino al orden de variación de la señal, y por lo tanto, de su energía, 8 9 8 9 < f (x) = hf(x)i + f1 (x) = < F (») = F1 (») = Ã! (9.87) : hf (x)i = 0 y f (x) = f (x) ; : F (») = 2¼j± 0 (») ; 1 1

3. Nótese que otra conclusión importante es que una señal cuyo orden de variación en el in…nito sea 1, tendrá una energía cuyo orden de variación será 3; Z E [f (x)] = x2 dx / x3 ! O (E [f(x)]) = x3 : (9.88) x

Su espectro contendría necesariamente al objeto ± 0 (»): 4. Resulta muy importante destacar también el papel que juega ± 0 (») como aquel objeto matemático capaz de seleccionar un valor de un continuo de valores. Aplicando la transformada inversa a la función unidad, Z 1 x= F (»)ej»x d»; (9.89) 2¼ » resulta evidente que el único objeto matemático capaz de devolver la función lineal x a través de la integral espectal (combinación lineal continua) resulta ser justamente la primera derivada de R1 2 energía de F (») = j» viene dada por E [F (»)] = ¡1 » d» ! 1: Nótese que la energía de ± 0 (x) vendría dada por R 1 2 0 0 E [± (x)] = ¡1 [± (x)] dx; integral que, una vez más, no es posible calcular dado que no hemos de…nido el producto de dos distribuciones, en este caso ± 0 (x)±0 (x): Rb 1 0 8 El valor medio de f (x) = x se podrá calcular como hxi = lim b!1 2b ¡b xdx = limb!1 2b = 0: 7 La

218

c Emilio Gago-Ribas, 2002 °

la distribución delta pesada adecuadamente, esto es, F (») = 2¼j± 0 (»): De esta forma, el valor de j»x la integral se ¤ sin más que aplicar la de…nición de la distribución sobre la función e ; £ obtendrá j»x = 2¼x: Nótese que este desarrollo matemático trivial lleva impícito el esto es 2¼j ¡jxe »=0 concepto de selección de un valor de un continuo de valores; en este caso,© el conjunto continuo ª viene dado por el espacio in…nito y continuo de funciones f'(x; »)g = ej»x descrito por el parámetro »: El objeto ± 0 (») lo único que hace es seleccionar, a través de la primera derivada, la función que daría lugar a una variación lineal. 9.6.4

Distribución segunda derivada de la delta.

La de…nición de ± 00 (x) como distribución viene dada por, Z 00 ± (x) : f(x) ¡! f (x)± 00 (x) dx = f 00 (0);

(9.90)

x

esto es, ± 00 (x) devuelve el valor en el origen de la segunda derivada de la función f (x): En base a (9.63) cuando D(x) = ±(x); el valor de la segunda derivada de e¡j»x en el origen es igual a ¡» 2 ; de forma que el par transformado de ± 00 (x) vendrá dado por ± 00 (x) $ ¡» 2 ;

(9.91)

es decir, una función real y cuadrática con »: La representación de estas funciones se muestra en la Fig. 9.11. Algunos comentarios importantes: 1. El par transformado en (9.91) se puede obtener a partir del par transformado en (9.82) y la propiedad asociada a la derivación en (9.38), ± 0 (x)

Ã!



± 00 (x) Ã! j» ¢ j» = ¡» 2

(9.92)

2. Por ser ± 00 (x) real, su transformada de Fourier F (») ha de satisfacer F ¤ (¡») = F (»): Dado que F (») = ¡» 2 ; esto es evidente, por ser una función real y par en »: Esto hace que el módulo de F (») sea par, y su fase impar. 3. La función F (») = ¡» 2 es una señal de energía in…nita, de forma que a través de la relación de Parseval en (9.43) podemos inferir que la energía de la distribución ± 00 (x) es también in…nita, £ ¤ 1 E ± 00 (x) = E [F (»)] ! 1; 2¼

(9.93)

y por lo tanto, no es una distribución cuadrado integrable9 .

4. Nótese también que el orden de variación de F (») en el in…nito es 2 (función cuadrática), y por lo tanto, el orden de variación de la energía es de 5; Z E [F (»)] = » 4 d» / » 5 ! O (E [F (»)]) = » 5 : (9.94) »

00

Esto quiere decir que el objeto ± (x) es una señal cuya energía crece con una variación de quinto orden. ² Dualidad.

A partir del resultado en (9.91) y aplicando la propiedad de dualidad en (9.42), resulta evidente obtener la siguiente relación, ± 00 (x) Ã! ¡x2 x2

¡» 2

Ã! 2¼± 00 (¡») = 2¼± 00 (») Ã!

(9.95)

00

¡2¼± (»)

R energía de F (») = ¡» 2 viene dada por E [F (»)] = » »4 d» ! 1: Nótese que la energía de ±00 (x) vendría dada por R 1 2 E [± 00 (x)] = ¡1 [±00 (x)] dx; integral que, una vez más, no es posible calcular dado que no hemos de…nido el producto de dos distribuciones, en este caso ± 00 (x)± 00 (x): 9 La

c Emilio Gago-Ribas, 2002 °

219

En la última relación se ha utilizado la propiedad de paridad de la distribución segunda derivada de la delta. La representación de estas funciones se muestra en la Fig. 9.11. Algunos comentarios importantes en relación con este resultado: 1. La función f (x) = x2 de energía in…nita, posee transformada de Fourier expresada en términos de ± 00 (»): Esta transformada no sería posible en caso de no haber de…nido el objeto impulsivo segunda derivada de la delta de Dirac. 2. El valor medio de f(x) = x2 es divergente10 . Así, la distribución delta segunda que aparece en el dominio espectral no es debida a su componente continua, sino al orden de variación de la señal, y por lo tanto, de su energía. 3. Nótese que otra conclusión importante es que una señal cuyo orden de variación en el in…nito sea 2, tendrá una energía cuyo orden de variación será 5; Z E [f (x)] = x4 dx / x5 ! O (E [f(x)]) = x5 : (9.96) x

Su espectro estará entonces necesariamente relacionado con el objeto ± 00 (»):

4. Resulta muy importante destacar una vez más el papel que juega ± 00 (») como aquel objeto matemático capaz de seleccionar un valor de un continuo de valores. Aplicando la transformada inversa a la función unidad, Z 1 x2 = F (»)ej»x d»; (9.97) 2¼ » resulta evidente que el único objeto matemático capaz de devolver la función cuadrática en x a través de la integral espectal (combinación lineal continua) resulta ser justamente la segunda derivada de la distribución delta pesada adecuadamente, esto es, F (») = ¡2¼± 00 (»): De esta forma, el valor de la integral£se obtendrá ¤ sin más que aplicar la de…nición de la distribución sobre la función ej»x ; esto es ¡2¼ ¡x2 ej»x »=0 = 2¼x2 : Nótese que este desarrollo matemático trivial lleva impícito el concepto de selección de un valor de un continuo de valores; en este caso, el © ª conjunto continuo viene dado por el espacio in…nito y continuo de funciones f'(x; »)g = ej»x descrito por el parámetro »: El objeto ± 00 (») lo que hace es seleccionar, a través de la segunda derivada, la función que daría lugar a una variación cuadrática. 9.6.5

Distribución de Heaviside o salto unidad.

La de…nición de ¡(x) como distribución viene dada por, Z Z ¡(x) : f(x) ¡! f (x)¡(x) dx = x

1

f(x0 ) dx0 ;

(9.98)

0

esto es, ¡(x) devuelve el valor en el origen de la integral función f(x) desde ¡1 hasta el origen. En base a (9.63) cuando D(x) = ¡(x); resulta evidente que el valor de dicha integral cuando la función es e¡j»x no está de…nida en ¡1: En este caso, el par transformado de ¡(x) habrá que buscarlo de otra forma11 . En base a los resultados vistos previamente, podríamos analizar el comportamiento de la distribución de Heaviside en términos de su orden de variación, así como del orden de variación de su energía. Resulta evidente que ¡(x ! 1) = 1; de forma que el orden de variación de la función es cero (función constante), y el orden de variación de su energía es la unidad, Z Z 1 E [¡(x)] = 1 dx = dx / x: (9.99) x

0

En base a los resultados obtenidos para la distribución delta y su dual, la función constante, parece evidente que la transformada de Fourier de ¡(x) : (i) estará relacionada con ±(»); y (ii) dicha distribución describirá una cierta componente continua. Nótese que ¡(x) es una distribución de valor medio no nulo, Z Z 1 b 1 b b h¡(x)i = lim ¡(x) dx = lim dx = lim = 0:5: (9.100) b!1 2b ¡b b!1 2b 0 b!1 2b - ® Rb 2 1 b3 valor medio de f (x) = x2 se podrá calcular como: x2 = limb!1 2b ¡b x dx = limb!1 3b ! 1: que la distribución gamma es de tipo impulsivo de salto …nito, esto es, entre cero y uno, a diferencia de las distribuciones relacionadas con ±(x): 10 El

11 Nótese

220

c Emilio Gago-Ribas, 2002 °

Con estas consideraciones en mente, ya podemos expresar ¡(x) en la siguiente forma, ¡(x) =

1 + ¡1 (x); 2

siendo ¡1 (x) una distribución de valor medio nulo igual a, 8 < ¡1=2 si x < 0 ¡1 (x) = : 1=2 si x > 0

(9.101)

(9.102)

La transformada de Fourier de ¡(x) en (9.101) vendrá dada entonces por, ¡(») = ¼±(») + ¡1 (»);

(9.103)

donde el término ±(») aparece asociado a la componente continua de la señal como cabía esperar. Faltará por identi…car sólamente el término ¡1 (»). Este paso es evidente si recurrimos a la relación existente entre las distribuciones de Heaviside y delta y traducimos ésta en términos de sus transformadas, ±(x) =

d¡1 (x) d¡(x) = Ã! 1 = j»¡1 (»); dx dx ¡1 (x) $

1 : j»

(9.104)

(9.105)

El par transformado …nal vendrá dado entonces por, ¡(x) $ ¼±(») +

1 j = ¼±(») ¡ ; j» »

(9.106)

es decir, una función compleja cuya parte real ciene dada en términos de ±(»), y cuya parte imaginaria tiene una variación inversamente proporcional a »; y por lo tanto, un comportamiento singular en el origen » = 0: La representación de estas funciones se muestra en la Fig. 9.12. Algunos comentarios importantes: 1. Por ser ¡(x) real, su transformada de Fourier F (») ha de satisfacer F ¤ (¡») = F (»): En base a (9.106), resulta evidente que se cumple dado que su parte real es par y su parte imaginaria impar. De igual forma, el módulo de F (») será par, y su fase impar. 2. La función F (») en (9.106) presenta un comportamiento especialmente destacable, como ya se ha citado previamente. En primer lugar, el término 1=j» presenta una singularidad de tipo in…nito en el origen, y por lo tanto no está de…nida en » = 0; dicha singularidad queda cubierta por el término ¼±(») debido a la componente continua de la señal ¡(x): Además, es una señal de energía in…nita, como queda re‡ejado a través de la relación de Parseval en (9.43), Z 1 1 E [¡(x)] = dx = E [F (»)] ! 1: (9.107) 2¼ 0 3. Nótese también que la relación de Parseval nos permite escribir la siguiente igualdad, ¯Z ¯2 Z 1 1 ¯¯ 1 1 ¯¯ dx = ¼±(») + d»: 2¼ ¯ ¡1 j» ¯ 0

(9.108)

Esto quiere decir que el objeto ¼±(») + 1=j» es una señal cuya energía tiene un orden de variación similar a la de ¡(x); esto es, Z 1 E [¡(x)] = dx / x ! O (E [¡(x)]) = x: (9.109) 0

c Emilio Gago-Ribas, 2002 °

221

² Dualidad.

A partir del resultado en (9.106), y aplicando la propiedad de dualidad en (9.42), resulta evidente obtener la siguiente relación, Ã!

¡(x) 1 ¼±(x) + jx 1 x

¼±(») +

1 j»

2¼¡(¡») = ¼ + TF

Ã!

½

1 jx

¾

(9.110)

Ã! j [2¼¡(¡») ¡ ¼] = j2¼¡1 (¡»):

En la última relación se ha tenido en cuenta que ¡(¡») = 1=2+¡1 (¡»); siendo ¡1 (¡») la distribución de…nida en (9.102) respecto de la variable »; y re‡ejada respecto al eje vertical. La representación de estas funciones se muestra en la Fig. 9.12. Algunos comentarios importantes en relación con este resultado: 1. La función f (x) = 1=x tiene una energía in…nita, y posee transformada de Fourier expresada en términos de la distribución ¡(») ó ¡1 (»): 2. El valor medio de f (x) = 1=x es cero12 , lo que hace que no aparezca ningún término proporcional a ±(») en su desarrollo espectral. 3. Nótese cómo una señal con una singularidad simple cuyo orden de variación sea la unidad tendrá una energía proporcional a 1=x; Z 1 Z 1 1 1 1 1 E [f (x)] = (9.111) dx = 2 dx / ! O (E [f(x)]) = : 2 2 x x x x ¡1 0 Su espectro estará entonces relacionado con el objeto ¡(»): 4. Desde el punto de vista de la transformada inversa, Z 1 1 = F (»)ej»x d»; x 2¼ »

(9.112)

resulta evidente que el único objeto matemático capaz de devolver la función inversa de x a través de la integral espectral (combinación lineal continua) resulta ser justamente la transformada de…nida en (9.110) en términos de la distribución de Heaviside. 9.6.6

Otras distribuciones.

De forma similar a como se han analizado las distribuciones ±(x); ± 0 (x); ± 00 (x) y ¡(x); se podrían estudiar otras distribuciones importantes, por ejemplo: 1. La distribución sgn(x) de…nida como, sgn(x) =

8 < 1

x>0

: ¡1

(9.113)

x 0 ; ® 2 C; y Ref®g > 0: e+ (x) = : 0 si x < 0

(9.144)

Esta señal es continua en todo el intervalo (¡1; 1) exceptuando en el origen (x = 0) donde la función presenta una discontinuidad …nita de valor unidad. Esta señal será por tanto una distribución expresable en términos de ¡(x) en la forma, e+ (x) = e¡®x ¡(x); Ref®g > 0:

(9.145)

² Parámetros característicos. 1. Señal real. Su espectro ha de satisfacer F (») = F ¤ (¡»): 2. Su valor medio es nulo, - + ® 1 e (x) = lim b!1 2b

Z

b 0

1 ¡ e¡®b = 0: b!1 2b®

e¡®x dx = lim

(9.146)

3. La potencia instantánea será una nueva exponencial a derechas de exponente 2®, P [e+ (x)] = e¡2®x ¡(x): 4. Es de energía …nita, £ ¤ E e+ (x) =

Z

1 0

e¡2 Ref®gx dx =

1 < 1: 2 Re f®g

(9.147)

5. La potencia media será el valor medio de P [e+ (x)] = e¡2®x ¡(x); y por lo tanto nula igual que en el caso de la señal original. ² Criterios de convergencia. 1. Es cuadrado integrable dado que su energía es …nita, y por lo tanto sería un elemento válido del espacio L2 (¡1; 1):

2. Respecto a las condiciones de Dirichlet, resulta evidente que: (i) el número de máximo y de mínimos es …nito; (ii) el número de discontinuidades es …nito (una discontinuidad) y de valor …nito (salto entre 0 y 1), y (iii) es absolutamente integrable, Z 1 1 < 1: (9.148) e¡ Ref®gx dx = Re f®g 0 c Emilio Gago-Ribas, 2002 °

235

Esto signi…ca que satisface también las condiciones de Dirichlet, y por lo tanto, la transformada inversa de Fourier de esta señal representará a la señal original en todos los puntos excepto en la discontinuidad en el origen, donde tomará el valor medio de la discontinuidad, esto es, 1=2: La señal será entonces un elemento válido de LD (¡1; 1):

Su transformada de Fourier se podrá analizar entonces usando la expresión original en (9.18) dado que su convergencia está asegurada. ² Cálculo de la transformada.

£ ¤ TF e+ (x) = =

Z

1

¡1 1

Z

Z

e+ (x)e¡j»x dx =

1

e¡®x e¡j»x dx =

0

¡(®+j»)x

e

0

1 dx = : ® + j»

(9.149)

En este desarrollo se ha utilizado el hecho de que la exponencial e¡ Ref®gx ej[Imf®g+»] tiende a cero cuando x ! 1 dado que Re f®g > 0: El par transformado vendrá dado entonces por, e+ (x) Ã!

1 : ® + j»

(9.150)

² Análisis de la transformada. 1. La transformada de Fourier en (9.150) es una función compleja sin singularidades, dado que el valor de » para el cuál se anula el denominador es » = j®; y por lo tanto un valor complejo, siendo » 2 R.

2. En virtud de la relación de Parseval en (9.43), la energía de TF [e+ (x)] será, £ £ ¤¤ £ ¤ E TF e+ (x) = 2¼E e+ (x) =

¼ ; Re f®g > 0: Re f®g

Nótese que este resultado nos provee de la siguiente propiedad matemática14 , Z 1 Z 1 1 ¼ 1 d» = : 2 d» = 2 + (b + »)2 a a ¡1 ¡1 j® + j»j

(9.151)

(9.152)

3. En el caso en que ® 2 R; la exponencial será también real y decreciente en virtud de la condición Re f®g = ® > 0: En la Fig. 9.18 se muestran dos ejemplos de esta transformación para diferentes valores del exponente ® 2 R: Nótese una vez más cómo a medida que ® aumenta, la exponencial decrece más rápidamente, esto es, su variación en x es más rápida, lo que supone un ancho de su representación©espectral mayor, y por lo tanto, un mayor número de armónicos ª del conjunto de funciones base ej»x contribuye a la representación de la señal original. Nótese cómo en este caso, el máximo de jTF [e+ (x)]j ocurre en » = 0:

4. En el caso en que ® = ®0 + j®00 2 C; la exponencial se podrá expresar en la forma, 0

e¡®x ¡(x) = e¡® x [cos ®00 x ¡ j sin ®00 x] ¡(x);

(9.153)

lo que representa una señal cosenoidal y otra senoidal cuyo período sería X0 = 2¼=®00 ; pero 0 decreciendo en amplitud según el factor e¡® x . Nótese cómo la parte imaginaria de ® controla el que sería el período de dichas señales sinusoidales. Desde el punto de vista espectral, la función TF [e+ (x)] se podría escribir de la siguiente forma, £ ¤ TF e+ (x) =

1 ; ®0 + j(®00 + »)

(9.154)

lo que supone un desplazamiento en » de valor ®00 ; por ejemplo, el máximo de jTF [e+ (x)]j ocurrirá ahora en » max = ¡®00 : En las Figs. 9.19 y 9.20 se muestran dos ejemplos de esta transformación para diferentes valores del exponente ® 2 C: 14 Basta

236

para ello con identi…car Re f®g = a y Im f®g = b:

c Emilio Gago-Ribas, 2002 °

2

2

P∆x(x)

Re{F(ξ)}

2,0

1

1,5

0

1,0

-1

0,5

|F(ξ)|

1 -2 -20

0 2

-10

0

ξ

10

20

0,0 -20

Im{F(ξ)}

-10

0

ξ

10

20

-10

0

ξ

10

20

-10

0

ξ

10

20

0

ξ

10

20

Fase{F(ξ)} 1,0π

-1 -4

1 -2

0

x

2

0,5π

4

0,0π

0

-0,5π -1 -1,0π -2 -20

2

2

P∆x(x)

1

0

ξ

10

20

Re{F(ξ)}

-20

2,0

1

1,5

0

1,0

-1

0,5

-2 -20

2

0

-10

-10

0

ξ

10

20

|F(ξ)|

0,0 -20

Fase{F(ξ)}

Im{F(ξ)} 1,0π

1 -1 -4

-2

0

x

2

0,5π

4 0,0π

0

-0,5π -1 -1,0π -2 -20

-10

0

Figura 9.13. P¢x (x) $ ¢x sinc

c Emilio Gago-Ribas, 2002 °

ξ

10

20

-20

-10

¡ ¢x ¢ 2 » ; ¢x = 1 y ¢x = 2:

237

2

2

P∆x(x)

Re{F(ξ)}

2,0

1

1,5

0

1,0

-1

0,5

|F(ξ)|

1 -2 -20

0 2

-10

0

ξ

10

20

0,0 -20

-10

0

ξ

10

20

-10

0

ξ

10

20

-10

0

ξ

10

20

10

20

Fase{F(ξ)}

Im{F(ξ)} 1,0π

-1 -4

1 -2

0

x

2

0,5π

4

0,0π

0

-0,5π -1 -1,0π -2 -20

2

2

P∆x(x)

1

0

ξ

10

20

Re{F(ξ)}

-20

2,0

1

1,5

0

1,0

-1

0,5

-2 -20

2

0

-10

-10

0

ξ

10

20

|F(ξ)|

0,0 -20

Fase{F(ξ)}

Im{F(ξ)} 1,0π

1 -1 -4

-2

0

x

2

0,5π

4 0,0π

0

-0,5π -1 -1,0π -2 -20

-10

Figura 9.14. P¢x (x ¡ x0 ) $ ¢x sinc

238

0

ξ

10

20

-20

-10

0

ξ

¡ ¢x ¢ ¡j»x 0 ; ¢x = 2; x0 = 1 y x0 = 2: 2 » e

c Emilio Gago-Ribas, 2002 °

-1

1,5

TF [P∆ξ(ξ)]

2,0

P∆ξ(ξ)

1,5

1,0

1,0 0,5 0,5 0,0

0,0

-0,5 -10,0

-7,5

-5,0

-2,5

0,0

-1

1,5

TF [P∆ξ(ξ)]

x

2,5

5,0

7,5

10,0

-0,5 -5

2,0

-4

-3

-2

-1

0

ξ

1

2

3

4

5

-3

-2

-1

0

ξ

1

2

3

4

5

-3

-2

-1

0

ξ

1

2

3

4

5

-3

-2

-1

0

ξ

1

2

3

4

5

P∆ξ(ξ)

1,5

1,0

1,0 0,5 0,5 0,0

0,0

-0,5 -10,0

-7,5

-5,0

-2,5

0,0

-1

1,5

TF [P∆ξ(ξ)]

x

2,5

5,0

7,5

10,0

-0,5 -5

2,0

-4

P∆ξ(ξ)

1,5

1,0

1,0 0,5 0,5 0,0

0,0

-0,5 -10,0

-7,5

-5,0

-2,5

0,0

-1

1,5

TF [P∆ξ(ξ)]

x

2,5

5,0

7,5

10,0

-0,5 -5

2,0

-4

P∆ξ(ξ)

1,5

1,0

1,0 0,5 0,5 0,0

-0,5 -10,0

0,0

-7,5

-5,0

-2,5

0,0

x

2,5

Figura 9.15.

c Emilio Gago-Ribas, 2002 °

5,0

7,5

10,0

-0,5 -5

-4

¡ ¢ ¢» sinc ¢» 2 x $ P¢» (»); ¢» = 2; 4; 6 y 8: 2¼

239

Re{f(x)}

2

ξ0

P∆ξ(ξ)

0,4

0,4

0,2

0,3

0,0

0,2

-0,2

0,1

|f(x)|

1 -0,4 -10 -8

0 0,4

-6

-4

-2

0

x

2

4

6

8

10

0,0 -10 -8

-6

-4

-2

0

x

2

4

6

8

10

2

4

6

8

10

2

4

6

8

10

2

4

6

8

10

Fase{f(x)}

Im{f(x)} 1,0π

-1 -5

0,2 -4

-3

-2

-1

0

1

ξ

2

3

4

0,5π

5

0,0π

0,0

-0,5π -0,2 -1,0π -0,4 -10 -8

-6

-4

-2

0

x

2

4

6

8

10

-10 -8

Re{f(x)}

2

ξ0

P∆ξ(ξ)

1

0,4

0,4

0,2

0,3

0,0

0,2

-0,2

0,1

-0,4 -10 -8

0,4

0

-6

-4

-2

0

x

2

4

6

8

10

-6

-4

-2

0

-6

-4

-2

0

-2

0

x

|f(x)|

0,0 -10 -8

x

Fase{f(x)}

Im{f(x)} 1,0π

0,2 -1 -5

-4

-3

-2

-1

0

ξ

1

2

3

4

0,5π

5 0,0π

0,0

-0,5π -0,2 -1,0π -0,4 -10 -8

Figura 9.16.

240

-6

-4

-2

0

x

2

4

6

8

10

-10 -8

-6

-4

x

¡ ¢ ¢» sinc ¢» x ej»0 x $ P¢» (» ¡ »0 ); ¢» = 2; » 0 = 1 y 2: 2 2¼

c Emilio Gago-Ribas, 2002 °

2,0

F(ξ)

T∆x(x)

3

1,5 2 1,0 1 0,5

0,0 -5

2,0

-4

-3

-2

-1

0

T∆x(x)

x

1

2

3

4

5

0 -20

3

-15

-10

-5

0

5

10

15

20

-10

-5

0

ξ

5

10

15

20

-10

-5

0

ξ

5

10

15

20

-10

-5

0

ξ

5

10

15

20

F(ξ)

ξ

1,5 2 1,0 1 0,5

0,0 -5

2,0

-4

-3

-2

-1

0

T∆x(x)

x

1

2

3

4

5

0 -20

3

-15

F(ξ)

1,5 2 1,0 1 0,5

0,0 -5

2,0

-4

-3

-2

-1

0

T∆x(x)

x

1

2

3

4

5

0 -20

-15

F(ξ) 3

1,5 2 1,0 1 0,5

0,0 -5

-4

-3

-2

-1

0

x

1

2

3

Figura 9.17. T¢x (x) Ã!

c Emilio Gago-Ribas, 2002 °

4

5

0 -20

-15

¡ ¢ ¢x sinc2 ¢x 4 » ; ¢x = 1; 2; 4 y 6: 2

241

Re{F(ξ)}

+

2

e (x)

1,0

1,00

0,5

0,75

0,0

0,50

-0,5

0,25

|F(ξ)|

1 -1,0 -15

0 1,0

-10

-5

0

ξ

5

10

15

0,00 -15

Im{F(ξ)}

-10

-5

0

ξ

5

10

15

-5

0

ξ

5

10

15

-5

0

ξ

5

10

15

5

10

15

Fase{F(ξ)} 1,0π

0,5

-1 -4

-2

0

x

2

0,5π

4

0,0π

0,0

-0,5π

-0,5

-1,0π -1,0 -15

1,0

-10

-5

0

ξ

5

10

15

Re{F(ξ)}

-15

1,00

0,5

0,75

0,0

0,50

-0,5

0,25

-10

|F(ξ)|

+

2,0

e (x)

1,5 1,0

-1,0 -15

-10

-5

0

0,5 1,0

0,0

ξ

5

10

15

0,00 -15

-10

Fase{F(ξ)}

Im{F(ξ)} 1,0π

-0,5 0,5 -1,0 -4

-2

0

x

2

0,5π

4 0,0π

0,0

-0,5π -0,5 -1,0π -1,0 -15

-10

-5

0

Figura 9.18. e¡®x ¡(x) $

242

ξ

5

10

15

-15

-10

-5

0

ξ

1 ; ® = 1 y 2: ® + j»

c Emilio Gago-Ribas, 2002 °

X0

+

Re{e (x)} 1,0

1,00

0,5

0,75

0,0

0,50

-0,5

0,25

-1,0 -3

-2

-1

0

x

1

3

4

5

0,00 -20

X0

+

1,0

2

Im{e (x)}

0,50

0,5

0,25

0,0

0,00

-0,5

-0,25

-1,0 -3

-2

-1

0

x

1

2

3

4

5

|e (x)|

1,00

-15

-10

-5

0

ξ

5

10

15

20

-10

-5

0

ξ

5

10

15

20

-5

0

ξ

5

10

15

20

-5

0

ξ

5

10

15

20

Im{F(ξ)}

-0,50 -20

+

1,0

Re{F(ξ)}

-15

ξmax

|F(ξ)|

0,75 0,5 0,50 0,0 0,25

-0,5 -3

-2

-1

0

x

1

2

3

4

5

0,00 -20

+

1,0 π

1,0 π

0,5 π

0,5 π

0,0 π

0,0 π

-0,5 π

-0,5 π

-1,0 π

-1,0 π -2

-1

0

x

1

2

Figura 9.19. e¡®x ¡(x) $

c Emilio Gago-Ribas, 2002 °

-10

Fase{F(ξ)}

Fase{e (x)}

-3

-15

3

4

5

-20

-15

-10

1 ; ® = 1 + j2¼ 2 C; X0 = 1 y »max = ¡2¼: ® + j»

243

X0

+

Re{e (x)} 1,0

1,00

0,5

0,75

0,0

0,50

-0,5

0,25

-1,0 -3

-2

-1

0

x

1

3

4

5

0,00 -20

X0

+

1,0

2

Im{e (x)}

0,50

0,5

0,25

0,0

0,00

-0,5

-0,25

-1,0 -3

-2

-1

0

x

1

2

3

4

5

1,0

1,00

-15

-10

-5

0

ξ

5

10

15

20

-10

-5

0

ξ

5

10

15

20

-5

0

ξ

5

10

15

20

-5

0

ξ

5

10

15

20

Im{F(ξ)}

-0,50 -20

+

|e (x)|

Re{F(ξ)}

-15

ξmax

|F(ξ)|

0,75 0,5 0,50 0,0 0,25

-0,5 -3

-2

-1

0

x

1

2

3

4

5

0,00 -20

+

1,0 π

1,0 π

0,5 π

0,5 π

0,0 π

0,0 π

-0,5 π

-0,5 π

-1,0 π

-1,0 π -2

-1

0

x

1

2

Figura 9.20. e¡®x ¡(x) $

244

-10

Fase{F(ξ)}

Fase{e (x)}

-3

-15

3

4

5

-20

-15

-10

1 ; ® = 2 + j3¼ 2 C; X0 = 2=3 y »max = ¡3¼: ® + j»

c Emilio Gago-Ribas, 2002 °

9.8

Transformada de Fourier de señales periódicas. Cualquier señal periódica continua o discontinua (con un número …nito de discontinuidades por período) de período arbitrario X0 puede ser considerada como un elemento del espacio vectorial de señales ~ S(¡1; 1) de…nido en los capìtulos precedentes con las siguientes salvedades: 1. El producto escalar, la norma y la métrica de…nidas sobre dicho espacio no son en general válidas para este tipo de señales, dado que son divergentes al considerar todo el rango de la variable independiente entre ¡1 e 1: Es por esto que dichas de…niciones se restringen habitualmente a un período tal y como se analizó en la Secc. 2.6.1. 2. En particular, la norma de este tipo de señales, vista como el cuadrado de la energía de la señal, será divergente y, por lo tanto, serán un caso particular de señales de energía in…nita. Esto hace que un elemento f0 (x) de período X0 no sea un elemento válido del espacio L2 (¡1; 1); lo que equivale a decir que, en principio, no existe su transformada de Fourier, o más concretamente, no es posible obtener de estas señales como combinaciones lineales continuas de la base ª © representaciones f'(x; »)g ´ ej»x ; esto es, la transformada inversa de Fourier. ª © La posibilidad de representar señales periódicas f0 (x) en términos de ej»x será posible una vez más por el hecho de haber introducido las distribuciones en la teoría de análisis funcional. Como hemos visto en la Secc. 9.6, las distribuciones de tipo impulsivo delta de Dirac, su primera derivada, etc. son distribuciones de energía in…nita que permiten representar el espectro de funciones de energía in…nita según el orden de variación de éstas, por ejemplo, la función constante, la función lineal, etc. Un caso particular analizado allí fue el de la distribución delta de Dirac desplazada, ej»0 x Ã! 2¼±(» ¡ » 0 );

(9.155)

como un caso particular de señal periódica de período X0 = 2¼=» 0 cuyo espectro era representado en términos de una delta localizada en la pulsación » 0 : Resulta evidente que este resultado se podrá trasladar fácilmente: (i) a funciones armónicas en la© forma ªejm»0 x ; siendo m el m-ésimo armónico de período X0 =m; (ii) a todo el conjunto de armónicos ejm»0 x ; y (iii) a cualquier combinación lineal de estos armónicos, y por lo tanto, al desarrollo en serie de Fourier de señales periódicas analizado en el Cap. 8. Analizaremos estos pasos a continuación. 9.8.1

Expresión de la transformada. ² Transformada de un armónico. Considerémos el m-ésimo armónico '(x; m) = ejm»0 x de período X0 = 2¼=» 0 : En virtud del resultado obtenido en (9.77) resulta evidente su generalización a cualquier armónico m obteniéndose, ejm»0 x Ã! 2¼±(» ¡ m» 0 );

(9.156)

esto es, una delta de Dirac localizada espectralmente a la pulsación m» 0 del armónico y de peso 2¼: El análisis de este resultado es totalmente similar al realizado para (9.77); el objeto ±(» ¡ m» 0 ) es justamente aquel objeto necesario para seleccionar © ª el armónico m-ésimo de pulsación m» 0 del conjunto in…nito y continuo de funciones base ej»x ; ¯ © j»x ª e ! ±(» ¡ m» 0 ) ! ej»x ¯ = ejm»0 x : (9.157) »=m»0

La representación matemática rigurosa de este proceso viene dada, como ya es sabido, por el operador transformada inversa de Fourier, incluyendo el factor de escala adecuado para la delta, Z 1 ejm»0 x = 2¼±(» ¡ m» 0 )ej»x d»; (9.158) 2¼ » expresión fácilmente analizable sin más que recurrir a la de…nición de la delta de Dirac. Esta interpretación queda re‡ejada de forma esquemática en la Fig. 9.21. ² Transformada de combinaciones lineales de armónicos. Una combinación lineal de armónicos de período X0 en la forma ejm»0 x será de la forma, X a(m)ejm»0 x ; (9.159) m

c Emilio Gago-Ribas, 2002 °

245

Re{exp(-jξx)} ξ=0.3 ξ=2

1,5

ξ=0

1,0

ξ=10

1,5

0,5 0,0

δ(ξ - mξ0)

-0,5 -1,0

ξ=mξ0

1,0

-1,5 0 0,5

2

4

2

4

Im{exp(-jξx)} ξ=2 ξ=0.3

1,5

6

x

8

10

12

6

x

8

10

12

1,0 0,0 -10

-5

0

ξ

5

10

mξ0

0,5 0,0 -0,5

ξ=0

-1,0

ξ=mξ0

ξ=10

-1,5 0

Figura © j»x ª 9.21. Representación de algunas funciones del conjunto de funciones base e con » = 0; 0:3; 2; y 10. El objeto ±(» ¡ m» 0 ) permite seleccionar un elemento concreto de un continuo de valores, en este caso, un armónico de pulsación » = m» 0 del conjunto continuo de funciones base.

donde el recorrido de valores de m podrá ser, en principio, cualquiera. Así, las propiedades de linealidad del operador transformada de Fourier permitirán obtener fácilmente el par transformado correspondiente a dicha combinación lineal, X X X £ ¤ a(m)ejm»0 x Ã! a(m)TF ejm»0 x = 2¼ a(m)±(» ¡ m» 0 ): (9.160) m

m

m

² Transformada de un desarrollo en serie de Fourier. El resultado anterior nos permite escribir rápidamente el par transformado asociado a un desarrollo en serie de Fourier de una señal periódica sin más que extender el sumatorio entre ¡1 e 1; y considerar que a(m) son los coe…cientes del desarrollo en serie de la señal f0 (x); así, f0 (x) =

1 P

m=¡1

a(m)'(x; m) Ã! F0 (») = 2¼

1 P

m=¡1

a(m)±(» ¡ m» 0 ):

(9.161)

El valor de los coe…cientes a(m) ha sido expresado en términos del producto escalar de…nido en el espacio de señales periódicas de período X0 ; tal y como se obtuvo en (8.17). La interpretación de esta transformada resulta evidente: P 1. Desde el punto de vista de las distribuciones, el papel que© juega ª m ±(» ¡ m» 0 ) es el de seleccionar un© conjunto numerable de funciones ejm»0 x de un conjunto continuo ª © in…nito ª pero © j»x ª j»x jm»0 x de funciones e ; e ½ e :

2. Desde el punto de vista de la transformada, el resultado …nal es un tren de deltas no periódico en general, dado que cada una de las deltas tiene de peso 2¼a(m); lógicamente, el valor del conjunto de coe…cientes fa(m)g dependerá de la señal original f0 (x) representada por su desarrollo en serie.

3. El proceso …nal de obtención de la transformada se podría resumir de la siguiente forma: (a) Dada una señal periódica f0 (x) de período X0 ; obtendremos los coe…cientes de su desarrollo en serie a través de la expresión, a(m) =

246

1 hf0 (x); '(x; m)i : X0

(9.162)

c Emilio Gago-Ribas, 2002 °

Re{a(m)} 4

4

3

3

2

2

1

1

0

0

-1

-1

-2

-2

-3

-3

-4 -10

-8

-6

-4

-2

Im{a(m)}

0

m

2

4

6

8

10

-4 -10

4

4

3

3

2

2

1

1

0

0

-1

-1

-2

-2

-3

-3

-4 -10

-8

-6

-4

-2

0

m

2

4

6

8

10

Re{F0(ξ)}/2π

-8

-6

-4

-2

-8

-6

-4

-2

Im{F0(ξ)}/2π

-4 -10

0

2

4

6

8

10

0

2

4

6

8

10

ξ /ξ0

ξ /ξ0

Figura 9.22. Ejemplo de la transformada de Fourier de una señal de período 2¼=» 0 con un desarrollo en serie cuyos coe…cientes a(m) fuesen los mostrados.

(b) Conocidos estos coe…cientes, y escalados todos ellos por el factor 2¼; la transformada será un tren de deltas, cada una con un peso igual a 2¼a(m); y localizadas en múltiplos de la pulsación fundamental, esto es, en m» 0 = m2¼=X0 : (c) En la Fig. 9.22 se muestra un ejemplo para un conjunto concreto de coe…cientes fa(m)g de valores complejos arbitrarios. 9.8.2

Análisis espectral de los coe…cientes del desarrollo en serie.

Los coe…cientes del desarrollo en serie de Fourier de una señal periódica f0 (x) vienen dados en función del producto escalar de…nido en el espacio de señales periódicas al que pertenecen, Z 1 1 hf0 (x); '(x; m)i = f0 (x)'¤ (x; m) dx = a(m) = X0 X0 hX0 i Z 1 = f0 (x)e¡jm»0 x dx: (9.163) X0 hX0 i En la Secc. 9.2 vimos como la expresión de la transformada de Fourier la obteníamos a partir del análisis de señales periódicas haciendo que X0 ! 1 en última instancia. A la vista de la expresión de los coe…cientes del desarrollo en serie, podremos pensar en seguir un proceso inverso al utilizado allí, estudiando la relación existente entre los coe…cientes a(m) del desarrollo de una señal f0 (x) y el espectro F (») de una señal …nita f (x) obtenida como réplica de la señal f0 (x) de…nida únicamente en un período. Este proceso nos permitirá obtener en la práctica el valor de los coe…cientes del desarrollo en serie de una cierta señal periódica (y por lo tanto in…nita) a partir de la transformada de una señal de longitud …nita. Partiremos para ello de una señal periódica f0 (x) 2 P~ 2 (X0 ) de período X0 como la mostrada en la Fig. 9.23(a). ² Primer caso: hX0 i = [0; X0 ): En este caso, los coe…cientes del desarrollo en serie de f0 (x) se podrían escribir como, Z X0 1 f0 (x)e¡jm»0 x dx: (9.164) a(m) = X0 0 c Emilio Gago-Ribas, 2002 °

247

1,00

f0(x)

0,75

(a)

0,50 0,25 0,00 -1,0 1,00

f1(x)

-0,5

0,0

x / X0

0,5

1,0

1,5

2,0

0,75

(b)

0,50 0,25 0,00 -1,0 1,00

f2(x)

-0,5

0,0

x / X0

0,5

1,0

1,5

2,0

0,75

(c)

0,50 0,25 0,00 -1,0

-0,5

0,0

x / X0

0,5

1,0

1,5

2,0

Figura 9.23. Señal periódica de período X0 ; y dos señales f1 (x) y f2 (x) de longitud …nita obtenidas a partir de ella, la primera de…nida en el intervalo fundamental [0; X0 ); y la segunda de…nida en un intervalo arbitrario [xi ; xi +X0 ): En este ejemplo, xi = 0:25:

Por otro lado, la señal …nita a considerar sería como la mostrada en la Fig. 9.23(b), 8 < f0 (x) x 2 [0; X0 ) f1 (x) = : 0 x2 = [0; X0 )

(9.165)

Resulta trivial escribir la transformada de Fourier de f1 (x) en términos de f0 (x) en la siguiente forma, F1 (») = =

Z

1

¡1 Z X0

¡j»x

f1 (x)e

dx =

Z

X0

f1 (x)e¡j»x dx =

0

f0 (x)e¡j»x dx;

(9.166)

0

expresión que claramente coincide con la expresión de los a(m) en el caso en que » = m» 0 : En la segunda igualdad se ha tenido en cuenta el hecho de que f1 (x) es nula fuera del intervalo [0; X0 ): Podremos entonces escribir la siguiente relación, a(m) =

1 F1 (» = m» 0 ): X0

(9.167)

Es decir, los coe…cientes del desarrollo en serie de una señal f0 (x) podrán calcularse como muestras del espectro de la señal f0 (x) recortada en el intervalo [0; X0 ); incluyendo el factor de escala 1=X0 : Dichas muestras estarán justamente de…nidas a las pulsaciones correspondientes de los armónicos del desarrollo en serie. ² Segundo caso: hX0 i 6= [0; X0 ): Consideremos ahora un intervalo arbitrario de longitud X0 ; por ejemplo, [xi ; xi + X0 ): Los coe…cientes del desarrollo en serie de f0 (x) se escribirán entonces como, a(m) =

248

1 X0

Z

xi +X0

f0 (x)e¡jm»0 x dx:

(9.168)

xi

c Emilio Gago-Ribas, 2002 °

En este caso, la señal …nita a considerar sería como la mostrada en la Fig. 9.23(c), 8 < f0 (x) x 2 [xi ; xi + X0 ) f2 (x) = : 0 x2 = [xi ; xi + X0 )

(9.169)

La transformada de Fourier de f2 (x) en términos de f0 (x) se podrá obtener de la siguiente forma, F2 (») = =

Z

1

¡j»x

f2 (x)e

¡1 Z xi +X0

dx =

Z

xi +X0

f2 (x)e¡j»x dx =

xi

f0 (x)e¡j»x dx;

(9.170)

xi

expresión que claramente coincide una vez más con la de los coe…cientes a(m) en el caso en que » = m» 0 : En la segunda igualdad se ha tenido en cuenta el hecho de que f2 (x) es nula fuera del intervalo [xi ; xi + X0 ): Podremos entonces escribir la siguiente relación, a(m) =

1 F2 (» = m» 0 ): X0

(9.171)

Es decir, los coe…cientes del desarrollo en serie de una señal f0 (x) podrán calcularse como muestras del espectro de una señal f0 (x) recortada en cualquier intervalo de longitud hX0 i :

² Análisis de los coe…cientes. A tenor de los descrito anteriormente, resulta evidente que:

1. Los coe…cientes del desarrollo en serie de una señal periódica se pueden calcular a partir del espectro de cualquier señal …nita obtenida a partir de la periódica sin más que considerar las muestras de dicho espectro a las pulsaciones de los armónicos del desarrollo en serie función del período X0 de la señal. 2. Las señales obtenidas a partir de f0 (x) serán diferentes en función del intervalo considerado, véanse los ejemplos mostrados en la Fig. 9.24. Esto signi…ca que los espectros de ambas señales serán también diferentes, esto es, F1 (») 6= F2 (»):

3. Dado que los coe…cientes del desarrollo de una señal f0 (x) dada son únicos, el valor de los espectros de cualquier señal obtenida a partir de f0 (x) ha de coincidir justamente en las pulsaciones » = m» 0 : En forma general, podremos escribir, 8 9 < fi (x) = f0 (x) en [xi ; xi + X0 ) = f0 (x) ! ; (9.172) : f (x) = f (x) en [x ; x + X ) ; j 0 j j 0 Fi (») 6= Fj (»)

8 <

Fi (») 6= Fj (»)

9 =

: F (m» ) = F (m» ) = X a(m) ; i j 0 0 0

:

(9.173)

De esta forma, para el cálculo de los a(m) podremos considerar siempre el intervalo de recorte de la señal que más nos interese, en función del comportamiento y propiedades de la señal periódica original. 4. En la Fig. 9.24 se muestra un ejemplo detallado de este análisis para un tren de pulsos centrado y de período unidad. Nótese cómo las señales f1 (x) y f2 (x) obtenidas a partir del tren de pulsos tienen dos espectros F1 (») y F2 (») totalmente diferentes, pero las muestras en » = m» 0 de dichos espectros coinciden y son iguales al valor de los coe…cientes a(m) del desarrollo en serie del tren de pulsos.

c Emilio Gago-Ribas, 2002 °

249

2,0

f2(x)

f1(x)

f0(x)

1,5 1,0 0,5 0,0 -0,5 -1,0 -2,0

2,0

-1,5

-1,0

-0,5

0,0

x / X0

f1(x)

2,0

1,5

1,5

1,0

1,0

0,5

0,5

0,0

0,0

-0,5

-0,5

-1,0 -2,0

0,6

-1,5

-1,0

-0,5

0,0

0,5

1,0

1,5

2,0

0,6

0,4

0,4

0,2

0,2

0,0

0,0

-0,2

-0,2

-0,4 -10

-8

-6

-4

-2

0

2

4

6

8

10

1,0

1,5

2,0

f2(x)

-1,0 -2,0

x / X0

X0Re{am}

0,5

-1,5

-1,0

-0,5

X0Im{am}

-0,4 -10

-8

-6

-4

-2

Re{F1(ξ)}

0,6

0,4

0,4

0,2

0,2

0,0

0,0

-0,2

-0,2

-0,4 -20π

0,6

-16π

-12π

-8π

-4π







12π

16π

20 π

0,6 0,4

0,2

0,2

0,0

0,0

-0,2

-0,2 -16π

-12π

-8π

-4π



ξ, mξ0

1,5

2,0

0

2

4

6

8

10

-16π

-12π

-8π

-4π







12π

16 π

20π





12π

16 π

20π

ξ, mξ0

0,4

-0,4 -20π

1,0

Im{F1(ξ)}

-0,4 -20π

ξ, mξ0

Re{F2(ξ)}

0,5

m

m 0,6

0,0

x / X0





12π

16π

20 π

Im{F2(ξ)}

-0,4 -20π

-16π

-12π

-8π

-4π



ξ, mξ0

Figura 9.24. Análisis de los coe…cientes del desarrollo en serie de Fourier de un tren de pulsos centrado de período X0 = 1 obtenidos a partir de los espectros F1 (») y F2 (») en » = m» 0 correspondientes a las señales …nitas f1 (x) y f2 (x) obtenidas a partir de f0 (x); la primera de…nida en x 2 (¡X0 =2; X0 =2); y la segunda de…nida en x 2 (X0 =8; 9X0 =8):

250

c Emilio Gago-Ribas, 2002 °

9.8.3

Otra expresión de la transformada.

Hemos visto en la sección anterior como dada una señal f0 (x) de periódo X0 ; es posible calcular los coe…cientes de su desarrollo en serie de Fourier a partir de la transformada de Fourier F (») de una señal …nita f (x) obtenida recortando la señal periódica original en un intervalo cualquiera de longitud el período, a(m) =

1 2¼ F (m» 0 ); » 0 = : X0 X0

(9.174)

Sustituyendo este valor en la transformada de Fourer de f0 (x) obtenida en (9.161), F0 (») =

2¼ X0

1 P

m=¡1

F (m» 0 )±(» ¡ m» 0 );

(9.175)

expresión válida para la transformada de Fourier de una señal periódica. La interpretación de esta expresión alternativa se muestra en el ejemplo de la Fig. 9.25; la transformada de Fourier se puede ver como un tren de deltas equiespaciado cada m» 0 modulado en amplitud por la señal continua F (»): 0,6

F0(ξ) F1(ξ)

0,4

0,2

0,0

-0,2 -20π

-16π

-12π

-8 π

-4 π





ξ, mξ0



12 π

16 π

20 π

Figura 9.25. Transformada de Fourier del tren de pulsos mostrado en la Fig. 9.24 en función del espectro de la señal f1 (x) mostrado en la misma …gura.

9.8.4

Transformada de señales periódicas importantes. ² Función constante. El análisis de la transformada de la función constante, como un elemento de un espacio de señales periódicas de período X0 ; se realizó ya en la Secc. 9.6. Recordamos aquí su expresión y su relación con los coe…cientes de su desarrollo en serie. En la Fig. 9.8 se muestra un ejemplo de esta transformada, a(0) = K

=)

K Ã! 2¼±(»)

(9.176)

² Exponencial imaginaria. Su análisis se realizó ya en la Secc. 9.6. Recordamos aquí su expresión y su relación con los coe…cientes del desarrollo en serie. En la Fig. 9.9 se muestra un ejemplo de esta transformada, a(1) = 1

c Emilio Gago-Ribas, 2002 °

=)

ej»0 x Ã! 2¼±(» ¡ » 0 )

(9.177)

251

² Coseno. Recordando su desarrollo en serie y particularizando la expresión (9.161), a(1) = 1=2; a(¡1) = 1=2; (9.178)

cos(» 0 x) Ã! ¼±(» ¡ » 0 ) + ¼±(» + » 0 ) En la Fig 9.26(a) se muestra un ejemplo de esta transformación. ² Seno. Recordando su desarrollo en serie y particularizando la expresión (9.161), a(1) = 1=2j; a(¡1) = ¡1=2j; sin(» 0 x) Ã!

¼ ¼ ±(» ¡ » 0 ) ¡ ±(» + » 0 ): j j

(9.179)

En la Fig 9.26(b) se muestra un ejemplo de esta transformación. 9.8.5

Transformada de distribuciones periódicas importantes. ² Tren de deltas. Consideremos un tren de deltas de período X0 : A partir de su desarrollo en serie de Fourier, resulta evidente que su transformada será otro tren de deltas en la forma, a(m) =

± 0 (x) =

1 X

k=¡1

±(x ¡ kX0 ) Ã!

1 ; 8m; X0 1 2¼ X 2¼ ±(» ¡ m» 0 ); » 0 = X0 m=¡1 X0

(9.180)

En la Fig 9.26(c) se muestra un ejemplo de esta transformación. ² Tren de pulsos de ancho ¢x: En base a los coe…cientes de su desarrollo en serie, podremos identi…car la transformada de la señal de…nida en (8.77) de forma inmediata en la forma, µ ¶ ¢x ¢x a(m) = sinc m¼ ; X0 X0 P0;¢x (x) Ã!

µ ¶ 1 2¼¢x X ¢x 2¼ sinc m¼ ±(» ¡ m» 0 ); » 0 = X0 m=¡1 X0 X0

(9.181)

En la Fig 9.26(d) se muestra un ejemplo de esta transformación. ² Tren de triángulos de ancho ¢x: En base a los coe…cientes de su desarrollo en serie, podremos identi…car la transformada de la señal de…nida en (8.80) de forma inmediata en la forma, µ ¶ ¢x ¢x 2 a(m) = sinc m¼ ; 2X0 2X0 T0;¢x (x) Ã!

µ ¶ 1 ¼¢x X ¢x 2¼ sinc2 m¼ ±(» ¡ m» 0 ); » 0 = X0 m=¡1 2X0 X0

(9.182)

En la Fig 9.26(e) se muestra un ejemplo de esta transformación.

252

c Emilio Gago-Ribas, 2002 °

2

cosξ0x



1



0



-1

-1π

-2 -1

2

0

1

2

x

sinξ0x

3

-2π -4π



1



0



-1

-1π

-2 -1

2,0

0

1

2

x

δ0(x)

3

2,0π 1,5π

1,0

1,0π

0,5

0,5π

0,0

0,0π

2,0

-6

-4

-2

P0,∆x(x)

0

x

2

4

6

8

1,5

1,5π

1,0

1,0π

0,5

0,5π

0,0

0,0π

-0,5 -4

2,0

-3

-2

-1

T0,∆x(x)

0

x

1

2

3

4

-1π











-3π

-2π

-1π



















-3π

-8π

ξ

ξ

-2π

-1π



ξ

F0(ξ)

-0,5π -10π

1,0π

-2π

F0(ξ)

-0,5π -4π

2,0π

-3π

F0(ξ)

-2π -4π

1,5

-0,5 -8

F0(ξ)

-6π

-4π

-2π











10π

ξ

F0(ξ)

1,5 1,0 0,5π 0,5 0,0 -0,5 -4

-2

0

x

2

4

0,0π -2π

-2π

-1π

-0π











ξ

Figura 9.26. Transformadas de Fourier de funciones y distribuciones periódicas importantes: (a) f0 (x) = cos » 0 x; X0 = 1; (b) f0 (x) = sin » 0 x; X0 = 1; (c) Tren de deltas de período X0 = 2; (d) Tren de pulsos de período X0 = 2 y ancho ¢x = 1; y (e) Tren de triángulos de período X0 = 2 y ancho ¢x = 1:

c Emilio Gago-Ribas, 2002 °

253

9.9

Transformada de Fourier de señales reales. Un caso especialmente importante en la práctica es cuando las señales son reales. En virtud de la propiedad descrita en (9.46), existen un buen número de nuevas propiedades derivadas de ella de especial importancia en el análisis de problemas físicos reales. Analizaremos a continuación algunas de ellas.

9.9.1

Propiedades para señales reales.

Sea f (x) una señal real, esto es, f (x) = f ¤ (x) : ² La parte real de su espectro es par y la parte imaginaria impar, 8 < Re fF (»)g = Re fF (¡»)g f (x) real ¡! : Im fF (»)g = ¡ Im fF (¡»)g

(9.183)

² El módulo de su espectro es par y su fase impar, 8 < jF (»)j = jF (¡»)j f(x) real ¡! : ' (») = ¡' (¡») F F

(9.184)

Esta propiedad es una consecuencia directa del resultado en (9.46).

Esta propiedad es también una consecuencia directa del resultado en (9.46).

² Las partes real e imaginaria de F (») se pueden escribir en la forma, Z 1 Re fF (»)g = f (x) cos(»x) dx;

(9.185)

¡1

Im fF (»)g = ¡

Z

1

(9.186)

f (x) sin(»x) dx:

¡1

Ambas expresiones son claramente par e impar en la variable »; respectivamente. ² La expresión de f (x); equivalente a la transformada inversa de Fourier, podrá escribirse entonces de la siguiente forma, ¸ Z Z 1 1 1 j»x f(x) = Re F (»)e dx = [RefF (»)g cos(»x) ¡ ImfF (»)g sin(»x)] dx: (9.187) 2¼ 2¼ ¡1 » Nótese que por ser f(x) real, la parte imaginaria de la transfromada inversa ha de anularse, ¸ Z 1 Z Z 1 j»x Im F (»)e dx = RefF (»)g sin(»x) dx + ImfF (»)g cos(»x) dx = 0; (9.188) »

¡1

¡1

hecho que resulta evidente dado que tanto RefF (»)g sin(»x) como ImfF (»)g cos(»x) resultan ser funciones impares en » y, por lo tanto, su integral será siempre nula. ² Relación entre el espectro para valores positivos y el espectro total. Es habitual en la práctica trabajar sólamente con la parte positiva del espectro de una señal, esto es, [F (»)]»¸0 : Denominemos a dicho espectro como F1 (»); 8 < F (») »¸0 F1 (») = (9.189) : 0 » 0; existe un N tal que d(an ; a) < ²; n ¸ N; ó limn!1 an = a:

² Secuencia de Cauchy. Sea una secuencia (an )1 n=1 2 A, abreviadamente (an ). Decimos que dicha secuencia es una secuencia de Cauchy si para todo ² > 0 existe un N tal que d(an ; am ) < ²; n y m ¸ N:

² Corolario. Toda secuencia convergente es de Cauchy pero no toda secuencia de Cauchy es convergente, ya que su límite no tiene porqué ser un elemento del espacio de partida.

² Espacios completos. Sea (A; d) un espacio métrico. Decimos que A es completo respecto a la métrica de…nida por d si toda secuencia de Cauchy de…nida con los elementos de A es convergente.

² Continuidad. Sean (A1 ; d1 ) y (A2 ; d2 ) dos espacios métricos, y sea f : (A1 ; d1 ) ¡! (A2 ; d2 ) un funcional operando sobre el espacio de partida. Decimos que f es continua en x0 2 A1 si para todo ² > 0 existe un ± > 0 tal que d1 (x; x0 ) < ± =) d2 (y; y0 ) < ²; con y = f (x) 2 A2 ; y x; x0 2 A1 : Diremos que f es continua si lo es para todo x0 2 A1 :

² Nota: el concepto de continuidad depende extremadamente de la de…nición de métrica realizada.

² Espacio métrico separable. Decimos que (A; d) es separable si para todo ² > 0 existe una secuencia (an ) 2 A contable1 tal que d(a; ai ) < ² para todo a 2 A (i = 1; 2; ....., n; .....):

² Nota: una forma de visualizar un espacio métrico separable es: aquel espacio que puede ser recubierto por un conjunto contable de esferas de radio ²:

² Espacio métrico pre-compacto. Sea (A; d) un espacio métrico. Decimos que es compacto si para todo ² > 0 existe una secuencia (an ) 2 A …nita tal que d(a; ai ) < ²; para todo a 2 A (i = 1; 2; ....., n; .....): 1 Se dice que un conjunto de elementos es contable si: (i) es …nito, o (ii) se puede poner en corrrespondencia uno a uno con los números naturales. Algunas propiedades importantes de los conjuntos contables son: (a) La unión de secuencias contables correspondiente a conjuntos contables también es contable. (b) El espacio R de los números reales no es contable, Cap. 12 de [21].

335

A.2

Espacios vectoriales. ² Un conjunto de elementos fa; b; c; :::::g decimos que es un espacio vectorial V, y denotamos a sus elementos por f~a; ~b; ~c; :::::g; si satisface las siguientes propiedades respecto de dos leyes de operación, una interna2 , y otra externa3 : 1. Ley interna: (a) Propiedad conmutativa: ~a + ~b = ~b + ~a: (b) Propiedad asociativa: ~a + (~b + ~c) = (~a + ~b) + ~c: (c) Elemento neutro, ~0; respecto de la ley interna: ~a + ~0 = ~a; para todo ~a 2 V:

(d) elemento opuesto, ¡~a: ~a + (¡~a) = ~0; para todo ~a 2 V: 2. Ley externa respecto a un cuerpo K de escalares:

(a) Propiedad distributiva respecto del cuerpo de escalares: (® + ¯)~a = ®~a + ¯~a: (b) Propiedad distributiva respecto del espacio vectorial: ®(~a + ~b) = ®~a + ®~b: (c) Propiedad asociativa respecto al cuerpo de escalares: ®(¯~a) = (®¯)~a: (d) Elemento neutro del cuerpo K: 1~a = ~a: ² Combinaciones lineales. Una vez de…nidas las leyes interna y externa, será posible generar combinaciones lineales de un número M arbitrario de elementos del espacio vectorial; así, de…niremos una combinación lineal en la forma, ~b =

M X i=1

®i ~ai ; ®i 2 K; y ~ai 2 VK :

(A.2)

El vector ~b obtenido como resultado de la combinación lineal será otro vector perteneciente a VK :

² Vectores linealmente independientes. Diremos que un conjunto de N vectores f~a1 ; ~a2 ; :::::; ~aN g 2 V es linealmente independiente si, N X

®i ~ai = ~0 =) ®i = 0; i = 1; 2; :::::; N:

(A.3)

n=1

² Espacio engendrado por un sistema de vectores de VK : Dado un conjunto de vectores f~a1 ; ~a2 ; :::::; ~aN g 2 VK ; denominaremos por VKs al espacio generado al realizar todas las combinaciones lineales posibles con ese conjunto de vectores, (N ) X VKs = ®i ~ai ; ®i 2 K: (A.4) n=1

En general, VKs µ VK :

² Base de un espacio vectorial. Diremos que un conjunto de vectores f~a1 ; ~a2 ; :::::; ~aN g 2 VK es una base de VK si: 1. Es linelamente independiente. 2. Engendra todo el espacio VK : El número N de elementos que componen una base será la dimensión de espacio VK ; Dim fVK g = N:

(A.5)

2 Operación suma de…nida sobre el propio espacio. El resultado de la suma de dos vectores del conjunto deberá ser otro vector perteneciente al mismo conjunto. 3 El producto por un número, o lo que es lo mismo, la posibilidad de escalar el tamaño de cualquiera de los vectores. Diho producto estará referido a un cuerpo de escalares K, habitualmente el cuerpo de los números reales R o de los números complejos C: El vector resultante del escalado será otro vector perteneciente al conjunto original.

336

c Emilio Gago-Ribas, 2002 °

² Componentes contravariantes de un vector: Sea f~ei gN una base arbitraria de un espacio vectorial VK . Cualquier vector ~a 2 VK se podrá escribir como una combinación lineal de los elementos de la base, esto es, ~a =

N X i=1

ai~ei ; ai 2 K; y ~ei 2 VK :

(A.6)

El conjunto de valores fai gN 2 K diremos que son las componentes (contravariantes) del vector ~a en la base f~ei gN : Cualquier operación entre dos vectores cualesquiera ~a y ~b 2 VK podrá realizarse en términos de sus componentes fai gN y fbi gN respecto a una cierta base.

² Subespacio vectorial (subespacio lineal). Sea VK un espacio vectorial, y sea M ½ VK : Se dice que M es un subespacio lineal de VK si ®~a + ¯~b 2 M; para todo ~a; ~b 2 M; y para todo ®; ¯ 2 K:

² Subespacio cerrado. Decimos que M ½ VK es cerrado si contiene a todos los límites de todas las secuencias que se pueden de…nir con los elementos de M:

² Suma directa. Sean M y N subespacios de VK : Decimos que VK es la suma directa de M y N (VK = M © N ) si: a: M \ N = f~0g:

b: Para todo ~a 2 VK ; ~a = ~b + ~c; ~b 2 M, ~c 2 N :

A.3

Espacios vectoriales normados. ² Norma de un vector. Sea VK un espacio vectorial. La norma de un vector ~a 2 VK se de…ne como el funcional k~ak : VK ¡! R;

(A.7)

que satisface: a: k~xk ¸ 0 y k~xk = 0 sii ~x = ~0 para todo ~x 2 VK :

b: k¸~xk = j¸j k~xk para todo ~x 2 VK y para todo ¸ 2 K. c: k~x + ~yk

k~xk + k~y k ; para todo ~x; ~ y 2 VK :

² Espacios vectoriales normados. Son espacios vectoriales en los que se de…ne una norma válida. VK + k¢k ´ (VK ; k¢k):

² Corolario. Todo espacio normado es un espacio métrico.

² Corolario. Si sobre un espacio vectorial se de…ne una norma válida, podemos aplicar los conceptos de espacios métricos respecto a la métrica de…nida por dicha norma, esto es, convergencia, continuidad, separabilidad, etc. ² Teorema. Para todo (VK ; k¢k); el funcional d : VK £ VK ¡! R de…nido por d(~x; ~ y ) = k~x ¡ ~yk de…ne una métrica invariante respecto a la traslación. ² Teorema. Para todo (VK ; k¢k); el funcional k¢k : VK ¡! R es continuo, es decir, la norma es una función continua. ² Teorema. En un espacio (VK ; k¢k); las operaciones algebráicas, esto es, la ley interna (+) : VK £ VK ¡! VK , y la ley externa (¢) : VK £ K ¡! VK , son continuas.

² Espacios de Banach. Sea BK un espacio vectorial normado (BK ; k¢k): Si BK es completo respecto a la métrica de…nida por k¢k ; se dice que es un espacio de Banach. Dicho de otra forma, es un espacio vectorial completo respecto de la métrica inducida por la norma de…nida sobre dicho espacio. ² Series convergentes en un espacio normado. Sea (V PK ; k¢k) un espacio vectorial normado, y (~an ) una secuencia dentro de dicho espacio. Decimos que 1 an converge a ~a sii n=1 ~ lim

k!1

c Emilio Gago-Ribas, 2002 °

k X

n=1

~an ! ~a:

(A.8)

337

Nota: el estudio de la convergencia de series en un espacio de Banach no es en absoluto trivial. Pero veremos que se pueden determinar una serie de reglas si el espacio es de Hilbert y la secuencia a sumar es ortonormal. ² Expansión lineal de A (lin A). Sea (VK ; k¢k) y A ½ VK : Se denomina expansión lineal de A a la intersección de todos los subespacios de VK que contienen a A:

² Expansión lineal cerrada de A (clin A). Sea (VK ; k¢k) y A ½ VK : Se denomina expansión lineal cerrada de A a la intersección de todos los subespacios cerrados de VK que contienen a A:

A.4

Espacios vectoriales con producto interno.

A.4.1

Espacios vectoriales de dimensión …nita. ² De…nimos el producto escalar como una cierta forma bilineal con las siguientes propiedades: a: Es simétrica. b: Es no degenerada (determinante no nulo). La particularización más común en comparación con R3 es la forma bien conocida (por ejemplo, para Cn ); h~a; ~bi =

A.4.2

n X

ai b¤i :

(A.9)

i=1

Extensión a espacios vectoriales de dimensión in…nita. ² De…nimos el producto interno como una forma bilineal del tipo h¢; ¢i : VK £ VK ¡! C;

(A.10)

tal que para todo ~a; ~b, ~c 2 VK ; y para todo ¸ 2 C; a: h~a; ~bi = h~b; ~ai¤ :

b: h¸~a; ~bi = ¸h~a; ~bi:

c: h~a + ~b; ~ci = h~a; ~bi + h~b; ~ci:

d: h~a; ~ai ¸ 0; y h~a;~ai = 0 sii ~a = ~0: A.4.3

Espacios vectoriales con producto interno como espacios métricos. ² Norma de un vector. k ~a k= h~a; ~ai1=2 : ² Desigualdad de Cauchy-Schwarz.

a: Geometría euclídea: ~a ¢ ~b =j ~a jj ~b j cos ® =)j ~a ¢ ~b j=j ~a jj ~b j cos ®

b: Espacios vectoriales: j h~a; ~bi j k ~a kk ~b k :

j ~a jj ~b j :

² Espacios de Hilbert. Sea HK un espacio vectorial con producto interno (HK ; h¢; ¢i): Si HK es completo respectro a la métrica de…nida por h¢; ¢i ; se dice que es un espacio de Hilbert. Dicho de otra forma, un espacio de Hilbert es un espacio vectorial completo respecto a la métrica inducida por la norma de…nida por el producto interno especi…cado sobre dicho espacio. ² Corolario. Los espacios con producto interno son un caso particular de los espacios normados.

² Corolario. Todo espacio de Hilbert es un espacio de Banach, pero no todo espacio de Banach es un espacio de Hilbert. ² Teorema. Sea HK un espacio de Hilbert y M un subespacio lineal cerrado de HK : Entonces M también es un espacio de Hilbert.

338

c Emilio Gago-Ribas, 2002 °

A.5

Espacios de Hilbert. Introducción al espacio L2 (a; b): 1. Partimos del espacio vectorial de funciones S(a; b); esto es: (a) Funciones complejas continuas de variable real. (b) De…nidas en el intervalo [a; b]: (c) Con la suma y el producto por un escalar complejo de…nidos punto a punto. 2. De…nimos un producto interno, hf(x); g(x)i =

Z

b

f (x)g¤ (x) dx:

(A.11)

a

3. La métrica inducida por el producto interno vendrá dada por, 1=2

d(f (x); g(x)) = kf(x) ¡ g(x)k = hf(x) ¡ g(x); f (x) ¡ g(x)i

=

"Z

b

a

2

#1=2

jf (x) ¡ g(x)j dx

:

(A.12)

4. Pero S(a; b) no es completo respecto a dicha métrica. Esto hace que S(a; b) no sea un espacio de Hilbert. 5. Por otro lado, dicho producto interno no es más que la versión continua del producto interno natural en Cn (de dimensión …nita) y aparece también de forma natural en el desarrollo de los operadores diferenciales, tan importantes en la práctica. Esto hace que queramos seguir usándola. Trataremos entonces de encontrar, a partir de S(a; b) un espacio que sea completo respecto a la métrica impuesta por dicho producto interno. 6. La clave estará en considerar también las funciones discontinuas. A pesar de la no completitud del espacio S(a; b); Hilbert trabajó siempre suponiendo funciones continuas. Fue Riezt quien introdujo el espacio L2 (a; b) como extensión de S(a; b); añadiendo también las funciones discontinuas.

7. En la práctica, es usual tener que restringir S(a; b) al conjunto de funciones que son cuadrado integrables (de forma similar a las secuencias cuadrado sumables). De hecho, cuando se habla normalmente de funciones integrables, es en el sentido de Riemann. De esta forma, podríamos de…nir ya un espacio, denominado en principio L2 (a; b); como el conjunto de: (a) Funciones complejas de variable real de…nidas en el intervalo [a; b]: (b) Continuas o discontinuas. (c) Con la suma y el producto por un escalar de…nidos punto a punto. (d) Con el producto escalar de…nido en (A.11). (e) Que son cuadrado integrables (en el sentido de Riemann). Es posible demostrar que el espacio así de…nido es todavía incompleto respecto al producto interno de…nido.

8. Se comenzó así a intentar de…nir una nueva forma integral, diferente a la de Riemann, que hiciese de dicho espacio de funciones un conjunto completo. La carrera fue ganada por Lebesgue, introduciendo la de…nición de integral de Lebesgue que aparece en la teoría de medidas. 9. Podemos de…nir ya el espacio L2 (a; b) como el conjunto de: (a) Funciones complejas de variable real de…nidas en el intervalo [a; b]: (b) Continuas o discontinuas. (c) Con la suma y el producto por un escalar de…nidos punto a punto. (d) Con el producto escalar de…nido en (A.11). (e) Que son cuadrado integrables, con la integral de…nida en el sentido de Lebesgue. El espacio así de…nido es completo, y por lo tanto, es un espacio de Hilbert. c Emilio Gago-Ribas, 2002 °

339

A.6

Expansiones ortogonales.

Sea (VK ; h¢; ¢i) un espacio vectorial en el que se ha de…nido un producto interno válido. ² Ortogonalidad. Decimos que ~a y ~b 2 VK son ortogonales sii h~a; ~bi = 0:

² Sistema ortogonal. (~a® )®2A 2 VK es un sistema ortogonal si ~a® ? ~a¯ para ® 6= ¯:

² Sistema ortonormal. Si k ~a® k= 1 para todo ®; el sistema es ortonormal. Un vector de norma unidad lo denotaremos por a ^: ² Si A ´ N; tendremos una secuencia ortonormal, (^ en )n2N :

² Un sistema ortogonal es propio si no contiene el vector ~0:

² Teorema. Sea ~a1 ; ~a2 ; ....., ~an un sistema ortogonal en (VK ; h¢; ¢i): La siguiente propiedad es cierta, ° n °2 n °X ° X ° ° ~ai ° = k ~ai k2 : ° ° ° i=1

A.6.1

(A.13)

i=1

Teoría de la mejor aproximación.

² Teorema. Sea ~a 2 (VK ; h¢; ¢i) y sea e^1 ; e^2 ; ....., e^n una secuencia ortonormal en VK : El vector ~b 2lin(^ e1 ; e^2 ; ....., e^n ) más cercano a ~a será, ~b =

n X i=1

(A.14)

h~a; e^i i e^i ;

y la distancia d(~a; ~b) será tal que d2 =k ~a ¡ ~b k2 =k ~a k2 ¡

n X i=1

jh~a; e^i ij2 :

(A.15)

² Corolario. Si ~a 2 V; y ~a 2lin(^ e1 ; e^2 ; ....., e^n ); entonces ~a =

n X i=1

(A.16)

h~a; e^i i e^i :

² Teorema. Desigualdad de Bessel. Sea (^ en ) una secuencia ortonormal in…nita en (VK ; h¢; ¢i): Para todo ~a 2 VK ; n X i=1

jh~a; e^n ij2

k ~a k2 :

(A.17)

² Sea (^ en ) una secuencia ortonormal en un espacio de Hilbert HK : Para todo ~a 2 HK : a: h~a; e^n i es el coe…ciente n¡ésimo de Fourier respecto a (~en ): P b: h~a; e^n i e^n es la serie de Fourier respecto a (~en ): n

A.6.2

Bases.

¿Hasta qué punto un sistema ortonormal puede hacer las veces de un sistema de coordenadas, o lo que P es lo mismo, de una base? Desde luego, estamos esperando que para todo ~a 2 HK , ~a = n h~a; e^n i e^n : Si queremos que esto sea así, la secuencia elegida (^ en ) deberá de cumplir o de asegurar: 1. La convergencia de dicha serie. 2. La completitud del sistema ortonormal (^ en ):

340

c Emilio Gago-Ribas, 2002 °

A.6.3

Convergencia de la serie. ² Convergencia P en espacios de Hilbert. Sea (^ en ) una secuencia ortonormal en HC ; y sea (¸n ) 2 C. 1 Decimos que n=1 ¸n e^n converge en HC si 1 X

n=1

j¸n j2 < 1:

(A.18)

En el caso de las series de Fourier, ¸n ´ h~a; (^ en )i tal que ~a =

1 X

n=1

h~a; e^n i e^n ;

(A.19)

si ~a 2lin(^ en ); de forma que 1 X

n=1

j¸n j2 =

1 X

n=1

jh~a; e^n ij2 < 1:

(A.20)

Pero esta última expresión nos viene asegurada por la desigualdad de Bessel. Esto hace que, sobre un espacio de Hilbert, la aproximación en serie de Fourier siempre sea convergente. A.6.4

Completitud de secuencias ortonormales.

Hemos visto que, tomada una secuencia ortonormal en un espacio de Hilbert, el desarrollo en serie de Fourier es convergente. Pero, sin tener más en cuenta, la teoría de la mejor aproximación nos dice que no podemos asegurar que dicha serie converja al elemento de partida ~x que queremos representar. ² Una secuencia ortonormal (^ en ) en un espacio de Hilbert HK es completa si el único miembro de HK ortogonal a cada elemento e^n es el vector ~0: ² Teorema. Sea (^ en ) una secuencia ortonormal completa en HK : Para todo ~a 2 HK ; ~a =

n X i=1

y

k ~a k2 =

(A.21)

h~a; e^i i e^i ;

n X i=1

jh~a; e^i ij2 :

(A.22)

² Una secuencia ortonormal en HK ´ Base ortonormal en HK : A.6.5

¿Cómo probar que una secuencia particular es completa?

El problema no es sencillo, y hay que intentar visualizarlo en términos topológicos. ² Teorema. Sea (^ en ) una secuencia ortonormal completa en HK : Las siguientes a…rmaciones son equivalentes: (^ en ) completa ´ clinf^ en ; n 2 Ng = HK ´k ~a k2 =

1 X

n=1

jh~a; e^i ij2 ; para todo ~a 2 HK :

(A.23)

² Espacios separables. Se dice que un espacio HK es separable si contiene una secuencia ortonormal completa.

c Emilio Gago-Ribas, 2002 °

341

342

c Emilio Gago-Ribas, 2002 °

Apéndice B.

B.1

Diccionario Básico de Álgebra de Operadores

Espacios duales (funciones escalares lineales). ² Función escalar. Es una asociación de los elementos de un espacio vectorial VK con los elementos de K; (B.1)

f : VK ¡! K: ² Función escalar lineal. Decimos que f es lineal si para todo ~x; ~y 2 VK y para todo ¸; ¹ 2 K;

(B.2)

f(¸~x + ¹~y) = ¸f(~x) + ¹f (~y ):

² Espacio dual. Formemos el espacio de funciones ff g = ff = f es lineal}. El espacio de dichas ¤ funciones se denomina espacio dual de VK ; y se denota por VK : ¤ ² Teorema. Si Dim(VK ) = n; entonces Dim(VK ) = n:

B.1.1

Espacios de dimensión in…nita. ² El espacio de todas las funciones escalares lineales sobre un espacio normado es demasiado grande. Una vez más, los espacios de Hilbert juegan aquí un papel fundamental ya que, básicamente, son su propio dual. Esto hace que nos acerquemos más a los conceptos de dimensión …nita que en el caso de los espacios de Banach. ² Teorema. Sea f una función escalar lineal sobre un espacio normado (BK ; k¢k): Las siguientes a…rmaciones son equivalentes: f es continua ´ f es continua en ~0 ´ sup fjf (x)j ; ~x 2 BK ; k ~x k

1g < 1:

(B.3)

¤ Dicho de otra forma, f es continua si está acotada en la bola unidad de BK :

¤ ² Teorema. El espacio BK dual de BK es, él mismo, un espacio de Banach respecto a:

a: Operaciones elemento a elemento. b: kfk =supfjf(x)j ; ~x 2 BK ; k ~x k

1g :

² Teorema de Riesz-Fréchet. Sea HK un espacio de Hilbert y sea f una función escalar lineal continua en HK : Existe un único ~y 2 HK tal que f(~x) = h~x; ~yi; para todo ~x 2 HK y, además, k ~ y k=k f k :

¤ ² Corolario. Para todo HK ; existe un operador T : HK ¡! HK dado por T [~y ] = h¢; ~yi que es suprayectivo, esto es, cubre todo el espacio dual.

² Corolario. En vista de la existencia de dicho operador, los espacios de Hilbert se dice que son auto-duales.

B.2 B.2.1

Operadores lineales. Operadores lineales en espacios de dimensión …nita.

Aplicaciones. ² Aplicaciones. Asociaciones de elementos de un espacio vectorial en otro espacio vectorial, F : VK1 ¡! WK2 :

(B.4)

² Dominio de F: Dom fFg ; conjunto de elementos de VK1 sobre los que actúa F: 343

² Imagen de F ´ Rango de F: Ran fFg = f~y 2 WK2 = 9 ~x 2 VK1 ; F [~x] = ~ y g µ WK2 :

(B.5)

² Aplicaciones inyectivas. Son aplicaciones del tipo uno-a-uno, es decir, la aplicación relaciona un elemento del conjunto de partida con un elemento del conjunto de llegada. Matemáticamente, para todo ~ y 2 Ran fFg ; existe un único ~x 2 VK1 tal que F [~x] = ~ y:

² Aplicaciones suprayectivas. Son aplicaciones que relacionan todo el conjunto de partida en todo el conjunto de llegada. Matemáticamente, para todo ~y 2 WK2 existe ~x 2 VK1 tal que F [~x] = ~ y:

² Aplicaciones biyectivas. Son aplicaciones del tipo uno-a-uno que, además, relacionan el conjunto de partida con todo el conjunto de llegada. Biyectivas=Inyectivas+Suprayectivas.

² Aplicaciones inversas. Una aplicación F : VK1 ¡! VK2 tiene inversa si y sólo si F es inyectiva y suprayectiva. Aplicaciones lineales. ² Sean dos espacios vectoriales VK y WK de…nidos sobre el mismo cuerpo de escalares.

² Aplicación lineal. Decimos que F : VK ¡! WK es lineal si y sólo si

(B.6)

F [®~x + ¯~y ] = ®F [~x] + ¯F [~y ] ; para todo ~x; ~y 2 VK y para todo ®; ¯ 2 K, con F [~x] y F [~y] 2 WK :

² Sea F una aplicación lineal. El rango de F es un subespacio lineal de VK :

² Sea F una aplicación lineal. El núcleo de F es un subespacio lineal de VK :

² Teorema. Sea VK un espacio de dimensión n; y sean q y s las dimensiones del núcleo y del rango de una aplicación lineal F de VK en WK : Se cumple que Dim fVK g = Dim fKer fFgg + Dim fRan fFgg ;

(B.7)

n = q + s:

(B.8)

o lo que es lo mismo,

Aplicaciones lineales inversas. ² Teorema. Sea F : VK ¡! WK una aplicación lineal con Ker fFg = f~0g; y F suprayectiva. Existe una aplicación F¡1 lineal tal que ~x = F¡1 [~ y ] ; para todo ~x 2 VK ; y para todo ~y 2 WK :

² Generalización. Operadores inversos sobre espacios lineales de dimensión …nita. Sea F : E ¡! E; siendo E un espacio normado. Las siguientes a…rmaciones son equivalente, F inyectiva ´ F suprayectiva ´ F¡1 2 L(E) tal que F ¢ F¡1 = I ´ ´ 9 F¡1 2 L(E) tal que F ¢ F¡1 = I ´ F es invertible. B.2.2

(B.9)

Introducción a los operadores lineales en espacios de dimensión in…nita. ² Sean VK y WK espacios vectoriales sobre un cuerpo K de escalares. Un operador lineal T es una transformación T : VK ¡! WK ;

(B.10)

T[®~x + ¯~y] = ®T[~x] + ¯T[~y];

(B.11)

tal que

para todo ~x; ~y 2 VK y para todo ®; ¯ 2 K; con T[~x]; T[~y ] 2 WK :

² Un operador lineal sobre VK es una transformación T : VK ¡! VK : 344

c Emilio Gago-Ribas, 2002 °

² Operadores acotados. Sean AK y BK espacios vectoriales normados, (AK ; k¢k); (BK ; k¢k): Un operador lineal F : AK ¡! BK se dice que está acotado si existe un M ¸ 0 tal que k F[~x] k M k ~x k; para todo ~x 2 AK :

² Norma de un operador acotado. Sea F : AK ¡! BK acotado. La norma del operador se de…ne como. k F k = sup fk T[~x] k; ~x 2 A; k ~x k< 1g :

(B.12)

La norma de un operador se puede ver como el mayor factor por el cuál el operador comprime los vectores del espacio de partida. ² Propiedad. Para todo ~x 2 AK ; k T[~x] k k T k k ~x k :

² Dominio de T:

Dom fTg = f~x 2 AK sobre los que se puede aplicar Tg µ AK :

(B.13)

Ran fTg = f~ y 2 WK = 9 ~x 2 VK ; T[~x] = ~y g µ WK :

(B.14)

² Rango de T:

El rango de T es un subespacio lineal si Dom fTg es también un subespacio lineal.

² Núcleo de T:

n o Ker fTg = ~x 2 VK = T[~x] = ~0 µ VK :

(B.15)

El núcleo de T es un subespacio lineal de Dom fTg :

² Teorema. Sean AK y BK espacios vectoriales normados, y T : AK ¡! BK un operador lineal. Las siguientes a…rmaciones son equivalentes: T es continuo1 ´ T es continuo en ~0 ´ T está acotado. B.2.3

(B.16)

El espacio de Banach L(AK ; BK ): ² Sean AK y BK espacios vectoriales normados, y sea L(AK ; BK ) el espacio de todos los operadores lineales continuos T : AK ¡! BK : Entonces, L(AK ; BK ) es también un espacio normado respecto a: a: Las operaciones elemento a elemento. b: La norma del operador. ² Si BK es un espacio de Banach, L(AK ; BK ) también es un espacio de Banach.

² Composición de operadores. Sea P : AK ¡! BK y Q : BK ¡! CK dos operadores lineales. Para todo ~x 2 AK ; QP[~x] = Q [P[~x]] 2 CK :

² Sean AK ; BK y CK espacios normados. Si P 2L(AK ; BK ) y Q 2L(BK ; CK ); entonces: a: QP 2L(AK ; CK ):

b: k QP k B.2.4

kQkkPk:

Ecuaciones. Operadores inversos. ² Resolver ecuaciones es lo mismo que invertir operadores. Dado un operador L 2 L(AK ; BK ) [el caso más común es que L 2 L(AK )]; L[~x] = ~y tiene solución única ~x = L¡1 [~y]: Espacios de dimensión …nita.

En espacios de dimensión …nita, y basados en las condiciones anteriores, existe la teoría de los determinantes que nos dicen todo lo que necesitamos conocer acerca de la existencia de L¡1 y de su obtención.

c Emilio Gago-Ribas, 2002 °

345

Espacios de dimensión in…nita. ² Sean AK y BK espacios vectoriales normados. Un operador P 2 L(AK ; BK ) es invertible si existe Q 2 L(BK ; AK ) tal que PQ = IB y QP = IA :

(B.17)

Si existe Q; es único, y se denota por P¡1 : ² Nota: aunque la de…nición parezca la misma que en espacios …nitos, es más extensa ya que, en este caso, las equivalencias realizadas antes para espacios …nitos no son equivalentes ahora. ² Sea BK un espacio de Banach, y P 2 L(BK ): Si k P k < 1; entonces I ¡ P es invertible y, además, X (I ¡ P)¡1 = Pn ; con P0 = I; P1 = P; P2 = P(P ), etc. (B.18) n

² Corolario. Sea BK un espacio de Banach. El conjunto de operadores invertibles sobre BK es abierto en L(BK ): B.2.5

Operadores adjuntos. ² Teorema. Sean H1 y H2 espacios de Hilbert, y sea P 2 L(H1 ; H2 ): Existe un único operador P¤ 2 L(H2 ; H1 ) tal que (B.19)

hP[~x]; ~ y iH2 = h~x; P[~ y ]iH1 ; para todo ~x 2 H1 y para todo ~y 2 H2 :

² Teorema. P¤¤ = P y k P¤ k=k P k; para todo P 2 L(H1 ; H2 ):

² Teorema. Sean H1 ; H2 y H3 espacios de Hilbert, y sean dos operadores P 2 L(H1 ; H2 ) y Q 2 L(H2 ; H3 ): La siguiente propiedad se cumple siempre, (QP)¤ = P¤ Q¤ : B.2.6

(B.20)

Operadores hermíticos (autoadjuntos). ² Sean H un espacio de Hilbert y P 2 L(H): P es autoadjunto si P = P¤ :

² Teorema. Si P es autoadjunto (hermítico) sobre un espacio de Hilbert H; k P k = sup jhP[~x]; ~xij :

(B.21)

j~ xj=1

B.2.7

Espectro de un operador. ² Sea P 2 L(AC ); siendo AC un espacio de Banach. El espectro P; ¾(P); es el conjunto de valores ¸ 2 C tales que ¸I ¡ P no es invertible.

B.3

Operadores compactos. ² Sean AK y BK espacios vectoriales normados, y P 2 L(AK ; BK ) lineal. P es compacto si para toda secuencia acotada (~xn ) 2 AK ; la secuencia (P[~xn ]) 2 BK posee una subsecuencia convergente en BK :

² Corolario. Un operador compacto ha de ser necesariamente acotado.

² La de…nición general de compactitud no es fácil de llevar a la práctica. Veamos una propiedad más fuerte que la de compactitud y, a la vez, más fácil de testear en la práctica. ² Sean H1 y H2 espacios de Hilbert, y sea P 2 L(H1 ; H2 ): Se dice que P P es un operador de HilbertSchmidt si existe una secuencia ortonormal completa (~en ) en H1 tal que n k P[~en ] k2 < 1:

² Teorema. Los operadores de Hilbert-Schmidt son compactos. 346

c Emilio Gago-Ribas, 2002 °

² Teorema. Sea k : (c; d) £ (a; b) ¡! C una función integrable en el sentido de Lebesgue, tal que RdRb 2 2 2 c a jk(t; s)j ds dt < 1: El operador integral K : L (a; b) ¡! L (c; d) con kernel k(t; s) es un operador de Hilbert-Schmidt, lo que hace que sea también compacto, K[f(t)] =

Z

b a

k(t; s)f(s) ds = F (t) 2 L2 (c; d):

(B.22)

² Corolario. No todos los operadores compactos son de Hilbert-Schmidt.

² Corolario. La prueba más usual de que un operador es compacto consiste en determinar que dicho operador es la norma límite de una secuencia de operadores con rango …nito. B.3.1

Espectro de un operador compacto y hermítico. ² Teorema. Sea K un operador hermítico y compacto sobre un espacio de Hilbert H: Al menos k K k ó ¡ k K k son autovalores de K:

² Teorema. Sea K un operador hermítico sobre un espacio de Hilbert H: a: Todos los autovalores de K son reales.

b: Todos los autovectores correspondientes a autovalores de K diferentes son ortogonales. ² Teorema. Sea K un operador hermítico y compacto sobre un espacio de Hilbert H: El conjunto de autovalores de K es un conjunto de números reales que es, o bien …nito, o bien una secuencia contable tendiendo a cero. ² Lema. Sea M un subespacio lineal cerrado de H que, además, es invariante2 bajo la acción de un operador lineal K sobre H: Se cumple que M? (complemento ortogonal de M) es invariante bajo la acción de K¤ ; esto es, K¤ [M? ] µ M? : B.3.2

Teorema espectral. ² Teorema. Sea K un operador hermítico y compacto sobre un espacio de Hilbert H: Existe una secuencia ortonormal …nita Po in…nita de autovectores (Án ) de K con autovalores reales (¸n ) tal que para todo ~x 2 H; K[~x] = n ¸n h~x; Án iÁn :

² Corolario. La secuencia ortonormal (Án ) de autovectores de K no tiene porqué ser completa. De hecho, si el espacio H no es separable, ninguna secuencia ortonormal en H es completa.

² Corolario. Si H es separable, (Án ) puede extenderse a una base ortonormal completa.

² Corolario. Sea K un operador hermítico y compacto sobre un espacio de Hilbert H separable y de dimensión in…nita. Existe una secuencia ortonormal completa (^ en )n2N formada por los autovalores de K de forma que, para todo ~x 2 H; X ~x = ¸n h~x; e^n i e^n : (B.23) n

2 K[M]

µ M:

c Emilio Gago-Ribas, 2002 °

347

348

c Emilio Gago-Ribas, 2002 °

Apéndice C.

De…nición de Distribuciones Mediante Sucesiones

Además de la sucesión de funciones Gaussianas utilizada en el Cap. 7 para de…nir las distribuciones ±(x); ± 0 (x) y ± 00 (x); o bien la sucesión de funciones arco tangente para de…nir la distribución de Heaviside, existen otras muchas sucesiones de funciones válidas para para modelar cualquiera de estos objetos matemáticos. Muchas de ellas pueden resultar de importancia dado que aparecen como consecuencia directa de situaciones límite de transformadas de Fourier directas o inversas así como de propiedades asociadas a la propia de…nición de la transformada de Fourier (véase por ejemplo la Secc. 9.7). Analizaremos las que, a juicio del autor, pueden ser más ilustrativas desde un punto de vista práctico en función de los aspectos mencionados.

C.1 C.1.1

Distribución delta de Dirac. Sucesión de funciones sinc.

En virtud de la transformada de Fourier de un pulso de ancho ¢ es posible obtener una nueva sucesión de funciones para representar la distribución delta de Dirac cuando ¢ ! 1; así, ¡ ¢ TF [P¢ (x)] = ¢ sinc ¢ (C.1) 2» : Cuando ¢ ! 1; P¢ (x) ! 1; es decir, la función constante unidad, cuya transformada de Fourier es igual a 2¼±(»): Podremos entonces escribir la siguiente relación, £ ¡ ¢¤ lim P¢ (x) = 1 Ã! lim ¢ sinc ¢ = 2¼±(»): (C.2) 2» ¢!1

¢!1

Reescribiendo este resultado en la variable x;

lim d¢ (x) = ±(x) ¡! d¢ (x) =

¢!1

¡ ¢ ¢ sinc ¢ 2x : 2¼

(C.3)

Resulta evidente que los ceros de la función sinc estarán localizados en, x0 = m

2¼ ; ¢

(C.4)

de forma que a medida que ¢ se hace mayor, obtendremos funciónes sinc más estrechas y de amplitud en x = 0 mayor. Cuando ¢ ! 1 se obtendrá el caracter impulsivo de la distribución delta en el origen. En la Fig. C.1 se muestra una representación grá…ca de la sucesión así como un esquema de las relaciones más importantes y las sucesiones a que dan lugar. Un análisis más detallado del comportamiento de la función sinc se puede encontrar en el Ap. F.4. En virtud de la relación en (C.3) resulta evidente la siguiente propiedad asociada a las funciones sinc; Z 1 Z 1 ¡ ¢ 2¼ ±(x) dx = 1 ¡! sinc ¢ (C.5) 2 x dx = ¢ ; ¢ > 0: ¡1 ¡1 C.1.2

Sucesión de funciones sinc cuadrado.

En virtud de la transformada de Fourier de una señal triangular de ancho ¢ es posible obtener una nueva sucesión de funciones para representar la distribución delta de Dirac cuando ¢ ! 1; así, TF [T¢ (x)] =

¡ ¢ ¢ sinc2 ¢ 4» : 2

(C.6)

Cuando ¢ ! 1; T¢ (x) ! 1; es decir, la función constante unidad, cuya transformada de Fourier es igual a 2¼±(»): Podremos entonces escribir la siguiente relación, ¸ ¡ ¢ ¢ 2 ¢ lim T¢ (x) = 1 Ã! lim sinc 4 » = 2¼±(»): (C.7) ¢!1 ¢!1 2 349

Reescribiendo este resultado en la variable x; lim d¢ (x) = ±(x) ¡! d¢ (x) =

¢!1

¡ ¢ ¢ sinc2 ¢ 4x : 4¼

(C.8)

Resulta evidente que los ceros de la función sinc cuadrado estarán localizados en las mismas posiciones que para la función sinc, esto es, x0 = m

2¼ ; ¢

(C.9)

de forma que a medida que ¢ se hace mayor, obtendremos funciónes sinc cuadrado más estrechas y de amplitud en x = 0 mayor. Cuando ¢ ! 1 se obtendrá el caracter impulsivo de la distribución delta en el origen. En la Fig. C.2 se muestra una representación grá…ca de la sucesión. Un análisis más detallado del comportamiento de la función sinc cuadrado se puede obtener a partir del análisis de la función sinc expuesto en el Ap. F.4. En virtud de la relación en (C.8) resulta evidente la siguiente propiedad asociada a las funciones sinc cuadrado, Z 1 Z 1 ¡ ¢ 4¼ ±(x) dx = 1 ¡! sinc ¢ (C.10) 4 x dx = ¢ ; ¢ > 0: ¡1 ¡1 C.1.3

Sucesión a partir de la distribución de Heaviside.

En el Cap. 7 establecimos la relación entre las distribuciones ¡(x) y ±(x); así, ±(x) =

d¡(x) : dx

(C.11)

Esta relación habrá de mantenerse también para cualquier sucesión de funciones que de…na la distribución de Heaviside. Considerando, por ejemplo, la sucesión de funciones utilizada en el Cap. 7, ecuación (7.63), podremos obtener una nueva sucesión de funciones válida para de…nir la delta sin más que obtener su derivada, ³x´ 1 1 ¡(x) = lim h¢ (x); h¢ (x) = + tan¡1 ; (C.12) ¢!0 2 ¼ ¢ ±(x) = lim d¢ (x); d¢ (x) = ¢!0

dh¢ (x) 1 ¢ = : 2 dx ¼ ¢ + x2

(C.13)

El comportamiento de esta sucesión de funciones se muestra en la Fig. C.3, así como su relación con la sucesión de funciones de partida h¢ (x): Resulta evidente que esta propiedad será aplicable a cualquier sucesión de funciones que de…nan la distribución de Heaviside, Ap. C.4.

C.2

Primera derivada de la delta de Dirac.

C.2.1

Sucesión de funciones sinc. ² A partir de la sucesión de funciones sinc utilizada para de…nir ±(x) en (C.3), y derivando dicha sucesión respecto de x; ¸ ¡ ¢¤ ¡¢ ¢ d ¢ ¢ £ ¡¢ ¢ 0 d¢ (x) = sinc 2 x = cos 2 x ¡ sinc ¢ (C.14) 2x : dx 2¼ 2¼x Esta nueva sucesión de funciones, cuando ¢ ! 1; será válida para representar ± 0 (x): Así, lim d¢ (x) = ±(x) ¡! lim d0¢ (x) = ± 0 (x):

¢!1

¢!1

(C.15)

En la Fig. C.1 se muestra una representación grá…ca de la sucesión d0¢ (x) para diferentes valores de ¢: En virtud de la relación en (C.15) resulta evidente la siguiente propiedad asociada a las funciones sinc cuadrado, Z 1 Z 1 ¡ ¢¤ 1 £ ¡¢ ¢ 0 ± (x) dx = 0 ¡! cos 2 x ¡ sinc ¢ dx = 0; ¢ > 0: (C.16) 2x x ¡1 ¡1 350

c Emilio Gago-Ribas, 2002 °

² Este resultado se puede obtener también si realizasemos un proceso similar al usado para la distribución delta, obtenida aquella a partir del límite de la transformada de Fourier de la señal P¢ (x) cuando ¢ ! 1; ecuación (C.2). Consideremos en este caso la señal de energía …nita, 8 < x x 2 (¡¢=2; ¢=2) f(x) = xP¢ (x) = (C.17) : 0 x2 = (¡¢=2; ¢=2)

El cálculo de su transformada de Fourier resulta trivial al ser una señal cuadrado integrable, obteniéndose (se deja su cálculo como ejercicio para el lector), Z 1 ¡ ¢¤ ¡ ¢¤ j¢ £ ¡ ¢ ¢ d £ F (») = f(x)e¡j»x dx = cos 2 » ¡ sinc ¢ » =j sinc ¢ : (C.18) 2 2» » d» ¡1 La última igualdad se ha obtenido en base al resultado presentado en el Ap. F.4. Nótese que en el límite cuando ¢ ! 1; la función f(x) = xP¢ (x) tiende a la función g(x) = x; así, su transformada de Fourier F (») deberá tender a G(») = 2¼j± 0 (»): Podremos enonces escribir el siguiente resultado, ½ ¾ ¡ ¢¤ d £ lim [xP¢ (x)] = x Ã! lim j » = 2¼j± 0 (»): (C.19) sinc ¢ 2 ¢!1 ¢!1 d» Reescribiendo una vez más este resultado en la variable x; lim d0¢ (x) = ± 0 (x); d0¢ (x) =

¢!1

¡ ¢¤ ¢ £ ¡¢ ¢ cos 2 x ¡ sinc ¢ 2x ; 2¼x

(C.20)

expresión de la sucesión que coincide justamente con la obtenida en (C.14). En las tablas de la Fig. C.1 se recogen de forma esquemática estas equivalencias. ² El resultado anterior puede analizarse también a través de la propiedad (9.41); así, podremos escribir las siguientes equivalencias, ¡ ¢ P¢ (x) Ã! F (») = ¢ sinc ¢ 2» ; (C.21) ¡ ¢¤ dF (») d £ » : xP¢ (x) Ã! j = j¢ sinc ¢ 2 d» d» Esta propiedad, leída a la inversa, es la que realmente nos sugirió la de…nición de la función xP¢ (x) analizada previamente.

C.2.2

Sucesión de funciones sinc cuadrado. ² A partir de la sucesión de funciones sinc cuadrado utilizada para de…nir ±(x) en (C.8), y derivando dicha sucesión respecto de x; ¡ ¢ ¸ £ ¡¢ ¢ ¡ ¢¤ ¡ ¢ d ¢ ¢ sinc ¢ 0 2 ¢ 4x d¢ (x) = sinc 4 x = cos 4 x ¡ sinc ¢ (C.22) 4x : dx 4¼ 2¼ x Esta nueva sucesión de funciones, cuando ¢ ! 1; será válida para representar ± 0 (x): Así, lim d¢ (x) = ±(x) ¡! lim d0¢ (x) = ± 0 (x):

¢!1

¢!1

(C.23)

En la Fig. C.2 se muestra una representación grá…ca de la sucesión d0¢ (x) para diferentes valores de ¢: En virtud de la relación en (C.23) resulta evidente la siguiente propiedad asociada a las funciones sinc, ¡ ¢ Z 1 Z 1 £ ¡¢ ¢ ¡ ¢¤ sinc ¢ 0 4x ± (x) dx = 0 ¡! cos 4 x ¡ sinc ¢ dx = 0: (C.24) 4x x ¡1 ¡1 ² Resulta interesante analizar también en este caso la relación de la sucesión de funciones con una cierta señal a través de la transformada de Fourier. En virtud de la propiedad (9.41) parece lógico considerar en este caso la señal de energía …nita, f(x) = xT¢ (x); c Emilio Gago-Ribas, 2002 °

(C.25) 351

esto es, la señal f(x) = x lineal de energía in…nita ventaneada en el dominio real por la señal triangular. El cálculo de su transformada de Fourier resulta trivial al ser una señal cuadrado integrable, obteniéndose justamente la derivada de la función sinc cuadrado (se deja como ejercicio para el lector esta comprobación), ¡ ¢ 2 ¢ T¢ (x) Ã! F (») = ¢ 2 sinc 4» ; (C.26) ¡ ¢¤ d £ dF (») » : xT¢ (x) Ã! j = j¢ sinc2 ¢ 2 4 d» d» En las tablas de la Fig. C.2 se recogen de forma esquemática estas importantes equivalencias. Z 1 Z 1 ¡ ¢ 4¼ ±(x) dx = 1 ¡! sinc ¢ (C.27) 4 x dx = ¢ ; ¢ > 0: ¡1 ¡1

C.2.3

Sucesión a partir de la distribución de Heaviside.

Partiendo de la relación (C.11) y en virtud de los resultados para la distribución delta, obtendremos una nueva sucesión para ± 0 (x) sin más que derivar la sucesión obtenida allí; así, dh¢ (x) 1 ¢ = ; dx ¼ ¢2 + x2

(C.28)

dd¢ (x) ¡2 ¢x = : dx ¼ (¢2 + x2 )2

(C.29)

±(x) = lim d¢ (x); d¢ (x) = ¢!0

± 0 (x) = lim d0¢ (x); d0¢ (x) = ¢!0

El comportamiento de esta sucesión de funciones se muestra en la Fig. C.3, así como su relación con la sucesión de funciones de partida h¢ (x):

C.3

Segunda derivada de la delta de Dirac.

C.3.1

Sucesión de funciones sinc. ² A partir de la sucesión de funciones sinc utilizada para de…nir ±(x) en (C.3), y derivando dos veces dicha sucesión respecto de x; ¸ ¸ µ ¶ ¡¢ ¢ ¡ ¢ ¡¢ ¢ ¢ ¢2 2 d2 ¢ x = x ¡ 2 cos x : (C.30) sinc ¢ 2 ¡ x sinc d00¢ (x) = 2 2 2 2 dx 2¼ 2¼x2 4 Esta nueva sucesión de funciones, cuando ¢ ! 1; será válida para representar ± 00 (x): Así, lim d¢ (x) = ±(x) ¡! lim d00¢ (x) = ± 00 (x):

¢!1

¢!1

(C.31)

En la Fig. C.1 se muestra una representación grá…ca de la sucesión d00¢ (x) para diferentes valores de ¢: En virtud de la relación en (C.31) resulta evidente la siguiente propiedad asociada a las funciones sinc; µ ¸ ¶ Z 1 Z 1 ¡¢ ¢ ¡¢ ¢ ¢2 2 1 2 ¡ x x ¡ 2 cos x dx = 0; (C.32) ± 00 (x) dx = 0 ¡! sinc 2 2 2 4 ¡1 ¡1 x resultado totalmente lógico si consideramos que la función subintegral es una función par.

² De forma similar a como se realizó para las distribuciones ±(x) y ± 0 (x); resulta sencillo comprobar que el desarrollo realizado para ± 00 (x) sería equivalente al siguiente desarrollo espectral (se deja como ejercicio para el lector su comprobación paso a paso), considerando como punto de partida la siguiente señal de energía …nita, 8 < x2 x 2 (¡¢=2; ¢=2) 2 f (x) = x P¢ (x) = (C.33) : 0 x2 = (¡¢=2; ¢=2) Así, en virtud de la propiedad (9.41) cuando n = 2; P¢ (x)

Ã!

F (») = ¢ sinc

¡¢ ¢ 2» ;

¡ ¢ ¢¤ d2 F (») d2 £ = ¡¢ : 2 2 sinc 2 » d» d» En las tablas de la Fig. C.1 se recogen de forma esquemática estas equivalencias. x2 P¢ (x) Ã! ¡

352

(C.34)

c Emilio Gago-Ribas, 2002 °

C.3.2

Sucesión de funciones sinc cuadrado. ² A partir de la sucesión de funciones sinc cuadrado utilizada para de…nir ±(x) en (C.8), y derivando dos veces dicha sucesión respecto de x; ¸ ¡ ¢ d2 ¢ 2 ¢ 00 d¢ (x) = sinc 4 x = dx2 4¼ µ ¶ ¸ ¡ ¢ ¡ ¢ ¡¢ ¢ ¡¢ ¢ ¢2 2 ¢ 2 ¢ 2 ¢ = cos 4 x + 3 ¡ x sinc 4 x ¡ 4 cos 4 x sinc 4 x : (C.35) 2¼x2 16 Esta nueva sucesión de funciones, cuando ¢ ! 1; será válida para representar ± 00 (x): Así, lim d¢ (x) = ±(x) ¡! lim d00¢ (x) = ± 00 (x):

¢!1

¢!1

(C.36)

En la Fig. C.2 se muestra una representación grá…ca de la sucesión d00¢ (x) para diferentes valores de ¢: ² Resulta interesante analizar una vez más la relación de la sucesión de funciones con una cierta señal a través de la transformada de Fourier. En virtud de la propiedad (9.41) cuando n = 2 parece lógico considerar en este caso la señal de energía …nita, f (x) = x2 T¢ (x);

(C.37)

esto es, la señal f (x) = x2 cuadrática de energía in…nita ventaneada en el dominio real por la señal triangular. El cálculo de su transformada de Fourier resulta trivial al ser una señal cuadrado integrable, obteniéndose justamente la segunda derivada de la función sinc cuadrado cambiada de signo (se deja como ejercicio para el lector esta comprobación), T¢ (x)

Ã!

x2 T¢ (x) Ã! ¡

F (») =

¢ 2

sinc2

¡¢ ¢ 4» ;

¡ ¢¤ d2 F (») d2 £ 2 ¢ = ¡¢ : 2 2 2 sinc 4» d» d»

(C.38)

En las tablas de la Fig. C.2 se recogen de forma esquemática estas equivalencias. C.3.3

Sucesión a partir de la distribución de Heaviside.

Partiendo de la relación (C.11) y en virtud de los resultados para la distribución delta y su primera derivada, obtendremos una nueva sucesión para ± 00 (x) sin más que derivar la sucesión obtenida para ± 0 (x); así, ±(x) = lim d¢ (x); d¢ (x) = ¢!0

± 00 (x) = lim d00¢ (x); d00¢ (x) = ¢!0

dh¢ (x) 1 ¢ = ; 2 dx ¼ ¢ + x2

d2 d¢ (x) 2¢ 3x2 ¡ ¢2 = : dx2 ¼ (¢2 + x2 )3

(C.39)

(C.40)

El comportamiento de esta sucesión de funciones se muestra en la Fig. C.3, así como su relación con la sucesión de funciones de partida h¢ (x):

c Emilio Gago-Ribas, 2002 °

353

1,00



P¢ (x)

$

2¼d¢ (»)

h

lim

i

xP¢ (x)

$

j2¼d0¢ (»)

h

lim

i

x

$

2¼j± 0 (»)

x2 P¢ (x)

$

¡2¼d00¢ (»)

h

lim

i

x2

$

¡2¼± 00 (»)

0,50

0,00 -2

-1

x

0

1

2

$

1

¢!1

2¼±(»)

1,00 0,50 0,00



-0,50 -1,00 -2

-1

x

0

1

¢!1

2

1,00 0,75



0,50 0,25 0,00 -2

-1

0

x

1

2

2 6 6 6 6 6 6 4

4

¢!1

d¢ (x) = d0¢ (x) = d00¢ (x) =

¢ ¼x2

¢ ¼x

¢ ¼

3

sinc (¢x)

[cos(¢x) ¡ sinc (¢x)]

£¡ ¢ ¤ 2 ¡ ¢2 x2 sinc (¢x) ¡ 2 cos (¢x)

7 7 7 7 7 7 5

d∆(x)/2π ∆=4

3

∆=2 ∆=1

2 1 0 -1 -4π 4

d '∆(x)/2π

-2π

∆=1



x













∆=2

2 0 -2 -4 -4π 10

∆=4

d''∆(x)/2π

-2π



x

0

∆=1

-10

∆=2

-20 -30 -4π

∆=4 -2π



x

Figura C.1. Sucesiones de funciones sinc y sus derivadas asociadas a las distribuciones ±(x); ± 0 (x) y ± 00 (x) para diferentes valores del parámetro ¢:

354

c Emilio Gago-Ribas, 2002 °

1,00

∆ 0,50

0,00 -2

-1

x

0

1

T¢ (x)

$

2¼d¢ (»)

h

xT¢ (x)

$

2¼jd0¢ (»)

h

x2 T¢ (x)

$

¡2¼d00¢ (»)

h

2

lim

i

lim

i

x

$

2¼j± 0 (»)

lim

i

x2

$

¡2¼± 00 (»)

$

1

¢!1

2¼±(»)

0,30



0,15 0,00 -0,15 -0,30 -2

-1

x

0

1

2

¢!1

0,15



0,10

0,05

0,00 -2

-1

x

0

2 6 6 6 6 6 6 4

0,4

1

2

d¢ (x) = d0¢ (x) = d00¢ (x) =

2¢ ¼x2

¢ ¼

2¢ sinc(¢x) ¼ x

¢!1

3

sinc2 (¢x)

[cos(¢x) ¡ sinc (¢x)]

£ 2 ¡ ¢ ¤ cos (¢x) + 3 ¡ ¢2 x2 sinc2 (¢x) ¡ 4 cos (¢x) sinc (¢x)

7 7 7 7 7 7 5

d∆(x) ∆=4

0,3

∆=3

∆=2

0,2 0,1 0,0 -4π 0,2

d '∆(x)

-2π



x





0,1 0,0

∆=2 ∆=3

-0,1 -0,2 -4π 0,3

d''∆(x)

-2π



x

∆=4 2π



∆=2

0,2 0,1 0,0 -0,1

∆=3

-0,2

∆=4

-0,3 -4π

-2π



x





Figura C.2. Sucesiones de funciones sinc cuadrado y sus derivadas asociadas a las distribuciones ±(x); ±0 (x) y ± 00 (x) para diferentes valores del parámetro ¢:

c Emilio Gago-Ribas, 2002 °

355

2

h¢ (x) =

³x´ 1 1 + tan¡1 2 ¼ ¢

6 6 6 6 6 h0 (x) = d (x) 6 ¢ ¢ 6 6 6 6 4 h00¢ (x) = d0¢ (x) 2

d¡(x) = ±(x) 6 dx 6 6 6 6 d2 ¡(x) 6 = ± 0 (x) 6 6 dx2 6 6 6 3 4 d ¡(x) = ± 00 (x) dx3

1,2

¡(x) =

1 ¢ ¼ x2 + ¢2

d0¢ (x) =

¡2 ¢x ¼ (x2 + ¢2 )2

d00¢ (x) =

2¢ 3x2 ¡ ¢2 ¼ (x2 + ¢2 )3

¡(x) =

Rx Ry

Rx Ry Rz

0,8

± 00 (w) dw dz dy

¡1 ¡1 ¡1

1,4

∆=0.25 ∆=0.5

1,0

0,6

∆=1

0,8

0,4

0,6

∆=0.25

0,2

7 7 7 7 7 7 7 7 7 7 7 5

d∆(x)

1,2

∆=0.5

∆=1

± 0 (z) dz dy

¡1 ¡1

¡(x) =

7 7 7 7 7 7 7 7 7 7 5 3

±(y) dy

¡1

h∆(x)

1,0

0,4

0,0

0,2

-0,2 -4 1,4

Rx

3

d¢ (x) =

h'∆(x)

-3

-2

-1

0

x

1

2

3

4

0,0 -4 4

1,2

3

1,0

2

d'∆(x)

-3

-2

-1

0

x

1

3

4

∆=0.5 ∆=1

1

0,8

2

0 0,6

-1

0,4

-2

0,2 0,0 -4 4

∆=0.25

-3

h''∆(x)

-3

-2

-1

0

x

1

2

3

4

-4 -4 10

d''∆(x)

-3

-2

-1

0

x

1

2

3

4

3

4

∆=1

3 0

2 1

∆=0.5

-10

∆=0.25

0 -20

-1 -2

-30

-3 -4 -4

-3

-2

-1

0

x

1

2

3

4

-40 -4

-3

-2

-1

0

x

1

2

Figura C.3. Sucesiones de funciones asociadas a ¡(x) y ±(x); h¢ (x) y d¢ (x); respectivamente, así como sus dos primeras derivadas.

356

c Emilio Gago-Ribas, 2002 °

C.4

Distribución de Heaviside o salto unidad.

De forma similar a como se ha realizado para las distribuciones ±(x); ± 0 (x) y ± 00 (x); es posible encontrar otras sucesiones de funciones de buen comportamiento para de…nir la distribución ¡(x); además de la utilizada ya en la Secc. 7.6. Entre otras, cabe resaltar aquellas directamente relacionadas con la distribución delta a partir de la ecuación inversa a (C.11), esto es, Z x ¡(x) = ±(y) dy: (C.41) ¡1

Veremos a continuación algunas de ellas. Nótese cómo estas sucesiones de funciones serán válidas también para de…nir la distribución sgn(x) sin más que restar el valor medio no nulo a ¡(x) y escalar adecuadamente el resultado. C.4.1

Función de error.

Consideremos en primer lugar la sucesión de funciones Gaussianas utilizada en la Secc. 7.3, 2 2 1 p e¡x =¢ : ¢ ¼

d¢ (x) =

(C.42)

Dicha sucesión de funciones, cuando ¢ ! 0; de…ne la distribución ±(x); así, la sucesión de funciones h¢ (x) obtenida aplicando (C.41) a (C.42) será una nueva sucesión de funciones válida para de…nir la distribución ¡(x); (C.43)

¡(x) = lim [h¢ (x)] ; ¢!0

h¢ (x) =

1 p ¢ ¼

Z

x

e¡y

2

=¢2

dy:

(C.44)

¡1

Esta sucesión de funciones se puede escribir en téminos tanto de la función de error como de la función de error complementaria1 en la forma (referirse al Ap. F.5), h¢ (x) = 1 ¡ h¢ (x) =

³x´ 1 erfc ; 2 ¢

³ x ´i 1h 1 + erf : 2 ¢

(C.45)

(C.46)

Estas expresiones se han obtenido teniendo en cuenta el valor de la integral de la función Gaussiana a lo largo de toda la variable independiente, r Z 1 ¼ ¡ax2 e dx = : (C.47) a ¡1 Nótese como el valor de cualquiera de estas funciones en el origen es siempre de 1=2: En el límite cuando ¢ ! 0; consideraremos una vez más que ¡(x) no está de…nida, poniéndo así énfasis en el caracter localizador del salto unidad representado por esta distribución. En la Fig. C.4 se muestra el per…l que presentan algunas de estas funciones para diferentes valores del parámetro ¢: 1 Las

funciones de error y de error complementaria se de…nen como, Z x 2 2 erf(x) = p e¡y dy; ¼ 0 2 erfc(x) = p ¼

c Emilio Gago-Ribas, 2002 °

Z

1 x

2

e¡y dy = 1 ¡ erf(x):

357

C.4.2

Funciones integrales sinosoidales.

Consideremos ahora la sucesión de funciones sinc presentada en la Secc. C.1.1, d¢ (x) =

¡ ¢ ¢ sinc ¢ 2x : 2¼

(C.48)

En en límite cuando ¢ ! 1; dicha sucesión de…ne la distribución ±(x); así, la sucesión de funciones h¢ (x) obtenida aplicando (C.41) a (C.48) será una nueva sucesión de funciones válida para de…nir la distribución ¡(x); ¡(x) = lim [h¢ (x)] ; ¢!1

h¢ (x) =

¢ 2¼

Z

x

sinc

¡1

¡¢ ¢ 2 y dy:

(C.49)

(C.50)

Esta sucesión de funciones se puede escribir en téminos de la función Si(x)2 en la forma (referirse al Ap. F.6), h¢ (x) =

1 1 ¡¢ ¢ + Si 2 x : 2 ¼

(C.51)

Nótese como el valor de cualquiera de estas funciones en el origen vuelve a ser también de 1=2: En la Fig. C.5 se muestra el per…l que presentan algunas de estas funciones para diferentes valores del parámetro ¢: C.4.3

Función integral de la función sinc cuadrado.

Consideremos en este caso la sucesión de funciones en términos del cuadrado de la función sinc presentada en la Secc. C.8, d¢ (x) =

¡ ¢ ¢ sinc2 ¢ 4x : 4¼

(C.52)

En en límite cuando ¢ ! 1; dicha sucesión de…ne la distribución ±(x); así, la sucesión de funciones h¢ (x) obtenida aplicando (C.41) a (C.52) será una nueva sucesión de funciones válida para de…nir la distribución ¡(x); ¡(x) = lim [h¢ (x)] ; ¢!1

h¢ (x) =

¢ 4¼

Z

x

sinc2

¡1

¡¢ ¢ 4 y dy:

(C.53)

(C.54)

Esta sucesión de funciones se puede escribir en téminos de la función Si2(x) y, a su vez, en términos de la función Si(x) de…nida en la sección anterior3 en la forma (referirse al Ap. F.6), " # ¡ ¢ ¡ ¢ ¢ 1 1 cos ¢ ¡¢ ¢ 1 2x ¡1 h¢ (x) = Si2 4 x = + + Si 2 x : (C.55) ¢ ¼ 2 ¼ 2x Una vez más, el valor de cualquiera de estas funciones en el origen es de 1=2: En la Fig. C.6 se muestra el per…l que presentan algunas de estas funciones para diferentes valores del parámetro ¢: 2 Las

funciones Si(x) se de…nen como, Si(x) =

Z

x 0

sin y dy: y

R x sin y Su valor en el in…nito es igual a ¼=2; de forma que ¡1 dy = ¼=2 + Si(x): y 3 La función Si2(x) se de…nen como, Z x sin2 y cos(2x) ¡ 1 ¼ Si2(x) = dy = + + Si(2x): 2 2x 2 ¡1 y

358

c Emilio Gago-Ribas, 2002 °

1,25

∆=0.5

1,00

∆=1

∆=2

0,75

∆=3

0,50 0,25 0,00 -0,25 -5

-4

-3

-2

-1

0

x

1

2

3

4

5

Figura C.4. Sucesión de funciones asociadas a la distribución ¡(x) en términos de la función de error. Se representan algunas funciones para diferentes valores de ¢:

1,25

∆=10

1,00

∆=1

∆=2

0,75 0,50 0,25 0,00 -0,25 -10

∆=4 -8

-6

-4

-2

0

x

2

4

6

8

10

Figura C.5. Sucesión de funciones asociadas a la distribución ¡(x) en términos de la función Si(x). Se representan algunas funciones para diferentes valores de ¢:

1,25

∆=10

1,00

∆=1

∆=2

0,75 0,50 0,25 0,00 -0,25 -10

∆=4 -8

-6

-4

-2

0

x

2

4

6

8

10

Figura C.6. Sucesión de funciones asociadas a la distribución ¡(x) en términos de la función Si2(x). Se representan algunas funciones para diferentes valores de ¢:

c Emilio Gago-Ribas, 2002 °

359

C.5

Tabla resumen de distribuciones y sucesiones de funciones ±(x) ± 0 (x) ± 00 (x) ¡(x) ±(x) ± 0 (x) ± 00 (x) ¡(x)

³ 2´ x exp ¡ ¢ 2 ³ 2´ ¡2 p x exp ¡ x 2 ¢ ¢3 ¼ i ³ 2´ h 2 2p x x ¡¢ 2¢ 2 ¡ 1 exp 2 ¢3 ¼ ¡ ¢ x 1 ¡ 12 erfc ¢ 1 p ¢ ¼

¡ ¢ sinc ¢ 2x £ ¡¢ ¢ ¡ ¢ ¢¤ ¢ 2¼x cos 2 x ¡ sinc 2 x ´ h³ ¡¢ ¢ ¡ ¢ ¢i ¢ ¢2 2 sinc 2 ¡ x x ¡ 2 cos 2 2¼x 4 2 2x ¡¢ ¢ 1 1 2 + ¼ Si 2 x ¢ 2¼

sinc2

¢ 4¼

± 0 (x)

¢ ¢ sinc( 4 x) 2¼ x

¡(x)

±(x) ± 0 (x)

£ ¡¢ ¢ ¡ ¢¤ cos 4 x ¡ sinc ¢ 4x h ³ ´ ¡ ¢ ¡¢ ¢ ¡ ¢ ¢i ¡ ¢ ¢ ¢2 2 2 ¢ sinc2 ¢ 2¼x2 cos 4 x + 3 ¡ 16 x 4 x ¡ 4 cos 4 x sinc 4 x ¡¢ ¢ 1 ¼ Si2 4 x ¢ ¢2 + x2 ¢x ¡2 ¼

(¢2 + x2 )2

3x2 ¡ ¢2 (¢2 + x2 )3 ¡x¢ + ¼1 tan¡1 ¢

± (x) ¡(x)

1 2

360

(¢ ! 1)

1 ¼

2¢ ¼

00

(¢ ! 1)

¡¢ ¢ 4x

±(x)

± 00 (x)

(¢ ! 0)

(¢ ! 0)

c Emilio Gago-Ribas, 2002 °

Apéndice D.

D.1

Propiedades de las Distribuciones

Escalado de la variable independiente. ±(ax) =

1 ±(x): jaj

(D.1)

La demostración de esta propiedad resulta extremadamente sencilla sin más que recurrir a la de…nición integral del nuevo objeto generado, desarrollarla mediante un sencillo cambio de variable y considerando los casos particulares con a > 0 y a < 0: Z 1 Z 1 Z 1 1 1 1 a>0 ! ±(ax) dx = ±(u) du = ±(u) du = : (D.2) a a a ¡1 ¡1 ¡1 a
View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF