La Transformada de Hotelling A PDF

July 11, 2022 | Author: Anonymous | Category: N/A
Share Embed Donate


Short Description

Download La Transformada de Hotelling A PDF...

Description

 

La Transformada de Hotelling  Al contrario de las transformadas presentadas hasta ahora, la transformada de Hotelling (comúnmente conocida como transformada del autovector, de la componente principal o transformada discreta de Karhunen-Loève), que se desarrollará en esta sección, se basa en las propiedades estadísticas de las representaciones vectoriales. La transformada de Hotelling tiene varias propiedades útiles que la convierten en una herramienta para el procesamiento de imágenes. Considérese una población de vectores aleatorios de la forma

&  x $  x $ $  x $ $ ! $ ! $ %$  x

1

2

 X 

3

=

n

# ! ! ! !  ! ! ! "!

(3.6-1)

El vector medio de esta población se define como m x

  =

{ } 

(3.6-2)

 E   x

Donde  E  arg  es el valor de lo esperado del argumento, y el subíndice indica que m está asociado con la población de vectores x. Recuérdese que el valor esperado de un vector o de una matriz se obtiene tomando el valor esperado de cada elemento. La matriz de covarianza de la población de vectores se define como C  x

=

( x !   m  x ) ( x ! m x ) T   

 E 

(3.6-3)

Donde T indica el vector traspuesto. Puesto que x es n dimensional, C   y  x



( x ! m  x ) (   x  ! m x )   son matrices de orden n x n. El elemento c ii   de C   es la  x

varianza x i , la i-ésima componente de los vectores x de la población, y el elemento c ij   de C es la covarianza entre los elementos x i   y x   j   de estos  x

vectores. La matriz C   es real y simétrica. Si los elementos x i   y x   j no están  x

correlacionados, su covarianza es cero y, por lo tanto, c ij  = c   ji  = 0. Para M muestras vectoriales de una población aleatoria, el vector medio y la matriz de covarianza se pueden aproximar por: m  x

=

1    M 

 M 

 

x

! k  1 =



(3.6-4)

 

y C  x

 M 

1

=

   x   x "  M  k 

T  k 

! m x m xT   

(3.6-5)

k  1 =

Ejemplo: Como ejemplo para ilustrar la mecánica de las (3.6-4) y (3.6-5), T 



considérese los cuatro vectores columna x  = (0, 0, 0) , x = (1, 0, 0) , x 3   = (1, 1, 0) T  , x 4 = (1, 0, 1) T  , donde se ha empleado la traspuesta para poder escribir los vectores columna convenientemente en forma horizontal en una línea de texto. Aplicando la ecuación se obtiene el siguiente vector medio: 1

1 m

 x

=

4

2

&3# $1!   $ ! $%1!"

De forma similar, aplicando (3.6-5) se obtiene la siguiente matriz de covarianza:

C  x

1 =

16

&3 1 1 # $1 3 ' 1!   $ ! $%1 ' 1 3 !"

Todos los elementos de la diagonal principal son iguales, lo que indica que las tres componentes de los vectores de la población tienen la misma varianza.  Asimismo, los elementos x 1   y x 2 , al igual que x 1   y x 3 , están positivamente correlacionados; los elementos x 2  y x 3  están correlacionados negativamente. Como C  es real y simétrica, siempre es posible hallar un conjunto de n  x

autovalores ortonormales (Noble [1969]). Sean e i   y

!i   ,

i = 1, 2, !, n los

autovectores y sus autovalores correspondientes de C ( por definición, los autovalores y autovectores de una matriz n x n, C, satisfacen la relación Ce i ,  x

para i= 1, 2, !,n), ordenados (por conveniencia) en orden decreciente de forma que !   j  "   !  j 1, para j = 1, 2, !, C , ordenadas de forma que la primera  x

+

fila de A sea el autovector correspondiente al mayor autovalor, y la última fila sea el autovector correspondiente al menor autovalor. Supongamos que A es una matriz de transformación que aplica las x en otros vectores, a los que llamaremos y, de la forma  y

=

 A  ( x ! m x )  

(3.6-6) 

La ecuación (3.6-6) se denomina la transformada de Hotelling. La media de los vectores y resultante de esta transformación tr ansformación es cero; es decir:

 

  m y

=

(3.6-7) 



Y la matriz de covarianza de las y puede obtenerse en términos de A y C  por  x

C  y

 

=

 AC     x AT   

(3.6-8) 

 Además, C  y es una matriz diagonal cuyos elementos de la diagonal principal son los autovalores de C ; es decir:  x

&'  $ $ $ $ $ $% 0

C  y

=

# ! ! !  ! ! ' n ! " 0

1

' 2

! !

Los elementos que están fuera de la diagonal de la matriz de covarianza son 0, por tanto los elementos de los vectores y no están correlacionados. Recuérdese que las !   j son los autovalores de C   y que los elementos de la  x

diagonal principal de una matriz diagonal son sus autovalores (Noble [1969]). Por tanto, C y C  y   tienen los mismos autovalores. De hecho, lo mismo lo  x

mismo es válido para los autovectores. Ejemplo: La figura3.30 ilustra los conceptos que se acaban de exponer. El objeto binario mostrado se trata como una población bidimensional. En otras palabras, cada píxel del objeto es tratado como un vector bidimensional x = (a, b) T  , donde a y b son los l os valores de las coordenadas de ese punto con respecto a los ejes x 1  y x 2 . Esos vectores se emplean para calcular el vector medio y la matriz de covarianza de la población (objeto).

 

 

Figura 3.30 (a) Un objeto binario; (b) sus ejes principales (autovalores); (c) rotación del objeto utilizando la ecuación (3.6-6)

El efecto neto de emplear la ecuación (3.6-6) es establecer un nuevo sistema de coordenadas cuyo origen quede en el centroíde y cuyos ejes estén en las direcciones de los autovectores de C , como se muestra en la figura  x

3.30 (b). Este sistema de coordenadas muestra claramente que la transformación de la ecuación (3.6-6) es una transformación de rotación que alinea los datos con los autovectores, como se muestra en la Figura 3.30 (c). De hecho, es alineamiento es precisamente el mecanismo que descorrelaciona los datos. Además, como los autovalores aparecen sobre la diagonal principal de C  y  , ! i , es varianza de componente y i  a lo largo del autovector e i . El concepto concepto e alinear un objeto bidimensional con su autovector principal desempeña un un papel importante en e ell análisis de imágenes imágenes.. Como se mostrará en los capítulos 8 y 9, después de haber extraído un objeto de la imagen, las técnicas de la computadora empleadas para reconocerlo son generalmente sensibles sensibles a la rotació rotación n del mismo. De Debido bido a que la ide identidad ntidad del objeto evidentemente no se conoce antes de su reconocimiento, la capacidad de alinear el objeto con sus ejes principales proporciona un método fiable para eliminar los efectos de la rotación en el proceso de análisis de la imagen. Otra importante propiedad de la transformada de Hotelling consiste en la reconstrucción de x a partir de y. Debido a que las filas de A son vectores ortonormales, A !  1   = A T  , y todo vector x puede ser reconstruido de su correspondiente y, empleando la relación: T 

 x =  A   y

+

m x  

(3.6-10)

Supóngase, sin embargo, que en lugar de emplear todos los autovectores de C   se forma una matriz A  K    a partir de los K autovectores  x

correspondientes a los K autovalores mayores, dando una matriz de transformación de orden K x n. Los vectores y serían por tanto K

 

dimensionales, y la reconstrucción dada en la ecuación (3.6-10) ya no sería exacta. El vector reconstruido empleando A  K   es:

 !

 x

=

T   A   K   y  + m x  

(3.6-11)

Puede demostrarse que el errror cuadrático medio entre x y dado por la expresión: n

ems

=

 x

  viene

 K 

!  j

 !

" ! #  j  

#  j

1

 j

=

(3.6-12)

1

=

n

=

! " 

 j

 

 j = K +1

La primera parte de la ecuación (3.6-12) indica que el error es cero si K = n (es decir, si se emplean en la transformada todos los autovectores). Puesto que las !   j  decrecen monótonamente, la ecuación (3.6-12) también demuestra que el error puede ser minimizado seleccionando los K autovectores asociados con los mayores autovalores. Así, la transformada de Hotelling es óptima en el sentido que minimiza el error cuadrático medio entre los vectores x y sus aproximaciones  !  x .

Ejemplo: Se concluye esta sección con otro ejemplo de la capacidad de la transformada de Hotelling para el procesamiento digital de imágenes. La Figura 3.31 muestra seis imágenes generadas mediante un escáner multiespectral de 6 bandas operando en las longitudes de onda mostradas en la tabla 3.6. Viendo las imágenes como se muestran en la Figura 3.32, se puede formar un vector de dimensión seis,  x ( x1 ,  x 2 ,...., x 6 ) T  , a partir de cada conjunto de los =

pixeles correspondientes. Las imágenes de esta aplicación en particular eran de una resolución 384 x 239, de forma que la población consistía en 91776 vectores de los que había que calcular el vector medio y la matriz de covarianza. La tabla 3.7 muestra los autovalores de C ; obsérvese la dominancia de las dos primeras componentes.  x

Canal 1 2 3 4 5 6

Banda de longitud de onda ( µm) 0,40-0,44 0,62-0,66 0,66-0,72 0,80-1,00 1,00-1,40 2,00-2,60

Tabla 3.6. Números 3.6. Números de canal y longitudes de onda

 

  !1 

!2

3.210

931.4

 

!3 

!4

 

!5 

!6 

118.5

83.88

64.00

13.40

Tabla 3.7. Autovalores 3.7. Autovalores de la matriz de covarianza de las imágenes de la figura 3.31.

El empleo de la ecuación (3.6-6) genera un conjunto de vectores transformados y correspondientes a los vectores x. A partir de ellos, se construyeron las seis componentes principales de la imagen invirtiendo el proceso de la Figura 3.32. La Figura 3.33 muestra los resultados. La componente 1 corresponde a la imagen formada por todas las componentes y 1   de los vectores transformados, y así sucesivamente para las otras cinco imágenes. Recuérdese de la teoría básica de matrices que y 1   se obtiene llevando a cabo el producto interno de la primera fila de A con el vector columna (x - m ) T  . La primera fila de A es el autovector correspondiente al  x

mayor autovalor de la matriz de covarianza de la población, y este autovalor da la varianza de los niveles de gris de la primera imagen transformada. Así, basándose en los valores de la Tabla 3.7, esa imagen tendría el mayor contraste. La figura 3.33 muestra que esto es lo que sucede realmente. Puesto que las dos primeras imágenes suman el 94 por 100 de la varianza total, no es sorprendente el hecho de que las cuatro imágenes de componentes principales tengan bajo contraste. Por ello, si en lugar de almacenar permanentemente las seis imágenes sólo se almacenasen las dos primeras imágenes transformadas,  junto con m y las dos primeras filas de A, posteriormente se podría realizar  x

una labor aceptable de reconstrucción aproximada de las seis imágenes originales. Esta posibilidad de realizar una compresión de datos, aunque no es impresionante, dados los estándares actuales (véase Cap. 6), es un subproducto útil de la transformada de Hotelling.

Figura 3.32: Formación de un vector a partir de los píxeles correspondientes de seis imágenes

 

 

Canal 1

Canal 2

Canal 3

Canal 4

Canal 5

Canal 6

Figura 3.33: Seis imágenes espectrales procedentes de un escáner aéreo. (Cortesía del laboratorio para Aplicaciones de Teledección, Universidad de Purdue).

CONCLUSIONES El principal propósito de este ha sido presentar los fundamentos teóricos de las transformadas de la imagen y sus propiedades. Dentro de este contexto, se han desarrollado e ilustrado los puntos esenciales necesarios para una compresión básica de esos conceptos.

 

  El énfasis dado a la transformada de Fourier refleja su amplio campo de aplicación en problemas de procesamiento de la imagen. El estudio de la transformada rápida de Fourier es de particular importancia debido a sus implicaciones en el cálculo. Las propiedades de separabilidad, centralización y convolución de la transformada de Fourier también se emplean ampliamente en los capítulos siguientes. La teoría de las transformadas ha desempeñado un papel fundamental en el desarrollo del procesamiento de imágenes como una disciplina formal, como se verá en las presentaciones posteriores. En los capítulos siguientes, se considerarán algunas aplicaciones de la transformada de Fourier en la mejora y restauración de imágenes. En el capítulo 6 se llevará a cabo una presentación más amplia de las restantes transformadas en la sección 3.5 considerándose en detalle su utilidad para la comprensión de datos. La transformada Hotelling se menciona de nuevo en los capítulos 8 y 9 en relación con normalización de la rotación e objetos.

Referencia El tratamiento de la transformada e Fourier en este libro li bro es de naturaleza introductoria. Los textos clásicos de Titchmarsh [1948] y Papoulis [1962 ] ofrecen tratamientos teóricos compresibles de la transformada continua de Fourier y de sus propiedades. La mayor parte de textos sobre ingeniería de circuitos y comunicaciones ofrecen una variedad de desarrollos y explicaciones de la transformada de Fourier. Los libros de Van Valkenburg [1955], Carlson [1968] y Thomas [1969] son representativos de ello. La derivación de la transformada discreta de Fourier a partir de su forma continua está también extensamente tratada en la literatura. Tres buenas referencias sobre este tema son Blackman y Tukey [1965]. Sin embargo, la FFT tiene una interesante historia que es bueno indicar brevemente aquí. En respuesta al artículo de Cooley-Tukey, Rudnick [1966] informó que él había usado una técnica similar, cuyo número de operaciones también era proporcional a N log 2 N, y que estaba basada en un método publicado por Danielson y Lanczos [1942]. Estos autores, a su vez, hacían referencia a los trabajos de Runge y König [1942], contienen las mejoras de cálculos esenciales de los actuales algoritmos de la FFT. Técnicas similares también fueron publicadas por Yates [1937], Stumpff [1939], Good [1958] y Thomas [1963]. Un artículo de Cooley, Lewis y Welch [1967ª] presenta una recopilación histórica y una interesante comparación de los resultados previos al artículo de CooleyTukey en 1965. El algoritmo FFT presentado en este capitulo no es absoluto la única formulación posible. Por ejemplo, el denominado algoritmo de Sande-Tukey (Gentleman y Sande [1966] ) está basado en una descomposición alternativa de los datos de entrada. El libro l ibro de Brigham [1974] contiene un extenso análisis de este algoritmo así como muchas otras formulaciones de la FFT, incluyendo procedimientos para otras bases diferentes de la binaria.

 

 Aunque nos hemos centrado exclusivamente en las técnicas digitales, debe indicarse que las transformadas de Fourier bidimensionales también pueden obtenerse mediante medios ópticos. Los libros de Papoulis [1968], Goodman [1968] y Hecht y Zajac [1975] recorren aspectos teóricos y aplicados de la óptica y de las transformadas ópticas a nivel de introducción. Para una lectura adicional sobre la formulación matricial de las transformadas de la imagen, puede consultarse el libro de Andrews [1970], que desarrolla también el concepto de descomposición matricial y presenta otras técnicas de transformación de las imágenes además de las presentadas en este capitulo. Los artículos de Good [1958], Gentleman [1968], Kahaner [1970], y el libro de Elliot y rao [1983] también son interesantes. El trabajo original de de la transformada de Walsh (Walsh [1923] ) es de recomendada lectura desde un punto de vista histórico. Otras referencias adicionales sobre la transformada son Fine [1949, 1950], Hammond y Jonson [1962], Henderson [1964], Shanks [1969] y Andrews [1970]. Como lectura adicional sobre la transformada de Hadamard, puede verse el trabajo original de Hadamard [1893]. También pueden verse Williamson [1944], Whelchel [1968] y Andrews [1970]. Dos comentarios interesantes sobre la bús búsqueda queda de las matrices de Had Hadamard amard no basa basadas das en potencias enteras de 2 se encuentran en Baumert [1962] y Golomb [1963]. El concepto de secuencia parece haber sido introducido por Harmuth [1968]. Las referencias sobre la transformada del coseno discreta son Ahmed y otros [1974] y Ahmed y Rao [1975]. La última contiene también una extensa presentación sobre las transformadas ortogonales. Sobre las transformadas de Haar y Slant se pueden consultar Harmuth [1970], Shore [1973], Jain [1989] y Pratt [1991]. Hotelling [1933] fue el primero en desarrollar y publicar las transformadas que convierte variables discretas en coeficientes descorrelacionados. El propio autor se refirió a su técnica como el método de las componentes principales. Su trabajo proporciona una nueva perse3pción sobre el método y es de lectura recomendable. La transformación de Hotelling fue redescubierta por Kramer y Mathews [1956] y Huang y Schultheiss [1963]. Véanse Lawley y Maxwell [1963] para una presentación general de ese tema. Una transformación análoga para c convertir onvertir datos continu continuos os en un conjunto de coeficientes no correlacionados fue descubierta por Karhunen [1947] y Loève [1948] y se denomina el desarrollo de Karhunen-Loève. Un estudio excelente puede verse en Selin [1965]. La consecuencia de que el desarrollo de Karhunen-Loève minimiza el error cuadrático medio de truncado fue publicada en primer lugar por Koschman [1954] y redescubierta por Brown [1960].

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF