SciELO - Scientific Electronic Library Online

 
vol.30 número2Ensanchamiento de un surco superficial en hielo puroAdaptación de un tubo de Kundt para la determinación de la velocidad del sonido a distintas temperaturas índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Anales (Asociación Física Argentina)

versión impresa ISSN 0327-358Xversión On-line ISSN 1850-1168

An. AFA vol.30 no.2 Buenos Aires ago. 2019

 

FÍSICA DEL ESPACIO Y DEL AMBIENTE GEOFÍSICA

Segmentación de secuencias con distribución Gamma

 

Segmentation of sequences with Gamma distribution

 

G.G. Aguirre Varela a,c, M.A. Ré a,b, * , S. Masuelli a,d

a Facultad de Matemática, Astronomía, Física y Computación, Universidad Nacional de Córdoba. Argentina
b CIII - Materias Básicas, Universidad Tecnológica Nacional, Facultad Regional Córdoba. Argentina
c CONICET
d Comisión Nacional de Actividades Espaciales
* Miguel A. Ré: mgl.re33@gmail.com

Recibido: 06/05/19;
aceptado: 14/06/19

 


Resumen
En imágenes obtenidas con iluminación coherente como las de radar de apertura sintética (SAR), aparece un ruido multiplicativo conocido como speckle. El speckle hace que zonas radiométricamente homogéneas respondan con distribuciones tipo Gamma. La detección de bordes en este tipo de imágenes es de interés y utilidad en muchas aplicaciones. En este trabajo se proponen tres métodos de análisis mediante segmentación basados en el cálculo de la Divergencia de Jensen Shannon que pueden ser aplicados a imágenes SAR. La aproximación de las distribuciones de probabilidad se realizó mediante el método del Kernel de densidad.

Palabras clave: speckle, SAR, divergencia de Jensen Shannon.

Abstract
In images obtained with coherent lighting such as synthetic aperture radar (SAR), a multiplicative noise known as speckle appears. The speckle makes radiometric homogeneous zones respond with Gamma type distributions. The detection of edges in this type of images is of interest and usefulness in many applications. In this paper three methods of analysis by segmentation based on the calculation of the Jensen Shannon Divergence that can be applied to SAR images are proposed. The approximation of the probability distributions was carried out using the density Kernel method.

Keywords: speckle, SAR, divergence of Jensen Shannon.


 

I. INTRODUCCIÓN

Las técnicas de análisis de imágenes que permiten diferenciar partes de la misma, se han venido desarrollando debido al gran número aplicaciones en donde se usan. La detección y el análisis temporal de cambios sobre la superficie terrestre (mapeado de inundaciones, mediciones de campos, determinación de extensión de hielos continentales y antárticos, flujos de hielo de glaciares, etc.) es un área de gran interés. En este sentido, se ha venido trabajando en el análisis de las imágenes satelitales obtenidas por Radares de Apertura Sintética (SAR).1,2,3,4

Para el análisis de las imágenes se usan técnicas de contraste de características estadísticas mediante las cuales se producen mapas diferenciales que permiten identificar las regiones en las que se produjeron variaciones. Se aplican algoritmos en los que mediante la definición de umbrales adecuados se diferencian las regiones, estableciéndose la presencia de bordes. Por ejemplo usando la diferencia entre los valores entre pixeles, o en el cociente entre los valores de los pixeles.

Los sistemas de adquisición de SAR basan su capacidad de formar imágenes en que se mantiene la coherencia entre las señales emitida y recibida a lo largo de toda una adquisición. La coherencia de estas señales permite, mediante el proceso de enfocado, obtener imágenes con una resolución mucho mejor que la esperada por el IFOV (Instantaneus Field of View) de la antena. El problema que se presenta en este método es la aparición de un ruido multiplicativo conocido como speckle. Este ruido se debe a la interferencia que se produce al sumar las señales coherentes provenientes de los elementos dispersores presentes en la región asociada al pixel considerado. Se hace necesario el uso de herramientas matemáticas más sofisticadas para la detección de bordes.4,5,6

Las imágenes SAR son ofrecidas en distintos formatos y niveles de procesamiento, siendo la más básica de las imágenes enfocadas la denominada SLC (Single Look Complex). Una adquisición SAR en polarización simple, vertical u horizontal, tiene dos bandas de datos que corresponden a los canales de adquisición I (in phase) y Q (in quadrature), que pueden ser interpretados como la parte real e imaginaria, respectivamente, de una señal compleja.7

El speckle ha sido descripto teóricamente mediante modelos de distribución en regiones homogéneas. Estos modelos establecen que para imágenes SLC de polarización simple correspondientes a zonas homogéneas (por ejemplo áreas rurales), los datos de ambos canales, l y Q, tienen una distribución Gaussiana para las amplitudes. Mientras que la fase tiene una distribución Uniforme y la intensidad una distribución exponencial (o equivalentemente Gamma de orden 1), mientras que el modulo de la amplitud (que es proporcional a la raíz cuadrada de la intensidad) responde a una distribución de Rayleigh . Considerando esto, se han usado diferentes técnicas que tienen en cuenta la correspondiente distribución de la potencia que se recibe de cada pixel y se han calculado las distribuciones para los gradientes de intensidad asociados a los pixeles, con esto se ha conseguido una mejor identificación de los bordes. 7,8.

Bujor et al. 9 mostró que la comparación directa de las distribuciones de Probabilidad correspondientes a un par de regiones de la imagen SAR era una técnica interesante. La comparación puede ser realizada usando la Divergencia de Kullback-Leibler (KLD). La dificultad que se presenta está en el cálculo de la divergencia, para lo cual primero se deben conocer las densidades de probabilidad.

Más recientemente Wen Yang et al.10 propusieron usar la divergencia de Jensen Shannon. Para calcularla propusieron usar un método basado en aproximaciones para los cocientes de densidad (RuLISF, Relative unconstrained Least-Squares Importance Fitting.)

En este trabajo se propone el uso de la Divergencia de Jensen Shannon (DJS) para realizar la detección del borde entre dos regiones homogéneas de una imagen SAR mediante segmentación. Para realizar el cálculo de la DJS se ensayaron tres métodos:

-Método 1: suponiendo una distribución Gammade orden 1para la intensidad (distribución exponencial) y realizando el análisis de segmentación usando una ventana móvil (de longitud fija) y cursor en el centro de la ventana.

-Método 2: suponiendo una distribución Gamma de orden 1 para la intensidad (distribución exponencial) para los valores de intensidad y realizando el análisis de segmentación usando una ventana fija y cursor móvil en toda la longitud de la ventana.

-Método 3: suponiendo una distribución de Rayleigh para el módulo de amplitud del campo, aproximando las distribuciones a comparar por el método del Kernel de densidad y realizando el análisis de segmentación usando una ventana móvil (de longitud fija) y cursor en el centro de la ventana.

II. MÉTODO DE SEGMENTACIÓN

La divergencia de Jensen Shannon (DJS) es una medida de distancia entre distribuciones de probabilidad. Así, dadas dos distribuciones de probabilidad, P1 y P2 la DJS, denotada como D [P1, P2] , se define como11,12:

donde π1 y π2 son cantidades denominadas pesos y deben cumplir que π1 + π2= 1. Mientras que H [P1] es la entropía de Gibbs Shannon de la distribución P1 que para el caso continuo está definida como 13:

Sea una secuencia S de n números reales {νi }, la que se supone formada por dos (o más) subsecuencias homogéneas que constan de ni elementos cada una (Σ ni = n ) que tienen asociadas diferentes distribuciones de probabilidad (no necesariamente conocidas). Se pretende determinar el o los puntos de segmentación, esto es los lugares en donde se produce el cambio de sub-secuencia ( i.e. los valores de ni ) a partir de l a secuencia misma.

El método de segmentación que se propone consiste en elegir una ventana de longitud nν perteneciente a la señal a analizar, la cual se divide en dos sub-secuencias (segmentos) de longitudes l1 y l2 arbitrarias (l1 + l2 = nν) y se consideran los pesos , para luego calcular la DJS entre las distribuciones de probabilidad asociadas a cada segmento. El punto entre las dos secuencias se denomina cursor. Se repite la operación variando la posición del cursor y se toma como punto de segmentación el que corresponda al máximo de la divergencia.

El análisis se puede realizar considerando una ventana de longitud fija (de máxima longitud la correspondiente a la secuencia que se analiza) y desplazando el cursor sobre todos los valores que componen la ventana. También se puede considerar una ventana de longitud fija y menor a la de la secuencia que se analiza, con el cursor en su punto medio y que se desplaza de tal manera que luego de algún número de pasos ha pasado por toda la secuencia que se está analizando.

Se consideran tres métodos de ensayo, correspondiente al análisis de una imagen línea por línea.Para realizar los cálculos se aproximan las distribuciones asociadas a cada secuencia mediante el Método del Kernel de densidad (método de ajuste no paramétrico); esto es, no se usa el conocimiento previo de la distribución a la que responden los valores de la secuencia.

Método 1: Se analizan secuencias generadas a partir de distribuciones Gamma de orden 1 (exponencial). En este caso el punto de segmentación se determina por el método de ventana móvil (ver Figura 1). Los segmentos a comparar se definen a partir de una ventana móvil en cuyo punto central se ubica el cursor; a cada lado del mismo se toman igual cantidad de elementos, los cuales definen los segmentos a comparar. Se calcula la media correspondiente a cada segmento y se calcula la DJS; el cálculo de la entropía se realiza mediante integración numérica. La ventana se desplaza a lo largo de toda la secuencia; la posición en la que el valor de DJS es máximo se considera punto de segmentación. Dado que las sub-secuencias en comparación tienen igual número de elementos, los pesos son:


Figura 1: Método de segmentación con ventana móvil: se define una ventana sobre la secuencia a analizar abarcando 2l elementos. La ventana se desplaza por la secuencia evaluando como punto de segmentación el punto medio de la ventana.

Método 2: Se analizan secuencias generadas a partir de distribuciones Gamma de orden 1. En este caso el punto de segmentación se determina por el método de ventana fija (ver Figura 2). Se considera una ventana fija de una determinada longitud, en la cual se ubica un cursor. Los segmentos a comparar son los formados por los elementos que se encuentran dentro de la ventana y a cada uno de los lados del cursor. Este último se desplaza a lo largo de la ventana. En este casoel número de elementos en cada segmento es variable, se usan los pesos . La DJS se calcula evaluando numéricamente la entropía, para esto se usa la expresión matemática de la distribución, considerada conocida. Como punto de segmentación se elige aquel para el cual la DJS toma el valor máximo.


Figura 2: Método de segmentación con ventana fija: se considera el total de la secuencia y se desplaza un cursor por la misma. Se evalúa la DJS para cada posición del cursor.

Método 3: Se analizan secuencias generadas a partir de distribuciones de Rayleigh. En este caso el punto de segmentación se determinó por el método de la ventana móvil (ver Figura 1). Esta distribución está asociada al modulo de la amplitud de la señal, cuya intensidad tiene una distribución exponencial. Las integrales del cálculo de entropía se evalúan mediante el método de Monte Carlo. Como en el Método 1 los pesos a usar son:

III. RESULTADOS

Cada uno de los métodos de segmentación propuestos se evaluó analizando 200 secuencias generadas mediante el método de Monte Carlo. Cada una de las secuencias usadas está conformada por dos sub-secuencias (dos segmentos), una de 1500 elementos y otra de 500 elementos respectivamente (2000 en total).

Para evaluar el desempeño de los Métodos 1 y 2, las primeras sub-secuencias (1500 elementos) se generaron de manera que se correspondieran con una distribución exponencial (Gamma de orden 1) y que tuvieran un valor medio asociado igual a 1. Las segundas sub-secuencias (500 elementos) también se correspondían con una distribución exponencial pero se generaron con valores medios iguales a 2, a 5 y a 10.

En tanto que, para evaluar el desempeño del Método 3, las primeras sub-secuencias (1500 elementos) se generaron de manera que respondieran a una distribución de Rayleigh y que tuvieran un valor medio asociado igual a 1. Las segundas sub-secuencias (500 elementos) también respondían a una distribución Rayleigh pero con valores medios iguales a 2, a 5 y a 10.

Método 1 A los fines de evaluar el efecto del número de elementos que integraban la ventana se usaron ventanas de diferentes largos, se encontró que aun reduciendo el número de elementos en la ventana hasta 50 (25 en cada segmento) los resultados no varían significativamente. En la Figura3 se muestran los resultados obtenidos usando una ventana de 500 elementos. En los gráficos de la columna izquierda se presenta la ubicación de la posición del punto de segmentación para cada secuencia en tanto que en los gráficos de la columna derecha se presentan las distribuciones de los valores obtenidos. El análisis se realizó para diferentes relaciones entre los valores medios μi de las subsecuencias. En esta comparación hemos recurrido a las secuencias con una relación de valores medios


Figura 3: Método 1: ventana de 500elementos, relación de valores medios

 

Método 2 En este caso se consideró una ventana de longitud fija igual al número de elementos de las secuencias usadas en la evaluación (2000), en la cual se desplazó el cursor. Los resultados obtenidos se muestran en la Figura 4. También se trabajó para diferentes relaciones entre los valores medios correspondientes a los segmentos, esto es:


Figura 4: Método 2. En los gráficos se muestra la posición del punto de segmentación y la distribución de valores. Relaciones entre los valores medios:

Método 3 En este caso se usaron ventanas con la misma cantidad de elementos que las utilizadas cuando se evaluó el Método 1 y se observó que el largo de la ventana (número de elementos), no afecta a los resultados en forma significativa. En la Figura 5 se presentan los resultados. A los fines de establecer la comparación con los otros métodos, se consideraron las secuencias con una relación de valores medios μ2 /μ1= 10. Como se puede apreciar en este caso se obtuvo una mejor determinación de la posición del borde en cada secuencia, también se puede observar que la distribución de valores resulta más simétrica alrededor del máximo detectado.

Figura 5: Método 3. Posición del punto de segmentación. Distribución de valores.

IV. DISCUSION

De las Figuras 1, 2 y 3, se desprende que los tres métodos permiten identificar cualitativamente la posición del punto de segmentación. Con los métodos basados en ventana móvil se obtuvieron resultados más precisos. En particular con el Método 3 se obtuvieron los mejores resultados. Por otro lado, se puede observar en las Figuras 1, 2 y 3, que el valor del punto de segmentación obtenido fluctúa alrededor de 1500, estas fluctuaciones se corresponden con las fluctuaciones propias de las secuencias aleatorias generadas para realizar la evaluación de los métodos. De las Figuras se desprende que el Método 2 es el más sensible a estas fluctuaciones.

Se ha verificado además que reducir el tamaño de ventana hasta sólo considerar 50 elementos no produce una pérdida apreciable de la definición con la que se localiza el punto de segmentación.

En la Figura 6 se presentan los valores de DJS calculados mediante los tres métodos, en las distintas posiciones del cursor, para una de las secuencias generadas para realizar la evaluación. Como se puede observar, el máximo (punto de segmentación) en cada una de las curvas no se alcanza de la misma manera. Esto es, la convexidad de cada una de las curvas es notablemente diferente. En el caso de la correspondiente al Método 3 se puede ver que se trata de un "pico agudo", mientras que la curva correspondiente al Método 1 tiene un pico mucho más ancho. Pero en ambos casos hay un valor máximo bien determinado, por pendientes de aproximación, a ambos, relativamente altas y notablemente diferentes. En el caso del Método 2, el máximo tiene asociadas pendientes menores por lo que se dificulta su localización; en particular para la secuencia considerada el valor máximo de la DJS no coincide con la posición del punto de segmentación.

Los resultados que se muestran en la Figura 6 indican que el método basado en los valores de amplitud (Método 3) resulta más preciso y que determina con mejor definición el punto de segmentación.


Figura 6: Comparación de los métodos. DJS correspondiente a una de las secuencias utilizadas.

IV. CONCLUSIONES

En este trabajo se ha analizado la detección de bordes mediante la técnica de segmentación usando la DJS. Se han ensayado tres métodos de análisis, dos que involucran la intensidad de la señal y un tercero que usa las amplitudes de la señal. En dos de estos métodos se calculó la DJS utilizando una ventana móvil y en otro un cursor móvil. A partir de los resultados obtenidos con las secuencias generadas se puede concluir que el método 3, análisis de la secuencia correspondiente a la amplitud de la señal, es el que arroja mejores resultados. Los métodos 1 y 3 se han mostrado robustos en lo que respecta al comportamiento cuando se redujo el número de elementos considerados en las ventanas.

En la continuidad del trabajo hasta aquí desarrollado proponemos el análisis de imágenes SAR y la detección de bordes por el método 3.

Agradecimientos

Los autores agradecen a SCyT - UTN y a SeCyT - UNC el apoyo brindado a través de subsidios de investigación.

V. REFERENCIAS

1 - Yu Li, Sandro Martinis, Simon Plank, Ralf Ludwig, " An automatic change detection approach for rapid flood mapping in Sentinel-1 SAR data", Int J Appl Earth Obs Geoinformation 73, 123-135 (2018).         [ Links ]

2 - Ridha Touzi, Armand Lopes and Pierre Bousquet, "A Statistical and Geometrical Edge Detector for SAR Images", IEEE Transaction on Geoscience and Remote Sensing, 26, 6, 764-773 (1988).         [ Links ]

3 -Kussul, Nataliia & Shelestov, Andrey & Skakun, Sergii. "Flood Monitoring from SAR Data". 10.1007/978-90- 481-9618-0_3. (2011).         [ Links ]

4 - Xie, Tao & Zhao, Li & Perrie , W. & Fang, He. "The seaice detection capability of synthetic aperture radar". Satellite Oceanography and Meteorology. 2. 10.18063/som.v2i2.261. (2017).         [ Links ]

5- Y. Xiang, F. Wang, L. Wan and H. You, "SAR-PC: Edge detection in SAR images via an Advanced Phase Congruency Model". Remote Sens. 9 doi:10.3390/rs9030209. (2017).         [ Links ]

6 - O. H. Bustos, A. G. Flesia and A. C. Frery, "Generalized Method for Sampling Spatially Correlated Heterogeneous Speckled Imagery EURASIP". Journal on Applied Signal Processing 2 pp. 8999. (2001).         [ Links ]

7 - Oliver C. and S. Quegan, "Understanding Synthetic Aperture Radar Images", Artech House (1998).         [ Links ]

8 - Tur M., K.C. Chin and J. W. Goodman, "When is speckle noise multiplicative?", Applied Optic, 21, 1157-1159 (1988).         [ Links ]

9 - Bujor F., E. Trouvè, L. Valet, J. Nicolas and J. Rudant, "Application of log-cumulants to the detection of spatiotemporal discontinuities in multitemporal SAR images", IEEE Trans. Geosci. Remote Sensing. 42, 10, 2073-2084 (2004).         [ Links ]

10 - Wen Yang, Member, IEEE, Hui Song, Xiaojing Huang, Xin Xu, and Mingsheng Liao, "Change Detection in High- Resolution SAR Images Based on Jensen-Shannon Divergence and Hierarchical Markov Model", IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 7, 8, 3318-3327 (2014).         [ Links ]

11 - J. Lin, "Divergence measures based on the Shannon entropy", IEEE Trans. Inform. Theory. 37, 145-151 (1991).         [ Links ]

12 - J. Burbea and C. R. Rao, "On the convexity of some divergence measures based on entropy functions", IEEE Trans. Inform. Theory. 28, 489-495 (1982).         [ Links ]

13 - Papoulis, A., "Probability, Random Variables, and Stochastic Processes", McGraw-Hill, Inc. Third Edition (1991).         [ Links ]

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons