SciELO - Scientific Electronic Library Online

 
vol.33Estudios de exploración geoeléctrica sobre la Formación Marifil entre Puerto Madryn y Telsen (provincia de Chubut)Paleoambientes lacustres en la sección inferior de la Formación Río Negro, (Mioceno - Plioceno), Río Negro, Argentina índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • En proceso de indezaciónCitado por Google
  • No hay articulos similaresSimilares en SciELO
  • En proceso de indezaciónSimilares en Google

Bookmark


Geoacta

versión On-line ISSN 1852-7744

Geoacta v.33  Ciudad Autónoma de Buenos Aires ene./dic. 2008

 

ARTÍCULOS ORIGINALES

Aplicación de un método de interpolación en regiones costeras

Jorge O. Pierini1,2, Maximiliano G. Sassi2,3 y Gerardo M.E. Perillo2,4

1 Comisión de Investigaciones Científicas de la Provincia de Buenos Aires, Instituto Argentino de Oceanografía, CC 804 B8000FWB Bahía Blanca, Argentina. jpierini@criba.edu.ar
2 Departamento de Física, Universidad Nacional del Sur, Av. Alem 1253, (8000) Bahía Blanca, Argentina.
3 Consejo Nacional de Investigaciones Científicas y Técnicas, Instituto Argentino de Oceanografía, CC 804 B8000FWB Bahía Blanca, Argentina.
4 Departamento de Geología, Universidad Nacional del Sur, San Juan 670, B8000DIC Bahía Blanca, Argentina.

RESUMEN

La reconstrucción de los datos de campos heterogéneos no estacionarios obtenidos en campañas es un proceso que forma parte de los estudios costeros, por lo que es necesario implementar técnicas de interpolación que minimicen el error. En numerosas oportunidades, estas variables obtenidas en regiones costeras presentan falta de información espacial o temporal. Por otra parte, los valores obtenidos siempre están involucrados dentro de otros procesos, que involucran otras variables y parámetros. Estos resultados pueden ser utilizados para resolver sistemas de ecuaciones y pueden generar una propagación de errores significativos que se van acumulando con la resolución de los sistemas intervinientes. A partir de lo manifestado, el Análisis Objetivo es un procedimiento de interpolación basado en el mapeo de Gauss-Markov que puede dar respuesta a las necesidades presentes. Algunos autores lo han aplicado, entre otros, en campos meteorológicos y oceanográficos, además de ser una herramienta ampliamente utilizada para el análisis de datos de campo y en el diseño de arreglos observacionales. En este trabajo se propone analizar una implementación de la técnica de interpolación basada en el Análisis o Mapeo Objetivo aplicada a dos grupos de datos costeros de diferente índole espacial y temporalmente distribuidos. Los primeros fueron obtenidos en una planicie de marea y corresponden a mediciones de topografía utilizando un instrumento diseñado específicamente para realizar mediciones en zonas poco accesibles. El grupo de datos distribuidos en forma temporal se obtuvo mediante el empleo de un correntómetro acústico en un canal de marea a lo largo de un ciclo completo de marea. Los resultados se comparan con la solución obtenida con el método inverso de la distancia a través de la estimación de una curva de error. Esta curva se construye en base a la generación progresiva de huecos al azar hasta cubrir un 60% de los datos analizados. Posteriormente se reconstruyen los campos con los métodos propuestos graficando el error obtenido en función de la cantidad de huecos generados. Los resultados indican que las curvas de error para los dos grupos de datos obtenidas con el método basado en el Análisis Objetivo siempre son menores que con la inversa a la distancia. De las estimaciones obtenidas podemos inferir que el método basado en Análisis Objetivo representa mejor el comportamiento de los datos originales.

Palabras clave: Método de Interpolación; Análisis Objetivo; Regiones Costeras; Oceanografía.

ABSTRACT

Data reconstruction of non stationary heterogenic fields obtained at the study area is a process intrinsic in coastal studies, for that is necessary to implement interpolation techniques that minimize the involved error. In general, a measured variable in coastal regions presents gaps in spatial or temporal information. These variables are involved under other processes that evaluate other variables and parameters. The results could be used to solve system of equations that could propagate significative errors which can be accumulated at the intervenient systems. The Objective Analysis is an interpolation procedure based in the Gauss-Markov mapping that can provide answers to these needs. Some authors had applied this method in meteorological and oceanographic fields, besides that is a good data-analysis tool and a basis for the design of observational arrays. In this work we propose to analyze an implementation of this interpolation technique based in the Objective analysis (or mapping), applied to two datasets of a different character from coastal regions. The first dataset is a topographic measurement from a tidal marsh using an instrument specifically designed for this purpose. The other dataset, temporally distributed, are current measurements on a tidal channel during a complete tidal cycle. The results are compared with the solution obtained with the Inverse Distance method trough the estimation of an error curve. This curve is constructed based in the progressive generation of randomly distributed gaps until cover a 60% of the analyzed data. After that, the fields were reconstructed with the two methods plotting the error curve obtained as a function of gap number. The results suggest that the error curves for the two datasets using the Objective Analysis is always less than the Inverse Distance method. From the estimations we can infer that the Objective Analysis method represents in a better way the behavior of the original data.

Keywords: Interpolation Method; Objective Analysis; Coastal Regions; Oceanography.

INTRODUCCION

La reconstrucción de los datos obtenidos en el campo es un proceso que forma parte de los estudios costeros, por lo que es necesario implementar técnicas de interpolación que minimicen el error y sean reflejo de la variable medida. En numerosas oportunidades, estas variables medidas en el campo presentan falta de información espacial o temporal. Por otra parte, los campos obtenidos siempre están involucrados dentro de otros procesos, que evalúan otras variables y parámetros. Estos resultados muchas veces son utilizados para resolver sistemas de ecuaciones y pueden propagar errores significativos que se van acumulando con la resolución de los sistemas intervinientes.
El Análisis Objetivo (AO) es un procedimiento de interpolación basado en el "mapeo de Gauss-Markov", utilizando una técnica de estimación lineal basada en el suavizado de los campos variables. Las bases de la metodología fueron primeramente introducidas por Gandin (1963) con el llamado teorema de Gauss-Markov, aunque existen referencias anteriores aplicadas a la meteorología (Cressman, 1959). En oceanografía, los primeros en emplearla fueron Bretherton et al. (1976) y se ha convertido en una herramienta ampliamente utilizada para el análisis de datos de campo y el diseño de arreglos observacionales (Freeland y Gould, 1976; Bretherton y McWilliams, 1980; Roemmich, 1983). La técnica se ha utilizado combinada con funciones empíricas ortogonales (EOF) para estimar eficientemente el campo de temperatura a partir de perfiles de temperatura (Holbrook y Bindoff, 2000). También se ha empleado la técnica para generar campos de velocidades superficiales a partir de imágenes satelitales (Wilkin et al., 2002; LeTraon et al., 1999; Walker y Wilkin, 1998). Hay que destacar que los trabajos efectuados con esta herramienta siempre han sido en gran escala, no encontrándose aplicaciones en áreas costeras.
La metodología se basa en la función de covarianza calculada a partir del campo original, aunque también se puede suponer una función de covarianza ad hoc. El teorema de Gauss- Markov asegura que el suavizado sea óptimo en el sentido que minimiza el error cuadrático medio (ecm) de los parámetros estimados. Ello requiere que los campos variables en el tiempo sean estadísticamente estacionarios y homogéneos, y muchas veces, para simplificar el análisis que la función de covarianza sea isotrópica.
Como el estimador es lineal y consiste en una suma pesada de todas las observaciones dentro de un rango perteneciente a cada nodo de la grilla, el AO reproduce una versión suavizada del campo original y siempre va a tender a subestimar el valor original. Este procedimiento es fuertemente dependiente de las características de la función de covarianza y el tamaño en la vecindad de los puntos considerados para evaluarla (Emery y Thompson, 1998).
En este trabajo se propone analizar una implementación de la técnica de interpolación basada en el Análisis o Mapeo Objetivo (Emery y Thomson, 1998) aplicada a dos grupos de datos de diferente índole (topografía sobre una marisma y velocidad de las corrientes en un canal de mareas). Este resultado se compara con la solución mediante el método inverso de la distancia a través de la obtención de una curva de error.

METODOLOGIA

Marco Teórico
Se trata de construir una grilla de la variable escalar Z(x,t) a partir del grupo de datos medidos en el campo o calculado a partir de estos e irregularmente espaciado z(x,t) en las posiciones x y en tiempos t. Esto es, el grupo de datos z(x,t) puede consistir de mediciones de una variable en particular o de otras variables que están relacionadas en forma lineal con Z(x,t)

donde F es una función lineal y ε es el término de error, que tiene media igual a cero y no está correlacionado con las mediciones.
Para un instante de tiempo dado, se pueden escribir los estimados como la suma pesada de las mediciones

donde la barra implica valores medios, el tilde el valor interpolado, zi son los valores medidos, ci los coeficientes aún no especificados para cada observación y N la cantidad de observacìones. Los coeficientes se obtienen a partir de minimizar el error

Substituyendo

Si la media fue removida de los datos anteriormente, entonces . La ecuación (4) es minimizada cuando los coeficientes son tal que (Emery y Thompson, 1998)

Los coeficientes se obtienen calculando la matriz de covarianza y promediando sobre todos los posibles pares de datos tomados en puntos (xi , xj). La matriz de covarianza es

Haciendo lo mismo para los valores interpolados

donde xk son los puntos para los estimados .
Suponiendo que en la región de estudio los datos son estadísticamente homogéneos, estacionarios e isotrópicos, las anteriores expresiones se simplifican de manera tal que

donde es la matriz de covarianza y el término de error de la derecha implica que la estimación no es exacta, es más, este término de error debe ser especificado empíricamente a través de un ajuste de mínimos cuadrados de la función de covarianza a los datos. Cabe aclarar que si el error es muy grande, es decir, si los datos no aportan información a los estimados, luego los coeficientes son nulos y el campo estimado será el campo medio. De la misma manera, si los datos no contienen ningún error, el término de error tiende a cero y los valores estimados serán idénticos a los medidos en los puntos de medición, y el estimador interpolará entre observaciones (el método se llama entonces un interpolador exacto).
En el procedimiento está claro que el paso más importante es el cálculo de la matriz de covarianza. Si se tienen mediciones anteriores en el sitio de trabajo es posible emplearlos para obtener información de los estadísticos. Pero es importante recalcar que en oceanografía costera los campos generalmente no se mantienen estacionarios a lo largo del tiempo, es decir, los procesos que involucran son tales que los estadísticos pueden variar entre medición y medición. Por esto, es muy común adoptar una forma Gaussiana para la matriz de covarianza mediante un ajuste de mínimos cuadrados a los datos medidos (McIntosh, 1990; Emery y Thompson, 1998; Sokolov y Rintoul, 1999)
En el presente caso, la matriz de covarianza es supuesta como una función Gaussiana que depende de las coordenadas involucradas más un término de error constante, es decir

donde es la varianza, lx y ly son las longitudes de correlación (espaciamiento entre observaciones) para las dos variables tratadas y ε = 1/16 (Mariano & Brown, 1992).
En el método de inversa con la distancia (ID) los valores a interpolar se definen de la siguiente manera (Shepard, 1968)

donde Zj es el valor interpolado, zi los valores del campo en las posiciones xi, dij la distancia entre xi y la posición correspondiente a Zj, δ es un parámetro de suavizado, β la potencia de peso y N la cantidad de puntos correspondientes al radio de búsqueda. En nuestro caso el radio de búsqueda es el mismo que para el método OA e igual a toda la distribución de puntos (McIntosh, 1990). Se asume que δ = 0 y β = 1 (Sokolov y Rintoul, 1999). El esquema de resolución empleado para un punto cualquiera se presenta en la Figura 1.


Figura 1. Esquema del método de inversa de la distancia (ID). El valor Zj se calcula como la suma pesada de los valores correspondientes a las N posiciones dentro del radio de búsqueda (dij < di+1j para cualquier i).

Existe una gran variedad de métodos de interpolación descriptos en la literatura además de OA, el algoritmo de interpolación óptima multi-escala (Menemenlis et al., 1997), el método de interpolación por splines (McIntosh, 1990) y el método multicuadrático-biharmónico (Nuss y Titley, 1994) son algunos ejemplos. Mientras el ID no es suficientemente preciso como los anteriormente mencionados, una comparación de la habilidad de interpolación de ID con un método más preciso como el AO servirá de referencia para analizar el desempeño de ambos métodos (Sokolov y Rintoul, 1999).

Conjunto de Datos
Para mostrar la consistencia del método se estudiaron dos grupos de datos pertenecientes a observaciones de campo en regiones costeras del estuario de Bahía Blanca. Se emplearon perfiles de velocidad en un canal de marea obtenidos con un equipo FSI 2D ACM Falmouth (www.falmouth.com) y la topografía de un canal de marea en una marisma obtenido mediante la utilización de un puente para medición en zonas inaccesibles, cuya descripción puede encontrarse en Minkoff et al. (2007). Las características de las bases de datos empleadas en el análisis se presentan en la Tabla 1. El campo de velocidades de las corrientes es dependiente del tiempo y de la profundidad y, debido a la metodología utilizada, estos datos se encuentran distribuidos de manera no uniforme espacial y temporalmente. Los datos topográficos, cuya distribución espacial se debe necesariamente a las características del instrumental también se encuentran distribuidos no uniformemente.

Tabla I. Resumen de los dos grupos de datos utilizados para comprar los métodos de interpolación. Las posiciones espaciales x e y se expresan en metros, el tiempo t en horas y la profundidad normalizada η se calcula con la máxima profundidad medida para cada perfil.

Topografía. Las mediciones de topografía se han realizado con un aparato especialmente desarrollado para efectuar topografías en zonas inaccesibles (Minkoff et al., 2007). El conjunto de datos obtenidos se presenta en la Figura 2. Los puntos están tomados sobre un canal de mareas en una marisma donde la altura H es función de la posición x e y, todas medidas en metros (Minkoff et al., 2007). Si bien puede notarse una distribución bastante uniforme de los puntos en virtud del instrumental utilizado, puede haber casos donde las mediciones estén muy mal distribuidas, donde el campo reconstruido puede ser erróneo y no ser representativo del área de interés. La disposición del arreglo observacional en este caso es de fundamental importancia.


Figura 2. Registro original de mediciones de topografía en función de las coordenadas espaciales. Superpuestas se presentan las curvas de nivel obtenidas de la realización de la grilla inicial.

Corrientes. La metodología de medición consiste en bajar el correntómetro y tomar las mediciones durante dos minutos por nivel hasta completar la columna de agua. La cantidad de niveles y el tiempo que toman dependen del criterio del operador, pero debe ser tal que las velocidades medias sean representativas de ese nivel sin que el estado de marea cambie significativamente en el transcurso de la medición de todo el perfil (Ludwick, 1974). De esta manera se tiene un esquema quasi-sinóptico de medición de perfiles de velocidad que contiene faltantes de información (huecos) espacio-temporales, los cuales deben ser "llenados" de manera eficiente para obtener el campo de velocidades en función del tiempo y profundidad. En el registro original se aprecia la distribución no uniforme de los datos (Fig. 3).


Figura 3. Registro original de mediciones de corrientes en función del tiempo y la profundidad durante un ciclo de marea. Superpuestas se presentan las isovelas obtenidas de la realización de la grilla inicial. Se puede apreciar la no uniformidad tanto en tiempo y espacio.

Análisis
Para comparar los dos métodos se propuso efectuar curvas de error en función de la cantidad de huecos generados. Se generó un campo inicial con una resolución de grilla predeterminada para los datos analizados, tomándolo como campo inicial para las pruebas (McIntosh, 1990). Luego, se procedió a generar un hueco al azar y rellenar el valor por los dos métodos, se calculó el error y se generó otro hueco a partir del existente. De esta manera, se reconstruye el campo a partir de una falta de información cada vez mayor y la comparación del error dada por los huecos existentes. La generación de los huecos se realizó con una rutina que elige puntos al azar de una distribución uniforme. A partir del hueco generado se obtiene otro y así hasta completar un 60 % del total del campo.
Si los registros originales están dados por z = z(x,y), donde x e y son coordenadas espaciales o espacio-temporales y z representa el campo a reconstruir, los datos interpolados están representados por zI = zI (x,y), donde se mantiene la misma convención que antes, o sea, xI e yI representan la grilla de trabajo y zI los puntos de la grilla que aproximan el campo a reconstruir (tanto para el AO como el ID). Los puntos originales z se compararon con los valores obtenidos en las grillas dadas por los dos métodos mediante la utilización de un estimador del error basado en la diferencia entre el valor original y el interpolado pesado con la media de los puntos originales.

Para el cálculo del error se utilizó la expresión porcentual:

donde n es la cantidad de huecos generados, y el denominador representa la media de los datos originales. Este estimador está basado en el error porcentual relativo pesado a través de la media para lograr un suavizado en la curva del error. Para obtener una representación más rigurosa de la curva de error, se hicieron cien repeticiones del experimento debido a que la generación de huecos es al azar (McIntosh, 1990).

RESULTADOS Y DISCUSION

Topografía
La curva de error asociada al campo de topografía para los métodos de AO e ID con hasta un 60 % de huecos generados muestra que el método de AO reproduce un error menor en todo momento (Figura 4a). La pendiente de la curva de error es mayor hasta aproximadamente el 10 % y luego se vuelve más suave. El campo representado es suave con un gradiente importante en la zona del talud del canal por lo que el mayor error generado en las zonas donde se hallan gradientes fuertes se ven compensados con los menores errores generados en las zonas donde hay planicies.


Figura 4. Curva de error porcentual asociada a los grupos de datos de (a) topografía, y (b) velocidad para los métodos de AO (línea llena) e ID (línea punteada) en función del porcentaje de huecos generados al azar.

La falta de información, en este caso de hasta un 60 %, muestra que aún así se podrá reconstruir un campo suficientemente preciso. La reconstrucción del campo con los métodos ID e AO (Fig. 5a y b, respectivamente), con un 50 % de huecos generados, muestra que el AO reproduce un campo más consecuente con el original que el método de ID. Si bien la escala de error es similar la distribución difiere: mientras el método de ID tiende a cerrar la región que representa el canal generando un gradiente sobre el borde inferior, el AO la deja abierta. Esto sugiere que el AO representa de manera más eficiente la topografía a reconstruir. Ello también se desprende del mapa de errores donde se observa que el error generado en el borde es menor en AO (Fig. 5d) que en el método de ID (Fig. 5c).


Figura 5. Reconstrucción del campo de topografía con un 50 % de huecos generados utilizando el método: (a) ID y (b) AO. Error relativo cometido en la reconstrucción: (c) ID y (d) AO. En la representación gráfica no se incluyó el suavizado de los campos para no incluir los potenciales errores que este provoca.

Corrientes
El error asociado al AO es menor que para el método de ID en la reconstrucción de la distribución de velocidades (Figura 4b), aunque la forma de crecimiento de las curvas es distinta a los casos anteriores y la escala de error involucrada también es bastante menor. La diferencia entre la distribución de velocidades y el campo topográfico reside en que este tiene una dependencia espaciotemporal que hace que las características estadísticas sean completamente distintas al caso de la topografía. Los procesos involucrados en las dos coordenadas poseen escalas diferentes y, por lo tanto, las distancias de correlación y los pesos asignados pueden producir un error menor en la reconstrucción.
La reconstrucción realizada con el método ID cuando el faltante de información es de un 50 % (Fig. 6a) produce regiones aisladas de máximos de velocidad que nada tienen que ver con el campo original. Por otra parte, la reproducción realizada con el método AO es mucho mejor (Fig. 6b). En tal caso la estructura del error (Fig. 6d) muestra valores menores que el método ID (Fig. 6c). Se aprecia que el mayor error se encuentra concentrado en las zonas donde los gradientes son máximos en ambos métodos.


Figura 6. Reconstrucción del campo de velocidad con un 50 % de huecos generados utilizando el método: (a) ID, (b) AO. Error relativo cometido en la reconstrucción: (c) ID, (d) AO. En la representación gráfica no se incluyó el suavizado de los campos para no incluir los potenciales errores que este provoca.

CONCLUSIONES

En este trabajo se ha propuesto implementar dos métodos de interpolación aplicados a datos obtenidos en regiones costeras, donde las variaciones de los parámetros son mayores, y validar los resultados estableciendo la evolución de la curva de errores entre el dato medido y faltante. La idea básica ha sido implementar operacionalmente una técnica de interpolación que sea efectiva ante el rellenado de datos faltantes sin perder las características espaciales y temporales de los mismos. En tal sentido, el método AO construye un conjunto de funciones ortogonales que son determinadas por la distribución espacial de los datos, una vez que se obtienen estas funciones son empleadas para reconstruir los huecos, previamente generados al azar a los efectos de medir la calidad del dato reconstruido. Más aún, las inhomogeneidades o su comportamiento no isotrópico son automáticamente tomados en cuenta durante la interpolación.
El AO es comparado con un método de interpolación clásico (ID) donde se evidencia el incremento del error cuadrático medio al aumentar los datos a completar y al empleo de datos distribuidos en forma uniforme o no. Además, este esquema de interpolación debido a su estructura emplea una parte de los datos mientras que el AO contempla básicamente la historia de cada dato, pesado en forma espacio-temporal.
El método ha sido aplicado a dos conjuntos de datos marcadamente diferentes. Los resultados obtenidos, cuando se comparan con los datos reales, describen un muy buen acuerdo. Una comparación del error cuadrático medio indica que el AO presenta una distribución más suave del error en campos de datos distribuidos en forma no uniforme, ajustándose al aumento de información a rellenar. Por último, se indica que la técnica de AO es un método satisfactorio para analizar y extrapolar objetivamente datos oceanográficos medidos en regiones costeras.

REFERENCIAS

1. Bretherton, F.P. and J.C. Williams, 1980. Estimations from Irregular Arrays. Reviews of Geophysics and Space Physics, 18(4): 789-812.        [ Links ]

2. Bretherton, F. P., R.E. Davis, and C.B. Fandry, 1976. A technique for objective analysis and design of oceanographic experiments applied to MODE-73. Deep Sea Research and Oceanographic Abstracts 23(7): 559- 582.        [ Links ]

3. Cressman, G.P., 1959. An operational objective analysis system. Mon. Wea. Rev., 87:367-374.        [ Links ]

4. Emery, W.J. and Thomson, R.E., 1998. Data Analysis Methods in Physical Oceanography. Pergamon, Oxford, UK, 624 pp.        [ Links ]

5. Freeland, H.J. and W.J. Gould, 1976. Objective analysis of meso- scale ocean circulation features. Deep-sea Res. 23(10): 915-923.        [ Links ]

6. Gandin, L. S., 1963. Objective analysis of meteorological fields. Gidrometeor. Isdat., Leningrad. Israel Program for Scientific Translations, Jerusalem, 1965, 242 pp.        [ Links ]

7. Holbrook, N. J. and N.L. Bindoff, 2000. A statistically efficient mapping technique for four-dimensional ocean temperature data. Journal of Atmospheric and Oceanic Technologies, 17:831-846.        [ Links ]

8. Le Traon P.Y., G. Dibarboure, and N. Ducet, 1999. How many altimeters are needed to map the ocean mesoscale circulation? In: Smith NR, Koblinsky C (Eds.) TOPEX/Poseidon Scientific Working Team Meeting Abstracts, San Raphael, France, October 25-27.        [ Links ]

9. Ludwick, J.C., 1974. Tidal Currents and Zig-Zag Sand Shoals in a Wide Estuary Entrance. Geological Society of America Bulletin, 85:717-726.        [ Links ]

10. Mariano, A.J. and O.B. Brown, 1992. Efficient objective analysis of dynamically heterogeneous and nonstationary fields via the parameter matrix. Deep-Sea Res., 39(7/8): 1255-1271.        [ Links ]

11. McIntosh, P.C., 1990. Oceanographic data interpolation: objective analysis and splines. Journal of Geophysical Research, 95:13259-13541.        [ Links ]

12. Menemenlis, D., P. Fieguth, C. Wunsch, and A. Willsky, 1997. Adaption of a fast optimal interpolation algorithm to the mapping of oceanographic data. J. Geophys. Res., 102(C5): 10573-10584.        [ Links ]

13. Minkoff, D.R., G.M.E. Perillo, D.E. Perez, S.D. Maraschín & M.G. Sassi, 2007 POTOS: a portable topographic system for measuring inaccessible muddy creek areas Wetlands Ecology and Management, 15(2):135-140.        [ Links ]

14. Nuss, W.A., and D.W. Titley, 1994. Use of Multiquadric Interpolation for Meteorological Objective Analysis. Mon. Wea. Rev., 122:1611-1631.        [ Links ]

15. Roemmich, D., 1983. Optimal estimation of hydrographic station data and derived fields. Journal of Physical Oceanography, 13:1544-1549.        [ Links ]

16. Shepard, D., 1968. A two-dimensional interpolation function for irregularly-spaced data. Proceedings of the 1968 ACM National Conference: 517-524.        [ Links ]

17. Sokolov, S., y S.R. Rintoul, 1999. Some Remarks on Interpolation of Nonstationary Oceanographic Fields. J. Atmos. Oceanic Technol., 16:1434-1449.        [ Links ]

18. Walker, A.E. and J.L. Wilkin, 1998. Optimal averaging of NOAA/NASA Pathfinder satellite sea surface temperature data. Journal of Geophysical Research, 103:12869-12883.        [ Links ]

19. Wilkin, J. L., M.M. Bowen and W.J. Emery, 2002. Mapping mesoscale currents by optimal interpolation of satellite radiometer and altimeter data. Ocean Dynamics, 52:95-103.        [ Links ]