SciELO - Scientific Electronic Library Online

 
vol.35 número2Análisis de la precipitación en la llanura chaqueña argentina y su relación con el comportamiento de la circulación atmosférica y las temperaturas de la superficie del mar índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Meteorologica

versión On-line ISSN 1850-468X

Meteorologica vol.35 no.2 Ciudad Autónoma de Buenos Aires jul./dic. 2010

 

ARTÍCULOS ORIGINALES

Calibración de los pronósticos probabilísticos de precipitación derivados de un ensamble multi-modelo utilizando diferentes metodologias

Soledad Cardazzo1, Juan Ruiz 1,2 y Celeste Saulo 1,2

1Centro de Investigaciones del Mar y la Atmósfera (CONICET/UBA)
2Departamento de Ciencias de la Atmósfera y los Océanos, Facultad de Ciencias Exactas y Naturales, UBA. Buenos Aires, Argentina

Dirección electrónica: soledadcardazzo@gmail.com

Manuscrito recibido el 19 de abril de 2010, en su versión final el 25 de octubre de 2010

RESUMEN

El pronóstico probabilístico constituye una de las alternativas para incorporar la incertidumbre asociada a los pronósticos. En particular, cuando se utilizan ensambles para obtener pronósticos probabilísticos de precipitación (PPP), los mismos deben ser calibrados de forma tal de corregir el efecto de los errores sistemáticos de los modelos que componen el ensamble y la imperfección del ensamble para representar la evolución de los errores durante el plazo de pronóstico. En este trabajo se generaron, calibraron y verificaron pronósticos probabilísticos de precipitación derivados del sistema de Super- Ensamble de Modelos (SMES) desarrollado en la Universidad de San Pablo, sobre una sub-región de Sudamérica. Se evaluó el desempeño de diferentes metodologías para la calibración, incluyendo una calibración basada en el promedio Bayesiano que permite incorporar los errores sistemáticos de cada uno de los miembros del ensamble por separado. Los resultados muestran que las diferentes técnicas implementadas permitieron mejorar la calidad del pronóstico probabilístico, no obstante la técnica más sencilla basada en la calibración de la media del ensamble fue la que mostró los mejores resultados. Por otra parte, se evaluó la variación de la calidad del pronóstico a lo largo del año, observándose una significativa mejoría de los índices durante la época invernal. Durante esta misma época, las diferencias entre el pronóstico no calibrado y el calibrado son menores que durante los meses de verano en donde la calibración tiene un impacto mayor.

Palabras clave: Ensamble; Pronóstico probabilístico de precipitación; Calibración de pronósticos.

Probabilistic quantitative precipitation forecasts calibration using different techniques applied to a multi model ensemble

ABSTRACT

Probabilistic forecasts constitute a way to introduce the uncertainty in climate-weather forecasts. When probabilistic quantitative precipitation forecasts are derived from dynamically generated ensembles, a statistical post-processing or calibration should be done in order to improve forecasts reliability. The lack of forecast reliability is mainly due to systematic errors associated with each different ensemble member and from errors in the ensemble formulation. In this work, probabilistic forecasts derived from the University of San Pablo Multi Model ensemble system have been calibrated and verified. Several calibration strategies have been implemented and tested, including some that take into account systematic errors associated with individual ensemble members, as the Bayesian Model Averaging technique (BMA). Results show that all the calibration strategies improve forecasts reliability. However, the simpler approach based on the ensemble mean shows, in general, the best results. An annual cycle has been found in PQPF skill over the region with higher skill scores during winter. During this same time of the year the impact of the PQPF calibration was smaller than in summer.

Key words: Ensemble; Probabilistic precipitation forecast; Forecast calibration.

1. INTRODUCCIÓN

El trabajo pionero que discute el carácter caótico de la atmósfera, y la incertidumbre en los pronósticos asociada a la simulación numérica de la misma es el de Lorenz (1963). Trabajos posteriores, muestran que esta incertidumbre aumenta a medida que se busca realizar pronósticos con mayor antelación y depende además del estado del flujo.

Epstein (1969) introdujo la idea del pronóstico estocástico-dinámico, en donde, a partir de un conjunto (o ensamble) de condiciones iniciales ligeramente diferentes se intenta determinar algunas propiedades de la función de distribución de probabilidad de los posibles estados futuros de la atmósfera. Es importante notar que el conocimiento preciso de la forma de la distribución de los posibles estados futuros de la atmósfera esta fuera del alcance de las capacidades computacionales actuales, dada la gran cantidad de grados de libertad que posee el sistema. La hipótesis fundamental subyacente en el pronóstico estocástico-dinámico es que si las perturbaciones iniciales (es decir las diferencias entre las condiciones iniciales de los diferentes miembros que componen el ensamble) se definen adecuadamente, y el modelo es perfecto, las propiedades estadísticas del conjunto se asemejan a las propiedades estadísticas de la verdadera función de distribución de los estados futuros de la atmósfera. Diferentes autores propusieron distintos métodos para la obtención de condiciones iniciales óptimas que pudieran representar lo más adecuadamente posible la evolución temporal de las propiedades de la función de distribución de eventos futuros a medida que se incrementaba el plazo de pronóstico. Entre los más utilizados se encuentran el método de los vectores singulares (Molteni y otros 1996), el método de los vectores criados (Toth y Kalnay 1997), y, más recientemente, se han desarrollado técnicas que combinan el pronóstico por ensambles y la asimilación de datos, como el filtro de Kalman por ensambles (Evensen 1994).

No obstante, las perturbaciones de las condiciones iniciales solo representan una parte de los errores presentes en los pronósticos, por lo que además de considerar los errores presentes en la condición inicial, es necesario considerar los errores del modelo. Estos últimos, pueden estar vinculados con los métodos de discretización espacial y temporal de las ecuaciones, con la representación de fenómenos de menor escala (parametrizaciones), entre otros. Siguiendo con la idea de Epstein (1969) y Leith (1974), estos errores pueden también abordarse mediante la generación de conjuntos de pronósticos utilizando, por ejemplo, perturbaciones en las parametrizaciones de los diferentes miembros, o utilizando distintas versiones de un mismo modelo o diversos modelos como miembros del conjunto (Krishnamurty y otros 1999). Cuando se combinan diferentes modelos dentro de un mismo ensamble, se habla de un ensamble multi-modelo.

Consecuentemente, los pronósticos por ensambles permiten obtener información sobre la incertidumbre de los mismos. Una forma de cuantificar dicha incertidumbre, es la utilización de pronósticos probabilísticos en donde a un evento determinado se le asigna una cierta probabilidad de ocurrencia a diferentes plazos de pronóstico en base a la información provista por el ensamble. La ventaja de los pronósticos probabilísticos es que pueden adecuarse a las necesidades de los distintos usuarios, produciendo un aumento significativo del valor de la información meteorológica (Zhu y otros 2002).

Para explotar las ventajas antes mencionadas es necesario que los pronósticos probabilísticos sean confiables, es decir que las probabilidades pronosticadas sean cercanas a las frecuencias observadas. Hamill y Colucci 1998 (de aquí en adelante HC98), demostraron que la información provista por un ensamble dinámico no era suficiente para generar pronósticos probabilísticos confiables, debido a que estos eran afectados por los errores sistemáticos de el/los modelos que componían el ensamble y de las falencias de los mismos en capturar el crecimiento de los errores en el pronóstico. Así surgieron numerosos métodos para mejorar la confiabilidad de los pronósticos probabilísticos derivados de ensambles dinámicos, que se basan en un estudio estadístico de los errores obtenidos a partir de la diferencia entre pronósticos y observaciones anteriores. Inicialmente se emplearon métodos que consideraban que todos los miembros de un ensamble son equiprobables (i.e. HC98, Gallus y Seagal 2004, entre otros). Esta suposición es adecuada para ensambles compuestos por un solo modelo, pero puede estar muy alejada de la realidad cuando se utilizan ensambles multimodelo en donde los errores sistemáticos de los diferentes miembros que componen el ensamble son diferentes y por ende podría haber diferencias importantes en el desempeño de cada uno.

Sloughter y otros (2007, de aquí en más S07) proponen un método que permite tener en cuenta los errores sistemáticos de cada miembro del ensamble en forma individual y proveen además una forma óptima para combinar las probabilidades derivadas a partir de cada uno de los miembros del ensamble.

El objetivo principal de este trabajo es determinar el impacto que tiene el incluir información sobre el desempeño individual de cada miembro en la calidad del pronóstico probabilístico de precipitación derivado de un ensamble multimodelo. En tal sentido, constituye un avance sobre el trabajo de Ruiz y otros (2009) donde se trabaja con pronósticos probabilísticos calibrados considerando a todos los miembros del ensamble como equiprobables. Por otra parte en el presente trabajo se estudian 2 años de datos, con el fin de analizar las variaciones que sufren la calidad de los pronósticos en las diferentes épocas del año para nuestra región, lo cual también constituye un aporte adicional al efectuado en estudios previos, en que sólo se estudia la estación estival.

2. DATOS Y METODOLOGIA

En el presente trabajo se comparan los PPP (Pronósticos Probabilísticos de Precipitación) obtenidos a partir de diferentes metodologías aplicadas al ensamble multi-modelo de la Universidad de San Pablo (SMES, Silva Dias y otros 2006). Este ensamble está compuesto por los modelos que se corren en forma operativa sobre la región de Sudamérica (Figura 1) e incluye desde modelos globales hasta modelos regionales de alta resolución. Estos modelos están interpolados a los puntos de estaciones que se muestran en la figura 1 (para mas información ver Silva Dias y otros 2006). En particular para la calibración de los pronósticos probabilísticos de lluvia, se requiere contar con una cierta cantidad de pares pronósticoobservación correspondientes a los días previos al pronóstico que se desea calibrar. Es por eso que del número total de modelos que componen el SMES se seleccionaron sólo aquellos que abarcan la totalidad del dominio que se muestra en la Figura 1, que es donde se realizó la calibración y verificación de los pronósticos probabilísticos. De esta forma se cubre una mayor cantidad de puntos de información de precipitación y se cuenta con una mayor cantidad de datos disponibles para la calibración y posterior verificación de los pronósticos. Además, para la selección de los modelos se tuvo en cuenta que los mismos estuvieran disponibles a lo largo del período de análisis tomado, de forma tal de que no hubiera algún modelo faltante durante todo el período de experimentación. Es importante mencionar que por motivos de comunicación o por problemas técnicos de origen, en muchas oportunidades alguno/s de los modelo/s no están disponibles. En este caso, el tamaño del ensamble se adecua a la nueva situación, es decir que no todos los días el ensamble están compuestos exactamente por la misma cantidad de miembros y la calibración se efectúa teniendo en cuenta solamente los miembros disponibles (ver Figura 2). No obstante se impuso un mínimo de 10 miembros como condición indispensable para poder realizar la calibración de los pronósticos. La Tabla I resume los modelos que componen el subconjunto del SMES utilizado en el presente trabajo.


Figura 1:
Región de estudio y estaciones sinópticas empleadas para la calibración y verificación.


Figura 2:
Cantidad de miembros disponibles para cada día a lo largo del período utilizado.

Tabla I: Modelos que componen el subconjunto del SMES seleccionado y la resolución horizontal de cada uno.

*La resolución indicada es aproximada.

Algunos modelos tienen pronósticos inicializados una vez al día y otros 2 veces al día (00 y 12 UTC).

En este último caso, los dos ciclos fueron considerados como 2 miembros independientes del ensamble, lo que sería semejante a implementar dentro del ensamble multi-modelo una técnica de tipo Lagged Averaged Forecast (ver Hou y otros 2001 para detalles sobre esa técnica de generación de ensambles).

Debe señalarse que la cantidad de puntos con observaciones es menor que la que efectivamente existe sobre la región de interés, considerándose solo las estaciones por encima de 40S y a la derecha de 70W. Trabajos previos (por ejemplo, Ruiz y otros 2009 o Ruiz y Saulo, 2010, enviado) emplean bases de datos mas completas, disponibles en tiempo diferido. En el presente trabajo se utilizaron diversas técnicas para la calibración de los pronósticos probabilísticos de lluvia. A continuación se describe muy brevemente la idea básica de cada una de ellas.

2.1 Métodos de calibración utilizados

En S07, mostraron que para un dado valor de precipitación pronosticada, la precipitación observada (siempre y cuando esta sea mayor que 0) ajusta bien a una distribución Gamma. Más aún, se puede encontrar una relación entre los parámetros de la distribución Gamma de las observaciones y el valor de la lluvia pronosticada. Esta relación en principio es modelo dependiente, es decir que cada modelo de acuerdo a sus errores sistemáticos y a su nivel de incertidumbre tendrá asociada una distribución de probabilidades observadas diferentes dado un cierto valor de precipitación pronosticado. Por otra parte, S07 describen la probabilidad de tener un cero en las observaciones dado un determinado valor de precipitación pronosticada a partir del ajuste de una regresión logística.

Este modelo, que vincula la precipitación pronosticada por un modelo con la probabilidad de ocurrencia de lluvia por encima de un umbral, se puede aplicar a cada miembro del ensamble en forma independiente. También puede ser aplicado a la media del ensamble tomando a esta como un pronóstico determinístico. S07 proponen un método óptimo para combinar los pronósticos individuales de cada miembro del ensamble llamado Promedio Bayesiano de Modelos (BMA por sus siglas en inglés). Este algoritmo busca incorporar a la estimación de la probabilidad de ocurrencia de un determinado evento, la incertidumbre asociada al modelo utilizado para la toma de decisión (en este caso a cada miembro del ensamble), y consiste en un promedio pesado de las probabilidades provistas por los diferentes miembros del ensamble, donde los pesos son la probabilidad de que ese modelo sea el más efectivo dado el desempeño previo de cada modelo para pronosticar el evento seleccionado.

Por otra parte, trabajos previos como HC98 ó Ruiz y otros 2009, mostraron que la media del ensamble tiene un gran potencial para generar pronósticos probabilísticos. La media del ensamble constituye por lo general un estimador que reduce la incertidumbre, es por eso que su desempeño es mejor al de considerar la probabilidad estimada a partir de cualquiera de los miembros por separado. A partir de estos antecedentes se proponen varias alternativas para la calibración de los pronósticos probabilísticos derivados de un ensamble multimodelo:

BMA: Promedio pesado de las probabilidades derivadas a partir del pronóstico de cada uno de los miembros del ensamble, asignando un peso que equivale a la probabilidad de que ese miembro sea el mejor. Dicha probabilidad se calcula utilizando el algoritmo de máxima probabilidad descrito en S07.

Promedio de probabilidades: Implementación del algoritmo BMA descrito en S07 pero asumiendo que todos los pesos son iguales. Es decir no se tiene en cuenta si alguno de los modelos utilizados es mejor que los demás. Esto equivale a promediar las probabilidades obtenidas a partir de aplicar el modelo estadístico que vincula precipitación pronosticada con probabilidad de ocurrencia a cada uno de los miembros del ensamble.

Media del ensamble: Antes de calcular la probabilidad se calcula la media del ensamble, luego se calcula el valor de probabilidad asociado al valor de la precipitación media pronosticada. (Es decir en lugar de promediar probabilidades se promedian valores de precipitación).

Media pesada del ensamble: Se calcula una media pesada del ensamble utilizando los mismos pesos del algoritmo BMA y luego se calcula la probabilidad a partir de esa media pesada.

Para construir el conjunto de calibración se utilizaron pronósticos y observaciones correspondientes a los 30 días previos a la fecha del pronóstico que se estaba calibrando. Asimismo, se constató que en cada caso la cantidad de pares pronóstico-observación disponibles durante esos 30 días previos no fuera inferior a 1000. El período en donde se realiza la verificación / calibración comienza el 1 de enero de 2007 y finaliza el 31 de diciembre de 2008. Los datos observacionales provienen de la red de estaciones del Global Telecomunication System (GTS) y en particular para Argentina corresponden a la red de estaciones del Servicio Meteorológico Nacional. Las observaciones consisten en datos de precipitación acumulada en 24 horas para unas 120 estaciones en el área de estudio (Fig. 1).

2.2. Verificación de los pronósticos probabilísticos

Para la verificación de los PPPs, se utiliza el índice de Brier (BR) (Murphy 1973) (Ecuación 1) que permite evaluar la calidad de un pronóstico probabilístico. Por otra parte el Brier Skill Score (BSS) permite comparar el valor de BR obtenido para un pronóstico contra el valor de BR correspondiente a la climatología (Ecuación 2), con lo cual da una idea de cuánta más información aporta el pronóstico respecto de una referencia (i.e. la climatología). El BSS, puede interpretarse como la distancia del pronóstico probabilístico del ensamble a un pronóstico probabilístico perfecto (i.e. aquél que pronostica una probabilidad de 100% cuando el fenómeno ocurre y de 0 cuando el fenómeno no ocurre).

(1)

(2)

A su vez, el BR puede ser descompuesto en 3 componentes: confiabilidad, resolución e incertidumbre (Murphy 1973). La confiabilidad se entiende como la cercanía entre el PPP y la frecuencia observada del fenómeno. Por ejemplo, un pronóstico probabilístico es confiable si al tomar todos los casos en los que la probabilidad pronosticada esta alrededor de cierto valor A, la frecuencia observada del fenómeno para ese mismo conjunto de situaciones es también cercana al dicho valor A. La resolución mide cuan eficiente es el pronóstico para distinguir la ocurrencia de la noocurrencia de un evento. En el presente trabajo, el cálculo de la descomposición del BR en sus componentes se realiza de acuerdo con Stephenson y otros 2008.

3. RESULTADOS

Para analizar los resultados obtenidos con las diferentes calibraciones se evaluó el desempeño de los diferentes PPP obtenidos en forma estacional, de forma tal que la interpretación sea lo más representativa de los cambios anuales. En primer lugar es interesante mostrar el desempeño de cada miembro del ensamble expresado a través del Equitable Threat Score (ETS) que mide la coincidencia entre las áreas de precipitación observadas y pronosticadas, de tal manera que un valor de 1 corresponde a un pronóstico perfecto y 0 indica que la coincidencia entre observaciones y pronósticos no es mayor a la que se daría por azar (es decir que el pronóstico no contiene ninguna información útil).

Por otro lado, se utilizó también el bias en frecuencia para medir las diferencias entre la frecuencia relativa con la que los pronósticos indican la ocurrencia de lluvias por encima de diferentes umbrales y la frecuencia con la que dichos fenómenos ocurren en las observaciones. Para este parámetro el valor ideal es 1, valores mayores indican sobreestimación de la frecuencia y menores una subestimación (una discusión de ambos parámetros se puede encontrar en: http://www.bom.gov.au/bmrc/wefor/staff/eee/verif/verif_web_page.html).

La Figura 3, muestra los ETS y los bias en frecuencia para los diferentes miembros del ensamble para el verano y el invierno, donde se puede apreciar que existe una gran dispersión en cuanto al desempeño de cada modelo. Esta es una diferencia fundamental con los ensambles basados en un único modelo, en donde el desempeño de cada uno de los miembros es aproximadamente igual (con excepción del control que en teoría debería tener un desempeño ligeramente superior al resto de los miembros). No obstante la presencia de miembros que muestran un desempeño significativamente inferior al resto del conjunto, se ha demostrado en estudios previos que aún la inclusión de estos miembros puede ayudar a mejorar la calidad de los pronósticos probabilísticos derivados del ensamble.


Figura 3:
ETS como función del umbral de precipitación para los diferentes miembros que componen el ensamble multi-modelo para el pronóstico a 24 horas para el verano (figura superior izquierda), y para el invierno (figura inferior izquierda). Bias en frecuencia para los diferentes miembros del ensamble para el pronóstico a 24 horas para el verano (figura superior derecha) y para el invierno (figura inferior derecha)

En cuanto al comportamiento en diferentes estaciones, se observa que la dispersión entre los miembros es mayor durante los meses del invierno sobre todo para el ETS. Para el bias se observa que la mayoría de los modelos tienden a sobreestimar los umbrales de precipitación bajos mientras que subestiman los umbrales de precipitación altos. Durante los meses de invierno se observa que algunos modelos sobreestiman la frecuencia de ocurrencia de valores de precipitación aún más que durante el verano.

La Figura 4, muestra el BSS calculado para el pronóstico calibrado utilizando los diferentes métodos propuestos, para las diferentes estaciones del año. En primer lugar, se observa para las diferentes metodologías un fuerte ciclo anual en la calidad de los pronósticos. Los valores máximos de BSS se dan durante el invierno indicando un mejor desempeño de los pronósticos probabilísticos durante esa época, incluyendo el PPP no calibrado. Esto probablemente se deba a las variaciones en la forma en la que se originan las precipitaciones en las diferentes épocas del año. Durante el verano predominan las precipitaciones de origen convectivo que tienen asociada una menor predictibilidad lo cual impacta negativamente sobre la calidad de los pronósticos de lluvia.

fig4
Figura 4:
BSS correspondientes a las diferentes calibraciones para las distintas estaciones del año: invierno (superior izquierda), primavera (superior derecha), verano (inferior izquierda), otoño (inferior derecha). BMA (círculos azules), promedio de las probabilidades asumiendo pesos iguales (línea azul punteada), PPP derivado de la media del ensamble (línea verde), PPP derivado de la media pesada del ensamble (triángulos verdes), PPP no calibrado (línea roja).

Es interesante destacar además que si bien los PPP calibrados son casi siempre superiores al pronóstico probabilístico sin calibrar a lo largo de todo el año, es durante el verano cuando las diferentes calibraciones tienen un mayor impacto positivo (es decir cuando el ensamble no puede representar adecuadamente la incertidumbre asociada a la ocurrencia o no de las precipitaciones por encima de un determinado umbral). Durante el invierno, se encuentra que para umbrales de entre 10 y 35 mm el PPP no calibrado incluso fue superior a las diferentes calibraciones.

Con respecto a las diferencias entre las distintas metodologías, la utilización de la media pesada del ensamble muestra un desempeño muy similar al de la media no pesada. Esto indica que considerar las diferencias en calidad de los diferentes miembros involucrados no produjo un impacto significativo en la calidad de los PPP utilizando este método. Si bien en invierno la media pesada presenta cierta ventaja con respecto a la no pesada para los umbrales más bajos, durante la primavera se observa el efecto opuesto.

El método BMA muestra un buen desempeño sobre todo para umbrales bajos durante los meses de invierno comparado con la media pesada. Por otra parte, este método dio mejores resultados que promediar las probabilidades directamente asumiendo que todos los miembros del ensamble son equi-probables. No obstante en la mayoría de los casos el PPP derivado a partir de la media del ensamble fue tan bueno o mejor que el método BMA con excepción de lo que ocurre en invierno para umbrales bajos donde el método BMA muestra una leve ventaja.

Es importante destacar que la mayoría de las diferencias que se muestran en la Figura 4 entre las calibraciones propuestas, obedece a diferencias en la componente de confiabilidad del BSS, mientras que en la resolución el comportamiento es similar para todos, incluyendo el pronóstico no calibrado (no se muestra la figura).

Para una región de dimensiones similares, pero ubicada al norte de los 20°S, la cual presenta un régimen de precipitación más tropical en donde la convección ocurre en forma generalizada y con un marcado ciclo diurno, se realizaron estos mismos cálculos. Se pudo observar nuevamente que los PPP calibrados siempre son superiores a los PPP sin calibrar a lo largo de casi todo el año. Sin embargo, durante el invierno, para umbrales de entre 10 y 40 mm el PPP no calibrado fue superior incluso a algunas calibraciones.

Sobre la región sur, los valores de BSS son mayores que sobre la región norte debido a la diferencia de los regimenes de precipitación descripta anteriormente.

Los valores máximos de BSS, a diferencia de la región sur, se dan durante las estaciones de transición (otoño y primavera), indicando un mejor desempeño de los pronósticos probabilísticos en esta época del año.

4. CONCLUSIONES

Para este trabajo, se emplearon dos años de pronósticos del SMES con el fin de probar diferentes algoritmos de calibración para la obtención de PPPs confiables. El principal objetivo de estos experimentos era explorar los posibles beneficios que tendría introducir información sobre los errores sistemáticos individuales de cada miembro del ensamble en la calibración.

Los resultados muestran que la inclusión de los errores sistemáticos individuales de cada modelo tiene un impacto muy reducido cuando se utiliza la media del ensamble para la generación de los PPP.

En cambio, si se utilizan algoritmos más sofisticados como el método BMA, el impacto es mayor, pero el resultado final en términos del BSS no es superior a lo que se obtiene utilizando la media del ensamble. Por otro lado es importante destacar que el método que involucra a la media del ensamble es más sencillo de implementar y puede ser utilizado con otras formas de expresar la relación entre precipitación pronosticada y probabilidad como por ejemplo la regresión logística.

Dado que algunos miembros exhibieron un desempeño muy inferior al conjunto (como se puede apreciar en los valores de ETS y bias) resta explorar si los métodos utilizados están detectando adecuadamente estas situaciones. Eventualmente, sería necesario explorar si retirando esos miembros del conjunto se pueden obtener mejores resultados. Algunos indicios de que este podría ser el efecto, se discuten en Hagedorn y otros 2010 (enviado).

El desempeño del PPP no calibrado muestra un importante ciclo anual, pero lo más destacable es que en los meses de invierno se acerca mucho más al desempeño de los PPP calibrados. Esto estaría sugiriendo no solo que el desempeño individual de los modelos es mejor durante esta época del año, sino que también el ensamble tiene una mayor capacidad para capturar las fuentes de incertidumbre presentes en el pronóstico.

En particular en este trabajo, se analizaron estas cuestiones aplicadas a un ensamble multi-modelo. En trabajos futuros se analizará cómo se comportan ensambles basados en la perturbación de las condiciones iniciales. También es de interés analizar cuál es el desempeño de esta herramienta en diferentes regiones de Sudamérica ya que en trabajos previos como Ruiz y otros (2009) se encontraron diferencias importantes en la calidad de los PPP sobre diferentes regiones. Por otra parte es necesario explorar si una regionalización de la calibración que le permita a la misma detectar errores sistemáticos más locales tendría un impacto positivo sobre la calidad de los PPP y si es posible determinar un criterio objetivo que permita delimitar las regiones que se utilizarán a tal efecto.

Entre los trabajos futuros, se incluye también la aplicación de estas técnicas a otras variables como la temperatura y el viento para analizar su desempeño sobre la región. Es importante mencionar que este trabajo ha contribuido a la confección de pronósticos probabilísticos de precipitación experimentales que se exhiben rutinariamente en la página web del Centro de Investigaciones del Mar y la Atmósfera (http://wrf.cima.fcen.uba.ar).

Agradecimientos: Los autores desean agradecer a Pedro Leite Silva Dias y a Demerval Soares Moreira por la cesión de los datos del SMES y por el apoyo recibido para la utilización de los mismos en los experimentos realizados. También se desea agradecer los comentarios de dos revisores anónimos que ayudaron a mejorar la calidad del presente trabajo. Este trabajo ha sido posible gracias a los siguientes proyectos GC06-085 de la NOAA/OGP/CPPA; ANPCyT PICT 2004 25269, UBACyT X204 y CONICET PIP 112-200801- 00399

REFERENCIAS

1. Epstein, E. S., 1969. Stochastic-dynamic prediction. Tellus, 21, 739-759.         [ Links ]

2. Evensen, G., 1994. Sequential data assimilation with a nonlinear quasi-geostrophic model using Monte Carlo methods to forecast error statistics, J. Geophys. Res., 99, 143-162.         [ Links ]

3. Gallus, W. A., and M. Segal, 2004: Does Increased Predicted Warm-Season Rainfall Indicate Enhanced Likelihood of Rain Occurrence? Weather and Forecasting, 19, 1127- 1135.         [ Links ]

4. Hamill, T. and S. J. Colucci, 1998: Evaluation of Eta-RSME Ensemble Probabilistic Precipitation Forecast. Monthly Weather Review., 126, 711- 724.         [ Links ]

5. Hou, D., E. Kalnay, and K. K. Droegemeier, 2001. Objective Verification of the SAMEX`98 Ensemble Forecast. Monthly Weather Review, 129, 73-91.         [ Links ]

6. Krishnamurti, T. N., C. M. Kshtawal, T. E. LaRow, D. R. Bachiochi, Z. Zhang, C. E. Willford, S. Gadgil, and S. Surendran, 1999. Improved weather and seasonal climate forecast from multi model superensemble. Science, 285, 1548-1550.         [ Links ]

7. Leith C. E., 1974. Theoretical Skill of Monte Carlo Forecasts. Monthly Weather Review, 102, 409-418.         [ Links ]

8. Lorenz E. N., 1963. Deterministic Nonperiodic Flow. Journal of the Atmospheric Sciences, 20, 130-141.         [ Links ]

9. Molteni, F., R. Buizza, T. N. Palmer, and T. Petroliagis, 1996. The ECMWF Ensemble Prediction System: Methodology and validation. Quart, J. Roy. Meteor. Soc., 122, 73-119.         [ Links ]

10. Murphy A. H., 1973. A New Vector Partition of the Probability Score. Journal of Applied Meteorology, 12, 595-600.         [ Links ]

11. Ruiz, J. J., A. C. Saulo and E. Kalnay, 2009. Comparison of methods to generate probabilistic quantitative precipitation forecasts over South America. Weather and Forecasting, 24, 319-336.         [ Links ]

12. Silva Dias, P. L., D. Soares Moreira, and G. D. Neto, 2006. The MASTER Model Ensemble System (MSMES). Proceedings of 8 ICSHMO, Foz do Iguaçu, Brazil, April 24-28, INPE, p. 1751-1757.         [ Links ]

13. Sloughter J., J., A. Raftery, T. Gneiting, and C. Fraley, 2007. Probabilistic Quantitative Precipitation Forecasting Using Bayesian Model Averaging. Monthly Weather Review, 135, 3209- 3220.         [ Links ]

14. Stephenson D. B., C. A. Coelho and I. T Jolliffe, 2008. Two Extra Components in the Brier Score Decomposition. Weather and Forecasting, 23, 752-757.         [ Links ]

15. Toth, Z., and E. Kalnay, 1997. Ensemble Forecasting at NCEP and the Breeding Method. Monthly Weather Review, 125, 3297-3319.         [ Links ]

16. Zhu Y., Z. Toth, R. Wobus, D. Richardson, and K. Mylne, 2002. The Econoimc Value of Ensemble- Based Weather Forecast. Bulletin of the American Metorological Society, 83, 73-83.         [ Links ]

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons