SciELO - Scientific Electronic Library Online

 
 número40Evaluación de técnicas de reducción de ruido en hablaEvaluación de la eficacia del método de Sofropedagogía Obstétrica mediante el dosaje de Beta-Endorfinas índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Ciencia, docencia y tecnología

versión On-line ISSN 1851-1716

Cienc. docencia tecnol.  no.40 Concepción del Uruguay mayo 2010

 

CIENCIAS EXACTAS Y NATURALES - INVESTIGACIÓN

Metaheurística FEPSO aplicada a problemas de Optimización Combinatoria: Balance de Fases en Sistemas de Distribución Eléctrica*

Metaheuristics FEPSO Applied to Combinatorial Optimization: Phase Balancing in Electric Distributions Systems*

Schweickardt, Gustavo**; Miranda, Vladimiro***

*Artículo derivado de una investigación realizada por los autores sobre la aplicación de técnicas de Soft Computing en problemas combinatorios en el campo de los Sistemas de Potencia, en el marco de un proyecto internacional, recibido en julio 2009, admitido en marzo 2010.
**) CONICET, Instituto de Economía Energética, Fundación Bariloche, Centro Atómico Bariloche (Bariloche, Argentina). E-mail: gustavoschweickardt@conicet.gov.ar
***) INESC Porto, Instituto de Engenharia de Sistemas e Computadores do Porto and FEUP, Faculdade de Engenharia da Universidade do Porto (Porto, Portugal). E-mail: vmiranda@inescporto.pt

Resumen: El presente trabajo propone una novedosa metaheurística orientada a la solución de problemas de Optimización Combinatoria, muy frecuentes en diversos campos del conocimiento científico. Se procura un aporte desde la Inteligencia Artificial al Diseño Óptimo de Sistemas, en los que las técnicas sustentadas en Programación Matemática Clásica no tienen éxito. La metaheurística, referida como FEPSO (Fuzzy Evolutionary Particle Swarm Optimization/Optimización Evolucionaria por Enjambre de Partículas), integra técnicas de Optimización Difusa, Inteligencia de Grupo y Estrategias Evolutivas, demostrando una excelente aptitud para dar con soluciones globales. Si bien el modelo propuesto es resultado de exhaustivas investigaciones, sus desarrollos son abordados con la finalidad de incorporarlos en ámbitos de discusión y enseñanza pertinentes, propiciando su difusión y críticas. Se presenta una solución para un problema no resuelto satisfactoriamente mediante métodos clásicos: la Optimización del Grado de Desbalance de Cargas en un Sistema Trifásico de Distribución Eléctrica en Baja Tensión.

Palabras clave: Investigación operativa; Metaheurística; Enjambre de partículas; Optimización; Conjuntos difusos

Abstract: This work presents a new metaheuristic oriented to solve Combinatorial Optimizations Problems, commonly observed in different scientific knowledge fields. It aims contribute, from the Artificial Intelligence, to Optimal Systems Design, where the techniques based on Classical Mathematical Programming are unsuccessful. The metaheuristic, called FEPSO (Fuzzy Evolutionary Particle Swarm Optimization), integrates techniques of Fuzzy Optimization, Swarm Intelligence and Evolution Strategies, demonstrating an excellent ability to find global solutions. While the proposed model is the result of extensive research, their developments are discussed with the aim of incorporating them into areas of discussion and relevant education, fostering its dissemination and critical. A solution for a problem of Phase Balancing of a Three-Phase Low Voltage Electric Distribution System, disscused in the state of art, is presented.

Key words: Operational research; Metaheuristic; Particle swarm; Optimization; Fuzzy sets Paper

I. Introducción

I.1. Concepto General de Optimización

En el lenguaje coloquial, optimizar significa más que mejorar. En el contexto científico, la optimización constituye un proceso que trata de encontrar la mejor solución posible para un determinado problema. El procedimiento que lleva a cabo la búsqueda es denominado programa. En un programa de optimización existen tres elementos sustanciales: a) Un conjunto de posibles soluciones o soluciones factibles, al cual se lo suele referir como espacio de búsqueda; b) Una estrategia de búsqueda, la cual suele ser formulada en términos generales, en cuyo caso se tiene un algoritmo, o particulares, en cuyo caso se habla de principio, dependiente, en su aplicación, del problema abordado, y c) un criterio para discriminar, de entre las soluciones factibles, cuáles son las mejores. Tal problema puede formularse del siguiente modo: encontrar el valor de ciertas variables de decisión para los que una determinada función objetivo (problema mono-objetivo) o un conjunto de funciones objetivo (problema multi-objetivo) alcanza su valor máximo o mínimo, según se pretenda. El valor de aquellas variables está sujeto, en general, a una serie de restricciones, cuya violación le confiere el carácter de no factible a una potencial solución, reduciéndose, de tal modo, el espacio de búsqueda. Ciertos tipos de problemas de optimización son relativamente fáciles de resolver; tal es el caso, de los denominados problemas lineales, en los que tanto la función objetivo (única) como las restricciones son expresiones lineales. Estos problemas pueden ser resueltos mediante métodos muy difundidos, constituyendo, por tanto, una referencia a la que toda formulación inicial de cualquier optimización intenta asimilarse. Esto es, todo problema de optimización (su función objetivo y restricciones) intenta linealizarse (cuanto menos, por tramos), a efectos de aplicar tales métodos. Sin embargo, la mayoría no son linealizables y, en general, resultan de muy dificultosa solución. La idea intuitiva del término "muy dificultosa solución" responde al concepto formal de problema NP-Hard, utilizado en el contexto de la complejidad algorítmica [1] [2] [3] y que se lo vincula aquí a la optimización combinatoria, que se describirá en el epígrafe I.2. La existencia de una gran cantidad y variedad de problemas de este tipo que requieren una solución eficiente, como ocurre en diferentes ramas de la ingeniería, motivó el desarrollo de procedimientos específicos para encontrar buenas soluciones, aunque las mismas no resultasen óptimas, sino satisfactorias. Estos procedimientos, en los cuales la rapidez de cálculo constituye un parámetro tan importante como la calidad de la solución obtenida, son referidos como heurísticas. Sobre esta idea, se sustentan los aportes propuestos en el presente trabajo.

I.2. La Optimización Combinatoria

Este tipo de problemas de optimización exhibe las siguientes características [4]:
a) El objetivo es encontrar el máximo/mínimo de una determinada función objetivo sobre un conjunto finito de soluciones, indicado como S.
b) Existe, sobre las variables de decisión de las que depende la función objetivo, un conjunto de restricciones, en general, que permiten identificar un subconjunto de S, Sf, que contiene las denominadas soluciones factibles. Según el contexto, S o Sf son referidos, alternativamente, como espacio de búsqueda.
c) No se exige ninguna condición o propiedad sobre la función objetivo o sobre la definición del conjunto S.
d) Como S es finito, las variables resultarán, en general, discretas, restringiendo su dominio a una serie finita de valores.
e) El número de elementos en S (Sf) es muy elevado, haciendo impracticable la evaluación de todas sus soluciones para determinar la óptima. Esto supone que pueda resultar más eficiente una búsqueda exhaustiva en el espacio de búsqueda, que la concepción de un algoritmo.
Estas características complejizan aún más la búsqueda de una solución, cuando se está frente a una optimización multi-objetivo.

II. Metaheurísticas

II.1. Método Heurístico

Es pertinente identificar, en forma previa al análisis del concepto de metaheurística, que significa una heurística.
La etimología del término heurística proviene de la palabra griega heuriskein que se traduce como encontrar. En el contexto del presente trabajo, es necesaria una definición, en tanto método heurístico. Más allá de las múltiples interpretaciones y de la vastísima bibliografía al respecto, se propone aquí la idea de método heurístico sugerida en [5]:

"Un método heurístico constituye un procedimiento para resolver un problema de optimización bien definido, mediante una aproximación intuitiva, en la que la estructura del problema se utiliza de forma inteligente para obtener una buena solución."

Desde la definición propuesta, se observa que el método está dirigido a un problema específico, del cual se conocen sus características (bien definido), al efecto de sacar provecho de ellas en la estrategia de búsqueda concebida. La pregunta que cabe hacerse es: ¿cómo poder aprovechar las similitudes que ciertos problemas de carácter combinatorio exhiben, cuando cierto método heurístico ha generado muy buenos resultados? Esta es la idea que subyace bajo el concepto de metaheurística.

II.2. Método o algoritmo metaheurístico

El término metaheurística deriva del complemento entre la palabra heuriskein y el prefijo meta, el cual se traduce como más alla de o en un nivel superior de. Fue introducido por primera vez por Fred Glover, al presentar el método (metaheurístico) denominado Tabu Search (Búsqueda Tabú) [6]. Sin embargo, existe una controversia respecto de si una metaheurística es diferente de una heurística, y varias fuentes pueden ser citadas en tal sentido. Según [7]:
1. Una metaheurística define un Marco de Referencia Algorítmico cuyo Enfoque puede ser especializado para Resolver Problemas de Optimización.
2. Una metaheurística constituye una Estrategia de Alto Nivel que Guía/Conduce Heurísticas en la Búsqueda de Soluciones Factibles.
Si se toma en consideración 1., se tiene un método heurístico, entendido como un marco de referencia algorítmico. En cambio, según 2., se observa una respuesta a la pregunta referida. Siguiendo esta línea, se adoptará la siguiente definición [8]:
Una Metaheurística se define como un proceso iterativo que guía una heurística subordinada, combinando diferentes conceptos para explorar y explotar las características que pueda exhibir el espacio de búsqueda.
Frecuentemente, al considerar la referencia al término proceso iterativo, se suele hablar de Algoritmo Metaheurístico. En el presente trabajo, se utilizarán de manera indistinta los términos Metaheurística, Algoritmo Metaheurístico o Método Metaheurístico.

III. El problema de optimización en el grado de desbalance de un sistema trifásico de distribución eléctrica en baja tensión

III.1. Identificación del problema

Un Sistema de Distribución de Energía Eléctrica (SDEE) Trifásico en Baja tensión (BT) está constituido por un conjunto de conductores (uno por fase) denominado Sistema de Alimentadores (SdA). Parte de Centros de Transformación de Media Tensión a Baja Tensión (CT MT/BT), en los que se emplazan uno o más transformadores, que presentan cierto número de salidas en BT. Dicho número aumenta con la potencia instalada. Desde cada salida (en un transformador para un CT tipo plataforma, de 315 [kVA], se tienen 4-6 salidas), parte un alimentador denominado principal, que, a su vez, tiene ramales en derivación, llamados secundarios (los cuales pueden tener derivaciones terciarias, y así siguiendo), conformándose una red independiente cuya topología de operación es radial (es decir que no existen mallas o caminos cerrados en esta red). Si bien el sistema es trifásico, las cargas (potencias o corrientes) conectadas en los diferentes nodos de los alimentadores primarios o sus derivaciones, resultan, en su mayoría, monofásicas. Esta situación es particularmente cierta en redes emplazadas en áreas residenciales de bajos ingresos, caso que será considerado en la simulación propuesta en este trabajo.
En un sistema trifásico, las magnitudes físicas se representan por medio de elementos denominados fasores, los cuales pueden ser interpretados como vectores que giran. Como son tres fases, la posición relativa de cada fasor en este giro, por caso, de 50 [ciclos/seg], se mantiene. Por tal razón, en un diagrama fasorial, se los representa estáticos. Los tres fasores solidarios a la magnitud que se trate (tensión o corrientes/intensidades), en operación normal, son simétricos: se encuentran desfasados 120° entre cada par contiguo.
Volviendo sobre el problema, tal situación de cargas predominantemente monofásicas le confiere al SdA un carácter, si bien simétrico, desbalanceado (módulos distintos). Esto significa que el sistema de SdA BT opera necesariamente con cierto grado de desbalance en sus tres fases. En la Figura 1A se presenta un sistema trifásico de corrientes (intensidades o cargas) simétrico balanceado (denominado perfecto) y en la Figura 1B se presenta un sistema simétrico desbalanceado. En la medida que tal desbalance exhiba un grado más pronunciado, se presentan, al menos, tres problemas relacionados con las pérdidas, la calidad del suministro y la confiabilidad del sistema:
a) Existe un aumento en las pérdidas técnicas (potencia y energía) del sistema. En segmentos urbanos/suburbanos, para SdA BT que utilizan 0.38 [kV] de tensión nominal de suministro, como el considerado en la simulación, el nivel de pérdidas técnicas de potencia se sitúa entre un 7 a 10%. El último valor se observa, mayormente, en zonas carenciadas, debido al tipo constructivo de red que se emplea (frecuentemente, conductores desnudos referidos como convencionales);
b) La calidad del producto técnico tensión de suministro, controlada por la autoridad regulatoria eléctrica, disminuye. La tolerancia en tensión para redes como las descritas en el ítem anterior está entre un 5% y un 10% respecto de la tensión de suministro nominal;
c) El desbalance de intensidades, para sistemas con neutro puesto a tierra, genera una corriente denominada de secuencia cero o componente homopolar, I[0] (suma de las intensidades de las tres fases, y que circulará por tierra) de un valor tal que puede accionar las protecciones contra cortocircuitos. Particularmente, frente a un cortocirtuito monofásico/fase a tierra (el más frecuente: un 80% de las fallas son de este tipo). En la Fig. 1A se observa que la suma fasorial (vectorial) de las intensidades es nula, mientras que en la Fig.1B no lo es, apareciendo tal componente homopolar. El sistema pierde así confiabilidad, puesto que las protecciones interpretan los fuertes desbalances como una señal de cortocircuito, interrumpiendo el servicio. Esto adquiere mayor relevancia en el subsistema de MT: las cargas para el mismo resultan ser los CT MT/BT (sin considerar los grandes usuarios en MT, que son pocos, relativamente). Los desbalances en BT se reflejan, entonces,"aguas arriba" (es decir, en el nivel de tensión superior) como cargas desbalanceadas en MT. En este subsistema, existen protecciones accionadas por componente homopolar mayor que cierto nivel de disparo, requiriéndose especial cuidado con su ajuste. Entonces, el problema de optimización en el grado de desbalance de fases (al que sintéticamente se lo referirá como problema de Balance de Fases), es definido como la búsqueda de aquella configuración de conexiones de las cargas a las fases [R, S, T] en el sistema, tal que propenda a evitar, en el mayor nivel posible, los inconvenientes descritos en a), b) y c). Como cada carga del sistema tiene tres opciones de conexión, considerando la caracterización presentada en I.2, se trata de un problema de optimización combinatoria, cuyo número de estados (NE) del espacio de búsqueda está dado, en rigor, por las variaciones con repetición de las 3 fases tomadas de a nC cargas: NE = 3nC. En el caso considerado en la simulación, nC =115 -- 7.395104114 x 1054 estados en el espacio de búsqueda S.


Figura 1: Sistema Trifásico de Intensidades: A) Simétrico y Balanceado (Perfecto) y B) y Desbalanceado

III.2. Una propuesta de solución mediante programación lineal enteramixta

Empleando un enfoque propiciado por técnicas de optimización clásicas, un modelo de Programación Lineal Entera-Mixta (MIP) fue presentado en [9]. Considérese un alimentador único, el cual tiene cierta conexión de cargas en nodos cuya distancia a la salida del CT MT/BT, se encuentra definida. Se trata de encontrar la asignación óptima de las cargas a cada fase del sistema [R, S, T], tal que las intensidades, tomadas de a pares, esto es: [R, T], [S, T] y [R, S], exhiban una diferencia de módulos en cada rama (distancia entre dos nodos contiguos) que resulte mínima. Formalmente:

donde: j es la rama genérica; Uj es el desbalance de intensidades en la rama j; Ij [f] es la intensidad sobre la rama j en la fase f; di [f] w es la variable de decisión para la conexión de la carga w-ésima en el nodo i-ésimo, a la fase f, Ij [f] w; i es el nodo "aguas abajo" o terminal de la rama j; Cj es la capacidad de la línea en la rama j, por fase; nC es el número de cargas y nR es el número de ramas.
En esta formulación MIP, la igualdad (2) no es otra cosa que la Ley de Kirchhoff de las Intensidades aplicada al nodo i (la suma fasorial de las intensidades en dicho nodo, debe ser nula); las restricciones (3), (4) y (6) aseguran que una carga se asigne sólo a una fase; la restricción (5) asegura que no se vulneren los límites operacionales del alimentador (Intensidad Máxima); la condición (7) es necesaria, puesto que las ramas deben tratarse de un modo independiente, fijando pesos al balance logrado en cada una de ellas.
Sin embargo, hay que destacar algunas severas limitaciones en este enfoque:
1ro) La más importante: supone una característica de las cargas denominada de corriente constante. Esto significa que, independientemente de los cambios que se puedan producir en la tensión de nodo, la carga ajustará su impedancia para demandar siempre la misma intensidad. Esta es una simplificación que exime de emplear, por cada cambio de configuración (conexión a fases), un flujo de potencia trifásico para determinar el estado resultante del sistema analizado. De tal modo, es posible la linealización del problema ya que las intensidades (fasores), permanecen constantes. En sistemas reales, donde predomina un consumo tipo residencial, esta característica de carga es bastante improbable de sostener (mucho menos aún para todas las cargas/usuarios del sistema).
2do) Se propone un Índice de Balance que intenta resolver, estrictamente, el ítem c) referido en el epígrafe III.1. Los autores infieren en su propuesta, que tal solución propendería a la mejora de los dos primerosítemes, a) minimización de pérdidas y b) menores caídas de tensión. Esta aseveración, si bien en algún intervalo de solución es correcta, no siempre resulta válida, más aún cuando se está hablando de "óptimo" y en sistemas con un grado de desbalance muy elevado. En los resultados de la simulación que se presenta en este trabajo, puede ser observado este hecho.
3ro) En un sistema importante (80-100 cargas), la modelación específica resulta muy engorrosa de realizar. Más aún, si se aplicase a múltiples CT MT/BT, por cada salida se tendría una formulación distinta, motivo por el cual la optimización para todo un sistema de BT puede tornase impracticable.
4to) Los ponderadores de la expresión (7) son subjetivos, de modo que el modelo resulta muy discutiblemente en "una" solución óptima. Y
5to) Se destaca, como en tantos otros casos de aplicación en el campo de los Sistemas de Potencia, que al forzar la linealización de ecuaciones que resumen leyes de comportamiento claramente no lineales, por más que los métodos clásicos de optimización presenten elegantes soluciones, las mismas resultan de escasa o nula aplicabilidad práctica.
De modo que corresponde dar paso a una modelación, por todo lo dicho, sustentada en Algoritmos Metaheurísticos. Particularmente, el propuesto en este trabajo.

IV. Metaheurísticas de optimización por enjambre de partículas

IV.1. La Inteligencia de Grupo o Swarm Intelligence (SI)

La Inteligencia de Grupo (o Swarm Intelligence -SI-) refiere un tipo de inteligencia artificial, basado en el comportamiento de sistemas colectivos, auto-organizados. La expresión fue introducida en 1989 por Gerardo Beni [10]. El término swarm describió, a su entender, el comportamiento de los autómatas celulares, que exhiben características similares a las observables en ciertos sistemas biológicos, tales como los insectos. De esas características, mencionó: la descentralización, no-sincronización y simplicidad en los movimientos de los miembros del grupo. Además este término tiene una significación que lo trasciende: permite analizar el comportamiento social de grupos de individuos (peces, insectos, pájaros, etc.), identificando el tipo de configuración en sus sistemas de cooperación y auto-adaptación, al efecto de encontrar la manera óptima de alcanzar un objetivo. La comunicación, según los biólogos [11], constituye el parámetro clave en este proceso, de modo que a las cualidades mencionadas, descentralización, no-sincronización y simplicidad en los movimientos, debe incorporársele la cooperación entre los individuos del swarm.
Desde tales consideraciones, pueden ser establecidos cinco principios que caracterizan la SI (Swarm Intelligence Principles). Los mismos son reconocidos como aspectos fundamentales en las estrategias mimetizadas de optimización, que se sustentan en el esfuerzo cooperativo, por medio de la comunicación entre los individuos del grupo, en la búsqueda de soluciones.
Estos principios, y su breve enunciación, resultan: a) Proximidad: Promueve la habilidad que debe exhibir el grupo, para ejecutar cálculos simples de espacio y tiempo en sus movimientos hacia el objetivo pretendido; b) Calidad: Promueve la habilidad del grupo para responder a los factores que induzcan mejoras en la aptitud de sus individuos, en el espacio de soluciones; c) Diversidad de Respuesta: Promueve la posibilidad de que los individuos tengan respuestas diferentes ante los mismos estímulos; d) Estabilidad: Promueve la habilidad de que el grupo permanezca estable, en ausencia de estímulos que induzcan mejoras en las soluciones alcanzadas; y e) Adaptación: Constituye un aspecto complementario de la Estabilidad, puesto que promueve la habilidad de que los individuos reaccionen ante cualquier cambio en la aptitud de las soluciones alcanzadas.

IV.2. La Metaheurística PSO

IV.2.1. PSO Clásico o Canónico

La Optimización por Enjambre de Partículas (Particle Swarm Optimization -PSO-), constituye un algoritmo metaheurístico presentado en 1995 por Kennedy y Eberhart [11]. Se inspira en el movimiento colectivo de cardúmenes de peces, bandadas de pájaros o enjambres de abejas, el cual refieren como movimiento de partículas.
En el modelo PSO Cánonico existe, en cada iteración hacia la solución buscada, un conjunto de alternativas (cuya factibilidad exhibe cierto grado de aptitud), las cuales son denominadas partículas. El conjunto es la población o enjambre. Desde una iteración a la siguiente, cada partícula se mueve en el espacio de búsqueda, conforme a cierta regla de movimiento que depende de tres factores, que se explican a continuación. Se indicará mediante [p] el vector de partículas en movimiento, de modo que pi resultará una partícula individual de las n que pertenecen al enjambre. Adicionalmente, se indicará mediante [b] el vector de las mejores posiciones (cada posición es, a su vez, un vector) que las partículas han alcanzado individualmente en las iteraciones anteriores (aspecto referido en el modelo como vida pasada de la partícula); entonces bi se corresponderá con el óptimo individual de la partícula i en su vida pasada. Del mismo modo, se indicará mediante [b]G el vector cuyos elementos son las mejores posiciones globalmente alcanzadas por el conjunto de partículas en las iteraciones anteriores; entonces se indicará mediante bG al óptimo global alcanzado por el sistema de partículas hasta la iteración presente. Dado el vector que indica la posición de las partículas en cierta iteración k, Xk, el cambio de posición en la iteración siguiente, k+1, para la partícula i-ésima, resultará de la siguiente regla de movimiento:

X[k+1] i = X[k] i + V[k+1] i x Dt (8)

donde el término V[k+1] i es referido como velocidad de la partícula iésima; Dt es es paso de iteración (simil temporal) e igual a la unidad. De modo que es más frecuente encontrar la expresión:

X[k+1] i = X[k] i + V[k+1] i (9)

El vector velocidad para la partícula i-ésima, se expresa como sigue:

V[k+1] i = V[k] i + wC x (r1 [k]) x [b[k] i - X[k] i] + wS x (r2 [k]) x [b[k] G - X[k] i] (10)

El primer término de la suma (10), representa la inercia o hábito de la partícula i: tiende a mantener su movimiento, para la iteración k+1, en la dirección en la que se movía en la iteración k. El segundo término representa la memoria o capacidad cognitiva de la partícula i: es atraída por el mejor punto del espacio de búsqueda alcanzado individualmente en su vida pasada; y el tercer término representa la cooperación entre el conjunto, o capacidad social, de la partícula i respecto del enjambre: las partículas comparten información sobre la mejor posición globalmente alcanzada por el enjambre. La incidencia de estos factores sobre cada partícula, está dada por las constantes o parámetros del modelo, wC,S. El parámetro wC recibe el nombre de constante cognitiva y el parámetro wS se denomina constante social del enjambre. Intervienen los parámetros (r1) y (r2), los cuales son números aleatorios uniformemente distribuidos en [0,1], U[0,1], y cuyo objetivo es emular el comportamiento estocástico (un tanto impredecible), que exhibe la población o enjambre, en cada iteración k. La Figura 2 presenta la regla de movimiento correspondiente al PSO Clásico o Canónico, en dos dimensiones, para tres particulas: pi, pj y ph. Se observa que, partiendo de la posición que cada partícula tiene en cierto "instante" o iteración k, X[k], por composición vectorial de cada factor de influencia en el operador velocidad (inercia, memoria y cooperación) resulta la nueva posición X[k+1]. Nótese como cada partícula preserva, a través de la componente genérica Vb[k], su memoria a la mejor posición registrada hasta ese "instante" o iteración k, a la vez que todas cooperan compartiendo la información sobre la mejor posición global alcanzada por enjambre, según indica la componente genérica VG[k].


Figura 2: Regla de Movimiento para el PSO Clásico en dos dimensiones para tres partículas

Existen algunas variaciones, de interés para las propuestas del presente trabajo, sobre la forma Canónica del PSO. Se discuten brevemente en el epígrafe siguiente.

IV.2.2. Modificaciones sobre el PSO Clásico. Función de Decaimiento Inercial y Factor de Constricción

A) PSO con Función de Decaimiento Inercial: En esta forma, el operador velocidad, dado por la expresión (10), es modificado mediante la introducción de una función decreciente con el número de iteraciones, k, denominada Función de Inercia o de Decaimiento Inercial, d(k). Su objeto es reducir, progresivamente, la importancia del término de inercia [12]. La expresión (10) es, entonces, modificada sustituyendo el primer término por el producto entre una nueva constante, wI, denominada constante de inercia y tal función d(k):

V[k+1] i = d(t) x wI x V[k] i + wC x (r1 [k]) x [b[k] i - X[k] i] + wS x (r2 [k]) x [b[k] G - X[k] i] (11)

Una forma típica para d(k), está dada por la siguiente expresión lineal:

donde k es la iteración actual; nTK es el número máximo de iteraciones de la metaheurística; y [wMin , wMax] son dos constantes inerciales, máxima y mínima, cuyos valores típicos resultan ser 0,4 and 0,9 respectivamente. La definición externa de la Función de de Decaimiento Inercial requiere de cuidado, puesto que resulta intuitivo el hecho de que si el término de inercia resultase eliminado en iteraciones tempranas del algoritmo, el procedimiento corre el riesgo de quedar atrapado en una solución óptimo-local (o subóptima).

B) PSO con Factor de Contricción: En este caso, el operador velocidad canónico se modifica como sigue:

V[k+1] i = X x { V[k] i + q M x (r1 [k]) x [b[k] i - X[k] i] + qC x (r2 [k]) x [b[k] G - X[k] i] } (13)

donde X se denomina Factor de Constricción (13), y se obtiene desde la siguiente expresión condicionada:

Dos configuraciones típicas para este conjunto de parámetros, resultan ser: a) qM= qC = 2.05, q = 4.1, k = 1 y X = 0.729; b) qM= qC =2.8, q = 4.1, k = 1 y X= 0.729.
Estas dos variantes del PSO serán empleadas en la simulación presentada.

IV.3. La Metaheurística EPSO

La Optimización Evolucionaria por Enjambre de Partículas (Evolutionary Particle Swarm Optimization - EPSO) propuesta en [14] y [15], constituye un algoritmo de optimización metaheurístico que integra los conceptos de Estrategias Evolutivas (Evolution Strategic) y Optimización de Enjambre de Partículas (Particle Swarm Optimization). Los autores proponen conferirle al PSO una capacidad auto-adaptativa, tal que permita a la MetaHeurística desarrollar un proceso de cambio de comportamiento, conforme resulte la evolución de las soluciones. La auto-adaptación permitiría que, en cada iteración k, los parámetros que requieren de ajuste externo puedan adaptarse sin el riesgo referido de convergencia prematura a un óptimo local. El mecanismo del algoritmo EPSO se puede describir de la siguiente manera: para una iteración k del PSO, las partículas evolucionarán a lo largo de un cierto número de generaciones, según los siguientes operadores evolutivos: a) Replicación: cada partícula es replicada un número r de veces, generando partículas iguales a las existentes; b) Mutación: los parámetros estratégicos (constantes de inercia, cognitiva y social, esencialmente) son mutados (adoptan, en rigor, el carácter de parámetros con la iteración k); c) Evaluación: cada sucesor concebido a través de los pasos anteriores, es evaluado mediante la función de aptitud definida; d) Selección: mediante algún proceso (típicamente, el torneo estocástico), las mejores partículas sobreviven para formar la nueva generación, que se somete, en la iteración siguiente, a la nueva regla de movimiento. La ecuación evolutiva para la regla del movimiento en el EPSO se sintetiza en la velocidad de la partícula i-ésima, entendiendo que la iteración k se corresponde con una nueva generación:

V[k+1] i = wi I *[k] x (r1 [k]) x V[k] i + wi C *[k] x (r2 [k]) x [b[k] i - X[k] i] + wiS *[k] x (r3 [k]) x [b[k]* G - X[k] i] (16)

donde: el superíndice (*), significa que los parámetros son evolutivos, producto de la mutación. La regla de mutación aplicable a las constantes wi[I, C, S] tiene, como expresión general:

wi[I, C, S] *[k+1] = wi[I, C, S] [k] x [1+ s x N(0,1)] (17)

en la cual: s es un parámetro de aprendizaje, externamente fijado, que controla la amplitud de las mutaciones; N(0,1) es una variable aleatoria con distribución gaussiana de media 0 y varianza 1. Adicionalmente, el óptimo global también es perturbado en cada iteración, según la regla:

b[k+1]* G = b[k]* G + wiN *[k] x N(0,1)] (18)

donde wiN *[k] es un cuarto parámetro estratégico de la regla de movimiento, que controla la amplitud del vecindario de b[k]* G donde es más probable localizar la mejor solución global (entendida, al menos, como una solución mejor que la b[k]* G actual, para la iteración k). El nuevo parámetro, como se indica con el superíndice (*), es también mutado según la regla (17). En la Figura 3, se presenta la regla de movimiento modificada para el EPSO. Nótese que el vector cooperación mutado (mediante línea de puntos) no apunta en la dirección de b[k] G, sino de b[k]* G.


Figura 3: Regla de Movimiento para el EPSO

Desde estas formulaciones, se definirán los elementos de la metaheurística propuesta en el presente trabajo: FEPSO Multi-Objetivo.

V. Metaheurística FEPSO multi-objetivo. Una nueva propuesta

V.1. Antecedentes de las Metaheurísticas Multi-Objetivo

El enfoque adoptado en los desarrollos de las metaheurísticas más difundidas en la bibliografía especializada (PSO, Búsqueda Tabú, Recocido Simulado, Algoritmos Genéticos, Colonia de Hormigas, entre otras), fue primigeniamente mono-objetivo. Existen diferentes propuestas en el estado del arte para extender ciertas metaheurísticas al dominio multi-objetivo. Específicamente, para el PSO, se tienen propuestas como la presentada en [17], denominada MOPSO (Multi-Objetive PSO).
Al efecto de concebir una función que pondere la aptitud de las soluciones en un contexto multi-objetivo de optimización, deben satisfacerse dos requerimientos:
A) Pareto-dominancia en las soluciones: las soluciones igualmente óptimas deben satisfacer una escala pareto-dominate, lo cual supone que: si dos soluciones componen un frente pareto-óptimo, ninguna de ellas puede ser mejorada en cierto objetivo, sin empeorar al menos en uno de los restantes. Por tal motivo, se las refiere como soluciones no dominadas (ninguna domina a la otra), y resultan igualmente preferibles o aptas. Por el contrario, dos soluciones exhibirán dominancia en este sentido si una de las dos mejora, respecto de la otra, cierto objetivo, sin empeorar el resto. La dominante resultará, así, preferible o más apta.
B) Compatibilidad métrica respecto del espacio de búsqueda: En general, aun para los algoritmos metaheurísticos mono-objetivo, el diseño de una función de aptitud (fitness) que no introduzca una métrica adecuada para definir el mérito de las soluciones obtenidas evidenciará ciertas limitaciones que, erróneamente, pueden asociarse con el algoritmo o con la especificación de los parámetros en el modelo formal (por caso, las constantes wC,S, en el PSO Canónico). Este efecto se hace aún más pronunciado al extender la metaheurística considerada al contexto multi-objetivo. El espacio de búsqueda tiene una influencia sustancial. Múltiples variables de decisión, discretas, con intervalos estrechos en sus valores factibles, y buenas soluciones muy dispersas en tal espacio, impactan fuertemente sobre la compatibilidad que debe guardar la métrica de la función de aptitud, respecto de los estímulos que induce sobre los agentes para explorar eficientemente el espacio de búsqueda. Este aspecto ha sido muy estudiado para los aportes del presente trabajo. A modo de síntesis, puede decirse que: para las metaheurísticas sustentadas en la inteligencia de grupo, una función de aptitud resultará métricamente compatible con el espacio de búsqueda, en la medida que pueda propiciar el cumplimiento de los cinco principios enunciados.
En el problema de balance de fases, la propuesta MOPSO referida, no cumple satisfactoriamente este último requerimiento, mientras que la FEPSO, sí.

V.2. Las incertidumbres no estocásticas en el problema de decisión multi-objetivo

Los dos requerimientos anteriores adscriben, implícitamente, a un paradigma en el cual se tiene certeza respecto las preferencias entre los objetivos, o bien sobre el grado de satisfacción que el alcance de cierto objetivo individual produce en el tomador de decisiones. Adicionalmente, en la teoría de preferencias, tal paradigma reconoce sólo incertidumbres de naturaleza estocástica. Los procesos de toma de decisión, conforme este paradigma, se establecen en un entorno de riesgo tal, que puede representarse por algún conjunto equivalente de situaciones de certeza. En última instancia, esto implica sostener que, en el Universo de Decisión, todos los estados de la naturaleza y las posibles alternativas, son susceptibles de modelar mediante alguna distribución de probabilidades [17].
En el enfoque adoptado para la metaheurística multi-objetivo propuesta, no se tienen, en general, certezas, y las incertidumbres relativas al nivel de satisfacción de un objetivo, o a las preferencias entre los múltiples objetivos a optimizar no son estocásticas. Desde un marco teórico-metodológico propuesto por Keynes [18], la incertidumbre que domina el universo de decisión adopta un carácter que él refiere como fundamental. Se sintetiza esta idea, del modo siguiente: Existe incertidumbre fundamental cuando la probabilidad de un resultado es desconocida, cuando el valor de un resultado es desconocido, cuando los resultados que posiblemente pueden ser consecuencia de una opción son desconocidos, o cuando el espectro de posibles opciones es desconocido. En tal marco, se hablará de incertidumbre de valor. Una alternativa metodológica para la representación de tal incertidumbre, son los conjuntos difusos, que se introducirán en el epígrafe V.3.
Se impondrá, así, un tercer requerimiento a la función de aptitud de la metaheurística propuesta: C) Capacidad de captar las incertidumbres de valor: posibilidad de modelar las incertidumbres en el grado de satisfacción asociado al cumplimiento de un objetivo individual, o a las preferencias entre objetivos.

V.3. Concepción de una función de aptitud multi-objetivo bajo incertidumbres no estocásticas de valor

Para representar estas incertidumbres, se propone aplicar el principio de toma de decisión en ambientes difusos, formulado por Bellman y Zadeh [19]. Primeramente se dirá que un conjunto difuso constituye una función, denominada función de pertenencia, sobre cierta variable real (discreta o continua), que le asocia a cada valor en su dominio, otro valor llamado de aceptación, satisfacción o pertenencia, en el intervalo [0, 1]. El valor 1 corresponde a la máxima pertenencia.
Entonces el principio de Bellman y Zadeh puede sintetizarse como sigue:
Considérese un conjunto de objetivos difusos (esto es: sus incertidumbres de valor son representadas por medio de conjuntos difusos): {O} = { O1, O2, ..., ON}, cuyas funciones de pertenencia resultan ser μOj, con j=1...N, y un conjunto de restricciones difusas (esto es: sus incertidumbres de valor en los límites superior e inferior sobre las variables de decisión, son representadas por conjuntos difusos): {R} = { R1, R2, ..., RH}, cuyas funciones de pertenencia resultan ser μRi, con i=1...H.
Se denomina Conjunto Difuso de Decisión al obtenido mediante:

D = O1 <C> O2 <C>...<C> ON <C> R1 <C> R2 <C> ...<C> RH (19)

donde <C> es un operador entre conjuntos difusos que recibe el nombre de confluencia. La confluencia más comúnmente empleada en este contexto es la intersección. Asociado al operador <C> entre los conjuntos difusos, existe un operador C entre sus funciones de pertenencia que genera, desde (19), el valor de pertenencia del conjunto difuso de decisión, conforme los valores individuales de las funciones de pertenencia del segundo miembro. Es decir:

μD = μO1 C μO2 C...C μON C μR1 C μR2 C ...C μR (20)

El operador C recibe el nombre general de t-norma. Por ejemplo, si la confluencia fuese la intersección, <C> º Ç, C resulta la t-norma min: el mínimo valor, para cierta instancia de las variables de decisión, en el conjunto de funciones de pertenencia del segundo miembro de la expresión (20).
Entonces, si {A} es un conjunto de alternativas sobre las que debe decidirse por la mejor, en términos del modelo objetivo-restricciones {O}-{R}, se define como decisión maximizante de Bellman y Zadeh al valor de la función de pertenencia en el conjunto de decisión difusa, dado por:

μD Max = MAX[A]O1 C μO2 C...C μOn C μR1 C μR2 C ...C μRH} (21)

Nótese que todos los conjuntos difusos (objetivos y restricciones) son mapeados en el mismo conjunto de decisión D. tratándose de la misma forma. Respecto del concepto de t-norma, es definida por las siguientes propiedades: Si t: [0, 1] ® [0, 1] es una t-norma,entonces: a) t(0,0) = 0; t(x,1) = x; b) t(x,y) = t(y,x); c) if x £ a e y £ ß Þ t(x,y) £ t(a,ß); and d) t((t(x,y),z)) = t(x,t(y,z)). De modo que la aplicación de tal principio para construir la función de aptitud multi-objetivo, en un contexto de incertidumbre de valor, seguirá los siguientes pasos:
1) Cada Objetivo y cada Restricción son representados por conjuntos difusos, que captan e introducen tales incertidumbres; 2) La función de aptitud difusa, fapD, resultará de la decisión maximizante dada por la expresión (21). Con ello se satisface el requerimiento C) (Captación de Incertidumbres de Valor) referido en V.2., y 3) Se debe definir una tnorma que satisfaga, con μD Max = fapD, los requerimientos A) (Paretodominancia) y B) (Compatibilidad Métrica) referidos en V.1.

V.4. Concepción de la Metaheurística FEPSO

La capacidad auto-adaptiva del operador velocidad EPSO logra dos ventajas importantes: a) El número de parámetros externos se minimiza y b) los pesos o constantes del modelo se auto-ajustan en las iteraciones del EPSO. Pero aún, la metaheurística sólo estará en condiciones de abordar problemas mono-objetivo determininísticos. La función de aptitud fapD, definida en V.3., compone la metaheurística de interés, Fuzzy EPSO - FEPSO.

VI. Formulación específica de la metaheurística FEPSO para el problema de balance de fases

VI.1. Generalidades

Se supone un sistema, SdA, existente, en operación y con un alto grado de desbalance. Se considerarán cuatro objetivos, los cuales deben ser minimizados: a) Las Pérdidas Activas de Potencia; b) La Componente Homopolar (Módulo) del sistema trifásico de corrientes, referida a la salida del alimentador principal del SdA; c) Las Tensiones fuera de Tolerancia Regulatoria, y d) El Número de Cambios de Conexión de las cargas monofásicas a una fase distinta, pues tal operación trae aparejado un costo. Las restricciones impuestas serán las de máxima capacidad en los alimentadores. Estas se supondrán rígidas: no se aceptarán intensidades superiores al límite impuesto para cada alimentador. De modo que se tienen solamente cuatro objetivos que deben representarse mediante conjuntos difusos.

VI.2. Conjuntos Difusos de cada Objetivo

Se adoptarán funciones de pertenencia lineales, para los conjuntos difusos asociados a cada objetivo. Luego serán afectadas de un ponderador exponencial [20], cuyo efecto es contraer o expandir la característica funcional, tal como se observa en la Figura 4. Este efecto implica aumentar (contracción) o disminuir (expansión) la importancia del objetivo en la función de aptitud difusa, fapD.


Figura 4: Contracción (pμm > 1) y Expansión (pμm < 1) de un Conjunto Difuso Lineal (pμm =1)

Considérense, entonces, dos límites, superior e inferior, en los valores posibles de cierto objetivo m, cuya variable es vm. Se referirán como vMaxm y vMinm, respectivamente. Adicionalmente, sea pμ m su ponderador exponencial, cuyo efecto sobre el conjunto difuso solidario se explicó. Entonces, la función de pertenencia lineal genérica para el objetivo m resultará de la expresión condicional:

Para este trabajo, tales límites serán obtenidos como sigue: a) vMinm será el resultado de una simulación de la metaheurística PSO monoobjetivo, que minimice el objetivo m, con una función de aptitud determinísitica, tal y como fue concebido PSO. La elección del PSO es a los efectos de comparar su performance con la de la metaheurística propuesta; b) vMaxm, es un valor dependiente del objetivo bajo análisis, y que será explicado seguidamente sobre la formulación de cada objetivo individual. Como parte del proceso de evaluación mediante fapD, es necesario simular un Flujo de Potencia Trifásico (FPT) sobre el SdA. Esta herramienta proporciona las pérdidas activas totales, el perfil de tensiones en cada nodo de los alimentadores, y las corrientes en los mismos. Sus datos son las Potencias o Consumos, tanto activos como reactivos, de cada carga. Al respecto puede consultarse [21]. Las Simulaciones PSO mono-objetivo son las siguientes:
A) Pérdidas totales de potencia activa del SdA (PerdT): En este caso, se simula un PSO mono-objetivo que minimiza las PerdT del SdA. Con ello se obtiene vPerdT Min. Se sigue el algoritmo representado en la Figura 5 (Diagrama de Flujo) para el FEPSO, pero eliminando las tareas Multi-Objetivo y Operadore/s Evolutivo/s, considerando, además, que fapD = PerdT. El valor vPerdT Max, se obtiene de simular un FPT en la situación de referencia, correspondiente al SdA en operación.
B) Componente homopolar (Módulo) referida a la salida del SdA (|I[0] S|):
Análogamente, a la obtención de vPerdT Min, se obtiene v|I[0] S| Min. Para obtener v|I[0] S| Max, también se simula un FPT en el SdA en la situación de referencia.
C) Índice de caídas de tensión (I(Du)): El SdA es de operación radial. Esto significa que las mayores caídas de voltaje se presentarán en los nodos terminales de cada alimentador. Por lo tanto, se definirá un índice que integre los voltajes en dichos nodos, estableciendo dos valores de tensión como parámetros de referencia, uad (tensión límite dentro de tolerancia) y uinad (tensión límite fuera de tolerancia) (por ejemplo, uad = 0.95 [pu] - por unidad, respecto de la tensión nominal - y uinad = 0.9 [pu]). Entonces, para la construcción de la función de pertenencia de un conjunto difuso solidario a la tensión de un nodo terminal, es posible definir los siguientes valores: vuMin = 1/uinad y vuMax = 1/unad. Luego, se tendrán tantas funciones de pertenencia como nodos terminales en el SdA, μ(u)1, μ(u)2, ... , μ(u)NT, siendo NT el número de nodos terminales de SdA. Se propone un índice de tensión, función valuada en [0, 1], dado por la media geométrica de los valores adoptados por las funciones de pertenencia individuales de cada nodo terminal. Esto es:

D) Número de cambios de fase de conexión (NC): para determinar vNC Max se propone la expresión:

donde cada elemento corresponde al resultado de las optimizaciones PSO mono-objetivo, y NC0 es un valor externamente fijado, que puede ser nulo.

VI.3. t-norma considerada en la Decisión Maximizante

La t-norma que más se ajustó a los requerimientos de Pareto-dominancia y Compatibilidad Métrica se denomina Producto de Einstein, y se define como:

donde x e y son funciones de pertenencia genéricas.

Desde las mismas, se expresa, finalmente:

donde: pμPerdT, pμ|I[0]S|, pI(Du) y pNC, son los ponderadores exponenciales referidos en VI.2.. Para su cálculo puede seguirse el método sugerido en [20]. Aquí se ha seguido una alternativa que permite enfatizar el azar en las ocurrencias en las preferencias entre los objetivos, resultante de la incertidumbre de valor. Para ello, simplemente se establece, subjetivamente, un valor arbitrario para cada ponderador: mayor valor, mayor importancia del objetivo/restricción. El conjunto [A] de alternativas sobre el cual se evalúa la tPE maximizante, en cada iteración de la metaheurística FEPSO, es la población de partículas. El esquema correspondiente puede apreciarse en la Figura 5. El proceso iterativo se detiene cuando, en cierto número prefijado de iteraciones máximas, NiterMax, no se produce ningún cambio en el Óptimo Global alcanzado por el enjambre. El procedimiento se aborta cuando k=NIterSal, parámetro complementario, com NIterSal>NItermax.


Figura 5: Diagrama de Flujo FEPSO

VII. Simulación

El sistema considerado se corresponde con una salida real de un CT MT/BT (13.2/0.38 [kV]) en una zona suburbana de la ciudad de Bariloche, Argentina. Las cargas son monofásicas y los consumidores son del tipo residencial. El esquema trifilar se presenta en la Figura 6. Se ha supuesto que las cargas exhiben una característica de Potencia Constante, ya que así se tienen las mayores pérdidas, generando una evaluación que hace las veces de cota superior para la minimización de este objetivo. El problema multi-objetivo así planteado (Potencia Constante), no puede ser resuelto por métodos basados en programación matemática.


Figura 6: Esquema Trifilar de la Red/Salida CT MT/BT considerada en la Simulación. Sobrecargas Importantes en las Fases [S] y [T]. Los rectángulos en líneas de punto, limitan nodos físicos (postes).

En el modelo FEPSO, cada partícula resulta una secuencia de conexión de fases, de modo que el vector Xi, asociado cierta partícula iésima, tendrá tantas componentes como cargas monofásicas tenga el SdA, número referido como nC.
Los datos de los conductores empleados (sección, resistencia y la reactancia inductiva), son: Alim Pr: 3x95 [mm2], (r = 0.372 + i xl = 0.0891) [W]/[km], y Alim SI, SII, SIII, SIV, SV, SVI, TI, TII, TIII y TIV: 3x35 [mm2], (r = 1.39 + i xl = 0.0973) [W]/[km]. En la Tabla 1 se pueden apreciar los vectores [S], de potencias para cada carga, en [kVA], y [d], correspondiente a la distancia de cada carga, respecto del punto de donde se deriva el alimentador al que pertenece, en [km]. Estos vectores aparecen ordenados por alimentador, en filas consecutivas. Cada elemento en [S] y [d] respeta el orden establecido en la Figura 6. El número total de cargas es nC=115. El factor de potencia se asumió 0.85. El de simultaneidad de cargas, 0.6. Los valores vMinm y vMaxm para las funciones de pertenencia resultaron:

{vPerdT Min=6.94 [kW], vPerdT Max=13.02 [kW]}; {v|I[0] S| Min=0.1 [A], v|I[0] S| Max=47.6 [A]};
{vNC Min=45; vNC Max=85}, con NC0 =34. La tensión de referencia (FPT) es 1.05 [pu].

Tabla 1. Resultados PSO y FEPSO: Secuencia de Fases

Los parámetros utilizados en la metaheurística FEPSO fueron:

a) Constantes Iniciales: wI =0.5; wM = wC =2;
b) s, Parámetro de Aprendizaje solidario a la mutación (wI, wM, wC y bG): 0.2;
c) Número de replicaciones por partícula: r = 5;
d) NIterMax =400;
Los ponderadores exponenciales se asumieron en valor 3, excepto para I(Du), en 4.

Los parámetros utilizados para las metaheurísticas PSO mono-objetivo, fueron:

a) Para minimizar PerdT y |I[0] S|, se empleó un Modelo con Función de Decaimiento Inercial, cuyas constantes wM = wC =2, y d(k) dada por (12), con wMin=0.4 , wMax=0.9 y nTK= NIterMax =400;
b) Para minimizar I(Du), la aplicación del modelo anterior siempre quedó atrapada en soluciones subóptimas, o con aptitud nula, por ser el índice estricto. Por ello se empleó un Modelo PSO con Factor de Constricción, conforme los parámetros b), presentados en el epígrafe
IV.2.2. En la Tabla 1 se muestran los resultados de las secuencias de fases en cada alimentador del SdA, para los PSO mono-objetivo y el FEPSO. En la Tabla 2 se muestran los resultados de las optimizaciones PSO y FEPSO, en relación a la satisfacción de cada objetivo individual, Número de Partículas o Población, Tiempos y detalles de la simulación (hardware y software empleados).

Tabla 2. Resultados PSO y FEPSO: Objetivos. T es el Tiempo de Ejecución

VIII. Conclusiones

Como síntesis de los desarrollos expuestos, se destacan los siguientes puntos:
1º) Se presentó una novedosa metaheurística, FEPSO Multi-Objetivo, sustentada en decisiones estáticas difusas, capaz de resolver problemas de optimización combinatoria. Se aplicó con éxito en un problema combinatorio tipo: el desbalance de fases en SDEE trifásicos de BT. Se destaca la imposibilidad de implementar un modelo para resolver este problema mediante métodos de programación matemática.
2º) En tal sentido, pueden observarse los excelentes resultados alcanzados por la metaheurística FEPSO respecto del estado inicial o de referencia en el SdA. La capacidad auto-adaptativa permitió ajustar el operador velocidad sin replantear la definición de parámetros externos, cuestión requerida por los PSO mono-objetivo.
3º) La t-norma Producto de Einstein satisfizo la Pareto-dominancia y la Compatibilidad Métrica requeridas por la función de aptitud. No obstante, podrían ser exploradas otras opciones. Asimismo, podrían considerarse funciones de pertenencia no lineales a los efectos de representar el nivel de satisfacción correspondiente a cada objetivo individual.
4º) La propuesta de una función de aptitud multi-objetivo sustentada en la teoría de los conjuntos difusos flexibiliza el entorno de decisión. Este aspecto constituye una característica singular en relación a la captación de las incertidumbres de valor.
5º) Desde lo metodológico, considerando la caracterización de los problemas de optimización combinatoria: escasa información en términos de las funciones objetivo y el espacio de búsqueda, el tomador de decisiones exhibe una racionalidad acotada. La metaheurística propuesta incorpora este presupuesto, conjuntamente con el reconocimiento de incertidumbres no estocásticas de valor, de modo que contribuye hacia un cambio de paradigma en la solución de tales problemas.

Referencias bibliográficas

1. GAREY, M. Computers and Intractability. A Guide to the Theory of NP-Completeness. Bell Telephone Laboratories; 1979.         [ Links ]

2. GONZÁLEZ, J.; SÁNCHEZ A.; VELÁSQUEZ, J.; GALVE, J. Algorítmica. Diseño y Análisis de Algoritmos Funcionales e Imperativos. México: Addison Wesley Iberoamericana; 1993.         [ Links ]

3. LEISERSON, C.; RIVEST, R.; STEIN, C.; CORMEN, T. Introduction to Algorithms. Cambridge: MIT Press - McGrawHill; 2001.         [ Links ]

4. LAWLER, E.; LENSTRA, J.; RINNOOY KAN, A.; SHMOYS, D. (eds.). The Traveling Salesman Problem. A Guided Tour to Combinatorial Optimization. Chichester: John Wiley and Sons; 1985.         [ Links ]

5. DÍAZ, A.; GLOVER, F.; GHAZIRI, H; GONZALEZ, J., LAGUNA, M.; MOSCATO, P. et al. Optimización Heurística y Redes Neuronales. Madrid: Paraninfo; 1996.         [ Links ]

6. GLOVER, F. Tabu Search: Part I. ORSA Journal on Computing. 1989; 1: 190-206.         [ Links ]

7. BLACK, P. Dictionay Of Algorithms and Data Structures. National Institute of Standars and Technology; 2009. <http://www.nist.gov/ index.html> [June 2009].         [ Links ]

8. OSMAN, I; KELLY, J. (eds.) Meta-Heuristics: Theory and Applications. Boston: Kluwer Academic; 1996.         [ Links ]

9. ZHU, J.; GRIFF, B.; CHOW, M. Phase Balancing Using Mixed-Integer Programming. IEEE Trans. Power Systems. 1998; 13 (4):1487-1492.         [ Links ]

10. BENI, G.; WANG, J. Swarm Intelligence in Cellular Robotic Systems. Proccedings NATO Advanced Workshop on Robots and Biological Systems, Tuscany; June 26-30, 1989.         [ Links ]

11. KENNEDY, J.; EBERHART, R. Particle Swarm Optimization, en: IEEE International Conference on Neural Networks. Piscataway: Pert; 1995.         [ Links ]

12. BEYER,H. Toward a Theory of Evolution Strategies: Self-Adaptation. Evolutionary Computation. 1996; 3 (3): 311-347.         [ Links ]

13. CLERC, M.; KENNEDY, J. The Particle Swarm - Explosion, Stability, and Convergence in a Multidimensional Complex Space. IEEE Transactions on Evolutionary Computation. 2002; 6 (1): 58-73.         [ Links ]

14. MIRANDA, V.; FONSECA, N. EPSO-Best-Of-Two- Worlds Meta-Heuristic Applied To Power System Problems (pp-1080-1085). En: Proceedings of the 2002 Congress on Evolutionary Computation-CEC02, Vol. 2. USA: Honolulu; 2002.         [ Links ]

15. MIRANDA, V.; KEKO, H.; DUQUE JARAMILLO, A. EPSO: Evolutionary Particle Swarms. (pp.139- 168). En: Jain L., Palade V., Srinivasan D. (Eds.). Advances in Evolutionary Computing for System Design. Berlin: Springer; 2008.         [ Links ]

16. COELLO, C.; SALAZAR M. (2002). MOPSO: A Proposal for Multiple Objective Particle Swarm Optimization. (pp. 1051-1056). En: Proceedings of the 2002 Congress on Evolutionary Computation-CEC02, Vol. 2, USA: Honolulu.         [ Links ]

17. SCHWEICKARDT, G. Sistemas de Distribución de Energía Eléctrica Económicamente Adaptados. Discusión y Propuestas Metodológicas. Bariloche: Editorial Fundación Bariloche; 2007.         [ Links ]

18. LAVOIE, M. Foundations of PostKeynesian Economic Analisys. Ottawa: Edward Elgar Publ; 1992.         [ Links ]

19. BELLMAN, R.; ZADEH L. Decision-Making in a Fuzzy Environment. Management Science. 1970; 17:141-164.         [ Links ]

20. SCHWEICKARDT, G.; MIRANDA, V. A Two-Stage Planning and Control Model Toward Economically Adapted Power Distribution Systems using Analytical Hierarchy Processes and Fuzzy Optimization. International Journal of Electrical Power & Energy Systems. 2009; 31 (6): 277-284.         [ Links ]

21. ARRILLAGA, J.; ARNOLD, C.; HARKER, B. Computer Modelling of Electrical Power Systems. New York: John Wiley & Sons; 1991.         [ Links ]

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons