Servicios Personalizados
Revista
Articulo
Indicadores
- Citado por SciELO
Links relacionados
- Similares en SciELO
Compartir
Ciencia, docencia y tecnología
versión On-line ISSN 1851-1716
Cienc. docencia tecnol. no.40 Concepción del Uruguay mayo 2010
CIENCIAS EXACTAS Y NATURALES - INVESTIGACIÓN
Metaheurística FEPSO aplicada a problemas de Optimización Combinatoria: Balance de Fases en Sistemas de Distribución Eléctrica*
Metaheuristics FEPSO Applied to Combinatorial Optimization: Phase Balancing in Electric Distributions Systems*
Schweickardt, Gustavo**; Miranda, Vladimiro***
*Artículo derivado de una investigación realizada por los autores sobre la aplicación de técnicas de Soft Computing
en problemas combinatorios en el campo de los Sistemas de Potencia, en el marco de un proyecto internacional,
recibido en julio 2009, admitido en marzo 2010.
**) CONICET, Instituto de Economía Energética, Fundación Bariloche, Centro Atómico Bariloche (Bariloche,
Argentina). E-mail: gustavoschweickardt@conicet.gov.ar
***) INESC Porto, Instituto de Engenharia de Sistemas e
Computadores do Porto and FEUP, Faculdade de Engenharia da Universidade do Porto (Porto, Portugal). E-mail:
vmiranda@inescporto.pt
Resumen: El presente trabajo propone una novedosa metaheurística orientada a la solución de problemas de Optimización Combinatoria, muy frecuentes en diversos campos del conocimiento científico. Se procura un aporte desde la Inteligencia Artificial al Diseño Óptimo de Sistemas, en los que las técnicas sustentadas en Programación Matemática Clásica no tienen éxito. La metaheurística, referida como FEPSO (Fuzzy Evolutionary Particle Swarm Optimization/Optimización Evolucionaria por Enjambre de Partículas), integra técnicas de Optimización Difusa, Inteligencia de Grupo y Estrategias Evolutivas, demostrando una excelente aptitud para dar con soluciones globales. Si bien el modelo propuesto es resultado de exhaustivas investigaciones, sus desarrollos son abordados con la finalidad de incorporarlos en ámbitos de discusión y enseñanza pertinentes, propiciando su difusión y críticas. Se presenta una solución para un problema no resuelto satisfactoriamente mediante métodos clásicos: la Optimización del Grado de Desbalance de Cargas en un Sistema Trifásico de Distribución Eléctrica en Baja Tensión.
Palabras clave: Investigación operativa; Metaheurística; Enjambre de partículas; Optimización; Conjuntos difusos
Abstract: This work presents a new metaheuristic oriented to solve Combinatorial Optimizations Problems, commonly observed in different scientific knowledge fields. It aims contribute, from the Artificial Intelligence, to Optimal Systems Design, where the techniques based on Classical Mathematical Programming are unsuccessful. The metaheuristic, called FEPSO (Fuzzy Evolutionary Particle Swarm Optimization), integrates techniques of Fuzzy Optimization, Swarm Intelligence and Evolution Strategies, demonstrating an excellent ability to find global solutions. While the proposed model is the result of extensive research, their developments are discussed with the aim of incorporating them into areas of discussion and relevant education, fostering its dissemination and critical. A solution for a problem of Phase Balancing of a Three-Phase Low Voltage Electric Distribution System, disscused in the state of art, is presented.
Key words: Operational research; Metaheuristic; Particle swarm; Optimization; Fuzzy sets Paper
I. Introducción
I.1. Concepto General de Optimización
En el lenguaje coloquial, optimizar significa más que mejorar. En el contexto científico, la optimización constituye un proceso que trata de encontrar la mejor solución posible para un determinado problema. El procedimiento que lleva a cabo la búsqueda es denominado programa. En un programa de optimización existen tres elementos sustanciales: a) Un conjunto de posibles soluciones o soluciones factibles, al cual se lo suele referir como espacio de búsqueda; b) Una estrategia de búsqueda, la cual suele ser formulada en términos generales, en cuyo caso se tiene un algoritmo, o particulares, en cuyo caso se habla de principio, dependiente, en su aplicación, del problema abordado, y c) un criterio para discriminar, de entre las soluciones factibles, cuáles son las mejores. Tal problema puede formularse del siguiente modo: encontrar el valor de ciertas variables de decisión para los que una determinada función objetivo (problema mono-objetivo) o un conjunto de funciones objetivo (problema multi-objetivo) alcanza su valor máximo o mínimo, según se pretenda. El valor de aquellas variables está sujeto, en general, a una serie de restricciones, cuya violación le confiere el carácter de no factible a una potencial solución, reduciéndose, de tal modo, el espacio de búsqueda. Ciertos tipos de problemas de optimización son relativamente fáciles de resolver; tal es el caso, de los denominados problemas lineales, en los que tanto la función objetivo (única) como las restricciones son expresiones lineales. Estos problemas pueden ser resueltos mediante métodos muy difundidos, constituyendo, por tanto, una referencia a la que toda formulación inicial de cualquier optimización intenta asimilarse. Esto es, todo problema de optimización (su función objetivo y restricciones) intenta linealizarse (cuanto menos, por tramos), a efectos de aplicar tales métodos. Sin embargo, la mayoría no son linealizables y, en general, resultan de muy dificultosa solución. La idea intuitiva del término "muy dificultosa solución" responde al concepto formal de problema NP-Hard, utilizado en el contexto de la complejidad algorítmica [1] [2] [3] y que se lo vincula aquí a la optimización combinatoria, que se describirá en el epígrafe I.2. La existencia de una gran cantidad y variedad de problemas de este tipo que requieren una solución eficiente, como ocurre en diferentes ramas de la ingeniería, motivó el desarrollo de procedimientos específicos para encontrar buenas soluciones, aunque las mismas no resultasen óptimas, sino satisfactorias. Estos procedimientos, en los cuales la rapidez de cálculo constituye un parámetro tan importante como la calidad de la solución obtenida, son referidos como heurísticas. Sobre esta idea, se sustentan los aportes propuestos en el presente trabajo.
I.2. La Optimización Combinatoria
Este tipo de problemas de optimización exhibe las siguientes características [4]:
a) El objetivo es encontrar el máximo/mínimo de una determinada
función objetivo sobre un conjunto finito de soluciones, indicado como S.
b) Existe, sobre las variables de decisión de las que depende la
función objetivo, un conjunto de restricciones, en general, que permiten
identificar un subconjunto de S, Sf, que contiene las denominadas soluciones
factibles. Según el contexto, S o Sf son referidos, alternativamente,
como espacio de búsqueda.
c) No se exige ninguna condición o propiedad sobre la función objetivo o sobre la definición del conjunto S.
d) Como S es finito, las variables resultarán, en general, discretas,
restringiendo su dominio a una serie finita de valores.
e) El número de elementos en S (Sf) es muy elevado, haciendo impracticable
la evaluación de todas sus soluciones para determinar la óptima.
Esto supone que pueda resultar más eficiente una búsqueda exhaustiva
en el espacio de búsqueda, que la concepción de un algoritmo.
Estas características complejizan aún más la búsqueda de una solución,
cuando se está frente a una optimización multi-objetivo.
II. Metaheurísticas
II.1. Método Heurístico
Es pertinente identificar, en forma previa al análisis del concepto de metaheurística, que significa una heurística.
La etimología del término heurística proviene de la palabra griega
heuriskein que se traduce como encontrar. En el contexto del presente
trabajo, es necesaria una definición, en tanto método heurístico. Más
allá de las múltiples interpretaciones y de la vastísima bibliografía al
respecto, se propone aquí la idea de método heurístico sugerida en [5]:
"Un método heurístico constituye un procedimiento para resolver un problema de optimización bien definido, mediante una aproximación intuitiva, en la que la estructura del problema se utiliza de forma inteligente para obtener una buena solución."
Desde la definición propuesta, se observa que el método está dirigido a un problema específico, del cual se conocen sus características (bien definido), al efecto de sacar provecho de ellas en la estrategia de búsqueda concebida. La pregunta que cabe hacerse es: ¿cómo poder aprovechar las similitudes que ciertos problemas de carácter combinatorio exhiben, cuando cierto método heurístico ha generado muy buenos resultados? Esta es la idea que subyace bajo el concepto de metaheurística.
II.2. Método o algoritmo metaheurístico
El término metaheurística deriva del complemento entre la palabra
heuriskein y el prefijo meta, el cual se traduce como más alla de o en un
nivel superior de. Fue introducido por primera vez por Fred Glover, al
presentar el método (metaheurístico) denominado Tabu Search (Búsqueda
Tabú) [6]. Sin embargo, existe una controversia respecto de si
una metaheurística es diferente de una heurística, y varias fuentes pueden
ser citadas en tal sentido. Según [7]:
1. Una metaheurística define un Marco de Referencia Algorítmico
cuyo Enfoque puede ser especializado para Resolver Problemas de
Optimización.
2. Una metaheurística constituye una Estrategia de Alto Nivel que
Guía/Conduce Heurísticas en la Búsqueda de Soluciones Factibles.
Si se toma en consideración 1., se tiene un método heurístico, entendido
como un marco de referencia algorítmico. En cambio, según 2., se
observa una respuesta a la pregunta referida. Siguiendo esta línea, se
adoptará la siguiente definición [8]:
Una Metaheurística se define como un proceso iterativo que guía
una heurística subordinada, combinando diferentes conceptos para
explorar y explotar las características que pueda exhibir el espacio de
búsqueda.
Frecuentemente, al considerar la referencia al término proceso
iterativo, se suele hablar de Algoritmo Metaheurístico. En el presente
trabajo, se utilizarán de manera indistinta los términos Metaheurística,
Algoritmo Metaheurístico o Método Metaheurístico.
III. El problema de optimización en el grado de desbalance de un sistema trifásico de distribución eléctrica en baja tensión
III.1. Identificación del problema
Un Sistema de Distribución de Energía Eléctrica (SDEE) Trifásico en Baja
tensión (BT) está constituido por un conjunto de conductores (uno por
fase) denominado Sistema de Alimentadores (SdA). Parte de Centros
de Transformación de Media Tensión a Baja Tensión (CT MT/BT), en los
que se emplazan uno o más transformadores, que presentan cierto
número de salidas en BT. Dicho número aumenta con la potencia instalada.
Desde cada salida (en un transformador para un CT tipo plataforma,
de 315 [kVA], se tienen 4-6 salidas), parte un alimentador denominado
principal, que, a su vez, tiene ramales en derivación, llamados
secundarios (los cuales pueden tener derivaciones terciarias, y así siguiendo),
conformándose una red independiente cuya topología de
operación es radial (es decir que no existen mallas o caminos cerrados en esta red). Si bien el sistema es trifásico, las cargas (potencias o
corrientes) conectadas en los diferentes nodos de los alimentadores
primarios o sus derivaciones, resultan, en su mayoría, monofásicas.
Esta situación es particularmente cierta en redes emplazadas en áreas
residenciales de bajos ingresos, caso que será considerado en la simulación
propuesta en este trabajo.
En un sistema trifásico, las magnitudes físicas se representan por
medio de elementos denominados fasores, los cuales pueden ser interpretados
como vectores que giran. Como son tres fases, la posición
relativa de cada fasor en este giro, por caso, de 50 [ciclos/seg], se mantiene. Por tal razón, en un diagrama fasorial, se los representa
estáticos. Los tres fasores solidarios a la magnitud que se trate (tensión
o corrientes/intensidades), en operación normal, son simétricos:
se encuentran desfasados 120° entre cada par contiguo.
Volviendo sobre el problema, tal situación de cargas predominantemente monofásicas le confiere al SdA un carácter, si bien simétrico,
desbalanceado (módulos distintos). Esto significa que el sistema de
SdA BT opera necesariamente con cierto grado de desbalance en sus
tres fases. En la Figura 1A se presenta un sistema trifásico de corrientes
(intensidades o cargas) simétrico balanceado (denominado perfecto)
y en la Figura 1B se presenta un sistema simétrico desbalanceado. En la medida que tal desbalance exhiba un grado más pronunciado, se
presentan, al menos, tres problemas relacionados con las pérdidas, la
calidad del suministro y la confiabilidad del sistema:
a) Existe un aumento en las pérdidas técnicas (potencia y energía) del sistema. En segmentos urbanos/suburbanos, para SdA BT que utilizan
0.38 [kV] de tensión nominal de suministro, como el considerado
en la simulación, el nivel de pérdidas técnicas de potencia se sitúa
entre un 7 a 10%. El último valor se observa, mayormente, en zonas
carenciadas, debido al tipo constructivo de red que se emplea (frecuentemente,
conductores desnudos referidos como convencionales);
b) La calidad del producto técnico tensión de suministro, controlada
por la autoridad regulatoria eléctrica, disminuye. La tolerancia en tensión para redes como las descritas en el ítem anterior está entre un 5%
y un 10% respecto de la tensión de suministro nominal;
c) El desbalance de intensidades, para sistemas con neutro puesto a
tierra, genera una corriente denominada de secuencia cero o componente
homopolar, I[0] (suma de las intensidades de las tres fases, y que
circulará por tierra) de un valor tal que puede accionar las protecciones
contra cortocircuitos. Particularmente, frente a un cortocirtuito
monofásico/fase a tierra (el más frecuente: un 80% de las fallas son de
este tipo). En la Fig. 1A se observa que la suma fasorial (vectorial) de
las intensidades es nula, mientras que en la Fig.1B no lo es, apareciendo
tal componente homopolar. El sistema pierde así confiabilidad, puesto
que las protecciones interpretan los fuertes desbalances como una señal de cortocircuito, interrumpiendo el servicio. Esto adquiere mayor
relevancia en el subsistema de MT: las cargas para el mismo resultan
ser los CT MT/BT (sin considerar los grandes usuarios en MT, que son
pocos, relativamente). Los desbalances en BT se reflejan, entonces,"aguas arriba" (es decir, en el nivel de tensión superior) como cargas
desbalanceadas en MT. En este subsistema, existen protecciones accionadas
por componente homopolar mayor que cierto nivel de disparo,
requiriéndose especial cuidado con su ajuste. Entonces, el problema de
optimización en el grado de desbalance de fases (al que sintéticamente
se lo referirá como problema de Balance de Fases), es definido como la
búsqueda de aquella configuración de conexiones de las cargas a las
fases [R, S, T] en el sistema, tal que propenda a evitar, en el mayor nivel
posible, los inconvenientes descritos en a), b) y c). Como cada carga
del sistema tiene tres opciones de conexión, considerando la caracterización
presentada en I.2, se trata de un problema de optimización
combinatoria, cuyo número de estados (NE) del espacio de búsqueda está dado, en rigor, por las variaciones con repetición de las 3 fases
tomadas de a nC cargas: NE = 3nC. En el caso considerado en la simulación,
nC =115 -- 7.395104114 x 1054 estados en el espacio de
búsqueda S.
Figura 1: Sistema Trifásico de Intensidades: A) Simétrico y Balanceado (Perfecto)
y B) y Desbalanceado
III.2. Una propuesta de solución mediante programación lineal enteramixta
Empleando un enfoque propiciado por técnicas de optimización clásicas, un modelo de Programación Lineal Entera-Mixta (MIP) fue presentado en [9]. Considérese un alimentador único, el cual tiene cierta conexión de cargas en nodos cuya distancia a la salida del CT MT/BT, se encuentra definida. Se trata de encontrar la asignación óptima de las cargas a cada fase del sistema [R, S, T], tal que las intensidades, tomadas de a pares, esto es: [R, T], [S, T] y [R, S], exhiban una diferencia de módulos en cada rama (distancia entre dos nodos contiguos) que resulte mínima. Formalmente:
donde: j es la rama genérica; Uj es el desbalance de intensidades en la
rama j; Ij [f] es la intensidad sobre la rama j en la fase f; di
[f]
w es la variable
de decisión para la conexión de la carga w-ésima en el nodo i-ésimo, a
la fase f, Ij
[f]
w; i es el nodo "aguas abajo" o terminal de la rama j; Cj es la
capacidad de la línea en la rama j, por fase; nC es el número de cargas y nR es el número de ramas.
En esta formulación MIP, la igualdad (2) no es otra cosa que la Ley de
Kirchhoff de las Intensidades aplicada al nodo i (la suma fasorial de las
intensidades en dicho nodo, debe ser nula); las restricciones (3), (4) y (6)
aseguran que una carga se asigne sólo a una fase; la restricción (5)
asegura que no se vulneren los límites operacionales del alimentador (Intensidad Máxima); la condición (7) es necesaria, puesto que las ramas
deben tratarse de un modo independiente, fijando pesos al balance
logrado en cada una de ellas.
Sin embargo, hay que destacar algunas severas limitaciones en este
enfoque:
1ro) La más importante: supone una característica de las cargas denominada
de corriente constante. Esto significa que, independientemente
de los cambios que se puedan producir en la tensión de nodo, la
carga ajustará su impedancia para demandar siempre la misma intensidad.
Esta es una simplificación que exime de emplear, por cada cambio
de configuración (conexión a fases), un flujo de potencia trifásico para determinar el estado resultante del sistema analizado. De tal modo,
es posible la linealización del problema ya que las intensidades (fasores),
permanecen constantes. En sistemas reales, donde predomina un consumo
tipo residencial, esta característica de carga es bastante improbable
de sostener (mucho menos aún para todas las cargas/usuarios
del sistema).
2do) Se propone un Índice de Balance que intenta resolver, estrictamente,
el ítem c) referido en el epígrafe III.1. Los autores infieren en su
propuesta, que tal solución propendería a la mejora de los dos primerosítemes, a) minimización de pérdidas y b) menores caídas de tensión.
Esta aseveración, si bien en algún intervalo de solución es correcta, no
siempre resulta válida, más aún cuando se está hablando de "óptimo" y en sistemas con un grado de desbalance muy elevado. En los resultados
de la simulación que se presenta en este trabajo, puede ser observado
este hecho.
3ro) En un sistema importante (80-100 cargas), la modelación específica
resulta muy engorrosa de realizar. Más aún, si se aplicase a
múltiples CT MT/BT, por cada salida se tendría una formulación distinta,
motivo por el cual la optimización para todo un sistema de BT puede
tornase impracticable.
4to) Los ponderadores de la expresión (7) son subjetivos, de modo que
el modelo resulta muy discutiblemente en "una" solución óptima. Y
5to) Se destaca, como en tantos otros casos de aplicación en el campo
de los Sistemas de Potencia, que al forzar la linealización de ecuaciones
que resumen leyes de comportamiento claramente no lineales, por más
que los métodos clásicos de optimización presenten elegantes soluciones,
las mismas resultan de escasa o nula aplicabilidad práctica.
De modo que corresponde dar paso a una modelación, por todo lo
dicho, sustentada en Algoritmos Metaheurísticos. Particularmente, el
propuesto en este trabajo.
IV. Metaheurísticas de optimización por enjambre de partículas
IV.1. La Inteligencia de Grupo o Swarm Intelligence (SI)
La Inteligencia de Grupo (o Swarm Intelligence -SI-) refiere un tipo de inteligencia artificial, basado en el comportamiento de sistemas colectivos,
auto-organizados. La expresión fue introducida en 1989 por
Gerardo Beni [10]. El término swarm describió, a su entender, el comportamiento
de los autómatas celulares, que exhiben características
similares a las observables en ciertos sistemas biológicos, tales como
los insectos. De esas características, mencionó: la descentralización,
no-sincronización y simplicidad en los movimientos de los miembros
del grupo. Además este término tiene una significación que lo trasciende:
permite analizar el comportamiento social de grupos de individuos
(peces, insectos, pájaros, etc.), identificando el tipo de configuración en
sus sistemas de cooperación y auto-adaptación, al efecto de encontrar
la manera óptima de alcanzar un objetivo. La comunicación, según los
biólogos [11], constituye el parámetro clave en este proceso, de modo
que a las cualidades mencionadas, descentralización, no-sincronización
y simplicidad en los movimientos, debe incorporársele la cooperación entre los individuos del swarm.
Desde tales consideraciones, pueden ser establecidos cinco principios que caracterizan la SI (Swarm Intelligence Principles). Los mismos
son reconocidos como aspectos fundamentales en las estrategias
mimetizadas de optimización, que se sustentan en el esfuerzo cooperativo,
por medio de la comunicación entre los individuos del grupo, en
la búsqueda de soluciones.
Estos principios, y su breve enunciación, resultan: a) Proximidad: Promueve la habilidad que debe exhibir el grupo, para ejecutar cálculos
simples de espacio y tiempo en sus movimientos hacia el objetivo pretendido;
b) Calidad: Promueve la habilidad del grupo para responder
a los factores que induzcan mejoras en la aptitud de sus individuos, en el espacio de soluciones; c) Diversidad de Respuesta: Promueve la
posibilidad de que los individuos tengan respuestas diferentes ante los
mismos estímulos; d) Estabilidad: Promueve la habilidad de que el
grupo permanezca estable, en ausencia de estímulos que induzcan
mejoras en las soluciones alcanzadas; y e) Adaptación: Constituye
un aspecto complementario de la Estabilidad, puesto que promueve la
habilidad de que los individuos reaccionen ante cualquier cambio en la
aptitud de las soluciones alcanzadas.
IV.2. La Metaheurística PSO
IV.2.1. PSO Clásico o Canónico
La Optimización por Enjambre de Partículas (Particle Swarm Optimization -PSO-), constituye un algoritmo metaheurístico presentado en 1995
por Kennedy y Eberhart [11]. Se inspira en el movimiento colectivo de
cardúmenes de peces, bandadas de pájaros o enjambres de abejas, el
cual refieren como movimiento de partículas.
En el modelo PSO Cánonico existe, en cada iteración hacia la solución buscada, un conjunto de alternativas (cuya factibilidad exhibe cierto
grado de aptitud), las cuales son denominadas partículas. El conjunto
es la población o enjambre. Desde una iteración a la siguiente, cada
partícula se mueve en el espacio de búsqueda, conforme a cierta regla
de movimiento que depende de tres factores, que se explican a continuación.
Se indicará mediante [p] el vector de partículas en movimiento,
de modo que pi resultará una partícula individual de las n que pertenecen
al enjambre. Adicionalmente, se indicará mediante [b] el vector
de las mejores posiciones (cada posición es, a su vez, un vector) que las
partículas han alcanzado individualmente en las iteraciones anteriores (aspecto referido en el modelo como vida pasada de la partícula); entonces
bi se corresponderá con el óptimo individual de la partícula i en
su vida pasada. Del mismo modo, se indicará mediante [b]G el vector
cuyos elementos son las mejores posiciones globalmente alcanzadas
por el conjunto de partículas en las iteraciones anteriores; entonces se
indicará mediante bG al óptimo global alcanzado por el sistema de partículas
hasta la iteración presente. Dado el vector que indica la posición de las partículas en cierta iteración k, Xk, el cambio de posición en la iteración siguiente, k+1, para la partícula i-ésima, resultará de la siguiente regla de movimiento:
X[k+1] i = X[k] i + V[k+1] i x Dt (8)
donde el término V[k+1] i es referido como velocidad de la partícula iésima; Dt es es paso de iteración (simil temporal) e igual a la unidad. De modo que es más frecuente encontrar la expresión:
X[k+1] i = X[k] i + V[k+1] i (9)
El vector velocidad para la partícula i-ésima, se expresa como sigue:
V[k+1] i = V[k] i + wC x (r1 [k]) x [b[k] i - X[k] i] + wS x (r2 [k]) x [b[k] G - X[k] i] (10)
El primer término de la suma (10), representa la inercia o hábito de la partícula i: tiende a mantener su movimiento, para la iteración k+1, en la dirección en la que se movía en la iteración k. El segundo término representa la memoria o capacidad cognitiva de la partícula i: es atraída por el mejor punto del espacio de búsqueda alcanzado individualmente en su vida pasada; y el tercer término representa la cooperación entre el conjunto, o capacidad social, de la partícula i respecto del enjambre: las partículas comparten información sobre la mejor posición globalmente alcanzada por el enjambre. La incidencia de estos factores sobre cada partícula, está dada por las constantes o parámetros del modelo, wC,S. El parámetro wC recibe el nombre de constante cognitiva y el parámetro wS se denomina constante social del enjambre. Intervienen los parámetros (r1) y (r2), los cuales son números aleatorios uniformemente distribuidos en [0,1], U[0,1], y cuyo objetivo es emular el comportamiento estocástico (un tanto impredecible), que exhibe la población o enjambre, en cada iteración k. La Figura 2 presenta la regla de movimiento correspondiente al PSO Clásico o Canónico, en dos dimensiones, para tres particulas: pi, pj y ph. Se observa que, partiendo de la posición que cada partícula tiene en cierto "instante" o iteración k, X[k], por composición vectorial de cada factor de influencia en el operador velocidad (inercia, memoria y cooperación) resulta la nueva posición X[k+1]. Nótese como cada partícula preserva, a través de la componente genérica Vb[k], su memoria a la mejor posición registrada hasta ese "instante" o iteración k, a la vez que todas cooperan compartiendo la información sobre la mejor posición global alcanzada por enjambre, según indica la componente genérica VG[k].
Figura 2: Regla de Movimiento para el PSO Clásico en dos dimensiones para tres
partículas
Existen algunas variaciones, de interés para las propuestas del presente trabajo, sobre la forma Canónica del PSO. Se discuten brevemente en el epígrafe siguiente.
IV.2.2. Modificaciones sobre el PSO Clásico. Función de Decaimiento Inercial y Factor de Constricción
A) PSO con Función de Decaimiento Inercial: En esta forma, el operador velocidad, dado por la expresión (10), es modificado mediante la introducción de una función decreciente con el número de iteraciones, k, denominada Función de Inercia o de Decaimiento Inercial, d(k). Su objeto es reducir, progresivamente, la importancia del término de inercia [12]. La expresión (10) es, entonces, modificada sustituyendo el primer término por el producto entre una nueva constante, wI, denominada constante de inercia y tal función d(k):
V[k+1] i = d(t) x wI x V[k] i + wC x (r1 [k]) x [b[k] i - X[k] i] + wS x (r2 [k]) x [b[k] G - X[k] i] (11)
Una forma típica para d(k), está dada por la siguiente expresión lineal:
donde k es la iteración actual; nTK es el número máximo de iteraciones de la metaheurística; y [wMin , wMax] son dos constantes inerciales, máxima y mínima, cuyos valores típicos resultan ser 0,4 and 0,9 respectivamente. La definición externa de la Función de de Decaimiento Inercial requiere de cuidado, puesto que resulta intuitivo el hecho de que si el término de inercia resultase eliminado en iteraciones tempranas del algoritmo, el procedimiento corre el riesgo de quedar atrapado en una solución óptimo-local (o subóptima).
B) PSO con Factor de Contricción: En este caso, el operador velocidad canónico se modifica como sigue:
V[k+1] i = X x { V[k] i + q M x (r1 [k]) x [b[k] i - X[k] i] + qC x (r2 [k]) x [b[k] G - X[k] i] } (13)
donde X se denomina Factor de Constricción (13), y se obtiene desde la siguiente expresión condicionada:
Dos configuraciones típicas para este conjunto de parámetros, resultan
ser: a) qM= qC = 2.05, q = 4.1, k = 1 y X = 0.729; b) qM= qC =2.8, q = 4.1,
k = 1 y X= 0.729.
Estas dos variantes del PSO serán empleadas en la simulación presentada.
IV.3. La Metaheurística EPSO
La Optimización Evolucionaria por Enjambre de Partículas (Evolutionary Particle Swarm Optimization - EPSO) propuesta en [14] y [15], constituye un algoritmo de optimización metaheurístico que integra los conceptos de Estrategias Evolutivas (Evolution Strategic) y Optimización de Enjambre de Partículas (Particle Swarm Optimization). Los autores proponen conferirle al PSO una capacidad auto-adaptativa, tal que permita a la MetaHeurística desarrollar un proceso de cambio de comportamiento, conforme resulte la evolución de las soluciones. La auto-adaptación permitiría que, en cada iteración k, los parámetros que requieren de ajuste externo puedan adaptarse sin el riesgo referido de convergencia prematura a un óptimo local. El mecanismo del algoritmo EPSO se puede describir de la siguiente manera: para una iteración k del PSO, las partículas evolucionarán a lo largo de un cierto número de generaciones, según los siguientes operadores evolutivos: a) Replicación: cada partícula es replicada un número r de veces, generando partículas iguales a las existentes; b) Mutación: los parámetros estratégicos (constantes de inercia, cognitiva y social, esencialmente) son mutados (adoptan, en rigor, el carácter de parámetros con la iteración k); c) Evaluación: cada sucesor concebido a través de los pasos anteriores, es evaluado mediante la función de aptitud definida; d) Selección: mediante algún proceso (típicamente, el torneo estocástico), las mejores partículas sobreviven para formar la nueva generación, que se somete, en la iteración siguiente, a la nueva regla de movimiento. La ecuación evolutiva para la regla del movimiento en el EPSO se sintetiza en la velocidad de la partícula i-ésima, entendiendo que la iteración k se corresponde con una nueva generación:
V[k+1] i = wi I *[k] x (r1 [k]) x V[k] i + wi C *[k] x (r2 [k]) x [b[k] i - X[k] i] + wiS *[k] x (r3 [k]) x [b[k]* G - X[k] i] (16)
donde: el superíndice (*), significa que los parámetros son evolutivos, producto de la mutación. La regla de mutación aplicable a las constantes wi[I, C, S] tiene, como expresión general:
wi[I, C, S] *[k+1] = wi[I, C, S] [k] x [1+ s x N(0,1)] (17)
en la cual: s es un parámetro de aprendizaje, externamente fijado, que controla la amplitud de las mutaciones; N(0,1) es una variable aleatoria con distribución gaussiana de media 0 y varianza 1. Adicionalmente, el óptimo global también es perturbado en cada iteración, según la regla:
b[k+1]* G = b[k]* G + wiN *[k] x N(0,1)] (18)
donde wiN *[k] es un cuarto parámetro estratégico de la regla de movimiento, que controla la amplitud del vecindario de b[k]* G donde es más probable localizar la mejor solución global (entendida, al menos, como una solución mejor que la b[k]* G actual, para la iteración k). El nuevo parámetro, como se indica con el superíndice (*), es también mutado según la regla (17). En la Figura 3, se presenta la regla de movimiento modificada para el EPSO. Nótese que el vector cooperación mutado (mediante línea de puntos) no apunta en la dirección de b[k] G, sino de b[k]* G.
Figura 3: Regla de Movimiento para el EPSO
Desde estas formulaciones, se definirán los elementos de la metaheurística propuesta en el presente trabajo: FEPSO Multi-Objetivo.
V. Metaheurística FEPSO multi-objetivo. Una nueva propuesta
V.1. Antecedentes de las Metaheurísticas Multi-Objetivo
El enfoque adoptado en los desarrollos de las metaheurísticas más
difundidas en la bibliografía especializada (PSO, Búsqueda Tabú,
Recocido Simulado, Algoritmos Genéticos, Colonia de Hormigas, entre
otras), fue primigeniamente mono-objetivo. Existen diferentes propuestas
en el estado del arte para extender ciertas metaheurísticas al dominio
multi-objetivo. Específicamente, para el PSO, se tienen propuestas
como la presentada en [17], denominada MOPSO (Multi-Objetive PSO).
Al efecto de concebir una función que pondere la aptitud de las soluciones
en un contexto multi-objetivo de optimización, deben satisfacerse
dos requerimientos:
A) Pareto-dominancia en las soluciones: las soluciones igualmente óptimas deben satisfacer una escala pareto-dominate, lo cual supone que: si dos soluciones componen un frente pareto-óptimo, ninguna
de ellas puede ser mejorada en cierto objetivo, sin empeorar al
menos en uno de los restantes. Por tal motivo, se las refiere como
soluciones no dominadas (ninguna domina a la otra), y resultan igualmente
preferibles o aptas. Por el contrario, dos soluciones exhibirán
dominancia en este sentido si una de las dos mejora, respecto de la
otra, cierto objetivo, sin empeorar el resto. La dominante resultará, así,
preferible o más apta.
B) Compatibilidad métrica respecto del espacio de búsqueda: En general, aun para los algoritmos metaheurísticos mono-objetivo,
el diseño de una función de aptitud (fitness) que no introduzca una métrica
adecuada para definir el mérito de las soluciones obtenidas evidenciará ciertas limitaciones que, erróneamente, pueden asociarse con el
algoritmo o con la especificación de los parámetros en el modelo formal
(por caso, las constantes wC,S, en el PSO Canónico). Este efecto se hace
aún más pronunciado al extender la metaheurística considerada al contexto multi-objetivo. El espacio de búsqueda tiene una influencia sustancial.
Múltiples variables de decisión, discretas, con intervalos estrechos
en sus valores factibles, y buenas soluciones muy dispersas en tal espacio,
impactan fuertemente sobre la compatibilidad que debe guardar la
métrica de la función de aptitud, respecto de los estímulos que induce
sobre los agentes para explorar eficientemente el espacio de búsqueda.
Este aspecto ha sido muy estudiado para los aportes del presente trabajo.
A modo de síntesis, puede decirse que: para las metaheurísticas sustentadas
en la inteligencia de grupo, una función de aptitud resultará métricamente compatible con el espacio de búsqueda, en la medida que
pueda propiciar el cumplimiento de los cinco principios enunciados.
En el problema de balance de fases, la propuesta MOPSO referida, no
cumple satisfactoriamente este último requerimiento, mientras que la
FEPSO, sí.
V.2. Las incertidumbres no estocásticas en el problema de decisión multi-objetivo
Los dos requerimientos anteriores adscriben, implícitamente, a un paradigma
en el cual se tiene certeza respecto las preferencias entre los objetivos, o bien sobre el grado de satisfacción que el alcance de cierto
objetivo individual produce en el tomador de decisiones. Adicionalmente,
en la teoría de preferencias, tal paradigma reconoce sólo incertidumbres
de naturaleza estocástica. Los procesos de toma de decisión, conforme
este paradigma, se establecen en un entorno de riesgo tal, que
puede representarse por algún conjunto equivalente de situaciones de
certeza. En última instancia, esto implica sostener que, en el Universo
de Decisión, todos los estados de la naturaleza y las posibles alternativas,
son susceptibles de modelar mediante alguna distribución de probabilidades [17].
En el enfoque adoptado para la metaheurística multi-objetivo propuesta,
no se tienen, en general, certezas, y las incertidumbres relativas
al nivel de satisfacción de un objetivo, o a las preferencias entre los
múltiples objetivos a optimizar no son estocásticas. Desde un marco
teórico-metodológico propuesto por Keynes [18], la incertidumbre que
domina el universo de decisión adopta un carácter que él refiere como
fundamental. Se sintetiza esta idea, del modo siguiente: Existe incertidumbre
fundamental cuando la probabilidad de un resultado es desconocida,
cuando el valor de un resultado es desconocido, cuando los
resultados que posiblemente pueden ser consecuencia de una opción
son desconocidos, o cuando el espectro de posibles opciones es desconocido. En tal marco, se hablará de incertidumbre de valor. Una alternativa
metodológica para la representación de tal incertidumbre, son los
conjuntos difusos, que se introducirán en el epígrafe V.3.
Se impondrá, así, un tercer requerimiento a la función de aptitud de
la metaheurística propuesta: C) Capacidad de captar las incertidumbres
de valor: posibilidad de modelar las incertidumbres en el
grado de satisfacción asociado al cumplimiento de un objetivo individual,
o a las preferencias entre objetivos.
V.3. Concepción de una función de aptitud multi-objetivo bajo incertidumbres no estocásticas de valor
Para representar estas incertidumbres, se propone aplicar el principio
de toma de decisión en ambientes difusos, formulado por Bellman y
Zadeh [19]. Primeramente se dirá que un conjunto difuso constituye una función, denominada función de pertenencia, sobre cierta variable
real (discreta o continua), que le asocia a cada valor en su dominio, otro
valor llamado de aceptación, satisfacción o pertenencia, en el intervalo
[0, 1]. El valor 1 corresponde a la máxima pertenencia.
Entonces el principio de Bellman y Zadeh puede sintetizarse como
sigue:
Considérese un conjunto de objetivos difusos (esto es: sus incertidumbres
de valor son representadas por medio de conjuntos difusos):
{O} = { O1, O2, ..., ON}, cuyas funciones de pertenencia resultan ser μOj,
con j=1...N, y un conjunto de restricciones difusas (esto es: sus incertidumbres
de valor en los límites superior e inferior sobre las variables de
decisión, son representadas por conjuntos difusos): {R} = { R1, R2, ..., RH},
cuyas funciones de pertenencia resultan ser μRi, con i=1...H.
Se denomina Conjunto Difuso de Decisión al obtenido mediante:
D = O1 <C> O2 <C>...<C> ON <C> R1 <C> R2 <C> ...<C> RH (19)
donde <C> es un operador entre conjuntos difusos que recibe el nombre de confluencia. La confluencia más comúnmente empleada en este contexto es la intersección. Asociado al operador <C> entre los conjuntos difusos, existe un operador C entre sus funciones de pertenencia que genera, desde (19), el valor de pertenencia del conjunto difuso de decisión, conforme los valores individuales de las funciones de pertenencia del segundo miembro. Es decir:
μD = μO1 C μO2 C...C μON C μR1 C μR2 C ...C μR (20)
El operador C recibe el nombre general de t-norma. Por ejemplo, si la
confluencia fuese la intersección, <C> º Ç, C resulta la t-norma min: el
mínimo valor, para cierta instancia de las variables de decisión, en el
conjunto de funciones de pertenencia del segundo miembro de la expresión (20).
Entonces, si {A} es un conjunto de alternativas sobre las que debe
decidirse por la mejor, en términos del modelo objetivo-restricciones {O}-{R}, se define como decisión maximizante de Bellman y Zadeh al
valor de la función de pertenencia en el conjunto de decisión difusa,
dado por:
μD Max = MAX[A] {μO1 C μO2 C...C μOn C μR1 C μR2 C ...C μRH} (21)
Nótese que todos los conjuntos difusos (objetivos y restricciones) son
mapeados en el mismo conjunto de decisión D. tratándose de la misma
forma. Respecto del concepto de t-norma, es definida por las siguientes
propiedades: Si t: [0, 1] ® [0, 1] es una t-norma,entonces: a)
t(0,0) = 0; t(x,1) = x; b) t(x,y) = t(y,x); c) if x £ a e y £ ß Þ t(x,y) £ t(a,ß); and
d) t((t(x,y),z)) = t(x,t(y,z)). De modo que la aplicación de tal principio para
construir la función de aptitud multi-objetivo, en un contexto de incertidumbre
de valor, seguirá los siguientes pasos:
1) Cada Objetivo y cada Restricción son representados por conjuntos
difusos, que captan e introducen tales incertidumbres; 2) La función
de aptitud difusa, fapD, resultará de la decisión maximizante dada por
la expresión (21). Con ello se satisface el requerimiento C) (Captación
de Incertidumbres de Valor) referido en V.2., y 3) Se debe definir una tnorma
que satisfaga, con μD Max = fapD, los requerimientos A) (Paretodominancia)
y B) (Compatibilidad Métrica) referidos en V.1.
V.4. Concepción de la Metaheurística FEPSO
La capacidad auto-adaptiva del operador velocidad EPSO logra dos ventajas importantes: a) El número de parámetros externos se minimiza y b) los pesos o constantes del modelo se auto-ajustan en las iteraciones del EPSO. Pero aún, la metaheurística sólo estará en condiciones de abordar problemas mono-objetivo determininísticos. La función de aptitud fapD, definida en V.3., compone la metaheurística de interés, Fuzzy EPSO - FEPSO.
VI. Formulación específica de la metaheurística FEPSO para el problema de balance de fases
VI.1. Generalidades
Se supone un sistema, SdA, existente, en operación y con un alto grado de desbalance. Se considerarán cuatro objetivos, los cuales deben ser minimizados: a) Las Pérdidas Activas de Potencia; b) La Componente Homopolar (Módulo) del sistema trifásico de corrientes, referida a la salida del alimentador principal del SdA; c) Las Tensiones fuera de Tolerancia Regulatoria, y d) El Número de Cambios de Conexión de las cargas monofásicas a una fase distinta, pues tal operación trae aparejado un costo. Las restricciones impuestas serán las de máxima capacidad en los alimentadores. Estas se supondrán rígidas: no se aceptarán intensidades superiores al límite impuesto para cada alimentador. De modo que se tienen solamente cuatro objetivos que deben representarse mediante conjuntos difusos.
VI.2. Conjuntos Difusos de cada Objetivo
Se adoptarán funciones de pertenencia lineales, para los conjuntos difusos asociados a cada objetivo. Luego serán afectadas de un ponderador exponencial [20], cuyo efecto es contraer o expandir la característica funcional, tal como se observa en la Figura 4. Este efecto implica aumentar (contracción) o disminuir (expansión) la importancia del objetivo en la función de aptitud difusa, fapD.
Figura 4: Contracción (pμm > 1) y Expansión (pμm < 1) de un Conjunto Difuso
Lineal (pμm =1)
Considérense, entonces, dos límites, superior e inferior, en los valores posibles de cierto objetivo m, cuya variable es vm. Se referirán como vMaxm y vMinm, respectivamente. Adicionalmente, sea pμ m su ponderador exponencial, cuyo efecto sobre el conjunto difuso solidario se explicó. Entonces, la función de pertenencia lineal genérica para el objetivo m resultará de la expresión condicional:
Para este trabajo, tales límites serán obtenidos como sigue: a) vMinm
será el resultado de una simulación de la metaheurística PSO monoobjetivo,
que minimice el objetivo m, con una función de aptitud
determinísitica, tal y como fue concebido PSO. La elección del PSO es a
los efectos de comparar su performance con la de la metaheurística propuesta; b) vMaxm, es un valor dependiente del objetivo bajo análisis, y que será explicado seguidamente sobre la formulación de cada objetivo
individual. Como parte del proceso de evaluación mediante fapD,
es necesario simular un Flujo de Potencia Trifásico (FPT) sobre el SdA.
Esta herramienta proporciona las pérdidas activas totales, el perfil de
tensiones en cada nodo de los alimentadores, y las corrientes en los
mismos. Sus datos son las Potencias o Consumos, tanto activos como
reactivos, de cada carga. Al respecto puede consultarse [21]. Las Simulaciones
PSO mono-objetivo son las siguientes:
A) Pérdidas totales de potencia activa del SdA (PerdT): En
este caso, se simula un PSO mono-objetivo que minimiza las PerdT del
SdA. Con ello se obtiene vPerdT Min. Se sigue el algoritmo representado
en la Figura 5 (Diagrama de Flujo) para el FEPSO, pero eliminando las
tareas Multi-Objetivo y Operadore/s Evolutivo/s, considerando, además,
que fapD = PerdT. El valor vPerdT Max, se obtiene de simular un FPT en la
situación de referencia, correspondiente al SdA en operación.
B) Componente homopolar (Módulo) referida a la salida del
SdA (|I[0] S|):
Análogamente, a la obtención de vPerdT Min, se obtiene v|I[0] S| Min. Para
obtener v|I[0] S| Max, también se simula un FPT en el SdA en la situación
de referencia.
C) Índice de caídas de tensión (I(Du)): El SdA es de operación
radial. Esto significa que las mayores caídas de voltaje se presentarán
en los nodos terminales de cada alimentador. Por lo tanto, se definirá un índice que integre los voltajes en dichos nodos, estableciendo dos
valores de tensión como parámetros de referencia, uad (tensión límite dentro de tolerancia) y uinad (tensión límite fuera de tolerancia) (por
ejemplo, uad = 0.95 [pu] - por unidad, respecto de la tensión nominal -
y uinad = 0.9 [pu]). Entonces, para la construcción de la función de
pertenencia de un conjunto difuso solidario a la tensión de un nodo
terminal, es posible definir los siguientes valores: vuMin = 1/uinad y vuMax = 1/unad. Luego, se tendrán tantas funciones de pertenencia como
nodos terminales en el SdA, μ(u)1, μ(u)2, ... , μ(u)NT, siendo NT el número
de nodos terminales de SdA. Se propone un índice de tensión, función
valuada en [0, 1], dado por la media geométrica de los valores adoptados
por las funciones de pertenencia individuales de cada nodo terminal. Esto es:
D) Número de cambios de fase de conexión (NC): para determinar vNC Max se propone la expresión:
donde cada elemento corresponde al resultado de las optimizaciones PSO mono-objetivo, y NC0 es un valor externamente fijado, que puede ser nulo.
VI.3. t-norma considerada en la Decisión Maximizante
La t-norma que más se ajustó a los requerimientos de Pareto-dominancia y Compatibilidad Métrica se denomina Producto de Einstein, y se define como:
donde x e y son funciones de pertenencia genéricas.
Desde las mismas, se expresa, finalmente:
donde: pμPerdT, pμ|I[0]S|, pI(Du) y pNC, son los ponderadores exponenciales referidos en VI.2.. Para su cálculo puede seguirse el método sugerido en [20]. Aquí se ha seguido una alternativa que permite enfatizar el azar en las ocurrencias en las preferencias entre los objetivos, resultante de la incertidumbre de valor. Para ello, simplemente se establece, subjetivamente, un valor arbitrario para cada ponderador: mayor valor, mayor importancia del objetivo/restricción. El conjunto [A] de alternativas sobre el cual se evalúa la tPE maximizante, en cada iteración de la metaheurística FEPSO, es la población de partículas. El esquema correspondiente puede apreciarse en la Figura 5. El proceso iterativo se detiene cuando, en cierto número prefijado de iteraciones máximas, NiterMax, no se produce ningún cambio en el Óptimo Global alcanzado por el enjambre. El procedimiento se aborta cuando k=NIterSal, parámetro complementario, com NIterSal>NItermax.
Figura 5: Diagrama de Flujo FEPSO
VII. Simulación
El sistema considerado se corresponde con una salida real de un CT MT/BT (13.2/0.38 [kV]) en una zona suburbana de la ciudad de Bariloche, Argentina. Las cargas son monofásicas y los consumidores son del tipo residencial. El esquema trifilar se presenta en la Figura 6. Se ha supuesto que las cargas exhiben una característica de Potencia Constante, ya que así se tienen las mayores pérdidas, generando una evaluación que hace las veces de cota superior para la minimización de este objetivo. El problema multi-objetivo así planteado (Potencia Constante), no puede ser resuelto por métodos basados en programación matemática.
Figura 6: Esquema Trifilar de la Red/Salida CT MT/BT considerada en la Simulación.
Sobrecargas Importantes en las Fases [S] y [T]. Los rectángulos en líneas
de punto, limitan nodos físicos (postes).
En el modelo FEPSO, cada partícula resulta una secuencia de conexión
de fases, de modo que el vector Xi, asociado cierta partícula iésima,
tendrá tantas componentes como cargas monofásicas tenga el
SdA, número referido como nC.
Los datos de los conductores empleados (sección, resistencia y la
reactancia inductiva), son: Alim Pr: 3x95 [mm2], (r = 0.372 + i xl =
0.0891) [W]/[km], y Alim SI, SII, SIII, SIV, SV, SVI, TI, TII, TIII y TIV:
3x35 [mm2], (r = 1.39 + i xl = 0.0973) [W]/[km]. En la Tabla 1 se
pueden apreciar los vectores [S], de potencias para cada carga, en
[kVA], y [d], correspondiente a la distancia de cada carga, respecto del
punto de donde se deriva el alimentador al que pertenece, en [km].
Estos vectores aparecen ordenados por alimentador, en filas consecutivas.
Cada elemento en [S] y [d] respeta el orden establecido en la Figura 6. El número total de cargas es nC=115. El factor de potencia se asumió 0.85. El de simultaneidad de cargas, 0.6. Los valores vMinm y vMaxm para las funciones de pertenencia resultaron:
{vPerdT Min=6.94 [kW], vPerdT Max=13.02 [kW]}; {v|I[0] S| Min=0.1 [A],
v|I[0] S| Max=47.6 [A]};
{vNC Min=45; vNC Max=85}, con NC0 =34. La tensión de referencia (FPT) es 1.05 [pu].
Tabla 1. Resultados PSO y FEPSO: Secuencia de Fases
Los parámetros utilizados en la metaheurística FEPSO fueron:
a) Constantes Iniciales: wI =0.5; wM = wC =2;
b) s, Parámetro de Aprendizaje solidario a la mutación (wI, wM, wC y bG): 0.2;
c) Número de replicaciones por partícula: r = 5;
d) NIterMax =400;
Los ponderadores exponenciales se asumieron en valor 3, excepto
para I(Du), en 4.
Los parámetros utilizados para las metaheurísticas PSO mono-objetivo, fueron:
a) Para minimizar PerdT y |I[0]
S|, se empleó un Modelo con Función
de Decaimiento Inercial, cuyas constantes wM = wC =2, y d(k) dada por
(12), con wMin=0.4 , wMax=0.9 y nTK= NIterMax =400;
b) Para minimizar I(Du), la aplicación del modelo anterior siempre
quedó atrapada en soluciones subóptimas, o con aptitud nula, por ser
el índice estricto. Por ello se empleó un Modelo PSO con Factor de Constricción, conforme los parámetros b), presentados en el epígrafe IV.2.2. En la Tabla 1 se muestran los resultados de las secuencias de
fases en cada alimentador del SdA, para los PSO mono-objetivo y el
FEPSO. En la Tabla 2 se muestran los resultados de las optimizaciones
PSO y FEPSO, en relación a la satisfacción de cada objetivo individual,
Número de Partículas o Población, Tiempos y detalles de la simulación
(hardware y software empleados).
Tabla 2. Resultados PSO y FEPSO: Objetivos. T es el Tiempo de Ejecución
VIII. Conclusiones
Como síntesis de los desarrollos expuestos, se destacan los siguientes
puntos:
1º) Se presentó una novedosa metaheurística, FEPSO Multi-Objetivo,
sustentada en decisiones estáticas difusas, capaz de resolver problemas
de optimización combinatoria. Se aplicó con éxito en un problema
combinatorio tipo: el desbalance de fases en SDEE trifásicos de BT. Se
destaca la imposibilidad de implementar un modelo para resolver este
problema mediante métodos de programación matemática.
2º) En tal sentido, pueden observarse los excelentes resultados alcanzados
por la metaheurística FEPSO respecto del estado inicial o de
referencia en el SdA. La capacidad auto-adaptativa permitió ajustar el
operador velocidad sin replantear la definición de parámetros externos,
cuestión requerida por los PSO mono-objetivo.
3º) La t-norma Producto de Einstein satisfizo la Pareto-dominancia y
la Compatibilidad Métrica requeridas por la función de aptitud. No obstante,
podrían ser exploradas otras opciones. Asimismo, podrían considerarse
funciones de pertenencia no lineales a los efectos de representar
el nivel de satisfacción correspondiente a cada objetivo individual.
4º) La propuesta de una función de aptitud multi-objetivo sustentada
en la teoría de los conjuntos difusos flexibiliza el entorno de decisión.
Este aspecto constituye una característica singular en relación a
la captación de las incertidumbres de valor.
5º) Desde lo metodológico, considerando la caracterización de los problemas
de optimización combinatoria: escasa información en términos
de las funciones objetivo y el espacio de búsqueda, el tomador de decisiones exhibe una racionalidad acotada. La metaheurística propuesta
incorpora este presupuesto, conjuntamente con el reconocimiento de
incertidumbres no estocásticas de valor, de modo que contribuye hacia un cambio de paradigma en la solución de tales problemas.
1. GAREY, M. Computers and Intractability. A Guide to the Theory of NP-Completeness. Bell Telephone Laboratories; 1979. [ Links ]
2. GONZÁLEZ, J.; SÁNCHEZ A.; VELÁSQUEZ, J.; GALVE, J. Algorítmica. Diseño y Análisis de Algoritmos Funcionales e Imperativos. México: Addison Wesley Iberoamericana; 1993. [ Links ]
3. LEISERSON, C.; RIVEST, R.; STEIN, C.; CORMEN, T. Introduction to Algorithms. Cambridge: MIT Press - McGrawHill; 2001. [ Links ]
4. LAWLER, E.; LENSTRA, J.; RINNOOY KAN, A.; SHMOYS, D. (eds.). The Traveling Salesman Problem. A Guided Tour to Combinatorial Optimization. Chichester: John Wiley and Sons; 1985. [ Links ]
5. DÍAZ, A.; GLOVER, F.; GHAZIRI, H; GONZALEZ, J., LAGUNA, M.; MOSCATO, P. et al. Optimización Heurística y Redes Neuronales. Madrid: Paraninfo; 1996. [ Links ]
6. GLOVER, F. Tabu Search: Part I. ORSA Journal on Computing. 1989; 1: 190-206. [ Links ]
7. BLACK, P. Dictionay Of Algorithms and Data Structures. National Institute of Standars and Technology; 2009. <http://www.nist.gov/ index.html> [June 2009]. [ Links ]
8. OSMAN, I; KELLY, J. (eds.) Meta-Heuristics: Theory and Applications. Boston: Kluwer Academic; 1996. [ Links ]
9. ZHU, J.; GRIFF, B.; CHOW, M. Phase Balancing Using Mixed-Integer Programming. IEEE Trans. Power Systems. 1998; 13 (4):1487-1492. [ Links ]
10. BENI, G.; WANG, J. Swarm Intelligence in Cellular Robotic Systems. Proccedings NATO Advanced Workshop on Robots and Biological Systems, Tuscany; June 26-30, 1989. [ Links ]
11. KENNEDY, J.; EBERHART, R. Particle Swarm Optimization, en: IEEE International Conference on Neural Networks. Piscataway: Pert; 1995. [ Links ]
12. BEYER,H. Toward a Theory of Evolution Strategies: Self-Adaptation. Evolutionary Computation. 1996; 3 (3): 311-347. [ Links ]
13. CLERC, M.; KENNEDY, J. The Particle Swarm - Explosion, Stability, and Convergence in a Multidimensional Complex Space. IEEE Transactions on Evolutionary Computation. 2002; 6 (1): 58-73. [ Links ]
14. MIRANDA, V.; FONSECA, N. EPSO-Best-Of-Two- Worlds Meta-Heuristic Applied To Power System Problems (pp-1080-1085). En: Proceedings of the 2002 Congress on Evolutionary Computation-CEC02, Vol. 2. USA: Honolulu; 2002. [ Links ]
15. MIRANDA, V.; KEKO, H.; DUQUE JARAMILLO, A. EPSO: Evolutionary Particle Swarms. (pp.139- 168). En: Jain L., Palade V., Srinivasan D. (Eds.). Advances in Evolutionary Computing for System Design. Berlin: Springer; 2008. [ Links ]
16. COELLO, C.; SALAZAR M. (2002). MOPSO: A Proposal for Multiple Objective Particle Swarm Optimization. (pp. 1051-1056). En: Proceedings of the 2002 Congress on Evolutionary Computation-CEC02, Vol. 2, USA: Honolulu. [ Links ]
17. SCHWEICKARDT, G. Sistemas de Distribución de Energía Eléctrica Económicamente Adaptados. Discusión y Propuestas Metodológicas. Bariloche: Editorial Fundación Bariloche; 2007. [ Links ]
18. LAVOIE, M. Foundations of PostKeynesian Economic Analisys. Ottawa: Edward Elgar Publ; 1992. [ Links ]
19. BELLMAN, R.; ZADEH L. Decision-Making in a Fuzzy Environment. Management Science. 1970; 17:141-164. [ Links ]
20. SCHWEICKARDT, G.; MIRANDA, V. A Two-Stage Planning and Control Model Toward Economically Adapted Power Distribution Systems using Analytical Hierarchy Processes and Fuzzy Optimization. International Journal of Electrical Power & Energy Systems. 2009; 31 (6): 277-284. [ Links ]
21. ARRILLAGA, J.; ARNOLD, C.; HARKER, B. Computer Modelling of Electrical Power Systems. New York: John Wiley & Sons; 1991. [ Links ]