SciELO - Scientific Electronic Library Online

 
vol.2 issue5¿Cómo finalizan las controversias?: Un nuevo modelo de análisis: la controvertida historia de la sacarinaLa experiencia del Mundo Técnico author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

  • Have no cited articlesCited by SciELO

Related links

  • Have no similar articlesSimilars in SciELO

Share


Revista iberoamericana de ciencia tecnología y sociedad

On-line version ISSN 1850-0013

Rev. iberoam. cienc. tecnol. soc. vol.2 no.5 Ciudad Autónoma de Buenos Aires May 2005

 

Computadoras, modelización matemática y ciencia experimental

Pablo M. Jacovkis (jacovkis@dc.uba.ar)*
Universidad de Buenos Aires, Argentina

En este trabajo se plantea que la computadora no solamente funciona como una poderosa herramienta para la modelización numérica de problemas de ciencias experimentales, sino que en cierto sentido la matemática aplicada puede considerarse una ciencia experimental, cuyo laboratorio es la computadora y, por consiguiente, los modelos matemáticos computacionales son o pueden llegar a ser herramientas para conocer mejor fenómenos de distintas disciplinas. Se observa además cómo la matemática pura también ha comenzado a usar la computadora para calcular constantes universales y demostrar teoremas.

Palabras clave: Modelización matemática; Experimentación numérica; Ciencia experimental

In this article we argue that the computer not only works as a powerful tool for numerical modeling of problems in experimental science, but also in a certain sense applied mathematics may be considered an experimental science, whose laboratory is the computer, and therefore computer mathematical models are or may become tools to better know phenomena from different disciplines. In addition, one can observe how pure mathematics has also begun to use computers to calculate universal constants and to prove theorems.

Key words: Mathematical modeling; Numerical experimentation; Experimental science

1. Introducción

En 1963, un distinguido meteorólogo norteamericano, Edward N. Lorenz, publicó un artículo en una importante revista de meteorología (Lorenz, 1963). Ese artículo es famoso porque dio comienzo a la teoría del caos, una de las ramas de la matemática más atractivas de los últimos decenios. En esencia, el artículo mostraba cómo con apenas tres ecuaciones diferenciales no lineales se podía representar un problema matemático mal planteado en el sentido de Hadamard. El problema era no solamente inestable, sino que las trayectorias tendían a atractores extraños, de modo que se tenía el fenómeno de caos determinístico: incluso contando con una computadora de precisión infinita, no se podía estar seguro del resultado en un instante suficientemente alejado del tiempo de simulación, porque los datos iniciales están sujetos a errores de medición, y una medición con un aparato con más resolución que otro puede provocar a la larga resultados totalmente diferentes: el azar en algún sentido existe "dentro" del determinismo y, además, no se debe a la complejidad del fenómeno; justamente, uno de los factores más llamativos del artículo de Lorenz es que el problema no es para nada complejo; asombrosamente, consta de nada más que tres ecuaciones diferenciales ordinarias que representan una drástica simplificación de las ecuaciones que rigen la convección térmica en una capa de fluido. El trabajo de Lorenz tardó un poco en ser conocido por los matemáticos, debido a la inevitable dificultad de cada disciplina en enterarse de los aportes de otra, producto del enorme aumento del conocimiento y su difusión, y de la especialización que ello fuerza. Pero finalmente terminó convirtiéndose en una de las más ricas y populares ramas de la matemática de la segunda mitad del siglo veinte -una historia en lenguaje no técnico puede leerse con agrado en el exitoso libro de Gleick (1986).

De alguna manera la teoría del caos es paradigmática (en el sentido que Thomas Kuhn da a esa palabra) dado que la ciencia experimental moderna, y en particular la física, la más matematizada de todas, era "bien planteada": la idea intuitiva de los físicos es que los problemas deben ser estables, y que pequeños cambios en los datos deben provocar cambios razonablemente pequeños en los resultados. Eso garantiza que cuentas hechas con datos experimentales obtenidos con aparatos de determinada resolución no pueden ser muy distintos de los obtenidos con aparatos de resolución mayor; si en la mayoría de los casos no fuera así (hasta la aparición de la teoría del caos la mayoría de los científicos pensaban que en todos los casos debía ser así) ninguna teoría permitiría predecir trayectorias aproximadas, y por consiguiente no existiría ciencia moderna. Cabe comentar, refiriéndonos en general a la meteorología, que la teoría del caos pone límites a la cantidad de días para los cuales se puede pronosticar el tiempo, en el mismo sentido (pero no con la misma precisión) que la velocidad de la luz pone límite a la velocidad a la cual un objeto puede trasladarse; de todos modos, ese límite todavía no se ha alcanzado, o sea mejorando la cantidad y calidad de los datos meteorológicos obtenidos y la capacidad de memoria y de cálculo de las computadoras todavía se podrán obtener mejores predicciones, y a más largo plazo (las actuales predicciones son confiables hasta siete días, y se supone que la cota de confiabilidad es de diez a catorce días). Lo cual indica que tal vez no sea una casualidad que ese fenómeno haya sido descubierto por un meteorólogo.

Pero lo que me interesa en este trabajo no es un análisis de la teoría del caos, o de su historia, para lo cual existe una abundante y precisa bibliografía. Lo que me interesa es indicar que la investigación de Lorenz fue un ejercicio, enormemente popular por el impacto de la teoría del caos, de matemática aplicada como disciplina experimental, cuyo laboratorio es la computadora, y por consiguiente de ejemplo de lo que muchos modelos matemáticos son o pueden llegar a ser. Y el interés aumenta si observamos que la computadora no solamente es "el laboratorio" de los matemáticos aplicados, sino también el de los matemáticos puros: ¿qué es si no el cálculo de las constantes de Feigenbaum, o las demostraciones "por computadora", como la del teorema de los cuatro colores? En las próximas secciones de este artículo discutiremos algunos de los problemas -y soluciones- que presenta este uso novedoso de la computadora en matemática y en ciencia experimental.

2. Antecedentes del problema

La historia del artículo de Lorenz es bastante conocida: Lorenz quería hacer un modelo matemático de la dinámica de fluidos de la atmósfera. Naturalmente, comenzó con un modelo muy simplificado, un "modelo de juguete" (toy model). A partir de determinadas condiciones iniciales satisfactorias, corrió el modelo hasta llegar a un tiempo de simulación que le interesaba. Como cada corrida era larga (se puede imaginar la rusticidad de la computadora de la cual disponía en esa fecha) y planeaba hacer unos cuantos experimentos, decidió, con buen criterio, tomar como instante inicial el estado del sistema un poquito antes del tiempo de simulación en el cual estaba interesado, y ahorrarse mucho tiempo de simulación en cada corrida. Era perfectamente consciente de que los valores impresos de salida de computadora que usaría como datos iniciales tenían un error numérico respecto de los valores reales procesados, porque imprimía con menos decimales que los correspondientes a los usados en la representación de cada número en la computadora, pero pensaba que el problema estaba bien planteado en el sentido de Hadamard, o sea esos pequeños errores provocarían pequeños cambios en los resultados. No fue así: los resultados fueron muy distintos, y del análisis de Lorenz surgió la teoría del caos, es decir, usando lenguaje técnico, la teoría de los problemas dinámicos no lineales altamente sensibles a cambios en las condiciones iniciales y cuyas trayectorias tienden a atractores con dimensión de Hausdorff fraccionaria. O sea, un experimento de computadora permitió detectar un tipo de fenómeno físico desconocido hasta entonces: es imposible un pronóstico del tiempo a plazos mayores que unos cuantos días aunque las ecuaciones sean lo más completas posibles, los métodos de resolución numérica los más exactos posibles y las computadoras usadas las de mayor capacidad de memoria, rapidez de cálculo y capacidad de representación de los números reales.

En realidad, no fue éste el primer uso de la computadora como laboratorio del matemático aplicado: en su excelente artículo, Strogatz (2003) relata cómo en 1953 Enrico Fermi, J. Pasta y Stanislaw Ulam inventaron el concepto de "experimento por computadora": usaron simulación numérica para entender mejor la entropía (Newel, 1974). Obsérvese que no estoy diciendo que antes no se usara la simulación numérica (por computadora y, antes de su aparición en la década de 1940, a mano) para entender mejor fenómenos de la realidad. Estoy diciendo que los arriba mencionados son ejemplos fundamentales, uno el caso pionero y el otro el caso más publicitado, de que la computadora funcionó como laboratorio para observar fenómenos de la realidad antes no detectados que produjeron nuevas teorías sobre el mundo que nos rodea. Incluso antes de pensarse que podía tener el mismo valor como herramienta de investigación que el laboratorio físico, la experimentación numérica ya se usaba para simular experimentos muy caros, lentos o no factibles en un laboratorio común, acompañando en su desarrollo al de las computadoras electrónicas; ejemplo de esto es el uso de las técnicas de Monte Carlo, aparentemente una idea de Ulam comentada a John von Neumann y cuyo nombre inventó Nicholas Metropolis; la primera publicación con ese nombre fue la de Metropolis y Ulam (1949); cabe mencionar que las técnicas de Monte Carlo son ejemplo de otro fenómeno interesante, que no será objeto de discusión en este trabajo, a saber el uso de un aparato esencialmente determinístico como la computadora electrónica para simular situaciones aleatorias; este tema está comentado, por ejemplo, en Jacovkis (1995). Y a su vez, curiosamente, la simulación estocástica sirve para cálculos determinísticos, como los de integrales múltiples. Es decir, con un aparato determinístico (la computadora) se resuelve un problema determinístico (la integración numérica) mediante un método probabilístico.

3. Meteorología, modelización matemática y computación

La computadora, entonces, a partir de su creación en la década de 1940, pasó a ser una poderosísima herramienta de las ciencias naturales, gracias a que permitió solucionar problemas numéricos antes insolubles. Y una de las primeras disciplinas beneficiadas por la computadora fue la meteorología. En realidad, la meteorología tiene una relación con el cálculo numérico que antecede en mucho a la aparición de las computadoras en la década de 1940. La idea de predicción numérica del tiempo resolviendo ecuaciones diferenciales fue formulada por Vilhelm Bjerknes en 1904 y desarrollada a partir de 1910 por Lewis Fry Richardson, quien decidió resolver numéricamente a mano sus ecuaciones: trabajando solo, tardó varios meses en hacer una predicción a seis horas de un área cerca de Munich, Alemania; esas predicciones, por añadidura, estaban equivocadas, pues su método numérico era inestable. A pesar de ello, Richardson consideró, con extraordinaria visión de futuro, que la idea valía la pena, y publicó un libro fundacional en 1922 (Richardson, 1956). Como no podía prever la aparición de la computadora, pensaba que poniendo un ejército de miles de calculistas manuales (la cifra que barajó era 64.000) a trabajar en paralelo, de modo que se cruzaran información por telégrafo, podía obtener la predicción antes de que se transformara exclusivamente en una ratificación (o rectificación) ex post de resultados observados. La necesidad de usar métodos numéricos para hacer predicciones no era solamente una idea solitaria de Richardson: fue otro meteorólogo, el distinguido Sverre Petterssen, quien en 1940, también antes de la aparición de la computadora, formuló el método que lleva su nombre, el cual todavía se usa para determinados problemas de seguimiento de trayectorias. Petterssen fue protagonista de un episodio clave no solamente para el desarrollo de la meteorología sino en general para el de la civilización: en los días previos a la invasión de Normandía durante la segunda guerra mundial era necesario decidir el día de la invasión, el día D. Para que la invasión tuviera éxito, era necesario que se dieran mínimas condiciones atmosféricas favorables. Dos teorías se enfrentaron: la de Petterssen, con el mayor uso posible de aplicación de la teoría, y la de Irving Krick, basada en analogía con situaciones anteriores. La predicción de Petterssen fue la correcta, y afortunadamente los oficiales aliados decidieron hacerle caso a Petterssen: si se hubiera seguido el criterio de Krick la invasión habría probablemente fracasado, no solamente con un costo impresionante en vidas, sino que además habría sido necesario posponerla por un año. El episodio está descrito excelentemente en el trabajo de Brenstrum (1994) y, entre otras cosas, muestra cuán imbricado está el desarrollo de la ciencia con la política, y lo difícil que es analizar asépticamente la historia de la ciencia.1

Era por lo tanto natural que John von Neumann, probablemente la primera persona que detectó el uso potencial de la computadora como laboratorio de los matemáticos, fuera, con su genio y su visión extraordinariamente global de la ciencia, quien más tratara de aplicarla en sus comienzos, en particular a la meteorología. Como muy bien señala Macrae (1992), von Neumann se interesó a partir de su participación en los proyectos bélicos durante la segunda guerra mundial en la solución numérica de las ecuaciones diferenciales en derivadas parciales no lineales que modelan los problemas de dinámica de fluidos. Von Neumann supuso en seguida que las computadoras permitirían resolver algunos de los problemas científicos, desde aerodinámica hasta fusión nuclear y huracanes. En particular, su contacto con los meteorólogos ya había sido establecido en 1942, cuando consultó con Carl-Gustav Rossby; en 1948 von Neumann comenzó su fructífera relación con Jule Gregory Charney en el Institute for Advanced Study. En abril de 1950 el grupo de Charney hizo predicciones exitosas a veinticuatro horas, y desde mediados de 1950 se hacen predicciones numéricas cada vez más confiables.

4. Modelizaciones discutibles

Obviamente, a partir de la aparición de la computadora se ha intentado modelizar cada vez más fenómenos de distintas disciplinas. En la era precomputacional la modelización matemática había dado resultados fabulosos en física y, si se considera a la estadística como ciencia experimental separada de la matemática, en la estadística.2 Se usaba poco en las otras disciplinas; cabe mencionar los modelos de Lotka y de Volterra en biología. La computadora abrió un camino para la formalización de disciplinas con características distintas de la física, descriptas a través de sistemas complejos y no lineales, en muchos casos no diferenciables. Ese camino, como sucede en esos casos, se presta a exageraciones e intentos de considerar que se tiene una nueva panacea para muchos problemas no resueltos; el caso más conocido de uso impropio de la modelización matemática que no satisfizo las expectativas es el de la teoría de catástrofes, muy en boga en la década de 1970 y de la cual ya se habla poco. Una crítica devastadora y muy interesante desde el punto de vista epistemológico de la teoría de catástrofes puede verse en Sussmann (1975) y Sussmann y Zahler (1978); una descripción más sobria, pero muy clarificatoria, es el librito de Arnold (1986). Al respecto, es interesante recordar que un matemático tan brillante como Réné Thom, el creador de la teoría de catástrofes y autor de un libro muy difundido sobre el tema (1972), que además había obtenido la medalla Fields, miraba con cierto desprecio la biología: Francis Crack (1988), uno de los descubridores de la doble hélice, tenía de Réné Thom la impresión de que era un buen matemático pero de alguna manera arrogante, a quien le disgustaba tener que explicar sus ideas en términos que los no matemáticos pudieran entender. Según Crick, para Thom la ciencia experimental era "anglosajona". En esencia, es importante no caer en la tentación de querer modelizar todo, y en particular fenómenos no relacionados con las ciencias "duras". Naturalmente, si bien la computadora puede ser una suerte de laboratorio, las teorías surgidas deben validarse en laboratorios "tradicionales".

Siempre se puede suponer, dado que se puede predecir, aunque sea toscamente, consecuencias de estímulos en ciencias sociales, que se pueden modelizar matemáticamente. En última instancia, para poner un ejemplo ridículo por su exageración, se pueden plantear modelos matemáticos políticos: un político -mejor dicho, un estadista- es aquél que resuelve el problema variacional de llegar desde un punto de partida a un objetivo con el mínimo conflicto posible, o sea en teoría, por ejemplo, un objetivo clave del gobierno de Roosevelt (llegar a un enfrentamiento con la Alemania nazi sin que esta decisión fuera obstaculizada por la oposición de gran parte de la población norteamericana de la época) podría llegar a ser modelizada. Personalmente, y por la experiencia de haber incursionado en modelización matemática en ciencias políticas colaborando con Oscar Varsavsky, considero que esto es infactible. Pero infactible no quiere decir ni aburrido ni que no se aprenda haciendo el experimento, como lo prueba el modelo de Utopía implementado por Domingo y Varsavsky (1967).

5. Modelización en ciencias sociales

Actualmente se es más modesto en las expectativas de modelización de grandes sistemas complejos no relacionados directamente con las ciencias duras. A fines de la década de 1960 se comenzaron a plantear los modelos mundiales. A partir de un primer modelo global de Jay Forrester (1971), creador de un lenguaje de simulación llamado DYNAMO en el Massachusetts Institute of Technology, D. H. Meadows y sus colaboradores (Meadows et al., 1972) implementaron un modelo mundial que preveía, en forma malthusiana, una catástrofe en el futuro a menos que se detuviera el crecimiento; el nombre del libro en el cual sintetizaron sus resultados -Los límites del crecimiento- fue así muy provocador. El modelo fue muy criticado tanto por motivos ideológicos (si se detiene la evolución de la sociedad, todo queda como en una fotografía actual, y aquéllos que no están satisfechos con la situación actual deberán resignarse para siempre) como por motivos técnicos (el modelo era en esencia inestable, y la resolución de ecuaciones diferenciales ordinarias -ya de por sí discutibles como representación del fenómeno a modelizar- por el método de Euler se presta naturalmente a muchas dudas (ver May, 1976; Scolnik, 1979); sin embargo, rescato del modelo la audacia intelectual de sus autores, que fueron los primeros que se plantearon un modelo tan ambicioso. La discusión originada en este modelo provocó que se diseñaran e implementaran otros modelos alternativos: en particular el de Mesarovic y Pestel (ver Mesarovic, 1979), y el Modelo Mundial Latinoamericano que fue diseñado justamente en Bariloche por la Fundación Bariloche, y que puede consultarse en A. Herrera et al. (1977). Lo interesante de estos modelos es su interdisciplinariedad: en el modelo de Bariloche, por ejemplo, figuran matemáticos, economistas, geólogos, biólogos, arquitectos, etc. Esta característica se mantiene en los proyectos institucionales de "ciencia compleja", en particular en los dos más conocidos: el International Institute for Applied Systems Analysis (IIASA), de Laxemburg, Austria, que funciona desde 1972, y sobre todo el Santa Fe Institute, en Santa Fe, Nuevo México, Estados Unidos, que funciona desde 1984.

6. Modelización en Argentina

Es interesante notar que en Argentina la experimentación numérica tuvo un desarrollo destacado durante la década de 1960, fundamentalmente debido al entusiasmo de Oscar Varsavsky (ver Varsavsky, 1963). El uso de la modelización matemática en Argentina, en forma pionera en América Latina, se originó en el Instituto de Cálculo de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires. Una visión parcial de las actividades de dicho Instituto puede verse en Jacovkis (2004); una visión muy cercana en el tiempo y en el afecto es la del reportaje a Manuel Sadosky (1972). En el Instituto de Cálculo, Varsavsky se inclinó por usar experimentación numérica fundamentalmente para atacar problemas sociales y económicos, para los cuales consideraba que era necesario desarrollar otra matemática, distinta de la usada para ciencias naturales e ingeniería. Si bien en este sentido sus ideas no tuvieron éxito, su análisis del significado de la experimentación numérica es valioso. De hecho, Varsavsky trabajó tanto en el Instituto de Cálculo de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires como en el Centro de Estudios de Desarrollo (CENDES) en Caracas, Venezuela, en modelización matemática de fenómenos económico-sociales. Una interesante justificación (en la cual, indirectamente, Varsavsky asume que la matemática es el laboratorio, en este caso de las ciencias sociales) puede verse en Varsavsky (1969); Varsavsky describe la aplicación a la economía venezolana de este modelo, y en Domingo y Varsavsky (1969), ya mencionado, dan un paso más: usar herramientas matemáticas para modelización en ciencias políticas, con resultados discutibles. El trabajo "Modelos matemáticos y experimentación numérica" resume los aportes que, bajo el influjo de Varsavsky, hicieron varios investigadores de América Latina a la experimentación numérica en ciencias sociales (Varsavsky, 1970).

En lo referente a modelización en temas más afines a las ciencias naturales y a la ingeniería, merecen citarse, dentro del Instituto de Cálculo, las investigaciones del grupo dirigido por Mario H. Gradowczyk, pionero en analizar fenómenos de ríos con fondo móvil (Gradowczyk, 1968; Gradowczyk et al., 1968); ambas publicaciones, desgraciadamente, son, muy simbólicamente, posteriores al ataque a las universidades argentinas emprendido por el gobierno militar de Onganía en 1966.

7. Otras disciplinas

En biología, para indicar el uso de modelos matemáticos y computacionales como mecanismo corriente en algunas áreas ya se han incorporado palabras como biomatemática y bioinformática. Más aún: la biología ha sido fuente de inspiración para la computación, como el propio nombre de algoritmos genéticos lo indica. Pero querría comentar el fenómeno inverso, es decir, que también en biología la computadora, al permitir la modelización matemática, puede funcionar como laboratorio. El distinguido biólogo británico Richard Dawkins (1991) dice que no era obvio para él que no todas las embriologías eran igualmente fértiles cuando se trata de promover la futura evolución hasta que empezó a jugar con el programa Blind Watchmaker expandido, programa por él diseñado para simular el fenómeno de evolución. Es decir, llegó a una idea científica en biología a partir de los resultados de un modelo matemático computacional. En los últimos años el uso de modelos matemáticos en biología, a través de la biomatemática y de la bioinformática se ha expandido y ha comenzado a ser tremendamente útil; la computadora puede reemplazar (o anticipar) al modelo físico -ver por ejemplo Mackenzie (2004)- que, de todos modos, en algunos casos nunca se usaría por razones éticas.

Un caso interesante en que claramente es más eficiente la computadora como aparato de medición que un laboratorio físico es el de teoría de percolación. Como se sabe -ver por ejemplo Stauffer (1985)- si tenemos un conjunto (lo suficientemente grande como para poder considerarlo infinito) de nodos distribuidos uni, bi o tridimensionalmente según determinada geometría de modo que nodos contiguos (con alguna definición de contigüidad) están conectados por arcos, que con una determinada probabilidad p permiten la comunicación entre dos nodos contiguos o no, existe una probabilidad crítica pc tal que para p < pc no se pueden producir agrupamientos infinitos de nodos conectados, y para p > pc deben producirse agrupamientos infinitos. Un modelo de este tipo sirve para representar numerosos fenómenos, desde difusión en medios desordenados hasta incendio de bosques, pasando por propagación de rumores. Salvo algunos casos especiales de configuración geométrica, para cada tipo de configuración en dos o tres dimensiones es imposible calcular la probabilidad crítica analíticamente, pero mediante simulación por computadora se consigue calcularla con enorme precisión, mayor seguramente de la que se obtendría mediante mediciones de laboratorio.

Análogamente, es útil, en particular en series temporales, calcular la dimensión fractal (o alguna de las posibles dimensiones fractales) de un conjunto y, salvo en los casos de fractales artificialmente construidos, para los cuales la dimensión fractal se puede deducir, es necesario su cálculo numérico por computadora: un cálculo de laboratorio suele ser imposible.

Una situación interesante, a este respecto, es la que se planteó con la agregación limitada por difusión (DLA, diffusion limited aggregation), término usado en 1981 por Thomas A. Witten y Leonard M. Sander (1981) cuando escribieron un artículo con los experimentos que realizaron para simular por computadora problemas de crecimiento desordenado como la cristalización en un medio aleatorio. No tenían claro si existían en la naturaleza crecimientos del tipo DLA o solamente era una curiosidad matemática. En 1984, R. Brady y Robin C. Ball (1984) publicaron un artículo en el cual presentaban la electrodeposición de cobre en condiciones limitadas por la difusión (reducción de cobre a partir de una solución de sulfato de cobre). Los agrupamientos así obtenidos fueron suficientes para demostrar que el modelo planteado servía para representar esos fenómenos. Luego se publicaron otros artículos; en uno de ellos (Matsushita et al., 1984) se hace crecer hojas de metal de zinc bidimensionales por electrodeposición, y las estructuras claramente se asemejan a los patrones aleatorios simulados por computadora de acuerdo al modelo de Witten-Sander. El modelo incluye testeo de invariancia de escala computando las correlaciones entre funciones de densidad para los patrones digitalizados de las fotografías, y cálculo de la dimensión de Hausdorff promediada sobre muchos ejemplos, que está de acuerdo, con excelente precisión, con el modelo DLA bidimensional. Éste es un ejemplo muy interesante de fenómeno observado en la computadora y luego en la realidad, con la característica de que hubo que buscar en la naturaleza el fenómeno que representara el modelo, situación inversa de la usual, en la que primero se observa en la naturaleza el fenómeno y luego se busca el modelo que lo represente. Una descripción muy clara de la historia de este fenómeno se puede consultar en la tesis de S. Dengra (2004)

8. La computadora en matemática pura

En matemática, la influencia "epistemológica" de la computadora puede verse en dos tipos de problemas distintos. Por un lado, una famosa conjetura, la conjetura de los cuatro colores (es siempre posible colorear un mapa con cuatro colores de modo que dos países limítrofes tengan asignado distinto color) fue resuelta mediante un algoritmo computacional (Appel y Haken, 1977; Appel, Haken y Koch, 1977): el problema se redujo a demostrar que bastaba comprobar que se podía colorear con cuatro colores algunos miles de casos, y testearlos mediante un programa de computadora. Esta solución dejó un sabor amargo a muchos matemáticos (en todo caso el problema se reduce, desde el punto de vista matemático, a un caso de verificación formal de que un programa computacional hace lo que se le pide); una prueba más sencilla exhibida unos años después sigue apelando a la computadora (Robertson et al., 1977). Ésta es una intrusión de la computadora en la matemática de una manera sorprendente; pero hay otra: en 1975, después de numerosos experimentos computacionales, Mitchell Feigenbaum se convenció de que existía una constante universal con determinadas características para cierto tipo de problemas en teoría de caos; años después, la existencia de esa constante y su valor fueron demostrados matemáticamente (Feigenbaum, 1979; Lanford, 1982, 1984). Es decir, la computadora funcionó como un laboratorio para la matemática pura. Esto no causaría ningún asombro a Vladimir Arnold, el prestigioso matemático ruso, que considera que la matemática es una ciencia experimental. Su delicioso y provocativo artículo (Arnold, 1998) comienza diciendo que las matemáticas son la parte de la física en la que los experimentos son baratos. De hecho Arnold exige aplicar a la investigación en matemática el esquema clásico en física: experiencia - modelo - estudio del modelo - conclusiones - verificación por la experiencia. Arnold sostiene que siempre debe ser así, incluso sin computadora, y es equivocado el esquema, para algunos matemáticos paradigmático, definición - teorema - demostración. Obsérvese que el esquema clásico en física es en esencia el usado por cualquier modelista matemático profesional competente: a partir de la experiencia, plantear el modelo (y aquí vienen las etapas auxiliares de los modelos matemáticos computacionales: diseño o elección del método numérico a usar, programación, implementación, puesta a punto, validación) y luego experimentación numérica (o sea estudio del modelo) y conclusiones - que, como en el caso de Lorenz y el de Dawkins, pueden llegar a la detección de fenómenos físicos antes no identificados.

9. Conclusiones

Resumiendo, a través del uso de modelos matemáticos, la computadora puede ser varias cosas: una herramienta profesional, como cuando se hace predicción meteorológica a través de modelos numéricos, o cuando se usa un modelo fluvial hidrodinámico para ver si una determinada operación de un embalse provocará o no daños aguas abajo, o cuando se calcula una estructura mediante un modelo de elementos finitos; puede ser también una herramienta de investigación auxiliar, como cuando se testea una hipótesis o se corrobora una hipótesis u observación anómala que no surge del modelo sino que es previa, como la detección del fenómeno de antiduna (Jacovkis, 1995), es decir, de duna que se desplaza hacia aguas arriba en ciertos casos de régimen hidrodinámico fluvial supercrítico con fondo móvil (naturalmente lo que se desplaza hacia aguas arriba es la onda, no las partículas de fondo). Éste es un caso en que la observación computacional de un fenómeno físico afianza la confianza en las ecuaciones (en parte empíricas) que se han usado para representar el fenómeno. Finalmente, puede ser una herramienta de investigación principal, como en el estudio de la entropía de Ulam, Fermi y Pasta o la detección del fenómeno de caos determinístico por Lorenz. Y puede ser una herramienta incluso del matemático puro, cuando demuestra teoremas con auxilio de la computadora. Sea como herramienta, sea como laboratorio, su utilidad es impresionante, pero no se puede confiar en ella ciegamente. A veces, la naturaleza es más compleja de lo que esperamos, incluso en temas que creemos conocer bien. Sin ir más lejos, el año pasado el huracán Charlie modificó su rumbo y, sobre todo, pasó de grado 2 a grado 4 de magnitud sin que ninguno de los dos cambios hubiera sido previsto.

Notas 

* El autor agradece a la Fundación Antorchas y a la Universidad de Buenos Aires (subsidio UBACYT I056) el apoyo económico suministrado para la elaboración de este trabajo, y a Rosita Wachenchauzer sus comentarios.

1. Es decir, la influencia de la política en el desarrollo científico no es privativa de Argentina, aunque en otros lados, como se ve, el resultado fue más positivo para la ciencia.

2. Creo que la estadística es una ciencia experimental separada de las matemáticas; su identificación con la matemática se debe a que es la más formalizada de las ciencias naturales, incluso más que la física.

Bibliografía

1 APPEL, K. y HAKEN, W. (1977): "Every planar map is four colorable. Part I. Discharging", Illinois J. Math., 21, pp. 429-490.        [ Links ]

2 APPEL, K.; HAKEN, W. y KOCH, J. (1977): "Every planar map is four colorable. Part II. Reducibility", Illinois J. Math., 21, pp. 491-567.        [ Links ]

3 ARNOLD, V. I. (1998): "Sur l'éducation mathématique", Gazette de Mathématiciens, 78, Octobre (1998). Disponible en :http://www.ceremade.dauphine.fr/~msfr/articles/arnold/PRE_francais.tex.        [ Links ]

4 ARNOLD, V. I. (1986): Catastrophe theory, Springer, Berlin.         [ Links ]

5 BRADY, R.; BALL, R. C. (1984): "Fractal growth of copper electrodeposits", Nature, 309, pp. 225-229.        [ Links ]

6 BRENSTRUM, E. (1994): "The most important forecast in history", New Zealand Geographic, 22, Apr-Jun. Disponible en: http://www.metservice.co.nz/learning/weather_d_day.asp.        [ Links ]

7 CRICK, F. (1998): What mad pursuit, Nueva York, Basic Books.        [ Links ]

8 DAWKINS, R. (1996): The blind watchmaker, 2da edición, Nueva York, W. W. Norton & Company.        [ Links ]

9 DENGRA, S. (2004): "Estudios experimentales y teóricos del transporte iónico en electrodeposición en celdas delgadas", Tesis de Doctorado, Departamento de Computación, Facultad de Ciencias Exactas y Naturales, Universidad de Buenos Aires.        [ Links ]

10 DOMINGO, C.; VARSAVSKY, O. (1969): "Un modelo matemático de la Utopía de Moro", Desarrollo Económico, 7, 3-36 (1967). Reproducido como Anexo II en: E. de Gortari, T. Garza H., C. Dagum, J. Hodara y O. Varsavsky, El problema de la predicción en ciencias sociales, México, D. F., Instituto de Investigaciones Sociales, Universidad Nacional Autónoma de México, pp. 191-225.        [ Links ]

11 FEIGENBAUM, M. J. (1979): "The universal metric properties of nonlinear transformations", J. Stat. Phys., 21, pp. 669-706.        [ Links ]

12 FERMI, E.; PASTA, J.; ULAM, S. (1955): "Studies in nonlinear problems, I". Los Alamos Report LA 1940, (1955). Reproducido en: A. C. Newell (ed.), Nonlinear wave motion, Providence, RI, Ame. Math. Soc., 1974).         [ Links ]

13 FORRESTER, J. (1971): World dynamics, Cambridge, MA, Wright-Allen Press.        [ Links ]

14 GLEICK, J. (1986): Chaos, London, William Heinemann.        [ Links ]

15 GRADOWCZYK, M. H. (1968): "Wave propagation and boundary instability in erodible-bed channels", J. Fluid Mech, 33, pp. 93-112.        [ Links ]

16 GRADOWCZYK, M. H.; MAGGIOLO, O. J.: FOLGUERA, H. C. (1968): "Localized scour in erodible-bed channels", Journal of Hydraulic Research, 6, pp. 289-326.        [ Links ]

17 HERRERA, A.; SCOLNIK, H. D.; CHICHILNISKY, G.; GALLOPIN, G.; HARDOY, J.; MOSOVICH, D.; OTEIZA, E.; de ROMERO BREST, G.; SUÁREZ C.; TALAVERA, L. (1977): ¿Catástrofe o nueva sociedad? Modelo Mundial Latinoamericano, Ottawa International Development Research Center.        [ Links ]

18 JACOVKIS, P. M. (2004): "Reflexiones sobre la historia de la computación en Argentina", Saber y Tiempo, 5 (17), pp. 127-146.        [ Links ]

19 JACOVKIS, P. M. (1995): "Computación, azar y determinismo", Ciencia Hoy, 5, Nro. 28, pp. 44-50.        [ Links ]

20 JACOVKIS, P. M. (1995): "The hydrodynamic flow with a mobile bed: general and simplified approaches", en: D. Bainov, Invited Lectures and Short Communications, Sixth International Colloquium on Differential Equations, Sofia, Bulgaria, Impulse, pp. 203-212.        [ Links ]

21 LANFORD III, O. E. (1984): "A shorter proof of the existence of the Feigenbum fixed point", Commun. Math. Phys., 96, pp. 521-538.        [ Links ]

22 LANFORD III, O. E. (1982): "A computer-assisted proof of the Feigenbaum conjectures", Bull. Amer. Math. Soc., 6, pp. 427-431.        [ Links ]

23 LORENZ, N. (1963): "Deterministic nonperiodic flow", J. Atmos. Sci. 20, pp. 130-141.        [ Links ]

24 MACRAE, N. (1992): John von Neumann, Nueva York, Pantheon Books. Reimpreso por American Mathematical Society (1999).         [ Links ]

25 MACKENZIE, D. (2004): "Mathematical modeling and cancer", SIAM News, 37:1, pp. 1-3.        [ Links ]

26 MATSUSHITA, M.; SANO, M.; HAYAKAWA, Y.; HONJO, H. y SAWADA, Y. (1984): "Fractal structures of zinc metal leaves grown by electrodeposition", Phys. Rev. Lett., 53, pp. 286-289.        [ Links ]

27 MAY, R. M. (1976): "Simple mathematical models with very complicated dynamics", Nature, 261, pp. 459-467.        [ Links ]

28 MEADOWS, D. H.; MEADOWS, D. C.; RANDERS, J. y BEHRENS, W. W. (1972): The limits of growth, Nueva York, Universe Books.        [ Links ]

29 MESAROVIC, M. (1979): "Practical application of global modeling", en: B. Lazarevic (ed.), Global and large scale system models, Lecture Notes in Control and Information Science, Berlin, Springer, pp. 42-57.        [ Links ]

30 METROPOLIS, N. y ULAM, S. (1949): "The Monte Carlo method", Journal of the American Statistical Association, 44, pp. 335-341.        [ Links ]

31 RICHARDSON, L.F. (1956): Weather prediction by numerical process, Cambridge University Press, Cambridge, UK, (1922). Reeditado por Dover, Nueva York.        [ Links ]

32 ROBERTSON, N.; SANDERS, D. P.; SEYMOUR, P. D. y THOMAS, R. (1997): "The four color theorem", J. Combin. Theory Ser. B, 70, pp. 2-44.        [ Links ]

33 SADOSKY, M. (1972): "Cinco años del Instituto de Cálculo de la Universidad de Buenos Aires", entrevista, Ciencia Nueva, 3, Nro. 17, pp. 13-18.        [ Links ]

34 SCOLNIK, H. D. (1979): "A critical review of some global models", en: B. Lazarevic (ed.), Global and large scale system models, Lecture Notes in Control and Information Sciences, Berlin, Springer, pp. 58-80.        [ Links ]

35 STAUFFER, D. (1985): Introduction to percolation theory, Londres, Taylor & Francis.        [ Links ]

36 STROGATZ, S. (2003): "The real scientific hero of 1953", The New York Times, March 4.        [ Links ]

37 SUSSMANN, H. J. (1975): "Catastrophe theory", Synthèse, 31, pp. 229-270.        [ Links ]

38 SUSSMANN, H. J. y ZAHLER, R. (1978): "Catastrophe theory as applied to the social and biological sciences: a critique", Synthèse, 37, pp. 117-216.        [ Links ]

39 THOM, R. (1972): Stabilité structurelle et morphogénèse, París, Benjamin.        [ Links ]

40 VARSAVSKY, O. (1970): "Modelos matemáticos y experimentación numérica", en: O. Varsavsky y A. E. Calcagno (eds.) América Latina. Modelos matemáticos, Santiago de Chile, Editorial Universitaria.         [ Links ]

41 VARSAVSKY, O. (1969): "Los modelos matemáticos y la predicción en ciencias sociales", en: E. de Gortari, T. Garza H., C. Dagum, J. Hodara y O. Varsavsky, El problema de la predicción en ciencias sociales, México D.F., Instituto de Investigaciones Sociales, Universidad Nacional Autónoma de México, pp. 97-114.        [ Links ]

42 VARSAVSKY, O. (1963): "La experimentación numérica", Ciencia e Investigación, 19, pp. 340-347.        [ Links ]

43 WITTEN, T. A. Jr. y SANDER, L. M. (1981): "Diffusion-limited aggregation: a kinetic critical phenomenon", Phys. Rev. Lett., 47, pp. 1400-1403.        [ Links ]

Creative Commons License All the contents of this journal, except where otherwise noted, is licensed under a Creative Commons Attribution License