revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
  P01 P02  
 
 
     
Predecir el clima es una cosa, predecirlo correctamente es otra  
Pedro Miramontes Vidal
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Edward Lorenz es profesor de meteorología en el prestigiado Instituto de Tecnología de Massachusetts. La suya es una profesión de presiones y burlas. La navegación marítima, el tráfico aéreo, la agricultura y muchas actividades de gran importancia económica en las sociedades modernas, en buena medida dependen de la confianza que se pueda tener en los reportes del clima. Y eso genera presiones intensas para que los meteorólogos predigan y lo hagan bien.
 
En su excelente libro The Essence of Chaos, cuenta Lorenz que uno de sus sueños más anhelados es que alguien (de preferencia un periodista) le pregunte:
 
 
—¿Por qué no hacen ustedes mejores previsiones del clima?
 
 
 
Para poder responderle
 
 
 
—¿Y por qué deberíamos hacerlas? Es más, ¿por qué tendríamos que albergar esperanzas con respecto a la posibilidad de prever, aunque fuera parcialmente, el futuro?
 
La humanidad lo ha hecho desde tiempos lejanos: Delfos, Dodona, Tebas, Delos, son unos cuantos de los santuarios otrora dedicados a otear el porvenir. Los oráculos eran parte importante de la vida cotidiana, y consulta obligada ante sucesos extraordinarios. Reyes y gobernantes helénicos comparecían ante la Pitoni sa de Delfos; los emperadores romanos lo hacían ante Fortuna Primigenia, en lo que ahora es la ciudad italiana de Palestrina.
 
No es necesario retroceder tanto en el pasado. Hace unos pocos años, durante el paso de Ronald Reagan por la presidencia de Estados Unidos, en la Casa Blanca había una astróloga de planta; en tiempos recientes, en México, tanto policías como ladrones (que suelen ser los mismos) han sido clientes asiduos de La Paca o de sus colegas.
 
 
El notable profeta hebreo Jeremías sostenía que no hablaba por sí mismo, sino que era vehículo de una fuerza divina, y —muy acorde con la tradición judía— se especializó en predecir calamidades y desgracias como castigo por el desapego de su pueblo a los mandatos de Jehová.
 
 
Casandra también obtuvo el don de la profecía directamente de un dios. Fue Apolo quien, a cambio de la promesa de obtener sus favores amorosos, le otorgó la facultad de mirar en el futuro. Una vez que la tuvo, se negó a cumplir su parte del trato y Apolo se vengó condenándola a que sus predicciones —infortunios, por lo general— nunca fueran creídas.
 
Artemidoro Daldiano escribió en el siglo II de nuestra era un tratado de clarividencia a través del onirismo; su oneirocritica (el tratado de los sueños) allanó el camino para que en el siglo xx otro adivinador genial, Sigmund Freud, nos embelesara con sus tratados modernos de vaticinio.
 
Después de un matrimonio afortunado con una viuda rica, Mahoma pudo dedicarse a la cavilación contemplativa, y a los 40 años de edad fue objeto de la revelación divina por medio de una aparición del arcángel Gabriel. Sus profecías eran en buena parte preceptos morales y estaban dirigidas a proporcionar los fundamentos éticos de una religión que hoy transita por su edad media.
 
En el siglo xvi Nostradamus sentó las bases de la profecía como oficio moderno, al emitir designios que si se cumplían eran aclamados; de lo contrario, se alegaba que “estaban aún por venir”. Tiempo después, Guiseppe Cagliostro ganó el favor de la nobleza francesa por su ingenio de mago, profeta y vidente, virtudes que no le fueron suficientes para predecir la muerte en la guillotina de sus clientes.
 
Pero quizá el designio que ha tenido la más grande influencia en la cultura occidental y que ha cambiado radicalmente la vida de una mayor cantidad de gente es el referido al día del Juicio Final. La religión cristiana enseña que en esa fecha ocurrirá el segundo advenimiento de Jesucristo. Será el último de nuestro mundo; Dios juzgará a sus enemigos, los muertos resucitarán, cada alma será ponderada, los justos serán separados de los malvados y la furia de un Dios Padre colérico e iracundo caerá sobre ellos.1
 
¿Para cuándo se vaticina ese día? Ésta es una de las preguntas más interesantes en la historia de la cristiandad. Según el Libro de las Revelaciones2, la fecha fatal vendrá exactamente siete mil años después de la creación del mundo pues, afirman, Dios fabricó al mundo en seis días y descansó el séptimo. Y dado que su tiempo no es el nuestro “No ignoréis esto que os digo: que un día es para el Señor como mil años y que mil años son su día” (Pedro 3:8).
 
El fin del mundo ocurrirá a la medianoche del último día de una semana de Dios, siete mil años nuestros. Esto implica que para conocer con precisión la fecha del fin del mundo, lo único que se necesita es saber cuándo exactamente fue el principio3 y sumarle siete milenios.
 
Esta tarea ha sido y seguirá siendo emprendida por mucha gente: Sexto Julio Africano (180-250) anunció que el cataclismo sería en el año 500 de nuestra era. Como resulta evidente, le fallaron las cuentas y su revés estimuló a otros a probar suerte. Entre ese cúmulo destaca el monje francés Radulfo Glaber, quien determinó que la fecha fatídica sin lugar a dudas era el año 1000. A diferencia del Africano, Glaber estuvo vivo para soportar la vergüenza de su fracaso, que no fue lo suficientemente grande para inhibirlo e impedir que lo intentase de nuevo. Esta vez alegó que el verdadero fin del mundo vendría en el 1033, el milenio de la pasión de Cristo. Sus fiascos tuvieron como feliz e involuntaria consecuencia el incremento del patrimonio artístico de la humanidad, pues los fieles —agradecidos de no haber sido testigos del día del Juicio Final— se dieron a la explosiva construcción de iglesias góticas por toda Europa.
 
Tiempo después, el arzobispo anglicano primado de Irlanda4, monseñor James Ussher (1561-1656), anunció con absoluta precisión el momento exacto de la creación: las 12:00 horas del 23 de octubre del 4004 antes de Cristo, ni un minuto más ni un minuto menos. Si le sumamos siete mil años a esta fecha para saber cuándo este mundo pecador dejará de existir, ¡resulta que la catástrofe ocurrió el 23 de octubre de 1997 y no nos dimos cuenta!
 
La primera plana del diario La Jornada del 24 de octubre consigna en sus titulares: Caída de 4.5% en la Bolsa, el peso retrocede. ¿Será que Dios usó el índice de valores de la Bolsa como balanza para separar justos de pecadores?
 
Predecir o no predecir...
 
Augures, adivinos, profetas, quirománticos, teólogos, políticos y todo un ejército de profesionales de la adivinación han extasiado a la humanidad durante siglos, y por lo que se ve ninguno ha acertado en sus vaticinios. ¿Por qué diablos los meteorólogos lo han de hacer?
 
—“Porque son científicos y la ciencia predice” —responderían a coro positivistas, empiricistas, estadísticos y seguidores del Círculo de Viena.
 
—“Nada de eso” —exclamaría Karl Popper (1902-1994), filósofo inglés que se inscribió en la escuela del indeterminismo metafísico. —“Pensar que si se tiene el suficiente conocimiento de la física y de la química, usted podría predecir lo que Mozart escribiría mañana, es una hipótesis ridícula.”
 
—“Predecir no es explicar...”, terciaría René Thom.
 
¿Quién tiene la razón? A mi juicio, la discusión sobre el posible papel predictivo de la ciencia es estéril. En todo caso, primero habría que alcanzar un acuerdo sobre qué quiere decir exactamente “predecir”. El determinismo es un concepto importante por la relación que guarda con la noción de predictibilidad. La Enciclopedia Británica define claramente: “Determinismo. Teoría de que todos los eventos, incluyendo las elecciones morales, son totalmente determinados por causas preexistentes. Esta teoría afirma que el universo es completamente racional, puesto que el conocimiento total de una situación dada asegura el conocimiento inequívoco de su futuro.”
 
Si un esquema es predecible, entonces tiene que ser necesariamente determinístico, mientras que lo contrario no es cierto. Diversos autores hacen la distinción entre lo que es la predicción y la predicción estadística. En este ensayo concibo a la primera en el sentido del determinismo laplaciano y no voy a referirme a la segunda (para mí, la afirmación: “la probabilidad de que en el próximo volado caiga águila es del 50 por ciento”, definitivamente, no predice cosa alguna).
 
 
Coincido con la frase de Thom. Desde mi punto de vista, el papel principal de la ciencia es explicar. Si su tarea fuese predecir estaría en un grave aprieto, pues parece ser que los sistemas de la naturaleza que constan de varios elementos interactuantes entre sí de manera no lineal son intrínsecamente impredecibles. Para elaborar esta afirmación tendremos que revisar algunos conceptos clásicos y presentar al protagonista de este ensayo: el Caos.
 
Caos ¿de dónde viene la palabra?
 
En 1580 nació Jan Baptista van Helmont en Bruselas, ciudad que en ese entonces formaba parte de los Países Bajos españoles. Van Helmont descubrió que existen otros gases además del aire, y demostró que los vapores emitidos por combustión de carbón eran los mismos que se producían al fermentar el jugo de las uvas (bióxido de carbono). Fue él quien inventó la palabra “gas” a partir de la voz griega χαοσ(caos).
 
 
Si pensamos por un momento que el fenómeno que estamos estudiando obedece una función periódica, entonces basta con conocer el perfil de la función en uno de sus periodos para poder predecir infinitamente tanto al futuro como el pasado. Si esa función tuviese el doble de información para mantener nuestra capacidad de predicción infinita, si el periodo fuese diez mil, diez mil veces sería la información original. ¿Y si el periodo fuese infinito? Pues requeriríamos una información infinita, o lo que es lo mismo, en este caso la predicción sería imposible.

 
¿Por qué eligió ese término y no otro? Van Helmont era individuo cultivado y con buena educación5, y aprovechó un vocablo griego cuyos varios significados se pueden asociar con las propiedades de un gas.
 
Si nos ubicamos en una época en la que posiblemente era un poco difícil concebir la existencia de algo que no se pudiese ver o tocar, podremos comprender porqué la elección cayó sobre un término que, entre sus múltiples acepciones6, tiene las siguientes: primer estado del universo; materia amorfa; extensión o envergadura del universo; abismo inferior; oscuridad infinita, y oquedad o abismo muy vasto7. Para los antiguos griegos el abismo aludido es el Tártaro, el inframundo, aún más bajo que el Hades, en donde pululaban las almas de los difuntos.
 
El sentido moderno que tiene la palabra caos —como sinónimo de desconcierto, confusión, embrollo, lío, etcétera— fue forjado por Publio Ovidio Nasón (43 ac-17 dC) en sus Metamorfosis, un enorme poema en versos hexámetros que es una colección de mitos y leyendas. Las historias se desenvuelven en orden cronológico; la primera y la última se refieren a la creación del orden a partir del caos. La primera metamorfosis es la transición de un universo amorfo y desordenado a uno ordenado: el Cosmos8. La última metamorfosis, la culminante, es la muerte y deificación de Julio César; la transformación del caos de las guerras civiles romanas en una paz brillante y magnífica: la paz augusta.
 
Los antecedentes
 
Galileo sentó las bases de la ciencia moderna al matematizar algunos fenómenos de la mecánica; él es uno de los “gigantes” en los cuales se apoyó Newton para concebir y producir su obra magnífica, tanto que una vez complementada por pensadores de la talla de los Bernoulli, Laguerre y Laplace, nos heredó una visión de un universo completamente racional y en el que, cual mecanismo de relojería, el conocimiento de la reglas de funcionamiento y de las condiciones en un instante dado, nos garantizan el conocimiento inequívoco de todo el futuro.
 
 
La teoría newtoniana se ganó el respeto y la admiración de todos cuando Halley, en 1705, pudo predecir con gran exactitud el retorno del cometa que ahora lleva su nombre. La posibilidad de predecir los eventos futuros generó un gran entusiasmo que fue formulado por Pierre Simon, Marqués de Laplace (1749-1827)9 y que coincide conceptualmente con el bello canto del poeta persa Omar Jayam (1048-1131) refiriéndose al Creador: “Y la primera mañana de la creación escribió lo que se leería en la cuenta final del último día”.
 
Curiosamente, también fue Laplace uno de los fundadores de la teoría de las probabilidades, aunque el azar para él era una medida del desconocimiento o ignorancia humana de las condiciones de un sistema. A partir del tiempo de Laplace, los fenómenos naturales que cambian al transcurrir el tiempo se encajonaban en dos clases: los llamados sistemas determinísticos —cuyo estado presente determina de manera unívoca y predecible su estado futuro— y los aleatorios, en los cuales el estado futuro puede ser cualquiera y no se puede predecir sino a la luz de una distribución de probabilidad.
 
Hasta tiempos recientes, esta dicotomía ha sido guía de trabajo de la gran mayoría de los científicos; el escenario estaba perfectamente claro: los fenómenos son determinísticos y, en ese caso, predecibles; la única barrera para conocer el futuro es nuestro grado de conocimiento (o ignorancia) de las condiciones iniciales y de las ecuaciones dinámicas del sistema. O bien, son azarosos y tenemos que conformarnos con conocer sus propiedades probabilísticas y renunciar al sueño de la predicción.
 
En pocas palabras: un universo como maquinaria perfecta de relojería, como una película en la cual aunque no hayamos visto los cuadros futuros ya están ahí, esperando que llegue el momento de ser proyectados. O un universo en el que Dios decide todos los detalles y, por lo tanto, es inaccesible al conocimiento humano, dado que Dios es una metapresencia, y entonces para los humanos el transcurso de la historia es ciego y azaroso.
 
Newton resolvió el problema de dos cuerpos afectándose mutuamente debido a su atracción gravitacional: cada uno de ellos viaja en una órbita elíptica en torno al centro de masa común, y el comportamiento es periódico y predecible por siempre. De esta manera se podría concluir que la Tierra girará alrededor del Sol por los siglos de los siglos y que este sistema es completamente estable. Sin embargo, el problema es que la Tierra y el Sol no son los únicos cuerpos del sistema solar, pues se hallan acompañados de otros planetas con sus respectivas lunas.
 
Una serie de notables matemáticos —vale la pena mencionar a Félix Delaunay (1845-1896)— se dieron a la tarea de avanzar un escalón más, resolviendo el problema de tres cuerpos; para estimular estos esfuerzos, en 1887 el rey de Suecia ofreció un premio de 2 mil 500 coronas a quien demostrase que el sistema solar es estable.
 
Henri Poincaré se llevó el premio con su trabajo Acerca del problema de los tres cuerpos y de las ecuaciones de la dinámica. En el camino no sólo desarrolló técnicas matemáticas muy poderosas —la teoría de las expansiones asintóticas y el estudio de ecuaciones diferenciales con singularidades–, sino que inventó la topología, una nueva rama de la matemática que la revolucionó por completo. Sin embargo, su solución sólo es parcialmente correcta.
 
Poincaré trabajó el modelo reducido de Hill. En este modelo se supone que el tercer cuerpo es demasiado pequeño con respecto a los otros dos, y que su existencia no los afecta (pero la de ellos sí afecta al pequeño). Bajo estas premisas, ya sabemos que los dos cuerpos grandes se moverán en órbitas elípticas y, por lo tanto, su movimiento es periódico (ver recuadro página opuesta) y, por ende, estable y predecible.
 
Poincaré se esforzó por demostrar que el movimiento del cuerpo pequeño era también periódico, pero lo que encontró lo llenó de asombro: “...Se queda uno tan pasmado ante la complejidad de esta figura, que ni siquiera intentaré dibujarla...”10
 
El tercer cuerpo seguía una trayectoria aperiódica, irregular e impredecible, pese a estar sujeta a leyes determinísticas. El pasmo no era para menos: Poincaré se encontró de frente con un comportamiento dinámico que desafiaba todo lo que los matemáticos y físicos habían creído hasta ese momento; algo que parecía una criatura mitológica, una mezcla inconcebible de orden con desorden, de determinismo con aleatoriedad, de armonía y confusión. Ese monstruo se llama Caos, y aunque Poincaré lo tuvo en sus manos, no pudo identificarlo cabalmente ni aprovechar todas sus consecuencias científicas y filosóficas. Era un descubrimiento prematuro para su tiempo; por eso Poincaré no pudo —pese a ser un gran filósofo de la ciencia— evaluar su magnitud. No obstante, se dio perfecta cuenta de que la mecánica clásica ya no sería la misma: “...Sucede que pequeñas diferencias en los estados iniciales producen diferencias enormes en el estado final. Un pequeño error en los primeros se traduce en un error enorme en el último. La predicción se vuelve imposible, y entonces decimos que tenemos un fenómeno azaroso.”
 
El mérito de Poincaré es indiscutible; con la invención de la topología abrió un camino alternativo ante el desarrollo exclusivamente analítico del estudio de los sistemas dinámicos que había impulsado Laplace, y devolvió la mecánica a su cuna: la geometría. No estaría de más que los topólogos contemporáneos recordasen que su disciplina —considerada entre las más abstractas— nació de la física.
 
El trabajo de Poincaré fue continuado por una gran serie de luminarias. Desgraciadamente sería imposible contar aquí la historia con detalle. Reconociendo que faltan más que los que están, quiero mencionar al menos a Birkoff, Kolmogorov, Sinaí, Arnold y Smale.
 
El mismo Lorenz
 
En 1963 apareció un artículo titulado “Deterministic Nonperiodic Flow” en The Journal of Atmospheric Sciences, firmado por Edward Lorenz. Hace 35 años éste tuvo la misma visión que Poincaré, pero él sí se percató de la magnitud de su (re)descubrimiento. Veamos algo del resumen del artículo: “...Estados iniciales pueden dar lugar a estados que difieren considerablemente... Todas las soluciones encontradas son inestables y casi todas son aperiódicas... La viabilidad de la predicción climática a largo plazo se discute a la luz de estos resultados.”
 
¿De qué soluciones está hablando? Lorenz describió un sistema de tres ecuaciones diferenciales de primer orden, ordinarias, acopladas y no-lineales, para modelar la convección térmica en la atmósfera. El análisis del sistema lineal asociado en las vecindades de los puntos críticos11 no le proporcionó ningún resultado interesante, pero una vez que puso a su computadora a calcular una solución numérica usando valores cercanos a un punto que el análisis lineal clasificaba como inestable, obtuvo resultados sorprendentes.
 
¡Dos corridas del mismo programa, con los mismos parámetros le daban soluciones distintas!
¿El fin del determinismo? ¡No! ¡Una nueva faceta del determinismo!
 
Descubrió que las dos corridas mencionadas del mismo programa diferían en el número de dígitos decimales en el estado inicial de una variable.
 
Según James Gleick12, “de repente se dio cuenta de lo que había sucedido. No había errores en las cifras que había escrito. En la memoria de la computadora se había guardado la cifra 0.506127 y Lorenz, al día siguiente, para ahorrar tiempo escribió 0.506. Lorenz pensó que la diferencia —una parte en diez mil— no tendría consecuencias”.
 
Lorenz había descubierto el llamado efecto mariposa: una pequeñísima perturbación —el aleteo de una mariposa en el Amazonas— podría desencadenar un efecto mayúsculo —un tornado en Texas. Este efecto es el que menciona en el resumen de su artículo, y es lo que ahora se conoce técnicamente como la sensibilidad de un sistema a sus condiciones iniciales.
 
Esta es una de las características más interesantes del caos; una causa pequeña puede producir efectos enormes; las fluctuaciones se amplifican de manera que el resultado de una perturbación no guarda proporción con la magnitud de ella. ¡Esta es la esencia misma de la no linealidad!
 
Imaginemos ahora que un movimiento insignificante del aire modificó en décimas de milímetro el vuelo de una abeja en el pleistoceno temprano; que gracias a eso la abeja no se vio atrapada en una tela de araña y sobrevivió para fecundar una flor. Que la flor dio lugar a un fruto y que éste cayó del árbol justo en el momento que un homínido pasaba; éste lo tomó y se lo ofreció a una homínida que pasaba; ella se sintió obligada a agradecerle de alguna forma y si no hubiera sido por ello, la humanidad no se hubiera originado jamás. Si la abeja hubiera muerto, la humanidad no existiría... ¡Caray!
 
Este cuento ilustra las nociones de amplificación de las fluctuaciones y de la sensibilidad ante condiciones iniciales, pero no debe tomarse demasiado a la letra; la humanidad hubiera surgido de cualquier modo. Esto se debe a que el caos no es únicamente la sensibilidad ante las condiciones iniciales. Los sistemas caóticos tienen otro rasgo importante que, por falta de espacio, no nos será posible explorar aquí: la existencia de atractores extraños. Con esta noción se entiende por qué los sistemas dinámicos son robustos ante contingencias históricas.
 
Resumamos. Lorenz encontró que un sistema determinístico puede producir resultados aperiódicos e impredecibles, esa paradoja que relaciona dos comportamientos considerados hasta ese momento como incompatibles: determinismo y azar, se llama ahora Caos determinístico. Antes se pensaba que el azar surgía como resultado de nuestra ignorancia acerca de la totalidad de causas que se involucran en la evolución de un sistema; en pocas palabras, que el mundo era impredecible por ser complicado.
 
Recientemente se ha descubierto una serie de sistemas que se comportan de manera impredecible, pese a que las causas que los gobiernan son completamente conocidas, y a que son relativamente simples. Tales sistemas tiene en común la no linealidad y exhiben sensibilidad en las condiciones iniciales.
 
Por ser más complicados que sus contrapartes lineales, los sistemas no lineales habían sido poco estudiados; por lo tanto, la ubicuidad del caos no se había detectado. En su candor, los físicos estaban convencidos de que la predictibilidad era una consecuencia natural de una estructura teórica correctamente establecida, que dadas las ecuaciones de un sistema, únicamente restaría hacer las cuentas para saber cómo se va a comportar.
 
La historia reciente
 
En el medio matemático se atribuye a T.Y. Li y J.A. Yorke la acuñación del término caos para referirse al comportamiento determínistico, pero irregular y aperiódico. En su celebrado artículo “Period Three Implies Chaos” publicado en 1975, en el American Mathematical Monthly, demostraron que si un mapeo continuo de un intervalo a la recta real tiene un punto de periodo tres, entonces ese mapeo exhibe comportamiento caótico. A su vez, Yorke opina que R. May y G. Oster fueron “…los primeros en comprender cabalmente la dinámica caótica de una función de un intervalo en sí mismo”.
 
Es posible que Yorke haya acuñado el término, pero el primer artículo en donde yo pude encontrar en su título la palabra caos fue en el de R. May: “Biological Populations with Nonoverlapping Generations: Stable Points, Stable Cycles and Chaos”, publicado en 1974 en Science, que antecede al de Li y Yorke en un año. La afirmación de Yorke acerca de la primicia en comprender la dinámica de los mapeos unidimensionales es llanamente falsa: en 1964, el matemático soviético A.N. Sharkovsky publicó en la revista ucraniana de matemáticas Ukrainskii Matematicheskii Zhurnal un artículo llamado “Coexistencia de ciclos de un mapeo continuo de la línea en sí misma”, en el cual presenta de manera rigurosa y perfectamente bien fundamentada lo que May y Oster tardaron una década en comprender (Robert May reconoce que desconocía el trabajo de Sharkovsky). De paso, se debe mencionar que el resultado de Li y Yorke es un caso muy particular del teorema de Sharkovsky.
 
 
En 1982, el académico Sharkovsky y yo paseábamos por las ruinas de Xochicalco; yo intentaba explicarle lo que significaba Quetzalcóatl y él me miraba condescendientemente y me decía que ya lo sabía, que en Europa también había dragones. Temas recurrentes durante el paseo fueron la injusticia que Sharkovsky sentía por la apropiación de Yorke del crédito que a él le correspondía, y su disgusto con Guillermo Gómez —de la Facultad de Ciencias de la unam— por haberlo hecho trabajar demasiado sin respetar su edad venerable durante esa misma visita a México.
 
Conclusiones
 
El caos ya es un concepto que ha ganado su legitimidad en la ciencia. Resulta imposible hacer una lista de quienes han contribuido a su fundamentación teórica y a sus aplicaciones en las más diversas áreas del conocimiento. El caos ya existe como especialidad científica por derecho propio, y la mayoría de las universidades e institutos de investigación científica del mundo han abierto centros o departamentos de las disciplinas que explotan y desarrollan el concepto de caos: la dinámica no-lineal y la teoría de los sistemas complejos.
 
El avance de las ideas asociadas con el caos no ha sido fácil: en sus inicios se topó con la resistencia frontal de los científicos del establishment; aún hoy existe oposición y escepticismo en ciertos grupos conservadores a aceptar la ubicuidad de los comportamientos no-lineales en la naturaleza, y al caos como su consecuencia genérica.
 
También es preciso reconocer que ha surgido toda clase de charlatanes quienes han encontrado en este lenguaje novedoso una fuente inagotable de ideas para nutrir modas tipo new age, ecomísticas y esotéricas. Esto no debe constituir una fuente de preocupación: no hay revolución científica que no le resulte atractiva a multitud de oportunistas que intentan justificar sus ideas apoyándose en su muy particular interpretación de leyes naturales o hipótesis científicas. Recordemos el uso indebido, y muchas veces criminal, que ha tenido la teoría de evolución por selección natural por parte de eugenésicos, políticos y, más recientemente, algunos sociobiólogos y psicodarwinistas.
 
Hay definiciones formales del caos y los conceptos que se derivan de él. El lector interesado puede consultar algún texto de sistemas dinámicos13, pero creo que toda teoría científica requiere sus metáforas propias y que, gracias a éstas, cualquier persona podrá darse una idea de la teoría más complicada. En el caso de la teoría del caos, les propongo la de Germinal Cocho, del Instituto de Física de la unam: “El caos es un desmadre armónico”.
 
Esta caracterización me es particularmente grata, no sólo porque Germi es mi maestro —y lo ha sido de generaciones de matemáticos, físicos y biólogos en México—, sino porque es la más fácil de ver. Recuerde usted la mejor fiesta que haya tenido en su vida; la más divertida, en la que más ha gozado; una fiesta en la que se haya bailado y cantado hasta el cansancio. Yo le puedo apostar lo que quiera que no fue una fiesta en la que alguien pretendió que fuera completamente ordenada: todo el mundo bailando ordenada y disciplinadamente “la Macarena” o alguna canción de Bronco en perfecta formación, o cantando partitura en mano bajo la dirección de un espontáneo director de coro. Tampoco fue una fiesta en la cual cada quien, de manera individual, estuvo cantando y bailando simultáneamente canciones y ritmos distintos. Seguramente fue un guateque con la dosis precisa de coherencia y despapaye para hacerla memorable y divertida; es decir, caótica.
 
Karl Popper murió sin comprender —pese a que se jactaba, sin fundamento, de ser su descubridor— lo que es el caos. Si hubiera tenido tiempo para hacerlo, probablemente nunca hubiera afirmado lo que yo cité antes; ahora sabemos que el perfecto conocimiento de las leyes de la física y la química no garantizan el poder de predecir. De hecho, sistemas físicos tan simples como un péndulo en el cual la masa se sustituye por un doble brazo con capacidad de giro, para los cuales se conocen perfectamente sus leyes, son igual o más impredecibles que una ruleta. También da muerte al indeterminismo metafísico y al determinismo laplaciano: el caos determínistico es una síntesis dialéctica de ellos.
 
Para poder hacer predicciones en un sistema caótico sería necesario conocer con infinita precisión las condiciones iniciales de un sistema; es imposible, pues implica una cantidad infinita de información. Esto nos obliga a modificar la idea que tenemos acerca de la definición misma de ciencia, pues una de las premisas más aceptadas de lo que constituye el trabajo científico es que el resultado de un experimento sea reproducible. Ello no es posible en sistemas caóticos. La idea de la reproducibilidad como condición para que algo sea científico o no, tendrá que modificarse; será necesaria una etapa de reflexión y asimilación de todas las consecuencias que trae consigo el concepto de caos. Posiblemente será necesario rescatar las definiciones de ciencia que no la hacen depender del trabajo experimental; habrá que releer las propuestas de P.K. Feyerabend, cuando sugiere una ciencia sin experiencia. No lo sé, pero las cosas tendrán que cambiar.
 
Sin embargo, los meteorólogos no tienen por qué abandonar su trabajo. Dado que es posible conocer con precisión limitada las condiciones iniciales, también lo es hacer predicciones limitadas del futuro de un sistema. Se habla, entonces, del horizonte de predictibilidad de algún fenómeno o modelo.
 
Un sistema azaroso tiene un horizonte nulo de predictibilidad; el sueño de Laplace es un horizonte infinito. Los sistemas caóticos tienen horizontes de magnitudes que dependen de parámetros intrínsecos del fenómeno o modelo, y de la escala temporal de los mismos.
Por ejemplo: el sistema solar es inestable y caótico, pero el que un planeta de repente se fugue de su órbita y se pierda en el universo es perfectamente factible. Sin embargo, el horizonte de predictibilidad del sistema solar se estima en unos 20 millones de años, por lo que no debemos preocuparnos demasiado de que la Tierra se vaya a buscar otra estrella.
 
En el caso de la meteorología, se calcula que el horizonte de predictibilidad es de cuatro a siete días, y esto no depende de los métodos y computadoras empleados en hacer las cuentas. Durante algún tiempo se pensó que con el desarrollo de una vasta red de satélites que proveyeran información de alta calidad, sumado al progreso innegable de computadoras cada vez más poderosas, se podría extender ilimitadamente el horizonte de predictibilidad climática. Esta es otra ilusión perdida. En una visita que Ian Steward hizo al European Medium-Range Weather Forecasting Centre, le dijeron: “Podemos predecir el clima con precisión, siempre y cuando no ocurran cosas inesperadas”.
 
Colofón
 
Tengo que confesar que dejé para el final una buena parte de la historia remota: Antes de que Ovidio le confiriera al caos su sinonimia con desorden y anarquía, un escritor griego, Hesíodo, quien nació en Boecia en el siglo VIII antes de nuestra era, le legó a la humanidad la recopilación más ambiciosa y completa que existe de la mitología griega. En ella aprendemos, como lo referí arriba, que Caos fue el estado primigenio del universo.
 
Lo que no mencioné es que Caos es padre de Eros y, como todos lo sabemos, Eros —el amor— es la máquina que mueve al mundo.Chivi51
El título del artículo fue tomado de una frase de Ian Steward en su bellísimo y altamente recomendable libro Does God Play Dice? (Penguin Books, 1997).
Referencias bibliográficas
 
1. Para aclarar cualquier duda acerca del temperamento del Señor hay que mirar la escena correspondiente al juicio final en la decoración de la Capilla Sixtina de Miguel Ángel
2. También llamado El Apocalipsis de San Juan. Es el último libro del nuevo testamento, se piensa que fue escrito por varios autores anónimos a finales del siglo I de nuestra era y posteriormente atribuido a Juan, el discípulo favorito de Jesús.
3. Para un recuento a la vez gracioso y crítico de las vicisitudes de este cálculo, se recomienda el reciente libro Questioning the Milennium, de Stephen Jay Gould (Random House, 1997).
4. En el citado libro, Gould hace un divertido juego de palabras con la expresión inglesa The primate of Ireland, que lo mismo significa «el arzobispo primado de Irlanda» que «el simio irlandés».
5. Van Helmont estudió en la prestigiada Universidad Católica de Lovaina y necesariamente tuvo que haber aprendido griego clásico. Se graduó como médico en 1599 y trabajó como profesor de la misma universidad hasta que fue echado del cuerpo profesoral en 1622 por adherirse al trabajo de Phlippus Aureolus Theophrastus Bombastus von Honenheim “Paracelso” (¡que nombre!). En 1625 la Santa Inquisición condenó su obra por considerarla “herética, arrogante, imprudente y luterana”. Fue colocado en arresto conventual en 1634 por la Iglesia Católica y posteriormente fue rehabilitado públicamente en 1652, años después de su muerte, ocurrida en 1644.
6. A Greek-English Lexicon. H.G. Lidell. (Clarendon press, 1996).
7. Es interesante notar que la palabra inglesa para abismo es chasm, que se deriva directamente de caos.
8. La oposición dialéctica entre caos y cosmos es fuente generosa de inspiración: «El mundo, para el europeo, es un cosmos, en el que cada cual íntimamente corresponde a la función que ejerce; para el argentino es un caos». J.L. Borges (1899-1986), “A todo caos le corresponde un cosmos, a todo desorden un orden oculto”. Carl Jung (1875-1961).
9. “Una inteligencia que conociese en un momento dado todas las fuerzas que animan la Naturaleza y también las posiciones de los objetos que la componen, si esta inteligencia fuera capaz de analizar esos datos y condensar en una fórmula el movimiento tanto de los objetos más grandes del universo así como del átomo más modesto, para esta inteligencia, no existiría la incertidumbre, y tanto el futuro como el pasado desfilarían ante sus ojos.”
10. Poincaré no se refería a la forma de la trayectoria de la partícula, sino a una sección de Poincaré del espacio fase. Consultar el libro citado de Ian Steward.
11. Ver Ciencias, abril-junio de 1997, páginas 30-40.
12. James Gleick, Chaos, Penguin Books, 1987.
13. Por ejemplo, ver Deterministic Chaos, de Peter Schuster, Vch Publications, 1995, o bien, First Course in Dynamical Systems, de Robert L. Devaney, Addison-Wesley, 1992.
Pedro Miramontes Vidal
 
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo
Miramontes Vidal, Pedro. (1998). Predecir el clima es una cosa, predecirlo correctamente es otra. Ciencias 51, julio-septiembre, 4-11. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
El fenómeno del El Niño y la oscilación
del sur. Sus impactos en México
 
Víctor Magaña Rueda, José Luis Pérez
y Cecilia Conde
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Uno de los mayores retos en las ciencias atmosféricas ha sido entender los cambios que anualmente se producen en el clima. Condiciones extremas son, por ejemplo, los periodos de secas, que en ocasiones han producido cosechas pobres, hambruna y migraciones masivas. Hoy en día, no sólo la agricultura se ve afectada por la variabilidad en el clima, sino también otras actividades económicas —generación de energía eléctrica, pesca e incluso la salud.
 
En las últimas tres décadas se ha encontrado que la variabilidad interanual en el clima está relacionada en gran medida con el fenómeno de El Niño. Es común escuchar que la sequía es consecuencia de El Niño, que el huracán Paulina se debió a que estamos en año de Niño, las lluvias en Tijuana y otras. Pero, ¿hasta qué punto realmente El Niño es culpable de tales fenómenos? ¿Las tragedias descritas en los noticiarios pudieron haber sido previstas y, consecuentemente, prevenidas? Para contestar es necesario analizar qué sabemos sobre el sistema climático en general, y sobre el fenómeno de El Niño y sus impactos en México en par­ticular.
 
 
Ya desde el siglo pasado, científicos y adivinos intentaban pronosticar. Por ejemplo, el monzón de verano en la India ha sido parte de la vida misma de ese país; por ello los ingleses —con grandes intereses en la zona— iniciaron estudios sobre su predicción. Utilizando los datos disponibles en ese tiempo, como la presión atmosférica en superficie, el científico Gilbert Walker encontró que cuando la presión en superficie en Darwin, Australia, era en promedio más baja de lo normal, en el océano Pacífico central era más alta que normalmente (en Tahití, por ejemplo). Esta especie de sube y baja en la presión, con periodos de dos a cuatro años, se denominó Oscilación del Sur (Figura 1).
 
 
Figura1
Figura 1. Esquema de las condiciones en la atmósfera y el océano Pacífico tropical, A) Normal, y B) Durante años de Niño.

 
 
Por su parte, los pescadores de las costas del Perú encontraron que en ciertos años las aguas donde trabajaban estaban más calientes de lo normal, lo que ocasionaba que la pesca fuera pobre. Como la anomalía en la temperatura del océano alcanzaba un máximo hacia finales de año, los hombres de mar asociaron esta especie de corriente de agua caliente con la llegada del niño Jesús, por estar próxima la Navidad.
 
 
En los años 50 y 60, el meteorólogo Jacob Bjerknes estableció que la llamada Oscilación del Sur y la corriente de El Niño eran parte de un mismo fenómeno climático, que involucraba interacciones de la atmósfera y el océano Pacífico tropical. Desde entonces se han desarrollado muchas teorías para explicar el origen del ahora llamado fenómeno de El Niño/Oscilación del Sur. Aquellas que parecen física y dinámicamente más plausibles son las que involucran formas de inestabilidad en la interacción del océano y la atmós­fera, que corresponden a ondas ecuatoriales. Sin embargo, existen otras teorías menos posibles, las cuales proponen que El Niño puede ocurrir debido a fluctuaciones en la actividad solar o en la actividad volcánica terrestre. Aunque tienen menor aceptación en la comunidad meteorológica, mientras no contemos con una teoría completa que permita explicar a El Niño, éstas deben ser consideradas.
 
 
En el Pacífico tropical, los vientos dominantes cerca de la superficie provienen del este y se denominan alisios, y tienden a acumular el agua más caliente ­hacia el lado oeste, alrededor de la región de Australia e Indonesia (Fig. 1a). Por ser elevada la temperatura de superficie del mar (>28°C), el aire es más ligero y forma una atmósfera inestable en la que hay gran formación de nubes y lluvias intensas. En cambio, el Pacífico tropical del este es más frío (<25°C), por presentarse surgencias de agua del fondo del océano. Sus aguas son ricas en nutrimentos, razón por la cual algunas de las pesquerías más ricas en el mundo se encuentran frente a las costas de Perú. Sin embargo, la presencia de aguas relativamente frías inhibe la formación de nubes profundas, por lo que se tiene poca lluvia en las costas de Perú y Chile.
 
 
Durante años de Niño, los vientos alisios en el Pacífico se debilitan; así, las aguas más calientes del Pacífico tropical se esparcen a lo largo del ecuador (Fig. 1b). Aunque no parece un gran aumento en la temperatura del Pacífico del este (~2°C), la cantidad de energía (calor) involucrada sí aumenta, y de ahí los cambios que se dan en el clima global.
 
 
Con la aparición de una zona de agua caliente en el Pacífico central y del este, aparecen nubes cumulunimbus profundas y precipitaciones intensas sobre esta parte de los trópicos. Tal corrimiento en los patrones de lluvia no se debe a mayor evaporación in situ, sino a mayor convergencia de humedad en la región. Con tales cambios, donde antes llovía poco (por ejemplo, en las islas del Pacífico del este o Perú) ahora se producen lluvias intensas e incluso inundaciones, mientras que donde antes llovía mucho lloverá menos y habrá sequías, como en el Pacífico del oeste (Indonesia, norte de Australia...).
 
 
En los últimos años se ha encontrado que El Niño puede alterar el clima de regiones tan distantes como Estados Unidos o Sudáfrica. Por ejemplo, la influencia de El Niño se siente en el nordeste del Brasil, donde se producen sequías intensas, con el consecuente impacto en la agricultura. En Australia, la agricultura y ganadería también resultan afectadas por la sequía, mientras que en California se establecen planes de prevención de desastres ante las fuertes lluvias de invierno y las inundaciones que provocan. Los costos se calculan en cientos de millones de dólares.
 
 
Pero no se piense que el fenómeno de El Niño es una amenaza apocalíptica que va a terminar con la humanidad. En realidad tal tipo de variabilidad en el clima ha existido desde siempre. Los seres humanos y los ecosistemas se han adaptado a tales extremos en el clima. Quizá hoy estos fenómenos causen más preocupación por afectar a más personas. Es natural; el desmedido aumento de la población ha obligado a establecer asentamientos en zonas que pueden ser muy afectadas por fenómenos naturales; así, la posibilidad de que un huracán cause daños a un núcleo de población es mayor si existe más gente viviendo en laderas de cerros o en lechos de ríos.
 
 
Además de El Niño, también se habla de su contraparte, La Niña, que corresponde a anomalías negativas en la temperatura superficial del Pacífico tropical del este. Al parecer, La Niña provoca eventos climáticos contrarios a los experimentados durante El Niño. Por ejemplo, en Australia o Indonesia en vez de sequía durante El Niño, lloverá más de lo normal. Sin embargo, aún no es claro que los efectos en el clima de otras regiones sean “simétricos” entre periodos de El Niño y La Niña. Al parecer, esta última resulta en un regreso a lo que consideramos las condiciones climáticas normales.
 
 
Se sabe que aunque el clima durante años de Niño tiende a ser anómalo en cierta dirección (más o menos lluvias, huracanes y otros), hay grandes variantes en las respuestas climáticas de un año de Niño a otro, por lo que se habla de la no linearidad del sistema océano-atmósfera. Por otra parte, a un evento de El Niño no siempre sigue uno de La Niña, mostrando la no periodicidad de este fenómeno. Esto resulta en serias complicaciones para la predicción del clima.
 
Los impactos en México
 
Fenómenos meteorológicos
 
En nuestro país el fenómeno de El Niño tiene grandes repercusiones. De manera general podemos decir que las lluvias de invierno en años de Niño se intensifican —como ocurrió durante los inviernos de 1982-1983, 1986-1987 y 1991-1992 (ver tabla)— y se debilitan durante los correspondientes veranos. Lo opuesto ocurre aproximadamente durante años de La Niña.
 
En inviernos de El Niño, la corriente en chorro de latitudes medias se desplaza hacia el sur, provocando una mayor incidencia de frentes fríos y lluvias en las zonas norte y centro de México. El impacto de El Niño en las lluvias de invierno no es siempre el mismo, principalmente cuando se analizan los cambios a nivel regional. Eventos como el de 1986-1987 parecen haber resultado en sólo un ligero aumento de las lluvias del centro del país. Incluso El Niño de 1982-1983, aunque produjo lluvias invernales por encima de lo normal, tuvo un impacto aparentemente menor al del invierno de 1991-1992. Regiones como Baja California Norte o Sinaloa han experimentado algunas de las mayores inundaciones durante años de Niño. La intensidad del más reciente permitió que las lluvias torrenciales de invierno en Baja California fueran pronosticadas desde mediados de 1997.
 
 
Tabla. Porcentajes de Anomalías de Precipitación
  Invierno Verano
Región
Niño Niña Niño Niña
Baja California S.
50% –25% 70% –10%
Baja California N. 50% –25% 0% – 5%
Coahuila 150% –50% 20% 10%
Chiapas 40% –50% –30% 20%
Chihuahua
70% –30% –10% 0%
Durango
90% –80% –20% 0%
Guerrero
110% –90% –30% 10%
Jalisco
150% –50% –30% 10%
Michoacán              
260% –90% –30% 10%
Nuevo León
130% –20% –20% 30%
Oaxaca
10% 10% –50% 10%
Sinaloa
50% – 5% –10% 5%
Sonora
40% 0% –20% 0%
Tabasco
0%
0%
-10%
0%
Tamaulipas
190% 30% –10% 30%
Veracruz
20% –10% –10% 10%
Yucatán
50% –40% –20% 10%
 
 
 
Durante veranos de El Niño, las lluvias en la mayor parte de México disminuyen (ver tabla), por lo que la sequía aparece. En este periodo, la zona intertropical de convergencia del Pacífico del este —donde existe gran cantidad de nubes profundas y lluvia— tiende a permanecer más cercana del ecuador, por lo que la fuente de humedad para las lluvias en la costa oeste de México permanece alejada y las lluvias de verano no ocurren como se espera. Por el contrario, en años de Niña las lluvias parecen estar por encima de lo normal en la mayor parte de México, pero especialmente en la costa del Pacífico.
 
 
En verano, el país se ve afectado por huracanes; en años de El Niño aumenta su número en el Pacífico, mientras que disminuye en el Atlántico, Mar Caribe y Golfo de México. Tal relación tiende a revertirse durante años de Niña. Pero no es claro en qué parte del océano se formarán los huracanes y si tenderán a seguir trayectorias cercanas o alejadas de las costas mexicanas. Al parecer, la anomalía de agua caliente que ocurre en el Pacífico del este resulta en una mayor dispersión en la génesis y trayectorias de huracanes. Dicha anomalía puede alcanzar las costas mexicanas, aumentando la intensidad de los huracanes como parece haber sucedido con Paulina. Sin embargo, no se puede afirmar que la trayectoria seguida por éste a lo largo de Oaxaca y Guerrero se debió a El Niño o sea algo anómalo. Durante cada verano existe la posibilidad de huracanes entrando por las costas de nuestro país.
 
Los impactos económicos
 
En los años 1982-1983 los efectos de El Niño fueron severos, provocaron sequías, incendios y pérdidas estimadas en cerca 600 millones de dólares en las economías de México y Centroamérica. Durante los años 1991-1995 se estableció un periodo de Niño que, si bien no fue tan intenso como el mencionado, coincidió con una de las sequías más prolongadas en el norte de México. Ésta produjo problemas internos y externos por el uso de agua en las presas. Los reclamos por agua en la Presa de El Cuchillo o los conflictos con Estados Unidos por el líquido del Río Bravo fueron noticias de primera plana durante varios días.
 
El Niño más reciente provocó una disminución en las lluvias y, de acuerdo a cifras oficiales, se perdieron más de dos millones de toneladas de granos básicos y se produjeron daños por cerca de ocho mil millones de pesos. Lo anterior no incluye los efectos de las lluvias de Tijuana.
 
Un mayor conocimiento de los impactos del fenómeno de El Niño en las lluvias y, por tanto, en la disponibilidad de agua permitiría un mejor manejo de este recurso. Así, el hecho de que en inviernos de Niño haya más precipitación —principalmente en la región norte de nuestro país— permitiría administrar el agua de las presas. Existen también impactos de El Niño en pesquerías, salud y otras áreas, que apenas comienzan a ser estudiados. Condiciones de mayor humedad y calor en ciertas partes de Sudamérica y Centroamérica parecen ser propicias para que surjan epidemias de cólera o paludismo.
 
 
Para este 1997 y 1998 se ha detectado el desarrollo de uno de los eventos de El Niño más intensos de que se tiene registro. Muchos países han tomado acciones preventivas ante los posibles impactos negativos, pero también para aprovechar los positivos.
 
Además de un constante monitoreo sobre el clima, se ha comenzado a emitir pronósticos sobre la ocurrencia y evolución de El Niño, utilizando modelos de circulación del océano o técnicas estadísticas que toman en cuenta los cambios de temperatura superficial del mar que se dan en los últimos meses. Aunque al principio existía cierta discrepancia entre los resultados que los modelos entregaban, poco a poco parecen comenzar a mejorar y a volverse más precisos. Se ha desarrollado incluso un Instituto Mundial para Estudios de El Niño (International ­Research Institute) que coordina investigaciones de predicción, no sólo en lo que se refiere a la temperatura superficial del mar, sino también a los impactos que tendrá el fenómeno en otras regiones del planeta, tanto en temperatura como en precipitación.
 
La demanda de productos climáticos ha aumentado considerablemente. Productores agrícolas, aseguradoras, consorcios pesqueros, compañías genera­doras de energía, etcétera, tienen gran interés en conocer cuáles serán las condi­ciones climáticas probables, para considerarlas como elemento adicional de planeación.
 
Predictibilidad
 
Los límites en la predictibilidad del tiempo están impuestos por la naturaleza no lineal y a veces caótica del sistema atmosférico. El límite de dos semanas para pronósticos explícitos globales —como lo sugirió Edward Lorenz— es un valor generalmente aceptado.
 
En principio sólo sería posible pro­nosticar de manera determinística las condiciones de la atmósfera a menos de 15 días, lo cual hace imposible efectuar predicciones climáticas del tipo de las que se hacen para el tiempo atmosférico. Es por ello que el problema del pronóstico del clima debe ser analizado en su dimensión real. Por ejemplo, en predicciones a corto plazo (uno o dos días) se desea conocer en qué regiones del país lloverá o hará frío, dando valores a cada una de estas variables de manera precisa en el espacio y tiempo. Entre más corto sea el plazo de pronóstico, mayor es la precisión alcanzada.
 
El de largo plazo (climático) sólo trata de determinar en qué porcentaje se verán afectadas la condiciones en una cierta región del planeta. Así, en predicciones del clima se habla de anomalías, ya sea en lluvia, temperatura, etcétera. Tal información resulta de gran valor. En la mayoría de los casos se trabaja en un sentido probabilístico, a partir de la historia del clima de los últimos 50 años. Sin embargo, también se trabaja en comprender la circulación de la atmósfera y los mecanismos que la controlan, para de esta manera entender —desde el punto de vista físico— lo que la estadística sugiere. La naturaleza no lineal del sistema climático nos obliga a utilizar modelos numéricos para estudiar el clima.
 
En México estamos comenzando a trabajar en el desarrollo de esquemas de pronóstico a largo plazo. Para ello se realizan investigaciones con datos históricos, modelos dinámicos y campañas de observación que permiten definir de manera más adecuada los impactos de El Niño en el país. El mayor interés radica en explicar por qué no todos los fenómenos de este tipo resultan en las mismas anomalías climáticas. No es necesario esperar a conocer perfectamente todos los detalles de algún proceso climático para realizar pronósticos y hacer uso de ellos. Sí es importante conocer cuáles son las limitaciones de tales pronósticos, para no crear falsas expectativas.
 
Aunque existe una gran necesidad de saber con suficiente anticipación si habrá más huracanes afectando las costas mexicanas, lo más que podremos decir es si se esperan más sistemas de este tipo en esta parte del mundo, pero de ninguna manera si Acapulco sufrirá de nuevo el embate de un huracán como Paulina. Lo más importante es aplicar el principio de precautoriedad, aumentando las medidas de protección.
 
Acciones de mitigación y adaptación
 
La vulnerabilidad del país ante eventos muy fuertes de El Niño está en relación inversa con:
 
1. La difusión y comprensión de los pronósticos climáticos,
2. La capacidad técnica para aplicar medidas preventivas, y
3. La disponibilidad de recursos financieros para aplicar esas medidas
 
Brasil y Australia son ejemplos en cuanto a acciones estratégicas para mitigar y/o adaptarse a este evento. En ­Estados Unidos ya se han integrado comi­siones de prevención de desastres ante los potenciales impactos de El Niño.
 
En México ya pueden considerarse algunas acciones preventivas. Por ejemplo:
En la planeación de actividades de agricultura, contemplar como elemento de juicio los pronósticos de lluvias basados en información de El Niño.
 
Con la recarga de las presas en invierno se puede sugerir su administración en función de las prioridades productivas de la región (irrigación y ganadería, por ejemplo). Las presas de capacidad media tienen que permanecer en estado de alerta ante un posible desbordamiento. Con la recarga de las presas en invierno se debe evaluar la perspectiva de condiciones de sequía en verano (de prevalecer El Niño), revisando la posibilidad del uso racional del agua almacenada.
 
En las regiones urbanas es importante prever para el invierno las posibles inundaciones por lluvias intensas, dependientes del estado del alcantarillado. Si en el verano se presentan condiciones de sequía, será importante educar a la población y a las industrias para un uso racional del agua.
 
Durante los veranos bajo condiciones de fuerte Niño, es fundamental prevenir los incendios forestales. Además de difundir las medidas de seguridad entre los grupos de productores agrícolas que queman parte de los bosques, es también necesario difundir las medidas de alerta por la posibilidad de incendios naturales.Chivi51
Agradecimientos.
Expresamos nuestro agradecimiento al señor Rodolfo Meza, por su apoyo en la búsqueda de información sobre El Niño y sus impactos. Este trabajo ha sido apoyado financieramente por el proyecto PAPIIT-IN100697.
Víctor Magaña Rueda, José Luis Pérez y Cecilia Conde
Centro de Ciencias de la Atmósfera,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo
Magaña Rueda, Víctor y Pérez José Luis, Conde Cecilia. (1998). El fenómeno de El Niño y la oscilación del sur. Sus impactos en México. Ciencias 51, julio-septiembre, 14-18. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Virus emergentes: ficción y realidad
 
Fernando Ontiveros Llamás
conoce más del autor

   
 
 
HTML ↓
PDF regresar al índice artículo siguiente
     
Un grave problema en nuestra sociedad es la falta de información, particularmente en cuanto a ciencia. Más allá de la simple ignorancia, los conocimientos falsos o severamente tergiversados toman carácter de verdad conforme pasan de boca en boca o son difundidos en publicaciones de alcances pseudocientíficos. Como es de suponerse, el tema de los virus emergentes no es la excepción, lo que dificulta el efectivo combate de las enfermedades producidas por éstos.
 
Decimos que una enfermedad es emergente si ha sido identificada en fechas recientes —últimos 20 años—, o bien si su incidencia en seres humanos se ha incrementado significativamente en el mismo periodo. Estas enfermedades pueden ser causadas por diferentes agentes como bacterias (cólera), protistas (malaria) o virus (sida).
 
 
En particular, los virus han sido objeto de interés y controversia. La emergencia del Virus de Inmunodeficiencia Humana (vih) y otros potencialmente letales, como los de las fiebres hemorrágicas, han incrementado la inquietud entre virólogos y expertos en enfermedades infecciosas, dando lugar a versiones falsas y en ocasiones alarmistas. ¿Cuál es la realidad?
 
Los virus “nuevos”
 
Llamar “nuevos” a los virus emergentes es un error; éstos no aparecen de repente o de la nada para infectarnos. La mayoría ya existe en la naturaleza y durante mucho tiempo permaneció “escondida” en sus hospederos naturales (roedores, aves, insectos...), hasta que una persona, por alguna razón, entró en contacto con ellos. Con frecuencia las actividades humanas son causantes del desequilibrio ambiental en las zonas más apartadas del globo, lo que implica un importante factor social en la aparición de las enfermedades emergentes.
 
Sabemos que la expansión de la población así como la explotación intensiva y a gran escala de recursos naturales antes no usados, perturban ecosistemas que fueron estables hasta décadas atrás. Las grandes migraciones, la urbanización desenfrenada, las prácticas agrícolas inadecuadas y las deficientes medidas higiénicas favorecen el contacto humano con agentes patógenos desconocidos, que ocupaban áreas limitadas o de difícil acceso. El caso particular de virus como el Guanarito, Machupo y Junin —surgidos en Sudamérica en las décadas más recientes, cuando la gente modificó el ambiente con prácticas agrícolas invasivas— es un buen ejemplo de lo que sucede cuando la relación dinámica y fluctuante entre la gente y su medio se ve rota.
 
Incluso pequeños cambios en el clima puede afectar esta relación. Durante el invierno de 1992-93, la humedad y las fuertes nevadas registradas en Nuevo México provocaron un exceso de alimento para roedores, lo que se reflejó en el aumento del número de ratones reservorios del “sin nombre”, hantavirus de fiebre hemorrágica, que contagiaron a 114 personas, causando la muerte de 58 de ellas.
 
El avance de la biotecnología también ha favorecido la percepción de que las enfermedades virales hoy son más frecuentes, pues las nuevas técnicas permiten reconocer agentes que podrían haber pasado inadvertidos utilizando métodos anteriores. Así, hace poco más de una década no se tenía una prueba para diagnosticar el Hanta; ni qué decir de la total ignorancia acerca de la existencia del vih a principios de los años 80. Actualmente se han puesto a punto diferentes técnicas (elisa, Blot) que facilitan enormemente el diagnóstico temprano y colabo­ran para reconocer el origen de distintos padecimientos.
 
Por otro lado está la publicidad. Virus como los de las fiebres hemorrágicas focalizan la atención, pues son considerados entre los más peligrosos agentes biológicos conocidos, debido a la alta tasa de mortandad que pueden provocar. Entre ellos, los miembros de la familia Filoviridae (filovirus) son los mejores ejemplos de patógenos emergentes, y también de los que menos se sabe.
 
Aquí es conveniente hacer un alto para responder puntualmente a una pregunta que flota en el aire. Además de los avances en las técnicas de diagnóstico, del impacto de la publicidad y del encuentro con virus hasta hace poco desconocidos —producto del desequilibrio ecológico causado por la raza humana— ¿es posible que aparezcan virus totalmente nuevos?
 
Los virus pueden cambiar...
 
Hablamos de entidades altamente desarrolladas, económicas y eficientes, que pueden cambiar a través del tiempo. Estos cambios no implican necesariamente el surgimiento de nuevas especies, sino variaciones dentro de éstas, que pueden dar lugar a cambios en el comportamiento del virus.
 
La continua generación de variantes es la que da lugar a las cuasiespecies víricas. Según Manfred Eigen —premio Nobel de Química 1967—, por cuasiespecie entendemos la distribución de genomas relacionados no idénticos, que constituyen un espectro dinámico de mutantes para una población de virus.
 
Esto significa que en una población de un mismo virus constantemente surgen variantes, debido a mecanismos que explicaremos adelante. Todas estas variantes, diferentes unas de otras, existen en una “nube” alrededor del genoma original, que es el dominante. Normalmente la mayoría de las variantes será mantenida en bajas frecuencias (o eliminada completamente), por selección negativa. Esto pasará mientras el am- biente permanezca sin cambios. Pero si el virus se re­pro­duce en un ambiente diferen­te al que sus genomas “padres” usaban para replicarse, la probabilidad de que nuevas variantes surjan para ser dominantes será mayor. El mutante que responda mejor al cambio se convertirá en dominante y la “nube” de mutantes alrededor del genoma original se desplazará, toman­do como centro al nuevo genoma dominante.
 
Es así como se explica el cambio o “evolución” viral en nuestros días.
 
Ahora bien, los cambios en el genoma viral se pueden dar de diferentes formas. Los virus, especialmente aquellos cuyo material genético es ácido ribonucléico (retrovirus, entre otros), tienen tasas de mutación muy altas. A esto se suma que los virus “viven” a través de muchas generaciones en poco tiempo (hasta 17 en una sola infección). Las pequeñas mutaciones causadas por los errores en la replicación pueden acumularse a través del tiempo y producir nuevos genomas. La mayoría de las veces los errores introducidos a la secuencia serán neutrales o letales para los virus mutados, en cuyo caso son rápidamente borrados del competitivo entorno de la reproducción viral.
 
Así tenemos un catálogo de genomas alterados que capacita a la población de virus —cuasiespecies— para responder rápidamente a las situaciones cambiantes del ambiente.
Como podemos ver, mientras más imperfecta sea la replicación de un virus, mayor será la cantidad de mutaciones que se puedan acumular. Desde luego, esto tiene un límite, pues los errores no deben afectar las partes esenciales del genoma o el resultado será simplemente un conjunto de macromoléculas que jamás formarán una copia viable del virus. Esta imperfección en la replicación es evidente principalmente en los retrovirus, virus de arn que, con la ayuda de una enzima (reversa transcriptasa), transcriben su información genética a adn una vez dentro de la célula huésped. Esta enzima no tiene un mecanismo de reparación de los errores cometidos al copiar, lo cual genera una tasa de mutación muy alta.
 
A las mutaciones se deben sumar los eventos de recombinación. Algunos tipos de virus pueden portar secuencias genómicas de dos tipos de “padres”. Otros pueden recombinar sus genes al momento de la replicación y hasta adquirir genes de la célula huésped.
 
Pero el evento quizá más impactante es el rearreglo (reassortment). De un rearreglo viral resulta una nueva progenie de virus, formada por la asociación y envoltura de segmentos de genoma de virus diferentes durante la infección mixta de una célula por virus de arn (de doble cadena).
 
Esto quiere decir que al infectar al mismo tiempo dos virus diferentes una misma célula, fragmentos del genoma de cada uno forman un nuevo genoma, que a su vez dará lugar a un virus diferente. En particular, los genomas de doble cadena de arn muestran una cierta frecuencia de rearreglo. Como es de esperar, muchas veces resultan entidades no viables, que son eliminadas. Pero a veces funciona. Se cree que ésta es la base de los dramáticos cambios antigénicos en el virus de la influenza, que hace unos 60 años provocara una mortal pandemia.
 
Estos mecanismos pueden propiciar el surgimiento de poblaciones de virus potencialmente patógenos. Sin embargo, debemos señalar que dichos eventos son, hasta donde sabemos, azarosos y se dan con baja frecuencia en la naturaleza.
 
Virus y ficción
 
El profundo miedo del ser humano a las enfermedades desconocidas y mortales ha sido explotado no sólo por gobiernos en conflicto y grupos terroristas, sino por la industria del entretenimiento, colaborando a la psicosis general.
 
Desde novelas como La amenaza de Andrómeda de M. Crichton, La plaga que viene de L. Garret, Zona caliente de Preston, y la película Epidemia de W. Petersen, el tema de los virus se ha hecho del dominio popular. Se habla de manipulaciones genéticas y creación de virus letales para ser utilizados como armas biológicas que destruyen al mundo. En los medios de información se maneja que un país pobre y atrasado podría preparar virus capaces de destruir las cosechas, desatar hambrunas y epidemias.
 
Mientras la influenza mata 20 mil personas al año sólo en Estados Unidos, y en América Latina se dan más de 150 mil casos de hepatitis B al año, algunos únicamente se preocupan por virus asesinos ficticios y desconocen cómo protegerse de los reales.
 
¿Pueden los científicos crear virus mortíferos? Algunos investigadores piensan que se pueden hacer “muchas cosas” con las técnicas y herramientas disponibles.
 
Es cierto que hay trabajos experimentales “secretos”, de los cuales probablemente nunca llegaremos a saber. Y también es verdad que en diferentes partes del mundo existen intereses en el desarrollo de armas biológicas. Sabemos que integrantes de “Verdad Suprema” —el grupo responsable del ataque con gas sarin al metro de Tokio— visitaron instalaciones médicas en Zaire, donde se atendieron casos de ébola en octubre de 1992; se presume que su objetivo era obtener muestras del virus para utilizarlo más tarde en algún atentado.
 
Quienes han investigado a fondo el desarrollo de armas biológicas, saben que el peligro reside en el uso de agentes virales ya conocidos, no en la creación de nuevas cepas.
 
En la actualidad es fácil llevar a cabo rearreglos de virus en el laboratorio; incluso esta técnica se usa frecuentemente para el mapeo de caracteres. Pero de eso a “crear” virus nuevos y letales hay gran diferencia. En palabras de una viróloga: “No se trata sólo de ‘pegar’ genes virulentos y tratar de infectar a una célula. Las combinaciones raras pueden dar lugar a virus incapaces de replicarse. Los virus son máquinas exquisitamente autorregulables y adaptadas a ciertos tipos celulares. La preocupación actual no debe ser la probabilidad de que alguien prepare un bicho que acabe con la especie humana, sino la evolución de virus ya existentes. Que pueden aparecer virus ‘nuevos’, sí; pero su tipo y momento son totalmente impredecibles.”
 
Virus y sociedad
 
El virus más estudiado de la historia, el vih —originado probablemente entre 50 y 100 años atrás a partir del vis (Virus de Inmunodeficiencia en Simios)— fue conocido hasta 1981. Pero no tardaron mucho en surgir los rumores sobre su “creación”, por manos de científicos estadunidenses, como un arma biológica que escapó a su control.
 
Por desgracia, hay numerosas publicaciones pseudocientíficas que transmiten información equivocada, tergiversada, alarmista y a veces totalmente falsa, influyendo en grandes capas sociales, mientras que el conocimiento científico queda remitido a pequeños círculos académicos. Tales publicaciones difunden rumores y noticias alarmistas sobre virus peligrosísimos que “escapan” de laboratorios para exterminar a la humanidad.
 
Así, la ignorancia y el infundado temor a la investigación científica atacan a la sociedad, cuando lo que ésta necesita es poseer y manejar una de las mejores armas contra la diseminación de las enfermedades infecciosas: la educación.
 
Volviendo al ejemplo del sida: en África, la miseria provee de condiciones ideales para la proliferación del vih, pues al no contar con medidas de protección adecuadas se han generado focos masivos de infección. Mientras que en países desarrollados hay una disminución en el porcentaje de incremento debido en parte a las campañas de prevención, en África el sida es la principal causa de muerte en adultos citadinos. En algunos lugares, de 20 a 30% de las mujeres embarazadas están infectadas.
 
Hasta las autoridades de salud pueden ser víctimas de la falta de información. Recordemos que ante el brote de ébola en Zaire en 1995, la incertidumbre de los médicos mexicanos frente a la probabilidad de que esta enfermedad llegara a México se manifestó en diferentes comunicados tanto del issste como del imss. El común denominador fue que no se sabía gran cosa acerca de la enfermedad. Es preciso estar conscientes del peligro que representan los virus emergentes. Los científicos, entre ellos un premio Nobel, han prevenido contra la probable aparición de nuevas plagas; creen que en la naturaleza puede haber un vasto reservorio de virus potencialmente peligrosos.
 
Salud y educación
 
La educación es de fundamental importancia para la salud pública. La información científica básica debe ser accesible a todas las personas; en la medida que conozcan más y mejor, serán más críticas respecto a lo que leen y confiarán menos en publicaciones de dudoso rigor científico. Ello representa un compromiso a cumplir constantemente por todos los profesionales, académicos y estudiantes de ciencias biológicas y de la salud. Sólo una sociedad bien informada y practicante de medidas higiénicas adecuadas puede hacer frente de manera eficaz a las enfermedades emergentes.
 
Los virus siempre han fascinado a los investigadores; su aparente sencillez esconde procesos biológicos complejos capaces de afectar a la especie humana. Aquellos responsables de la explotación inadecuada de nuestros recursos deben saber que cuando se rompe la armonía en la naturaleza, haciendo caso omiso del orden de las cosas, se obtendrá una respuesta de ésta contraria a la sobrevivencia humana.Chivi51
Agradecimientos:
A Isabel Novella por su amable colaboración, y al profesor Ernesto Vega por todo el apoyo y ánimo brindados durante la realización de esta revisión.
Referencias bibliográficas
 
Sable, C.A. y Mandell, G.L. 1996. The role of molecular techniques in the understanding of emerging infections. Mol Med Today 2 (3).
Peters, C.J. et al. 1994. Filoviruses as emerging pathogens. Sem. Virol. 5, núm 2.
Cullinton, B.J. 1990. Emerging Viruses, Emerging Threat. Research News. Science 247.
Jaret, P. Viruses. 1994. National Geographic, July. • Strauss, E.G. et al. 1996.Virus Evolution. En: Fundamental Virology. Third Edition. Raven ­Publishers, Philadelphia.
Domingo, E. y Holland, J. J. 1994. Mutation Rates and Rapid Evolution of rna Viruses. En: The Evolutionary Biology of Viruses. Raven Press, Ltd, New York.
Anderson, R.M. y May, R.M. 1992. Understanding the Aids Pandemic. Scientific American, May.
Le Guenno, B. 1995. Emerging Viruses. Scientific American, October.
Ewald, P. 1993. The Evolution of Virulence. Scientific American, April.
Eigen, M. 1993. Viral Quasispecies. Scientific American. July.
Novella, I.S., Domingo, E. y Holland, J.J. 1995. Rapid viral quiasispecies evolution: Implications for vaccine and drug strategies. Mol. Med. Today 1.
Biotecnología militar. Muy Interesante. Año VII, núm 3.
Fay, O. H. 1990. Hepatitis B in Latin America: Epidemiological patterns and eradication strategy. The Latin American regional study group. Vaccine 8: Suppl: S100-S106.
Diario de Querétaro. Miércoles 17 de mayo de 1995. Sección B-p. 5.
Cole, L.A. 1996. The Specter of Biological Weapons. Scientific American, December.
Fernando Ontiveros Llamás
Estudiante de la Licenciatura en Biología. Facultad de Ciencias. Laboratorio de Inmunología,
Instituto de Investigaciones Biomédicas, Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo
Ontiveros Llamás, Fernando. (1998). Virus emergentes: ficción y realidad. Ciencias 51, julio-septiembre, 30-34. [En línea]
    regresar al índice artículo siguiente
  P01 P02  
 
 
     
El clima en la historia  
Gustavo Garza Merodio y
Mariano Barriendos Vallvé
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
La climatología histórica es una especialidad de la paleoclimatología, que emplea como fuente básica de datos la información meteorológica/climática contenida en fuentes documentales históricas. Su introducción es relativamente reciente en el ámbito geográfico iberoamericano, pero tiene un potencial si se considera la enorme disponibilidad de documentación histórica que constituye, en definitiva, la fuente de información de tipo meteorológico-climático en la que se basan sus análisis paleoclimáticos.
 
En Hispanoamérica esta especialidad tiene una trayectoria limitada, con algunas iniciativas realmente interesantes pero carentes de la suficiente continuidad. Destaca el físico Manuel Rico Sinobas, que a mediados del siglo xix propuso un método de recopilación de informaciones meteorológicas obtenidas en fuentes documentales en forma de fichas estandarizadas.
 
Durante más de un siglo casi no se generaron estudios específicos de climatología histórica en España. Hubo que esperar hasta la década de  1960 para apreciar cierto interés en algunos investigadores. José María Fontana Tarrats inició, a título particular, una recopilación de informaciones de archivos de toda España. Sin establecer un criterio de trabajo específico que le permitiera después la producción de series de datos utilizables a efectos climáticos, este investigador fue el primero en percibir las inmensas posibilidades de la climatología histórica dentro del patrimonio documental generado por el conjunto de instituciones y particulares en la monarquía hispánica. Por otro lado, en esa misma época el profesor Emili Giralt Raventós advirtió la utilidad que podría tener para la climatología histórica el empleo de las referencias documentales sobre ceremonias de rogativas por motivaciones ambientales.
 
 
El primer trabajo dentro del ámbito universitario, con características óptimas tanto en los planteamientos metodológicos como en sus resultados, se produce dos décadas después. Es un trabajo realizado por C.M. Albentosa sobre el régimen pluviométrico en  ciudad de Tarragona durante el siglo xviii a través de registros documentales. Pero es hasta 1994 cuando se presentan dos tesis doctorales sobre esta especialidad; la primera, escrita por Barrientos, trata sobre Catalunya entre los siglos xv-xix y la segunda, de Sánchez Rodrigo, sobre Andalucía en los mismos siglos.
 
El sistema de rogativas
 
La disponibilidad de documentos históricos con información interesante a efectos climáticos es tan abundante en cualquier archivo de cualquier ámbito geográfico o institucional que desde el inicio de cualquier investigación en climatología histórica debe establecerse una serie de criterios de selección de las fuentes a consultar.
 
 
Como el objetivo final es obtener series de datos climáticos lo más prolongadas y continuas posible, el resultado de la selección suele dirigirse hacia series documentales también largas, como los libros de actas administrativas de instituciones municipales y eclesiásticas. Allí, además de aparecer un sinnúmero de hechos cotidianos de la propia institución, suelen registrarse sucesos memorables o que rompen la rutina cotidiana en la localidad, tanto de origen humano (guerras, accidentes, visitas de personalidades) como de origen físico (episodios meteorológicos extremos, epidemias, terremotos, hambrunas). En las localidades más importantes tampoco es infrecuente encontrar —siempre que se hayan conservado en algún archivo privado o público— documentos específicos con informaciones de carácter extraordinario que llevaban personas a título particular, como médicos, abogados, funcionarios eclesiásticos o de los gobiernos municipales, que generaban libros de memorias o dietarios.
 
La información que puede recuperarse de los documentos históricos no es despreciable, ni por la cantidad ni por su calidad de detalle: inundaciones, sequías, heladas, nevadas catastróficas, temporales de mar, huracanes, grandes tempestades, episodios de lluvias persistentes, olas de calor y de frío.
 
 
La información meteorológica/climática directa es difícil de encontrar en fuentes documentales manuscritas. Sin embargo, lo más abundante son las informaciones indirectas sobre condiciones atmosféricas, conocidas como proxy-data. Entre los diferentes tipos de proxy-data, el que ha ofrecido mayores perspectivas de investigación hasta ahora en la Península Ibérica es el registro de ceremonias religiosas de rogativas por motivaciones ambientales. Las rogativas son motivadas por diferentes variaciones o anomalías, en este caso climáticas, que ponen en tensión las limitadas disponibilidades tecnológicas de las comunidades preindustriales. Ante los problemas directos sufridos por las actividades agrarias, se ponía en marcha un complejo mecanismo institucional hasta llegar a la realización de una ceremonia de rogativas.
 
 
Cada rogativa tenía las siguientes etapas de preparación:
 
 
1) Indicaciones de las autoridades gremiales de labradores con los problemas detectados,
2) Deliberación de las autoridades municipales competentes en la materia,
3) Comunicación de su decisión a las autoridades eclesiásticas para la introducción de la ceremonia en el calendario de actividades de la Iglesia Católica,
4) Pregón o anuncio público de la ceremonia de rogativas.
 
El mecanismo institucional transmite, en consecuencia, un alto grado de fiabilidad y objetividad, y la disponibilidad de informaciones detalladas sobre las rogativas, ya que el procedimiento deja un rastro documental. En definitiva, la homogeneidad con que se generaron durante siglos, la datación exacta y la continuidad de los registros conservados en archivos municipales y eclesiásticos, impulsó el empleo de esta información para la obtención de series con información climática a escala pluisecular. Estos materiales, por otra parte, ofrecen la posibilidad de cuantificar en diferentes niveles de intensidad el tipo de fenómeno por el que se está rogando. Así, las sequías —el azote más habitual y más perjudicial— llegaron a generar cinco niveles de rogativas según la intensidad y duración del episodio. En breves términos, el primer nivel consistía en oraciones durante las celebraciones religiosas, como las misas. El segundo preveía la exposición de reliquias o imágenes de advocaciones especializadas durante un número de días variable. El tercero consistía en procesiones por las calles de la población. El cuarto contemplaba la inmersión en agua de reliquias o imágenes, hasta su prohibición a principios del siglo xvii, momento en que hubo de sustituirse por ceremonias de similar importancia. Finalmente, en el nivel máximo se realizaba una peregrinación a santuarios de ámbito regional de gran devoción entre la población.
 
 
En el caso de la cuenca de México, los datos utilizados para lograr la serie climática sobre sequías extremas proceden de tres tipos de  fondos: documentos administrativos, religiosos y diarios privados.
 
 
El tipo de información obtenida corresponde al de las denominadas rogativas “pro pluvia” de nivel crítico. Éstas tenían lugar al presentarse una sequía prolongada que pusiera en peligro los cultivos de temporal o la salud pública. Tales rogativas se concentraban en las dos imágenes más veneradas de la región, la virgen de Los Remedios y la de Guadalupe. El santuario de la primera se encontraba bajo la administración directa del cabildo colonial de la ciudad de México, y se le consideró desde fines del siglo xvi la advocación más efectiva contra la amenaza de las sequías.
 
 
Todos los registros de las rogativas asentadas para el logro de esta serie climática mencionan las fechas en que se llevaron a cabo, las características de los traslados de la virgen de su santuario (15 kilómetros al noroeste de la capital), el tipo de ceremonias realizadas, la duración de su estancia, así como su regreso a Los Remedios, por lo general después de un pomposo novenario.
 
Un estudio comparativo
 
En una primera aproximación a la obtención de datos referentes a la realidad climática de la cuenca de México durante el periodo colonial, se apreció que la información relacionada con sequías extremas era la más asequible y fácil de lograr durante un lapso corto de investigación.
Al no tener disponible la totalidad de la información en los registros del Archivo del Antiguo Ayuntamiento de la Ciudad de México, se procedió a completar los datos con fuentes bibliográficas fiables, obtenidas primordialmente en el Fondo Reservado de la Biblioteca Nacional.
 
Una vez comprobado que se contaba con la totalidad de las rogativas “pro pluvia” críticas, se ejecutó la cuantificación de los datos, los cuales en periodos de 30 años permiten reconocer los lapsos con mayor número de sequías durante poco más de 200 años (1601-1810).
 
 
De acuerdo con la serie obtenida, el comportamiento climático de la cuenca de México  muestra una oscilación que comienza en la primera mitad del siglo xvii, caracterizada por la escasez de sequías extremas. A partir de la séptima década del siglo xvii la frecuencia de sequías se hace más notable, y se prolonga hasta cerca de 1720. Durante los siguientes 60 años las sequías volvieron a presentarse con menos frecuencia. Por último, la oscilación de esta serie conduce a un periodo en el que la presencia de sequías críticas se vuelve extrema: el ciclo 1781-1810 duplica en número al de los periodos graves anteriores.
 
En el caso español, el comportamiento es casi inverso al registrado en la ciudad de México: las sequías graves son frecuentes al inicio y al final del periodo estudiado, mientras que desde mediados del siglo xvii hasta principios del siglo xviii se observa un acusado descenso en la aparición de las sequías. La coincidencia de esta baja ocurrencia con el desarrollo del mínimo Maunder (“Late Maunder Minimum”, 1675-1715) lo que parece indicar una probable relación entre ambos fenómenos. Una excepción en España ofrece,  un comportamiento similar al de la ciudad de México. La ciudad de Murcia, en el sector sudoriental más árido de la península Ibérica, presenta un régimen de sequías graves completamente diferentes de las otras localizadas a pocos cientos de kilómetros, mientras que su patrón para este fenómeno es más similar al de la capital mexicana.
 
De lo observado, y comparándolo con series obtenidas en España, es de llamar la atención que el punto álgido de la llamada “Pequeña Edad de Hielo” (siglos xv al xix), el mínimo Maunder significa en general para la península Ibérica una época de precipitaciones abundantes y regulares, mientras que en México da lugar a un periodo de sequías recurrentes y graves. También resalta la extrema sequedad que se produce a fines del siglo xviii y principios del xix, la cual ya ha sido insinuada en la historiografía mexicana como una de las causas del aumento en el descontento popular que precedieron a la guerra de Independencia. En el caso concreto de la cuenca de México, puede sugerir cambios topoclimáticos derivados de la constante y paulatina desecación de los lagos.
 
Las posibilidades para las investigaciones que busquen reconstruir la realidad climática durante el virreinato y parte del siglo xix por medio de la cuantificación de los datos proporcionados por las ceremonias de rogativas son muy amplios, no sólo en la cuenca de México, sino en buena parte del territorio nacional. Una vez que la totalidad de la información referente al centro de México haya sido consultada y procesada —lo cual podría tomar años— se proponen otras dos áreas de estudio, cuyas características climáticas difieren de las del antiplano central.
 
Por un lado, se puede llegar a comprender la frecuencia, el comportamiento y la intensidad de los huracanes tropicales al consultar y cuantificar la documentación de los cabildos coloniales de Mérida, Campeche, San Cristóbal de Las Casas, Oaxaca, Veracruz o Xalapa. Asimismo, la información proporcionada por los archivos de ciudades coloniales como Zacatecas, Durango, San Luis Potosí, Saltillo, Monterrey, Chihuahua o Santa Fe de Nuevo México podrán ser
útiles para el reconocimiento de la frecuencia de sequías en las regiones secas de la América
del Norte.Chivi51
Agradecimientos
Conacyt (México) CLI95-1928-CO2-02, cicyt (España)
Referencias bibliográficas
 
Fuentes documentales y bibliográficas. Caso de la ciudad de México.
Archivo del Antiguo Ayuntamiento de la Ciudad de México. Ramo del Santuario de Los Remedios.
Archivo General de la Nación. Ramo de Desagüe.
Bustamante, Carlos María de. 1810. Miscelánea. Fondo Reservado de la Biblioteca Nacional.
Carrillo Pérez, Ignacio. 1808. Lo máximo en lo mínimo Fondo Reservado de la Biblioteca Nacional.
Díaz Calvillo, Juan Bautista. 1812. Noticias para la Historia de Nuestra Señora de los Remedios desde el año de 1808, hasta el corriente de 1812. Fondo Reservado de la Biblioteca Nacional.
Guijo, Gregorio de. 1952. Diario 1648-1664 (2 tomos). Editorial Porrúa, México.
Historia de las Imágenes del Pueblito, Los Remedios y Ocotlán. 1745. Fondo Reservado de la Biblioteca Nacional.
Robles, Antonio de. 1946. Diario de Sucesos Notables 1665-1703 (3 tomos). Editorial Porrúa, México.
Sermón Panegírico. Fondo Reservado de la Biblioteca Nacional.
 
Bibliografía general
 
Albentosa, L.M. (1981-1982). “La importancia del conocimiento de las fluctuaciones climáticas en los estudios históricos. Aproximación al clima de Tarragona durante el siglo XVIII”, Universitas Tarraconensis, Facultad de Filosofía i Lletres. Divisió Geografía i Historia, Tarragona, 4, 73-90.
Barriendos, M. (1994). Climatología histórica de Catalunya. Aproximación a sus características generales (ss. XV-XIX), Departamento de Geografía, Física y Análisis Geográfico Regional, Universidad de Barcelona. Tesis doctoral inédita.
Barriendos, M. (1997). “Climatic variations in the Iberian Peninsula during the late Maunder Minimum (AD 1675-1715): an analysis of data from rogation ceremonies”, The Holocene, 7, 1, E. Arnold, pp. 105-111.
Giralt, El. (1958). “En torno al precio del trigo en Barcelona durante el siglo XVI”, Hispania, Madrid, 18, 38-61.
Martin Vide, J. y Barriendos, M. 1995. “The use of rogation ceremony records in climatic reconstruction: a case study from Catalonia (Spain)”, Climatic Change, 30, Kluwer Academic Publishers, pp. 201-221.
Sánchez Rodrigo, F. 1994. Cambio climático natural. La Pequeña Edad de Hielo en Andalucía. Reconstrucción del clima histórico a partir de fuentes documentales, Departamento de Física Aplicada, Universidad de Granada. Tesis doctoral inédita.
Gustavo Garza Merodio y Mariano Barriendos Vallvé
Grupo de Climatología,
Universidad de Barcelona, España
_______________________________________________________________
como citar este artículo
Garza Merodio, Gustavo y Barriendos Vallvé, Mariano. (1998). El clima en la historia. Ciencias 51, julio-septiembre, 22-25. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Ecología y economía en tiempos de globalización
 
Yamel Rubio Rocha
conoce más del autor

   
 
 
HTML ↓
PDF regresar al índice artículo siguiente
     
Cuando hablamos de globalización en el contexto económico y ambiental, aludimos a las tendencias de aprovechamiento homogeneizante de los recursos a nivel mundial. En términos ideales, tal aprovechamiento debería ser equitativo, permitiendo a todos contar con las mismas oportunidades para vivir con mayores “comodidades” en términos de productos de consumo. Pero la realidad es otra. Así, en una misma región geográfica, por ejemplo Norteamérica (Canadá, Estados Unidos y México), existen polaridades de formas de vida y necesidades y, por lo tanto, de satisfactores, todas derivadas de una historia que no inicia con la revolución industrial del siglo xviii sino cientos de años atrás.
 
Veamos el caso de México. Los antiguos concebían a la naturaleza como un orden que debía perpetuarse, respetándola y aprovechando animales y plantas en forma planeada, buscando sólo lo necesario para vivir y disfrutarla. Aun en la sociedad mexicana de principios y mediados de este siglo no dominaba tanto el consumismo como lo vivimos hoy, expresado en necesidades fabricadas (por ejemplo, las modas en ropa o juguetes electrónicos). ¿A qué responden estas “necesidades” que obligan a extraer una mayor cantidad de materia prima del ambiente (recursos naturales o biodiversidad), aun por encima de su capacidad sustentadora? Un factor determinante es la globalización económica en sus relaciones de libre mercado.
 
 
Ecología y economía han sido disciplinas que divergen en intereses y propósitos. No obstante, hoy ambas parecen compartir intereses y hasta modelos previsores.
 
 
El objetivo de la economía es la manipulación de los recursos económicos (naturales e infraestructura material y humana) dirigida hacia una mayor producción a bajos costos y en tiempos mínimos, rescatando la vieja fórmula: “mayor producción en menor tiempo”. Los ecólogos pretenden la preservación del ambiente, y sugieren un aprovechamiento racional, sustentable, considerando los principios ecológicos de la naturaleza y no los mecanismos del mercado durante los procesos de producción.
 
A simple vista parecerían posiciones encontradas, pero si observamos con cuidado la actitud de ecólogos y economistas contemporáneos se perfila un fin común: la preservación de la materia prima (económica o evolutiva, según el caso); la biodiversidad (ambientes, flora, fauna) en bien de la humanidad. Entendiendo esta finalidad como la capacidad de satisfacer una necesidad, desde estética hasta de alimentación.
 
El valor de la biodiversidad
 
El paisaje de una selva tropical o un bosque templado conservados, representa la combinación de diversas formas animadas (flora, fauna, microorganismos) e inanimadas (relieve y clima), que en conjunto constituyen la biodiversidad. ¿Qué valor o utilidad puede ofrecer ésta a la sociedad? La respuesta es relativa, dependiendo de quién la aprecie: un economista verá con buenos ojos la aplicación del progreso tecnológico y la lógica del mercado, la de la racionalidad de la ganancia a corto plazo para extraer y transformar los recursos económicos (recursos naturales), poniendo en último lugar la preservación a largo plazo —que seguramente no le genera la misma ganancia. Baste citar el sistema que rige en México, donde el Estado confía más el destino del país a los mecanismos del mercado que a los principios de la gestión ambiental. Un ejemplo manifiesto de esta postura es la apertura de industrias en zonas naturales protegidas. Recientemente el ine (Instituto Nacional de Ecología) aprobó la construcción de una planta de nitrógeno de Pemex dentro de Laguna de Términos, área de reserva natural, pese a la oposición de organizaciones ambientalistas locales.
 
La biodiversidad tiene dos tipos de valores: el extrínseco (utilitario) y el intrínseco o inherente. El primero es asignado por la gente a los recursos, de acuerdo a su capacidad para satisfacer necesidades como alimento, vestido, medicina, etcétera, y también está en función de la economía y de los mecanismos mercantiles. El valor inherente es el que reconocen los ecólogos, biólogos y ambientalistas, para quienes cada especie es única y forma parte del patrimonio biológico. Este principio es de vital importancia, pues busca la protección de la naturaleza a través de un uso racional.
 
El término “valor” tiene significado distinto para diferentes individuos o grupos. Una de las discusiones gira en torno al valor de uso de la biodiversidad. Podríamos dividir éste en económico —conferido por los mercados—, y el pasivo, otorgado a las especies por el simple hecho de ser únicas, y por la necesidad de conservarlas a fin de contar con ambientes diversos para las futuras generaciones, quienes tienen el derecho de admirarlas y utilizarlas.
 
El precio que ostenta en el mercado algún recurso natural —materia prima o producto manufacturado— nunca ha reflejado el costo social y ambiental, es decir, lo que los economistas denominan externalidades o fallas de mercado. Por ejemplo, el precio del carbón vegetal no refleja (o informa) a los consumidores el impacto ambiental que ocasiona producirlo. Como sabemos, su proceso consiste en talar árboles para quemarlos y convertirlos en carbón, así como limpiar un terreno para hornear la madera, lo que implica talar otro tanto de terreno que queda expuesto más fácilmente al fenómeno de la erosión, situación muy común en nuestro país. No olvidemos el “efecto cascada” de los procesos de extracción de los recursos naturales. En este caso, la tala de árboles conduce a € pérdida de flora € pérdida de fauna € pérdida de la biodiversidad \deterioro ambiental.
 
Comúnmente se utilizan especies de árboles consideradas en peligro de extinción o amenazadas, por ejemplo el palo de Brasil, Haematoxilum brasiletto (leguminosa). Si el carbón comercializado contemplara el costo ambiental, sería mucho más caro. Un saco con 25 kilos de carbón es ofrecido por los productores en 20 o 30 pesos a los comerciantes, quienes lo revenderán, pero aun así el carbón es un combustible barato y de tradición en gran parte del país, así como en las zonas rurales y urbanas de Sinaloa, por citar un caso específico.
 
Revisemos otro ejemplo. Si se contemplan las externalidades —costos sociales y ambientales— durante la producción de carne de res dirigida a empresas trasnacionales, el precio se elevaría y sería poco atractivo para los inversionistas nacionales y para los extranjeros interesados en establecerse en México; ello los llevaría a buscar otros sitios donde las condiciones les fueran más favorecedoras. Por desgracia, en México quienes aplican las leyes ambientales son poco exigentes; la ignorancia y la desinformación de la sociedad al respecto, así como la falta de apoyo técnico, promueven la apertura de industrias no conservacionistas o con poco interés en la preservación de la naturaleza. Si el costo ambiental se contemplara dentro de los esquemas económicos, de se guro se tendrían más apoyos monetarios, técnicos e informativos para proteger mejor al ambiente.
 
Efecto globalizante
 
La globalización puede entenderse como la mundialización de las culturas, la política, la economía, es decir: su integración en el plano internacional, apoyada por la rapidez con que funcionan las telecomunicaciones y la informática. Los factores que moldean o catalizan las transformaciones de un país, en el sentido social, económico, político y ambiental, se derivan de este fenómeno y de las constantes tendencias a homogeneizar los patrones de conducta a nivel regional (América del Norte) o mundial. Por lo mismo, la globalización tiene impactos inmediatos; así, la crisis de un país afecta a otros geográficamente lejanos (pensemos en el efecto dragón de las crisis económicas).
 
El concepto de globalidad es aplicable en varios sentidos. Tan alarmante puede ser reconocerlo dentro del mismo discurso económico como en cualquier otro. No olvidemos que cada grupo social tiene una concepción y un discurso definido hacia la naturaleza y su valor de uso.
La globalización de la economía es fácilmente apreciable en los tratados comerciales. Para el caso de México pensemos en el tlc con Estados Unidos y Canadá, cuya tendencia principal es el consumo de masas, ya que pretende la estandarización en los diversos sectores de la sociedad a fin de ofrecer, vender y adquirir bienes de consumo en común.
 
Pero, ¿acaso todos los pueblos son iguales, consumen o viven de la misma forma? El asunto es obligado tema de análisis en foros ad hoc, como en la sexta Reunión Nacional de Destrucción del Hábitat 1997, organizada por el Programa Universitario del Medio Ambiente de la unam.
La respuesta a la interrogante es: no. Basta observar la forma tradicional de vivir en los países del norte y los del sur, o simplemente en Estados Unidos y México. Sin embargo, bajo el paradigma de la globalización, se pretende “mejorar” la economía del país, proveyendo más y mejores oportunidades de acceso a bienes de consumo, la mayoría de estos superfluos o extraños a nuestra cultura, y que día a día se afincan en diversos estratos poblacionales, sobre todo en los más frágiles cultural y económicamente, que oponen poca resistencia al influjo de los ofrecimientos publicitarios.
 
Así pues, la integración económica tiene repercusiones culturales y ambientales. Afortunadamente México aún posee una riqueza cultural admirable, resistente a ser absorbida por el fenómeno globalizante. Las manifestaciones que datan de tiempos precolombinos, como el culto a los muertos y los rituales que de ello se derivan; el respeto, la adoración y la utilización de la naturaleza a través de la herbolaria, entre otros, pueden ejemplificar tal resistencia.
 
El imperio global de tendencia capitalista al que pertenece nuestro país, implica la desrregulación de las barreras que limitan los flujos de mercado, de tecnología y de cultura extranjeras, con la consecuente interdependencia de las naciones firmantes de los tratados internacionales. Pero ¿qué pasa cuando los niveles económicos, tecnológicos y de materia prima (recursos naturales) contrastan enormemente —como es el caso de México frente a los vecinos del Norte?
 
El tlc ha derivado en un saqueo de los recursos naturales. La materia prima que se extrae del país es comprada a precios irrisorios; una vez manufacturada o industrializada la consumimos a costos comparativamente muy altos. Por ejemplo, ¿cuánto gana el país —por no decir cuánto le cuesta económica y ambientalmente— con la producción de carne de res para empresas trasnacionales, que posteriormente nos la ofrecerán transformada en productos para consumo, a precios que no contemplan las externalidades? Generalmente estos productos no son de primera necesidad; responden más bien a aspiraciones económicas, pero nos hacen la vida “más fácil”. Un ejemplo son las conocidas hamburguesas que ofrecen algunas trasnacionales asentadas en el país.
 
Asimismo, las políticas de desarrollo de la nación han favorecido una explotación depredadora de los recursos naturales, con altos beneficios económicos a corto plazo, pero serias afectaciones a la base de conservación, sustentación y regeneración de los mismos. Esta política también ha deteriorado la economía de los estratos más pobres. En 1984, 20% de la población mexicana más rica recibía 47% del ingreso monetario para sufragar sus gastos, y 40% —los más pobres— recibía tan sólo 17%. Para 1994 las distancias entre estos polos sociales se extremaron: 20% más rico percibía 52% del ingreso, y 40% más pobre disminuyó a 10.9% en la percepción del ingreso.
 
Otro impacto negativo de la globalización sobre el ambiente se dio a través de la modernización del agro mexicano. Ésta implicó importación de insumos y el uso de grandes cantidades de agroquímicos prohibidos en el mercado internacional, o de no circulación en el país de origen por sus efectos devastadores sobre la redes tróficas. En el mismo sector productivo habría que sumar la tendencia mundial dominante para limitar el espectro de plantas cultivadas a un pequeño grupo formado por las 15 o 30 especies de mayor importancia económica: maíz, trigo, soya, y otras, reduciendo con ello la diversidad biológica.
 
Recordemos que durante el pasado sexenio mexicano, el tlc representó la tabla de salvación para una economía golpeada y en decremento. Los criterios de la nueva política eran estabilizar y poner la mesa para la iniciativa empresarial interna y externa. Un tratado con Estados Unidos proveería de nuevas oportunidades mercantiles, tecnológicas y productivas, se dijo. Sin embargo, economistas y biólogos reconocidos, como Fernando Noriega e Irene Pisanty, afirman que México no estuvo ni está preparado para trabajar y/o competir —mercantil y tecnológicamente— con países del primer mundo. El objetivo de éstos es penetrar en países en vías de desarrollo, aún ricos en biodiversidad, para obtener mano de obra barata, materia prima a precios sumamente bajos y legislación ambiental flexible, lo que les permite gigantescos beneficios económicos y ambientales. Se puede visualizar que la interdependencia se convierte en dependencia obligada. Los países desarrollados dependen de la materia prima de los subdesarrollados, y éstos de los avances científicos, tecnológicos y de las divisas económicas de los primeros. Así, la economía del país está bajo el juego de la economía norteamericana.
 
Cambio global
 
Después de la globalización económica debemos esperar, y ya se presenta con toda seguridad, un cambio global ecológico como resultante del fenómeno. Para algunas autoras como Arizpe y Carabias, “consiste en aquellas transformaciones biogeoquímicas que afectan a todos los hábitats del mundo”. Ambas hacen referencia a la naturaleza; habría que agregar las transformaciones en las actitudes individuales, pues el fenómeno de la globalización incide sobre la riqueza cultural. De hecho, podemos percibir una pérdida constante de valores sociales y éticos hacia el entorno natural. Por ejemplo, los grupos étnicos se reducen rápidamente, aun antes de agotar los recursos naturales de los que dependen; las consecuencias de esta pérdida cultural son visibles en la desaparición de conocimientos y tecnologías apropiadas para las actividades cotidianas y de subsistencia rural. Este sector, dominante en los países latinoamericanos, es heredero de tal sabiduría; su reducción conlleva un empobrecimiento cultural del campesinado, diluyendo sentimientos y valores respecto a los recursos naturales.
 
Los problemas ambientales de México han derivado principalmente del subdesarrollo económico; aquí la pobreza ha sido una constante. Quizá para las comunidades no existan mejores opciones que aprovechar de manera racional sus recursos para sobrevivir; desgraciadamente, es común observar en ellas el tráfico de plantas y animales considerados exóticos o con algún grado de amenaza, así como el cultivo en terrenos no aptos y susceptibles de erosión. Sin duda el problema es complejo y no admite soluciones simples, habida cuenta que está de por medio la subsistencia familiar.
 
La globalización nos está llevando a un consumismo casi incontrolable, en buena medida impulsado por los medios de comunicación. La naturaleza es saqueada para satisfacer a una sociedad cada vez más numerosa y que demanda bienes de consumo de primer o tercer orden; sus desechos cargan el ambiente con toneladas de contaminantes sólidos, líquidos y gaseosos que superan la capacidad de degradación y reciclaje natural.
 
Entre los problemas ambientales globales que compartimos están la deforestación y la pérdida de biodiversidad. La transformación de los ecosistemas forestales en agropecuarios, áreas industriales y de asentamientos humanos ha sido el común denominador de todos los países. Hablamos del problema que más ha dañado a nuestra naturaleza; simplemente comparemos el valle de México antes y después de la conquista. Durante la Colonia se talaron zonas extensas y ricas en madera con el fin de construir los palacios de los nuevos dueños de estas tierras. Por supuesto, también grandes cantidades de madera fueron saqueadas por el mercado europeo.
Es cierto que la deforestación fue un fenómeno común en el México precolombino —tanto la madera para la construcción, como la leña y el carbón eran necesarios para producir cal, estuco y barro cocido—; sin embargo, el impacto negativo sobre el ambiente fue relativamente poco hasta antes de la conquista, comparado con las tasas de extracción posteriores y actuales.
 
La deforestación va en aumento; de seguir la tendencia tendremos un país cuya diversidad biológica será bastante pobre. Las tasas han disminuido el bosque tropical; de 12 millones de hectáreas originales hoy sólo existen 800 mil, concentradas en la selva Lacandona, los Tuxtlas, Uxpanapa, el este de la Huasteca y Tuxtepec. Al igual que en otros países de América Latina, la deforestación está en relación directa con la apertura de más zonas agropecuarias.
Las consecuencias se reflejan en la pérdida de un potencial de recursos económicos, traducida en el paulatino agotamiento de materias primas, la erosión de suelos —que afecta a 80% del país—, la sedimentación de cuerpos de agua naturales y, al extinguirse poblaciones de flora y fauna local y regional, la desaparición de germoplasma.
 
La deforestación es sólo un ejemplo de las actividades antropogénicas que conducen al empobrecimiento ambiental, y por consiguiente, al económico. Existen otros fenómenos de igual impacto, como el saqueo de la flora y fauna terrestre y marítima, el uso de tecnología no apta a las condiciones naturales del país, la pérdida de valores éticos y otros.
 
Conclusiones
 
El fenómeno de la globalización ha repercutido negativamente sobre nuestra sociedad. No es incorrecto buscar nuevas tecnologías para mejorar los niveles de vida nacional, pero sí lo es cuando no somos capaces de discernir cuáles pueden coadyuvar al desarrollo, sin perjudicar las bases sociales y ecológicas de nuestro país. Negativo es también pretender dejar de lado las raíces y los valores culturales que nos dan identidad. Es preciso reforzar nuestra relación con la naturaleza como la madre de toda forma de vida y proceso evolutivo, recomponer el dúo armónico que formamos con ella, reconociéndonos en sus procesos y asumiendo la responsabilidad de conservarla y manejarla adecuadamente.
 
La globalización debería desembocar no sólo en la obtención de mejoría económica sino ambiental, de bienestar común. Claramente existe —al menos así lo manifiestan las reuniones cumbres— un conjunto de intereses que comparten los países a fin de lograr una calidad de vida aceptable para la humanidad y, ello pasa por la conservación, protección y aprovechamiento del ambiente que garantice la supervivencia humana y la biodiversidad. Creo que desde este punto de convergencia se puede construir una nueva visión sobre el uso y reciclaje de los recursos naturales. Sin embargo, las heterogeneidades de los distintos grupos al interior de las naciones, y entre éstas, hacen necesario un largo y complejo proceso de negociación. Mayormente cuando se sobreponen intereses particulares sobre los comunes. He aquí la responsabilidad de los políticos, y sobre todo de la sociedad, que debe estar atenta a las negociaciones en materia económica y ambiental.
 
Es prioritario que México desarrolle conocimiento científico y tecnológico acorde a nuestro ambiente, formulando pactos políticos que permitan armonizar las demandas de grupos internos con el interés nacional y con los intereses comunes a nivel mundial.Chivi51
Agradecimientos
Agradezco a Rodrigo Medellín Legorreta su asesoría.
Referencias bibliográficas
 
Arizpe, L. y J. Carabias. 1992. México ante el cambio global. Antropológicas 3:12-18.
De la Peña, S. 1994. “El tlc: una larga historia”. En A. Dabat (coord.). México y la globalización. Centro Regional de Investigaciones Multidisciplinarias. unam. Cuernavaca, Morelos.
Leff, E. 1990. Introducción a una visión global de los problemas ambientales de México. En E. Leff (coordinador). Medio ambiente y desarrollo en México, vol. 1. Centro de Investigaciones Interdisciplinarias en Humanidades UNAM. Miguel Angel Porrúa Grupo Editorial.
McClung de Tapia, E. 1992. Cambio global y globalización: retos contradictorios para el siglo XXI. Antropológicas 3:8-11.
Perrings, C. 1994. The economic value of biodiversity. En V. H. Heywood (edit.). Global biodiversity assessment. UNEP. Cambridge University Press.
Yamel Guadalupe Rubio Rocha
Instituto de Ecología,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo
Rubio Rocha, Yamel Guadalupe. (1998). Ecología y economía en tiempos de globalización. Ciencias 51, julio-septiembre, 38-43. [En línea]
    regresar al índice artículo siguiente
Está aquí: Inicio Búsqueda Autor revistas revista ciencias 51
Universidad Nacional Autónoma de México
Facultad de Ciencias
Departamento de Física, cubículos 320 y 321.
Ciudad Universitaria. México, D.F., C.P. 04510.
Télefono y Fax: +52 (01 55) 56 22 4935, 56 22 5316


Trabajo realizado con el apoyo de:
Programa UNAM-DGAPA-PAPIME número PE103509 y
UNAM-DGAPA-PAPIME número PE106212
 ISSN:0187-6376

Indice-RM

Responsable del sitio
Laura González Guerrero
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
 

Asesor técnico:
e-marketingservices.com
facebooktwitteryoutube

cclCreative Commons License
This work is licensed under a Creative Commons
Attribution-Noncommercial-Share Alike 3.0 United States License