revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
  _1 _12  
bibliofilia  
Agua, medio ambiente y sociedad
 
 
Fernando Tudela
conoce más del autor
   
       
HTML
 
       
       
Agua, medio ambiente y sociedad
Hacia la gestión integral de los recursos hídricos en México.
Julia Carabias y Rosalva Landa con la colaboración de Jaime Collado y
Polioptro Martínez
unam, El Colegio de México, Fundación Gonzalo Río Arronte. México, D.F., 2005, p.221.
 
 
 
En el umbral del siglo xxi, Mé­xico enfrenta la posibilidad de una crisis del agua que comprometería el futuro inmediato de su proceso de desarrollo. En función de esta crisis po­ten­cial, el gobierno de la República ha declarado que el agua es asunto de seguridad nacional.
 
 
Los esquemas de utilización del agua que han pre­va­leci­do durante décadas han ­de­ter­minado desajustes y con­flictos crecientes: escasez, ago­ta­mien­to de acuíferos, sequías, inundaciones, deslaves, erosión hídrica, azolvamiento, sali­ni­zación, hundimientos di­feren­ciales, contaminación de sue­los y cuerpos de agua, degra­da­ción de hábitats acuá­ticos, en­tre otros procesos que amenazan la saludad humana y la de los ecosistemas y comprometen la continuidad de la mayor parte de los procesos productivos.

El problema del agua en Mé­xico presenta múltiples dimensiones. Aunque su análisis des­borda el reconocimiento de la creciente escasez del recur­so y de los procesos de conta­minación que lo afectan, los indicadores de cantidad y calidad del agua permiten calibrar el alcance de la crisis.

En función con los indica­do­res disponibles, referidos en la presente publicación, la crisis del agua no es en México una amenaza futura sino un pro­ceso que ya se hace sentir y que podría alcanzar niveles crí­ticos en el primer cuarto de es­te siglo. Si el manejo del agua no experimenta un cambio ra­di­cal en nuestro país, en 25 años México verá frenado su desarrollo por falta del recurso en va­rias ciudades, insu­ficiencia agroproductiva, colapso de va­rios ecosistemas y agravamien­to de los problemas de salud pública.

Detener a tiempo esta crisis implica una carrera contra re­loj, con costos elevados pero muy inferiores en todo caso a aquellos en los que se incurriría por inacción. Algunas es­tima­ciones fijan en 735 000 mi­llones de pesos el monto de las inversiones necesarias para ata­jar la crisis del agua en los próximos 25 años.
 
 
El alcance del desafío al que se enfrenta nuestro país po­dría apreciarse mejor si se considera que la economía me­xicana se quintuplicaría en las próximas tres décadas, si creciera a una tasa de poco más de 6% anual. En el mismo lapso, la población ascendería a cerca de 130 millones de ha­bi­tantes, nivel ya muy cer­cano al de su prevista estabi­lización. En función de esta realidad de­mográfica, el país tendrá que acomodar unos 30 millones de personas adi­cio­nales a la mag­nitud de su población actual, en un territo­rio que es árido o se­miárido en dos tercios de su extensión.

La crisis del agua se interpone en la transición de nuestro país hacia el desarrollo sus­tentable. Solucionarla requiere mucho más que un esfuerzo tec­nológico o de inversión. Por otra parte, la dimensión del pro­blema rebasa con mucho la ca­pacidad gubernamental. Se requiere de una progresiva implantación de una cultura de uti­lización racional del agua que permee a la población en su conjunto y sustituya a la actual cultura de desper­dicio, la no valoración y el no pago. En es­te marco se ne­cesitará adop­tar nuevos enfoques y paradig­mas, nuevas política públicas, y una nueva institucionalidad.

Nuestro país no ha asimila­do todavía a cabalidad algunos cambios de enfoque que en re­lación con el tema del agua ha temido lugar en el ám­bito inter­nacional.

En efecto, en el último cuar­to de siglo la percepción de los problemas relacionados con el agua ha experimentado un cambio profundo, aunque to­da­vía incipiente. La escasez de agua de calidad aceptable em­pieza a subsumirse en una pro­blemática mucho más amplia, centrada en las necesida­des de gestión integral de un recur­so esencial para los sistemas de soporte de la vida en el planeta.

El Programa Agua, Medio Ambiente y Sociedad (pamas), que ha contado con el eficaz apo­yo de la Fundación Gonza­lo Río Arronte y de las insti­tu­cio­nes académicas involucradas, representa un esfuerzo co­lecti­vo que ha logrado du­ran­te tres años conjuntar las ideas, visiones y experiencias de numerosos expertos y to­ma­dores de decisiones sobre los temas críticos relacionados con el agua y su gestión.

En esta publicación, Julia Ca­rabias y Rosalva Landa, con la colaboración de Polioptro Mar­tínez y Jaime Collado, pre­sen­tan los principales resul­ta­dos de este esfuerzo, tan valio­so como oportuno. Tras rea­li­zar un diagnóstico de la si­tuación na­cional en la primera sección, los autores sintetizan las dis­cusiones en el seno del ­pamas y analizan en la segunda sección los principales temas críticos relacionados con la conservación de los ecosistemas naturales, sus servicios am­bien­tales y su relación con el ci­clo hidrológico; la conservación del agua subterránea y su uso en la agricultura; los pro­blemas de la calidad del agua y de los servicios de agua potable, al­can­tarillado y sanea­mien­to; los efectos de las presas, la vul­ne­rabilidad y los ries­gos hidro­me­teorológicos. El conjunto de orientaciones que se derivan de este análisis se sin­te­tiza en la tercera sesión, en la que se su­gieren los cambios y ajustes que requieren las instituciones, programas, mecanis­mos de par­tici­pa­ción, instrumentos de re­­gu­lación y económicos, así co­mo la gene­ración y sistematización de la informa­ción, el conocimiento y su difusión.

En definitiva, el desafío con­siste en pasar de una política hidráulica a una política hídrica, que haga énfasis en la con­ser­vación del ciclo hidrológico y en el manejo y la gestión integral del agua para lograr la me­joría de las condiciones de vida de la población presente y futura.
(Fragmento de la presentación).
_______________________________________________________________

 

como citar este artículo

Tudela, Fernando. (2007). Agua, medio ambiente y sociedad. Ciencias 85, enero-marzo, 78-79. [En línea]
 
  1 12  
del ambiente  
Arrecifes coralinos, selvas tropicales y huracanes
 
 
L. Álvarez Filip y M. Bonilla M.
conoce más del autor
   
       
HTML ↓ PDF Regresar al índiceartículo siguiente
       
       
Situados entre el trópico de Cán­cer y el de Capricornio, las selvas tropicales y los arre­ci­fes de coral son dos de los eco­sistemas más dinámicos y com­plejos en la naturaleza. Am­bos presentan una alta diversidad biológica que favo­re­ce una intrincada trama de ­relaciones entre las especies que los com­ponen y, a pesar de que están localizados en me­dios diferentes, tienen nume­rosos vínculos. Por ejemplo, los arrecifes de coral funcionan como una barrera que ate­núa la energía del oleaje, lo cual permite el de­sarrollo de ve­getación en las zo­nas costeras. Mientras que la última con­tiene el flujo de agua dulce, rica en nutrimentos, y limita su regreso hacia el mar, con­tri­buye con ello que los arrecifes permanezcan en un medio ­oligotrófico —con po­cos nutri­men­tos—, necesario para el desarrollo de corales y otros or­ganismos.

Actualmente, gran parte de los ecosistemas tropicales se encuentran amenazados o de­te­riorados, tanto resultado de las actividades humanas, como por la acción de fenómenos na­turales. Unas de las per­tur­ba­ciones naturales que reciben más atención pública por el caos o el impacto socioeconó­mico que generan, son los ciclones, también conocidos en nuestro país como huracanes o tor­men­tas tropicales.

Por la velocidad de los vien­tos, las inundaciones y de­más efectos colaterales —por ejemplo, la pérdida de vegetación—, los ciclones pueden cam­biar la estructura y función de las comunidades ecológicas en tan sólo unas horas. Sin em­bar­go, no todo es dañino; como no im­pactan el ecosistema uni­for­me­mente, algunas zo­nas —o par­ches— se ven más afectadas que otras, lo que pro­mue­­ve la re­gene­ra­ción de varias es­­pe­cies. Así, los huracanes abren nuevos nichos o espacios eco­ló­gicos en el ecosis­tema. En las selvas, la aper­tura de un cla­ro permite la entrada de luz al estrato bajo de la vegetación —el sotobosque. Esto propicia abrup­tos cambios microclimáticos que se refle­jarán en marcadas modificaciones en la com­po­si­ción de especies, cuyo dinamismo me­diante la exclusión o reducción de especies dominantes, promueve el aumen­to en la diversidad.

Efectos en selvas y arrecifes

En términos ecológicos, los ci­clones afectan de distintas for­mas a las especies e individuos que componen el sistema, sea por su edad, su abundancia o su fragilidad estructural. Por es­to, el efecto de los huracanes suele evaluarse examinan­do el daño que sufren las es­pe­­cies que proporcionan la com­ple­ji­dad al ecosistema —por ejemplo, plantas y corales— y no las de alta movilidad o alto nivel tró­fico, como mamí­feros o aves en las selvas y pe­ces en los arrecifes.
En las selvas, la lluvia y, so­bre todo, los vientos son los ma­yores causantes de deterio­ros. Las plantas, en particular los árboles, sufren daños en dis­tintas escalas: desde la pér­dida de follaje y ramas —defoliación— o la ruptura de troncos, hasta el desenraizado total del individuo.

Mientras que en los eco­sis­temas marinos, la fuerza de la marea, el oleaje y las corrien­tes son las principales amenazas que traen consigo los huracanes. En los arrecifes, la magnitud del daño generalmente se evalúa en los organismos sési­les, formados por la relación simbiótica entre co­rales —animales— y zooxanthelas —algas—, los cuales son res­ponsa­bles de formar las es­tructuras coralinas. Aquí, el deterioro se evalúa analizando la pérdida de cobertura de co­ral, aunque también se incluyen los cambios en la composición de otros organismos co­­mo esponjas, gorgonaceos —corales blandos— e incluso la cantidad de sustrato libre en forma de roca o arena.

La península de Yucatán

En la península de Yucatán, lo­calizada en la franja conocida como cinturón de huracanes del Caribe, no es raro que estos eventos impacten su te­rri­to­rio. Sin embargo, en 2005 su­frió el embate de dos de los hu­raca­nes más fuertes en los últimos años: Emily y Wilma, ambos ca­tegoría 5, la má­xima en la escala Saffir-Simpson —la cual mide el daño potencial que pue­de causar un huracán, basándo­se en la intensidad de vientos máximos y su presión atmosférica. Emily impactó la zona noroeste el 17 de julio con vien­tos sosteni­dos de 215 kilómetros por hora y rachas de hasta 260. Wilma, uno de los huracanes más destructivos de los que se tenga memoria, afectó la región del 21 al 24 de octubre. En su punto de mayor fuer­za, fue el más intenso en el océa­no Atlántico, con la presión atmosférica más baja jamás registra­da en el hemisferio oes­te. Alcanzó la costa de Quinta­na Roo con vientos sostenidos de 220 kilómetros por hora y rachas de más de 300. El ojo, hasta de 63 kilómetros de diámetro, cubrió en su paso toda la isla de Cozumel.

Al final, la zona afectada por la trayectoria de ambos me­teo­ros no se veía tan pertur­bada desde el paso del huracán Gilberto en 1988. Tal es el caso de lo acontecido en el Área de Protección de Flora y Fauna “Otoch Ma’ax Yetel Kooh” —sel­va mediana subperennifolia— y en el Parque Nacional Arrecifes Cozumel, am­bos localizados en el noreste de la península.
¿Daños comparables?

En ambos sistemas, después del paso de Emily, más de 50% de los individuos muestreados no sufrieron daño, lo que podría indicar cierta resis­tencia ante este tipo de eventos. Pero después de Wilma, sólo un pequeño porcentaje de individuos permaneció sin daño apa­rente. Una explicación sería que se encontraban resentidos por el paso del anterior huracán, además de que su intensi­dad y duración fue mayor. Sin embargo, en ambos casos el daño aparente fue mucho mayor al registrado con un análisis de daños.
 
En las selvas, los estragos no fueron severos, hubo una gran cantidad de árboles defo­liados y un número menor de in­dividuos completamente des­enraizados. Mientras que en el mar, las especies más suscep­tibles pero con altas tasas de crecimiento, fueron las más da­ñadas. Por ejemplo, los géneros de corales de dedo (Po­rites spp.) y lechuga (Agaricia spp.), así como las esponjas masivas.

Los factores permiten creer que la recuperación de estos sis­temas será relativamente rá­pida. Sin embargo, se­ría intere­sante evaluar si los gastos ener­géticos de los indi­viduos se están destinado úni­camente a la recuperación, y no a otros ­fines como el crecimiento, la re­producción o los patrones fe­no­lógicos en las plantas —producción de flores y frutos—, lo cual tendría un impacto en las siguientes temporadas.

En ambos casos, el tamaño de los individuos —árboles— o de las agregaciones que estos forman —colonias de coral—, fue una variable importante. Por ejemplo, los individuos más pe­queños presentaron mayores tendencias de verse afectados.

Finalmente, en los arrecifes de coral, para algunas especies raras, las que presentan baja abundancia relativa, el daño observado fue mínimo. Esto probablemente les con­fie­ra la oportunidad de ocu­par los espacios que dejaron libres los individuos que fueron remo­vidos por los hura­canes.

Para terminar

No es casualidad que en ambos sistemas las especies más comunes fueran las más afectadas, ya que generalmente son las que tienen estrategias de rápido crecimiento pobla­cio­nal o mejores estrategias competitivas; pero como consecuencia es posible que no inviertan energía en la formación de estructuras que les pro­veen mayor rigidez estructural. Por otro lado, vale la pena recalcar que este tipo de dis­tur­bios abre es­pacios que son un hábitat en po­tencia para la llegada de nue­vos organismos. De hecho, por la frecuen­cia e intensidad con la que se presentan los huracanes, se considera que ayudan al man­te­nimiento de la diversidad del me­dio, al excluir o limitar las es­pecies dominantes y facilitar el establecimiento de otras.
 
Por su parte, existen varios mecanismos que propician la ca­pacidad de recuperación de los ecosistemas. Entre ellos, los ciclos relativamente rápidos de vida y la capacidad de repro­ducción tanto sexual como ase­xual de muchas especies, lo que permite la rege­neración de los organismos afec­tados, así como la recolonización de las áreas afectadas. Tanto en la tierra como en el mar, la capacidad de resiliencia de estos ecosistemas parece ser alta, re­sultado de su gran diversidad biológica y la complejidad de sus tramas ecológicas.

El problema comienza cuan­do los huracanes se presentan con mayor frecuencia e in­ten­sidad, escenario que po­dríamos enfrentar debido al calenta­miento global y al consecuente incremento en la tem­peratura superficial del mar, ya que el tiempo de re­cuperación de los ecosistemas pudiera no ser su­fi­cien­te. La presencia de ciertos disturbios crónicos, como la sobrepesca en los arrecifes de coral, que implica la remoción de ciertos organismos del sistema y reper­cute en la abun­dancia de otros —por ejem­plo, la exclusión de peces herbívoros afecta el equi­librio entre co­rales y algas—, o la conversión de suelos en las selvas —como el caso de los pastizales— y la fragmenta­ción en general, pro­vocan severos cambios en la estructura de los ecosistemas y su ca­pacidad de resiliencia puede disminuir considerablemente.
Lorenzo Álvarez-Filip
Parque Nacional Arrecifes de Cozumel (conanp) y Universidad de East Anglia, Reino Unido.

Martha Bonilla Moheno
Universidad de California, Santa Cruz.
Referencias bibliográficas

Alvarez-Filip, L., y I. Gil. 2006. “Effects of Hurricanes Emi­ly and Wilma on Coral Reefs in Cozumel, Mexico”, en Coral Reefs, (en prensa).
Lugo, A. E., C. S. Roger y S. W. Nixon. 2000. “Hur­ri­canes, Coral Reefs and Rainforests: Resistance, Ruin and Recovery in the Caribbean”, en Ambio, núm. 29, pp. 106-114.
Tanner, E. V. J., V. Kapos y J. R. Healey. 1991. “Hur­ricane effects on forest ecosystems in the Caribbean”, en Biotropica, núm. 23, pp. 513-521.
Webster, P. J., G. J. Holland, J. A. Curry y H. R. Chang. 2005. “Changes in tropical cyclones number, duration, and intensity in warming environments”, en Science, núm. 309, pp. 1844-1846.
_______________________________________________________________

 

como citar este artículo

Álvarez Filip, Lorenzo y Bonilla Moheno, Martha. (2007). Arrecifes coralinos, selvas tropicales y huracanes. Ciencias 85, enero-marzo, 14-17. [En línea]
  ←Regresar al índiceartículo siguiente→
  1 12  
  de la red  
De todos y para todos
 
 
Susana Biro
conoce más del autor
   
       
HTML ↓ PDF Regresar al índiceartículo siguiente
       
       
 
Hacia finales del siglo xix apa­reció la revista británica sobre ciencia, Nature. Estaba pen­sada como un aparador para mos­trar al público el conocimiento acerca de la naturaleza producido por los especialistas. Entre sus principales promotores estaban Thomas ­Hux­ley y Joseph Hooker que lle­vaban años trabajando para mar­car fronteras claras para la ciencia profesional. Doce años después de la primera publi­cación de Nature, como una reac­ción, apareció otra revista llama­da Knowledge. Su editor, Richard Proctor, era un reconocido astrónomo aficionado y divulgador de la ciencia. En contraste con Nature, Knowl­edge invitaba a todos a partici­par en la re­vista enviando la información que tuvieran sobre la naturaleza. El resultado fue una publicación en la que predominaban cartas de los lecto­res y artículos escritos por divulgadores sobre los temas de mayor inte­rés para el público. Estas dos revistas fueron uno de los muchos escenarios en los que se produjo la lucha para definir quiénes estaban autorizados para hablar sobre las ciencias.

Al inicio del siglo XXI, nuevamente se ha hecho una invitación a todos, en este caso pa­ra participar escribiendo alguna parte de la enciclopedia gratuita en línea, Wikipedia (www.wikipedia.org). Aunque no es la primera de su tipo, Wi­kipedia es la más exitosa hasta el momento. Iniciada en 2001, en la actualidad tiene ca­si un millón y medio de en­tra­das en inglés, además de versiones en muchos otros idio­mas como alemán, francés y español. Par­tiendo de un par de reglas de urbanidad —usar tono neutro y aportar información objetiva— y utilizando los programas wiki que facilitan la colaboración en línea —y que se explican muy bien en la mis­ma Wikipedia—, este sitio invita a la construcción de una en­ciclopedia de todos y para todos. Al ser tan abierto, el proyecto tiene algunos proble­mas. Como cualquie­ra puede agregar una entrada nueva o editar alguna que ya existe, en ocasiones hay vanda­lismo o plagio. Es por esto que se ha vuelto importante el grupo de voluntarios dedicados a su­pervisar los avances.

Puesto que Wikipedia se es­cribe en pedazos, poco a po­co y entre muchos, ha originado muchas discusiones acer­ca de su calidad y veracidad. Sin embargo, los directores del proyecto dicen que se pue­de observar cómo los artículos su­fren una especie de evolución: conforme pasa el tiempo, van creciendo y entre más personas los leen y corrigen, van con­vergiendo hacia un texto de ca­lidad. Este interesante proceso se puede ver en la sección de discusión de cualquier artículo.

En 2005, la revista Nature diseñó una prueba para com­pa­rar la calidad de los artículos sobre temas científicos que apa­recen en Wikipedia con los de la versión en línea de la Enciclopaedia Britannica. Para ello seleccionaron cuarenta y dos entradas de ambas enci­clopedias y se las dieron a expertos en el tema, sin especificar su ori­gen, para que las leyeran. El re­sultado, en opinión de Na­ture, es que la calidad de las dos es semejante. De inmediato Britannica publi­có una replica ­para demostrar lo contrario. Una de las cosas más interesantes de sus argumentos es que dejan ver sus criterios editoriales, además de quedar claro que no hay una única manera de seleccionar qué información incluir y cómo explicarla. Las ligas para ambos lados de esta discusión se encuentran en el artículo de Wikipedia sobre Wikipedia.

Más de cien años después del enfrentamiento entre Nature y Knowledge, somos testigos de otra batalla sobre la autoridad para hablar de cierto tema. A estas alturas, es di­fí­cil saber cuál será el resultado pe­ro, si todo el mundo —li­te­ral­mente— está leyendo Wikipedia, y si los científicos quieren que la sociedad conoz­ca lo que hacen, quizás debieran participar en este nuevo espacio.
Susana Biro
Dirección General de Divulgación de la Ciencia,
Universidad Nacional Autónoma de México.
Nota
 
Las referencias para el estudio de Nature y la respues­ta de la Enciclopaedia Britannica son: http://www.nature.com/news/2005/051212/full/438900a.html y http://corporate.britannica.com/britannica_nature_response.pdf
_______________________________________________________________

 

como citar este artículo

Biro, Susana. (2007). De todos y para todos. Ciencias 85, enero-marzo, 50-51. [En línea]
  ←Regresar al índiceartículo siguiente→
1 12
     
El cuarto elemento y los seres vivos:
ecología del fuego
El fuego guarda una estrecha relación con los fenómenos naturales, los elementos abióticos y bióticos del ecosistema y el hombre. Se enfatizan los estudios sobre incendios en México, así como en la Reserva Ecológica del Pedregal de San Ángel de Ciudad Universitaria.
Sonia Juárez Orozco y Zenón Cano Santana
conoce más del autor
 
     
HTML ↓ PDF Regresar al índiceartículo siguiente
     
     
En numerosas culturas el fuego tiene un importante papel. Cuenta el mito griego que Prometeo entregó el fuego del conocimiento a los hombres provocando la ira de Zeus quien lo condenó a ser encadenado y sistemáticamente torturado por un águila. Los zoroastras, descendientes de una secta religiosa de la antigua Persia, lo adoraban como símbolo de pureza. Para su profeta, Zaratustra, la llama encarnaba al espíritu puro y sabio, lo cual coincide con la representación del Espíritu Santo de los católicos, aunque en la Biblia el fuego también simboliza el castigo divino, en la mítica destrucción de Sodoma y Gomorra Dios hizo llover azufre ardiendo y fuego. En México, los mexicas adoraban a Huehuetéotl, el dios del fuego, quien era el encargado de cuidar el equilibrio del cosmos y se le representaba como un anciano soportando el peso de un bracero que simboliza un volcán.
 
Los incendios son tan antiguos como la vegetación terrestre. Frecuentemente, el hombre primitivo se enfrentó al fuego y su domesticación constituyó un gran logro que se registra en todas las culturas conocidas. El ser humano es el único organismo que maneja el fuego, lo cual lo dis­tingue de los demás animales. Es el primer tipo de energía que pudo controlar, para usarlo como fuente de calor, para cocinar sus alimentos e iluminar su entorno. La domesticación del fuego fue la primera gran transición ecológica que produjeron los humanos, pero su utilización es un arma de dos filos, pues si se hace con descuido pue­de ocasionar graves daños.

Desde el punto de vista ecológico, el fuego constituye un disturbio; esto es, un evento súbito que daña a los organismos de una comunidad, dejando espacios abiertos para que otros seres vivos lo colonicen. La perturbación que provoca el fuego en las comunidades consiste en la re­ducción de la biomasa de algunas plantas y la muerte de otras, así como de animales y hongos.

Los humanos han afectado el régimen de incendios en el planeta. Directamente, al usar el fuego para preparar el terreno agrícola, favoreciéndolos por descuido; o indirectamente, introduciendo especies exóticas en los ecosistemas. Por ejemplo, la introducción de ganado en los bosques de Pinus ponderosa disminuye la frecuencia natural de incendios, mientras que la de pinos en los matorrales xerófilos de Sudáfrica la incrementa.

Muchas características de algunos ecosistemas y orga­nismos se explican por la acción del fuego. Se sugiere que la baja densidad de árboles que caracteriza los pastiza­les y sabanas se debe, parcialmente, a la presencia de recurren­tes incendios. Los chaparrales típicos de climas medi­te­rrá­neos, que también experimentan frecuentes incendios, albergan especies vegetales que cuentan con tubérculos y cortezas gruesas que les permiten sobrevivir al fuego. Sin embargo, existe una gran variedad de ecosistemas que no responden de la misma forma ante este tipo de disturbios. En los ambientes desérticos, por ejemplo, sólo sobrevive 35% de los cactus columnares sometidos al fuego.
 
Para que se produzca un incendio deben combinarse calor, combustible y oxígeno. La combustión libera bióxido de carbono, vapor de agua y energía, por lo que esta reac­ción es inversa a la de la fotosíntesis. En los ecosistemas terrestres es muy fácil que se inicie un incendio por la existencia de una gran variedad de materiales combustibles, como la materia viva y muerta contenida en ramas, hojarasca, troncos, pastos, dosel de los árboles y heces. Asimismo, se registran muchas fuentes de calor —sol, rayos, lava, chispas y actividades humanas— y nues­tra atmósfera tiene una alta concentración de oxígeno, calculada en 20 por ciento.

Los incendios pueden clasificarse en superficiales, sub­terráneos o de copa. Los primeros son los que se propagan horizontalmente sobre un terreno, consumiendo el estrato bajo de la vegetación. Los subterráneos, se propagan bajo el suelo por la acumulación y compactación del combustible, que suele consistir en mantillo y raíces. Los de copa o aéreos alcanzan el dosel de los bosques y por lo general son muy destructivos y difíciles de controlar.

De acuerdo con su origen, los incendios también se cla­sifican en naturales y artificiales. En los naturales no interviene el ser humano, son provocados por los rayos, las erupciones volcánicas, la producción de chispas durante un choque de rocas y la combustión espontánea de materia vegetal o compuestos volátiles e inflamables despedidos por ciertas plantas en las horas de mayor calor. Por su parte, los artificiales están asociados con las actividades humanas, entre las que se encuentran las chispas producidas por los ferrocarriles, las hogueras, los fumadores, la quema no controlada de desechos o la realizada con fines agropecuarios y los incendios intencionales. Relacionados indirectamente con las actividades humanas, están los producidos por la combustión espontánea de materiales de desecho inflamables, domésticos e indus­triales, los ocasionados por la introducción de especies exóticas pirófilas —las que necesitan o se benefician de los efectos del fuego—, como los pastos, los eucaliptos y los pinos; y los que se originan por la concentración de energía solar producida por los objetos de vidrio depositados en zonas naturales.

Efectos del fuego

Los incendios producen cambios en los rasgos físicos y químicos del ambiente. Por ejemplo, el contenido de muchos nutrimentos aumenta por la liberación de cenizas durante la combustión; sin embargo, con temperaturas tan altas, el nitrógeno y la materia orgánica se volati­lizan. Asimismo, un incendio puede cambiar la acidez del suelo en ambos sentidos, haciéndolo más ácido o más al­calino. Por otro lado, al quemarse la cubierta vegetal hay mayor incidencia de radiación solar, lo que provoca un drástico incremento de temperatura al nivel del suelo, aumenta la velocidad viento y disminuye la humedad.

Las plantas sufren dos tipos de daños por efecto del fue­go: los directos, asociados con la desnaturalización de pro­teínas y la alteración en la movilidad de los lípidos, y los indirectos, que se derivan de los efectos del calor sobre el metabolismo. La posibilidad de que una planta muera de­pende del grado del daño, ya que su crecimiento modular les permite regenerarse cuando algunos de sus mó­dulos no están quemados.

En este sentido, las plantas más grandes son las que tienen mayor posibilidad de sobrevivir. También, la presen­cia de bulbos, macollos —tallos, flores o es­pigas que nacen justos—, lignotubércu­los o cortezas grue­sas, así como follaje resistente al fuego y semillas de testa dura, les per­mite sobrevivir. Al­gu­nos pas­tos son resistentes al fuego porque poseen rizomas que se encuentran protegidos bajo el suelo. Un ejemplo de adap­tación extrema es el de las coníferas de las especies Pinus banksiana, P. contorta, P. clausa, P. leiophylla, Cupressus sargentii y Picea americana que presentan conos serotinos —los cuales permanecen cerrados du­rante largo tiempo— y que requieren del calor producido por el fuego para liberar sus semillas. Asi­mismo, exis­ten otras plantas cuya presencia favorecen los incendios en el ecosistema, como el pasto Aris­tida stric­ta, la maleza del fuego Epilobium angustifolium, algunos pinos, los eucaliptos, el álamo Populus tremuloides y las secuoyas.

Después de un incendio, las plantas sobrevivientes re­generan sus órganos y recolonizan el territorio por medio de semillas. El clima y la herbivoría son factores claves que determinan el establecimiento de las plantas. La lluvia favorece el crecimiento vegetal, en tanto que los her­bí­voros pueden desaparecer por el fuego, o bien, el surgimiento de nuevos rebrotes los atrae, lo cual aumenta o re­duce las posibilidades de supervivencia de las plantas, respectivamente. La primera opción hace que la quema de áreas para la ganadería sea tan popular, se eliminan insectos nocivos y hay hierba fresca y nutritiva después de la quema, además de que la zona se libera de garrapatas, moscas parásitas y competidores.

También se reportan respuestas positivas de las plantas después de un incendio, asociadas al incremento de la productividad primaria —esto es, la tasa de fijación de ma­teria o energía por parte de las plantas—, de la floración, la dispersión de semillas, la germinación y del establecimiento de las plántulas. La productividad primaria aumen­ta por la alta disponibilidad de nutrimentos y el rápido calentamiento del suelo debido al color negro que le confie­re las cenizas, las cuales estimulan el crecimiento vegetal.

Los animales, a diferencia de las plantas, no resisten las elevadas temperaturas que se experimentan durante un in­cendio, pues además del daño que sufren sus órganos, la inhalación de humo dificulta su respiración y pue­den mo­rir por asfixia. Sus principales mecanismos para no sucum­bir en un incendio son escapar o esconderse en madrigue­ras, islas de vegetación no afectadas por el fuego o al interior de cuerpos de agua. Por lo general, los animales grandes hu­yen, mientras que los pequeños bus­can refugio.

Después de un incendio, los animales encuentran su am­biente sumamente alterado. La vegetación que proveía de espacio, alimento y protección se reduce o desapa­rece. La mayor parte de los cambios no los favorecen; pero, a pe­sar de esto, se mejora la calidad y cantidad de alimento disponible y disminuye la incidencia de parásitos. Se ha registrado que las comunidades de saltamontes, grillos, cucarachas y arañas se recuperan rápidamente.

La situación actual en México

En México, que ocupa el octavo lugar entre los países que pierden sus bosques por causa de los incendios, 90% de ellos son superficiales y muchos ocurren en épocas de ma­yor estiaje. En la década de los noventas se registraron 7 839 incendios por año, los cuales consumieron 267 mil hectáreas anualmente. Las causas cambian según la región: en el centro del país es la quema de pastos y las fogatas, en el sureste, la práctica de la roza, tumba y quema para pre­parar zonas de vegetación natural para el cultivo.

Los incendios forestales provocan diversos daños en los ecosistemas mexicanos, como la destrucción de madera, el aumento de zonas erosionadas que limitan la infiltración de agua al subsuelo, la destrucción del hábitat de la fauna silvestre, la generación de contaminantes atmosféricos que contribuyen al calentamiento global y la reducción de la belleza del paisaje. Asimismo, conllevan negativos efectos económicos y sociales. Si bien es cierto que los incendios naturales son parte importante de la di­námica de algunos ecosistemas, no ocurre lo mismo con los frecuentes incendios de origen antrópico.

Un año catastrófico fue 1998, cuando 14 445 incendios fueron registrados, los cuales afectaron 850 mil hectáreas. Su envergadura fue tal, que alcanzaron veinte enti­da­des fe­derativas de México y algunos países de Centroamérica; en­tre el 14 y el 20 de mayo de ese año se detectó una bruma espesa producto de las partículas liberadas por esos incen­dios, que se extendió hasta Texas y Florida, donde se decre­taron medidas sanitarias y de contingencia ambiental.

Para combatir este tipo de incendios es necesaria la capacitación en técnicas de control de incendios para pro­teger los bienes y las vidas de quienes los combaten. Durante 1998, por ejemplo, se registró la muerte de setenta personas durante acciones de control de incendios forestales en el país. Por otra parte, es importante conocer la relación entre la acumulación de combustibles y la proba­bilidad de que ocurra un incendio. Los de baja intensidad deben ser permitidos y aun prescritos artificialmente, por­que impiden que se acumulen grandes cantidades de com­bustible, lo que ha causado los mayores desastres pro­du­cidos por incendios. Ese fue el caso del incendio ocu­rri­do en el Parque Nacional Yellowstone en julio de 1988, en el cual se quemaron 450 000 hectáreas de bosque, por­que des­de 1872 se implantó un estricto control que permi­tió la acumulación de gran cantidad de materia combusti­ble. Actualmente, se sabe que los incendios que asolan la península de Yucatán están relacionados con el paso previo de un huracán sobre las selvas, el cual ocasiona la caí­da de hojas y ramas leñosas.

La prescripción de quemas ligeras y periódicas tienen numerosas ventajas, como la disminución de riesgos para el ser humano, las plantas y los animales, la reducción de la pérdida de suelos, el control de plagas y enfermedades, la eliminación de combustibles, el control de la vegetación dominante y competitiva, la protección del banco de semillas, el mantenimiento de la diversidad, la estimulación de plantas de interés económico —como los pinos y los zacates— y el mejoramiento de la calidad del forraje. La prescripción de quemas ligeras puede ir acompa­ñada con el retiro de los restos leñosos y de la vegetación exótica, como los eucaliptos y los pastos que incrementan el riesgo de incendios. También es necesario estudiar con detenimiento la posibilidad de usar brechas cortafuego en ecosistemas donde ocurran incendios frecuentes y donde no existan posibilidades de invasiones por parte de comunidades humanas. No obstante, todas las acciones de control y manejo del fuego deben estudiarse profundamente y aplicarse con suma cautela.

El Pedregal de San Ángel

En la ciudad de México, la Reserva Ecológica del Pedregal de San Ángel de Ciudad Universitaria, que cuenta con una vegetación tipo matorral xerófilo única en el país por su estructura y composición biótica, se asienta sobre un sus­trato rocoso basáltico originado hace 2 000 años por los derrames del volcán Xitle y de conos adyacentes. La activi­dad volcánica ocasionó una alta heterogeneidad geomorfológica, aunque en algunas zonas se pueden apreciar sitios planos. La extensión original del derrame fue de 80 kilómetros cuadrados, de los cuales 2.37 fueron decretados como Reserva Ecológica en 1983. En este sitio domina un estrato herbáceo y uno arbustivo, aunque también se encuentran elementos arbóreos de menos de siete me­tros de altura. La flora de este particular ecosistema cuen­ta con más de 300 especies de plantas vasculares, entre las que se encuentra la especie endémica Mammillaria haageana var. san-angelensis, conocida como biznaga de chili­to, mientras que la fauna la componen artrópodos, molus­cos, peces, anfibios, reptiles, aves y mamíferos. Por ejemplo, salamandras, víboras de cascabel, colibríes, zorrillos, tlacua­ches, liebres, cacomixtles y zorras grises sobreviven dentro de la gran megalópolis.

En la Reserva, los incendios ocurren principalmente en la época de secas —entre febrero y abril— y, a pesar de ser un área natural protegida, la mayoría son de origen ar­tificial. Entre 1992 y 1997, se reportaron 455 incendios en la zona de la reserva ecológica y las aledañas de vegeta­ción natural. Es muy probable que la frecuencia de incen­dios en este ecosistema se haya incrementado como consecuencia de la fragmentación y la reducción del área, lo que origina un mayor impacto de las actividades humanas que favorecen la producción de incendios, como el pi­soteo, la introducción de especies exóticas pirófilas —como los eucaliptos y el pasto kikuyo—, las fogatas, las colillas de cigarros y la acumulación de basura doméstica inflamable —papel, cartón, plásticos y madera.

El Pedregal de San Ángel es un ecosistema donde se acu­mula una gran cantidad de combustible en forma de ma­teria vegetal muerta, la cual se deposita en el suelo o per­ma­nece en pie. Pero a pesar del gran número de incendios que ocurren dentro de la zona, existen pocos estudios acer­ca del origen y efecto del fuego sobre la comunidad biótica. De hecho, hasta la fecha sólo existen cinco investigaciones que analizan los incendios en este ecosistema.

Los incendios se producen en la temporada más seca del año, cuando muchas especies de plantas se encuentran en estado latente como bulbos, tubérculos, meristemos —que son tejidos cuyas células pueden dividirse y ori­gi­nar los otros tejidos de la planta— enterrados y semillas, y mucha materia orgánica seca se encuentra almacenada en el mantillo, que en esas fechas alberga en promedio un kilogramo y medio de materia muerta por metro cua­drado.

En 2001, Martínez Mateos registró que después de un incendio ocurrido en febrero de 1998, la cobertura vegetal disminuyó hasta en 12% y que la temperatura máxima del aire al nivel del suelo alcanzó 26.1°C, mientras que en las zonas no quemadas era de sólo 16.4°C. Después del incendio, únicamente detectó 15 especies de plantas con tejidos aéreos. Entre las especies que crecen en la re­serva medio año después del incendio, 73% son perennes y rebrotan a partir de bulbos, tubérculos, meristemos sub­terráneos y tallos semienterrados; en tanto que el restante 27% son hierbas anuales que se reclutan a partir de se­millas. Por su parte, en 1998, Cano Santana y León Rico observaron que la cobertura vegetal se incrementa rápidamente entre abril —que es cuando ocurrió el incendio estudiado— y octubre, y que el fuego reduce la cobertura de los árboles y los arbustos provocando que la comunidad vegetal retroceda en el proceso sucesional. Tres años más tarde, Martínez Orea encontró que el número de semillas viables y la riqueza específica en semillas se reducen des­pués de un incendio, pues en los sitios quemados registró 33 o 34 especies y 22 o 23 plántulas en 300 gramos de suelo, mientras que en los no quemados, entre 36 y 43 es­pecies y de 55 a 108 plántulas en la misma cantidad de suelo.

Recientemente Juárez-Orozco encontró que después de siete meses de ocurrido un incendio, en el sitio quemado se registra una biomasa aérea en el estrato herbáceo tres veces más alta que en un sitio adyacente no quemado. En el primero, la diversidad vegetal, siete meses después del incendio, es baja por la gran dominancia, en términos de biomasa, del zacatón Muhlenbergia robusta y del bejuco Cissus sycioides. En ese momento, en el sitio que se quemó se encontró un tercio de la densidad de artrópo­dos epífitos registrada en el sitio no quemado.

Finalmente, en 2006 Vivar Evans y sus colaboradores encontraron que las semillas de Dahlia coccinea pueden tolerar o incluso ser favorecidas por incendios de baja in­tensidad. Ellos sugieren que la alta heterogeneidad del sus­trato del Pedregal de San Ángel permite la presencia de mi­crohábitats donde las semillas pueden mantener su via­bilidad.

Las evidencias observadas sugieren que el ecosistema que alberga esta reserva ecológica es resiliente al fuego, es decir, muestra una alta velocidad de recuperación des­pués del siniestro. Sin embargo, es necesario considerar que el fuego reduce la diversidad de un hábitat, ya que al­gunos elementos de la flora, como Senecio praecox y los helechos, así como los artrópodos, son afectados negativa­mente. De igual forma, hay que reconocer que se ha es­tu­dia­do poco la forma como los incendios dañan a los verte­bra­dos, durante un incendio se han escuchado los chillidos de los mamíferos que se esconden en las grietas subterráneas.

Nuestras observaciones de campo nos permiten sugerir que en los sitios de topografía plana, donde domina el za­catón Muhlenbergia robusta, los incendios pueden ser más frecuentes por la naturaleza pirófila de esta especie y la baja densidad de árboles, por lo que las temperaturas son más altas y los niveles de humedad muy bajos. Lo con­trario ocurre en los sitios de topografía accidentada, donde se establece un estrato arbóreo bien definido.

Para acrecentar nuestros conocimientos acerca de los incendios en este ecosistema, sería de gran utilidad contar con el registro de las zonas específicas que se queman año con año, de la duración e intensidad de los incendios, en términos del calor producido o de las temperaturas registradas, así como del factor de inicio y las temperaturas de ignición de los distintos materiales.
Conclusiones

El papel del fuego es complicado, pues tiene efectos po­si­ti­vos y negativos, dependiendo de las características del in­cendio y de las adaptaciones de las especies. Existen eco­sistemas en los que los incendios son raros y otros en los que son parte integral de su funcionamiento. En Mé­xi­co, hay pocos estudios acerca del papel del fuego en sus eco­sis­temas, de allí la importancia de hacer inves­ti­ga­cio­nes en eco­logía del fuego para mejorar la protección de nues­tros recursos naturales y enfrentar el problema de su con­trol. Además, debemos conocer cuáles ecosistemas tienen re­la­ción con el fuego y en cuáles aplicar quemas controladas.

El fuego puede tener consecuencias ambientales, eco­nómicas y sociales indeseables si se sale de control. El adecuado manejo de los incendios en el país resulta fundamental para proteger los ecosistemas terrestres y los servicios ambientales que nos prestan, así como para sal­va­guardar los bienes de la población y evitar pérdidas hu­manas.

El control de incendios en los ecosistemas naturales debe iniciar con medidas preventivas. En el caso de la Re­serva Ecológica de Ciudad Universitaria, es recomendable el control de los accesos de visitantes, establecer una estricta vigilancia sobre las personas que tiran escombros, desechos de jardinería y basura doméstica, implementar jornadas de limpieza y acciones de control de plantas exó­ticas —en este caso, eucaliptos y el pasto kikuyo—, impul­sar jornadas permanentes de educación para la comunidad universitaria y sus visitantes, y fortalecer las acciones de control de los incendios artificiales. Estas actividades pre­ventivas podrían aplicarse en otras zonas de vegetación natural susceptibles de quemarse.

Epílogo

Los filósofos presocráticos pensaban que toda la materia es­taba constituida por cuatro elementos: tierra, agua, aire y fuego. Heráclito afirmó que el principio de todas las co­sas era el fuego, el cual representaba el movimiento y el cam­bio que describe nuestra realidad. El fuego es destruc­ción, pero también renovación. Sin aire, tierra y agua no hay vida.

El fuego, el temible cuarto elemento, seguirá persistiendo en los ecosistemas terrestres y por ello es fun­damental conocer los beneficios y los daños que ocasionan, y qué tan rápido es capaz un ecosistema de recuperarse, todo ello para predecir mejor los cambios que sufrirían los otros tres elementos vitales.
Sonia Juárez Orozco y Zenón Cano Santana
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Agradecimientos

Agradecemos a Marco Romero su asistencia técnica. A la Dirección General de Servicios Generales de la unam la información sobre los incendios en Ciudad Uni­versitaria y a Leticia Valencia su revisión bibliográfica. A Vania Chagoya Lizama y a Víctor López Gómez les agra­decemos la revisión del texto.
Referencias bibliográficas
 
Böhme, G. y H. Böhme. 1996. Fuego, agua, tierra y aire: Una historia cultural de los elementos. Herder, Barcelona.
Cano Santana, Z. y R. León Rico. 1998. “Regene­ración de la vegetación después de un incendio en una comunidad sucesional temprana de la Ciudad de México”, en Libro de resúmenes. P. Magaña (ed.), vii Congreso Latinoamericano de Botánica y xiv Congreso Latinoamericano de Botánica, Sociedad Botánica de México, México, D.F., p. 125.
conafor, Comisión Nacional Forestal. 2005. www.conafor.gob.mx.
Juárez Orozco, S. M. 2005. Efectos del fuego y la her­bivoría sobre la biomasa aérea del estrato herbá­ceo de la Reserva del Pedregal de San Ángel. Tesis pro­­fesional, Facultad de Ciencias, unam.
Martínez Mateos, A. E. 2001. Regeneración natural después de un disturbio por fuego en dos microambientes contrastantes de la reserva ecológica El Pedregal de San Ángel. Tesis profesional, Facultad de Ciencias, unam.
Martínez Orea, Y. 2001. Efecto del fuego sobre el ban­co de semillas de la Reserva Ecológica del Pe­­dre­gal de San Ángel. Tesis profesional, Facultad de Cien­cias, unam.
Vivar-Evans, S., V. L. Barradas, M. E. Sánchez Coronado, A. Gamboa de Buen y A. Orozco Segovia. 2006. “Ecophysiology of seed germination of wild Dahlia coc­cinea (Asteraceae) in a spatially heterogeneous fire-prone habitat”, en Acta Oecologica, núm. 29, pp. 187-195.
Whelan, R. J. 1995. The ecology of fire. Cam­bridge University Press, Cambridge.
Sonia Juárez Orozco es bióloga por la Facultad de Ciencias, unam. Estudia ecología del fuego y los factores de riesgo de incendios en la República Mexicana. Cursa la Maestría en Geografía en el Instituto de Geografía, unam campus Morelia.
Zenón Cano Santana es biólogo y doctor en ecología por la unam. Actualmente es coordinador de la Unidad de Enseñanza de la Biología de la Facultad de Ciencias de la unam. Sus líneas de especialización son ecología de artrópodos terrestres, ecología de ecosistemas, ecología de la interacción planta-insecto y restauración ecológica de pedregales.
_______________________________________________________________
 

 

como citar este artículo

Juárez Orozco, Sonia y Cano Santana, Zenón. (2007). El cuarto elemento y los seres vivos: ecología del fuego. Ciencias 85, enero-marzo, 4-12. [En línea]

  ←Regresar al índiceartículo siguiente→
  1 12  
  imago  
El parque Virunga, hogar de los gorilas de montaña
 
 
Sabastiâo Salgado
conoce más del autor
   
       
HTML ↓ PDF Regresar al índiceartículo siguiente
       
       
 
El parque nacional Virunga, en la República Democrática de Congo, el parque nacional del Gorila Mgahinga y el Bosque Im­penetrable de Bwindi, en Ugan­da, forman, junto al parque nacional de los Volcanes, en Ruanda, un complejo co­mún­mente conocido como el par­que Virunga, hogar de los úni­cos gorilas de montaña del mundo, los Gorilla gorilla be­rin­gei. Fue el primer parque na­cional de África, creado en 1925 con el nombre de parque nacional Albert y con una superficie inicial de 809 000 hectáreas.
 
La región es célebre por sus numerosas montañas volcánicas. Los ocho volcanes del parque Virunga, con edades que oscilan entre 100 000 y 500 000 años y altitudes de hasta 4 500 metros, se erigen en barrera que cruza el brazo occidental del gran Valle del Rift. Dos de ellos permanecen todavía activos, ambos en la Re­pública Democrática del Congo. A principios de 2002, el Nyi­ragongo destruyó buena parte de la ciudad de Goma, a orillas del lago Kivi, y el Nya­mu­lagira entró en erupción en ma­yo de 2004.

El gorila de la montaña es una de las mayores atracciones del parque. De la variedad más singular de las tres exis­ten­tes, sólo quedan alrededor de 358 ejemplares en la zona de los volcanes. Similar cifra ha­bita en el Bosque Impenetra­ble de Bwindi, lo que suma una po­blación total de 700 individuos. El gorila es un simio de desco­mu­nal tamaño —los machos adul­tos pesan hasta 250 kilogramos—, pero de tempera­men­to pacífico. Las familias formadas por jóvenes machos, hembras y sus crías siguen la pauta del macho dominante, que se caracteriza por su espalda plateada, tonalidad que adquieren al alcanzar la edad adulta. Los jóvenes gorilas de espalda plateada a menudo abandonan el grupo y llevan una vida solitaria hasta que con­siguen atraer a hembras y formar su propia familia. Las hem­bras, por su parte, se tras­ladan a veces de un grupo a otro, aun­que evitan la endoga­mia. Los gorilas son vegetarianos, y su dieta consiste en tallos de bam­bú, apio salvaje, cardos, ortigas, galio, vernonia y raíces.

La fauna es todavía abun­dan­te en el parque, aunque ha ido reduciéndose sustancialmente durante la última década a causa de la presión de la cada vez mayor presencia humana en la zona ugandesa, su­perior incluso en Ruanda, con una densidad de más de 300 habitantes por kilómetro cuadrado. Además, una gran cantidad de refugiados ruandeses, de 1.5 a 2 millones, se ha ido des­plazando al área congo­leña del parque, antes Zaire, a raíz de los violentos enfrentamientos de 1994. Con todo, to­davía pueden apreciarse mu­chas especies de la región.
Sabastiâo Salgado
Fotógrafo brasileño.
Nota
 
El proyecto Génesis fue creado por Sabastiâo Salgado en 2004 y el fotógrafo estima culminarlo en 2011. Su ob­jetivo es no sólo presentar la megadiversidad de la Tierra, sino invitar a la reflexión. Nacido de la preo­cu­pa­ción de Sebastião Salgado por los diversos maltratos a los que está siendo sometida la naturaleza, éste mues­tra una serie de fragmentos del mundo que per­ma­nece aún inexplorado, intacto y virgen.
_______________________________________________________________

 

como citar este artículo

Salgado, Sebastiao. (2007). El parque Virunga, hogar de los gorilas de las montañas. Ciencias 85, enero-marzo, 62-63. [En línea]
  ←Regresar al índiceartículo siguiente→
1 12
     
Helechos invasores y sucesión secundaria post-fuego
Se analiza el problema de la invasión de Pteridium en la Península de Yucatán como resultado de una larga historia de disturbios, entre los que destacan el cambio de uso de suelo y la amplia utilización del fuego como herramienta agrícola. Se discuten algunos aspectos de la biología de este helecho, enfatizando su adaptación al fuego.
María del Rosario Ramírez Trejo, Blanca Pérez García y Alma D. Orozco Segovia
conoce más del autor
     
HTML ↓ PDF Regresar al índiceartículo siguiente
     
     
La introducción de especies invasoras, junto con la pérdida del hábitat, es una de las mayores amenazas para la biodiversidad. Se establecen fuera de su área de distribución normal y actúan como agentes de cambio, provo­can­do la pérdida irrecuperable de espe­cies y la degradación de los ecosistemas nativos. Normalmente, las invasiones bio­lógicas se producen después de la presencia de disturbios, los cuales son parte de la dinámica de los ecosistemas; sin embargo, las actividades hu­ma­nas modifican los regímenes de disturbio provocando importantes alteraciones en el sistema —por ejemplo, en la disponibilidad de recursos— y, frecuentemente, incrementando las oportunidades para la invasión por es­pecies exóticas. El cambio de uso del suelo ha exacerbado los efectos nega­ti­vos de las especies invasoras, al crear hábitats favorables para su establecimiento e invasión temporal o perma­nen­temente en los ecosistemas na­tivos.
 
Después de perturbaciones antro­po­génicas de intensidad moderada, los bosques tropicales pueden recupe­rarse, pero si los disturbios son severos, como la compactación y pérdida de suelo o los incendios forestales de gran intensidad, producen condiciones que dificultan la regeneración de la vegetación y detienen los procesos de sucesión. Esos sitios suelen estar do­­minados por especies invasoras, como pastos y helechos, que compiten con las nativas por la humedad del suelo, los nutrimentos y la luz; en ocasiones, pueden excluirlas. El resultado es la formación de extensos tapetes mono­específicos o comunidades empobrecidas desde el punto de vista florístico, las cuales ofrecen muy pocos recursos y atraen un limitado número de disper­sores de semillas, lo que aumenta los obstáculos para el reestablecimiento de la flora nativa.

La península de Yucatán es una zo­na que desde tiempos prehistóricos está sujeta a todo tipo de disturbios, tan­to naturales como humanos. La ac­tual vegetación del área es el resultado de esa larga historia. Habitada desde hace más de 10 000 años, sustentó el de­sarrollo de la civilización maya y es­tuvo densamente poblada en el Pe­rio­do Clásico —entre los años 300 y 900 de nuestra era. Durante siglos, la península yucateca fue el escenario de diversas actividades económicas que promovieron un cambio sustancial en el uso del suelo. Por ejemplo, el sis­tema de roza, tumba y quema practicado por los mayas para preparar los suelos destinados a la agricultura, sufrió fuertes modificaciones durante las últimas décadas, principalmente por la reducción de los periodos de descanso de la tierra, los cuales pasaron de entre quince y veinte años a tan sólo de tres a cinco. Esto ocasionó que la recuperación de la fertilidad no fuera completamente adecuada y que disminuyeran las escasas áreas de vegeta­ción en etapas de sucesión avanzada. Al requerirse más superficie incorpo­rada al sistema, se produjo un aumen­to en los índices de deforestación y en los incendios forestales. Desde 1890 has­ta finales de la segunda guerra mun­dial, la extracción del chicle repre­sen­tó una importante actividad económica para la Península. Con la estrepitosa caída de la demanda de este producto, la industria maderera se convirtió en la principal actividad forestal de la región. Mientras que el cultivo de caña de azúcar, primero, y el de henequén después, propiciaron una gran transformación en el uso del suelo. A media­dos de los años setentas, ante el fra­caso del cultivo de henequén, se abandona­ron extensas áreas que ahora están en diversas etapas de regeneración.

Esta ocupación continua tuvo un fuerte impacto en la vegetación de la península. Sin embargo, la mayor afec­tación ocurrió en los últimos veinte años, periodo en que el área fue impac­tada por el huracán Gilberto, en 1988 y por dos grandes incendios forestales, en 1989 y 1995, cuyos orígenes pue­den atribuirse a las interacciones sinérgicas de las fluctuaciones climáticas y las actividades humanas.

En las zonas tropicales, los incendios tienen una estrecha relación con la presencia de huracanes, los cuales, cuando pasan, derriban una gran can­tidad de árboles y producen la defoliación y el resquebrajamiento de las copas. Con el tiempo, eso convierte en material combustible y al combinarse, por un lado, con la presencia de condiciones meteorológicas adversas, como sequía y fuertes vientos, y por el otro, con el amplio uso del fuego para actividades agropecuarias du­rante la temporada seca, se incre­menta las probabilidad de que ocurran incen­dios forestales de considerable mag­ni­tud. En 2002, según el informe sobre la Situación del Medio Ambiente en Mé­xico de semarnat, las actividades agro­pecuarias fueron responsables de 46% de los incendios forestales en Mé­xico.

En las últimas décadas, la frecuen­cia, escala e intensidad de los incendios han aumentado. Esta espiral ascen­den­te de mayor biomasa quemándose en el trópico puede tener múltiples y severos impactos sobre la diversidad y las funciones ecológicas de los bosques. Entre los más preocupantes, la invasión de una flora oportunista, conformada principalmente por espe­cies secundarias resistentes al fuego como las del género Pteridium, que ade­más de crecer abundantemente después de quemas recurrentes, favorecen la ocurrencia de incendios por la gran cantidad de hojarasca que generan y por su alta flamabilidad, origi­nan­do un círculo vicioso que podría conti­nuar indefinidamente si se sigue uti­lizando el fuego de manera in­controlada.

El género Pteridium

Las especies de este género están con­sideradas entre las plantas invasoras más exitosas del mundo, se encuentran en los cinco continentes, tanto en zonas templadas como tropicales y desde el nivel del mar hasta altitudes que superan 3 000 metros. Afectan profundamente los ecosistemas intervenidos por la actividad humana y son especialmente propensas a inva­dir sitios talados, campos de cultivo, pastizales inducidos, parcelas abando­nadas y, sobre todo, áreas afectadas por incendios.

En México crecen tres especies de Pteridium, todas ampliamente distribuidas en el país: Pteridium aquilinum (L.) Kuhn, con tres variedades, var. la­­tiusculum (Desv.) Underw. ex Heller; var. pubescens Underw. y var. feei (W. Shaffn. ex Fée) Maxon ex Yunck.; P. arach­noi­deum (Kaulf.) Maxon y P. caudatum (L.) Maxon, la última se encuentra en la península de Yucatán.

La invasión de Pteridium represen­ta un serio problema para la conserva­ción y para los productores y administradores de recursos, pues retrasa la recuperación de la estructura y composición de los bosques y obstacu­liza o, en el peor de los casos, imposi­bi­lita las labores agrícolas y forestales al obligar a los campesinos a abandonar sus tierras por la fuerte inversión inicial en mano de obra que requiere el abatimiento de la población de hele­chos, cuyos rizomas —tallos subterrá­neos— forman una densa red bajo el suelo que es extremadamente difícil de remover en su totalidad y práctica­mente inmune a los herbicidas.

Desafortunadamente, no se trata sólo de una maleza que crece profusa­mente, ahogando pastos y cultivos, también es una amenaza para los humanos, en la medida en que afecta su salud y la sus animales de cría. Al ser in­gerido por el ganado produce afec­cio­nes graves como avitaminosis, pa­rá­lisis mecánica, padecimientos he­ma­to­lógicos, ceguera permanente, hemorragias internas y cáncer. Existen crecientes evidencias de que algunos de sus efectos pueden transmitirse al ser humano por medio de la leche de animales expuestos al helecho. Se ha demostrado que la leche contiene un carcinógeno denominado ptaquilósido en cantidad suficiente para ser el causante o coadyuvante del muy alto índice de cáncer gástrico observado en algunas regiones de Venezuela y de Cos­ta Rica, donde este helecho invade los potreros de producción láctea. En Gales, al oeste de Inglaterra, donde abundan las poblaciones de Pteridium, se ha observado una inusual incidencia de cáncer entre la población huma­na. Se han adelantado varias hipótesis, incluyendo la contaminación del agua de pozos por exudados de las raí­ces y rizomas del helecho, y la invasión de sus esporas en los acueductos de superficie, pero no se ha demostrado cla­ramente ninguna relación. También en Japón, país en donde no sólo abun­dan los Pteridium sino que se comen los brotes tiernos como una delicadeza en ensaladas, se observa un índice muy elevado de cáncer gástrico y eso­fágico en relación con otros tipos de cáncer humano.

¿Qué los hace tan exitosos?

El gran potencial competitivo de este helecho resulta de su amplia tolerancia al estrés y las perturbaciones ambientales, aspectos que responden, en gran medida, al producto de una exi­to­sa combinación de características mor­fológicas y fisiológicas, entre las que destacan: 1) un sistema de rizomas o tallos subterráneos muy largo y longevo que se ramifica indefinidamente, confiriéndole una gran capacidad de invasión. Adicionalmente, estos órga­nos almacenan carbohidratos que pue­den movilizarse rápidamente hacia las hojas y son los responsables de la abundante propagación vegetativa, por el gran número de yemas en esta­do latente que portan. Cada una, poten­cialmente puede formar nuevas hojas, especialmente después de quemas re­currentes; 2) una efectiva actividad alelopática y antidepredadora, resultante de la posesión de un amplio y poderoso arsenal químico de metabo­litos secundarios, entre los que desta­can las ecdisonas —un tipo de hormo­nas que promueven la muda o ecdisis en los insectos—, los sesquiterpenos, taninos, glucósidos cianogénicos, flavonoides y tiaminasa —una enzima que descompone la tiamina o vitamina B1; 3) un alto potencial reproductivo, cada planta produce cientos de millones de esporas microscópicas, transportadas grandes distancias por el viento, las cuales permanecen viables, es decir, capaces de germinar en la siguiente etapa favorable, después de la dispersión; y 4) un fenotipo —es­tructura o arquitectura— que le confiere ventajas sobre otras plantas, como por ejemplo su tamaño, que en ocasiones supera tres metros de al­tura, además de que poseen tallos rígidos y hojas muy grandes —de entre 1.5 y 3 metros—, amplias y sobrepues­tas que privan de luz solar a las plantas subyacentes, debilitándolas o matándolas, al tiempo que impiden el establecimiento de otras especies colonizadoras.

Todo ello hace de Pteridium una plan­ta extremadamente competitiva, muy hábil para sobrevivir, sumamente prolífica y con una amplia plasticidad morfológica y fisiológica en su ran­go de distribución, características que la convierten en una de las malezas más difíciles de combatir por métodos mecánicos, biológicos e incluso químicos.

Invasión de Pteridium en Yucatán

Se desconoce si Pteridium constituyó un obstáculo para la agricultura y los sistemas de producción de los antiguos mayas y, más aún, si éstos realizaron al­gún tipo de control o manejo de dicha maleza. El registro fósil muestra una relación inversa entre la cantidad de esporas del helecho y los granos de polen de maíz en las tierras bajas de la región, lo cual probablemente indica que la abundancia de Pteridium estuvo restringida por la práctica de una agricultura intensiva. Sin embargo, es­ta misma línea de evidencia pone de manifiesto un incremento de las esporas de Pteridium hacia finales del Clásico Tardío, período en el que sobre­vino el colapso de la civilización maya y la subsecuente desocupación masiva de esa zona.

Existen varias interpretaciones de las causas de la invasión de este he­le­cho en la península de Yucatán. Una teo­ría propone que este fenómeno es­tá relacionado con el uso, en el largo plazo, de técnicas tradicionales de cul­tivo —por ejemplo, la agricultura itine­rante de roza, tumba y quema com­bi­na­da con reducidos ciclos de reposo—; otro punto de vista considera que las quemas que se escapan del control de los campesinos, y que se propagan en extensas áreas del paisaje, son las responsables de la existencia de man­chones continuos de Pteridium. Una ter­cera teoría incorpora ambos aspectos y sugiere que la invasión de este helecho es un proceso complejo, donde están involucrados degradación ambiental, estrategias de uso del suelo y regímenes de fuego.

Independientemente de las causas que originan o facilitan la expansión de esta pteridofita en el sureste mexicano, es un hecho que el problema va en aumento. Un estudio realizado en la región de Calakmul, al sur de la pe­nín­sula, mostró que entre 1987 y 2001 se incrementó significativamente la densidad de Pteridium, tanto en el área protegida de la Reserva de la Biósfera, como en las tierras ejidales y privadas. Entre 1987 y 1997, el área invadida se cuadruplicó pasando de 19 a 92 kilómetros cuadrados. En esta zona, la dis­tribución de Pteridium se caracteriza por una baja densidad poblacional en ejidos donde se realiza el cultivo intensivo de la milpa combinado con la producción comercial de chile en baja escala, mientras que las densidades más altas del helecho están aso­cia­das con los ejidos de mayor antigüedad y extensión, donde predominan los pro­yectos agrícolas o ganaderos de gran escala.

El mecanismo de invasión de Pteri­dium en comunidades sucesionales tem­pranas puede desarrollarse por dos vías: partiendo de esporas provenien­tes de la lluvia de propágulos —parte de una planta capaz de originar otro in­dividuo—, siguiendo la vía sexual, tam­bién llamada gametofítica, o mediante la expansión lateral de rizomas de individuos localizados en áreas adyacentes previamente invadidas. Se asume que la mayor parte de las invasiones ocurren, principalmente, por el último mecanismo.

¿Por qué lo beneficia el fuego?

Pteridium se considera bien adaptado al fuego en su rango de distribución. En los trópicos, muchos bosques son aclareados, usando el sistema de roza, tumba y quema. El material vegetal acumulado se deja secar y se quema justo antes del advenimiento de las pri­meras lluvias de verano. Consecuen­temente, cuando la estación lluviosa comienza las condiciones existentes después del fuego son muy próximas a las ideales para la germinación de las esporas y el establecimiento de los jóvenes esporofitos o plántulas. El fue­go crea un sustrato estéril, rico en nu­trimentos y alcalino, lo cual favorece el desarrollo de los gametofitos —fase del ciclo vital de las plantas en la que se producen los gametos—, re­mue­ve temporalmente a los competidores y reduce la diversidad microbiótica; Pteridium rápidamente toma ventaja de estas condiciones y sus esporofitos pueden establecerse en un periodo muy corto, incluso en áreas donde no existía previamente. Por otro lado, la remoción y quema de la cobertura vegetal altera significativa­mente el microclima del suelo del bos­que e incrementa la mineralización de la materia orgánica, resultando en una mayor disponibilidad de nutrimen­tos para Pteridium y otras especies her­báceas.

La principal adaptación de las especies de Pteridium al fuego es el sistema de rizomas subterráneos que se encuentran usualmente a una profun­didad de entre 10 y 50 centímetros; así permanecen aislados de las temperaturas letales producidas por un in­cen­dio en el horizonte mineral del sue­lo. Algunos estudios indican que en sitios incendiados Pteridium crece abun­dan­temente partiendo de las yemas vegetativas del rizoma, las cuales produ­cen hojas rápidamente, incluso antes de que los competidores se establezcan, confiriéndole ventaja en la subsecuente competencia ecológica.

Por otro lado, las evidencias dispo­ni­bles parecen indicar consisten­te­men­te que el establecimiento de Pte­ri­dium, partiendo de esporas, es un even­to muy raro en situaciones natu­rales, pero en una gran variedad de há­bitats intervenidos por los humanos, especialmente aquellos creados por la remoción y quema de la cobertura ve­getal, la colonización vía esporas pue­de ser rápida y efectiva. Se sospecha que incluso la presencia de fuego podría ser un requerimiento para la germinación de las esporas. Una vez removida la competencia natural, estas plantas pueden completar su ciclo de vida exitosamente. Bajo esas condi­ciones cada espora que germine podría producir una invasión rápida en dos años.

En los trópicos, donde las condicio­nes de temperatura y humedad son bas­tante estables, es probable que la liberación de esporas ocurra durante gran parte del año, por lo que una fuen­te constante de esporas estaría disponi­ble para cualquier área potencialmen­te habitable. Las oportunidades para el establecimiento de Pteridium podrían incrementarse considerablemente si el suelo contuviera un reservorio de esporas viables con el potencial para germinar en cualquier época del año. La probabilidad de que Pteridium colonice nuevas áreas vía esporas tiene implicaciones importantes para el control de su establecimiento en sitios nuevos y para su reestablecimien­to en áreas donde existía previa­mente. Más aún, la amplia existencia de bancos de esporas de Pteridium podría sig­nificar que las actividades diseñadas para erradicar este helecho promueven la colonización por nuevos indivi­duos, al crear numerosas oportunida­des para la germinación de las esporas y el establecimiento de los gametofitos después de cualquier forma de dis­turbio en el suelo, lo que promueve la renovación de la población y de su acer­vo genético.

¿Que se hace en México?

Evidentemente la expansión de este helecho no es un problema exclusivo del sureste mexicano; su presencia en casi todo el planeta lo convierte en un problema de carácter global y en un tó­pico de investigación fundamental pa­ra muchos países.

Si bien es cierto que se ha estu­dia­do intensamente la ecología de este he­lecho en las zonas templadas, las in­ves­tigaciones en los trópicos son es­ca­sas y algunos aspectos importantes, como la respuesta ecológica al fuego y su di­námica en áreas incendiadas, se han ex­plorado poco en los trópicos ameri­canos y prácticamente nada en Mé­xico.

En el país, recientemente se están realizando importantes esfuerzos ­para entender la biología de este helecho. Por ejemplo, en 1988 Suazo pu­bli­có un estudio sobre aspectos ecológicos de es­ta invasora en una selva húmeda de la región de Chajul, Chiapas. En Ca­lakmul, al sur de la penín­su­la de yucateca, Schneider evaluó en 2004 la dis­tribución de Pteridium en re­lación con el uso del suelo. Desde ese año, en la región de la Chinantla, Edouard y sus colaboradores dirigen un pro­gra­ma experimental de restauración de áreas invadidas por P. aquilinum.

Motivados por la fascinante biología de este helecho, y por la necesidad impostergable de lograr una mejor com­prensión de los factores que promueven su establecimiento, persisten­cia y distribución en el trópico mexica­no, el grupo de Biología de pteridofitas de la Universidad Autónoma Metropo­litana Iztapalapa inició un proyecto de investigación en la Reserva Ecológica El Edén, ubicada al noreste de Quintana Roo, cuyo principal objetivo es evaluar las estrategias de rege­ne­ración post-fuego de esta pteridofita y el papel que juegan las esporas y las estructuras vegetativas en la suce­sión secundaria. Esto permitirá gene­rar información básica sobre el proceso de invasión y desarrollar, en el mediano y largo plazo, adecuadas es­tra­tegias de control encaminadas hacia la restauración funcional de las áreas invadidas por Pteridium en el norte de Quintana Roo y en el resto de la pe­nínsula de Yucatán.

Consideramos que un programa efectivo de control o combate de espe­cies invasoras como Pteridium ame­rita el desarrollo de esquemas específicos de manejo acordes con las características físicas, biológicas y sociales de cada zona, así como al grado de in­ter­vención antrópica.

Por ello, es preciso entender que la expansión de especies vegetales in­vasoras como las pertenecientes al gé­nero Pteridium amenazan la integri­dad de algunos de los ecosistemas más diversos del planeta, como los bosques tropicales del sureste mexicano; por esa razón, debería asumirse como un tema de prioridad que exige accio­nes urgentes, así como una mayor par­ticipación y compromiso de las partes interesadas. Por otro lado, constituye un reto para los científicos dedicados al estudio de malezas e interesados en la conservación, así como una tarea im­postergable para los gobiernos y administradores de recursos.
María del Rosario Ramírez Trejo y
Blanca Pérez García
Departamento de Biología,
Universidad Autónoma Metropolitana-Iztapalapa.
Alma D. Orozco Segovia
Instituto de Ecología,
Universidad Nacional Autónoma de México.
Referencias bibliográficas
 
Aguilar, V. 2005. “Especies invasoras, una amenaza para la biodiversidad y el hombre”, en Biodiversitas, núm. 60, pp. 7-10.
Edouard, F., J. Jiménez y M. Cid. 2004. “Restauración de áreas invadidas por copetate en la región de la Chinantla, Oaxaca, México”, en Revista de Agroecología leisa, núm. 30, pp. 34-37.
Gómez Pompa, A., M. F. Allen, S. L. Fedick y J. J. Jiménez Osornio. 2003. The Lowland Maya Area. Three millenia at the human-wildland interface. The Haworth Press, Inc., Nueva York.
Mickel, J. T. y A. R. Smith. 2004. “The pteridophytes of Mexico”, en Memoirs of The New York Botanical Garden, núm. 88, pp. 529-533.
Rué, D. J. 1987. “Early agriculture and postclassic ocupation in western Honduras”, en Nature, núm. 326, pp. 285-286.
Schneider, L. C. 2004. Understanding Bracken Fern Invasion in the Southern Yucatán Peninsular Re­gion through Integrated Land Change Science. Doctoral Dissertation, Graduate School of Geography. Clark University.
Suazo, I. 1988. Aspectos ecológicos de la especie invasora Pteridium aquilinum (L.) Kuhn en una selva húmeda de la región de Chajul, Chiapas, México. Universidad Michoacana de San Nicolás de Hidalgo, Morelia, Michoacán.
Turner, B., W. C. Clarck, W. Kates, J. F. Richards, J. T. Mathews, W. B. Meyer (eds.). 1990. The earth as trans­formed by human action: global and regional changes in the biosphere over the past 300 years. Cambridge University Press, Reino Unido.
Ma. del Rosario Ramírez Trejo es bióloga por la Universidad Autónoma Metropolitana y Maestra en Ciencias por la unam. Actualmente es becaria del conacyt y candidata a Doctora en Ciencias Biológicas por la uam. Ha publicado varios artículos científicos y de divulgación sobre pteridofitas.
Blanca Pérez-García es profesora-investigadora del Departamento de Biología en la Universidad Autónoma Metropolitana-Iztapalapa. Doctora en Ciencias por la Facultad de Ciencias de la unam. Miembro del Sistema Nacional de Investigadores.
Alma Orozco-Segovia es Investigadora del Instituto de Ecología de la unam. Doctora en Ciencias por la Facultad de Ciencias de la unam. Miembro del Sistema Nacional de Investigadores y de la Academia de la Investigación Científica.
 _______________________________________________________________

como citar este artículo

Ramírez Trejo, María del Rosario, Blanca Pérez García y Orozco Segovia Alma D. (2007). Helechos invasores y sucesión secundaria post-fuego. Ciencias 85, enero-marzo, 18-25. [En línea]
  ←Regresar al índiceartículo siguiente→
1 12
     
Hijo de Zague, ¿Zaguiño?
Este texto presenta algunos análisis que contribuyen al debate en torno al concepto de la herencia. A partir de la lectura del libro El Sesgo Hereditario de Carlos López Beltrán, el autor desarrolla una serie de ideas acerca del origen de la teoría sobre la herencia.
Antonio Lazcano Araujo
conoce más del autor
     
HTML ↓ PDF Regresar al índiceartículo siguiente
     
     
“Las generaciones de los hombres”, escribió Homero en La Iliada, “son como las hojas de los árboles de un bosque. Unas caen para ser substituidas por otras que tomarán su lugar”. Lo mismo ocurre con los cantantes y la música que interpretan. Abrumados por la presencia metrosexual de Alejandro Fernández, se nos olvida que hace unos cuantos años era su padre, Vicente Fernández, el que se escuchaba en todas las estaciones de radio inter­pretando con energía La ley del monte, un auténtico himno al lamarckismo escrito por José A. Espinosa. “Grabé en la penca de un maguey tu nombre”, aullaba frenético Don Vicente, “unido al mío, entrelazados, como una prue­­ba ante la ley de monte/que allí estuvimos enamorados”. Ah! Pero como se puede ver en Elmariachi.com, la ingra­ta no sólo olvida el amor jurado, sino que resulta ser una pérfida: aprovechando la oscuridad de la noche, sube al mon­te y corta la penca del maguey en un intento por bo­rrar las huellas del pasado. La botánica predar­wi­nista es la que rescata la memoria del amor perdido. ­Como canta­ba Vicente Fernández, “no se si creas las extrañas cosas/que ven mis ojos, tal vez te asombres/las pencas nuevas que al maguey le brotan/vienen marcadas con nuestros nombres.”
 
¿Laboraron Mendel, Weissman y Morgan en vano? ¿Tenían razón Lamarck y Vicente Fernández, su heredero intelectual, cuando afirmaba que los rasgos que los organismos van adquiriendo a lo largo de su vida serán heredados a sus descendientes? Si los nombres grabados en las pencas de los magueyes se perpetúan a través del tiempo, ¿estaban predestinados Alejandro Fernández a seguir los pasos de su padre, Angélica Vale los de Angélica María y Raúl Vale, e Irene Joliot-Curie los de Pierre y Marie Curie, sus progenitores? Hijo de tigre, ¿pintito? ­Hijo de Zague, ¿Zaguiño?

¿Por qué nos parecemos (por lo general) a nuestros padres? ¿Por qué heredamos el lunar de la bisabuela, las orejas del tío materno o la calvicie prematura del padre? ¿Por qué reaparecen, luego de varias generaciones, rasgos y parecidos que creíamos perdidos en los vericuetos de las genealogías y los secretos familiares? Con una franqueza que parecía debilitar sus ideas sobre el papel de la selección natural, Charles Darwin se vio obligado a confesar en El Origen de las Especies, que “las leyes que ri­gen la herencia son, en su mayor parte, desconocidas. Na­die puede decir por qué la misma particularidad en diferentes organismos de la especie o en diferentes especies es unas veces heredada y otras no; no sabemos por qué muchas veces el niño, en ciertos caracteres, vuelve a su abuelo o a su abuela, o a un antepasado más remoto, por qué muchas veces una particularidad es transmitida de un sexo a los dos sexos, o a un sexo solamente y, en éste caso, más comúnmente, aunque no siempre, al mismo sexo”.

No todos compartían las dudas que Darwin ventilaba abiertamente con tanto candor. Tan pronto como supo del embarazo de su nuera, la archiduquesa Sofía de Austria se apresuró a escribirle a su hijo, el emperador Francisco José, para prevenirlo sobre los riesgos a que se estaba exponiendo el trono de los Habsburgo por culpa de su mujer, la excéntrica emperatriz Sissi. En una carta enviada el 29 de junio de 1859 al Emperador, apenas unos meses antes de la publicación de El Origen de las Especies, la archiduquesa escribió: “Me parece que Sissi no debería pasar tantas horas con sus papagayos. Durante los primeros meses del embarazo resulta demasiado peligroso ver con insistencia determinados animales. Es mucho más conveniente que la Emperatriz se mire al espejo durante mucho tiempo, o que te contemple a ti. Que procurase hacerlo sería muy de mi agrado”.
 
No importa la preocupación, a menudo violentada por el nacimiento de bastardos, por mantener la pureza de la sangre en las familias de la aristocracia, o la precisión de los nombres de linajes reales en el Directorio Nobi­liario del Gotha (cuyos editores, me contó una vez la here­dera de un título nobiliario, cobran una cuota anual en euros para tener actualizadas las ramas de los árboles genealógicos). La carta de la archiduquesa Sofía es un resumen espléndido de la ignorancia sobre las leyes de la heren­cia que predominaba en muchos sectores de la so­cie­dad decimonónica. Lo más irónico, sin embargo, es que en los dominios de los Habsburgo, no muy lejos del asiento de la corte imperial de Viena, un monje llamado Gregor Mendel, neé Johann, llevaba más de cinco años cruzando chícharos y otras plantas en un intento por describir en términos cuantitativos los fenómenos de la herencia.

¿Quién era Mendel? La mayoría de los textos de biología suelen presentarlo como un monje con aficiones de jardinero que compensó la falta de inteligencia, inventiva y educación formal con una tenacidad de horticultor que le permitió resolver, por vez primera en la historia de la biología, los secretos de la genética y las leyes de la herencia gracias a los chícharos que se cultivaban en el monasterio de Brno por razones estéticas o culinarias. Nada más alejado de la realidad. Como lo demuestra el úl­timo libro de Carlos López Beltrán, el “sesgo hereditario” (para utilizar el título de la obra misma) ha dominado muchos aspectos de la vida intelectual y científica mucho tiempo antes de que la doble hélice del DNA se con­virtiera en un icono de nuestros tiempos. Ello no significa, como se suele creer, que la genealogía de nuestras ideas sobre la herencia esté enraizada en la noche de los tiempos, o que haya comenzado a ser sistematizada desde las épocas de Aristóteles. Por el contrario, como afirma explícitamente López Beltrán en su libro, “a pesar de lo que algunas veces leemos en algunos libros de historia de la biología, no hay tal cosa como una teoría de la heren­cia biológica anterior al siglo XIX” y aclara, sin ánimo condenatorio pero con la firme intención de reducir los índices de los textos de genética, que “ni Aristóteles ni Hipócrates ni Harvey ni aun Buffon elaboraron teorías sobre ese fenómeno. Más adelante agrega, usando el plural mayestático, que “ni el concepto ni su dominio empírico de referencia ni propuesta teórica alguna se dio antes del trabajo constructivo que los posibilitó y que hemos intentado esbozar”.

Lo que López Beltrán llama un esbozo es, en realidad, el libro en el que transformó los resultados del trabajo de investigación que le sirvió como tesis de doctorado en Inglaterra, y en donde es fácil advertir la influencia de autores como Frederick Churchill (cuyo espléndido análisis sobre la evolución de las teorías de transmisión hereditaria debería ser lectura casi obligatoria entre los biólogos) pero, sobre todo, el peso de los grandes nombres que contribuyeron a configurar la escuela francesa de la historia de las ideas. Aunque el diploma de doctorado de López Beltrán viene del muy inglés King’s College, es obvio que su libro creció no a la sombra del espíritu británico (always minding the gaps), sino bajo la tutela de las ideas de Bachelard, Cavailles, Koyré, Canguilhem y, por supuesto, Foucault. Hay detalles reveladores, como el uso inclemente de términos como “coagulación conceptual”, o la manera implacable en que nos asesta galicismos como “hereditarismo” o, pecado de lesa nomenclatura en un científico, al referirse al DNA como ADN (variante que les perdono a los franceses, como les perdono casi todo, pero no a un biólogo mexicano). Pero donde más se nota la influencia de la escuela francesa, sin embargo, es en su versión de la historia del concepto de la herencia, que hace girar en torno al examen social de su medicalización, una preferencia más o menos extraña en un biólogo. Para hacer cuajar su idea, Carlos López Beltrán adoptó el eclec­­ticismo metodológico que vuelve tan atractiva la historia de las ideas: revisó libros y otras publicaciones científicas, se asomó a las biografías de investigadores, leyó hagiografías de héroes científicos, examinó diccionarios médicos y generales, vio de pasada los catálogos siempre indispensables de Carmen Castañeda, y leyó y analizó novelas (aunque menos de las que yo hubiera creído. Hubiera sido interesante ver la inclusión de novelas como La Maquina del Tiempo, de H. G. Wells, publicada en 1896, de Tarzán de los Monos, de Edgar Rice Burroughs, 1917 y Tess of the D’ Urbervilles, de Thomas Hardy, un autor emparentado con la mitad de la ecuación Hardy-Weinberg.

Al igual que sus sinodales del King’s College, no dudo ni del esfuerzo hecho por López Beltrán, ni de la lucidez de su análisis, ni la precisión de su metodología—pero su conclusión central me sorprende, y me parece que se hubiera podido completar. Más allá de cualquier chauvinismo profesional, me hubiera gustado encontrarme en la larga lista de referencias y pies de página de su libro con el registro de la literatura producida por los naturalistas y los agrónomos de la época, así como por los criado­res de animales (como lo hizo Darwin, por ejemplo, al ci­tar una y otra vez a quienes se dedicaban a criar palomas). En lugar de hacerlo, López Beltrán se limitó a mencionar el trabajo de otros como Vatizlav Orel, que relata las tribulaciones de Nestler, y terminó omitiendo a Koelreuter, Gaertner y otros que han sido estudiados por historiadores de la ciencia como Olby.

A pesar de la extrañeza que nos puede causar hoy en día, es fácil comprender el que criadores de plantas y animales supieran seleccionar diversos organismos sin tener ni una teoría de la herencia ni una idea de la selección natural. Por ejemplo, se pueden encontrar ejemplos de fenómenos donde hay replicación (o multiplicación) y genealogía (o, si se quiere, pedigree), pero no herencia (la lista de los nombres de los Papas o el fuego de las antor­chas olímpicas son ejemplos de ello), y es posible que a Carlos López Beltrán le asista la razón en forma absoluta y que haya podido prescindir sin problema alguno del análisis de las ideas de los naturalistas —pero la ausencia de evidencia no es evidencia de ausencias. Hubiera sido interesante incluir y analizar las ideas de personajes como Cotton Mather, un inglés que desde los confines provincianos de Norteamérica aún nonata describió en 1716 el fenómeno de la dominancia al estudiar las plantas de maíz. ¿Tenía o no un concepto, aunque fuera rudimentario, de lo hereditario? Como trataré de explicar más adelante, me resulta difícil aceptar la conclusión de López Beltrán que fue sobre todo en la comunidad médica donde se definió inicialmente el fenómeno hereditario, y que la larga tradición de naturalistas, agrónomos y los que él llama hibridólogos no haya contribuido desde un principio al reconocimiento formal de éste concepto. Mi desconcierto no proviene de ningún intento de reivindicar a los biólogos y a los naturalistas desde la óptica de quien no es un historiador ni de las ideas ni de la ciencia, pero no deja de ser sorprendente la afirmación que se hace en la Introducción de El sesgo hereditario, en el sentido de que “la herencia biológica comenzó siendo herencia humana”. O, como escribe más adelante, que “el sustantivo fran­cés heredité fue sin duda el primero en establecerse como un término científico con fuerza explicativa autónoma, impulsado por toda una generación de médicos de principios del siglo XIX, que decidió que ‘lo hereditario’ debía jugar un papel menos marginal en la comprensión del pasado y del presente en la humanidad, y por tanto también en la creación de su futuro. Las causas de ésta decisión son complejas, están enraizadas en los dramáticos cambios sociales de la Europa del periodo. Después de 1830, la herencia (heredité) ocupó un lugar preponderante en los escritos de la comunidad médica francesa hasta convertirse en el emblema de su nueva actitud, ambiciosa, postilustrada y postrevolucionaria”.
Así, al amparo del King’s College, pero asomándose ha­cia la otra orilla del Canal de la Mancha para analizar las transformaciones radicales que sufrieron la práctica y la teoría médicas luego de la Revolución Francesa, López Beltrán escribe que “creo que la posibilidad de que existiera un campo de investigación científica que se concen­trara en la transmisión de las características particulares y generales de los padres [yo hubiera usado el término “progenitores”] a los descendientes, a través de una ruta fisiológica es una de las cosas que le debemos casi por entero a las primeras décadas del siglo XIX francés”. Y añade que “dicha posibilidad no surgió espontáneamente; fue concebida en un medio intelectual en el que los fenómenos de la transmisión hereditaria en diferentes especies, y entre los humanos en particular, adquirieron una importancia que nunca habían tenido antes”. Como lo insinúa López Beltrán a lo largo de los primeros cuatro capítulos de su libro (y lo afirma con toda claridad Clara Pinto-Correia en su libro The Ovary of Eve) “era fácil usar la herencia como una arma letal en contra del preformacionismo”, si se intentaba explicar la presencia de rasgos de ambos progenitores. Ello, lo sabemos bien, desató un deba­te feroz y maniqueo sobre las contribuciones que uno y otro sexo hacían a los procesos hereditarios, una discusión importante que Carlos López Beltrán prefirió obviar por razones que no alcanzo a comprender.

Es cierto que, como se afirma en El sesgo hereditario, para que la herencia fisiológica (es decir, biológica) se vol­viese una corriente hegemónica se requería el concurso y la coincidencia de diferentes grupos, entre los cuales, dice el autor, estaban los biólogos con formación médica. También es cierto que en ese momento las fronteras entre las diferentes disciplinas eran difusas, y que muchos tran­sitaban sin dificultad de la medicina a la botánica y de ésta a la geología. Pero ¿y las otras tradiciones intelectuales atentas al fenómeno biológico, ajenas a las ciencias médicas y al estudio del hombre, que también existían y que venían de raíces distintas? Sorprende la ausencia casi absoluta de los puntos de vista de naturalistas porque, después de todo, Mendel no surgió por generación espontánea. Como recuerda López Beltrán en su libro, Vitezlav Orel ha documentado la forma en que en la déca­da que comienza en 1830 la noción de herencia se detecta por primera vez en las discusiones entre los criadores de borregos sobre la capacidad de los sementales para transmitir características a sus descendientes. Creo en el azar, pero no en tantas casualidades. ¿Esa coincidencia en el tiempo resultó de la convergencia de ideas, o de va­sos comunicantes cuya existencia se le escapó a López Beltrán? ¿O de una retroalimentación aún por describir entre los médicos a los que hace referencia López Beltrán y los agrónomos y naturalistas a los que no hace mención alguna?

A pesar de lo que dicen libros de moda pero ridiculamente triviales como The Monk in the Garden, de Robin Marantz Hening, Mendel se incorporó a una comunidad religiosa empujado no por el llamado de los ángeles, sino por la pobreza familiar, que le impedía dedicarse al estudio de las ciencias. El monasterio de Brno representaba una alternativa espléndida para un joven campesino sin recursos. Cuando concluyó sus estudios de enseñanza media Mendel carecía de los medios necesarios para con­tinuar con su educación por lo que, para poder ingresar a la universidad, escribió que “tenía que encontrar una forma de vida que me librara para siempre de la amarga lucha por la existencia”. En septiembre de 1843 Mendel fue aceptado como novicio en el monasterio de Santo Tomás de Brno, adoptando el nombre de Gregor. En el claustro, sin embargo, no se encontró con una atmósfera de recogi­miento y meditación, sino con un pequeño observatorio astronómico, una magnífica biblioteca y un vivero dedicado a la investigación agrícola.

El monasterio de Brno era un sitio peculiar. Poco después de que la huída del anciano príncipe de Metternich y la abdicación del emperador Fernando de Habsburgo llevaron al trono a su sobrino Francisco José, un grupo de monjes, entre los que se encontraba el propio Mendel, dirigió una larguísima carta a la Asamblea Imperial solici­tando la extensión de los derechos civiles al interior de las órdenes monásticas y solicitando para la comunidad de Brno el permiso para dedicarse exclusivamente a la do­cencia y a la investigación científica. Luego de haber reprobado los exámenes de geología y de biología, lo que le impidió obtener el diploma que lo hubiera podido acreditar de manera permanente como profesor de enseñanza media, Mendel fue enviado en octubre de 1851 a la Univer­sidad de Viena, en donde estudió bajo la dirección del célebre físico Christian Doopler y de Franz Unger, un fisió­logo vegetal que llevaba varios años trabajando en la obtención de nuevas variedades de plantas mediante la fertilización artificial (cuyo nombre también omite López Beltrán). Como escribe Viteslav Orel, Mendel estaba de suer­te, porque muchos de los profesores de la Universidad de Viena creían no sólo en el estudio estadístico de la biología, sino también en la posibilidad de explicar los fenómenos físicos a partir de unas pocas leyes que describieran el comportamiento de partículas elementales. Aquí, de hecho, están parte de las raíces de lo que Carlos López Beltrán describe como “la ilusión con la que se ini­cia la genética en el siglo xx es que pronto se cerraría la búsqueda de la causa hereditaria, reduccionista y determi­nista (como las causas de la física), con la que los biólogos (y los demás) tendrían una teoría general de la vida basada en ella”. En realidad, tanto la ilusión como el opti­mis­mo reduccionista que se encierra tras ella eran mucho más antiguos. Es cierto, como escribió Michel Morange en 1998 en su libro La part des gènes, que en 1926 Hermann Muller escribió que “los genes son los átomos de los biólogos”. Sin embargo, como lo demuestra una rápida ojeada a la formación intelectual de Mendel, esta visión de la herencia tenía una larga genealogía cuyos atisbos ya se perfilan desde mediados de la segunda mitad del siglo XIX.
La lectura del libro de López Beltrán permite desplazar a Mendel del sitial de padre fundador de la genética, para conducir su memoria a un sitio distinto pero igualmente meritorio. En todo caso, ni Mendel vivió mucho tiempo que digamos, ni pudo continuar dedicado al estudio de la biología. Tuvo mucho en contra, desde las obligaciones administrativas que le imponía su papel de abad pueblerino, hasta el desdén injusto y apenas disimulado con el que lo trataron déspotas como Karl von Nageli, un influyente naturalista de la Universidad de Munich, que le recomendó abandonar el estudio de la herencia. Por ra­zones aún desconocidas, pocos días después de la muer­te de Mendel su sucesor ordenó la destrucción de sus archivos. Sin embargo, entre los pocos documentos y libros que lograron sobrevivir se encuentra un ejemplar del Origen de las Especies y de otros libros de Darwin, en los que hay una gran cantidad de anotaciones manuscritas. Gracias al testimonio de uno de sus amigos, sabemos que Mendel “estaba muy interesado en las ideas evolutivas, y ciertamente no era un adversario de la teoría evolutiva —aunque afirmaba que algo seguía faltando”. Lo que faltaba era que Mendel aceptara el concepto de selección natural. Como han señalado Olby, Serre, Bowler y otros investigadores contemporáneos, lo que Mendel en realidad pretendía demostrar con sus experimentos era que especies nuevas podían surgir de híbridos estables.

Darwin, por supuesto, no hubiera aceptado esta idea. Sabía de ella, pero no por Mendel, con quien nunca tuvo contacto alguno. Nunca hubo correspondencia entre Brno y Down, y el desinterés de Darwin en las separatas que supuestamente le envió Mendel no es más que un mito largamente acariciado. Es importante insistir, como lo hace Carlos López Beltrán, que la genética de Darwin era pre-mendeliana. Como escribió en 1930 Ronald A. Fi­sher, uno de los fundadores del neodarwinismo, las bases del mendelismo son tan obvias que cualquier pensador de la época victoriana las hubiera podido descubrir —pero no lo hicieron, y ello incluye al propio Charles Darwin, que cultivó chícharos en un intento por acercarse al estudio del problema de la herencia. Contrariamente a lo que afir­ma López Beltrán, Darwin no se contentó con acumular “durante décadas datos sobre la transmisión hereditaria, y en su hipótesis de la pangénesis trató de ‘salvar los fenó­menos de la mejor manera posible para reafirmar los aspectos de la transmisión que le interesaban”. A muchos se les olvida que Darwin era también un excelente experimentalista, y es una pena que se haya pasado por alto la espléndida introducción que Richard Dawkins escribió para una reedición de El origen del hombre de Darwin pu­blicada en 2002, en donde reprodujo parte de una carta que Darwin envió a Wallace en Febrero de 1866. La misiva es espléndida:

Mi querido Wallace, me parece que no entiendes a lo que me refiero cuando hablo de que ciertas variedades no se mezclan entre sí. Mi comentario no tiene nada que ver con la fer­tilidad, y un ejemplo lo puede explicar. He cruzado entre sí plantas de chícharos de las variedades Painted Lady y Purple, que presentan coloraciones muy diferentes, y he obte­nido, incluso en la misma vaina, chícharos de ambas variedades pero ninguno intermedio. Me parece que algo similar debe estar ocurriendo con tus mariposas y con las tres formas de Lythrum que mencionas. Aunque estos casos parecen sorprendentes, en realidad se trata del mismo fenómeno que hace que cada hembra en el mundo produzca descendencia tanto masculina como femenina.

Con mi afecto más sincero, Ch. Darwin

Pocos años más tarde, y al amparo de la escuela literaria del naturalismo, la genética (acompañada de la predestinación poética a las patologías) comenzó a llenar las páginas de cuentos y novelas. Como escribió en 1871 Emi­le Zolá, al describir los vicios de Naná, “al igual que la gra­vitación, la herencia está regida por sus propias leyes”. Es una pena que Carlos López Beltrán, que de biólogo, poeta y filósofo tiene de todo un poco, haya dejado pendiente el examen de la literatura mexicana que por esas épocas comenzó a tener preocupaciones equivalentes en las novelas de Ignacio Manuel Altamirano y en los textos de Justo Sierra, y que años más tarde encontrarían ca­bida en la obra de Federico Gamboa, Mariano Azuela, y otros más. Como el mismo López Beltrán escribe, la historia de cómo llegó para quedarse en la comunidad de médicos y naturalistas mexicanos la visión francesa de la herencia aún está por investigarse. Estoy cierto que ello es, más que una veta prometedora, una mina riquísima que todavía no ha sido explorada.

En realidad, la segunda parte de El sesgo hereditario debe ser vista como el preámbulo a trabajos aún por llevar a cabo. El apresuramiento con el que Carlos López Beltrán concluyó su libro es un reflejo de la riqueza del tema y la complejidad del problema. Me hubiera gustado ver, aunque fuera como pie de página en el capítulo en donde escribe sobre la genética y la medicina en México, alguna mención a los empeños de biólogos como Herrera, Ochoterena y otros más, que al margen de sus posibles predecesores médicos (si es que los tuvieron), inauguraron una disciplina nueva. Llaman la atención los buenos augurios con los que se inauguró en México el siglo XX: en 1904 Don Alfonso L. Herrera publicó su libro Nociones de biología, pensado como lectura para los estudiantes de la Normal Superior, en donde incluyó una pequeña sección en la que se mencionan las leyes de Mendel. Una lectura de la obra de Herrera que se detuviera en este libro (en cuyas páginas coexisten pacíficamente el mendelismo con el darwinismo de principios del siglo XX) parece­ría sugerir que Herrera no le concedió mucha importancia a la nueva genética. Sin embargo, basta leer el texto que Herrera publicó en 1931 en La medicina argentina, titulado “Continúan los ataques a los misterios de la vida, imita­ción de las figuras mitósicas o de la división celular” o, me­jor aún, echar una ojeada a los boletines de Plasmogenia que editaba desde la azotea de su casa en Santa María la Ribera, y observar sus empeños por simular la síntesis de cen­triolos y husos cromáticos para percibir la forma en que reconoció la importancia de la genética en el contexto de una teoría abiertamente darwinista. Sobreviven algunas evi­dencias de la correspondencia que Hugo de Vries, el mal llamado “redescubridor” de Mendelman, tenía con Herrera, y basta acercarse a la esquina de Balderas y Artículo 123, a pocas calles de la Alameda de la Ciudad de México, para descubrir en la arquitectura ecléctica de lo que alguna vez fue el Instituto de Biología General y Médica de la Dirección de Estudios Biológicos, los centriolos, husos mitóticas y cromosomas que Don Alfonso hizo esculpir en la fachada para mostrar a los ojos de una ciudad turbulenta los misterios de la reproducción celular y la danza de los cromosomas.

Esta parte de la historia de la biología mexicana está aún por estudiarse, y espero que El sesgo hereditario ayude a ello. Menciono rápidamente los textos de S. D. Montejo, la Teoría de Mendel sobre la herencia, que publicó en revistas y periódicos mexicanos, los empeños de 1916 de Isaac Ochoterena para describir La carioquinesis vegetativa en las plantas mexicanas, o sus comentarios a la teoría de la mutación de De Vries, que el mismo Ochoterena tra­dujo, publicó y comentó bajo los auspicios de Herrera para la incipiente comunidad de científicos mexicanos. Las preguntas que pueden surgir incluyen los aspectos políticos e ideológicos que López Beltrán menciona de pasada en su libro. Enlisto, en aras de la brevedad, sólo algunos de ellos. En 1976 Oparin me regaló copias de los trabajos en los que Vavilov reportaba los resultados de su visita a Mé­xico, en donde estudió el origen de plantas cultivadas. Los textos, que incluyen imágenes espléndidas que evocan la películas de Einsenstein, no sólo son un recordatorio no estudiado de la recepción apoteósica que biólogos y agrónomos de Chapingo le hicieron a Vavilov cuando le otorgaron la Medalla de Oro de la Sociedad Mexicana de Agricultura, sino también del silencio ominoso que guardaron cuando fue empujado por Lysenko a las mazmorras de Stalin. No está por demás evocar el ambiente político y científico insinuado por otros libros por ahora sólo disponibles en las librerías de viejo, como las ediciones de Prenant que publicaba la Universidad Obrera de Mé­xico al amparo del oportunismo político de Vicente Lombardo Toledano, los Problemas biológicos: ensayos de interpretación dialéctica materialista, que Enrique Beltrán publicó en 1945, el volumen titulado La genética en la urss, de Alan G. Morton, traducido y prologado en 1953 por Alfredo Barrera, Narciso Bassols Batalla y Rafael Martín del Campo, o las sorprendentes declaraciones prosoviéticas (y poco informadas) de Don Isaac Ochoterana, que en un ciclo de conferencias sobre “Genética y Herencia” que impartió en el Colegio Nacional al afirmar que “las in­ves­tigaciones sobre genética en la urss tienen tal fuerza y conducen a resultados tan definitivos, que tarde o tempra­no convencerán a los escépticos y acabarán modificando en grado mayor o menor el panorama de la doc­trina bio­lógica”.

Ningún libro nace sin errores y omisiones, y el de Car­los López Beltrán no es la excepción. No importa. Concen­trémonos en sus méritos fundamentales, y en el reconoci­miento de que su publicación viene a aumentar la exigua colección de textos dedicados a examinar la historia de las ideas científicas en nuestro país. Ello no es un mérito menor en un ambiente enrarecido por el desdén con el que muchos intentan disfrazar en los medios la distancia casi analfabeta que los separa de la cultura científica. Re­co­nocer las limitaciones del volumen de López Beltrán no impide ver su valor para contribuir a la comprensión de la cascada de descubrimientos y aplicaciones tecnológicas que provienen de la biología molecular y que están cambiando precipitadamente la relación de las estructuras legales, éticas y económicas en las sociedades contemporáneas con las ciencias de la vida. Enfrentemos los chícharos del monje a las declaraciones no por piadosas menos desinformadas del Episcopado mexicano, al recha­zo igualmente ridículo que los diputados del pan le oponen a la clonación, o a la incomprensible negativa de los militantes locales de Greenpeace a la ingeniería genética. El desarrollo de la medicina genómica, la clonación de ovejas y otros animales, los experimentos con células ma­dres y con organismos genéticamente modificados, la tera­pias génicas, la expansión experimental del código genético, y la posibilidad de sintetizar vida, así los veamos a distancia, son una demostración cotidiana de la necesidad de abrir con urgencia nuevas áreas de reflexión y discusión que la sociedad mexicana ha ignorado hasta ahora. Nos gus­te o no, estamos transitando con rapidez del código genético al código civil. El debate intelectual en México se ha ido restringiendo a unas cuantas voces cada vez me­nos informadas de lo que ocurre en disciplinas científicas. El mérito fundamental del libro de Carlos López Beltrán, estoy seguro, es el de enriquecer los puntos de partida para reflexiones más informadas que abran debates y dis­cusiones hasta ahora inéditas.
Antonio Lazcano Araujo
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Nota
Texto leído durante la presentación del libro El sesgo hereditario de Carlos López Beltrán, unam, México, 2004.
Antonio Lazcano Araujo es biólogo egresado de la Facultad de Ciencias de la unam, donde también obtuvo el grado de Doctor en Ciencias. Es Profesor Titular C de tiempo completo y ha publicado en libros y revistas científicas internacionales más de un centenar de trabajos de investigación sobre el origen y la evolución temprana de la vida.
_______________________________________________________________

 

como citar este artículo

Lazcano Araujo, Antonio. (2007). Hijo de Zague, ¿Zaguiño? Ciencias 85, enero-marzo, 52-61. [En línea]
  ←Regresar al índiceartículo siguiente→
1 12
     
Homeopatía: mitos y realidades
Se hace un recuento histórico del origen, desarrollo y estado actual de la práctica médica de la homeopatía. Se expone la biografía de Samuel Hahnemann, creador de la homeopatía, y se ubican sus propuestas en su contexto histórico y social. Se discuten los debates modernos en torno a la efectividad de los tratamientos homeopáticos y de sus posibles mecanismos causales.
Pedro Miramontes
conoce más del autor
     
HTML ↓  PDF Regresar al índiceartículo siguiente
     
     
El colapso del bloque soviético en 1990 permitió la aparición de un poder mundial unipolar sin contrapesos. La supremacía que impusieron los Es­tados Unidos de América sobre el resto del mundo es incontestable des­de el punto de vista militar e ideológi­co y ha conducido a la humanidad, por las buenas o por las malas, hacia una globalización homogeneizante —lo cual no quiere decir que los pueblos de la Tierra tomen lo mejor los unos de los otros para enriquecer su acervo cultural—, más bien significa la forzo­sa aceptación de los estándares y valores estadounidenses. Esto se puede constatar todos los días en los medios electrónicos; la música, los deportes y el entretenimiento son importados del Norte. Un ejemplo claro es la exagerada exaltación de la vida sana. Esta pasión no tendría nada de malo si no fuera porque es promovida —casi impuesta— por compañías que logran pingües ganancias con la venta de bie­nes de consumo que la mayor parte de las veces representan un engaño to­tal: maquinitas o remedios para lograr una figura perfecta, un desempe­ño sexual extraordinario o bien curas para todos los males, incluida la mala suerte o el mal de amores. Como el li­beralismo económico y sus agentes po­líticos no entienden de ética o de mo­ral y su única finalidad es la ganancia inmediata, no es de extrañar que sea el mismo sistema el que, hipócritamente, provoca los transtornos que después pretende remediar. Por ejem­plo, la comida chatarra es el origen de muchos de los males, como la hiper­ten­sión, hipercolesterolemia y la obesidad, que después las medicinas chata­rra pretenden curar.

En la actual comercialización de la salud se encuentran métodos y téc­nicas tanto emergentes como tradicionales. El torbellino con el que nos atosigan los medios incluye la medicina biomagnética, la iridología, la ci­rugía psíquica, la alfabiótica, la aromaterapia y muchas otras. Valdría la pena discutir cada caso y ponerlos, de uno por uno, en su lugar, pero este en­sayo está dedicado a otros fines; aquí hablaremos de una teoría médica que tuvo una legítima razón de ser en sus orígenes pero que hoy es cues­tio­nada. Sin embargo, su génesis, histo­ria y filosofía, así como su importancia económica y la amplia aceptación que tiene en algunos estratos de la po­blación hace que valga la pena poner­la en la lente de una discusión desapa­sionada. Me refiero a la homeopatía.

La medicina en el siglo XIX

Pese al esfuerzo racionalista del enciclopedismo francés de finales del siglo XVIII, hasta bien entrado el XIX la medicina se manejó como un oficio más cercano a la brujería que a una ac­tividad científica. En la segunda mitad de ese siglo, científicos de la talla de Louis Pasteur, Claude Bernard y otros, sentaron las bases para su estudio sis­temático y contribuyeron para que la disciplina de Hipócrates y Galeno em­pezara a liberarse del lastre, que cargó durante siglos, de prácticas empíricas sin sustento en otra cosa que no fueran mitos y fábulas.
 
Al inicio del siglo XIX todavía se en­contraba vigente y muy en boga la teo­ría médica del equilibrio de los hu­mo­res fundamentales. Originada en al­gún sitio del Peloponeso alrededor del siglo vi antes de nuestra era, se ba­sa­ba en el supuesto de que los humores eran cuatro líquidos fundamentales del cuerpo humano: sangre, bilis negra, fle­ma y bilis amarilla. El dese­qui­librio de su balance era la causa de las enfer­medades, de los rasgos de la personalidad y del comportamiento social. La cosmovisión de la época incluso iba más lejos: los cuatro humores tenían su contraparte en otros aspectos de la naturaleza y todo formaba un cuadro coherente y completo. Por ejemplo, la sangre se asociaba con la primavera, el aire, el hígado, el comportamiento va­liente y amoroso, y tenía la sala­man­dra como tótem. Análogamente, los do­minados por la bilis negra son insomnes y abatidos —la palabra atrabiliario proviene del latín atra bilis que significa bilis negra, melancolía también quiere decir lo mismo pero por la ruta del griego melas, negro, y jolé, bilis. Los individuos con exceso de bilis amarilla serían coléricos e intole­rantes y, por último, los flemáticos se caracterizan por la desidia y la falta de emociones. Curiosamente, lo que hoy llamamos humor —el sentido hu­mano de percepción de la diversión y la propensión a la risa— proviene de la clasificación hipocrática; eran los individuos sanguíneos los que tenían mejor humor.
 
En estricta consecuencia con estas ideas, la práctica médica de la época intentaba mantener el equilibrio de los humores mediante métodos que en nuestro tiempo bondadosamente podríamos calificar como ligeramente brutales. Las sangrías —fueran median­te lanceta o con sanguijuelas— eran prescritas con frecuencia cuando se pensaba que el desequilibrio era cau­sa­do por el exceso de sangre, también eran prescritos según fuera el caso el uso de potentes eméticos —sustancias que provocan el vómito—, lavativas, enemas o emplastos altamente tóxicos de compuestos de mercurio o cro­mo. Si bien estos métodos se han aban­donado casi totalmente, en su épo­ca po­dían constituir buenas soluciones por malas razones. Por ejemplo, en casos de hipertensión o de po­liceturia, los pacientes sometidos a sangrías podían tener una notable me­jora sintomática que no se debía al equi­librio de los humores sino al efec­to mecánico del sangrado o a la consecuente disminución de eritrocitos en la sangre.

Para terminar de iluminar la escena de la medicina de finales del siglo XVIII y principios del XIX, hay que tomar en cuenta que la mayoría de la población ni siquiera tenía acceso a estos horrores. Las grandes masas, con suerte, tenían que recurrir a barberos que ejercían su oficio y, simultáneamente, el papel de cirujanos o dentis­tas. Allí, entra en la historia el joven Samuel Hahnemann cuando ingresa en la universidad de Leipzig con el no­ble ánimo de estudiar medicina para aliviar el dolor de la gente.

Similia similibus curentur


Hahnemann nació en 1755, en el ­seno de una familia modesta de artesanos de la porcelana, en la ciudad sa­jona de Meissen. Trevor Cook, uno de sus más reputados biógrafos, afirma que “de niño, mostraba una notable aptitud pa­ra el estudio, destacando tanto en cien­cia como en lenguas extranjeras. Ha­bla­ba fluidamente inglés, francés, griego y latín”. En 1775 se matriculó en la es­cuela de medicina de la Universidad de Leipzig, misma que abandonó rápidamente pues sus instalaciones no le parecieron satisfactorias. De ahí pa­só a la Universidad de Viena, donde su estancia también fue breve —nueve me­ses— pues no pudo sostenerse eco­nómicamente. Gracias a la recomenda­ción de un profesor que le tomó apre­cio en la capital austriaca, consiguió un trabajo como médico y bibliotecario de un poderoso e influyente funciona­rio público en Hermannstadt —lo que ahora es Sibiu, Rumania. En este lapso tuvo tiempo y tranquilidad para de­­dicarse al estudio autodidacta en la bien provista biblioteca del funcionario, lo cual rindió frutos dos años des­pués cuando luego de cursar un se­mes­tre en la Universidad de Erlangen, en 1779 solicitó directamente el examen para obtener el título de médico presentando la tesis Conspectus adfectuum spasmodicorum aetiologicus et therapeuticus —algo así como “Observación acerca de las causas y tratamiento de los calambres”.
 
A partir de ese momento, no se ­sabe mucho de su vida —salvo que en 1782 contrajo matrimonio— hasta 1784 cuan­do se muda a la ciudad de Dresden. En este periodo —en el contexto de una medicina que normalmente agregaba a los males del paciente los deriva­dos de sus métodos y técnicas— Hahnemann se siente horrorizado de la prác­tica médica, abandona la medici­na y se labra una buena reputación co­mo traductor de textos científicos.

Ocupado en esta labor, en 1790 cae en sus manos el libro Materia Medica de William Cullen y mientras lo tra­du­ce, Hahnemann aprende que el au­tor recomienda la quinina como un re­medio contra la malaria. Poco convencido de las razones que expone Cu­llen, decide experimentar en su persona y someterse a pequeñas dosis de quinina durante periodos largos, lo que le produce fiebres intermitentes, que son síntoma de la malaria, y le sugiere el principio médico de simi­lia similibus curentur —los semejantes curan a los semejantes.

Después de años de intensa acti­vidad de recopilación y experimentación, en 1796 publica el Ensayo sobre un nuevo principio y regresa a la práctica de la medicina. En esta obra consolida su estudio sobre la quinina y lo extiende a muchas otras plantas y com­puestos minerales.

En 1804 se establece en la ciudad de Torgau sobre el río Elba —la cual ga­nó fama en la segunda guerra mundial pues ahí se encontraron por vez prime­ra los ejércitos soviético y estadouni­den­se cuando cerraban la pinza sobre lo que quedaba del Tercer Reich. En esta población reside siete años, lo que es todo un récord personal toman­do en cuenta que los doce anteriores se mu­dó de ciudad catorce veces. Se puede de­cir que Torgau es la cuna de la homeo­patía. Allí publica Fragmenta de viribus, seguido de la Medicina de la experiencia y posteriormente, lo que se considera su opera magna, El Or­ganon.

En 1812 regresa a Leipzig y consigue un puesto de profesor en la univer­sidad local. Desde esa posición inicia la propagación de su teoría de que lo se­mejante cura lo semejante. Esto es, si uno padece de fiebre, entonces el re­medio es tomar en dosis pequeñas la misma sustancia que la produce o si se presenta una alergia, pues entonces ha­brá que tomar una sustancia que la produzca —siempre en dosis pequeñas. Al principio, sus cursos tuvieron un gran éxito, pero Hahnemann acom­pañaba la exposición de su sistema mé­dico con ataques cada vez más virulentos contra el establishment médico, lo que le restó la confianza de sus cole­gas y después, la popularidad entre los estudiantes. Con el tiempo llegó al extremo de tener un grupo de sólo cin­co estudiantes y quedó en una posición muy frágil ante los ataques de sus colegas que, a la larga, lo obligaron a abandonar Lepzig. Entonces, tuvo la suerte de encontrar el mecenazgo del duque Ferdinando de Anhalt-Cöt­hen —la misma corte ducal que cien años atrás acogió a Johann Sebastián Bach—, quien esencialmente le permitió hacer en la ciudad de Cöthen lo que le viniera en gana, que en su caso consistía en preparar sus propias medicinas y realizar sus experimentos con tranquilidad.

En 1830 fallece su esposa y cuatro años más tarde se casa con Melanie d’Hervilly, una joven francesa cuarenta años menor que él. Por este ma­tri­monio se cambia una vez más de ciudad, la última. Se establece en París donde continúa su trabajo hasta que la muerte lo alcanza en 1843.

Una lágrima en el mar

¿En qué consiste exactamente el método homeopático de Hahnemann? La homeopatía es una doctrina producto de una intensa y prolongada re­flexión y sus postulados son claros: 1) ley de la similitud; 2) experimentación pura; 3) reglas de curación; y 4) dosis infinitesimal y medicamento único.

El primer punto afirma que en la naturaleza no existe nada que pueda dañar y que, a la vez, no pueda curar, pero exclusivamente aquello que la misma sustancia causó. La experimentación pura señala la imposibi­lidad de determinar con certeza, a prio­ri, el efecto de un medicamento so­bre una persona enferma. Puesto que se administran los semejantes, es imposible saber cuáles son los efec­tos o síntomas de la enfermedad y cuáles los del medicamento. En consecuencia, el método de experimentación homeopática tiene que realizarse exclusivamente en individuos sanos.

Las reglas de curación se refieren al tratamiento de las enfermedades siguiendo órdenes temporales y espaciales perfectamente bien especificados. La primera regla dice que la curación se produce de adentro hacia afuera, donde adentro quiere decir el plano mental y afuera las mucosas y la piel. Por ejemplo, si a un paciente se le somete a tratamiento por depresión y mejora, pero como consecuencia le surge una dermatitis, entonces esto es una clara indicación de que la curación va por buen camino, pues el nue­vo mal es más externo que el primero y esta dolencia se debe respetar si no se desea una regresión al cuadro ante­rior. Las demás reglas, son cua­tro en total, son semejantes y hablan de curar de arriba hacia abajo y del or­den temporal en el que van apareciendo las enfermedades.

El cuarto rubro —dosis infinitesimal y medicamento único— es el núcleo de la medicina homeopática y quizá el más difundido y el peor entendido. Se parte del supuesto, como lo dice la ley de la similitud, de que no hay sustancias inertes en la natura­leza. Pero para que alcancen el grado nece­sario para actuar sobre el organis­mo, tienen que ser sometidas a una pre­pa­ración física especial. En la prác­tica homeopática se emplean únicamente sustancias después de ser dinamiza­das, sistema de diluciones sucesivas que es el fundamento de la preparación de los remedios homeopáticos. Se toma una parte del compuesto esencial, que puede ser mineral, vegetal o animal, y se diluye en agua o en alcohol —cuando la sustancia es insoluble, se muele finamente y se mezcla con lactosa para su dilución—, se emplea la letra x, el número diez en romano, para representar la dilución a la que se llega después de mezclar una parte del original en nueve de agua. Este proceso puede repetirse va­rias veces. Una dilución 6x quiere de­cir que se realizó el proceso seis veces y que consecuentemente queda una parte del material original entre un mi­llón de partes de la dilución final, una dilución 30x quiere decir que la parte original es una entre uno seguido de treinta ceros. Análogamente, se emplean los numerales romanos c y m para representar las diluciones 1:100 y 1:1 000.

La segunda parte del proceso de dinamización de los remedios homeo­páticos es la sucusión o la manera co­mo se agita la mezcla después de cada paso de dilución. Tiene que agitarse vi­gorosamente golpeando el recipiente con la mano o con una pieza de cuero, y con un mínimo de cien enérgicas agi­taciones por minuto —hoy, este paso se hace mecánicamente. Una vez com­pletado el proceso puede hablarse de, por ejemplo, la primera dinamización centesimal (1c) o de la sexta dinamiza­ción decimal (6x) y así sucesivamente. Con el líquido resultante se impregnan unos glóbulos de azúcar y es ésta la presentación que recibe el paciente.

Hahnemann recomendaba y empleaba diluciones de 6x o de 24x y eso fue la norma durante mucho tiempo, hasta comienzos del siglo xx cuando James Tyler Kent, un médico estadou­ni­dense que pasó de la medicina aca­dé­mica a la homeopática y que tuvo gran influencia en el crecimiento de la homeopatía en su país y en Inglate­rra, emprendió una cruzada en favor de diluciones más altas y, dependiendo de la enfermedad, recomendaba con pasión, y en ocasiones con enojo y desdén hacia los médicos homeópatas que no seguían sus pasos, las diluciones 30c, 200c, 1m, 50m, cm, dm y mm.

La estructura molecular de la materia

Los filósofos materialistas griegos Leu­cipo de Mileto y su discípulo Demó­cri­to de Abdera, así como el romano Tito Lucrecio Caro, sugirieron que la materia estaba compuesta por átomos: pequeñísimas partículas cuyas carac­te­rísticas físicas determinarían las pro­piedades macroscópicas de los ob­jetos de nuestro mundo. El cristianismo temprano reprimió estas concepciones pues complicaba terriblemente las explicaciones sobre la composición del alma y el espíritu, conceptos centrales para la cosmogonía cristiana. Después de siglos, en el xviii Rud­jer Josip Bosco­vich, un jesuita croata estudioso de la astronomía y la física, enunció una teoría atómica coherente. Boscovich falleció en 1787, diez años después del nacimiento del inglés John Dalton, quien reunió evidencias incontestables en favor de que la materia se encuentra conformada por átomos, de manera que un tipo de áto­mo corresponde a un elemento y sus combinaciones dan lugar a los compuestos que forman las sustancias que encontramos alrededor nuestro. Aun así, durante algún tiempo hubo con­fusión entre lo que son los átomos y lo que son las moléculas. El último concepto lo propuso por primera vez Amedeo Avogadro, quien alrededor de 1811 mostró que cada litro de gas a 20 grados centígrados y una atmósfera de presión contiene una cantidad enor­me de moléculas —un diez seguido de 22 ceros.

Aunque nos parezca natural pensar en átomos y moléculas pues así fui­mos educados desde pequeños, la idea de que la materia está formada por los átomos y sus combinaciones que son las moléculas fue confrontada hasta inicios del siglo XX. Uno de los representantes más conspicuos de esa resistencia fue Ernst Mach, físico y filósofo austriaco asociado con la es­cuela del positivismo. La cuestión de la estructura de la materia quedó resuelta con los trabajos de Albert Eins­tein en 1905 y de Jean Perrin en 1911. Así, la materia se forma de molé­culas que son entes discretos muy pequeños pero que tienen una individualidad espacial única y se caracterizan por tener dimensiones físicas determinadas. Por ejemplo, una molécula de azúcar (glucosa) mide aproximada­mente un nanómetro, que es la milmillonésima parte de un metro.

Hagamos un ejercicio aritmético: veinte gotas de líquido hacen un mi­li­li­tro —un centímetro cúbico—, por lo tanto, tenemos 20 millones de gotas por metro cúbico. Por otra parte, si la mo­lécula de glucosa mide un nanó­me­tro, entonces —como los volúmenes van como el cubo de las dimen­sio­nes li­neales— hay un número igual a un diez seguido de veinte ceros de mo­léculas en una gota. Si esta gota la sometemos a una dilución homeopática de 30x, entonces hace falta un vo­lumen igual que un diez con treinta y nueve ceros de gotas para encontrar una molécula. Prosiguiendo el ejerci­cio, llegamos al resultado de que tal cantidad de go­tas ocupan un volumen igual al de una esfera de diez millones de kilómetros de radio. Resumien­do, después de una dilución 30x —muy baja para los gustos de Tyler Kent— existe una molécu­la del compuesto original en una esfera que tiene un radio semejante a la distancia del Sol a Venus, si de ahí sa­camos una gota pa­ra mojar nuestros chochitos de azúcar, es absolutamente seguro que no habrá ninguna molécula del compuesto original.

Entonces, si no queda una sola mo­lécula de la sustancia original en mis chochitos de azúcar, ¿qué es lo que cura de la homeopatía, si es que cura?

La memoria del agua

Una vez aceptada la naturaleza molecular de la materia —lo cual Hahne­mann nunca conoció— esta pregunta queda abierta y es polémica. Tenemos a teóricos de la homeopatía clásica, como el contemporáneo inglés Peter Morrell, que afirman que la homeopatía se basa en un agente llamado dynamis o fuerza vital. Según Mo­rrell, esta fuerza es la hipótesis de trabajo con la cual se explica cómo una sustan­cia potenciada —que no es del mundo físico— entra en contacto con la estructura física de un organismo y altera su estado. En sus palabras: “Pode­mos definir la fuerza vital como una nada. Una entidad invisible e intangible que manipula la sustancia del cuerpo y produce el fenómeno que llamamos vida. La fuerza vital es la fuer­za motriz y la organizadora de las moléculas. Es aquel agente que se encuentra en un organismo vivo y cla­ramente ausente en un cadáver. En la muerte, las moléculas pierden su organización y velocidad de movimiento. Ya se encuentra ausente la fuerza que las obliga a moverse en patrones con significado o que las une en una matriz armónica y bien coordinada. El cadáver carece de percepción o vo­luntad aunque todavía posee una bio­química estacionaria bastante sofis­ticada”.

Yo supongo que todo lector de la revista Ciencias levantará las cejas y emitirá alguna interjección más o menos altisonante ante esta perla de estulticia.

Desafortunadamente, más para mal que para bien, esta es la esencia de la homeopatía clásica. Los escritos de Hahnemann y de sus principa­les seguidores no difieren esencial­men­te del discuro de Morrell. No obstante, hay que intentar ser justos y analizar la obra de Samuel Hahnemann en su tiempo y su entorno, no podemos cul­parlo de pensar que la diferencia entre la materia viva y la inerte es una fuerza vital “sin peso, sin sustancia, invisible e imponderable” si todavía en pleno siglo xx el filósofo francés Henri Bergson —premio Nobel de lite­ratura en 1927— y su seguidor Gilles Deleuze argumentan en favor de la exis­tencia de este élan vital —de lo que Bertrand Russell hacía mofa diciendo que el élan vital explica tanto del fenómeno de la vida como el élan locomotrice lo hace del funcionamiento de una locomotora. Actualmente, las personas educadas no aceptan como explicación de algún fenómeno natural la existencia de sustancias que no se puedan ver, medir, oler, sentir ni de­tectar. Por lo que cualquier explicación que se busque del fenómeno de la homeopatía no puede ir por este camino.
La homeopatía en diskette

En 1988 aparece en la prestigiada re­vis­ta británica Nature un artículo cuyo título no presagiaba la tormenta que iba a desatar. Efectivamente, “Human basophil degranulation triggered by very dilute antiserum against IgE” po­dría pasar por ser uno de tantos artícu­los de inmunología accesibles úni­camente para los especialistas en el tema. Este reporte fue firmado por trece científicos, de los cuales, según los usos y costumbres de las publica­cio­nes en biología, el último es el investigador principal, quien se vio envuelto en apasionadas discusiones, descalificaciones y debates sin fin.

Nacido en París, Jacques Benve­nis­te fue un inmunólogo descendiente de una famosa y antigua familia ju­día de académicos e intelectuales con asiento en la histórica ciudad meridio­nal de Narbona, cuyos orígenes pueden rastrearse hasta la edad media. El punto medular del artículo es que este grupo de investigadores afirmaban que habían logrado activar la des­gra­nu­la­ción —la liberación de sustan­cias— de los leucocitos basófilos cuando los ex­ponían a dosis extremadamente dilui­das —homeopáticas— de anticuerpos. Los basófilos son células que responden a la presencia de agentes externos al organismo liberando una sustancia llamada histamina que, a su vez, produce cambios locales en el metabolis­mo de todas aquellas células que con­tienen los receptores adecuados; entre otras reacciones, la histamina puede producir dilatación de los vasos sanguíneos y reacciones alérgicas.

Benveniste y su equipo interpreta­ron su resultado como la transmisión de información biológica pese a la au­sencia de moléculas activas. En pocas palabras, el medio usado para la dilución homeopática podía provocar una reacción alérgica. No es difícil imaginar el revuelo que provocó este artícu­lo. Benveniste y su equipo tuvieron una enorme cobertura mediática: “Un descubrimiento francés que podría trastornar los fundamentos de la física: la memoria del agua”, tituló su nota, con buena dosis de nacionalismo galo, el periódico Le Monde en su edición del 30 de junio de 1988. Aquellos homeópatas honestos y no satisfechos con la hipótesis del élan vital creyeron encontrar la explicación científica de su disciplina. Aquellos escépticos, pero de buena fe, estuvieron dispuestos a conceder el beneficio de la duda. Sin embargo, el grueso del establishment científico se escandalizó ante algunas afirmaciones un poquito exageradas del propio Benveniste, como: “es como si usted metiera las llaves de su carro en el río Sena en París y luego descubre que si toma agua de la desembocadura —unos 400 kilómetros— ¡ésta tiene la información suficiente para echar a andar su carro!”.

Después de que varios laboratorios independientes no pudieron reproducir los resultados, la agitación llegó a tal grado que sir John Ryden Maddox, el editor en jefe de Nature, con entrenamiento formal en química, tuvo que pedir que el equipo de Benveniste repitiera el experimento en su presencia y de un equipo convocado y en­cabezado por él, que constaba de expertos en desenmascarar fraudes científicos. Los resultados fueron negativos. Intentos subsecuentes de reproducir el experimento en laboratorios independientes también fallaron. La revista Nature retiró el artículo de sus archivos y aunque Benveniste nun­ca se retractó, su prestigio sufrió un daño irreparable. Fue un buen investi­gador médico que alcanzó notoriedad por el descubrimiento de un factor de activación de las plaquetas en la sangre y llegó hasta la dirección de una unidad de investigación del Instituto Nacional de la Salud y de la Investiga­ción Médica de Francia, institución que se vio forzado a abandonar como consecuencia del escándalo. Falleció en 2004, de una afección cardíaca.

Uno de los integrantes del comité fue Jame Randi, un excéntrico millo­na­rio canadiense que en su juventud trabajó como escapista e ilusionista y en su edad madura se dedica a desen­mascarar casos de fenómenos paranormales o de pseudociencia. Es uno de los editores de la revista The Skeptical Inquirer. Después del affaire Ben­veniste, Randi ofreció un premio de un millón de dólares a quién pudiese demostrar la acción fisiológica de diluciones ultramoleculares. El reto fue recogido por Madeleine Ennis, profeso­ra de la Queen’s University de Belfast en 2001 y se montó cuidadosamen­te un experimento que fue supervisado por la Royal Society de la Gran Bretaña, por medio de su vicepresidente sir John Enderby, físico de profesión, y fil­mado paso a paso por la bbc. El expe­riento fue asistido por un equipo de médicos, expertos en estadística y el mismo Benveniste. Los resultados, de nuevo fueron negativos.

La puntilla al esfuerzo de Benvenis­te y sus seguidores por demostrar que el agua posee memoria, lo que a la lar­ga sería la explicación racional de la homeopatía, la dio un estudio patroci­nado por la Agencia de Proyectos de Investigación Avanzada de los Estados Unidos de América. El reporte final: “Can specific biological signals be digi­tized?” fue publicado recientemente en la muy prestigiada revista The faseb Journal. El estudio contó con la partici­pación de un impresionante equipo multidiciplinario que incluyó a Jacques Benveniste, quien no vivió lo su­ficiente para llegar a la conclusión negativa de la investigación.

Hasta donde llega la ciencia moder­na, la cuestión de la memoria del agua está completamente desechada. Así pues, la situación en octubre del 2006 es contundente: no existe mecanismo físico conocido que pueda explicar la acción de la homeopatía.

Sin embargo, bien pudiera suceder que ese mecanismo exista y que simplemente la ciencia contemporánea no haya sido capaz de detectarlo. Si se concede el beneficio de la duda a la homeopatía y aceptamos la premisa de que ese mecanismo existe y asimis­mo reconocemos nuestra actual incapacidad para explicarlo, se puede todavía recurrir a un método muy em­pleado por los médicos para los casos en los que se requiere probar la acción o falta de acción de algún medicamen­to; me refiero a los estudios clínicos. Son técnicas diseñadas para establecer una relación de causalidad entre la administración de un fármaco y sus consecuentes efectos cuando se desco­noce con precisión la acción fisiológi­ca de ellos o bien su actividad quí­mica o molecular. Uno de los protocolos más aceptados es el estudio aleatorio controlado, doble ciego y con control de placebo —del latín complacer. De manera muy sucinta, en estos estudios se elige una muestra de pacientes, a cada uno de ellos se le administra de manera aleatoria sea el medicamen­to que se prueba o un placebo. Ni los pacientes ni los investigadores saben cómo se hace la asignación —por eso se llama doble ciego.

Es necesario aclarar que este tipo de estudios normalmente se realizan para que algún fármaco nuevo consiga aprobación para ser comercializado. Esto quiere decir que la nueva droga ya pasó por toda una serie de experimentos previos, posiblemente incluyendo su prueba en animales de labo­ratorio, y que desde su diseño se sabe o se tiene fundada sospecha de para qué sirve. El estudio clínico proporciona una medida estadística de su efi­ciencia y de los posibles efectos secundarios.

En el caso de la homeopatía, los es­tudios clínicos tienen que ser particularmente cuidadosos pues ya sabemos que no hay mecanismos de interacción molecular involucrados y que no se puede deducir su eficiencia de leyes conocidas o de principios acep­tados. Por lo mismo, los estudios clíni­cos lo más que pueden hacer es comparar cuantitativamente, mediante métodos estadísticos, la respuesta de los pacientes que toman el remedio homeopático con los que reciben un placebo.

La cantidad de estudios clínicos que se han hecho para indagar si la ho­meopatía logra un nivel de curación por encima de lo que obtiene un placebo es enorme. Una investigación su­perficial en alguna base de datos —yo usé el PubMed— arroja cientos de artículos que reportan los resultados más encontrados y contradictorios. Afortunadamente, dentro de ese maremagnum existe un buen número de artículos de revisión. Recurrí a varios, en particular a uno que me pareció que destacaba por su profundidad, “A systematic review of sys­tematic reviews of homeopathy”, y cuyo autor, E. Ernst de la Universidad de Exeter, es un reconocido profesionista. Las con­clusiones de esta revisión ya no dejan lugar para dudas, la homeopatía no consigue efectos distinguibles del efecto placebo. En pocas palabras, no tiene efecto alguno sobre el organismo más allá de la sugestión y para to­do fin terapéutico es igual de eficaz que rezar un rosario.

Primum non nocere

Esta frase en latín, que con frecuencia es atribuida erróneamente a Hipó­crates, es la máxima fundamental de la medicina y se enseña a todo estu­dian­te durante su carrera: primero, no dañar.

La mayoría de la gente que yo co­noz­co opina que puesto que la ho­meo­patía no hace daño, más allá de la posi­ble autosugestión, se debería per­mitir que quien quiera recurra a esa práctica pues, después de todo, aunque el efecto placebo siga siendo un misterio para la ciencia ¿qué importa qué sea lo que haga que el paciente se sienta mejor mientras efectivamente se sienta mejor? Es difícil estar en contra de esta posición y diga lo que diga aquí y en otros foros, la gente se­guirá recurriendo a la homeopatía. Sin embargo, quiero llamar la atención sobre cuatro aspectos poco discutidos cuando se habla de homeopatía.

Primero, una práctica muy fre­cuen­te en la literatura científica es que los equipos de investigación, como regla general, únicamente reportan resultados positivos. Es muy difícil, casi imposible, encontrar un artículo que diga: “después de llevar a cabo cui­dadosamente el protocolo experimen­tal diseñado, los resultados fueron contrarios a lo esperado”. Aunque los resultados negativos tienen valor cien­tífico en sí, el investigador que los pu­blique —si es que se los publican— se suicida profesionalmente. Esta actitud desgraciadamente es la regla y es muy importante para el tema que nos ocupa pues en todos los reportes que consulté acerca de los supuestos efec­tos benéficos de la homeopatía, ningu­no tomó en cuenta el efecto placebo negativo, el cual en ocasiones es llamado respuesta nocebo, que se refiere a que un paciente que recibe una sus­tancia inerte también puede sentir­se mal por pura autosugestión. En re­su­mi­das cuentas, los artículos que es­tu­dian la supuesta eficacia de la ho­meo­pa­tía, no sólo no logran niveles distingui­bles del efecto placebo sino que nunca reportan efectos negativos, aunque es­tos sean por autosugestión.

Segundo, aunque ingerir un gló­bu­lo de azúcar no daña, el hacerlo en lu­gar de un medicamento con eficacia pro­bada en un caso grave sí lo hace. En esta situación, el daño que se le pro­voca al paciente es por omisión; bien pudiera ser que alguien tenga un cua­dro sintomático común —un dolor de ca­beza— que oculte un problema gra­ve. En ese caso, acudir a la medicina ho­meopática puede representar una pér­dida de tiempo fatal para el paciente.

Tercero, la industria homeopática se apartó por completo de la filosofía hah­nemaniana original y ya no es éti­ca­mente superior a la industria farma­céutica ortodoxa. Antes de escribir ­este ensayo, visité algunas farmacias homeopáticas y me llevé una tremen­da sorpresa; se vende árnica en prepa­ra­ción homeopática para la curación de inflamaciones y hematomas, cuando esa planta macerada o en infusión se usa exactamente para lo mismo. Es im­posible, según la teoría homeopática, que una planta tenga los mismos efec­tos en dosis homeopáticas y en prepa­ración macro. Consecuentemente, en dosis homeopáticas el árnica debería de provocar inflamación y hematomas. También encontré valeriana con­tra el insomnio, cuando debería de ser lo contrario; para dormir habría que to­mar cafeína en dosis homeopáticas. El problema de fondo es que la ex­ce­siva y poco ética comercialización de todo lo que tiene que ver con la salud no respeta principios ni tradiciones; cuando lo único importante es la ga­nan­cia, pueden vender cualquier cosa bajo una etiqueta de medicamento homeopático —o de los otros.

Por último, cuando realizan las di­namizaciones también entran en juego trazas de los compuestos de los que están fabricados los recipientes, tubos de ensayo, tapas, etcétera. ¿Cómo dilu­cidar el efecto del compuesto homeo­pático de las dinamizaciones de moléculas de óxidos de silicio del vidrio del frasco o de los compuestos orgánicos del corcho de la tapa y de todos los demás?

¿Qué hacer?

La gente seguirá recurriendo a la homeopatía y lo hará por razones pa­reci­das a las que orillaron a Samuel Hah­nemann a formular su teoría. La me­dicina en México —y en muchos lugares del mundo— en el siglo xxi es una actividad deshumanizada y sin valores. Si uno acude a los servicios públicos de salud, se encontrará mal­tra­tos, regaños, groserías, mala atención, escasez de medicamentos o mer­cado negro de ellos. Si se está entre el 5% de “afortunados” que pueden acudir a los servicios privados, la mala atención viene enmascarada detrás de una falsa sonrisa y acompañada de una factura que quita la respiración. Ante ello, no es de extrañar que se re­curra a las medicinas alternativas, lo que no quiere decir que las últimas tengan alguna validez o sirvan para al­go. De hecho, en su gran mayoría son un engaño y su finalidad es sacarle el dinero a la gente.

Es una verdadera lástima que la homeopatía no funcione pues las distorsiones de la medicina que provocaron su nacimiento son tan válidas hoy como lo fueron en el tiempo de Hahnemann. Se seguirá empleando, al igual que los medicamentos chatarra que se anuncian en la televisión, sin saber nada de su rica historia e ig­norando que surgió como un rechazo hacia un sistema de salud ineficiente, elitista y deshumanizado. También es una lástima que la comercialización de la homeopatía la lleve por el cami­no de la chatarrización.

Desgraciadamente, es difícil terminar este ensayo con una nota optimista; mientras sigamos teniendo en Mexico gobiernos nacionales que se desentienden de sus obligaciones en salud y en educación para favorecer las instituciones privadas sobre las públicas, las multitudes cuya lucha cotidiana es la supervivencia seguirán acudiendo al tipo de medicina que les pongan enfrente. Es triste que la gente desposeída sea acarreada por la propaganda televi­siva al consumo de medicamentos frau­du­lentos que caen en, al menos, dos ca­te­gorías: los populares que son los si­milares vendidos sin ningún control y cuya calidad es, en el mejor de los ca­sos, dudosa, y los medicamentos chatarra de costo elevado —como los de Genomma Lab— cuya venta constituye un crimen social pues al insul­to del precio se le agrega la burla del engaño.

Colofón

Samuel Hahnemann falleció de bronquitis en París en 1843. El amor lo lle­vó a radicar en la ciudad luz. Fue sepultado en el panteón de Montmartre y hubiera sido vecino de sepultura por la eternidad de Heinrich Heine y Théophile Gautier de no haber sucedido que una suscripción pública or­ga­nizada en los Estados Unidos reu­nió fondos para trasladarlo al más encum­brado cementerio del Pére Lachaise. El destino, siempre juguetón y capri­cho­so, quiso que su tumba se encuen­tre muy próxima de la de Joseph Gay-Lussac y casi vecina de la de Fran­çois-Vincent Raspail. El primero, impulsor de la teoría molecular de la materia y el segundo, un famoso revoluciona­rio francés que destacó por su partici­pa­ción activa y militante del lado repu­bli­cano en los sucesos del 48 en Fran­cia. La imagen política de Raspail opacó sus logros profesionales como médico. Como tal, preconizó la higiene y el uso de antisépticos. Fue un adherente a la teoría patogénica de las enferme­da­des, negada por Samuel Hahneman y sus seguidores.
Pedro Miramontes
Departamento de Matemáticas,
Universidad de Sonora.
Pedro Miramontes es profesor de tiempo completo del Departamento de Matemáticas de la Facultad de Ciencias de la unam. Integrante del Grupo de Biomatemática de la misma. Actualmente se desempeña como profesor en la Universidad de Sonora.
_______________________________________________________________

como citar este artículo

Miramontes, Pedro. (2007). Homeopatía: mitos y realidades. Ciencias 85, enero-marzo, 64-76. [En línea]
  ←Regresar al índiceartículo siguiente→
  1 12  
  del bestiario  
Las tribulaciones del tiranosaurio adolescente
 
 
Héctor T. Arita
conoce más del autor
   
       
HTML ↓ PDF Regresar al índiceartículo siguiente
       
       
La más profunda definición de juventud
es vida no afectada aún por la tragedia.

Alfred North Whitehead
 
 
 
Joseph Burr Tyrrell quedó es­tu­pefacto ante la noticia. Corría el año de 1884 y el joven ca­nadiense, recién graduado en artes por la Universidad de Toronto, recibía la encomienda de realizar un levantamiento geo­lógico en la región del río Red Deer, justo a mitad de ca­mino entre lo que ahora son las ciudades de Edmonton y Calgary, en la provincia de Alberta. Sin conocimiento cientí­fico previo, Tyrrell, apenas de 26 años, había participado en otras exploraciones en la región. Debido a cambios en la política canadiense de exploración y crecimiento, se había decidido impulsar el desarrollo de esa zona, y dentro de la es­tra­tegia para lograrlo se es­ta­ble­ció la importancia de realizar un reconocimiento en bus­­ca de riquezas geológicas. Tyrrell, pa­ra sorpresa suya, fue designado responsable de tal estudio.

La cuenca del Red Deer es una región inhóspita. La retirada de los glaciares hace unos cuantos miles de años de­jó al descubierto un terreno erosionado y difícil de explorar. Paradójicamente, es esa erosión la que ha dejado expuesto uno de los grandes te­so­ros de la zona: los afloramientos cretácicos ricos en inusitados fósiles de dinosaurios. La expedición de Tyrrell, que tuvo que realizar peligrosas travesías río abajo en frági­les balsas, dio fru­tos con el descubrimiento de res­tos del cráneo de un di­no­sau­rio, bautizado años después por Edward D. Cope como Albertosaurus sarcophagus (reptil carnívoro de Alberta). Posteriormente, Tyrrell renunció a sus encargos en la prospección geológica y se hizo millonario como administrador de varias minas de oro en Onta­rio. No obs­tante, su nombre se recuer­da aún en el Museo Tyr­rell de Paleontología, localizado en Drumheller, muy cerca del lugar de su gran hallazgo.
 
En la década de 1910, Bar­num Brown, del Museo Ame­ri­cano de Historia Natural de Nue­va York, realizó expediciones a lo largo del río Red Deer en balsas de gran tamaño, equi­padas para el trabajo paleontológico. Brown logró res­catar material de alto valor cien­tí­fico, que incluía restos de al menos diez individuos de Albertosaurus. Por ese mismo tiempo, ya se había logrado es­tablecer que los albertosau­rios eran pa­rientes cercanos de Tyrannosaurus, el dinosaurio carnívoro por excelencia.

A finales del Cretácico, ha­ce alrededor de 70 millones de años, Albertosaurus sar­co­pha­gus era el depredador más temible en los ambientes subtropicales de lo que ahora es el suroeste de Canadá. Era un tiranosaurio de talla “moderada”, lo que para estos gigan­tes­­cos depredadores significa ser una bestia de nueve metros de longitud, de unos tres o cua­tro metros de altura y de un peso de unas tres toneladas. En términos generales, la fisonomía de Albertosaurus era muy parecida a la de Tyrannosaurus: un dinosaurio bípedo, con corpulentas patas traseras y rudimentarias extremidades superiores, ridículamente pequeñas y dotadas de dos de­dos terminados en garras. Tenía una cabeza desproporcionadamente robusta, fuertemente armada con hileras de imponentes y afilados dientes propios de los carnívoros. Albertosaurus tenía un perfil más esbelto y grácil que el de Tyran­nosaurus. Aun así, es muy pro­bable que haya sido un muy poderoso de­predador capaz de sembrar el pánico entre los hadrosaurios, los dinosaurios de “pico de pa­to” con los que convivía.

En 1997, usando las notas de campo de un miembro de la expedición de Brown, se logró localizar el sitio de las ex­ca­vaciones, y entre 1998 y 2005 se logró el rescate de material procedente de un número inu­sitado de individuos de Albertosaurus. Los estudios de Philip Currie, de la Uni­versidad de Alberta, permitieron establecer que los fósiles conocidos correspondían a veintidos indi­viduos. Más aún, Currie pudo estimar la edad de cada individuo, examinando las líneas de crecimiento en las tibias y huesos del metatar­siano. Esta infor­mación, proveniente de un solo sitio y, pre­sumiblemente, de un intervalo de tiempo redu­ci­do (al­gunas semanas o meses), constituía una oportunidad úni­ca para ana­lizar la estructura de edades de una población de di­nosaurios, así como para especu­lar sobre los patrones de su­pervivencia con la edad.

La estructura de edades y la supervivencia de las poblaciones, tanto humanas como de plantas y animales, se estu­dian construyendo las llamadas tablas de vida. En ellas se tabula la proporción de individuos que pertenecen a dife­ren­tes categorías de edad, de ma­nera que se pueden calcular las tasas de mortalidad co­rres­pondientes a las diferentes fases de la vida del organismo en cuestión. Parece ser que los romanos del siglo iii a. de C. ya usaban tablas actuariales para calcular las necesidades ali­mentarias de acuerdo con el número de personas de diferen­tes edades. La prime­ra tabla de vida moderna fue construida por Edmund Halley, el astró­no­mo del cometa, en 1693, para una población polaca.

La primera tabla de vida cons­truida para un organismo no humano fue elaborada por Pearl y Parker, en 1921, para una población de la mosca de la fruta (Drosophila melanogas­ter) cultivada en laboratorio. No fue sino hasta 1947 que se logró tener datos similares para una población silvestre, cuando Edward Deevey construyó una tabla de vida para los borregos cimarrones (Ovis dalli) de Alaska. Deevey utilizó un método indirecto que consiste en recolectar restos de individuos muertos en forma natural y estimar la edad al mo­mento de la muerte. En el caso de los borregos cimarrones es posible calcular la edad con base en los patrones de crecimiento de los cuernos. Bajo al­gunos supuestos, como la no variabilidad en la estructura de edades, es posible construir tablas de vida completas usan­do datos como los de Deevey.

De hecho, eso fue lo que hi­zo un equipo de trabajo encabezado por Gregory Erickson, un ecólogo de poblaciones de la Universidad Estatal de Florida, con los fósiles de tiranosaurios de Alberta. De acuer­do con los datos de Erick­son y sus colaboradores, los al­bertosaurios tenían una ex­pec­tativa de vida máxima de unos treinta años. De hecho, se ha calculado que el individuo más longevo que se ha en­contrado tenía veintiocho años en el mo­mento de su muer­te.
Como su­cede con la mayoría de los ver­tebrados actuales, y par­ticularmente con los ovíparos, los albertosaurios muy jóvenes tenían una mortalidad muy alta. Erick­son y sus colegas cal­cu­lan que apenas entre 20 y 50% de los tiranosaurios alcan­za­ban la edad de dos años. Un albertosaurio recién salido del cascarón segura­men­te era tan vulnerable como la cría de cual­quier otro vertebrado coe­táneo.

Entre dos y trece años de edad, en cambio, los jóvenes ti­ranosaurios aparentemente gozaban de una vida tranquila y segura. La tasa de mortalidad anual era de apenas tres y me­dio por ciento. Es difícil pen­sar en algo que pudiera ser una amenaza mortal para un jo­ven e inquieto albertosaurio de un par de toneladas de peso. Pero como sucede en muchos casos, la adolescencia y el inicio de la actividad reproductiva traían como conse­cuen­cia la pérdida del paraíso infantil. En­tre catorce y veintitres años de edad, la tasa de mortalidad anual era de 23%.Erickson y co­laboradores especulan que el incremento en la mortalidad tenía que ver, en las hembras, con el estrés fisio­lógico de pro­ducir huevos y, en los machos, con la compe­tencia entre ellos por conse­guir parejas para la reproducción. Sea cual haya si­do la cau­sa, el hecho es que para los tirano­saurios la vida se hacía cada vez más difícil con los años, de manera que muy po­cos de ellos sobrevivían más allá de veinticinco años de edad.

Hace 70 millones de años los albertosaurios vivían y morían en los parajes semi­tro­pi­ca­les de lo que ahora es Canadá. La historia de sus vidas estuvo perdida en la inmensidad del tiempo, hasta que varios eones después la narrativa de su nacimiento, crecimiento y muerte fue develada por pe­que­ñas marcas en el material fosilizado de sus huesos. Hoy en día, otros seres nacen y mue­ren y, al igual que los tiranosaurios del Cretácico, parecen dominar su ecosistema. ¿Qué historias contarán sus restos fósiles dentro de 70 mi­llones de años?
Héctor T. Arita
Instituto de Ecología,
Universidad Nacional Autónoma de México.
Re­fe­ren­cias bi­blio­grá­fi­cas
 
Erickson, G. M., P. J. Currie, B. D. Inouye y A. A. Winn. 2006. “Tyrannosaur life tables: An example of nonavian dinosaur population biology”, en Science, núm. 313, pp. 213-217.
Hutchinson, G. E. 1981. Introducción a la ecología de poblaciones. Blume, Barcelona.
_______________________________________________________________

 

como citar este artículo

Arita, Héctor T. (2007). Las tribulaciones del tiranosaurio adolescente. Ciencias 85, enero-marzo, 26-29. [En línea]
  ←Regresar al índiceartículo siguiente→
1 12
     
Los colores invisibles de la astronomía
En este texto se describen los principales sucesos que llevaron a la incorporación del estudio del espectro electromagnético en la astronomía. El autor nos narra cómo el descubrimiento de las radiaciones invisibles estimuló el surgimiento de nuevos campos en la astronomía, que aún hoy continúan desarrollándose.
Luis F. Rodríguez
conoce más del autor
     
HTML ↓ PDF Regresar al índiceartículo siguiente
     
     
Los seres humanos siempre hemos ob­­servado los astros tratando de entenderlos. Inicialmente, sin la ayuda de ningún instrumento, utilizando el ojo para este propósito. Pero desde 1609, cuando Galileo apuntó su primitivo telescopio hacia la Luna, Satur­no, Jú­pi­ter y otros cuerpos cósmicos, esta he­rramienta se ha mejorado de manera dramática, proporcionando información cada vez más detallada de cuer­pos y fenómenos cada vez más remotos.

El estudio del Universo utilizando la luz, sea sólo con la vista o con teles­copios y otros detectores, constituye el campo de la astronomía clásica, sobre la cual se fundamenta buena parte del conocimiento que tenemos del Universo. Pero la luz únicamente es un componente de un fenómeno mucho más amplio, el espectro electromagnético.

En efecto, a mediados del siglo xix los estudios del físico escocés James Clerk Maxwell dejaron claro que la luz era parte de algo más grande. Como to­das las cosas importantes, la luz tiene varias descripciones. Aquí la visua­lizaremos como una forma de energía que viaja por el espacio a gran velocidad, aproximadamente 300 000 kiló­me­­tros por segundo. Más aún, po­demos describir esta energía como existente en forma de ondas electromagnéticas, que quedan caracterizadas principalmente por su longitud de onda —es de­cir, la separación entre dos crestas consecutivas de la onda—, la cual determina el “color” de la luz visible.

Por ejemplo, si la longitud de la on­da es de alrededor de 0.55 micras —que son una millonésima de metro—, el ojo humano la capta como de color ver­de y, así, cada color es producido por un intervalo de longitud de onda. Pero si es menor que 0.38 o mayor que 0.74 micras —lo que respectivamente corresponde al extremo violeta y al ro­­jo del espectro visible—, el ojo humano simplemente no la detecta. En otras palabras, fuera de este intervalo de longitudes de onda, la ra­diación electromagnética no es visible para nosotros. Metafóricamente, son colores in­vi­sibles.

El prisma de Newton

En 1666, Isaac Newton realizó un im­por­tante descubrimiento que se ha representado románticamente en algunas pinturas: en un cuarto intencio­nalmente oscurecido, un angosto rayo de Sol penetra a través de un agu­jero en la cortina. Un joven y apuesto New­ton sostiene un prisma que intersecta la trayectoria del rayo de luz. El mila­gro ocurre; del otro lado del prisma surge, transfigurado, el rayo de Sol que de originalmente blanquecino se ha transformado en un abanico de colores, en un pequeño arco iris artificial.

Por supuesto, el mérito de New­ton no fue jugar con un prisma y la luz del Sol para producir pequeños ar­cos iris, efecto conocido desde siglos atrás, sino ofrecer una explicación de lo que observaba. Newton propuso que la luz no era simple y homogénea, co­mo se creía hasta entonces, sino que estaba compuesta de distintos colores y que el prisma los afectaba de di­ferentes ma­neras, desviándolos en diversos án­­gu­los y permitiéndonos así distinguir uno del otro. Al abanico de colores que se formaba al pasar un rayo de luz por un prisma, Newton lo bautizó con el nombre de espectro. Al atravesar el pris­ma, de acuerdo con su longitud de onda —o su color—, la luz se desvía un ángulo diferente, con el violeta desviándose más que el azul, éste más que el verde y así sucesivamente.

El color de las estrellas

Para el astrónomo, el color de una es­trella proporciona información sobre su temperatura. En una primera apro­ximación, las estrellas emiten como un cuerpo negro, siguiendo la ecuación de Planck —la cual relaciona la energía y la frecuencia. La radiación de cuerpo negro tiene su máximo en una longitud de onda que va inversamente como la temperatura del cuerpo —relación que es conocida como la ley de Wien. De este modo, las es­tre­llas rojas son relativamente frías, mien­tras que las azules lo son calientes. La estrella Antares, que tiene una temperatura superficial de 3 400 grados Kelvin, es roja, mientras que la estrella Spica, con una temperatura superficial de 23 000 grados Kelvin, es azul. Nuestro Sol, cuya temperatura superficial es de 5 800 grados Kelvin, es intermedio entre las dos anteriores, se ve amarillo. En realidad, la mayoría de las estrellas en el cielo sim­plemente se ven blancuzcas, porque la luz que nos llega es muy poca, insuficiente para excitar los conos de la retina —que son los fotorreceptores sensitivos al color— y sólo excita los bastones, que no son sensitivos al color. Ca­si todas las estrellas se ven así por la misma razón que aquello que dice el refrán: “de noche, todos los gatos son pardos”.

Por supuesto, los astrónomos po­de­mos medir con bastante exactitud la forma del espectro de emisión de las estrellas y determinar la temperatura con precisión, pero el color por sí solo nos da una idea. Es interesante que esta relación entre el color y la temperatura era conocida y utilizada desde hace mucho por los herreros y forjadores de metales que la empleaban para estimar a ojo la temperatura del metal que estaban calentando. En este contexto, cuando un astrónomo ha­bla de una estrella azul quiere decir una caliente y cuando habla de una ro­ja, es una fría.

Recientemente se descubrió un nue­vo tipo de cuerpos que están entre las estrellas y los planetas. Son muy fríos en el contexto de la astronomía estelar —tienen temperaturas de apenas alrededor de 1 000 grados Kelvin— y se les bautizó como enanas marrón —en inglés brown ­dwarfs. Lo de enanas es por su tamaño relativamente pequeño y lo de marrón porque a su temperatura casi no emiten luz visible y se verían oscuras. Si bien estos cuerpos, más grandes que los planetas y más pequeños que las estrellas, al inicio de su vida pueden tener procesos termonucleares en su interior —como lo hacen las estrellas normales—, no logran mantenerlos y después se comportan casi como planetas, sin fuente propia de energía. En Mé­xico, en ocasiones las llamamos ena­nas cafés, pero para no confundir el color con la bebida, quizá el término marrón sea más apropiado. Por otra parte, con lo de que “de noche, todos los gatos son pardos”, quizá las deberíamos de llamar enanas pardas —lo cual creo que es el caso en algunos paí­ses de habla castellana.

Entonces, si un cuerpo es muy frío o muy caliente, por la ley de Wien emi­tirá la mayor parte de su radiación elec­tromagnética fuera del inter­valo de los colores tradicionales y será invisible para nosotros o al menos, muy difícil de detectar. Si es muy frío será más rojo que el rojo y si es muy caliente, más violeta que el violeta. ¿Có­mo llamarle a estos colores invi­sibles?

El espectro electromagnético

Podemos pensar en la parte visible del espectro electromagnético como en un piano. Del lado izquierdo están los sonidos graves, de longitud de onda larga —que equivaldrían al rojo— y del derecho están los sonidos agudos, de longitud de onda corta —que re­presen­tarían el azul. Imaginemos ahora que el piano se extiende infinitamente, tan­to hacia la izquierda como hacia la derecha. Al apretar las te­clas que están más allá de las del piano normal, ya no captaríamos los sonidos por encon­trarse fuera del intervalo de audición del oído humano. Lo mismo pasa con la radiación electromagnética. El ojo humano sólo per­cibe la parte visible, pero construyen­do los detectores adecuados se puede captar y detectar el resto del espectro electromagnético.

Como era de esperarse, fueron as­tró­nomos y físicos los que descubrieron los colores invisibles que colindan con el intervalo de radiación visible. En 1799, el astrónomo británico Sir Wi­lliam Herschel realizó unos sencillos experimentos que indicaban la exis­tencia de radiaciones invisibles. Luego de haber formado un espectro con la luz solar, Herschel tomó un ter­mómetro y lo fue colocando en la zo­na de cada uno de los colores, la tem­pe­ra­tura subía al absorber la energía con­tenida en la luz solar, aumentaba al ir hacia el extremo rojo del espectro. Con una brillante intuición, Hers­chel colocó el termómetro antes del color ro­jo, donde no llegaba luz visible. La co­lumna de mercurio se elevó aún más que en el rojo. Entonces, ha­bía una forma de energía invisible an­tes de este color. A esta radiación se le lla­ma infrarroja, por encontrarse por de­bajo del rojo.

Al año siguiente, en 1800, Johann Wilhelm Ritter descubrió que también había una radiación invisible más allá del otro extremo del espectro vi­si­ble. Esta nueva radiación tenía el po­der de ennegrecer el cloruro de pla­ta de las placas fotográficas de antaño, con ma­yor efectividad que la luz visible. ¿Cómo bautizar este nuevo co­lor? Ra­diación ultravioleta, desde lue­go, por encontrarse más allá del color vio­leta.

Por conveniencia y tradición, en la actualidad se acostumbra dividir el espectro electromagnético en seis ban­das, que en orden decreciente de longitud de onda son: radio, infrarrojo, vi­sible, ultravioleta, rayos X y rayos ga­ma. Estas ondas tienen propiedades muy similares —por ejemplo, están descritas por las ecuaciones de Max­well y, en particular, todas viajan a la velocidad de la luz— pero difieren en su longitud de onda.

Por supuesto, la más familiar de las bandas del espectro electromagné­tico es la de la luz visible. Pero las ra­dia­ciones invisibles cada vez son más comunes por la aplicación de la tecno­logía en la vida diaria. Todos tenemos aparatos que captan ondas de radio, y las aplicaciones médicas de los rayos X y los rayos gama también nos son familiares. Los hornos de microondas utilizan ondas de radio para ca­len­tar los alimentos. Las ondas ultravioletas del Sol son las que broncean nuestra piel. La radiación infrarroja es de utilidad en ciertos tratamientos de rehabilitación médica. Los colores invisibles de Herschel, Ritter y Max­well son ya parte de nuestra vida diaria e inclusive han encontrado múltiples aplicaciones prácticas.

Las rayas espectrales

Además de la emisión de banda ancha que caracteriza un cuerpo negro, los átomos y moléculas que hay en los astros emiten y absorben radiación elec­tromagnética a longitudes de onda muy bien definidas, produciéndose las rayas espectrales que son general­mente muy angostas en el intervalo de lon­gitud de onda en el que están pre­sen­tes. Por ejemplo, el átomo de calcio tiene dos rayas espectrales a 0.39685 y 0.39337 micras en la zona del color violeta. Otra raya espectral muy im­por­tante proviene del hidrógeno y está a 0.65628 micras en el rojo. También hay rayas espectrales de importancia para la astronomía fuera del intervalo visible. A 1.3483 centímetros, en la ban­da de radio, está la línea del vapor de agua, y en todas las bandas encontramos rayas espectrales que proporcionan información de la composición química y de las condiciones físicas —como temperatura, densidad o grado de ionización— de los objetos estudiados. Como estas lon­gitudes de onda son tan precisas, la presencia de rayas usualmente nos dice inequívocamente que tal o cual elemento está pre­sente en el astro es­tudiado.

Corrimiento Doppler

Pero la situación de las rayas espectra­les se complica cuando consideramos que los astros tienen movimientos re­lativos a la Tierra, en ocasiones de muy alta velocidad. Por el efecto Dop­pler, si un cuerpo se acerca a nosotros, la lon­gitud de cualquier onda que emita —sea radiación electromagnética o so­nido— se acorta, mientras que el efec­to contrario se presenta si el cuerpo se aleja de nosotros. Entonces, una on­da que tiene un color en el marco de referencia del cuerpo que la emite, pue­de verse de otro color por un observador en reposo. Los astrónomos decimos que la radiación “está corrida al rojo” si el cuerpo se aleja de nosotros, o bien, “corrida al azul” si se acerca.

Esta designación se emplea aun cuan­do nos refiramos a ondas fuera del intervalo visible, donde en realidad su uso no tiene sentido. Si estudia­mos ondas de radio, decir que una raya es­pectral está corrida al rojo, significa que tiene una longitud de onda ma­yor que la que mediríamos en el mar­co de referencia del emisor. Es la con­vención, aun cuando una señal de ra­dio “corrida al rojo” —del espectro visible— tendría en principio una lon­gitud de onda más corta que la que mediríamos en el marco de referencia del emisor. Una de tantas inconsistencias con las que vivimos todos los científicos.

En 1929, el astrónomo estaduni­den­se Edwin Hubble comenzó a estudiar las galaxias externas a la nuestra. La luz que de ellas nos llega es la suma de la luz individual de muchísimas estrellas, lo cual confirma que son cuerpos celestes similares a nuestra Vía Láctea. Pero pronto quedó claro que tenía una característica extraña: estaba sistemáticamente corrida al ro­jo. De estas observaciones del cambio de color de la luz de las galaxias de­rivó uno de los descubrimientos más grandes de la humanidad, el que el Uni­verso está en expansión, de modo que las galaxias se alejan las unas de las otras.

El hecho de que el movimiento re­lativo entre el objeto emisor y el ob­ser­vador cambia el color de lo emitido queda bien reflejado en la novela Hacedor de estrellas de Olaf Stapledon, donde el protagonista inicia un viaje interestelar a gran velocidad y nos dice: “Al cabo de un rato, noté que el Sol y todas las estrellas vecinas eran rojas. Las del polo opuesto del cie­lo eran en cambio de un frío azul. En­ten­dí rápidamente el extraño fenó­me­no. Yo estaba viajando aún, y viajando a tal velocidad que la luz misma no era indiferente a mi paso. Las ondas de los astros que quedaban atrás tarda­ban en alcanzarme. Me afectaban por lo tanto como pulsaciones más lentas que lo normal y las veía como rojas. Las que venían a mi encuentro, en cam­bio, se apretaban y acortaban y eran visibles como una luz azul”.

Por cierto, Stapledon comete el pe­queño error de asociar el azul con lo frío —“de un frío azul”—, cuando en realidad es lo opuesto, lo caliente.

Un caso extremo de corrimiento al rojo lo presenta la llamada radiación cósmica de fondo. Cuando se pro­du­jo, hace 13 700 millones de años, el Uni­verso estaba a 3 000 grados Kelvin y la longitud de onda típica de esta radia­ción era como de una micra. Por la ex­pansión del Universo, ahora la de­tec­tamos con longitudes de onda típicas de un milímetro, es decir, mil veces ma­yor que la original. Hoy, la ra­dia­ción cósmica de fondo tiene la forma prácticamente perfecta de un cuerpo negro con temperatura de 2.725 grados Kelvin, pero su temperatura original era mil veces mayor.

La primera de las astronomías invisibles

Hace un siglo, en 1901, prácticamente todo el conocimiento astronómico provenía de la observación de la luz visible que emiten los astros. Durante el siglo xx ocurrió una ampliación dra­mática en nuestra capacidad para estudiar el Universo gracias a la ob­serva­ción en las otras cinco bandas, hasta entonces inexploradas, del espectro electromagnético.

La exploración del Universo en las bandas invisibles la inició Karl Gu­the Jansky en la década de los treintas. Na­cido en 1905, en el estado de Okla­ho­ma de los Estados Unidos, en el se­no de una familia de raíces europeas —su padre era de origen checoeslova­co y su madre, francés e inglés—, Jans­ky estuvo desde su niñez inmerso en una atmósfera con marcadas in­fluen­cias científicas y de ingeniería. Se reci­bió de físico en 1927 en la Universidad de Wisconsin y al año siguiente empezó a trabajar en los importantes laboratorios Bell, en sus instalaciones de Cliffwood, New Jersey. Su jefe, Ha­rald Friis, de inmediato le enco­mendó trabajar en el problema de la estática que se recibía en las bandas de radio y que dificultaba la comunica­ción trasatlántica. En aquel entonces esos laboratorios eran la institución encargada de la investigación de la com­pañía de teléfonos Bell y trataban de entender por qué había estática que interfería con las comuni­ca­cio­nes radiotelefónicas entre América y Europa. Obviamente, era un área con gran futuro comercial y había gran in­terés en dominarla tecno­ló­gi­ca­mente.

Para investigar el problema, Jans­ky construyó una antena con su respectivo sistema de recepción que cap­taba ondas electromagnéticas con longitud de onda de 15 metros. La an­te­na de Jansky tenía una importante ca­racterística: estaba montada sobre una estructura que podía girar como un carrousel y que le daba la capacidad de apunte. Es decir, Jansky podía de­terminar de qué región del horizon­te provenían las señales que recibía. Pron­to notó que una importante fuen­te de estática eran las tormentas eléctricas, tanto las cercanas como las lejanas. En efecto, todos hemos tenido la experiencia de que los relámpagos producen un ruido en un receptor co­mercial de radio.

Pero además de esta interferencia de origen natural y terrestre Jansky de­tectaba, como luego reportaría por escrito, “una estática constante, como un siseo, cuyo origen es desconocido”. Con la tenacidad que lo caracterizaba, continuó estudiando el problema has­ta que pudo determinar que la mis­teriosa estática alcanzaba su mayor intensidad cuando su antena apun­ta­ba hacia cierta región en el cielo. Era el centro de nuestra galaxia, la Vía Láctea.

Jansky reportó su descubrimiento el 27 de abril de 1933 en una po­nen­cia titulada “Perturbaciones eléctricas de origen aparentemente extraterrestre”, la cual presentó en una sesión de la Unión Internacional de Radiociencia en Washington. Si bien estos resultados no despertaron gran interés ahí —en una carta a su padre, Jans­ky se queja de que el auditorio esta­ba somnoliento—, el departamento de pren­sa de los Laboratorios Bell pre­paró un resumen que hizo llegar a los más importantes periódicos, y así a los pocos días, el 5 de mayo de 1933, uno de los encabezados del New York Times decía: “Ondas de radio provenientes del centro de la Vía Láctea”, seguido del resumen. Uno hubiera es­perado que esta noticia despertara gran interés en la comunidad as­tro­nó­mica de la época, pero no fue éste el caso. Los astrónomos de entonces estaban familiarizados con las propiedades de la luz, con los telescopios y las placas fotográficas, pero se sentían totalmente incómodos en un medio en el que se hablaba de on­das de radio, antenas y receptores. Ade­más, por ra­zones ajenas a su con­trol, Jansky tuvo que abandonar esta área de investigación. A pesar de su insistencia en continuar trabajando en el problema de la “estática estelar”, su jefe le encargó otras tareas. Después de todo, Jansky había cumplido en identificar el origen de las distintas formas de es­tática que dificultaban las telecomuni­caciones y Friis pensó que no corres­pondía a ellos, prácticos ingenieros de una compañía telefónica en medio de la gran depresión, el continuar dedicando re­cursos a un problema que tenía carac­terísticas de pertenecer a la ciencia pura.

Pero la semilla ya estaba sembrada y pronto germinó. Al final de la se­gunda guerra mundial, con equipo de radar de desecho, grupos de in­ves­ti­ga­dores en Inglaterra, Holanda, Aus­tra­lia, la Unión Soviética y Canadá, en­tre otros países, comenzaron a construir radiotelescopios y a refinar lo que Jans­ky había iniciado. Ahora, la ra­dio­astronomía es un área importante de la astronomía e inclusive se han en­tregado tres premios Nobel en física a radioastrónomos. En 1974, lo re­ci­bieron Antony Hewish y Martin Ryle por el descubrimiento de los pul­sares —el primero— y por el desarrollo de la técnica de síntesis de apertura —el segundo. En 1978, les tocó a Robert W. Wilson y Arno Penzias por el des­cu­brimiento de la radiación cósmica de fondo. Finalmente, en 1993 lo reci­bieron Russell A. Hulse y Joseph H. Taylor Jr. por el descubrimiento del pulsar binario, lo cual ha permitido po­ner a prueba ciertas predicciones de la relatividad general.

En una primera aproximación, la radioastronomía es la astronomía del Universo frío —recordemos la ley de Wien. Fenómenos como las nubes mo­leculares y el polvo cósmico nos proporcionan información de com­po­nen­tes muy fríos del Cosmos. En general, los procesos de formación de galaxias y de estrellas inician en regiones frías y la radioastronomía ha brindado información muy valiosa. Hay fenómenos de muy alta energía que emiten fuerte­mente en ondas de radio. Quizá el me­jor ejemplo sea la radiación sin­cro­tró­nica, que se produce cuando elec­trones moviéndose a velocida­des relativistas en un campo magnético emiten copiosamente ondas de radio. Este tipo de radiación ha permitido estudiar objetos como las radiogalaxias, los pulsares y distintos ti­pos de estrellas.

La astrofísica de altas energías

Después de la segunda guerra mundial, hubo gran interés en comenzar a explorar astronómicamente las regiones de altas energías del espectro, ¿emi­tirían los astros rayos x y rayos gama? Del considerable conocimiento acumulado en los inicios del siglo xx, que­daba claro que las estrellas más o menos normales como el Sol, no serían fuentes significativas de rayos x o gama puesto que prácticamente emiten casi toda su energía en el infra­rrojo, visible y ultravioleta. Para que hubiera una astronomía de altas ener­gías, tendría que haber en el Universo astros de naturaleza distinta a los que entonces se conocían.
 
Una limitante crucial al estudio en las otras bandas del espectro elec­tromagnético es que la atmósfera sólo es transparente —o sea, deja pa­sar— para la luz, parte del infrarrojo y las ondas de radio, pero es opaca —o sea, no deja pasar— para las otras ra­dia­cio­nes.

Entonces, no es fortuito que la se­gunda astronomía en desarrollarse fue­ra la radioastronomía, porque como la astronomía visible, se puede rea­lizar desde la superficie de la Tierra. Pa­ra observar el Universo en las otras radiaciones era necesario elevarse por encima del manto protector de nuestra atmósfera. La astrofísica de altas energías tuvo que esperar el desarrollo de la tecnología espacial para poder realizarse.

En 1960, un grupo de estadounidense encabezado por Riccardo Giacconi, Herbert Gursky, Frank Paolini y Bruno Rossi envió un cohete que por unos minutos estuvo por encima de la atmósfera terrestre y que trataría de detectar rayos x provenientes de la Luna. Habían supuesto que la Luna podría absorber y reemitir parte de los rayos x que le llegaban del Sol. Para su gran sorpresa, detectaron una fuen­te muy intensa de rayos x en la constelación del Escorpión, en una po­sición distinta a la de la Luna. Esta fuen­te era mucho más intensa de lo que es­peraban que fuese la Luna. Más aún, seguramente se encontraba fuera del Sistema Solar y esto quería decir que la fuente era intrínsecamente muy luminosa en los rayos x. De hecho, si suponían que el objeto emisor de rayos x era una estrella colocada en el centro de nuestra Galaxia, resul­ta­ba ser cien millones de veces más in­tensa en los rayos x que nuestro Sol. Varios grupos comenzaron a lanzar co­he­tes con detectores de rayos x, encon­trando algunas nuevas fuentes, pero el verdadero alcance e im­por­tan­cia de la astronomía de rayos X sólo que­dó claro con la construcción del pri­mer satélite dedicado a los rayos X, el cual fue puesto en órbita el 12 de diciembre de 1970 y se le bautizó con el nombre de uhuru. La misión de es­te satélite duró poco más de dos años —pasado cierto tiempo, los fluidos que lleva el satélite para distintos usos se agotan y la electrónica comienza a fallar y el satélite “muere” quedando en silenciosa órbita alrededor de la Tierra—, al final de los cuales produjo un ca­tálogo de más de 300 fuentes cósmi­cas de rayos X. La mayoría caía en una de las cuatro categorías siguien­tes: 1) sistemas de estrellas binarias, 2) remanentes de supernova, ambos ti­pos de objeto en nuestra Galaxia, 3) las llamadas galaxias activas y 4) los cúmulos de galaxias. Si bien los cuatro tipos de objetos se conocían con an­terioridad, la presencia de emi­sión de rayos X reveló nuevas facetas de ellos. En todos, la emisión de rayos x provie­ne de gas que se ha calen­tado, por dis­tintos procesos, a tempe­ra­turas enor­mes, de decenas de millones de grados Kelvin o más.
 
En 2002, Riccardo Giacconi recibió 50% del premio Nobel de física por su papel en el descubrimiento de fuentes cósmicas de rayos x. En realidad, en este caso el premio reconocía la la­bor de cientos, si no es que miles, de personas que creyeron en Giacconi y que trabajaron por décadas con él en la construcción de enormes y costosos satélites, verdaderos observatorios en órbita, que permitieron esos descubrimientos.

En la actualidad, existe investigación astronómica en todas las ventanas del espectro electromagnético y gracias a estos colores invisibles, sabe­mos que el Universo es mucho más di­verso e interesante de lo que se creía hace unas décadas. Con el conoci­mien­to cada vez más detallado de la radiación electromagnética que proviene del Cosmos, la astronomía comienza a volver los ojos hacia dife­rentes formas de energía, como los neutrinos y la radiación gravitacional, para continuar avanzando en el en­ten­dimiento de nuestro Universo.
Luis Felipe Rodríguez
Centro de Radioastronomía y Astrofísica
Universidad Nacional Autónoma de México
Luis Felipe Rodríguez es físico por la Facultad de Ciencias de la unam y Doctor en Astronomía por la Universidad de Harvard. Es el iniciador en nuestro país de la radioastronomía y autor de numerosos trabajos científicos y de divulgación. Actualmente es Director del Centro de Radioastronomía y Astrofísica de la unam, en el campus de Morelia, Michoacán.
_______________________________________________________________

 

como citar este artículo

Rodríguez, Luis Felipe. (2007). Los colores invisibles de la astronomía. Ciencias 85, enero-marzo, 40-48. [En línea]
  ←Regresar al índiceartículo siguiente→
Está aquí: Inicio Búsqueda Titulo revistas revista ciencias 85
Universidad Nacional Autónoma de México
Facultad de Ciencias
Departamento de Física, cubículos 320 y 321.
Ciudad Universitaria. México, D.F., C.P. 04510.
Télefono y Fax: +52 (01 55) 56 22 4935, 56 22 5316


Trabajo realizado con el apoyo de:
Programa UNAM-DGAPA-PAPIME número PE103509 y
UNAM-DGAPA-PAPIME número PE106212
 ISSN:0187-6376

Indice-RM

Responsable del sitio
Laura González Guerrero
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
 

Asesor técnico:
e-marketingservices.com
facebooktwitteryoutube

cclCreative Commons License
This work is licensed under a Creative Commons
Attribution-Noncommercial-Share Alike 3.0 United States License