revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
R47Articulo06   menu2
índice 47 
siguiente
anterior 
PDF
   
   
Jerjes Pantoja Alor
     
               
               
Geología del espacio, geología espacial o geología planetaria
son términos híbridos recientes, cuyo uso actualmente es muy común entre los geólogos, y sirven para designar aquellos estudios sobre rocas y minerales extraterrestres, así como conceptos, técnicas y fenómenos del espacio que se relacionan con el estudio de la Tierra. Durante la III Conferencia Latinoamericana de Geofísica Espacial se acordó por consenso general, denominar “geofísica espacial” a la ciencia que estudia en forma completa y profunda el espacio circunterrestre, el medio interplanetario, las envolturas de planetas y cometas, y la variabilidad solar y sus efectos sobre la Tierra. Numerosos grupos científicos latinoamericanos realizan estudios con instrumentos emplazados en la superficie y en satélites, así como en globos y cohetes sonda, cuyos resultados son objeto de reconocimiento internacional.
 
De hecho, como disciplina científica la geología espacial tiene una larga trayectoria, que se inició con la recolección y estudio de los meteoritos, el análisis químico de los fragmentos y de la geomorfología y características físicas de los cráteres de impacto causados por ellos. Sin embargo, su auge es reciente; y toma fuerza a mediados de los cincuenta a raíz de la realización de diferentes investigaciones auspiciadas por la NASA, que culminaron con el Proyecto Apolo, y han continuado con la sofisticada información proporcionada por varias sondas enviadas a diferentes cuerpos del Sistema Solar. En la Universidad Nacional Autónoma de México se realizan investigaciones de geología y geofísica espacial en las siguientes instituciones: Instituto de Astronomía, Instituto de Ciencias de la Atmósfera, Instituto de Geofísica e Instituto de Geología.
 
El proyecto Apolo
 
Cuando Neil A. Armstrong y Edwin Aldrin Jr., plantaron las botas de sus trajes espaciales en la superficie lunar, hace 26 años, no sólo iban a colectar rocas y polvo lunar: en ese momento realizaron el sueño milenario del hombre de conquistar el espacio. En su jornada de 380000 kilómetros en el vacío total y bajo temperaturas extremas, los astronautas llevaban consigo las incógnitas de cientos de geocientíficos, cuyas jornadas se habían iniciado décadas atrás. En los cuatro alunizajes siguientes, los astronautas transportaron a la Tierra más de 382 kg de rocas recolectadas en seis sitios lunares diferentes; su estudio indicó un origen violento y fascinante de nuestro satélite. Los instrumentos colocados sobre su superficie permitieron a los geofísicos conocer y reconstruir su estructura interna. Al homologar los conocimientos obtenidos en la experiencia lunar con las condiciones terrícolas se aprendió mucho del vulcanismo, plegamiento, fallamiento, intemperismo y procesos morfológicos que han afectado a la Tierra desde su formación, hace unos 4500 millones de años. Los métodos isotópicos para la datación de rocas y minerales probaron ser una herramienta muy poderosa para conocer la historia geológica pasada de la Tierra, y lo mismo para determinar la edad geológica de la Luna. La información y las experiencias del Proyecto Apolo, desde luego, no modificaron de inmediato nuestro conocimiento e ideas sobre el satélite. Tomó varios años analizar las muestras de roca y la información geofísica recibida, comparar los resultados de las investigaciones pasadas y formular nuevas teorías, ahora más razonables y acordes con la nueva información adquirida. Los datos e investigaciones realizados no fueron adecuadamente evaluados y difundidos sino hasta 1984, doce años después de la última misión a la Luna (Apolo 17). Fue en la reunión de Kona, en Hawai, donde se expusieron dentro de un contexto interdisciplinario todos los logros, teorías y conceptos generados en las nueve misiones espaciales que conformaron el Proyecto Apolo, y donde por vez primera se llegó a un consenso sobre el origen de la Luna. Antes de la reunión, se debatían tres hipótesis clásicas sobre su formación: a) hipótesis de la captura, b) hipótesis del proceso de fisión, y c) hipótesis de planeta doble. Actualmente, la mayoría de los científicos aceptan la idea propuesta hace 50 años por Reginald A. Daly, geólogo de la Universidad de Harvard, quien sugirió que nuestro satélite se formó por el impacto sesgado de un asteroide u objeto del tamaño de un planeta. Esta idea fue retomada por Hartmann y Phillyps del Instituto de Ciencias Planetarias, en Tucson, quienes con base en los estudios de las rocas de la Luna, realizados en Kona, dieron viabilidad a esta teoría. Ahí se llegó también a la conclusión de que los minerales de la Luna son extremadamente anhidros (sin agua), lo que se explica debido a la incalculable cantidad de calor que se originó durante la colisión del asteroide con la Tierra y que dio origen a nuestro satélite. Los minerales refractarios enriquecieron la composición de los magmas lunares en mayor proporción que los de la Tierra. Las rocas de la Tierra y las de la Luna tienen la misma composición de oxígeno isotópico debido a que el asteroide impactante y la Tierra se formaron en la misma región evolutiva del Sistema Solar.
 
Una de las primeras respuestas que fueron contestadas a partir del Proyecto Apolo fue la edad de la Luna, cercana a los 4500 millones de años, calculada por métodos isotópicos y que es casi igual a la de las rocas más antiguas de la Tierra. El estudio de las rocas también indicó que, hasta hace unos 2000 millones de años, nuestro satélite había sido un cuerpo geológicamente activo. Las características y rasgos físicos lunares parecen haber sido modificados en cierto grado. Una envoltura gigante de magma, de varios cientos de kilómetros de espesor, debajo de una delgada corteza, parece haber envuelto al cuerpo celeste, que después ayudó a diferenciar al manto del núcleo. Armstrong y Aldrin retornaron con muestras de basalto rico en titanio, mineral existente en la Tierra pero no tan abundante como en la Luna. La superficie está formada por suelo o regolita consistente en escombro rocoso, el cual en algunos lugares alcanza hasta 20 m de espesor y que es producto de los numerosos impactos meteoríticos. Dentro de este material se observan fragmentos blancos feldespáticos, y las rocas tienen por lo general una composición anortosítica.
 
Cráteres de impacto meteorítico
 
La primera experiencia con cráteres de impacto la tuvo el autor de este artículo en 1960, cuando estudiaba el posgrado en la Universidad de Arizona, en Tucson; el profesor de geología nos pidió interpretar una foto grafía aérea con un cráter de 3.8 km de diámetro en el centro. Los estudiantes pensamos que se trataba de una caldera volcánica o depresión producto de la erosión de un cuerpo intrusivo, emplazado en terreno metamórfico. Resultó ser un cráter de impacto meteorítico localizado en el Algonkin Park, cerca de Brent, en Ontario, Canadá. Mi segunda experiencia la tuve al año siguiente cuando visité el Meteor Crater, en el norte de Arizona.
 
La literatura geológica cita numerosas estructuras originadas por impactos meteoríticos; sin embargo, sólo unos cuantos de los asteroides metálicos pequeños son capaces de formar un cráter. Hace unos 35 millones de años, un cometa o asteroide se estrelló en el océano sobre la costa atlántica de Estados Unidos, determinando la forma de lo que es hoy la Bahía de Chesapeak; el asteroide conformó un cráter de unos 90 km de diámetro cuando la costa se encontraba a la altura de Richmond, Virginia. La energía del impacto produjo un tsunami (ola gigantesca) que pudo haber destruido la fauna y la flora de una extensión que llegaría hasta el Lago Erie. Si el impacto hubiera acaecido en nuestro tiempo, tal vez hubiera destruido las mayores ciudades del este de Estados Unidos. En 1908, un asteroide mayor de 100 m, formado por un conglomerado de fragmentos de roca silicatada, entró en la atmósfera y se desintegró antes de llegar a la superficie del valle Tunguska, en Siberia; la explosión fue escuchada en Londres y aunque el impacto no formó un cráter, la explosión dejó una estela de árboles quemados y arrasados de más de 50 km de largo.
 
En la historia temprana de nuestro planeta, los cometas y los asteroides hicieron posible la creación de vida debido a su integración y colisión con la Tierra. Según los científicos, parte del agua primigenia provenía de ellos y también, supuestamente, han destruido en una o varias ocasiones la mayoría de las especies que poblaban la Tierra. La idea de que una colisión meteorítica conformó los procesos evolutivos de la Tierra adquirió mayor fuerza a partir de 1980, cuando Luis y Walter Álvarez (padre e hijo) y otros colegas sugirieron que la desaparición de los dinosaurios, los rudistas y otras múltiples especies de animales y plantas se debió al impacto de un cuerpo extraterrestre. Estos investigadores llegaron a esa conclusión basándose en la presencia de concentraciones anormales de iridio encontrado en las capas estratificadas de muchas regiones del mundo. Coincidentemente, esas capas, cuya edad es de 65 millones de años, corresponde al límite entre el periodo Cretácico y el Terciario (límite K-T). Hace poco, al examinar el núcleo de una perforación del fondo de la parte noroccidental del océano Pacífico, Frank Kyte, de la Universidad de California, encontró un fragmento plateado de una roca que yacía mezclada entre los sedimentos finos que estratigráficamente corresponden al límite K-T. Los análisis químicos revelaron que la composición química de la roca correspondía a un trozo meteorítico rico en iridio, elemento raro en las rocas de la Tierra, pero abundante en material extraterrestre. La edad isotópica de la roca indicó 65 millones de años. De inmediato algunos científicos relacionaron el hecho con el impacto y cráter meteorítico de Chicxulub; otros, más cautos, lo relacionan con un evento más generalizado de impactos y lluvia meteorítica correspondiente a esa fecha.
 
Sobre la superficie terrestre, de acuerdo con la información del periódico científico GSA Today, se conocen aproximadamente 150 cráteres de impacto meteorítico, los cuales fueron contabilizados de manera conservadora si se considera el número de cuerpos celestes que se han impactado en otros planetas de nuestro Sistema Solar. La mayor distribución de los cráteres ocurre en tres áreas: Norteamérica, Europa septentrional y Australia; sin embargo, también se registran dispersamente en Sudamérica, África y Asia. La mayoría de las estructuras tienen un promedio de edad menor de 200 millones de años, lo cual refleja los procesos geológicos y efectos erosivos que afectaron a los de mayor antigüedad. El mayor de los cráteres meteoríticos del récord geológico, al menos hasta la fecha, corresponde al cráter cubierto de Chicxulub, al norte de Yucatán, que tiene un diámetro de unos 170 km. La edad del evento catastrófico que ocasionó el cráter es actualmente objeto de controversia. Según investigaciones recientes, el impacto ocurrió en el Maaestrichtiano tardío, y no en límite K-T, como la mayoría de la información publicada lo indica.
 
Los datos recabados en todo el mundo muestran, por lo general, la presencia superficial de cráteres mayores de 20 km de diámetro, lo cual se debe, según los investigadores, a una acción más activa de los procesos erosivos en estructuras menores y superficiales que a impactos profundos, o a la vez, que estos últimos están protegidos por una cubierta o capas sedimentarias. La morfología de los cráteres es relativamente variable; va de simple a compleja, dependiendo de su edad y de las condiciones climáticas de la época geológica. Los más simples tienen una forma circular de depresión cóncava, como de vasija o cuenca. Su borde y ladera exterior pueden estar cubiertos por rocas o escombros de eyección o de impacto y el interior del cráter se caracteriza por contener capas brechadas o rocas fracturadas. El ejemplo típico de estructura de cráter meteorítico es el conocido como Meteor Crater de Arizona, también denominado Barringer Meteor Crater. Constituye una estructura joven bien preservada, de 1.5 km de diámetro. En la mayoría de los cráteres la zona del borde se encuentra erosionada o removida, y el interior está cubierto de escombros.
 
La energía liberada por un impacto meteorítico puede ser enorme. La energía cinética se calcula usando la fórmula 1/2 mv2, en la cual m es la masa del objeto y v es la velocidad del objeto. Si suponemos un peso específico de 3 g/cm3, que es el normal de un meteorito pétreo, y una velocidad de entrada de 20 km/seg, un cuerpo celeste con dimensión de 1 km de largo colisionaría en la superficie de la Tierra con un impacto equivalente a más de 10000 millones de toneladas de TNT. Esto equivale a cientos de millones de veces la energía liberada por la bomba que causó la destrucción de Hiroshima.
 
Aproximadamente 40% de los impactos meteoríticos han sido fechados isotópicamente, utilizando los vidrios o material fundido por el impacto. Los métodos isotópicos más comúnmente usados son el de K/Ar y 40Ar/39Ar. En muy pocos casos las edades han sido obtenidas de zircones (método uranio-plomo). Algunos se han fechado bioestratigráficamente, como es el caso del cráter de Chicxulub en la costa norte de Yucatán. Los lodos calcáreos que rellenan la brecha dolomítica producto del impacto, datados por medio de foraminíferos (organismos microscópicos), tienen una edad maaestrichtiana tardía (aproximadamente 70 millones de años).
 
¿De dónde provienen los cometas y asteroides?
 
Los cometas son uno de los más fascinantes espectáculos que nos brinda el cielo, a pesar de ser los cuerpos más pequeños del Sistema Solar. Constituyen minúsculos bloques de roca y hielo que flotan en el espacio sideral. Por lo general se descubre un promedio de 15 cometas al año, unos nuevos y otros de trayectoria periódica conocida y calculada. Cuando sus trayectorias los conducen cerca del Sol a los cometas les aparece una cola brillante, que se debe a la reflexión de la luz solar sobre el polvo y a las partículas de hielo que son alineadas por el viento solar. Las colas de algunos alcanzan grandes distancias, la actual cola del Halley se ha calculado en unos 50 millones de kilómetros. El fenómeno ocurre por la acción combinada del viento solar y la radiación que ioniza los gases y los hace brillar. La cola de los cometas se hace más grande a medida que se acercan al Sol y vuelve a reducirse hasta desaparecer al alejarse de éste. El más célebre de los cometas que nos visitan con periodicidad es el cometa Halley, que fue descubierto por el astrónomo inglés Edmundo Halley (1656-1742), quien confirmó que los cometas aparecidos en 1531, 1607 y 1682 eran en realidad el mismo, además, predijo su aparición en 1759.
 
En 1950, Jan H. Oort, profesor de astronomía de la Universidad de Leiden, en Holanda, calculó que un número conocido de cometas alcanza su punto más lejano del Sol a una distancia muy lejana. Sus notas lo llevaron a establecer que existía una difusa nube de cometas y asteroides a unas 50000 o más unidades astronómicas (una unidad astronómica corresponde a la distancia entre la Tierra y el Sol). Esta nube distante formaba una coraza esférica, que contenía probablemente más de 1013 cuerpos meteoríticos que envolvían al Sistema Solar. Los cometas y asteroides de esta nube se encuentran débilmente unidos al Sol y muy propensos a ser perturbados por eventos que ocurren dentro del Sistema Solar.
 
Casi un año después del descubrimiento de Oort, en 1951, G. P. Kuper, del Observatorio de la Universidad de Chicago, calculó que otro cinturón de cometas y asteroides debería existir justamente entre Marte y Neptuno. Después de una persistente búsqueda la teoría fue confirmada en 1992 por D. C. Jewitt y Jane Luu, de la Universidad de Hawai, quienes descubrieron el primero de estos cuerpos. Hasta ahora más de 31 asteroides han sido descubiertos, además, se establece que Plutón con su órbita elíptica poco usual, es el mayor de los cuerpos de este cinturón. Por su cercanía a Neptuno, los cuerpos del cinturón de Kuiper no son desestabilizados por estrellas rivales y muy raramente se introducen al interior del Sistema Solar.
 
¿Hay vida en otros planetas?
 
En 1961 se dieron a conocer las primeras noticias científicas sobre la existencia de formas primitivas de vida provenientes del espacio exterior. Investigadores franceses que habían estudiado un meteorito caído en Orgueil, Francia, revelaron la presencia de hidrocarbonos complejos y de algunas estructuras que semejaban “bacterias fosilizadas” dentro de la roca meteorítica. Las reseñas que se hicieron de este descubrimiento en algunas revistas científicas lo aclamaron como “la primera evidencia física de formas de vida fuera de nuestro planeta”. Posteriormente, de acuerdo con investigaciones “determinantes” consideraron al material descubierto como contaminación de polen descompuesto y ceniza de horno o chimenea.
 
Hace unos meses apareció en la revista Science una nota científica que ha causado gran controversia: David S. McKay de la National Aeronautics and Space Administration Johnson Space Center, junto con otros ocho colegas encontró en el meteorito ALH84001 evidencias convincentes de la existencia de vida en las primeras etapas evolutivas de Marte. De acuerdo con estos estudios, el meteorito está constituido de la misma materia a partir de la que se formó Marte, hace aproximadamente 4500 millones de años que es la misma de la formación de la Tierra, la Luna y otros planetas del Sistema Solar. El meteorito fue desprendido por el impacto de un gran asteroide contra el planeta rojo, hace aproximadamente 16 millones de años, lo que ocasionó una gran cantidad de escombro de roca marciana, y del asteroide, que aún vagan por el espacio. El meteorito ALH84001 fue capturado por la gravedad de la Tierra y cayó en los hielos de la Antártida hace unos 10 a 20 mil años, en donde fue descubierto en 1984.
 
 
Según algunos científicos, en la historia temprana de nuestro planeta, los cometas y los asteroides hicieron posible el surgimiento de la vida.
 
McKay y sus colaboradores construyen su teoría de la vida en Marte bajo tres líneas de investigación: la primera, la existencia de pequeñas burbujas, no mayores de un punto, que se encuentran en las paredes de las fracturas y rayaduras profundas que brotan de la corteza brillante del meteorito. Estas burbujas o rosetas carbonatas tienen núcleos ricos en manganeso, rodeados por capas de carbonato de hierro. La segunda línea de evidencia se enfoca en el descubrimiento de compuestos orgánicos llamados “hidrocarbonos aromáticos policíclicos” que se encuentran dentro de éstos y rodean a los carbonatos de hierro. Para Richard N. Zare, químico de la Universidad de Stanford, estas mezclas de hidrocarbonos ligeros pueden ser el producto de “algo que alguna vez estuvo vivo”. La tercera línea de soporte proviene de las observaciones en el microscopio electrónico, de unos pequeños cristales de magnetita y sulfuros de hierro, embebidos en los espacios donde el carbonato fue disuelto, presumiblemente por algún ácido.
 
Las tres líneas de soporte para la existencia de vida en Marte han tenido fuertes y fundamentadas críticas de la comunidad científica internacional; sin embargo, para otros, las evidencias analizadas conducen a la posibilidad de la existencia de vida bacterial alrededor de los planetas de al menos 10 estrellas de nuestro sistema galáctico. De lo que sí debemos estar seguros es de que la controversia perdurará por mucho tiempo.
 
¿Cuándo será el próximo impacto?
 
Los científicos que estudian el espacio frecuentemente se hacen entre ellos la siguiente pregunta: ¿cuándo seremos alcanzados por un asteroide? Algunos rehúsan tomar el hecho seriamente; otros, como Tom Gehrels, de la Universidad de Arizona, consideran que el riesgo de morir de un impacto de dicha naturaleza es mayor de lo que la gente piensa. Sin embargo, aunque el impacto de un cuerpo mayúsculo es improbable (ocurren cada 10 o 100 millones de años), la energía que ello liberaría sería de tal magnitud que destruiría a nuestra actual sociedad y prácticamente a la mayor parte del entorno biótico (animales y plantas) que nos rodea.
 
 
Meteorito descubierto en Suecia en 1870
    
 
Después de lo reseñado, la pregunta es concreta: ¿cuáles son las posibilidades de que la Tierra sufra el impacto de un cometa o un asteroide? La respuesta se encuentra en el dominio de la astronomía planetaria y ahí se buscó su resolución. Para ello, al inicio de la década de los setenta, una gran cámara fotográfica de 46 cm de diámetro fue instalada en el Observatorio de Monte Palomar, en California, y fue asignada a dos equipos de investigadores: uno, dirigido por E. Helin, del Jet Propulsion Laboratory, y el otro por Eugene y Carolyn S. Shoemaker del U.S. Geological Survey. Aprovechando los avances cibernéticos y tecnológicos, a mediados de la década de los ochenta, el Steward Observatory en Kitt Peak, cerca de Tucson, instaló un telescopio de 90 cm de diámetro, que fue manejado por T. Gehrels, R. Jedicke, J. V. Scott y varios estudiantes de la Universidad de Arizona pertenecientes al programa Spacewacht. Estos guardianes del espacio lograron descubrir una gran cantidad de pequeños asteroides del rango de los 10 km de largo, a los cuales llamaron “Arjonas”; además, en una noche llegaron a detectar más de 600 aerolitos.
 
Para estimar la probabilidad de que un objeto extraterrestre choque contra la Tierra, primero es necesario clasificarlos de acuerdo con su tamaño. Los observables más pequeños, que miden menos de unas cuantas decenas de metros, raramente cruzan la atmósfera terrestre; la fricción con el aire los vaporiza antes de que lleguen a la superficie. Los asteroides mayores de 100 m constituyen un verdadero peligro. Se considera que unos 100000 son los que se introducen en el Sistema Solar alejándose de la órbita de Marte y acercándose a la Tierra. 
 
 articulos
Agradecimientos
El autor agradece al ingeniero Arturo Gómez Caballero, del Instituto de Geología de la Universidad Nacional Autónoma de México, por sus atinadas sugerencias y por la revisión preliminar del manuscrito.
     
Referencias Bibliográficas
Gibbs, W. W. y Powell, C. S., 1996, Bugs in the data?: The controversy over Martian life is just beginning, Scientific American 275 (4): 12-14.
Gehrels, T., 1996, Collisions with Comets and Asteroids, Scientific American 274 (3): 34-39.
Lipschutz, M. E. y E. Anders, 1960, The record in the meteorites IV. Origin of diamonds in iron meteorites. The Enrico Fermi Institute for Nuclear Studies, The University of Chicago, EFINS-60.
Pecora, W. T., 1960, Coesite, Craters and Spacial Geology, Geotimes 5 (2): 16-19.
Pérez de Tejada, H. y J. F. Valdés, 1991, De planetas, cometas y naves espaciales. Universidad Nacional Autónoma de México, Instituto de Geofísica, cuadernos, núm. 5.
Taylor, J. G., 1994, The scientific legacy of Apollo, Scientific American 271 (271): 26-33.
Valdés, J. F., 1991, Geofísica Espacial-III Conferencia Latinoamericana de Geofísica Espacial, GEOS, Boletín de la Unión Geofísica Mexicana 14 (2): 13-14.
     
 ________________________________________      
Jerjes Pantoja Alor
Instituto de Geología,
Universidad Nacional Autónoma de México
     
_________________________________________      
cómo citar este artículo
 
Pantoja Alor, Jerjes. 1997. ¿Hay vida en Marte? Cometas, asteroides y cráteres de impacto. Ciencias, núm. 47, julio-septiembre, pp. 52-57. [En línea].
     

 

 

la química de la vida         menu2
índice 47 
siguiente
anterior
PDF
                 
El cerebro y sus drogas endógenas
R047B01  
 
 
 
María Luisa Fanjul  
                     
Deben ser pocos los seres humanos que en el transcurso
de su vida no hayan deseado alguna vez poseer una fórmula mágica para poder escapar de una realidad que en algunas ocasiones parece insoportable. Quizás por lo anterior, nuestro cerebro en su evolución ha desarrollado no sólo los mecanismos que nos producen dicha “sensación” de intolerancia ante la realidad, sino también aquellos que nos la hacen soportable y en ocasiones muy placentera. En el cerebro del hombre existen sustratos anatomofisiológicos capaces de provocar tanto sensaciones intensamente placenteras como sensaciones tan penosas que resultan intolerables.
 
La evidencia de este hecho proviene de uno de los experimentos clásicos de la neurofisiología diseñado por James Olds y Peter Milner en la década de los cincuenta, que consiste en implantar un electrodo de estimulación en el cerebro de una rata, específicamente en un grupo de neuronas del hipotálamo lateral, y poner a disposición del animal un pedal que pueda ser accionado por él mismo. Toda presión ejercida en el pedal determina que a través del electrodo se genere una corriente eléctrica de frecuencia e intensidad variable. La ratita aprende sola el uso del pedal sin que el investigador tenga que utilizar la recompensa o el castigo, el cual empuja regularmente a un ritmo y una duración óptima según las características de la corriente. Aún más, después de que ha descubierto cómo hacerlo, la ratita presionará el pedal continuamente hasta quedar exhausta y rechazará los estímulos gratificantes clásicos como son el alimento y la bebida. Aparentemente la rata ha descubierto el placer, y una vez que ha aprendido que apretar el pedal se lo produce, hará lo necesario para obtenerlo: nadará a través de fosos profundos, saltará obstáculos o cruzará vallas electrificadas para alcanzar el ansiado estímulo. A pesar de los resultados obtenidos por los experimentos de Olds y Milner y de la gran cantidad de literatura científica que se ha producido sobre este fenómeno y sobre la posibilidad de la existencia de centros de recompensa y de castigo dentro del cerebro, aún existe un cierto desacuerdo acerca de su significado exacto. Sin embargo, lo que es innegable es que aun conceptos tan abstractos como son el placer y la angustia pueden estar relacionados con la actividad de un pequeño grupo de neuronas que interactúan sinápticamente con otros grupos de neuronas del cerebro, además de interactuar entre sí.
 
Es más, en el hipotálamo lateral se encuentran un grupo de fibras nerviosas que utilizan catecolaminas como neurotransmisores, en particular noradrenalina y dopamina, sustancias que se deben liberar durante la estimulación eléctrica. De hecho, si en el hipotálamo de la rata en lugar de colocar un electrodo de estimulación colocamos una microcánula conectada a una jeringa que contenga anfetaminas, el animal se inyectará anfetaminas continuamente. Actualmente está comprobado que numerosas drogas, entre ellas las anfetaminas y la cocaína, tienen un efecto en la liberación de la noradrenalina a nivel sináptico. La síntesis de moléculas suficientemente precisas, y capaces de producir cambios perfectamente controlados pone al alcance del hombre la vieja utopía de Aldous Huxley, pues nos da la posibilidad de manipular a discreción los grupos neuronales capaces de evocar diferentes estados de ánimo. En esta sociedad posmoderna, golpeada por el narcotráfico, ¿no es esta búsqueda de la evasión por medio del placer lo que se explota?
 
Afortunadamente, la utopía de Huxley todavía no es una realidad pues el funcionamiento del sistema nervioso es mucho más complejo de lo que se pensó durante el reduccionismo de los años cincuenta. Por una parte, el mecanismo de acción de las catecolaminas es múltiple y complejo, de tal forma que estas bioaminas no pueden ser consideradas como simples moléculas de placer. Por otra parte, los mecanismos de acción de las innumerables sustancias químicas sintéticas o naturales susceptibles de influir en nuestro estado mental pueden ejercerse debido a causas muy diversas.
 
Sin embargo, existe un punto que es común a todas estas sustancias: modifican el funcionamiento neuronal actuando sobre los neurotransmisores, moléculas aminadas o peptídicas por medio de las cuales se lleva a cabo la comunicación neuronal. Estos neurotransmisores son sintetizados por las células nerviosas, y en la mayoría de las ocasiones se guardan en vesículas especializadas, y son liberadas según los mensajes que el organismo transmite para realizar una función precisa. Una vez liberados en el espacio intersináptico, los neurotransmisores se unirán a receptores específicos, adaptados a ellos. Es decir, para hacer una analogía muy común, el neurotransmisor es la llave y el receptor es la cerradura; la cerradura se abrirá sólo si se usa la llave correcta. Una vez abierta la cerradura, se pasará el mensaje y deberá salir, es decir, debe actuar muy precisa y brevemente. Para hacerlos salir se requieren sistemas enzimáticos que los destruyan o inactiven, de no ser así los neurotransmisores actuarían indefinidamente sobre sus receptores, prolongando su acción en forma inadecuada. Algunos mensajeros son destruidos, pero otros son recapturados por las neuronas de origen y se reciclan nuevamente, en un ahorro energético al que se ha llegado por medio de la evolución.
 
Este mecanismo de acción ha hecho que los científicos que trabajan en el campo de la neurofarmacología se hayan percatado de que es posible alterar el sistema nervioso usando sustancias exógenas y modificar así nuestros estados de ánimo, lo que se puede lograr por medio de: 1) el uso de mecanismos farmacológicos que desencadenen la liberación del neurotransmisor, o bien que impidan la liberación del mismo; 2) la inhibición de la enzima inactivadora del neurotransmisor con el fin de prolongar la acción del neurotransmisor natural; 3) provocar una activación excesiva de esta enzima con el fin de bloquear al neurotransmisor, antes de que pueda alcanzar al receptor; 4) introducir “falsas llaves”, mediante sustancias análogas a los neurotransmisores, capaces de actuar sobre los receptores; 5) bloquear los sitios de los receptores para impedir la actuación de los neurotransmisores, y 6) impedir el regreso o recaptura del neurotransmisor al prolongar su acción en la zona intersináptica.
 
En realidad, los diferentes psicotrópicos, tanto sintéticos como naturales, parecen actuar en alguna de estas formas. Muchos de ellos utilizan la estrategia de la “falsa llave”, ya bien sea modificando los efectos del mediador (fármacos agonistas), o impidiendo la degradación enzimática del neurotransmisor, como es el caso de los antidepresivos IMAO (inhibidores de la monoaminooxidasa), o bien inhibiendo la proteína transportadora encargada de recuperar los neurotransmisores, como los antidepresivos tricíclicos. Algunos fármacos, como los ansiolíticos, favorecen la interacción de un neurotransmisor natural (en este caso el GABA) con sus receptores.        
 
Parece que al fin el hombre ha logrado entender el mecanismo de los psicotrópicos, a pesar de que durante siglos —y aun sin entenderlo— los ha utilizado. El opio comenzó a usarse varios milenios antes de que la neurobiología naciera como disciplina. Lo mismo sucede con la mariguana y el hashish, ambas provenientes de la Cannabis sativa, y con los hongos alucinógenos que se han utilizado con motivos sagrados y religiosos en civilizaciones antiguas. Curiosamente, estas sustancias parecen encontrarse en forma natural en el cerebro de los animales. Hace alrededor de 30 años se descubrieron los “opiáceos” naturales: las endorfinas y encefalinas. Estas “morfinas” endógenas, neuromediadores y moduladores del sistema nervioso, actúan de numerosas maneras en el cerebro, entre las cuales está poseer una eficacia contra el dolor veinte veces superior a la de la morfina, droga con la cual comparten un escaso parecido químico, aunque el suficiente para poder actuar como una falsa llave en la cerradura correspondiente y mimetizar su efecto en forma artificial. Este esquema no se circunscribe a la morfina. El LSD reconoce los receptores de la serotonina, un neurotransmisor que regula los mecanismos del sueño, entre otros, y que interviene en alteraciones como la depresión nerviosa. El hongo Amanita muscaria, que se ha usado como alucinógeno durante varios siglos, contiene un alcaloide llamado muscarina, sustancia que es capaz de unirse a los receptores de un neurotransmisor fundamental en los procesos de aprendizaje y memoria, la acetilcolina.
 
Apenas el año pasado un grupo europeo de investigación descubrió en neuronas de mamífero cultivadas in vitro un probable nuevo neurotransmisor, mismo que fue bautizado con el nombre de anandamida, del sánscrito ananda (felicidad). Esta sustancia natural parece ser el equivalente del principio activo contenido en la Cannabis, el delta 9 tetrahydrocannabinol (THC), principio al cual se le habían descubierto receptores específicos en el cerebro que hacían preguntarse a muchos neurobiólogos por qué los mamíferos a través de su historia evolutiva conservaron un receptor destinado a reconocer el principio activo de la Cannabis. El descubrimiento de la anandamida responde a esta pregunta: el receptor está destinado a la anandamida, se une al delta-9-THC por su analogía, lo que hace actuar a esta droga como una falsa llave.
 
Estos descubrimientos neurobiológicos han puesto en jaque los fundamentos de la legislación sobre la droga en diversos países. En el último reporte del Comité Francés de Ética para legislar la toxicomanía, se puede leer: “Los avances de los últimos años en los campos de la neurobiología y la farmacología nos impiden justificar la distinción real entre drogas lícitas e ilícitas”. Sin embargo, es su toxicidad lo que hace la diferencia fundamental entre una droga consumida voluntariamente de sus correlatos biológicos. Un neurotransmisor es una sustancia creada por el propio organismo para regular el medio interno, mientras que una sustancia como la heroína, análoga a la endorfina, no respeta el sutil equilibrio del cerebro, y los estragos que puede ocasionar al organismo que la recibe son mucho más graves, pues el cerebro la acoge como un huésped deseado en demasía.
  articulos
       
Referencias Bibliográficas
 
Di Marzo, V., A. Fontana, H. Cadas, S. Schinelli, G. Cimio G., J. C. Schwart y D. Pomielli. 1994. Nature 327: 686-691.
Le Vay s, 1994. The Sexual Brain, Boston, MIT Press.
Mc. Geer y Eccles. 1987. Molecular Neurobiology of the Mammalian Brain, Plenum Press.
     
____________________________________________________________      
Ma. Luisa Fanjul
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
_____________________________________________________________      
cómo citar este artículo 
 
Fanjul de Moles, María Luisa. 1997. El cerebro y sus drogas endógenas. Ciencias, núm. 47, julio-septiembre, pp. 12-15. [En línea].
     

 

 

de la solapa         menu2
índice 47 →
anterior →
PDF →
                 
El juego de las esferas
   
 
   
   

Nicolás de Cusa

Colección Mathema, Servicios Editoriales de la Facultad de Ciencias, Universidad Nacional Autónoma de México, 1994

   
                     
En un texto donde Giordano Bruno hace confesión
de los textos que plantaron en su mente la idea de un cosmos compuesto de un número infinito de mundos, los nombres de Copérnico y de Nicolás de Cusa aparecen ligados de manera recurrente. Al divino Cusano lo reconoce como su otro maestro, el recursor matafísico de la nueva visión “física” del cosmos, el fin del Medievo y el inicio de la modernidad. Así lo supieron entender sus propios contemporáneos y quienes contemplan en su obra el nuevo espíritu de Renacimiento. Su fama descansa en La docta ignorancia (1440), y sobre ella mucho se ha dicho y escrito, pero un estudio sistemático de su pensamiento reclama el rescate del anonimato relativo en que han quedado trabajos tan importantes como De visione dei (1435), los diálogos incluidos en Idiota (1450) y los menos conocidos que escribió durante los últimos cuatro años de su vida y en los que intentó resumir las ideas y especulaciones que consideró valía la pena rescatar. Entre dichos textos se encuentra el De ludo globi (1462-1463), diálogo donde se exponen ideas sobre la estructura del universo y desarrollos metafóricos que ligan al hombre con el cosmos tanto en cuerpo como en alma. El hombre como creador, como imagen finita del Creador, como rector de su propio reino, son temas que desarrolla el cardenal conforme explica el sentido y las reglas que rigen el juego de las esferas que nos presenta. Con los pies en la Tierra, y después de transmitir la idea del hombre como peregrino, como bola que se desliza en el tablero de las esferas cósmicas siguiendo los arcanos que la fortuna le depara, pasa a un análisis axiológico en el que la acuñación de moneda sirve de escenario para discutir algunos presupuestos que sostienen el orden social y el cósmico. Con ello termina este juego del conocimiento, diseñado por el Cusano para ilustrar la capacidad de invención del alma, misma que distingue al hombre de la bestia.
 
 
El embrujo del lago
 Gabriel Espinosa Pineda        
 
El sistema lacustre de la cuenca de México en la cosmovisión mexica. Instituto de Investigaciones Históricas e Instituto de Investigaciones Antropológicas, Universidad Nacional Autónoma de México, 1996       
 
La hipótesis de este libro, sustentada en varios ejemplos, es que a veces la importancia cultural de un animal no tiene en absoluto vínculo alguno con si es comestible o no, o si es dañino o no, o si es decorativo o no. A veces lo relevante puede ser —al margen de su belleza o fealdad— el diseño de su plumaje o su pelaje: los dibujos que presenta pueden parecer relevantes en un sistema completamente ajeno: el de la iconografía, el del conjunto codificado de mensajes, el de la escritura icónica, el de los colores y diseño de la religión, de los vestidos, de los mil terrenos visuales en la actividad humana. Otras veces, su comportamiento puede resultar significante para la cultura que lo observa, aunque este comportamiento no afecte o deje de afectar al hombre; sus ciclos vitales, sus metamorfosis, sus asociaciones con otras especies: todo el complejo conjunto de su ser en el medio, de su entretejerse y relacionarse con ese medio. He centrado la investigación en este aspecto: La presencia física del lago, con sus rasgos y sus criaturas, el origen de sus aguas, las características de su flora y su fauna, con sus ciclos estacionales, sus ritmos vivos y recurrentes, ocupó un lugar importante no sólo en la vida material de los hombres que lo poblaron, sino también con toda su multiformidad, en las regiones más inmateriales de la cultura.
 
A las culturas, el lago no sólo les amamantó con sus productos, les unió en las orillas y les comunicó a través de las aguas: les dotó de una imagen del universo que iba más allá de lo que sirve y lo que no sirve; de lo que se come y lo que no.
 
Impresionó sus ojos desplegando ante ellos una multitud de fenómenos a través de los cuales el orden de las cosas se manifestaba: observando la naturaleza se explicaron lo existente: dioses y hombres adquirieron sentido como parte del mismo acontecer cíclico del lago: su transformarse de fuente repleta de víboras y ranas a santuario de aves; de enjambre de murciélagos a hervidero de ajolotes, de abundantes reservorios acuáticos a disminuidos estanques. Año con año, el lago marcaba a través de sus criaturas el transcurrir del tiempo y sus ritmos se reflejaron.
 
La naturaleza misma, el mundo en el que habitó una cultura resulta ser entonces, especialmente en este caso particular, un verdadero acervo de información no procesada capaz de ayudar a la reconstrucción de las ideas y conceptos que dicha cultura tuvo; a comprender su lógica y a contrastar con lo que de esas ideas y conceptos dicen las fuentes escritas, lo que parece expresar la iconografía, lo que ha perdurado en las comunidades indígenas, las evidencias que afloran de la tierra.
 
Esto sobre todo en el caso de una cultura que ha surgido de la larga duración de un modo de vida lacustre; modo de vida que —aunque modificado por la creciente complejidad de la sociedad, mantiene su presencia viva, su influencia física sobre una sociedad que vive en él, que se despierta con los graznidos de sus aves, que se duerme con el croar de sus sapos, con el chirriar de sus insectos; que riega sus cultivos con su agua, las abona con su limo, construye su historia sobre sus aguas.
 
Es el caso de una cultura para la cual, además, el carácter sagrado de lo natural tiene su contraparte en el carácter natural de su religión: los dioses en más de un sentido se identifican (aunque no exclusivamente) con los fenómenos naturales: son éstos parte de la sustancia de aquéllos como aquéllos de la de éstos; al finalizar la presente investigación he quedado impresionado con lo que parece una posibilidad que habrá de sustentarse en otro espacio: la religión mexicana en su conjunto podría ser, en una parte considerable, una codificación peculiar de los fenómenos naturales que conformaron el entorno mexicano y de buena parte de los pueblos mesoamericanos. 
 
Fragmento de la introducción
Códice Florentino
 
  articulos
 _____________________________________________________________      
cómo citar este artículo    →
     
personajes         menu2
índice 47 
siguiente
anterior
PDF
                 
Frederick Soddy
R047B03  
 
 
 
Mauricio Schoijet  
                     
El nombre del químico británico Frederick Soddy
(1877-1956) puede encontrarse en muchos textos de física y química, pero éstos se limitan a mencionar que, como colaborador del físico neozelandés Ernest Rutheford (1871-1937) fue uno de los fundadores de la física y la química nucleares, que en 1913 postuló la existencia de isótopos y que recibió el Nobel por sus contribuciones en este terreno. No hay hasta ahora ninguna biografía del personaje. Pero hay otras dimensiones de su personalidad que han sido muy poco estudiadas hasta ahora, y que son mencionadas en un artículo de Richard E. Sclove.
 
Fue aparentemente el primero en especular, junto con Rutherford, sobre la transmutación de los elementos como fuente de la energía del Sol. Obviamente esta conjetura, directamente relacionada con sus investigaciones sobre transmutación de los elementos, resultó correcta. Pero hizo además otras predicciones más aventuradas, que en algunos casos resultaron correctas y en otros no. Fue el primero en sugerir la posibilidad de la generación de energía a partir de los procesos radiactivos —en 1906— y la de la guerra nuclear —en 1915. Sus conjeturas parecen haber influido en Herbert G. Wells (1866-1946), que fue uno de los primeros autores de ciencia ficción.
 
En un artículo publicado en 1906, Soddy planteó que la aplicación práctica más importante de la radiactividad sería la producción de energía eléctrica y mecánica, y en su libro The Interpretation of Radium, publicado en 1908 y traducido a varios idiomas, habló de acelerar artificialmente los procesos de transmutación natural —ahora sabemos que es imposible—, e incluye la famosa metáfora acerca de que la energía nuclear permitiría el florecimiento de los desiertos, la fusión de los hielos polares (sic) y la transformación de la Tierra en un Jardín del Edén. Esta visión, que ahora nos parece ingenua y descabelladamente optimista, fue propagada desde entonces por infinidad de autores de futurología y ciencia ficción, para no hablar de científicos serios —serios en el ámbito de sus investigaciones específicas. Pero “además de contribuir a la realización de la Utopía, sugirió que la transmutación artificial sería necesaria como sustituta de la limitada existencia de combustibles fósiles”. Y en 1910 escribió un texto verdaderamente profético, publicado en 1912, en el que planteaba que “(en el futuro) propuestas de economía y conservación van a reemplazar en forma inevitable las de desarrollo y progreso”. Por supuesto que no se le ocurrió que la fusión de los hielos polares podría tener las consecuencias negativas que ahora nos amenazan, gracias al efecto invernadero. No hay evidencia de que hubiera leído The Coal Question, publicado por el economista William S. Jevons en 1866, en que se planteaba el probable agotamiento de las minas de carbón, pero su suegro George T. Beilby era un químico industrial que había hecho propaganda en favor del uso eficiente del carbón. Soddy suponía que una vez que fuera descubierto el secreto de la transmutación, la tecnología nuclear seguiría desarrollándose en forma automática y no problemática.
 
Los textos de Soddy inspiraron en 1913 la escritura de la novela del mencionado Herbert G. Wells, The World Set Free. Wells imaginó a un científico solitario que descubriría el secreto de la energía atómica en 1933, dislocaciones sociales horrendas como consecuencia de la aplicación gradual de la energía atómica, accidentes nucleares con bombas atómicas cargadas por bombarderos y la guerra nuclear para 1950.
 
Soddy fue aparentemente el primero en plantear —en 1923 cuando se le entregó el premio Nobel— la cuestión de la responsabilidad social de los científicos. Hacia esa época se había vuelto un crítico social explícito, caso único entre los científicos de su época —el otro fue el filósofo y matemático Bertrand Russell. Parece haber sido el primero que alertó, en textos publicados en Nature, sobre la sumisión de la ciencia al gran capital y contra la participación acrítica en la investigación bélica (aparentemente lo que lo preocupaba en ese momento era la investigación para la guerra química). Aun cuando nunca se proclamó socialista contribuyó en publicaciones socialistas. Ganó atención en 1935 debido a un intento de miembros disidentes para democratizar la Royal Society, en contra del elitismo y del conservadurismo que la dominaban y que seguramente la siguen dominando, que por desgracia no tuvo éxito. Hizo propuestas de reforma social, basadas en teorías económicas y monetarias no ortodoxas e imaginativas. Fue el primero en plantear la existencia de una relación entre termodinámica y economía, propuesta que no recibió mayor atención en ese momento, pero que posteriormente originó una línea de investigación de la mayor importancia, desarrollada por los economistas contemporáneos Nicholas Georgescu-Roegen y Herman Daly. Según Soddy, en la medida en que se alejó de la investigación en las ciencias duras para ocuparse de cuestiones políticas y económicas, su credibilidad pública se vio afectada.
 
Obviamente la predicción de Soddy sobre energía y guerra nuclear es de las más exitosas de la historia de la evaluación de tecnologías. La predicción contraria a la posibilidad de la energía nuclear del ya mencionado Ernest Rutherford, citada en el New York Times en 1933, es de sobra conocida, pero hay que aclarar que Rutherford no se refirió a los problemas que actualmente apuntan a la inviabilidad de la energía nuclear, tales como costos, accidentes y desechos, sino a las dificultades que veía para la implementación práctica de la producción de energía a partir de los procesos radiactivos, y esta negación la formuló antes de que fuera descubierta la fisión nuclear, que constituye la base física para la obtención de energía a partir de materiales radiactivos. Sclove sugiere que hay que estudiar el caso de Soddy para ver por qué puede haber casos de predicciones que sí funcionan, y sostiene que su apasionado compromiso, especulación imaginativa, conciencia sociohistórica y conocimiento no científico contrastaría con las recetas de los futurólogos de la tecnocracia, que si bien persiguen la especulación lógica, deliberada y sistemática acerca de las posibilidades del futuro, tienden a la extrapolación mecánica, política cauta y carente de vida. El problema que plantea Sclove merecería ser discutido más a fondo en alguna otra ocasión.  
 
Hasta aquí he resumido el texto de Sclove. Quiero ahora agregar algunas opiniones. Es bastante obvio que Soddy se equivocó en algunos aspectos, por ejemplo, en su propuesta de que la finalidad última de la química sería una realización práctica de la alquimia; y que fue contradictorio en otros, por ejemplo, en su visión del potencial ilimitado de la energía nuclear, que contrasta con su propuesta de conservación de energía. Sus ideas sirvieron para estimular especulaciones totalmente irresponsables acerca de las posibilidades de la energía nuclear, que durante las décadas de 1950 y 1960 saturaron los medios de comunicación, y que incluso llevaron a dilapidar enormes recursos en el estudio de verdaderas fantasías tecnológicas —por ejemplo los estudios nucleares, o sobre el uso de explosiones nucleares para excavar puertos y canales. Actualmente estas fantasías están en el basurero de la historia y la energía nuclear está en una etapa de muy probable extinción. Si bien ahora su visión de la energía nuclear puede parecernos ingenua, en el momento en que se formuló no había aún elementos como para percibir las dificultades que actualmente la abruman. Pero hay que tener en cuenta que se requería de una considerable imaginación para pensar en una época tan temprana tanto en la posibilidad de la energía nuclear como de las armas nucleares. La conjetura de Soddy —¡de hace ochenta años!— sobre la necesidad de conservar los recursos energéticos parece totalmente justificada en la actualidad. Dicha conjetura, acerca de las limitaciones o restricciones físicas de los procesos económicos, formulada hace setenta años, fue totalmente correcta y apenas ha comenzado a estudiarse seriamente por muy contados investigadores hace más de dos décadas. Su posición contra la subordinación de las ciencias al gran capital y contra la investigación con fines bélicos ha sido retomada por muchos científicos y militantes políticos en muchos países, y por varias sociedades científicas, incluso latinoamericanas. Podríamos hacer una lista muy larga de aquellos científicos que tomaron posición y trabajaron activamente contra la guerra y contra las ideologías del imperialismo, por ejemplo el racismo. Nos limitaremos a mencionar a los británicos J. B. S. Haldane —el genetista que en la década de 1930 movilizó a sus colegas contra el racismo— y John D. Bernal, al francés Frederic Joliot Curie, a los estadounidenses fundadores del Bulletin of Atomic Scientist, a Henry Kendall, fundador de la Union of Concerned Scientists. En Latinoamérica las sociedades de física han promovido la iniciativa de que sus miembros no colaboren en ningún proyecto de fabricación de armas nucleares. La propuesta de Soddy de democratización de las sociedades científicas sigue siendo válida para muchas de éstas, tanto en el orden mundial como en México. Y no estoy tan seguro de lo importante que pudo haber sido la pérdida de credibilidad de Soddy por efecto de sus preocupaciones políticas y económicas —para ello haría falta una biografía bien hecha que por ahora no ha sido escrita— pero creo que la tendencia a desvalorizar profesionalmente a aquellos científicos que se aventuran fuera del ámbito de sus respectivas especialidades parece sintomática de un cierto cretinismo bastante difundido en los medios académicos y políticos, que quiere confinar a los científicos en sus ámbitos específicos de investigación, negándoles el derecho de ser también ciudadanos, como Frederick Soddy lo planteó. Se trata de un cretinismo no políticamente inocente, que opera para impedir la formación de una conciencia política de los científicos, lo que permite que sean mejor manipulados por las clases dominantes y sus aparatos políticos. A cuarenta años de su desaparición, el mejor homenaje que podemos hacerle a Frederick Soddy es seguir su ejemplo luminoso, es decir, ser científicos no confinados en el ámbito de una especialidad sino dispuestos a arriesgarnos hacia otros ámbitos de la ciencia con audacia e imaginación, y ser además científicos socialmente responsables como ciudadanos.
 
  articulos
 _____________________________________________________________      
       

Referencias Bibliográficas

 
Richard E. Sclove, 1989, From Alchemy to Atomic War: Frederick Soddy’s, Technology Assessment of Atomic Energy, 1900-1915, Science, Technology and Human Values 14 (2): 163-194.
     
 ____________________________________________________________      
Mauricio Schoijet
Departamento El hombre y su ambiente,
Universidad Autónoma Metropolitana, Unidad Xochimilco.
     
_____________________________________________________________
     
cómo citar este artículo    →
 
Schoijet, Mauricio. 1997. Frederick Soddy. Ciencias, núm. 47, julio-septiembre, pp. 48-51. [En línea].
     

 

 

bibliofilia         menu2
índice 47 
siguiente
anterior
PDF
                 
Índice de las Gacetas
de literatura de México de José Antonio Alza
R047B05  
 
 
 
Ramón Aureliano, Ana Buriano y Susana López (coordinadores),
Instituto Mora, 1996
 
                     
Don José Antonio de Alzate y Ramírez Cantilla
nació en Ozumba el 20 de noviembre de 1737, cuando gobernaba torpemente la Nueva España el arzobispo-virrey Juan Antonio de Vizarrón y Eguiarreta y regía su imperio, con ya débil mano, el rey Felipe V. Santa María de Ozumba era un pueblo de cierta importancia en el siglo XVIII, que dependía de la jurisdicción de Chalco. La riqueza agrícola de la zona, auténtico granero de la Ciudad de México, había atraído a la familia Ramírez a radicarse allí desde el siglo XVI. De esta vieja estirpe criolla, cuya cumbre femenina encarnó en sor Juana Inés de la Cruz, provenía directamente la madre de Alzate, doña Josefa Ramírez Cantillana. El padre de nuestro personaje, en cambio, era español. Se llamaba Juan Felipe de Alzate y había nacido en las Vascongadas. Llegado desde joven a la Nueva España en busca de fortuna, la encontró al enamorar a la criollita, con cuya dote pudo arrendar una hacienda agrícola, comprar una casa de campo en San Antonio de las Huertas y establecerse definitivamente en México, con floreciente negocio de panadería en una magnífica casa frente a la estampa del Amor de Dios, lo que nos permite considerarlo un hombre rico, muy al contrario de lo que han dicho ciertos biógrafos de Alzate, picados de romanticismo.
 
Como no hay ningún retrato auténtico suyo no podré decir nada sobre su aspecto físico. Sobre su temperamento, vale la pena destacar algunos rasgos. Era un individuo extraordinariamente trabajador y dedicado. Su trato debe haber sido difícil porque tenía marcadas tendencias a la acritud, incrementadas hacia su vejez por las razones que adelante se verán. Mostró muy a las claras ser retraído y enormemente vengativo. Era —y quién no— vanidoso, orgulloso y quisquilloso. Era, por lo mismo, fuertemente combativo y violento. Era en ocasiones, pero siempre por conciencia, de tan impetuoso, imprudente. Era un hombre poseído de tanto amor, que supo entregarse apasionada, devota y enteramente. De su enorme curiosidad y rara inventiva dan abundante prueba algunas de sus ocurrencias, de las que quiero dar ejemplos. Ha de considerársele el inventor del jabón de aceite de coco, que pudo ser un buen negocio de Alzate si no hubiera topado con los intereses de los tocineros de la Ciudad de México. Propuso, en otra ocasión, que se hicieran cuidadosas observaciones y experimentos para averiguar cómo podía una mosquita de las lagunas penetrar en agua envuelta en una burbuja de aire, a fin de usar el principio con seres humanos. Se adelantó a la ciencia europea de su tiempo al llamar la atención sobre la posibilidad de que las manchas solares tuvieran relación con los ciclos agrícolas. En unas observaciones sobre las virtudes cauterizantes de la “yerba del pollo”, experimentadas a costa de patas de plumíferos vivos, mostró unas preocupaciones similares a las de Lamarck y Erasmus Darwin, cuando escribía: “hago esta reflexión: en quitando las alas a una gallina y un gallo, y a los descendientes de éstos se ejecutase la misma operación, ¿se conseguiría una especie de aves sin alas?”, pensamiento ocasional que Alzate mismo calificó de “vagas ideas, acaso dimanadas de un cerebro preocupado”. Otra de éstas, en el mismo documento, arrancó del científico la siguiente exclamación: “!Hechos, más hechos y la crítica observadora decidirían lo que no me atrevo a proferir!”
 
Un ejemplo más, que a mi me encanta. En su célebre Memoria sobre la grana cochinilla refiere haber oído que del excremento de las gallinas que hubieran comido grana se obtenía un “carmín finísimo”. Alzate lo cree por haber observado excrementos de pájaros que habían comido tuna roja, y aunque no sabe si estos últimos serían de utilidad para producir tintes, escribe que “es digno de verificarse, pues para un físico (quien lo es verdadero, lo es amante a la patria y reduce sus anhelos a la comodidad pública, a pesar de los sinsabores que se pueden ofrecer) no hay cosa, por útil que parezca, que no indague y que no procure verificar”. Así era Alzate, y creo que basta de ejemplos. Alentado, quizá, por el cariz que tomaban los cosas, se lanzó el inquieto sabio a otra empresa. Con motivo de un viaje a Cuernavaca exploró, en diciembre de 1777, las ruinas de Xochicalco. Escribió una preciosa memoria ilustrada con incomprensibles láminas, que pasó al virrey Bucareli, con una dedicatoria en que le decía varias lindezas sobre su gobierno. Es evidente que Alzate quería que la publicaran. Lo que aún no había aprendido es que debía cuidarse de no decir imprudencias. Para su infausta suerte en el entusiasmo por el elogio de los indios mexicanos, se le escapó la siguiente reflexión entre otras del mismo porte:
 
Los mexicanos son bárbaros porque hacían sacrificios de sangre humana: ¿y qué hacen todas las naciones?, ¿no arcabucean a un hombre tan solamente porque ha desertado?, ¿no pasan a degüello a un vecindario entero, a una guarnición de plaza? Algunos soberanos de Europa, ¿no sacrifican a sus vasallos por un motivo tan ligero como es el de recibir cierta cantidad de dinero?, etcétera; pues si todo esto se hace en virtud de la legislación y no es barbaridad, ¿por qué lo ha de ser respecto de los mexicanos, cuando sus leyes así lo preceptuaban? Lo mismo es que un hombre muera con el pecho abierto a manos de un falso sacerdote, como que muera por un balazo o al filo de la espada. Ya mis escuchas comprenderán que no era lo mismo a los ojos del virrey, por lo cual se le impidió la publicación de frases tan peligrosas. En el ejemplar de Alzate, puso el presbítero de su puño la siguiente frase: “éstas que es una reflexión filosófica llena de humanidad, se juzga reprehensible”.
 
A finales de 1779, y ante los temores que ya referí de la próxima contienda con Inglaterra, el ministro José de Gálvez dejó que le tomara el pelo un francés llamado Salvador Dampier, quien dijo poseer un secreto para afinar mejor los salitres para fabricar pólvora. Pedía cuarenta mil pesos por la revelación, pero el ministro resolvió enviarlo a la Nueva España a hacer la prueba. El enorme expediente es divertidísimo y muy aleccionador. Es el caso que, después de muchos forcejeos para que soltara de una buena vez el mentado secreto, se hartó el ilustrador fiscal con Ramón de Posada y pidió al virrey que nombrara a Alzate para descubrir la verdad. Como ya imaginarán, no había tal secreto, y consta de diligencias que puestos ambos, Alzate y Dampier, cada cual a refinar su propio salitre, el francés observó por encima del hombro las operaciones del presbítero y sólo así pudo salir del atolladero. Posadas se lo escribió a Gálvez y éste contestó que Alzate sería atendido oportunamente. En 1790 el sabio se quejaba al rey de que la oportunidad “no ha llegado todavía”. Quizá les interese saber que, por su parte, el francés se marchó de la Nueva España tan rico como quejoso de su suerte.
 
Entre 1784 y 1787 satisfizo sus impulsos de periodista gracias al cobijo que le brindó Valdés en su Gaceta de México. Pero a partir de marzo de 1787 inició las Observaciones sobre la física, historia natural y artes útiles, cuando gobernaba la Nueva España su prelado.
 
Cuando se inició el gobierno del segundo Revillagigedo en 1789, contaba el presbítero con 53 años de edad; era un hombre de amplia sabiduría; gozaba del reconocimiento de sus contemporáneos; había sido nombrado corresponsal de la Academia de las Ciencias de París (desde muy joven), del Jardín Botánico de Madrid y de la Sociedad Vascongada; tenía tras de sí una larga carrera de servicios al Estado; se le había ofrecido una prebenda y que se le atendería en su oportunidad; disfrutaba de un trabajo seguro y tranquilo que, además, le daba la inmunidad —ya muy vapuleada— de los eclesiásticos; acababa, para colmo, de recibir una bonita herencia, con la que inició su gran obra: la Gaceta de Literatura de México y, por último, había desaparecido ya el ministro Gálvez y el rey Carlos III, que tan indiferentes se habían mostrado al mérito del eclesiástico novohispano. Un nuevo rey, a quien no se conocía, daba trazas de estimular los estudios de los ilustrados. Un nuevo virrey, criollo por añadidura, mostraba una inhumana energía en atender todo y se había rodeado de funcionarios destacados, con lo que pretendería cambiar la apática situación de la Nueva España.
 
En octubre apareció el último número de su Gaceta de Literatura de México, suspendida por orden superior, en condiciones que no conozca, pero que, sin duda, van ligadas, a más del problema con Revillagigedo, con la violenta marcha atrás del Estado español ante el pensamiento ilustrado, con motivo de la Revolución Francesa. La Gaceta había durado ocho años y Alzate se encontraba en ánimo y con proporción de continuarla, según los avisos que insertó para la nueva suscripción. Branciforte ni intentó ni podía, como funcionario que era del Estado, proteger a Alzate. Éste había perdido la partida y tendría que sufrir el castigo. Algún barrunto o premonición tuvo Alzate del fin de sus Gacetas, porque en el último párrafo del último número dejó esta frase: “Algunos indiscretos piensan que las noticias que presentan las gacetas son efímeras; no es así, reviven a cierto tiempo y son el verdadero archivo de que se valen los que intentan escribir la historia de un país.”
 
Ni siquiera en nuestro país una vida entregada tan apasionadamente al servicio de los demás pudo pasar en la indiferencia. Desde muy poco después de su muerte empezó Alzate a recibir el reconocimiento que sobradamente merecía. A lo largo de más de 150 años se ha ido conformando su imagen, que incluso ha llegado a nosotros algo acartonada y poco simpática, porque lo que yo les he venido relatando ha permanecido ignorado.
 
Para mí todo esto nada más prueba que el intelectual deja de ser peligroso sólo a su muerte. Fúnebre condición que lo convierte en digno de homenajes y recordaciones. Cambió el Estado borbón a Estado mexicano, pero el reconocimiento de nuestro país a la obra de Alzate fue, como no podía ser menos, de lo más aséptico. Todos los premios post mortem, todas las remembranzas, todas las imposiciones de su nombre a calles, pueblos, presas, sociedades, insectos, barcos y demás, tal como todas las biografías monográficas, ensayistas o documentales, se han limitado al Alzate “científico”. Ocultamiento, consciente o no, de su verdadero mérito, que pienso, es el de mostrar que el ineludible papel del intelectual desde la creación del Estado moderno —y en México parece ser el Estado colonial borbón— es el de trabajar con tanto amor y con cuanta energía sea necesaria en servicio del “bien común”, esto es, de la sociedad a la que se pertenece, con el Estado, sin el Estado o contra el Estado. No es otro, me atrevo a creer, el sentido universal de la vida entera de Alzate; aunque con frase de mi héroe, pueda admitir que sean estas vagas ideas de un cerebro preocupado.
 
De su valor, juzgado en el tiempo que le tocó, sólo puedo decir que don José Antonio de Alzate y Ramírez Cantillana es, en el renovado bosque de nuestro siglo ilustrado, el más robusto de los árboles, el más descollante y el más frondoso. A formarle un claro para mejor verlo, a su cultivo amoroso bajo su ancha sombra, ha dedicado doce años de su existencia quien hoy, con rendida gratitud, recibe humilde la venera de esta Academia Mexicana de la Historia.
 
  articulos  
Fragmento de la introducción      
__________________________________________________      
Roberto Moreno de los Arcos      
_________________________________________________      
cómo citar este artículo    →
 
Aureliano Alarcón, Ramón. Buriano Ana, López Susana. 1997. Índice de las Gacetas de literatura de México de José Antonio Alzate y Ramírez. Ciencias, núm. 47, julio-septiembre, pp. 68-70. [En línea].
     

 

 

R47Articulo08   menu2
índice 47 
siguiente
anterior 
PDF
   
   
Carlos Amador Bedolla
     
               
               
La ciencia es un invento moderno. Aunque cuando queremos
presentar un tema científico con un enfoque histórico empezarnos con lo que hicieron los griegos, la ciencia como la conocemos no tiene más de trescientos años. Pero en el caso de México, ésta enfrenta un problema adicional: la modernidad es un invento del Primer Mundo (huelga decir que la división del mundo en primero, segundo y tercero es también un invento de la modernidad). En este problema, como en tantos otros, vivimos la ilusión de que alcanzaremos el grado de desarrollo de los países del Primer Mundo si seguimos algunos de los pasos que, supuestamente, los colocaron en esta categoría. Cada vez que hablamos de la ciencia en México, de su estado actual y de las medidas que deben tomarse para desarrollarla, comparamos nuestra presente situación con la de los países desarrollados mediante diversos índices: la proporción de científicos de acuerdo con la población en general, la fracción del producto nacional bruto que se dedica a la ciencia o a la educación, el número de artículos publicados por año en todo el país, la matrícula del posgrado en las universidades nacionales, etcétera; y creemos que debemos hacer crecer estos índices hasta alcanzar los de los países desarrollados. Creo que ésta es una visión simplista del desarrollo de la ciencia.
 
Quisiera mencionar otra creencia muy extendida entre nosotros: que la ciencia es el motor del desarrollo económico de un país. De acuerdo con dicha creencia, al alcanzar los indicadores primermundistas de la actividad científica, alcanzaremos también sus indicadores en la actividad económica. Lo anterior sería irrelevante si no lo empleáramos como argumento central en todas las batallas que libramos por mayores presupuestos para nuestra actividad. Estamos generando una expectativa que, desde mi punto de vista, nunca estaremos en condiciones de cumplir. Como con tantas cosas, la demostración de que ésta es una falacia tendría que pasar primero por la situación muy improbable de que llegáramos a los indicadores científicos del Primer Mundo; en cambio, es muy probable que en el futuro próximo nos pidan informes de los avances científicos hacia tan luminoso futuro que la derrama de recursos en nuestra actividad ha logrado. Y, cuando seamos incapaces de darlos, habremos gastado buena parte de nuestro capital de credibilidad…
 
¿En qué apoyo tan pesimistas opiniones? Creo que el argumento más fuerte es un argumento histórico-empírico. Desde que ingresamos a la modernidad —en un papel subordinado y a la fuerza, como todo el mundo— los distintos países del Tercer Mundo nos hemos embarcado en una gran diversidad de proyectos tendientes a salir de nuestro triste estado. Ha habido proyectos de chile, de dulce y de manteca: proyectos libertarios y proyectos fascistas; proyectos basados en la ciencia, en la tecnología; proyectos capitalistas y proyectos socialistas; modernos y fundamentalistas, etcétera, etcétera. La colección de explicaciones de por qué éstos han fallado es extensísima: lo cierto es que ningún proyecto ha tenido éxito. País que nace para el Tercer Mundo no pasa del corredor. O no ha pasado. Cualquiera que sea la fuerza destructora que hace fracasar estos proyectos, parece tan abrumadora que las iniciativas originales, heroicas, nacionalistas, geniales o como sean producen pequeños efectos frente a esta aplanadora. Pensemos en particular en la ciencia como motor del desarrollo. Los índices científicos de Argentina son superiores a los mexicanos: los económicos igual de desesperanzadores. Pensemos en la India; allí son aún superiores los índices científicos y aún más sombríos los índices económicos. Así que cuando menos deben concederme que en caso de haber una correlación entre índices científicos e índices económicos, la correlación no es directa y sí altamente no lineal.
 
Pero vamos a suponer que soy un pesimista irredento y equivocado. Que sí, en efecto, el desarrollo económico de un pueblo está ligado a su desarrollo tecnológico. ¡Chin!: todo parece indicar que la relación entre ciencia y tecnología tampoco es tan estrecha como nos gustaría. En un libro que leo actualmente, escrito por un científico, éste opina que “…La tecnología es mucho más antigua que la ciencia. Sin ayuda de ésta, la tecnología permitió a los hombres primitivos la adquisición de ciertas habilidades como la agricultura y la metalurgia, los logros de la ingeniería china, las catedrales renacentistas y hasta la máquina de vapor. No fue sino hasta el siglo XIX cuando la ciencia tuvo algún impacto sobre la tecnología… por ejemplo en la preparación de colorantes sintéticos y en la generación de electricidad”. Claro que podríamos suponer que si, a partir del XIX, la ciencia ayuda a la tecnología, esta relación continuará en lo sucesivo. Pero Japón, el gigante tecnológico, tiene una ciencia menor comparada con la ciencia gringa…
 
Entonces, según creo yo, debemos tener mucho cuidado al asociar la ciencia tanto con la tecnología como con el desarrollo económico. Si queremos ser honestos, estamos obligados a buscar otras razones para darle sentido a la actividad científica que realizamos.
 
Pero démonos otra oportunidad: olvidemos por un momento estas sombrías perspectivas y concentrémonos en hacer ciencia. Ésta es la posición pragmática que ha adoptado la comunidad científica en México. Vamos a convencer a quienes se encargan de repartir la lana de que hace falta que la ciencia en México se fortalezca. En los últimos años ésta es la política científica que se ha adoptado. ¿Qué hemos logrado? Veamos: el Sistema Nacional de Investigadores, las diversas modalidades de estímulos a la productividad en las distintas universidades, el apoyo nacional a los proyectos de investigación (Conacyt, Pemex) y los apoyos institucionales a la investigación (en la UNAM, DGAPA) han ido conformando las reglas del quehacer científico en el país. Con ello se ha logrado que la carrera de científico sea atractiva, además de por las razones de siempre, porque es lucrativa. En el ajuste continuo de estas reglas hemos ido elaborando maneras de juzgar la relevancia, calidad e intensidad del trabajo de investigación y hemos ido modificándolas de acuerdo con lo aprendido. Es interesante que, como cabía esperar de personal tan inteligente, los investigadores nos hayamos ido adaptando a todo lo que nosotros mismos nos hemos pedido. Cuando hubo que publicar tres artículos por año, los publicamos; si hubo que ser conferencista invitado en un congreso internacional, lo fuimos; cuando hubo que organizarlos, los organizamos. Ahora, y éstas son buenas noticias para ustedes, lo que nos pedimos es tener alumnos de posgrado, y los tenemos.
 
La búsqueda de la importancia de la ciencia que hemos emprendido en estos años nos ha hecho llegar recientemente a la idea de que lo más importante de nuestra labor es la educación. Todas las instancias de evaluación premian la “formación de recursos humanos”; es decir, de ustedes. Por cierto, la única manera en que se considera que un académico contribuye a la formación de estos recursos es cuando actúa como tutor de la tesis de maestría y doctorado del alumno. No importa quién dé las clases curriculares, o quién explique y adiestre a los alumnos en las técnicas y saberes necesarios; importa quién firme como asesor. Así tenemos investigadores con diez y veinte alumnos de posgrado (y mencionaremos sólo de pasada que, dentro de ciertos proyectos de cooperación empresa-universidad, los tutores reciben un estímulo mensual fijo por alumno de posgrado). Los presupuestos de investigación se ven limitados casi siempre en los rubros de viáticos, material y equipo, por ejemplo, sin importar qué tan bien fundamentadas estén estas peticiones, mientras que el rubro de becas no sólo no se reduce, sino que en algunos casos se incrementa. Así, hay complementos de beca para los estudiantes de licenciatura y de posgrado. A estas partidas frecuentemente les sobran recursos al final de cada ejercicio presupuestal simplemente porque no hubo suficientes alumnos a quiénes becar… Y todavía existen recursos para estudiantes de posgrado que les permiten manejar sus propios presupuestos.
 
Así que, ¡alégrense jóvenes!, porque estamos pasando por una época dorada del apoyo a los estudiantes de posgrado. Que Conacyt o DGAPA quieran cobrar en UDIS las becas que les otorgaron es, sin embargo, una canallada. Pero ya regresaremos a esto. Vamos en que hay apoyo y gran interés de parte de todo el mundo en que ustedes estudien posgrados y se reciban pronto. ¿Qué va a pasar si en efecto esto sucede? La verdad es que no creo que hayamos pensado mucho acerca del asunto. Ocurre una cosa curiosa con el posgrado actual, y en particular con el doctorado. Mientras que, en general, el efecto que tiene la educación sobre su víctima es el de ampliar sus horizontes, el posgrado más bien tiende a reducirlos. Un universitario tiene más posibilidades abiertas que un preparatoriano, y éste más que alguien que sólo haya estudiado la secundaria. Sin embargo, un doctor en fisicoquímica (con una tesis sobre las propiedades electrónicas de las aleaciones de níquel-platino) sólo es un doctor en fisicoquímica (con una tesis en…). La educación de posgrado que estamos impartiendo y recibiendo sólo está formando más doctores como nosotros. Así que el destino natural de todos ustedes es volverse académicos en una institución académica, tomar estudiantes de grado que se volverán académicos en una institución que tomarán estudiantes… y así hasta que algo pase.
 
Y algo va a pasar muy pronto. No hay ninguna posibilidad de que el sistema educativo en México resista siquiera durante toda una generación, digamos treinta años, esta recurrencia. Seguirá habiendo trabajo en las instituciones para unos cuantos y el resto de los flamantes doctores habrá de buscar nuevos horizontes.
 
Y ahí es cuando esta nota, permanentemente pesimista, da una maroma completa y se vuelve muy optimista. En efecto, si el sentido más importante de nuestra ciencia es la educación, entonces eduquemos. Y si podemos hacer las pequeñas modificaciones que nos permitirán volver la educación de posgrado una que amplíe los horizontes en vez de cerrarlos, vamos a tener un montón de gente muy bien preparada que va a tener que inventar su ocupación. Y emprenderá proyectos ambiciosos y originales: inventará un servicio, mejorará o copiará una tecnología, enseñará en la prepa o en la secundaria, se meterá en la política y elevará el nivel de ese discurso (cosa tan irrisoriamente sencilla como angustiosamente necesaria en estos días). Y al hacerlo, en grados de calidad y compromiso muy superiores a los actuales, elevará el prestigio (y el salario) de esas actividades.
 
Creemos en la vocación. Nada más porque leímos una biografía de Madame Curie (las muchachas) y una de Albert Einstein o Richard Feynman (los muchachos) nos descubrimos con vocación de científicos. La experiencia profesional de la abrumadora mayoría de los científicos es diametralmente opuesta a la de estos héroes. Si tenemos la vocación, la realidad nos va a defraudar; y si, como creo, la vocación no existe, sino que se va formando conforme estudiamos (y entonces se llama currículum), no sabemos a priori si queremos ser científicos. Algunos de ustedes descubrirán que sí quieren: para esos siempre habrá plazas en las instituciones académicas. Otros, sin embargo, descubrirán que no quieren ser científicos, y de ahí partirá su reto más interesante: inventar un papel insustituible en la sociedad para un doctor en fisicoquímica que, si nos fue bien, para cuando termine sabrá mucho más que las propiedades electrónicas de las aleaciones de níquel-platino.
 
Tiene mucho sentido estudiar posgrados porque lo más importante que podemos hacer como colectividad es elevar nuestro nivel educativo. Enfoquemos entonces estos posgrados de tal manera que hagan principalmente eso: educarnos. Todavía no hemos visto a una persona educada, y con las habilidades y destrezas de la modernidad (que a fin de cuentas son las que las ciencias enseñan) que carezca de trabajo.
 
Y ahora regresemos a los problemas mundanos. ¿De qué van a comer los estudiantes de posgrado mientras se educan? Pues unos de unas fuentes y otros de otras. Ciertamente debe haber muchos que lo hagan de las becas. Y, para ellos, las becas tienen que ser dignas y flexibles. Como trabajadores esforzados tienen que ser ellos quienes las disfruten. Esto debería bastar para saldar cuentas y equilibrar la relación con el patrocinador: para otorgar la beca, éste exige cosas del estudiante; el estudiante cumple cuando estudia y completa el ciclo para el que fue becado. Pero al patrocinador le preocupa que el ex becario emplee su título para enriquecerse o enriquecer a un tercero sin restituir nada. Y cree que cuando trabaja en una institución oficial, o bien, no se está enriqueciendo, o bien, está restituyendo algo. Creo que esto está mal pensado. Primero, es posible que el ex becario sí se esté enriqueciendo en su trabajo en una institución oficial (tanto como funcionario cuanto como académico puro). Segundo, estas condiciones fomentan la idea de la institución oficial como único destino posible para el ex becario; pero si de veras somos exitosos y formamos montones de doctores, ya vimos que no hay forma de darles ese tipo de trabajo a todos. Tercero, no es estrictamente cierto que quien trabaja en una empresa privada se esté enriqueciendo y no restituya con su trabajo la inversión que la sociedad hizo en él, porque si el ex becario se está enriqueciendo en una empresa privada de su creación ya nos está regresando algo (empleos, conocimientos) —claro, a condición de que la empresa no sea una distribuidora de bienes importados. Cuarto, se podría pensar que si la empresa que contrata se beneficia del esfuerzo de la universidad, debe pagar una parte de ese esfuerzo, sobre todo si es una empresa extranjera, ¿cuántos doctores tenemos en esa situación? ¿No será mejor que primero nos preocupemos por volver a nuestros ex becarios lo suficientemente atractivos como para que las empresas extranjeras acepten nuestras condiciones? En suma: si hacemos las cosas bien, el ex becario reditúa a la sociedad que lo formó mediante el simple mecanismo de ser parte de ella.
 
Creo que tenemos, por un lado, una visión extremadamente complaciente de lo que podemos hacer como científicos. Tenemos la idea de que nuestro trabajo es esencial e indispensable para rescatar a nuestro país. Usamos estas ideas para adelantar nuestra causa dentro de la sociedad, prometiendo maravillas si se nos trata bien. La anterior estrategia ha rendido muy buenos frutos en los últimos años y, de seguirla usando, habrá de dar aún más. Entre los frutos rendidos está haber convertido a ésta en una época muy buena para estudiar posgrados. Sin embargo, dicha estrategia acabará por volverse en contra nuestra cuando no podamos responder a las expectativas que generamos. No tengo idea de cuándo ocurrirá eso, pero ciertamente es probable que les afecte más a los científicos que tienen toda una carrera por delante. Basta con saber que esta estrategia es dudosa para preferir emplearla con cautela. Y si mucho me apuran, creo que no hay razones para esperar estos milagros de nuestra actividad.
 
Sin embargo, hay un conjunto de razones ajeno al anterior que, curiosamente, me hace llegar a la misma conclusión: es necesario apoyar a la ciencia y en particular a los posgrados, pues la educación es la única condición necesaria que hemos podido identificar como motor del desarrollo. No creo que sea una condición suficiente, pero sin ella sí estamos condenados. Sólo si nos educamos los más, a los niveles más altos, con la mayor calidad, tendremos razones para ser optimistas.
 
 articulos
 ________________________________________      
Carlos Amador Bedolla
Facultad de Química,
Universidad Nacional Autónoma de México.
     
___________________________________________________________      
cómo citar este artículo
 
Amador Bedolla, Carlos. 1997. La ciencia en el posgrado. Ciencias, núm. 47, julio-septiembre, pp. 62-65. [En línea].
     

 

 

R47Articulo03   menu2
índice 47 
siguiente
anterior 
PDF
   
   
Rafael Martínez Lugo y Felipe García Oliva
     
               
               
En nuestro planeta, la presencia de material radiactivo
siempre ha existido en pequeñas concentraciones naturales. Sin embargo, en el presente siglo estas concentraciones han sido modificadas por procesos artificiales, como las pruebas nucleares que han contribuido con más de 99% del inventario de radionúclidos incorporados al ambiente y por accidentes nucleares ocurridos en varias partes del mundo, que han aportado menos del uno por ciento de dicho inventario. Estos procesos han incorporado nuevos radionúclidos al ambiente, como el caso de 137Cs.
 
Con el uso de las tecnologías nucleares actuales, el hombre se enfrenta a una nueva contaminación que no existía anteriormente. Por lo anterior, la investigación sobre el comportamiento de los radionúclidos en el ambiente es una prioridad, pero a pesar de los esfuerzos que se han realizado en todo el mundo, es muy poco lo que se conoce al respecto en los países de las regiones tropicales, incluyendo a México.
 
El Cesio 137 y los ecosistemas
 
El 137Cs es uno de los radionúclidos más importantes generados por accidentes nucleares. Tiene una vida media de 30.1 años, lo que garantiza una larga permanencia en los lugares donde se deposita. Igualmente, emite radiación gamma de 662 Kev con abundancia del 85% que puede ser detectada fácilmente por los sistemas de medición.
 
El cesio es un metal alcalino como el potasio, por lo que puede tener un comportamiento metabólico parecido a este elemento. Sin embargo, la forma estable del cesio (133Cs) es poco abundante en la biósfera y la corteza terrestre. El isótopo radiactivo (137Cs) es uno de los productos más importantes de la fisión nuclear; aproximadamente se generan 6 átomos de 137Cs por 100 fisiones, independientemente de si fue producto de fisión de uranio o de plutonio.
 
La incorporación de 137Cs a la atmósfera ha sido resultado de las pruebas nucleares en la década de los años sesenta. Los eventos de mayor precipitación radiactiva ocurrieron entre 1962 y 1964 y se ha calculado que la incorporación de 137Cs al ambiente hasta 1980 fue de 9.6 x 1017 Bq, de la cual 76% fue depositada en el Hemisferio norte y el 24% restante en el Hemisferio sur. Posteriormente, después del accidente de Chernobyl en 1986, hubo una nueva emisión de 137Cs estimada entre 4 y 7 x 1016 Bq.
 
Las principales formas de precipitación son sólidas o líquidas, siendo estas últimas mucho más importantes. Por ejemplo, después del accidente de Chernobyl, se estimó que la actividad de 137Cs en la lluvia fue 350 veces mayor que la del aire. Una vez que entran los aerosoles radiactivos a la atmósfera, éstos son atraídos a las nubes por un efecto de cambio de presiones en la atmósfera. A este efecto se le conoce como aspiradora. Cuando entran los aerosoles a las nubes algunos crean núcleos higroscópicos (pequeñas partículas sólidas suspendidas en el aire) y sobre ellos se condensa el vapor de agua, por lo que se forma la gota que más tarde se precipitará como lluvia. La actividad de 137Cs en la lluvia depende de las condiciones particulares de cada evento de lluvia.
 
Después de que entra en la atmósfera, el 137Cs es transportado en el aire y posteriormente se precipita sobre la superficie de la Tierra. La distribución global de la precipitación de 137Cs no es uniforme. Dicha precipitación varía respecto a la distancia a la que se encuentre de la fuente atómica inicial, los factores climáticos y la latitud. En el Hemisferio norte, los sitios cercanos al ecuador presentaron mayor precipitación total de 137Cs respecto a aquéllos cercanos al Polo. A nivel regional, la precipitación de 137Cs depende directamente de la cantidad de lluvia anual y la dirección de los vientos.
 
El 137Cs que entra al suelo es rápidamente removido de la solución de agua del suelo y fuertemente adsorbido por las superficies de intercambio catiónico (principalmente arcillas y materia orgánica del suelo). Inclusive, en algunos tipos de arcillas como la vermiculita, el 137Cs puede quedar atrapado entre las laminillas de la arcilla, mismo que es liberado hasta que éstas son intemperizadas. Debido a lo anterior, el 137Cs es difícilmente lixiviable (lavado), por lo que se mantiene en las capas superficiales del suelo mucho tiempo después de su precipitación. El largo tiempo de residencia del radionúclido en el suelo se explica por los siguientes factores (ver figura de recuadro):
 
1) Fuerte adsorción química en las superficies de intercambio catiónico, sobre todo asociado a las arcillas.
 
2) Alta inmovilización del 137Cs por las poblaciones de microorganismos del suelo. En trabajos experimentales se ha demostrado que tanto los hongos como las bacterias tiene alta capacidad de retener 137Cs. Una vez que mueren los microorganismos, la biomasa microbiana muerta se descompone por otro grupo de microorganismos, por lo que se mantiene en constante reciclaje dentro del suelo.
 
3) Absorción de 137Cs por plantas y micorrizas. Las micorrizas son hongos asociados a las raíces de las plantas que le facilitan la toma de nutrientes y agua. Después del accidente de Chernobyl se demostró que las micorrizas tienen una gran capacidad de absorber y acumular 137Cs en sus cuerpos frutales.
 
4) Estructura física del suelo. Ésta desempeña un papel muy importante al retener el 137Cs inmovilizado tanto en los microorganismos como en las arcillas. Por lo que la única manera de que se pierda es por medio del movimiento de los agregados del suelo por erosión.
 
A pesar de que el gran porcentaje del 137Cs es inmovilizado en el suelo, una fracción es absorbida por las plantas, y de esta manera ingresa a la cadena trófica. Los suelos con poca biomasa microbiana o con pocos contenidos de arcillas tienen menor capacidad de retención de 137Cs y por lo tanto existe mayor posibilidad de que el compuesto sea absorbido por las plantas. Esta situación es muy común en suelos de zonas tropicales.
 
La transferencia de 137Cs a las plantas puede ser por dos vías: depósito directo en la superficie de las plantas o por absorción de las raíces. Esta última vía depende básicamente de la capacidad de inmovilización que tiene el suelo. La absorción de 137Cs del suelo se incrementa cuando el potasio está poco disponible. Metabólicamente, el 137Cs sustituye al potasio, y por lo tanto, tiene gran movilidad dentro de la planta. El potasio es considerado como uno de los macronutrimentos de la plantas, por su importancia en procesos metabólicos, como la fotosíntesis. En estudios realizados en Gran Bretaña después del accidente de Chernobyl se ha encontrado alta concentración de 137Cs en plantas y ovejas.
 
Cuando el ganado consume forraje contaminado con 137Cs, éste se incorpora al tejido de los animales. La leche es uno de los productos más vulnerables a la contaminación con 137Cs, ya que este radionúclido es transferido a la leche en mayor cantidad que el potasio. Se ha estimado que alrededor de 10% de 137Cs ingerido por una vaca es secretado diariamente en la leche, por lo que en 10 días ha secretado 100% del 137Cs ingerido. Cuando existe contaminación radiactiva, la entrada de 137Cs a la dieta humana se lleva a cabo por medio del consumo de cereales, carne y principalmente leche, mientras que los frutos y vegetales aportan cantidades menores.
 
 
Pinturas de Francis Bacon, p. 28-29, Tríptico, 1983; p. 31, Tríptico, mayo-junio de 1975 (fragmento); p. 32, Tríptico estudio del cuerpo humano.
        
 
En el cuerpo humano, los compuestos con cesio son muy solubles en los fluidos corporales. En condiciones experimentales se ha estimado que la absorción intestinal del cesio es de 100%, y en dietas normales es de entre 50 y 80%. El 137Cs migra rápidamente al interior de la células y se acumula principalmente en tejidos suaves. Entre las principales enfermedades que se producen por el 137Cs son diversos tipos de cánceres que atacan a diferentes tejidos.
 
De todo lo anterior, es posible concluir que la capacidad de transferencia de 137Cs a la dieta humana depende de muchos factores, lo que hace muy complejo su estudio. Pero uno de los elementos claves es el suelo, ya que éste puede reducir drásticamente dicha transferencia, aumentando su capacidad de inmovilización del radionúclido.
 
Conclusiones
 
A pesar de que en la actualidad cada vez son más los países que usan la energía atómica, poco se conoce sobre el comportamiento de los radionúclidos en los ecosistemas, de las consecuencias de su incorporación y de las probables alternativas para reducir sus efectos nocivos, ya sea eliminándolos o aislándolos. Por lo anterior, es importante el desarrollo de estudios que aborden estos problemas. El 137Cs es un buen indicador para este tipo de estudios, debido a su abundancia en las fisiones nucleares y a su larga vida media.
 
Como se ha mencionado anteriormente, el suelo desempeña un papel muy importante en la reducción de la transferencia del 137Cs al ser humano, ya que una vez que entra en la cadena trófica es sumamente móvil. Para ello, es importante hacer estudios interdisciplinarios donde se comprendan claramente los factores edáficos que determinan la capacidad de transferencia de 137Cs, así como también los probables mecanismos para poderlo aislar.
 
Debido a que en México existe una planta nucleoeléctrica en operación (Laguna Verde), el desarrollo de estas investigaciones es importante. Para ello es necesario desarrollar conocimiento y tecnologías aplicables a las condiciones de México y no sólo importar las que han sido generadas en otros países, para condiciones ambientales muy diferentes. En la actualidad, México cuenta con la infraestructura académica y las técnicas de laboratorio necesarias para desarrollar este tipo de estudios.
 
Agradecimientos
 
Los autores agradecemos a las siguientes personas: Raúl Ortiz Magaña, Ernesto Araico Salazar, Manuel Maass y Sonia Álvarez-Santiago por sus comentarios y apoyo en la elaboración del presente trabajo, a la Estación de Biología Chamela, IB-UNAM, por el apoyo logístico durante el trabajo de campo, a las autoridades y personal de la Comisión Nacional de Seguridad Nuclear y Salvaguardias por las facilidades en los análisis por espectrometría gamma. Es importante mencionar que esta investigación fue posible gracias al apoyo económico de DGAPA-UNAM.
 
Distribución de 137Cs en el perfil del suelo de un ecosistema tropical

La incorporación artificial de los radionúclidos al ecosistema ha permitido la realización de diferentes tipos de estudios ambientales, como rastrear el movimiento del agua, seguir el flujo de los nutrientes, en las cadenas tróficas, etcétera. Una aplicación importante ha sido la cuantificación de la erosión del suelo mediante el uso de 137Cs que se ha depositado en el suelo debido a las pruebas nucleares en la atmósfera. Un ejemplo de este tipo de estudio fue llevado a cabo en México por el Instituto de Ecología de la UNAM, y la Comisión de Seguridad Nuclear y Salvaguardias.

 

Este estudio consistió en determinar la concentración de 137Cs en muestras de suelos obtenidas en la región de Chamela en la costa de Jalisco. Estas concentraciones se relacionaron con las características físicas y químicas del suelo, así como su localización en el relieve, y con ello se logró calcular las tasas de pérdida de suelos en esta región. Este trabajo ha sido una de las primeras experiencias en la aplicación de esta técnica en regiones tropicales del mundo.

 

Los datos fueron obtenidos en un ecosistema tropical estacional en la región de Chamela, la cual se encuentra en el municipio de La Huerta, en la costa del estado de Jalisco. La vegetación natural es una selva baja caducifolia, que se caracteriza porque los árboles pierden todas sus hojas al inicio de la temporada de secas. El relieve consiste en lomeríos con marcadas pendientes, formado por tres zonas principales: i) cresta: que es una zona plana y estable, donde el movimiento de suelo casi no existe, ii) ladera: que es una zona inclinada con erosión de suelo y iii) pie: que representa la zona de acumulación del suelo erosionado en la ladera. Actualmente, la selva es transformada en pastizales para la cría de ganado, y esta transformación ha acelerado los procesos de deterioro del ecosistema, como la erosión de suelos, la pérdida de su fertilidad, la pérdida de biodiversidad, etcétera.

 

El muestreo de suelos se llevó a cabo en la selva natural en 1990. Los perfiles de suelos consistieron en tomar muestras cada 2 cm hasta una profundidad de 20 cm. A cada una de las muestras se le determinó la actividad de 137Cs por la técnica de espectrometría gamma de bajo fondo.

 

Los resultados obtenidos de las muestras de la cresta en la selva representan la actividad de 137Cs acumulada que ha sido estabilizada en el suelo hasta la fecha de muestreo (en este caso 1990), porque no ha sido afectada por erosión y depositación.

 

Por lo anterior, la actividad de 137Cs en este sitio representa el nivel base de 137Cs en ese suelo. Para el caso de Chamela fue de 5315 ± 427 Bq m-2. Este nivel base fue mayor que el comparado para suelos de Canadá, Inglaterra y Estados Unidos, lo que confirma que en zonas tropicales hubo mayor precipitación de 137Cs. Esto ocurrió debido a la circulación mundial de los vientos, que mueven masas de aire de latitudes medias y altas rumbo al ecuador.

 

El relieve es uno de los factores principales de la erosión de suelo. Debido a que 137Cs se adsorbe a las arcillas, éste es transportado con el suelo. Por lo anterior, cuando hay movimiento de suelo hay pérdidas de 137Cs y ganancias cuando hay depósito. En las laderas se presentó menor actividad (2881 ± 279 Bq m-2) respecto a las crestas, y en los pies se tuvo la mayor actividad (6151 ± 3101 Bq m-2). Esta pérdida o ganancia de 137Cs se refleja en la distribución del perfil de suelo.

 

Las laderas tienen una distribución parecida a la de las crestas, pero con menor actividad. En contraste, los pies tienen actividad a mayor profundidad y su patrón de distribución en el perfil no es parecido al de las crestas. Esta distribución se debe a los distintos eventos de depósito, por lo que su distribución no depende directamente de la entrada de 137Cs al suelo.

 

En este ecosistema los principales factores que favorecerían la persistencia de 137Cs en el suelo son la formación de agregados de suelo y las poblaciones microbianas, que son muy susceptibles de ser perturbadas por la transformación de la selva. Sin embargo, cuando ésta se lleva a cabo, los mecanismos que mantienen el 137Cs en el suelo son destruidos y por lo tanto aumenta la tasa de transferencia a la vegetación. Esta situación es común en los suelos tropicales mexicanos. Por ello, es importante conocer las características del suelo, para poder predecir su capacidad de transferencia de 137Cs.

 

Sistema de espectrometría gamma de bajo fondo.

Distribución del 137Cs en el perfil del suelo en tres posiciones del relieve: cresta, ladera y pie.

 articulos
 
     
Referencias Bibliográficas
 
Bennett, B. G., 1990, “Worldwide radiation exposure from the Chernobyl accident”, en: Environmental Contamination following a Major Nuclear Accident, vol. 2, IAEASM-306 94, Viena, pp. 251-260.
Fredriksson, L., R. J. Garner and R. S. Russell, 1966, Caesium-137, en: R. S. Rusell (ed.) Radioactivity and human diet, Pergamon Press, pp. 317-352.
García-Oliva, F., R. Martínez y J. M. Maass, 1995, Long-term net soil erosion as determined by 137Cs redistribution in undisturbed and perturbed tropical deciduous forest, Geoderma 68: 135-147.
García-Oliva, F., R Martínez y J. M. Maass, 1995, Soil 137Cs activity in a tropical deciduous ecosystem under pasture conversion in Mexico, J. Environ. Radioactivity, 26: 37-49.
Haselwandter, K., M. Berreck y P. Brunner, 1988, Fungi as bioindicators of radiocaesium contamination: pre and post-Chernobyl activities, J. Br. Mycol. Soc., 90: 171-174.
NERC, 1993, Radiocaesium in natural systems- a UK coordinated study, J. Environ. Radioactivity, 18: 133-149.
     
 __________________________________      
Rafael Martínez Lugo
Comisión Nacional de Seguridad Nuclear y Salvaguardias.
 
Felipe García Oliva
Instituto de Ecología,
Universidad Nacional Autónoma de México.
     
____________________________________________________      
 
cómo citar este artículo
Martínez Lugo, Rafael. García Oliva, Felipe. 1997. La contaminación radiactiva en los ecosistemas. Ciencias, núm. 47, julio-septiembre, pp. 28-32. [En línea].
     

 

 

R47Articulo01   menu2
índice 47 
siguiente
PDF
   
   
Antonio Sarmiento Galán
     
               
               
Aun cuando todavía no se vende al consumidor con
los debidos letreros de advertencia: “¡cuidado!, el uso de este producto puede resultar nocivo para su salud”, existe en la actualidad una gran cantidad de “aparatos electrodomésticos” que usamos consuetudinariamente y que, sin saberlo, podrían estar causando serios daños a nuestra salud, sobretodo si se abusa de ellos.1     
 
El consumo de energía eléctrica no sólo se ha vuelto indispensable en la sociedad moderna, sino que en algunos casos, como es Estados Unidos, el dispendio en este rubro se ve como un símbolo proporcional al status social correspondiente. Además de la devastación del medio ambiente que se genera por la necesidad de producir energía eléctrica en proporciones cada vez mayores, se crean riesgos insospechados para la mayoría de los usuarios, muchos de ellos causantes de los eufemísticamente llamados problemas terminales; en su mayoría, estos problemas son letales y bien podrían ser originados por un uso irresponsable de los modernos aparatos electrodomésticos. Aún no es posible asegurar cuáles son las “dosis” permisibles de exposición al campo electromagnético generado por los aparatos, o a partir de qué duración el lapso de uso continuo aumenta considerablemente el riesgo de contraer una de las múltiples variantes del cáncer o de alguna otra enfermedad generada por la modernidad. Sin embargo, en muchos de los países industrializados —entendidos como aquéllos en los que la gran mayoría de la población tiene acceso a estos productos— se han empezado a establecer leyes que regulan el uso y las condiciones de trabajo de las personas que, por la índole de su labor, deben utilizar monitores televisivos o de computadora, o de algún otro de los aparatos con cuya aparición se ha venido justificando el “desarrollo económico” y su consecuente “progreso”. En países como México, el porcentaje de habitantes “beneficiados” con dichos aparatos, aunque va en constante aumento, es todavía bajo. Si bien esto podría verse como una situación afortunada ante la posibilidad de los efectos mencionados, no puede esgrimirse como justificación de las graves carencias que padece la mayoría de sus habitantes.
 
La razón por la que no se puede aseverar el riesgo que se corre y sus daños subsecuentes estriba en el hecho de que los estudios más serios y completos realizados hasta la fecha son posteriores al uso y abuso de dichos aparatos, y son de tipo estadístico. Es decir, se analizan muestras constituidas por individuos que durante un cierto tiempo han estado sujetos a una interacción continua con alguno de los posibles aparatos causantes de lesiones, y a posteriori se intenta detectar si en dichas muestras la incidencia del mal sospechado ha sido mayor que en otras muestras “de control”, constituidas por personas que no han sido expuestas a tal interacción; como prácticamente todo ser humano usa la electricidad, tales muestras de control son inexistentes para el estudio de los efectos causados por el campo electromagnético.
 
Esta forma de operar no sólo se debe a que hasta épocas muy recientes se empezaron a realizar estudios acerca de la forma en la que el campo electromagnético influye en diversos tipos de tejido vivo, sino también a otro de los grandes males de la modernidad: la premura competitiva de la economía de mercado, la cual obliga a que un producto se lleve a los expendios de consumo sin la precaución de haber estudiado antes los riesgos de su uso y los límites de seguridad que deberían observarse para evitar las consecuencias de correr tales riesgos. Un ejemplo en este sentido es la aparición de la primera generación de hornos de microondas en los años setenta y su repentina desaparición del mercado cuando se comprobó lo peligroso que resultaba su uso doméstico; los hornos que existen en el mercado actual pertenecen a una segunda generación que parece haber suprimido las fuertes fugas de radiación dañina que permitían sus antecesores. A otro nivel, se puede citar la serie de experimentos realizados en Estados Unidos desde 1946 con seres humanos, exponiéndolos a la radiación proveniente de material radiactivo sin enterarlos de lo que se hacía con sus cuerpos y con la débil justificación de investigar cuáles serían las consecuencias de una guerra con bombas atómicas. Aunque parezca exagerado el ejemplo anterior, baste mencionar que la actitud actual frente al problema es la de no malgastar los ya de por sí escasos fondos para escarbar entre los miles de millones de hojas de papel que contienen la información de los experimentos realizados en los años cincuenta.2
 
El enemigo agazapado
 
En distintos niveles y durante diferentes lapsos, varias partes de nuestro cuerpo se encuentran expuestas a campos eléctricos, campos magnéticos o radiación electromagnética, presentes en forma individual o combinada.
 
Ya sea en nuestras casas o fuera de ellas estamos expuestos a la interacción con el campo creado por las líneas de transmisión, con el campo generado por los transformadores de corriente sobre los postes en las calles, con los cambios en la tensión o voltaje causados por lluvias, vientos fuertes, etcétera, o por el encendido o apagado de aparatos eléctricos. También estamos expuestos a la radiación y, si estamos muy cerca, al campo producido por los aparatos que funcionan con energía eléctrica: monitores de televisión o de computadora, relojes, cobertores, secadores de pelo, hornos de microondas, estufas, calefacción de camas de agua o de peceras o acuarios, ventiladores, lámparas fluorescentes, radiadores, teléfonos celulares, lavadoras de ropa o de vajilla, secadoras de ropa, aparatos para masaje, recargadores de baterías, refrigeradores, acondicionadores, purificadores e ionizadores de aire, rasuradoras o depiladoras, fotocopiadoras, etcétera, etcétera.
 
En los lugares donde la población no ha alcanzado el nivel económico que le permitiría “disfrutar” de las “comodidades” representadas por el uso de los aparatos electrodomésticos, se corren, sin embargo, los grandes riesgos provenientes del cableado para la distribución de la corriente dentro y fuera de sus hogares y centros de trabajo; en especial, por el hecho de que, en su gran mayoría, se trata de instalaciones demasiado viejas, obsoletas, sin protección alguna y cuyos usuarios desconocen por completo los riesgos a los que se enfrentan.
 
Las razones para dudar
 
En una versión preliminar de un reporte muy difundido, aunque nunca publicado oficialmente, la Agencia para la Protección del Medio Ambiente en Estados Unidos concluyó en 1990 que los campos magnéticos asociados a la corriente eléctrica de 60 Hz3 eran una posible, pero no comprobada, causa de cáncer en seres humanos. En 1992, un grupo formado a instancia del consejero científico de la Casa Blanca para revisar dicho reporte y la investigación en que se apoyaba, no encontró “evidencia convincente” para aseverar que los campos significaban una amenaza comprobada a la salud.
 
Por otro lado, los resultados de los famosos estudios Wertheimer-Leeper y Savitz, realizados por la epidemióloga Nancy Wertheimer y el físico Ed Leeper (el primero) y por el epidemiólogo David Savitz (el segundo) en la ciudad de Denver, nos confrontan con una paradoja que ha sido confirmada por la mayoría de los estudios posteriores de este tipo: mientras las investigaciones basadas en medios indirectos para medir el campo magnético han encontrado una conexión entre dichas medidas y el cáncer en niños, las investigaciones basadas en medidas directas de la intensidad de los campos en el interior de las casas no logran establecer la misma conexión.
 
Los mensajes contradictorios como éstos crean confusión y dudas acerca de si debemos o no preocupamos por el peligro que corre nuestra salud, ¿cómo se pueden alcanzar conclusiones tan diferentes? Una buena parte de la incertidumbre proviene de la asociación estadística entre los campos magnéticos existentes en las casas y el cáncer en niños: ¿se trata de una asociación real o de algo sin sentido?
 
Hasta ahora, ningún estudio ha producido una correlación estadísticamente significativa entre medidas de la intensidad del campo magnético en el interior de las casas y alguna forma de cáncer. Algunos científicos arguyen que un medio indirecto basado en la clasificación del cableado para el suministro de energía eléctrica constituye un indicador global más adecuado sobre la exposición a campos magnéticos que las medidas directas en el interior de las casas. Esto se debe, en parte, a que las medidas directas se han tomado, en el mejor de los casos, durante periodos máximos de 24 horas; un lapso tan corto no permite una evaluación precisa de los efectos causados por las fluctuaciones o transientes en la corriente que ocurren por la cantidad de carga sobre las líneas cercanas o en las casas vecinas. Como respuesta, los escépticos arguyen que las medidas directas del campo en el interior de las casas no se correlaciona con enfermedad alguna, sencillamente porque dicho campo no causa algún tipo de cáncer. Si tal fuera el caso, algo más debe explicar la correlación entre la clasificación del cableado y el cáncer: un factor de confusión, aún desconocido, que los relaciona a ambos. Uno de tales factores podría ser, por ejemplo, el hecho de que mientras las casas que tuvieron una clasificación indirecta de alto riesgo se encontraban en las áreas viejas y sobrepobladas de Denver, las que tuvieron una clasificación de poco riesgo, alejadas de las líneas de corriente, se encontraban en vecindades suburbanas y de edificación reciente. Las vecindades en el centro de las ciudades pueden, además, estar sujetas a otros riesgos que amenazan la salud, como altas concentraciones de emisiones industriales o tránsito vehicular intenso.
 
Desafortunadamente, como nadie sabe qué causa esta leucemia infantil, intentar buscar este tipo de factores engendradores de confusión requiere tanto del trabajo de investigación serio como del tanteo o la adivinanza; de ahí que, hasta la fecha, la búsqueda haya sido en vano. El hecho es que de los seis estudios sobre cáncer infantil que son considerados por los expertos como los estudios más cuidadosos y completos4 (de entre 11 estudios realizados hasta mediados de 1994),5 de ellos encontraron alguna asociación estadística entre campos magnéticos elevados y cáncer infantil.
 
En cuanto a los estudios realizados en adultos, existe un estudio especial que examinó más de 4000 casos de cáncer ocurridos durante un periodo de 20 años entre cerca de 220000 obreros electricistas en Canadá y Francia. Para el estudio se obtuvieron medidas directas en los sitios de trabajo mediante la implantación de varios miles de medidores entre los electricistas durante una semana de trabajo normal y basándose en los correspondientes registros de empleo, se estimó la exposición global ante campos magnéticos experimentada previamente por cada trabajador. Este estudio no encontró un aumento global en la incidencia de cáncer entre los electricistas que habían estado expuestos a los campos magnéticos más intensos; sin embargo, sí encontró que el riesgo de desarrollar un tipo de leucemia conocida como Leucemia no-linfoide aguda se duplicaba entre 50% de los electricistas que habían estado expuestos a campos magnéticos cuya intensidad promedio era de 1.6 miliGauss5 o más. La diferencia entre niños y adultos bien podría deberse al hecho de que en los primeros, una buena cantidad de células se encuentran todavía en un proceso de desarrollo, mientras que para los segundos se trata de células ya formadas y en pleno funcionamiento. De ser así, esto complicaría aún más los estudios clínicos que deberán realizarse para corroborar las evidencias estadísticas. En resumen y tomando ambos casos, se puede decir que los estudios realizados hasta la fecha sugieren que la exposición a campos magnéticos cuya intensidad sea mayor que la intensidad promedio incrementa el riesgo de desarrollar algunos tipos de leucemia; la evidencia para una asociación con otros tipos de cáncer es menos clara.
 
Existen además otros problemas con la epidemiología como, por ejemplo, uno que es de origen matemático. Para empezar, en el caso del cáncer en la infancia, se tiene la dificultad de que, afortunadamente, éste no es muy común: un estudio realizado en Suecia durante 25 años encontró sólo 39 casos de leucemia de un total de 127383 niños que habían vivido a 300 metros o menos de las líneas de alta tensión. Cuando la investigación se realiza con un número tan reducido de casos, se vuelve matemáticamente difícil y, por lo tanto, poco confiable separar un efecto real de las inevitables fluctuaciones azarosas, siempre presentes en todo sistema real.
 
Finalmente, los epidemiólogos no están seguros de estar estudiando los aspectos apropiados del campo electromagnético; la mayoría se ha fijado en la exposición promedio de una persona a algún tipo de campo durante un lapso determinado, pero bien podría suceder que el factor crítico resultase ser la exposición ocasional a campos muy intensos, o bien a campos cuya intensidad se encuentre dentro de un cierto intervalo (aún desconocido). Estas dos posibilidades han sido sugeridas por la escasa evidencia de que se dispone, pero desgraciadamente, ninguna de ellas ha sido estudiada con detalle. Otra posibilidad sería no la exposición a un campo de cierta intensidad y frecuencia determinadas, sino la exposición a las fluctuaciones o transientes en dicho campo.
 
Cómo y cuándo se corren riesgos        
 
El campo electromagnético consta de dos partes: una componente eléctrica y una componente magnética; la componente eléctrica queda prácticamente eliminada o “apantallada” por los materiales usuales en las construcciones modernas (cuando éstas se realizan bajo ciertas normas) y, por ello, no ha generado mayores preocupaciones. La atención se ha centrado en la componente magnética, pues ésta pasa fácilmente a través de casi cualquier cosa, incluyendo edificios y el cuerpo humano. La corriente eléctrica que recibimos de la Comisión Federal de Electricidad o de la Compañía de Luz y Fuerza del Centro, es una corriente alterna que oscila entre dos valores y completa 60 de estas oscilaciones durante cada segundo. A esta tasa de variación se le denomina frecuencia. El campo magnético asociado cambia su dirección dos veces en cada ciclo, es decir, 120 veces por segundo o 120 Hz. Para tener una idea de lo que esto significa, aclararemos que el campo magnético terrestre (cuya intensidad es algunos órdenes de magnitud mayor), permanece relativamente constante y no cambia de dirección. Los campos magnéticos tienen ciertas propiedades que son fácilmente predecibles; de ellas, tres nos interesan en este trabajo: (i) contienen y transportan energía que les permite interactuar con lo que encuentran a su paso; (ii) esta energía es proporcional a la intensidad de la corriente eléctrica que produce el campo, y (iii) la intensidad del campo decae rápidamente al alejamos de la fuente que lo genera.
 
Las casas habitación en las grandes ciudades están sujetas a la influencia de un campo magnético “de fondo” que puede valer desde una décima de miliGauss (mG) hasta dos mG; por ello, los estudios epidemiológicos se restringen al análisis de campos más intensos que aquéllos cuya intensidad es de sólo dos o tres mG. Una fuente de campo magnético en las casas es la presencia de líneas de alta tensión o de líneas de distribución en sus cercanías. Aun cuando los campos magnéticos producidos por las líneas de alta tensión pueden llegar a alcanzar valores superiores a los 80 mG directamente debajo de dichas líneas, su intensidad decae rápidamente al alejarse de las mismas (véase cuadro); a unos noventa metros de una línea de alta tensión de 500 kilovoltios, el campo magnético puede tener tan solo una intensidad de un mG. Por otro lado, las líneas de distribución, aunque se vean menos amenazantes, pasan en ocasiones mucho más cerca de las casas y pueden llegar a producir campos magnéticos en el interior con un valor superior a los dos mG. Otra fuente de campos magnéticos en el interior de las casas consiste en el sistema de aterrizaje para la protección de rayos (los “pararrayos” y todo su cableado) y para la prevención de “toques” eléctricos por aparatos que fallen.
 
La mayoría del cableado moderno en las casas habitación contribuye con muy poco o con nada a la intensidad de fondo del campo magnético en su interior; ello se debe a que los circuitos consisten en dos alambres que al transportar corriente en direcciones opuestas crean campos magnéticos contrarios que tienden a cancelarse mutuamente cuando dichos alambres se sitúan cercanos entre sí. Un buen número de aparatos electrodomésticos comunes también generan campos magnéticos relativamente intensos pero, por lo general, dicha intensidad disminuye hasta llegar a niveles despreciables al alejarse un metro o dos del aparato en cuestión; desafortunadamente, existen varios aparatos eléctricos de los que no es posible alejarse, como los cepillos de dientes, los cobertores, los depiladores, etcétera.        
 
Otras fuentes de riesgos son:
 
Los monitores de las computadoras o televisión. A principios de la década de los ochenta, se realizaron varios estudios que mostraron una cantidad anormalmente mayor de abortos entre las mujeres que trabajaban frente a un monitor de computadora; la razón es que estos monitores y los de televisión producen campos magnéticos intensos de varias frecuencias, generalmente bajas. Los campos son creados por dos electroimanes poderosos que sirven para producir las imágenes y su posición es tal que los campos magnéticos resultantes poseen una intensidad mayor a los lados y en la parte posterior del monitor (en comparación con el frente del mismo): las intensidades típicas son de unos 60 mG a los lados o detrás del monitor y de dos mG a una distancia de un metro de la pantalla.
 
Los hornos de microondas. De manera adicional a los posibles escapes de energía en forma de las microondas que estos hornos emplean para “cocinar”, existe el problema de los campos magnéticos generados por la corriente eléctrica que se utiliza para crear las microondas. En un estudio realizado por el Instituto de Investigaciones en Electricidad en Estados Unidos, se encontró que de 485 hornos estudiados la mitad producía un campo de 10 mG o más (con una frecuencia de 60 Hz) a distancias de 60 centímetros.
 
Los cobertores eléctricos. Los cobertores fabricados hasta principios de la década actual y que todavía se venden en muchos países, producen intermitentemente, pero durante toda la noche, campos magnéticos de 20 mG o de mayor intensidad. Ello se debe a que en estos aparatos el elemento que produce el calor es un solo alambre conductor. El estudio Savitz reportó que los niños cuyas madres habían dormido bajo un cobertor eléctrico durante la preñez, mostraban 70% mayor susceptibilidad a desarrollar leucemia en comparación con los niños cuyas madres habían dormido bajo cobertores comunes. Aun cuando los resultados de éste y todos los estudios que fueron realizados con muestras numéricamente pequeñas deben ser interpretados con cautela, su publicación motivó que los fabricantes ofrezcan en la actualidad cobertores que sólo producen campos cuyas intensidades son de una vigésima parte de la intensidad producida por los cobertores eléctricos viejos.        
 
Los teléfonos celulares. A raíz de la tristemente célebre aparición en televisión de un habitante de Florida (Estados Unidos), responsabilizando a un fabricante de teléfonos celulares de la muerte de su esposa por cáncer en el cerebro,6 éste y muchos otros fabricantes de teléfonos celulares desataron una campaña publicitaria para convencer a los usuarios de la existencia de “miles” de estudios científicos que demostraban la seguridad de los aparatos. La realidad dista mucho de tal afirmación. Estos teléfonos funcionan emitiendo y recibiendo, a través de sus antenas, radiación electromagnética cuya frecuencia se encuentra en el rango de radiofrecuencias del espectro electromagnético: entre los 800 y los 900 megahertz, es decir, con frecuencias que son cerca de 15 millones de veces más altas que la de la corriente eléctrica usual. La radiación intensa en radiofrecuencia puede calentar el tejido celular del usuario en la misma forma que lo hace un horno de microondas, la única diferencia entre los dos, es la potencia con la que trabajan: mientras un horno funciona a 500 o más watts,7 el teléfono lo hace a 100 watts, igual que un foco normal. La principal preocupación con estos teléfonos se ha centrado en los modelos portátiles que incluyen en una sola unidad el auricular, la antena y las baterías; en ellos, la emisión de radio ondas por la antena se realiza peligrosamente cerca de la cabeza del usuario.
 
Existen otros aparatos que pueden causar campos magnéticos intensos, aunque en estos casos se parte de la suposición de que la exposición a los mismos es breve, como las rasuradoras eléctricas y las fotocopiadoras.
 
La interacción con el cuerpo humano
 
Si bien la epidemiología puede llegar a sugerir una conexión causal entre la presencia de campos electromagnéticos y el desarrollo de ciertos males, sólo los estudios de laboratorio y la investigación clínica pueden asegurarlo. Existen varios estudios acerca de los efectos biológicos causados por los campos magnéticos fluctuantes, pero nada que se acerque a una demostración convincente sobre cómo pueden poner en peligro la salud de un organismo vivo. A simple vista, parecería poco probable que los campos magnéticos generados por la corriente eléctrica de 60 Hz llegaran a causar algo dentro del cuerpo de un ser vivo; el cuerpo humano, por ejemplo, no sólo goza de la energía eléctrica, sino que su funcionamiento depende de ella: hace que nuestros corazones latan, que nuestros músculos se contraigan y, gracias a ella, nuestras neuronas se comunican entre sí. Además, los campos magnéticos producidos por la corriente de 60 Hz son demasiado débiles como para poder llegar a romper algún enlace molecular (algo que sí hacen los rayos X y algunas otras formas de energía radiactiva) o para calentar algún tipo de tejido (como lo hacen las ondas de radio o las microondas). Como dichos campos no pueden romper los enlaces moleculares, los científicos en general concuerdan en que es muy probable que los campos no causen directamente el que las células se vuelvan cancerosas, sino que quizá lo que hacen es estimular el desarrollo del cáncer ahí donde éste se ha originado por otros motivos. Cuando en el laboratorio se expone a las células a un campo magnético, éste induce corrientes eléctricas diminutas entre las células. “Existen varios experimentos que han demostrado, bajo estas condiciones, que algo les esta ocurriendo a las células”, afirma, entre otros, Jack Adams, un investigador en el Departamento de Ingeniería y Política Pública en la Universidad Carnegie Mellon. Por ejemplo, los campos magnéticos pueden afectar el funcionamiento de las membranas celulares, el procesamiento de información genética, la producción de neurotransmisores y la actividad de las células del sistema inmunológico.8 Sin embargo, es necesario aclarar que algunos de los experimentos realizados en los laboratorios se han llevado a cabo usando campos que son docenas de veces más intensos que aquéllos a los que el ser humano está usualmente expuesto. No es claro si un cambio celular en la preparación del laboratorio se traduce en un cambio celular en un organismo vivo; así como tampoco se puede argumentar una razón válida para que ello no suceda. Los estudios realizados en Europa con roedores a los que químicamente se les ha inducido cáncer de pecho, muestran que el cáncer parece crecer más rápidamente en presencia de campos magnéticos extremadamente intensos; sin embargo, en otros estudios con animales, la tendencia observada parece indicar que la presencia de campos magnéticos no causa efectos notables en la reproducción o en la salud. Algunos investigadores han sugerido recientemente que la presencia de campos magnéticos puede influir en la salud a través de una hormona llamada melatonina. Esta amina biógena es producida por la glándula pineal, un órgano del tamaño de un chícharo que se localiza en el cerebro y que es exquisitamente sensible a la luz y a la oscuridad, tanto que produce la melatonina sólo en la oscuridad. La luz del día suprime dicha producción y la investigación con animales ha sugerido que la presencia de campos magnéticos también puede suprimirla. La importancia médica de la melatonina radica en el hecho de que en los experimentos de laboratorio realizados en tubos de ensaye muestran que dicha hormona suprime el crecimiento de los tumores; es también un antioxidante muy poderoso, y ello significa que ayuda a los organismos para deshacerse de los radicales libres identificados como dañinos para las células, o bien, francamente involucrados en la aparición de ciertas enfermedades, incluyendo el cáncer. Si se comprueba que el campo magnético suprime la producción de melatonina, entonces éste podría estar facilitando el crecimiento desapercibido de las células cancerosas. Hasta la fecha, sólo existe una evidencia rudimentaria acerca de los efectos del campo magnético sobre los niveles de melatonina en el cuerpo humano; los dos estudios que sugieren esta posibilidad también sugieren que sólo ciertos individuos son susceptibles a la aparición de problemas en sus organismos. Lo que no deja de ser desesperante es que no se estimule este tipo de investigación mediante mayores apoyos económicos que permitan, a la brevedad posible, confirmar o corregir éstas y otras indicaciones de peligro.
 
Aprendiendo a vivir con los riesgos
 
La mejor medida es aprender a vivir con el riesgo y mantenerlo en perspectiva; cada familia debe tomar una decisión sobre estos riesgos al igual que lo hace respecto a otros problemas que ponen en peligro la vida de sus integrantes. Lo más recomendable es buscar la manera de reducir la exposición a campos magnéticos y no realizar cambios radicales como mudarse o destruir las líneas de corriente. En algunos países, valiéndose de que la intensidad de los campos decrece con la distancia, las compañías responsables del suministro de energía eléctrica ya se encuentran realizando investigaciones sobre formas de reducir la exposición de los usuarios a los campos magnéticos. La manera más sencilla de lograrlo es la de aumentar el derecho de vía en la cercanía de las torres por las que pasan los cables de alta tensión y los de distribución, de manera que queden lo suficientemente alejados de los lugares en donde transcurre la vida diaria de los usuarios.
 
Otra posibilidad es la de enterrarlos, ya que, aunque la tierra no bloquea los campos magnéticos si permite que los cables sean colocados con la cercanía suficiente para que sus campos se cancelen entre sí; en muchas áreas, sin embargo, el proceso de enterrar los cables resulta prohibitivamente caro. Otro par de posibilidades son reconfigurar las líneas de manera que sus campos tiendan a cancelarse o construir torres más altas para que los campos sean menos intensos a nivel del piso. Sobre la primer posibilidad se ha avanzado un poco, pero como es usual, se han encontrado otros problemas que vuelven las líneas más peligrosas y más caras. En nuestras casas debemos revisar la instalación eléctrica, especialmente la parte correspondiente al aterrizado (por lo regular conectada a la tubería del agua fría) y en ciertas áreas donde las casas se encuentran muy próximas entre sí, también debe revisarse la instalación de nuestros vecinos. Adicionalmente, con un medidor llamado gausómetro, se pueden identificar aquellos sitios en los que la intensidad del campo magnético sea alta y cambiar los muebles de lugar de manera que se esté el menor tiempo posible en estos sitios; también se deben alejar de las camas todos los aparatos eléctricos (relojes, radios, peceras, etcétera) y se pueden cambiar los cobertores eléctricos por normales; en la cocina, se debe colocar el horno de microondas en un sitio donde, a la hora de usarlo, no exista la posibilidad de que, inadvertidamente, alguien esté peligrosamente cerca del aparato. Con los monitores de las computadoras, lo mejor es sentarse a una distancia de un metro de la pantalla y mayor aún en el caso de los monitores de televisión. En las oficinas, el arreglo de los muebles en donde se encuentren los monitores de las computadoras se puede hacer de manera tal que se minimice la exposición del personal a los costados y partes traseras de dichos monitores. Para los teléfonos celulares, lo más recomendable es evitar su uso lo más posible y, en todo caso, usar aquellos modelos en los que la antena va montada fuera del vehículo o en una unidad aparte (por lo general, junto con el recargador de baterías), que deberá colocarse tan lejos como sea posible del usuario. 
 
 
DISMINUCIÓN DE LA INTENSIDAD DEL CAMPO MAGNÉTICO CON LA DISTANCIA*   
Voltaje y altura de los cables Distancia de las torres (en metros) Intensidad del campo magnético (en miliGauss) 
115 kV  0 30
 a 20 metros 15 
sobre el piso 30 27
  60 0.4
  90 0.2
     
230 kV 0 58
a 26 metros 15 20
sobre el piso 30 7
  60 2
  90 1
     
500 kV 0 87
a 41 metros 15 30
sobre el piso 30 13
  60 2
  90 1
     
* El campo magnético producido por los cables fluctúa considerablemente dependiendo del número de aparatos que estén funcionando; los valores en este cuadro son los típicos durante cargas normales.
 articulos
Referencias Bibliográficas
 
American Journal of Industrial Medicine, junio, 1988, p. 695.
Constraints on biological effects of weak extremely-low-frequency electromagnetic fields, R. K. Adair, Revista The Physical Review A., vol. 43, enero 15, 1991, p. 1039.
Consumer Reports, mayo, 1994, p. 354, Consumers Union of The United States, Inc.
Computers ‘safe’ in pregnancy, The Guardian; Risk of stress seen for women users of VDU’s, The Financial Times; ambos periódicos publicados en Londres, Inglaterra. R. U., el 5 de Septiembre de 1990.
Nature, US agencies split over inquiry into effects of radiation experiments, vol. 368, abril 28, 1994, p. 781.
Physics Today, A Cancer and Power Lines, abril, 1994, p. 23; Letters, enero, 1995, p. 13.
Science, Polarized Debate: EMFs and Cancer, vol. 258, 1992, p. 1724; Letters, vol. 260, 1993, p. 13; EMF Good for trees?, vol. 267, 1995, p. 451; Epidemiology faces its limits, vol. 269, 1995, p. 164 y p. 1325.
The truth about VDUs, revista Occupational Health, Londres, Septiembre, 1988.
User-Unfriendly, The Spokesman and Spokane Chronicle, Spokane, Washington, p. C1, febrero 6,1991.
Internet: http://infoventures.comldocs/emflink.html
Notas
1. ¿Debemos preocuparnos por toda esa contaminación que no vemos, que no sentimos y a la que sólo descubrimos mediante sus efectos nefastos cuando generalmente ya es demasiado tarde?
2. Véase el artículo en la revista Nature que se encuentra en la sección 7.
3. Los hertz (Hz) o ciclos por segundo, son las unidades en las que se mide la frecuencia (sección 4).
4. Los anteriores y otros realizados en Suecia, Dinamarca, Finlandia y Los Ángeles (Estados Unidos).
5. Unidades en las que se mide la intensidad del campo magnético.
6. Recuérdese la frecuente queja entre los usuarios de “dolor de cabeza” o de “orejas calientes”.
7. Unidades en las que se mide la cantidad de calor generado por unidad de tiempo: en un horno de microondas se logra que el agua contenida en un vaso hierva en dos minutos.
8. Las imágenes conocidas como tomografías se crean mediante la interacción de los protones del agua en el cuerpo humano con pulsos de radiofrecuencia en presencia de un campo magnético intenso.
 
     
Trabajo galardonado en Ciencia de Frontera. Segundo Concurso de Divulgación Escrita organizado por la Sociedad Mexicana para la Divulgación de la Ciencia y la Técnica y El Centro de Educación y Capacitación para el Desarrollo Sustentable de la Semarnap, 1996.      
____________________________________________________________      
Antonio Sarmiento Galán
Instituto de Astronomía,
Universidad Nacional Autónoma de México.
     
____________________________________________________________      
cómo citar este artículo
 
Sarmiento Galán, Antonio. 1997. La ignominia del desarrollo o los riesgos de la ignorancia. Ciencias, núm. 47, julio-septiembre, pp. 4-11. [En línea]. 
     

 

 

R47Articulo07   menu2
índice 47 
siguiente
anterior 
PDF
   
   
Sergio Galindo Almanza
     
               
               
Cuando nos referimos al método científico, comúnmente
lo representamos como un sistema lógico que comprende las fases consabidas: observación, planteamiento de hipótesis, experimentación, análisis de resultados, establecimiento de teorías y formulación de leyes. Además, visto de esta manera, se tendría también la impresión de que el investigador más brillante sería aquel que se apegara de la manera más ortodoxa al seguimiento de dicho proceso sistematizado. Sin embargo, se sabe ahora que el método científico no es un sistema estático e invariable de normas y procedimientos, e incluso que la capacidad para efectuar investigación científica se encuentra de manera importante determinada por la naturaleza intuitiva del sujeto, entendiéndose a la intuición como un proceso psicológico no considerado por la lógica formal, sin que esto signifique que sea antilógico.
 
En la historia de la ciencia son abundantes los casos en los que notables descubrimientos se hacen de manera súbita, en un momento de “iluminación”. Basta recordar la expresión ¡eureka! de Arquímedes al percibir mientras flotaba en el agua la idea del peso específico, o el caso de Newton, de quien se dice que concibió la ley universal de la gravedad al ver caer una manzana mientras se encontraba acostado sobre el césped. Asombrosa resulta la determinación de Mendeleyiev, durante el sueño, de la regularidad de la tabla periódica de los elementos.
 
Las explicaciones que se han dado al modo repentino en que ocurren este tipo de descubrimientos han sido de índole diversa.
 
Así, Bacon y Kant (en los siglos XVII y XVIII, respectivamente) reconocen la participación de la intuición en las actividades de investigación, y la definen como el proceso de pensamiento que pretende llegar sin ningún rodeo al objeto o fenómenos bajo estudio. Sin embargo, parece ser que al igual que la sociedad de su tiempo, entendían la intuición como un hecho divino, por lo tanto no susceptible de ser explicado de modo racional.1
 
Otros investigadores han resuelto no tomar en cuenta la intuición debido al carácter místico que se le ha atribuido, y explican que la realización de los descubrimientos sobresalientes se debe al azar o a la casualidad. Cannon2 es un exponente de esta teoría, y señala que basta sólo con poseer un espíritu alerta y libre, aunado a una buena preparación académica, para poder aprovechar las oportunidades que el azar vaya propiciando.
 
Para Rosenblueth3 la teoría del azar es del todo inaceptable. Al respecto menciona que si los descubrimientos se realizaran de esa manera, estarían distribuidos también al azar entre los diversos investigadores, lo cual no ocurre así, pues hay personas dedicadas a la ciencia que nunca aciertan, mientras que una reducida minoría hace numerosos e importantes descubrimientos.
 
Bunge4 tampoco se atreve a reconocer la participación de la intuición. No obstante, según mi consideración, ésta puede ser ubicada de manera velada en sus apreciaciones cuando señala que el método de la investigación no necesariamente es comunicable o transferible y no todas las etapas son conscientes para el investigador; a éste su actividad le exigirá el más intenso ejercicio de sus facultades psíquicas así como habilidad para realizar inferencias de tipo no analítico.
 
A mediados del presente siglo, con el desarrollo de la psicología genética por Jean Piaget, se empieza a configurar un marco de conocimiento que permite ubicar en él a la intuición como un proceso objetivo.5 Este autor consigna que, de acuerdo con dichas investigaciones, se ha encontrado que la capacidad intuitiva empieza a ejercerse aproximadamente a los 11 o 12 años de edad, a partir de las experiencias que, en contacto directo con el ambiente, el niño asimiló de manera inconsciente. Añade que se han detectado algunas características que facultan para la intuición, tales como la maduración personal del sistema nervioso, los aprendizajes derivados de la experiencia y la adquisición de las funciones lingüísticas.
 
Los más recientes estudios en el dominio de la psicología prenatal indican que las experiencias en el vientre materno pueden definir en un grado importante la personalidad y las aptitudes intelectuales del ser humano.6
 
De acuerdo con Rosenblueth7 en el método científico la intuición se manifiesta desde la selección del problema o fenómeno que se va a estudiar. Afirma que también son esencialmente intuitivos la formulación de la hipótesis de trabajo, la selección del método experimental y la construcción final de la teoría. El citado autor agrega que en la investigación la experiencia es importante, pero el factor decisivo corresponde a la intuición; en ese sentido saca a colación que existe un buen número de experimentadores con un gran caudal de conocimientos y estudios previos que, no obstante, son incapaces de encontrar líneas de investigación originales y fructíferas.
 
Respecto a la forma en que opera la intuición, Iglesias8 refiere lo siguiente: el investigador, sin reconocer en él mismo las estructuras que va generando gradualmente en lo psicológico, llega a presentar las relaciones del objeto en estudio en una visión coherente que aparece de manera repentina ante su propia observación.
 
El papel que corresponde al sujeto en el proceso de adquisición de conocimiento no está claro, pero esto no significa que dicho proceso sea inexplicable: la solución al problema de la llamada lógica del descubrimiento se encuentra en el campo de la psicología.9 A continuación se exponen los puntos centrales del marco teórico desarrollado por estos autores, tendiente a explicar mejor el proceso de la intuición: 1. el razonamiento científico no se rige por normas especiales, sino que es una prolongación del pensamiento natural u ordinario. Los científicos no constituyen una clase aparte, predestinada, dotada de un pensamiento superior; 2. todo conocimiento por nuevo que parezca no es jamás un hecho primigenio, totalmente independiente de los que le han precedido; 3. un nuevo conocimiento no se integra de golpe al acervo cognoscitivo del investigador: se requiere de éste un esfuerzo de asimilación y de acomodación para hacerlo coherente y comprensible para él mismo; 4. el paso de un conocimiento a otro nuevo representa una discontinuidad, un salto, que no es predecible ni está sujeto a normas. A pesar de ello, dicho salto no sucede en el vacío ya que posee una lógica interna en el nivel psicológico; 5. los procesos cognoscitivos son los mismos en todos los individuos; no influye la clase social, raza o país a los que pertenezcan.
 
Aunque calificándola como especulativa, Rosenblueth10 expresa su simpatía por la teoría propuesta por Poincaré, a principios del siglo, acerca de la intuición. Una síntesis de ésta (teoría de la elaboración inconsciente o subconsciente), se presenta a continuación.
 
Lo que aparece como iluminación súbita es, sin duda, el indicio de un largo trabajo inconsciente anterior. Los procesos inconscientes serían automáticos, pero de todas las combinaciones que se forman en esas circunstancias sólo los pasos interesantes lograrán penetrar al campo de la conciencia debido a que afectarían más profundamente la sensibilidad estética del investigador. Es decir que, entre el gran número de combinaciones que el yo subconsciente forma, la mayoría carecen de interés o utilidad; no poseen carácter estético. Pocas combinaciones son armoniosas y por lo tanto útiles y bellas; éstas serían capaces de conmover la sensibilidad estética del hombre de ciencia al determinar que su atención se fije en ellas dándoles ocasión de hacerse conscientes. De esta manera resultaría que quien no poseyera esa sensibilidad estética, nunca sería un verdadero investigador.
 
Al criticar dicha teoría, Rosenblueth11 señala que la afirmación de que existen estados mentales inconscientes, que no son percibidos en ninguna forma por el individuo en quien ocurren, es por ahora inconsistente. Sin embargo, agrega que sin duda los fenómenos inconscientes existen, aunque por el momento se hallen en los límites del conocimiento. Finalmente, el autor deja establecido que, a pesar de las objeciones que se pueden hacer a esta teoría, se debe aceptar el énfasis que Poincaré pone a la satisfacción estética como criterio importante para aceptar una teoría científica. Fundamenta su observación en el hecho de que se sabe que la motivación que impulsa al científico no es sólo lograr la mayor aproximación posible a la verdad, sino también experimentar sensaciones semejantes a las que se producen cuando se genera o aprecia una obra de arte.
 
Conclusión
 
Aunque situado todavía en las fronteras del conocimiento, se registran sustanciales avances en el esclarecimiento del proceso de la intuición. El conocimiento disponible denota la relevancia central que el ejercicio de la intuición tiene para las personas dedicadas a la ciencia. Queda también claro que, sin ésta, el individuo tendrá pocas posibilidades de hacer aportes significativos en la disciplina de su interés, y que de poca utilidad le será una perseverancia que le lleve a atiborrarse de cursos con propósito de capacitarse para la investigación.
 
Lo anterior no significa, sin embargo, que para la adquisición de las facultades de intuición se requieran condiciones de exclusividad, difíciles de reunir para la mayoría de la población humana. Por lo contrario, parece que basta que el ser humano, particularmente hasta el final de la etapa infantil, tenga un desarrollo sano, en contacto con la mayor diversidad posible de estímulos proporcionados por el ambiente natural y humano, de los cuales la intuición se nutre. Esto debe ser tomado muy en cuenta por los teóricos de la educación, así como por los padres de familia y maestros.
 
Si bien la distribución de la intuición en la población humana no se relaciona con las clases sociales, éste último factor sí determina que los individuos de clase económica débil tengan pocas oportunidades de acceder a los espacios científicos, artísticos o culturales, en las que la intuición es básica para el desarrollo de la creatividad.
 
Resulta interesante la tesis de Poincaré, relativa a conceder al elemento estético la función de filtro que permite a la mente seleccionar, de entre un número elevado de posibilidades, unas cuantas opciones, que de ese modo pueden ser reconocidas por la conciencia. Esto es fácil de comprender para aquel que haya tenido oportunidad de realizar investigación y haya experimentado los estados de catarsis que surgen cuando se ubican sendas fértiles o posibilidades inesperadas en el devenir del trabajo de investigación.
 
 articulos
Referencias Bibliográficas
 
1. Abbagnano, N., 1982, Diccionario de Filosofía, Segunda Edición, Fondo de Cultura Económica, México.
2. Cannan, W., 1976, “Los grandes descubrimientos se deben a la casualidad”, Arias, G. (compilador), Lecturas para el curso de Metodología de la investigación, Trillas, México, pp. 96-103.
3. Rosenblueth, A., 1981, El método científico, Segunda edición, Consejo Nacional de Ciencia y Tecnología, México.
4. Bunge, M., 1985, La ciencia, su método y su filosofía, Siglo XX, Buenos Aires.
5. Iglesias, S., 1981, Principios del método de la investigación científico, Tiempo y Obra, México.
6. Ramos, C., 1991, Lo que aprendemos antes de nacer, Conozca Más, 7:30-31.
7. Rosenblueth, op. cit.
8. Iglesias, op. cit.
9. Piaget, J., y García, R., 1987, Psicogénesis e historia de la ciencia, Tercera Edición, Siglo XXI, México.
10. Rosenblueth, op. cit.
11. Ibid.
     
 ________________________________________      
Sergio Galindo Almanza
Desarrolla investigación en el área de recursos vegetales de zonas áridas. Actualmente cursa el doctorado en biología en la Facultad de Ciencias de la Universidad Nacional Autónoma de México.
 
Profesor titular C del Instituto Tecnológico de Los Mochis, Departamento de Ingeniería Química, Bioquímica y Biología.
     
___________________________________________________________      
cómo citar este artículo
 
Galindo Almanza, Sergio . 1997. La intuición en la investigación científica. Ciencias, núm. 47, julio-septiembre, pp. 58-61. [En línea].
     

 

 

R47Articulo05   menu2
índice 47 
siguiente
anterior 
PDF
   
   
Marco Antonio Martínez Negrete
     
               
               
Hay muertos que no hacen ruido, dice el refrán. La fumarola
del Popocatépetl nos alerta ante una posible erupción, o al menos ante la presencia de emisiones de cierto peligro. Sin embargo, hay otros peligros que no se hacen tan patentes. La única nucleoeléctrica existente en México es uno de estos casos. Hubo un tiempo en que se discutió mucho acerca de los peligros que su construcción acarrearía, pero parece que esta discusión ha caído en el olvido. Durante la construcción y puesta en operación de la planta de Laguna Verde mucho se mencionó y denunció la serie ininterrumpida de accidentes e irregularidades de menor a mayor gravedad. El pueblo se ha venido enterando gracias, entre otras cosas, al valor civil de algunos técnicos que trabajaban en Laguna Verde quienes, precisamente por sus denuncias, han sido injustamente despedidos. Una amplia lista de dichos percances se puede consultar en el folleto Impacto de Laguna Verde, citado al final.
 
Como muestra de que las irregularidades en la operación de Laguna Verde continúan hasta la fecha, con los consecuentes riesgos de accidente, se ofrece el testimonio del físico-matemático Bernardo Salas Mar, quien se desempeñaba en el área de protección radiológica de Laguna Verde hasta hace poco, antes de ser despedido debido a las frecuentes denuncias que hacía de los problemas y a las soluciones que insistentemente presentaba. De entre ellos destacan los siguientes: el 9 de marzo de 1993 se presentaron las condiciones de “estado de alerta” en la central, pero esto no fue declarado por las autoridades, a pesar de que debió haberse activado la operación “Organización de Respuesta a Emergencias”. Es decir, el personal de Laguna Verde fue expuesto a un riesgo de incalculables consecuencias, en contra de la ley.
 
La dosimetría del personal no se realiza correctamente, por lo que no hay registro fidedigno de las dosis de radiación que los empleados reciben.
 
Existe un incinerador clandestino en donde se quema basura radiactiva. Además, en la playa se queman aceites de desecho que contienen material radiactivo. Los humos transportan la basura radiactiva hacia el exterior de Laguna Verde, según sea la dirección de los vientos. Han fallecido ya dos trabajadores de cáncer, y dos más se encuentran en fase terminal, presumiblemente por exposición a las radiaciones.
 
¿A qué se debe esta situación?
 
La inseguridad de Laguna Verde
 
No se conoce la probabilidad de que ocurra un accidente grave en Laguna Verde, pero hay algunos indicios de que ésta no es pequeña debido a las siguientes razones: a) el diseño ha sido considerado defectuoso tanto por la Comisión de Energía Atómica de Estados Unidos como por la propia división nuclear de la General Electric; los defectos señalados, que afectan al mecanismo de despresurización en caso de ruptura de una tubería principal de vapor, no son corregibles; el ocultamiento premeditado de estos errores de diseño (descubiertos a partir de la aprobación del Acta de Libertad de Información de 1974) condujo a que la General Electric enfrentara en Estados Unidos demandas por fraude de varios miles de millones de dólares en la década de los ochenta; b) en 1979 la Comisión Reguladora de lo Nuclear de Estados Unidos invalidó los cálculos previos acerca de la probabilidad de accidente nuclear (informe WASH-1400) y, por el contrario, estimó con fundamentos en la experiencia de operación de las plantas nucleares de ese país que la probabilidad de un accidente grave antes del año 2000 era de 45%; dado el origen de su diseño se podría considerar a Laguna Verde en el cálculo; c) durante la construcción de Laguna Verde se presentaron innumerables irregularidades, por lo que en 1987, con base en dichas irregularidades, un técnico inspector de la Agencia Internacional de Energía Atómica declaró que en Laguna Verde había “…una degradación posible del grado de seguridad nuclear”; en 1988, J. K. Wilmshurst, asesor de EBASCO, reclamó a las autoridades responsables de Laguna Verde que estuviera instalando refacciones inadecuadas para plantas nucleares; d) Laguna Verde está asentada en zona sísmica; los sismos del 24 de marzo de 1994 y los que siguieron “…tuvieron su origen en una falla de las que separan el bloque elevado de la corteza, donde se ubica Laguna Verde, del bajo bloque en proceso de hundimiento activo de la cuenca de Veracruz. El hundimiento de dos metros —en un periodo de seis años— del nivel del terreno donde funcionan los sistemas de toma de agua para enfriamiento, evidencian la inestabilidad real del área que no fue comprendida en el proyecto original”; e) Laguna Verde es un sistema muy complejo, en el que las fallas genéricas llamadas common mode failures (interacción horizontal de fallas) son intrínsecas y pronunciadas.
 
La seguridad de la población no ha sido una prioridad del gobierno (parece más bien lo contrario, como se demostrará en breve), y esto ocasionó que, a partir del accidente de Chernobyl, se iniciara en el estado de Veracruz un movimiento social de rechazo decidido a la planta nuclear.
 
Para poner en operación el llamado Plan de Emergencia Radiológica Externa (PERE), diseñado para proteger a la población en caso de accidente nuclear, no se cuenta con suficientes albergues y hospitales. En los simulacros de evacuación no han intervenido los pobladores, por los que en caso de emergencia ellos no sabrían qué hacer.
 
La Ley de Responsabilidad Civil por Daños Nucleares, vigente desde el 31 de diciembre de 1974, limita a 100 millones de pesos las indemnizaciones totales por daño nuclear (cantidad infinitesimal comparada con los costos de un accidente nuclear, aun de los considerados leves como el de la Isla de las Tres Millas que viene costando más de 7000 millones de dólares y, no se diga el de Chernobyl); estipula también que las reclamaciones pierden vigencia a los 10 años de ocurrido el accidente, es decir, justo más allá del tiempo de incubación de un gran número de enfermedades provocadas por las radiaciones de “bajo nivel”, que afectarían a miles y posiblemente a millones de personas.
 
En resumen: la probabilidad de accidente en Laguna Verde no es pequeña, no hay posibilidades de protección por evacuación u hospitalización y las indemnizaciones prácticamente no existen para el pueblo de México. Por otra parte, Laguna Verde también representa un riesgo para las poblaciones del Caribe, Centroamérica y América del Norte.
 
Los ecos de Tres Millas y Chernobyl
 
El accidente de The Three Mile Island ocurrido en marzo de 1979 resaltó el problema de la inseguridad básica de las plantas nucleares, lo que se reflejó tanto en sus costos debido a las nuevas reglamentaciones que debían cumplir, como en el creciente rechazo social. El accidente precipitó la crisis de la industria nuclear norteamericana, que ya se venía anunciando años atrás: todos los pedidos de plantas nucleares posteriores a 1975 habían sido cancelados (para un total actual de 121 plantas nucleares) y desde 1978 no se hacían nuevas órdenes (situación que prevalece).
 
Indudablemente los efectos de dicho accidente tuvieron eco en las industrias y en los planes de expansión nucleares de otros países del mundo. En México, este percance inició la toma de conciencia de que la generación de electricidad con uranio tal vez no era la gran opción que se venía postulando desde la década de los cincuenta, con el programa de “Átomos Para la Paz”. A partir de ese gran esfuerzo propagandístico, en México se aceptaba, casi sin críticas, que la energía nuclear era un símbolo de progreso técnico y económico, al que “había que entrarle a como diera lugar”.
 
Desde 1966 se habían dado los primeros pasos para construir la primera planta nuclear, en Laguna Verde, en la costa del estado de Veracruz. El proyecto se inició con tecnología nuclear de la General Electric, y con fuerte asesoramiento norteamericano en ingeniería y administración. A pesar de algunas discrepancias internas notables, la construcción avanzaba lentamente, sin que éstas trascendieran a la opinión pública. El accidente de Tres Millas ocasionó cierta discusión acerca de Laguna Verde en la prensa, pero sin consecuencias de importancia.
 
En Suecia, en cambio, el accidente de TMI se presenta en el momento en que se discute la conveniencia de someter a referendo el destino de la energía nuclear. El referendo se acelera debido al accidente y en 1980 se realiza, con la conclusión de que se congela la construcción de más plantas nucleares de las ya construidas y de las que ya se había decidido construir. Este hecho también trasciende en la opinión pública mexicana, por medio de su difusión en un periódico de circulación nacional y otro de circulación estatal, en Veracruz. Pero, como se dijo, la información que se dio no fue capaz de que la sociedad cuestionara la conveniencia de proseguir la construcción de Laguna Verde.
 
Con la tragedia nuclear de Chernobyl, que ocurrió el 26 de abril de 1986, la situación cambió radicalmente. La gente concientizada del estado de Veracruz captó enseguida el mensaje: si un accidente de tal magnitud puede ocurrir en un país donde tal tecnología nació, y en donde supuestamente se cuenta con la capacidad para operar las plantas de manera segura, ¿qué puede esperarse en México, donde no hay experiencia de construcción ni de operación de dichas centrales y en donde la corrupción es un modus operandi, prácticamente en cualquier actividad?
 
A partir de 1986 se inició en el país un debate acerca de la energía nuclear, apoyado por el movimiento de protesta veracruzano, con la participación de casi todos los medios masivos de comunicación (sin que, por decisión gubernamental, pueda participar la televisión). El movimiento cuestionó en varios aspectos la energía nuclear, no sólo la seguridad, de tal manera que en cierto momento parecía poner en peligro la continuación de la construcción de Laguna Verde, al ligarse con una cierta racionalidad económica defendida por un sector del gobierno mismo, que veía ciertamente el grave problema financiero planteado por la planta. Si, a final de cuentas, el factor económico determinó la bancarrota de la industria nuclear en Estados Unidos, la situación no podía esperarse mejor en México, país que cuenta con una economía y una infraestructura técnica e industrial mucho más débiles.
 
A pesar de que la protesta logró extender a otras regiones, sobre todo a la políticamente importante del centro del país, y sin importar las irracionalidades de todo tipo de proyecto nuclear (energéticas, económicas, ambientales, sanitarias, etcétera), el gobierno mexicano decidió proseguir y en 1989 se hizo la primera carga de uranio a la primera unidad de Laguna Verde. Después de este momento la protesta social decayó notablemente, no sin que tuviera un efecto en los planes futuros de construcción de más plantas nucleares.
 
Críticas y opciones
 
Existen críticas y opciones generales a la nucleoelectricidad y, en particular, a Laguna Verde. Las críticas generales de los años ochenta planteaban la incosteabilidad e inseguridad de las plantas, como argumentos básicos, además de la dependencia tecnológica en cuanto a equipos y combustible y el desvío de fondos y atención hacia la solución del problema del tránsito energético hacia fuentes limpias, seguras y renovables. En la inseguridad no sólo se hacía referencia a la posibilidad de accidentes nucleares, sino también a los daños causados por las emisiones “controladas”, los desechos radiactivos y la proliferación de armas nucleares. Estos factores venían mostrando sus efectos en la bancarrota de la industria nuclear de Estados Unidos, en la decisión de varios países para no incursionar en la instalación de plantas nucleares (Irlanda, Noruega, Dinamarca, Luxemburgo, Grecia, Nueva Zelanda), en el abandono de ellas (aunque ya estuviesen construidas, como en Austria, Suecia, Italia y Filipinas) y en la radical disminución en las proyecciones futuras de los planes nucleares (que generalmente eran grandiosas).
 
Un aspecto central de la crítica general tenía (y tiene) que ver con la seguridad de la humanidad y el planeta en un sentido mucho más amplio. Se trata del problema del tránsito ordenado y no violento de los energéticos agotables (hidrocarburos, carbón y uranio) a los energéticos potencialmente inagotables (solar directa e indirecta y geotermia). Al menos son dos razones básicas para justificar este tránsito: 1) ambientales; los combustibles fósiles contaminan el ambiente y contribuyen de manera determinante al cambio climático; la energía nuclear contamina también y conlleva riesgos radiactivos enormes (por lo que la pretensión de sustituir hidrocarburos con energía nuclear es parte del problema, no de la solución); el carácter descentralizado de la energía solar, a diferencia de la centralización (desde la localización al consumo) de los energéticos agotables, la hace susceptible de ser integrada tecnológicamente a los biociclos y, por tanto, ser compatibles con el llamado “desarrollo sustentable”; 2) políticas; el agotamiento de los hidrocarburos, el carbón y el uranio, dado su alto grado de localización en reservas (Medio Oriente) y consumo (países de la OCDE), conlleva un elevado potencial de violencia entre naciones, sobre todo en las vísperas de su agotamiento. Lo anterior y la energía nuclear conforman un peligroso sinergismo negativo, por la vinculación del “ciclo” del combustible nuclear con las armas nucleares, pues los conflictos previsibles por el agotamiento de los energéticos pueden dirimirse potencialmente con el uso o la amenaza de las armas nucleares, o pueden provocar el deseo de adquirir dicha clase de armamento.
 
Por lo que respecta a la nucleoelectricidad en México, la discusión se puede plantear en dos líneas de argumentación: por un lado, las concepciones que el Estado mexicano venía formulando en términos generales y, por otra, el proyecto concreto de Laguna Verde, que no estaba desligado de la concepción de un programa nuclear. La formulación más integral de un programa nuclear es la que el gobierno hace en 1980, que se desprende del “Programa de Energía. Metas a 1990 y proyecciones al año 2000”.
 
El Programa de Energía describía dos escenarios posibles para la explotación petrolera. En el escenario B el petróleo era sostén de una economía en crecimiento acelerado hasta y más allá del año 2000, mientras que en el A el crecimiento de la economía no era tan fuerte, pero el petróleo se extraía profusamente para su exportación.
 
En el escenario B la extracción anual de hidrocarburos para la exportación se limitaba a un máximo de 1.5 millones de barriles de petróleo diarios (MBPD) y a un máximo de 300 millones de pies cúbicos de gas al día, de suerte que no más de 50% de estas exportaciones fueran dirigidas a un solo país (léase Estados Unidos). El agotamiento de las reservas y las limitaciones en la explotación (aunque las restricciones ambientales todavía no desempeñaban el papel de ahora), aunadas a un gran crecimiento de la demanda interna, harían necesaria la diversificación energética de los hidrocarburos, en particular en la generación de electricidad. Como se creía que la única fuente de sustitución masiva de hidrocarburos para producir electricidad era la energía nuclear, se programaba la instalación de unas 15 plantas nucleares de la capacidad de Laguna Verde. Las divisas para la adquisición de estas plantas se obtendrían de la venta del petróleo sustituido, para el que se pronosticaban precios internacionales con tasas de aumento anual de entre 5% y 7%, hasta el año 2000.
 
En el escenario A la extracción total de petróleo se elevaba de inmediato hasta una meseta que podía estar entre los 8 y los 10 MBPD hacia finales de la década de los ochenta, para bajar luego a unos 4 MBPD hacia el año 2000; las exportaciones seguían una curva paralela a la de la extracción, pero con volúmenes de tres a cuatro veces el fijado en el escenario B para el mismo periodo. Estas cantidades serían incompatibles con los objetivos económicos de largo plazo del país, tal como se definían en este programa y en otros como en el industrial, de ahí que el escenario A fuera considerado menos apropiado que el B. Dos grupos de poder dentro del gobierno se pronunciaron por uno y otro escenario (uno menos nacionalista que el otro). La energía nuclear para sustituir hidrocarburos entraba también en el escenario A con las mismas magnitudes porque, aunque la demanda interna era menor que en el escenario B, las exportaciones eran mayores y, hacia el año 2000 se sentiría también el déficit del suministro de hidrocarburos para satisfacer la demanda interna.
 
Por otra parte, hace 16 años los físicos mexicanos no podíamos imaginar que los escenarios A y B correspondían a la lucha que se iniciaba entre un agresivo proyecto económico neoliberal en ciernes, patrocinado por el gran capital monopolista financiero, y el proyecto populista semicorporativo de Estado. Este conflicto derivaría en el control del petróleo mexicano por Estados Unidos, al destinarse el total de las ventas de petróleo al pago de la deuda externa contraída entre otras razones, y paradójicamente, para la compra de equipo de extracción de petróleo y gas.
 
La justificación del Programa de Energía de los 20000 Mw para el fin del milenio, con la argumentación que ya se dio respecto a los escenarios A y B, venía acompañada de la siguiente: la oferta de electricidad pasaría de 58.1 billones de watts-hora (twh) en 1979 a 560 twh (¡casi diez veces más!) en el año 2000, debido a una tasa postulada de crecimiento en la oferta de 12% anual. La hidroelectricidad generaría 80 twh en condiciones “por demás favorables”, el carbón 40 twh y la geotermia 20 twh, quedando 420 twh para ser cubiertos por una combinación de hidrocarburos y uranio. Como el consumo acumulado de hidrocarburos para generar la electricidad requerida sería de 8 461 MBPD y los 20000 Mw nucleares sustituirían unos 1526 MBPD, la diferencia vendida proporcionaría los fondos para la inversión en nucleoelectricidad. Estos grandiosos planes fueron elaborados con la asesoría de la Atomic Energy of Canada Limited, la Asea Atom (de Suecia) y la SOFRATOME (de Francia). Ante las críticas por lo descabelladas que eran las cifras proyectadas de la generación de electricidad, la Comisión Federal de Electricidad planteó enseguida que la oferta oscilaría entre 380 twh y 550 twh en el año 2000. Asignaba una contribución máxima de 140 twh anuales para la combinación de la geotermia, el carbón y la hidroelectricidad, quedando una diferencia de entre 240 twh y 410 twh anuales a ser cubierta nuevamente por hidrocarburos y uranio.
 
Estos grandiosos planes no dejaron de encontrar críticas oportunas, dentro del propio gobierno y abiertamente en la opinión pública, en los aspectos que se mencionan a continuación.
 
Energéticos y económicos
 
La proyección de la oferta de electricidad para el año 2000 era muy exagerada, basada en una tasa de crecimiento desproporcionada. El tiempo dio la razón a la crítica (aquí, como en otras partes del mundo en donde los pronucleares intentaban vender sus productos, el truco favorito era la proyección de un gigantesco crecimiento en la demanda de electricidad). En 1994 la generación y la demanda de electricidad era de apenas 137.5 twh y 111.5 twh, respectivamente, cifras que hacen impensable alcanzar los 560 twh pronosticados para la demanda en el año 2000.
 
El balance energético de Laguna Verde era negativo en cuanto al ahorro de petróleo y de divisas. Se comparaba el costo de generación de electricidad de Laguna Verde en su vida útil con un conjunto de termoeléctricas convencionales que produjeran la misma cantidad de energía y resultaba un déficit de unos 350 MBP, con un costo de unos 4200 MD de aquel entonces. Es decir, Laguna Verde era un fraude energético y económico difícil de soslayar.
 
Otro cálculo de aquel tiempo mostraba la irracionalidad de los 20000 Mw nucleares calculados por el programa de energía de 1980: solamente el petróleo que era necesario exportar para pagar los intereses (no el capital) del préstamo, quemado en termoeléctricas convencionales, generaría unas cuatro veces la electricidad producida por las 15 plantas nucleares.
 
Durante el posterior debate nuclear en México, recrudecido por el accidente de Chernobyl en 1986, se ofreció al gobierno la alternativa de convertir a Laguna Verde en gasoeléctrica, tal y como se venía haciendo con la planta nuclear de Midland en Estados Unidos. En este proyecto incluso se construyó un gasoducto de unos 50 km para transportar el gas a la instalación. El propósito era la utilización del gas asociado transportándolo por el gasoducto que ya pasaba por el terreno de Laguna Verde y que se quemaba abiertamente en la atmósfera sin beneficio alguno, pudiéndose generar así la electricidad de unas diez Laguna Verde. La propia CFE calculó en 525 MD el costo de conversión a gasoeléctrica, mientras que la terminación de Laguna Verde como planta nuclear requería no menos de 900 MD.
 
Se argumentaba también que las reservas de energéticos renovables y la geotermia eran suficientes en el país para satisfacer la demanda de electricidad en las próximas décadas, pudiendo sustituir en gran medida el empleo de los hidrocarburos para este propósito. Se calculaba (incluso oficialmente) que el potencial hidroeléctrico era de unos 80 twh (del que restaba por utilizarse 85%), pudiendo elevarse la cifra en condiciones extremas hasta unos 160 twh. Esto sin contar los potenciales de la geotermia, el Sol, el viento y la biomasa que, en conjunto con los hidrocarburos, podrían conducir el tránsito ordenado del país de los energéticos agotables (hidrocarburos y carbón) a los inagotables (geotermia y renovables). El empleo de energéticos inagotables era una condición necesaria para el desarrollo sustentable, que ya empezaba a pregonarse como un factor de estabilidad política y ambiental en el planeta.
 
Por lo demás, el argumento oficial de que la única alternativa energética para los hidrocarburos era la energía nuclear resultaba falso, pues en México no podía ser así por reservas ni por usos finales. Las reservas probadas de uranio apenas alcanzarían para Laguna Verde y del uso total de hidrocarburos, apenas 11% se dedicaba a la generación de electricidad.
 
A pesar de sus manifiestas irracionalidades el gobierno decidió seguir adelante con la construcción de Laguna Verde, iniciándose en 1989 las llamadas “pruebas en caliente”, que romperían otro récord mundial ahora en cuanto a las “paradas de emergencia”. Dos causas posibles de esta obstinación eran la presión de la industria nuclear norteamericana (con su gobierno detrás), y la negativa del partido político en el poder de asumir el costo político del fracaso que significaba Laguna Verde.
 
Aún más, y desde el punto de vista estrictamente económico, el balance de Laguna Verde no podía ser más negativo. Frente a los 4400 millones de dólares que se reconocían gastados hasta 1988, estaban las estimaciones ya mencionadas de 7000 millones de dólares como costo mínimo de construcción, calculadas por el ingeniero Jorge Young Larrañaga.
 
Situación actual y futuro
 
A 14 años del Programa de Energía de 1980, el actual “Programa de desarrollo y reestructuración del sector de la energía, 1995-2000”, plantea tasas de crecimiento de la demanda de electricidad de entre 3.5% y 4.9% anual, para llegar al año 2000 a cifras situadas entre los 130.3 twh y 140.2 twh anuales (frente a los 111.5 twh eléctricos consumidos en 1994). La capacidad total instalada se diagnostica mediante un plan de diez años (al año 2004). Con la tasa de crecimiento “esperada” de 4.9% anual, se requerirían instalar 13039 Mw adicionales, sobre los 31649 Mw existentes en 1994; de este total, ya están en construcción o comprometidos 4008 Mw (1020 Mw en termoeléctricas y 2988 Mw en otras fuentes, incluida la segunda planta Laguna Verde, que entró en operación al año siguiente); los restantes 9031 Mw se licitarán entre 1996 y 1999, para entrar en operación entre 1999 y 2004.
 
Los objetivos de la diversificación se mantienen, pero sobre todo del muy contaminante combustóleo al gas natural, al carbón y a las fuentes renovables y se espera que en el año 2000 el espectro de generación eléctrica sea el siguiente: 54% hidrocarburos, 27.1% hidro, 6.9% carbón, 5.6% dual (carbón y combustóleo), 3.6% uranio (LV1 y LV2), 2.7% geotermia y 0.1% viento.
 
Ninguno de los proyectos futuros de generación eléctrica corresponde a plantas nucleares. Las referencias a lo nuclear son colaterales y van en el sentido de que el personal capacitado durante la construcción y operación de Laguna Verde “…deberá mantenerse en estrecha relación con el desarrollo de programas nucleares de otros países. Esto permitirá que el personal nacional sea partícipe del avance científico y tecnológico en la materia”.
 
El financiamiento espera resolverse con aportaciones estatales en 25% y con privadas en el 75% restante, “sobre todo bajo la modalidad de productor independiente”. En México, a partir del gobierno anterior, se ha dado un cambio cualitativo: el Estado mexicano ya no tiene el monopolio de la generación, transmisión y distribución de la electricidad. Ahora el capital privado puede intervenir en cualquiera de las tres instancias.
 
Ahora bien, con el fin de controlar la inflación, el kwh se vende a un precio por debajo del costo de generación. Esto desalienta la entrada del capital privado en generación; para contrarrestar este efecto, por medio de la CFE, el gobierno realiza contratos de 15 años con los inversionistas que construyen la planta, de suerte que mediante pagos que el gobierno hace durante tal periodo el inversionista recupera el capital invertido, más una ganancia (que se especula podría ser de entre 15% y 20%; mientras que en Estados Unidos es de 5%). A pesar de los incentivos, hay dificultades presentes para financiar varias termoeléctricas, como la de Mérida, en el estado de Yucatán.        
 
Las plantas térmicas, que actualmente son preferidas por razones económicas y ambientales, son las de ciclo combinado con gas. Frente a éstas, las plantas nucleares no pueden competir, pues su tiempo de construcción es de apenas 3 años (comparado con unas dos décadas para una planta nuclear), y el costo del kw instalado es un tercio del kw nuclear.
 
 
Graciela Iturbide, Casa de la muerte, 1975
    
 
Además, en el caso de las plantas nucleares, quedan los irresueltos problemas de los desechos radiactivos y el rechazo social. La basura radiactiva de Laguna Verde se sigue acumulando peligrosamente en la alberca de enfriamiento, sin que se sepa a ciencia cierta qué hacer con ella. No se la puede reprocesar porque está prohibido; tampoco hay posibilidad de exportarla, porque en ningún país es económico el reprocesamiento; tampoco hay planes de construcción de un depósito final, dado lo oneroso que sería tal proyecto.
 
El futuro de la energía nuclear en México depende de que se resuelvan todos los problemas antes mencionados, de la evolución de los precios de los hidrocarburos y de que pudieran diseñarse plantas nucleares que fueran de verdad seguras, y que no dejaran desechos radiactivos. Todo lo cual no parece posible.
 
Las viejas justificaciones para introducir las plantas nucleares ya no podrían esgrimirse, sobre todo cuando las subvenciones estatales tienden a desaparecer. Primero se dijo que las reservas de hidrocarburos eran pequeñas, luego que, aunque grandes, se agotarían pronto; en una tercera etapa se pretende justificar el uso de la energía nuclear con el efecto que tendría sobre el calentamiento global, al sustituir la quema de combustibles fósiles. Pero en este sentido, la energía nuclear llega tarde, además, con una influencia casi marginal en México, puesto que de los usos totales de hidrocarburos, no más de 11 es para la generación de electricidad. Sin duda, la alternativa verdadera a largo plazo está en el desarrollo de la energía solar, un recurso que es abundante en nuestro país.  
 
Parámetros energéticos básicos del país

Las reservas probadas de hidrocarburos ascienden a 63220 millones de barriles de petróleo (MBP) equivalente (79% son petróleo crudo y condensados y 21% gas natural). La producción en 1994 era de 1274 MBP, de los que unos 790 MBP eran para consumo interno y 480 MBP para exportación, lo que arroja una razón reservas/producción de 50 años a la tasa actual. En el mismo año de 1994 se generaban 137.5 billones de watt-hora (twh) de electricidad (68.8% de hidrocarburos, 9.4% de carbón, 3.1% de uranio, 14.6% de hidro, 4.1% de geotermia y de viento una cantidad pequeña), siendo 81.3% aportado por fuentes no renovables de energía y 18.7% por fuentes renovables de energía. La razón reservas/producción de electricidad por hidrocarburos en 1994 es de poco más de 400 años. De los energéticos renovables, el potencial hidroeléctrico se calcula en 160.3 twh, del que sólo un 12.5% se ha utilizado; su plena utilización generaría 22.8 twh en exceso de la demanda de 1994. Por otra parte, se calcula que el potencial teórico eólico, nada más de la región del Istmo de Tehuantepec, asciende a la fabulosa cantidad de 200000 Mw (millones de watts), unas 6 veces la capacidad total instalada en el mismo año.

 

Existe en operación una planta nuclear llamada Laguna Verde, la cual está ubicada en la costa del Golfo de México, a unos 70 km al norte del puerto de Veracruz y a unos 65 km al este de Jalapa, la capital del estado de Veracruz (cada ciudad con población superior a los 600 mil habitantes). A 280 km hacia el este se encuentra la Ciudad de México, con más de 18 millones de habitantes, en la dirección de los vientos predominantes del Golfo. Laguna Verde ha sido diseñada por General Electric; el reactor es de agua hirviente y serie genérica 5, con un sistema de contención Mark II. Consta de dos unidades cada una con 675 Mw de capacidad. la primera unidad (LV1) inició su operación comercial en 1990, mientras que LV2 lo hizo en 1995, después de que los primeros estudios de factibilidad se realizaran en 1966 por un grupo de técnicos mexicanos profundamente pronucleares, asesorados por la Universidad de Stanford y aparentemente comprometidos con la transnacional arriba citada (pues fue por demás curioso que la licitación del concurso para LV1 se abriera especificando un reactor de 600 Mw, y que la compra del reactor de LV2 se hiciera sin concurso a la misma compañía). Se trata de tiempos de construcción de 24 y 29 años, respectivamente, lo que no deja de ser un récord mundial.

 articulos
 
     
Referencias Bibliográficas
 
Oficiales:
Programa de Energía. Metas a 1990 y proyecciones al año 2000, Secretaría de Patrimonio y Fomento Industrial, México, 1980.
Programa de Desarrollo y Reestructuración del Sector de la Energía 1995-2000, Secretaría de Energía, México, 1995.
Balance Nacional de Energía 1994, Secretaría de Energía, México, 1995.
No oficiales:
La historia de las justificaciones de las plantas nucleares y la construcción de Laguna Verde fueron resumidas de: Desarrollo Nuclear en México, Rojas, José Antonio, Universidad Nacional Autónoma de México, México, 1989.
Ruiz, Rogelio, “Desarrollo y planeación en la rama de la nucleoelectricidad”, en Miguel Wionczek, Roberto Gutiérrez y Oscar Guzmán, Posibilidades y limitaciones de la planeación energética en México, El Colegio de México, México, 1988.
La Negra Historia de Laguna Verde. Siete buenas razones para una auditoría, Greenpeace, México, 1996.
El resto de la información ha sido tomada de: Impacto de Laguna Verde, edición de la Campaña Nacional Contra Laguna Verde Nuclear, México, 1990.
Javier de la Garza, Help, 1992
 
     
 ________________________________________      
Marco Antonio Martínez Negrete
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
____________________________________________________________      
cómo citar este artículo
 
Martínez Negrete, Marco Antonio. 1997. La nucleoelectricidad en México. Ciencias, núm. 47, julio-septiembre, pp. 40-47. [En línea]. 
     

 

 

Está aquí: Inicio Búsqueda Titulo revistas revista ciencias 47
Universidad Nacional Autónoma de México
Facultad de Ciencias
Departamento de Física, cubículos 320 y 321.
Ciudad Universitaria. México, D.F., C.P. 04510.
Télefono y Fax: +52 (01 55) 56 22 4935, 56 22 5316


Trabajo realizado con el apoyo de:
Programa UNAM-DGAPA-PAPIME número PE103509 y
UNAM-DGAPA-PAPIME número PE106212
 ISSN:0187-6376

Indice-RM

Responsable del sitio
Laura González Guerrero
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
 

Asesor técnico:
e-marketingservices.com
facebooktwitteryoutube

cclCreative Commons License
This work is licensed under a Creative Commons
Attribution-Noncommercial-Share Alike 3.0 United States License