revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
El entusiasmo por las matemáticas
Nieves Martínez de la Escalera
P01
La cara oculta de las esferas
 
Luis Montejano Peimbert
Fondo de Cultura Económica.
Colección La Ciencia desde México, 1989.
     
HTML ↓ PDF ← Regresar al índice
     
El propósito de Luis Montejano Peimbert en La cara oculta de las esferas es, como lo expresa él mismo en su introducción de manera clara y elocuente, hacer ver a los no iniciados tanto la belleza y calidez como la pasión que las matemáticas pueden despertar. Esto en contraposición a lo que muchas personas piensan respecto de que éstas son frías, áridas, feas y rígidas. Incluso hace una comparación muy afortunada con otra disciplina cuando dice que la imagen que la mayoría de la gente tiene de las matemáticas es parecida a aquella que de la música tiene quien sólo ha escuchado un metrónomo y nunca una sonata.
 
Hay que mencionar también la advertencia que el autor hace acerca de la forma en que debe leerse cualquier libro de matemáticas: no como una novela, sino más bien como un pasatiempo y siempre con papel y lápiz en la mano. Esta advertencia es importante y es así como hay que acercarse a este tipo de textos, ya que a diferencia de los temas relacionados con otras disciplinas, los conceptos y definiciones que se manejan en los libros de matemáticas pueden ser nuevos para el lector y en un principio parecer más complicados de lo que realmente son.
Algo extraordinario en esta obra es el lenguaje coloquial y sencillo que utiliza Montejano, incluso cuando define conceptos geométricos como “tajada” (sección transversal) y “sombra” (proyección) de un sólido.
 
Este trabajo podría verse como un estudio de ciertas propiedades que caracterizan a las esferas, así como algunas que comparten con otros sólidos. Además de esto, el libro tiene un valor especial, pues Montejano resuelve un problema que es parte de la colección de problemas de El libro escocés, el cual tiene una historia muy interesante. En la actualidad es difícil encontrar un problema matemático atractivo, recientemente resuelto y que pueda divulgarse.
 
Yo diría que La cara oculta de las esferas es un estupendo trabajo de divulgación para los ya iniciados, y un trabajo difícil, aunque no imposible, de leer para los legos.
 
El libro está dividido en siete partes. Las tres primeras, “Sombras y tajadas”, “Convexidad” y “El círculo”, introducen conceptos como el de convexidad en dos y tres dimensiones; el de tajada y sombra de un sólido, que son fundamentales para el desarrollo ulterior de la obra, y algunos resultados que son utilizados posteriormente. Algunos de éstos, expresados en lenguaje coloquial, son: 1) si toda tajada de un sólido es un círculo, entonces el sólido es una esfera; 2) si toda sombra de un sólido es un círculo, entonces el sólido es una esfera; 3) una figura convexa es una figura sin abolladuras; 4) una figura acotada es aquella que en toda dirección está limitada por dos rectas paralelas, y 5) caracteriza al círculo en términos de la propiedad de que toda tangente es perpendicular al rayo trazado al punto de tangencia.
 
La cuarta parte está escrita de manera muy amena y, con el pretexto de contar la historia de El libro escocés (de donde toma el problema que él mismo resuelve después), nos hace “vivir” un aspecto muy agradable de la forma en que muchos matemáticos se divertían en épocas pasadas, inventando todo tipo de problemas mientras charlaban durante horas alrededor de la mesa en una cafetería. También nos hace añorar esas actividades típicas que se han ido perdiendo debido al apremio de los científicos por publicar el mayor número posible de trabajos, que es uno de los aspectos negativos a los que nos ha llevado la “modernidad”.
 
El problema al que nos hemos referido anteriormente lo formuló el matemático Ulam, y Montejano lo resuelve en la quinta parte de su libro. El planteamiento es el siguiente: si un sólido descansa en equilibrio en cualquier posición en la que se le deje, sobre una superficie horizontal sólida, ¿deberá ser éste una esfera? La respuesta es sí.
 
La demostración consiste en ver primero que en el caso bidimensional una figura que está en equilibrio en cualquier posición es necesariamente un círculo. El caso en tres dimensiones se reduce al de dos dimensiones, ya que un sólido está en equilibrio si lo están todas sus proyecciones, y esto ocurre, como se prueba en la primera parte del libro, si el sólido es una esfera. En la sexta y séptima partes se analizan las características de los círculos y las esferas que intuitivamente les pertenecen exclusivamente a ellos pero que, sin embargo, comparten con otras figuras: el tener un ancho constante. Se ven ejemplos interesantes así como las diferentes formas de construir este tipo de figuras. En el caso tridimensional Montejano muestra, además, que si toda “tajada” de un sólido es un figura de ancho constante, entonces la figura es una esfera. También hace hincapié en el hecho de que no todas las tajadas de un sólido de ancho constante son una figura de ancho constante, lo cual es muy asombroso.
 
En la última parte el autor plantea la conjetura de Mizel, que dice que una figura plana convexa que tiene la propiedad de que todo rectángulo que tenga tres de cuyos vértices en su frontera, tendrá el cuarto también en su frontera, por lo que es necesariamente un círculo. Montejano considera el caso tridimensional, y gracias a resultados anteriores contenidos en este trabajo demuestra que si tenemos un sólido convexo tal que siempre que tres vértices de un rectángulo están en la frontera del sólido, entonces el cuarto vértice está también en la frontera del sólido, entonces el sólido es una esfera.
 
Aunque como se infiere de lo anteriormente dicho, la lectura de esta obra no es fácil, vale la pena hacer el esfuerzo en caso de que el lector potencial sea alguien a quien sencillamente le atraen las matemáticas; en caso de que el lector sea un ya “iniciado”, seguramente pasará un buen rato y es muy probable que aprenda algo nuevo.
 
Desde luego Luis Montejano Peimbert tiene un rotundo éxito en mostrar su propio entusiasmo por las matemáticas, y esto es muy edificante.
 
Nieves Martínez de la Escalera C.
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Martínez de la Escalera, Nieves. (2000). El entusiasmo por las matemáticas. Ciencias 58, abril-junio, 76-77. [En línea]
 
  P01 P02  
 
     
El hombre en la luna, el fin de las enfermedades y otros mitos
 
George J. Annas
conoce más del autor
 
 
 
HTML ↓
PDF Regresar al índiceartículo siguiente
     
A medida que el año 2000 avanza, es necesario reflexionar y especular acerca de lo que será el 3000. No para tratar de dilucidar cómo será la vida del hombre, sino para pensar seriamente cómo queremos que sea nuestra vida. Dicho de otra manera, ¿qué es lo esencial de los seres humanos y de ser un ser humano? ¿Qué hace a los seres humanos ser humanos? ¿Cuáles son los valores que debemos preservar para conservar la humanidad? ¿Cómo sería un “mejor ser humano”? ¿Hay cualidades que deseamos minimizar, o por el contrario hay cualidades que deseamos mejorar? ¿Y si los derechos humanos y la dignidad del ser humano dependieran de nuestra naturaleza humana podríamos nosotros cambiar nuestra “humanidad” sin cambiar nuestra dignidad y nuestros derechos humanos? Para analizar estas preguntas debemos primero empezar por analizar los pasados mil años.
Guerras santas
El principio del segundo milenio se caracterizó por las guerras santas; guerras regionales, como la reconquista de la península ibérica de las manos de los moros, y las guerras de carácter mundial, como las Cruzadas, que intentaron retomar de las manos de los musulmanes la Tierra Santa, quienes estaban asediando a los peregrinos cristianos. Las Cruzadas abarcaron casi doscientos años luchando en nombre de Dios, con el grito de batalla Deus Volt (la voluntad de Dios). El enemigo era el no creyente, el infiel, y su muerte un acto santo. La posibilidad de marcar al enemigo como un ser “diferente”, y por lo tanto de deshumanizarlo y justificar su muerte en Dios (o en la nación), fue la principal característica de todo este milenio.
Como los cruzados, Cristóbal Colón buscó conquistar nuevos territorios habitados por infieles en nombre de Dios. Cuando Colón llego al “Nuevo Mundo”, el cual pensó que era parte de las Indias orientales, bautizó a la isla con el nombre de San Salvador y tomó posesión de la tierra en nombre de la Iglesia católica y de los reyes católicos de España. Para los europeos, bautizar las tierras era simbólico de conquista, de tomar posesión. El acto era simbolizado izando una bandera. Sin embargo, Colón, quien también tenía como objetivo convertir a todos los “salvajes” que habitaban el Nuevo Mundo, dijo, de acuerdo con los archivos históricos, que “en todas partes dejé una cruz en pie”, señal de la dominación cristiana. La religión fue la excusa que se usó como fachada para la conquista. A pesar de esto, los encuentros de Colón con los indígenas resultaron en subyugación y genocidio.
Los conquistadores españoles que siguieron a Colón continuaron usando la religión católica y la ausencia de ésta en el Nuevo Mundo para tomar posesión de la tierra y conquistar a sus habitantes. William Prescot, por ejemplo, hace un recuento en su libro La historia de la conquista de México acerca de cómo los europeos de aquel tiempo creían que el paganismo “era un pecado castigado con fuego [...] en este mundo, y en el más allá, con el sufrimiento eterno”. Prescot añade que “bajo este código el territorio de no creyentes, donde quiera que se encontrara [era entregado a la Santa Sede] y como tal era dado libremente por la cabeza de la Iglesia a cualquier potentado que quisiera asumir la carga de su conquista. Prescot parece tener algo de simpatía por Montezuma (el dios del Sol), y por los aztecas asesinados por los españoles durante la conquista; pero al final concluye que los aztecas no merecían considerarse completamente como seres humanos, “¿cómo una nación puede avanzar por el camino de la civilización si prevalecen los sacrificios humanos y especialmente cuando se combinaban con canibalismo?”
De forma similar, Pizarro justificó la conquista del Perú y la subyugación de los incas, incluyendo el secuestro y asesinato de Atahualpa, por la “gloria de Dios” y para traer “nuestra Santa Fe Católica a tan vasto número de infieles”. Aunque Dios y religión eran las excusas, el motivo real de la conquista era el oro. En la búsqueda de El Dorado ninguno de los conquistadores que siguieron a Cortés y a Pizarro (quien consiguió la recompensa en oro más grande del mundo por Atahualpa) fueron capaces de robar la cantidad de oro que estos dos pudieron haberse llevado.
Las Cruzadas, los viajes de Colón y las conquistas de los españoles son poderosas metáforas para todas las exploraciones humanas y todos los encuentros humanos con lo desconocido. Ellos nos enseñaron que no solamente el campo de la dominación humana se pueden expandir radicalmente con imaginación y coraje. Más importante aún, ellos nos enseñaron que sin una igualdad fundamental de los seres humanos y sin una dignidad humana los costos de tal dominación serían violaciones brutales a los derechos humanos, los cuales son más importantes para el futuro de la humanidad que el oro o los nuevos territorios ya conquistados. Ellos también nos enseñaron a dudar de los motivos explícitos y de las historias encubiertas, pues aunque llenos de celo misionero todos estos aventureros y exploradores buscaban principalmente fama y fortuna personal.
Guerras no santas
Claro que es más fácil mirar atrás quinientos años que cincuenta. Sin embargo, me parece que tres cosas —una guerra, un evento y un prospecto— son las que van a definir en el próximo milenio los derechos humanos y la responsabilidad científica; ellas son: la Segunda Guerra Mundial, la llegada del hombre a la Luna y la ingeniería genética humana. El origen del posmodernismo puede fecharse desde cualquiera de estas tres cosas, y cada una tiene sus propias lecciones y peligros. A través de todo esto podemos observar cómo la ciencia se convierte en la nueva religión de una sociedad secular y cómo la búsqueda de la vida eterna con Dios es reemplazada por el reto de inmortalidad en la tierra.
La Segunda Guerra Mundial
Muchos académicos fechan el inicio del posmodernismo en Hiroshima y en el Holocausto; el primero fue una aniquilación instantánea, el segundo una aniquilación sistemática. Con la aplicación de tecnologías industriales para masacrar vidas humanas, ambos eventos representan la muerte del sueño del progreso moral y científico que había caracterizado los tiempos modernos. El mundo nuclear del posmodernismo es mucho más ambiguo e incierto.
 
El movimiento moderno de los derechos humanos nace de las cenizas de la Segunda Guerra Mundial y del rechazo de que la única ley válida es la promulgada por un gobierno, incluyendo el gobierno alemán. La Organización de las Naciones Unidas se fundó para prevenir futuras guerras bajo la premisa de que todos los seres humanos tienen dignidad e iguales derechos. El juicio multinacional de los criminales de guerra en Nuremberg después de la Segunda Guerra Mundial se llevó a cabo bajo los postulados de que hay una ley humana superior (derivada de la “ley natural” que está basada en el entendimiento de la esencia natural de los seres humanos) y de que las personas pueden ser juzgadas y condenadas por violarla. Esta ley universal, que se aplica a todos los seres humanos y los protege a todos, criminaliza las ofensas contra la humanidad, incluyendo el genocidio, la muerte, la tortura y el esclavizamiento respaldado por los Estados. Obedecer la ley del país o las órdenes de un superior no son defensa válida: el Estado no puede proteger a sus agentes de ser juzgados por crímenes contra la humanidad.
 
La ciencia y la medicina estuvieron específicamente bajo investigación durante el llamado “Juicio de los Médicos”, donde veintitrés médicos nazis fueron juzgados por experimentos que incluyeron muerte y tortura; actos sistemáticos y barbáricos con el único objetivo de causar la muerte. Los sujetos de estos experimentos, que entre otros incluyeron experimentos de congelamiento y altitudes extremas, fueron prisioneros de los campos de concentración; casi todos judíos, gitanos y eslavos, gente que los nazis veían como subhumanos. Siguiendo los pasos de la conquista del Nuevo Mundo, la filosofía nazi se basó en la noción de que los alemanes eran una raza superior con el destino de subyugar y regir a las razas inferiores. Una parte central de la filosofía nazi fue el “eugenismo”, un intento por mejorar la especie humana, principalmente eliminando a las personas “inferiores”, los llamados “consumidores inútiles”. En su veredicto, la corte pronunció lo que hoy se conoce como Código de Nuremberg. Este código continúa siendo el documento ético y legal con más autoridad sobre normas internacionales de investigación, que insiste en el consentimiento informado de cada uno de los sujetos participantes en la investigación. El código es uno de los primeros documentos sobre derechos humanos en la historia del mundo.
Los primeros juicios en Nuremberg fueron rápidamente seguidos por la Declaración Universal de Derechos Humanos de 1948, el documento más importante sobre derechos humanos hasta hoy día. La Declaración fue seguida por dos tratados: el Convenio sobre los Derechos Civiles y Políticos y el Convenio sobre los Derechos Económicos, Sociales y Culturales. La Declaración y los dos tratados representan importantísimos pasos para la humanidad: el reconocimiento de que los derechos humanos están basados en la dignidad humana y que esta dignidad es compartida por todos los seres humanos sin distinción de raza, religión u origen nacional. Éste es un concepto poderosísimo y el reto a seguir es verlo hecho realidad (junto con las otras promesas contenidas en los dos tratados).
El hombre en la luna
La exploración más espectacular de este milenio, junto con la de Colón, es el viaje de la nave Apolo 11 a la Luna y su regreso. Las palabras de Neil Armstrong cuando puso pie en la superficie lunar son en realidad las precisas: “un pequeño paso para un hombre, un salto gigante para la humanidad”. Aunque la carrera espacial tuvo que ver más con las políticas de la Guerra fría que con la ciencia, no deja de ser éste un logro casi mágico de la ingeniería. Y aunque Estados Unidos estaba dispuesto a hacer cualquier cosa para poner al primer hombre en la Luna y que éste fuera un estadounidense, el experimento tuvo limitaciones en cuanto a los derechos humanos. El presidente John F. Kennedy, por ejemplo, puso como objetivo mandar un hombre a la Luna “y traerlo de regreso” antes del final de la década de los sesentas. Sin embargo, varias vidas humanas se pusieron en segundo plano con tal de ganar la carrera científica a los rusos; como muestra de esta circunstancia está el hecho de que se consideró mandar a un hombre a la Luna sin tener aún concebido cómo regresarlo a la Tierra.
Estados Unidos no conquistó el espacio precisamente por la gloria de Dios, pero Dios sí estaba presente en las mentes de los conquistadores espaciales a bordo de la nave Apolo, el dios del Sol. Los pensamientos religiosos más explícitos fueron los del diseñador de cohetes Werner von Braum, quien había sido un oficial de las Brigadas ss durante la Alemania nazi y quien diseñó los cohetes v2 que llovieron sobre Inglaterra al final de la Segunda Guerra Mundial. Von Braum fue capturado por Estados Unidos y “condonado” para trabajar en el programa de cohetes, impulsado por los esfuerzo de la nasa. El día en el que la nave Apolo 11 fue lanzada, Von Braum explicó las razones para poner un hombre en la Luna: “nosotros estamos expandiendo la mente humana. Estamos extendiendo este cerebro y estas manos que Dios nos dio hasta los límites más distantes, y en este proceso la humanidad entera se beneficiara. Toda la humanidad usufructuará los logros de esta cosecha”. El celo misionero de los cruzados y de los conquistadores hizo eco en la Luna.
Norman Mailer, en su crónica del alunizaje, Sobre el fuego en la Luna, hace una pregunta clave: “¿fue el viaje de la Apolo 11 la expresión más noble de la era tecnológica, o la mejor evidencia de su simple y llana locura? [...] ¿Somos nosotros testigos de grandeza o de locura?” Hoy día ninguno de los extremos parece completamente cierto. Las rocas lunares traídas a la Tierra son un símbolo mediocre del viaje; en cambio, las fotos de la Tierra tomadas desde el espacio han tenido un profundo impacto en lo que podríamos llamar nuestro sentido de conciencia colectiva, pues es ésta en realidad la que ayudó a que surgiera el movimiento mundial de protección ambiental. Es muy difícil negar nuestra humanidad cuando todos podemos ver el hogar que tenemos en común.
Nosotros también sabemos ahora que los rusos nunca fueron serios contendientes en la carrera por llegar a la Luna, y por eso las posibilidades de una exploración espacial seria que surgieron en Estado Unidos después del alunizaje fueron grandemente sobrestimadas. Nuestra pérdida de encanto, y aun de interés por la Luna, fue plasmada por Gene Cernam, el último de los doce astronautas que visitó la Luna. Cuando la nave despegó de la superficie lunar Cernam dijo: “dejemos esta cosa acá”. El alunizaje fue principalmente un asunto comercial y de política mundial, no de paz y armonía mundial. Otro testimonio es el del historiador Walter McDougall, quien en su libro Los cielos y la Tierra señala que, aunque la placa conmemorativa que fue dejada en la Luna decía “vinimos en paz de parte de toda la humanidad”, la paz nunca fue el propósito de esta misión. Quizás tuvo algo que ver con la ciencia, pero McDougall escribe: “casi todo fue sobre satélites espías y de comunicaciones y otros aparatos orbitales para el beneficio militar y comercial. Estos objetivos militares y comerciales continúan dominando el espacio, tal como fue en la época de los conquistadores, y una vez más la exploración científica ha quedado relegada a la ciencia ficción”.
Y es en el campo de la ciencia ficción y de la literatura donde se están discutiendo y evaluando los dilemas humanos, y donde el futuro de la humanidad está siendo imaginado. Borges, por ejemplo, fue el primero que sugirió que los seres humanos pueden llegar a ser inmortales, si estamos dispuestos a dejar que las máquinas hagan todas nuestras funciones corporales. Los seres humanos pueden llegar a un mundo de pensamiento puro colocando sus cerebros en “muebles de forma cúbica”. En este sueño, Borges imagina cómo la cirugía moderna y el reemplazo de partes mecánicas pueden llegar a traer un tipo de inmortalidad a los seres humanos; no como actor inmortal, pero sí como un testigo inmortal. Arthur Clarke en 2001 sugirió que la evolución humana puede seguir un rumbo diferente y desarrollar una mente computarizada encapsulada en un cuerpo de metal en forma de nave espacial, el cual rondará la galaxia buscando nuevas sensaciones. El precio por la inmortalidad del ser humano, de acuerdo con este punto de vista, es la erradicación tanto del cuerpo como de la mente humana; el primero por un cuerpo artificial indestructible, y el segundo por un programa de computadora capaz de duplicarse indefinidamente. Claro que un cuerpo robótico indestructible dirigido por un procesador digital de memoria no sería propiamente lo que consideramos hoy día como “humano”; es más, “los derechos” de tal artefacto estarían en la actualidad en el rango de los que tienen los robots y no de los que tienen los seres humanos. Nosotros estamos en capacidad de explorar el espacio exterior con uno de estos “robots”, pero nuestra fascinación parece estar en el espacio interior. En vez de expandir nuestros conocimientos y horizontes meditando sobre los misterios del espacio exterior, con la posibilidad de encontrar otras formas de vida, nos estamos volteando hacia nuestro propio interior y estamos contemplando nuestros cuerpos a un nivel microscópico. La nueva biología, quizás descrita mejor como la nueva genética, o como la “edad de la genética”, propone otra opción diferente a la de alcanzar la inmortalidad a través de un cerebro digitalizado en un cuerpo de metal o plástico, cambiando y mejorando nuestras capacidades humanas por medio de alteraciones a nivel molecular de nuestros genes. O como lo ha dicho James Watson, el codescubridor de la estructura del adn: “nosotros pensábamos que nuestro futuro estaba en las estrellas, ahora sabemos que el futuro está en nuestros genes”.
Ingeniería genética
Como la exploración espacial, el trabajo de la genética humana está dominado por agencias gubernamentales e intereses comerciales, estos últimos tomando la delantera. Y el objetivo es sin lugar a dudas conquistar la muerte y desarrollar un ser humano inmortal. Como lo declaró el presidente y gerente general de Human Genome Sciences a principios de 1999: “la muerte es una serie de enfermedades previsibles”. Las estrategias básicas para inventar un “mejor ser humano” han sido propuestas en dos recientes experimentos genéticos: la clonación de una oveja y la hechura de un ratón más inteligente.
A principios de 1977 el embriólogo Ian Wilmut anunció al mundo entero que había clonado una oveja, creando un gemelo genético de un animal adulto (ya muerto) gracias a la reprogramación de una de las células somáticas para actuar como el núcleo de huevo anuclear. Él bautizó a la oveja clonada Dolly, e inmediatamente se desató un debate internacional para hacer ilegal la clonación de seres humanos, el cual no ha terminado. Previas discusiones literarias sobre la clonación ayudan a entender por qué esta tecnología no debe ser aplicada en seres humanos. Wilmut no ha usado ninguno de estos argumentos literarios para fortalecer su posición, aunque si quisiera podría hacerlo. El reportero que describió a Wilmut como “el padre de Dolly” no hubiera podido traer un mejor ejemplo que las imágenes de Frankenstein, el personaje de la novela de Mary Shelley. Frankenstein también fue el padre y dios de su criatura; la criatura misma le dice a él: “yo debería ser tu Adán”. Igual que Dolly, la “chispa de vida” de esta criatura fue infundida a través de la electricidad, pero contrario a Dolly la criatura de Frankenstein fue creada ya desarrollada (lo cual está fuera del alcance de la clonación, aunque es lo que los estadounidenses sueñan y temen), por lo que deseaba ser más que una simple criatura: él quería una pareja de su “propia clase” con la cual pudiera vivir y reproducirse. Frankestein aceptó a regañadientes hacerle una pareja sólo si la criatura prometía dejar a la humanidad tranquila. Pero al final, Frankenstein destruye la pareja de la criatura alegando que él no tiene el derecho de darles como carga a las “generaciones futuras” los niños de estas criaturas, una “raza de demonios”. Frankenstein finalmente reconoció su responsabilidad para con la humanidad, y con ello Shelley explora en su novela casi todos los aspectos no comerciales del debate actual sobre la clonación.
El nombre del primer animal clonado, así como el de la isla San Salvador y la nave espacial Apolo, tiene gran importancia. El único sobreviviente de doscientos setenta y siete embriones (o “parejas fusionadas”) pudo haber sido llamado por el número de serie que le correspondía en la secuencia (por ejemplo, 6ll3), pero esto sólo hubiera enfatizado el carácter de producto. En contraste, el nombre de Dolly sugiere la existencia de un individuo único, lo cual tiene consecuencias en muchos otros niveles; aun a nivel de producto, una muñeca (Dolly significa muñequita en español) trae felicidad a los niños y como objeto es inofensivo. Victor Frankenstein, claro está, no le puso nombre a su criatura, por lo cual él rechazó cualquier responsabilidad paternal. Por haberle dado un nombre al primer mamífero clonado, Wilmut aceptó la responsabilidad sobre ella.
Clonar es duplicar y como tal tiene poca atracción o interés para aquellos que quieren tener hijos. La gran mayoría de nosotros queremos tener hijos para darles una vida mejor de la que nosotros mismos hemos tenido y no simplemente duplicárselas, así sea por medios genéticos. Por eso los experimentos de ingeniería genética que prometen “mejores” niños (y mejores seres humanos) son mucho más importantes para el futuro de la humanidad. En septiembre de 1999 el científico Joe Tsien, de la Universidad de Princeton, anunció que él ya ha usado técnicas de ingeniería genética para crear ratones con mejor memoria y que por lo tanto podían aprender más rápido que otros ratones; estos ratones eran “superinteligentes”. Tsien está convencido de que si estos resultados pudieran aplicarse en humanos todos desearían usar la misma técnica para tener niños más inteligentes. Textualmente, Tsien dijo que “cada uno de nosotros quiere ser inteligente”.
Usando las palabras del alunizaje como metáfora, Tsien dijo acerca de su ratón modificado genéticamente (al cual le dio el nombre de Dougie, un médico graduado casi adolescente, y personaje ficticio de la televisión): “para la comunidad científica es un pequeño paso”. La pregunta fundamental es “si éste es un salto para la humanidad”. Tsien también ha sugerido que el trabajo en el campo de la ingeniería genética es más importante que la clonación, porque el clon es una réplica exacta que no añade nada nuevo al mundo.
Su punto de vista es comprensible, pues la posibilidad de aplicar técnicas de ingeniería genética en seres humanos con el propósito de hacernos más inteligentes, más fuertes, más felices, más hermosos, o más longevos trae a colación las mismas preguntas con las que empecé esta presentación: ¿qué significa ser un ser humano y qué cambios en nuestra “naturaleza humana” darían como resultado “mejores seres humanos” (o en el surgimiento de una especie completamente diferente)? En el mundo de la ingeniería genética, por ejemplo, nos convertimos en productos de nuestra propia manufactura. Como producto estamos sujetos a controles de calidad y de mejoramiento, y a la destrucción o al reemplazo si salimos “defectuosos”. Creamos con esto un nuevo eugenismo basado no el defecto de nuestro prójimo, sino en el sueño (o pesadilla) de lo que se considera va a ser en un futuro un ser humano “ideal”. ¿Queremos nosotros en realidad lo que parece que queremos? ¿Está el doctor Tsien en lo cierto al argumentar, por ejemplo, que todas las personas quieren tener una mejor memoria?
 
El trabajo de toda una vida de Elie Wiesel, quien es el testigo más elocuente del Holocausto, ha estado dedicado al recuerdo, tratando de asegurarse que el mundo entero no olvide el Holocausto y, por lo tanto, para que éste no se repita. Éste fue también el objetivo principal de los fiscales y los jueces del Tribunal Internacional Militar llevado a cabo en la ciudad de Nuremberg. Los crímenes de lesa humanidad cometidos durante la Segunda Guerra Mundial tienen que seguir siendo recordados. Como lo planteó el fiscal en jefe, magistrado Robert Jackson, al Tribunal: “los males que buscamos aquí condenar y castigar han sido tan bien premeditados, tan perversos y tan devastadores, que la civilización entera no puede tolerar que pasen desapercibidos, porque de seguro no podría sobrevivir al repetirlos”. Como tal, la memoria no vale la pena, pero sí el significado de la información que contiene esa memoria, y el uso que los seres humanos le dan a esa información. Por ejemplo, cada día tenemos más y más información sobre nuestros genes, y se nos dice que la ciencia pronto podrá explicar la noción de vida desde el punto de vista molecular. Sin embargo, nosotros no vivimos la vida al nivel molecular, sino como seres enteros; nunca podremos entender la vida (o cómo ésta debe ser llevada, o lo que ésta significa para los seres humanos) explorando nuestros cuerpos desde un nivel molecular, atómico, o aun desde el nivel subatómico.
Hoy parece que la ciencia se comporta como si el objetivo de la humanidad fuera un mundo de felicidad y control en masa; un zoológico humano que abarca todo el planeta y en el cual hombres, mujeres y niños, aparte de tener todos los “genes inteligentes” que se les puede proveer, se alimentan con comida nutritiva, son protegidos de todas las enfermedades previsibles, viven en ambientes de aire limpio y filtrado y son abastecidos con un flujo constante de drogas o de genes para mantener un estado constante de felicidad o, aún más, de euforia. Y esta vida feliz, la cual Borges previó con horror, podría ser extendida por cientos de años, a no ser de que no haya más vida que un cuerpo perfectamente diseñado por la ingeniería, una mente satisfecha y una virtual inmortalidad. El médico y filósofo Leon Kass ha puesto este concepto en el contexto de la ingeniería genética (aunque bien pudo haber estado hablando de Cristóbal Colón): “aunque bien equipados, nosotros no sabemos quiénes somos o a dónde vamos”. Nosotros literalmente no sabemos qué hacer con nuestros seres. Esto es porque los seres humanos deben informar a la ciencia y no la ciencia informar (o definir) a la humanidad. La tecnología no es sustituto del significado ni del propósito de la vida.
Hacia un “mejor ser humano”
A medida que tomamos la evolución del ser humano en nuestras manos, no son los aztecas o los nazis a quienes planeamos conquistar. El territorio es ya el de nuestros propios cuerpos, y lo reclamaríamos en nombre del nuevo “derecho” eugenérico que tiene cada ser humano de hacer lo que le venga en gana con su propio cuerpo. Sin embargo, la historia nos enseña que hay límites tanto en nuestro conocimiento como en nuestros derechos de dominio. Cortés pudo llegar a explicar el subyugamiento de los aztecas porque, entre otras cosas, ellos participaban en sacrificios humanos y canibalismo. Hoy día, gracias a la experimentación humana, hemos hecho del sacrificio humano un arte y con los transplantes de órganos hemos domado al canibalismo. El hombre posmoderno no acepta límites ni tabúes.
Si la humanidad sobrevive otros mil años, ¿cómo sería en el año 3000 un “mejor ser humano”? Con más de las tres cuartas partes del planeta cubiertas por agua, ¿serían la adición de agallas a nuestro cuerpo un mejoramiento o una deformación? ¿Qué tan alto sería ser alto? ¿Puede ser uno lo suficientemente inteligente para su propio bien? Si continuamos ignorando nuestro ambiente quizá un “mejor ser humano” sería aquel capaz de respirar aire contaminado y alimentarse de basura. A medida que agotemos nuestras fuentes de energía no renovables, tal vez un “mejor ser humano” sería aquel con ruedas en vez de piernas para movilizarse eficazmente. ¿Dejaremos a los científicos hacer cualquiera de estos experimentos en seres humanos o podemos aprender de las consecuencias no previstas de las conquistas y de los horrores de la guerra (en la que los seres humanos quedamos mejor cuando pensamos antes de actuar) y proceder democráticamente cuando las consecuencias de tales acciones repercutan en todos nosotros?
La Organización de las Naciones Unidas fue fundada con el objetivo de prevenir las guerras, y para identificar a los responsables de los crímenes de lesa humanidad, tales como los asesinatos, la tortura, la esclavitud y los genocidios, fue propuesta la Corte Criminal International. Claro está que muchos Estados continúan permitiendo los crímenes contra la humanidad. Sin embargo, el mundo no puede seguir ignorando los derechos de las personas que a principios de este siglo eran catalogadas simplemente como “incivilizados” o “subhumanos”. Si nosotros queremos ser amos de nuestro propio destino y no simplemente el producto de nuestra tecnología vamos a necesitar instituciones de carácter internacional tan sólidas como la Organización de las Naciones Unidas y la mencionada Corte Criminal Internacional para canalizar y controlar estos nuevos poderes, y en consecuencia proteger los derechos básicos de los seres humanos.
La ciencia no es una actividad criminal, y actividades como la clonación y la ingeniería genética no son precisamente parte de la categoría de crímenes de lesa humanidad. Es más, la ingeniería genética parece totalmente inofensiva al lado del Holocausto y las armas atómicas. Pero la realidad es engañosa por las siguientes razones: la ingeniería genética tiene la capacidad de cambiar la esencia misma de lo qué significa ser humano. No conocemos los límites de qué tan lejos podemos llegar cambiando la naturaleza sin cambiar nuestra propia esencia humana. Ya que el significado de nuestra naturaleza humana es lo que da origen a los conceptos de dignidad y derechos humanos, alterar ésta minaría tanto a esa dignidad como a esos derechos. ¿Cómo podría un producto, por ejemplo, reclamar sus derechos ante su “creador”? Estamos hablando de “jugar a ser Dios”, pero en realidad lo que parece que queremos es reemplazar a Dios (ya que si conquistamos a la muerte no tendríamos que temer el castigo eterno, ni aun el juicio final). Una premisa fundamental de los derechos humanos es que todas las seres son iguales por el hecho de ser humanos; la discriminación está prohibida. Obviamente, nosotros sabemos que los ricos tienen mejores oportunidades que los pobres y que una igualdad real requeriría una redistribución de las riquezas; sin embargo, los ricos no pueden esclavizar, torturar ni matar al más pobre de los seres humanos de este planeta, y los pobres tienen que tener una voz y un voto en cuanto al futuro de nuestra propia especie y de la de nuestro planeta.
¿Pueden los derechos universales del ser humano, anclados en la dignidad de éste, sobrevivir a la ingeniería genética? Sin objetivos claros, la economía de mercado definirá lo que significa ser un “mejor ser humano”. El mercado y la publicidad comercial en masa nos llevarán a conformarnos con unos cuantos ideales basados en la cultura del momento en vez de celebrar nuestras propias diferencias. Esto es una de las lecciones más importantes del mundo de la cirugía cosmética: donde casi todos los pacientes-clientes de esta área desean ser “reconstruidos” para parecer “normales” o para ser “remodelados” para lucir más jóvenes. Esto debería al menos demostrarle a la ciencia obsesionada por la inmortalidad que a medida que ha aumentado la esperanza de vida en este siglo, las sociedades han marginalizado y despreciado a los ancianos y se han puesto a venerar y a tratar de emular los cuerpos de los jóvenes.
Si el concepto del ser humano “ideal” está fuera del alcance de la mayoría de los miembros de la familia humana, los seres humanos manipulados por la ingeniería genética y considerados como “superiores” serían catalogados como “otros seres”. Y si la historia sirve como guía, tanto los seres humanos considerados “normales”, como los considerados “superiores”, se verían como extraños y terminarían por tratar de controlarse o destruirse los unos a los otros. Aquellos seres humanos considerados como “mejores” se convertirían, en la ausencia de un concepto universal de dignidad humana, en opresores o en oprimidos. En resumen, como lo aclaró H. G. Wells en su libro El valle de los ciegos, ciertamente es falso considerar que cada “mejora” de una habilidad del ser humano será apreciada universalmente: en el valle de los ciegos, los ojos que ven son considerados como aberraciones que tienen que ser eliminados quirúrgicamente, para que así la persona vidente pueda ser como todos los demás ciegos. Es imposible evitar que la ingeniería genética nos lleve a la evolución de dos especies diferentes, donde los seres humanos común y corrientes serían considerados como “salvajes” de la época precolombina por los nuevos seres humanos manipulados genéticamente, como impíos que pueden ser subyugados. La ciencia no nos salvará de nuestra inhumanidad hacia el prójimo; puede, eso sí, hacerlo más eficiente y más horrible. La ciencia y la opresión pueden ir juntas de la mano. Como lo dijo el historiador Robert Proctor en la conclusión de su estudio sobre salud pública durante el Tercer Reich: “la rutina de la práctica científica puede fácilmente coexistir con el ejercicio rutinario de la crueldad”.
Nuevas cruzadas
Aunque no hemos llegado a conquistar nuestra propia muerte, nosotros ya inventamos una criatura que sí lo ha hecho: el ente corporativo. Las corporaciones son entidades legales que gracias a las leyes son eternas y tienen una responsabilidad legal limitada. Estos entes, como el monstruo de Frankenstein, adquirieron poderes inesperados gracias a sus creadores. En su forma actual, las corporaciones se han convertido en entidades transnacionales que no están bajo el control de ningún gobierno, sea éste democrático o de alguna otra clase. Éstas sólo juran lealtad al dinero y no conocen límites en la búsqueda de ganancias económicas. Y así como la Corona española, las corporaciones también tienen su propia agenda. Éstas buscan tener ganancias económicas no para beneficio propio, sino para “hacer investigación científica para el mejoramiento humano”. El mundo corporativo parece que no sólo busca producir mejores plantas y animales, sino también seres humanos. Hoy parece más probable que los conceptos que Orwell escribió en su libro La granja de los animales (“todos los animales son iguales, pero los hay algunos que son más iguales que otros”) nos sean impuestos por las grandes “corporaciones dedicadas a las ciencias de la vida” y no por dictaduras totalitarias.
Ya que la nación no está en control de la salud o de la seguridad de sus ciudadanos, otras fuerzas deben ser llamadas para ayudar a dirigir el destino humano. Una posibilidad, que mi colega Michael Grodin y yo hemos planteado, es cambiar las fuerzas de dos importantes profesiones, medicina y abogacía, y así estimular a los miembros de estas dos profesiones, ya que éstas tienen el propósito y el medio para transcender tanto sobre los límites nacionales como sobre los corporativos, a trabajar juntos por el mejoramiento de los derechos humanos. La organización Global Lawyers and Physicians tiene este propósito. Esta clase de organizaciones no gubernamentales deben jugar un papel central en los asuntos mundiales si queremos que el dinero no se convierta en el único motivo que mueve al mundo. Activistas que trabajan a nivel comunitario deben unir sus esfuerzos si quieren influenciar el futuro de la humanidad: por ejemplo, los grupos que defienden los derechos humanos deberían formar coaliciones con los grupos ambientalistas, de ayuda humanitaria y con los pacifistas.
La cruzada de la ciencia ya no busca la vida eterna en Dios, sino en la Tierra. Con la decodificación del genoma humano la religión vuelve a ser la historia usada como fachada, por eso los científicos hablan del genoma como el “libro del hombre” y el “santo cáliz” de la biología. Sin embargo, el oro es nuevamente lo que hoy día buscan estos exploradores auspiciados por diferentes corporaciones. Porque existe la posibilidad de hacer dinero en este campo, el rediseño corporativo de seres humanos es inevitable si no existe lo que Vaclav Havel llama “una transformación del espíritu y de la relación humana para con la vida y con el mundo”. Havel ha señalado que la “nueva dictadura del dinero” ha reemplazado al totalitarismo, pero éste es igualmente capaz de drenar todo el significado de vida con sus “obsesiones materialistas”, la “proliferación del egoísmo” y la necesidad de “evadir la responsabilidad personal”. Sin responsabilidad nuestro futuro es lánguido. Como el fallido intento de los conquistadores españoles por encontrar El Dorado, nuestro deseo de tener más y más dinero traerá consigo un propósito mundano a la vida. Inmortalidad sin propósito es un vacío. En las palabras de Havel, “la única política que hace sentido es la que crece del imperativo y de la necesidad de vivir como cada uno debe vivir, y por lo tanto —en un término un poco más dramático— como cada uno debe responsabilizarse por el mundo entero”.
Responsabilizarse por el mundo puede parecer algo excesivo, pero aun Frankenstein lo reconoció como un deber. Esto nos recuerda el lema del movimiento ambientalista: “pensar globalmente, actuar localmente”, lo cual nos hace a cada uno de nosotros responsables por el todo. ¿Cómo podemos nosotros, ciudadanos del mundo, retomar el control de la ciencia y la industria, lo cual amenaza alterar la esencia misma de nuestras vidas? No será una tarea fácil, pero el rechazo mundial a la idea de clonar seres humanos trae la esperanza de que el esfuerzo no será en vano desde un comienzo. La ética médica ha demostrado que es un mecanismo débil para construir un movimiento internacional; el modelo de los derechos humanos parece ser el más fuerte y apropiado (por lo que no es la práctica médica y científica la que está en riesgo, sino la naturaleza de la humanidad y de los derechos de los humanos). En el campo de los derecho humanos me permito hacer unas sugerencias.
Necesitamos un reglamento internacional para la nueva ciencia, no sólo para regular la clonación y la ingeniería genética, sino también para regular las investigaciones de híbridos humanos-máquinas, en embriones, y de manipulaciones cerebrales. Todos éstos pueden ser puestos en un sentido más estricto bajo una misma categoría de “crímenes contra la humanidad”, actos que amenazan con cambiar la esencia misma de la humanidad. Esto no significa que al cambiar la naturaleza humana (por ejemplo, la clonación que cambia la definición del ser humano al eliminar la reproducción sexual que caracteriza a éste) va a ser siempre criminal, únicamente que ningún científico (corporación o país) tiene el poder social o moral para cambiar la humanidad por sí solo, y hacerlo sin un previo acuerdo social, democrático, puede considerarse como un crimen. Alterar la esencia misma de la humanidad requeriría un foro para una discusión mundial, siendo la Organización de las Naciones Unidad el único ente de esta naturaleza hoy día. También se requeriría una profunda discusión sobre nuestro futuro y sobre el tipo de gente que queremos llegar a ser y cómo podemos continuar insistiendo en los derechos basados en la dignidad del ser humano.
Un tratado internacional que prohíba las técnicas que específicamente “cambian a los humanos”, se hace necesario para que tal sistema sea efectivo. Ninguna de estas técnicas podría ser usada a menos de que un ente internacional lo apruebe para su uso en humanos. Este concepto aplica la “premisa de precaución” del movimiento ambientalista al área de experimentación extrema, que puede potencialmente cambiar la esencia del ser humano. El hecho de que hoy no exista tal tratado o tal mecanismo significa que la comunidad mundial no ha tomado responsabilidad por su propio futuro. Fue en el pasado cuando lo hicimos. James Watson estaba equivocado. La verdad es que al principio del milenio sabíamos que el futuro estaba en las estrellas; ahora, al final del milenio, pensamos que nuestro futuro está en nuestros genes.
Nosotros tenemos la tendencia simplemente a dejar que la ciencia nos lleve a su albedrío, sin embargo, la ciencia no tiene voluntad, y aun cuando sea programada, el juicio humano es casi siempre necesario para concluir cualquier experimento exitosamente. Las naves de Colón habrían retornado si no hubiese sido por el coraje y la determinación de éste. Asimismo, el alunizaje habría terminado en catástrofe sino hubiese sido por la experiencia como piloto de Neil Armstrong, que corrigió los errores de cálculo de la computadora. Las primeras palabras del hombre en la Luna en realidad no fueron aquellas de Armstrong: “un pequeño paso para el hombre”, sino las de Buzz Aldrin: “!luz de contacto! Bien, apagar motores [...] control de descenso automático apagado...” Ya es tiempo que nosotros los seres humanos tomemos el control de nuestra nave espacial Tierra y prendamos el botón de control sobre los motores de la ciencia.
Nota.
Este texto fue el discurso inaugural de la conferencia Ética, libertad y responsabilidad, organizada por el Instituto de Investigaciones Filosóficas de la unam y la Academia Mexicana de Ciencias, el Consejo Consultivo de la Ciencia, la sep y conacyt, que tuvo lugar en la ciudad de México del 9 al 11 de noviembre de 1999.
George J. Annas
Escuela de Salud Pública,
Boston University.
Traducción.
Alejandro Moreno.
_______________________________________________________________
 

como citar este artículo

Annas, George J. (2000). El hombre en la luna, el fin de las enfermedades y otros mitos. Ciencias 58, abril-junio, 63-72. [En línea]
    Regresar al índiceartículo siguiente
  P01 P02  
 
 
     
El proyecto del genoma humano
 
Ricardo Noguera Solano y Rosaura Ruiz Gutiérrez
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
A principios de la década de los ochentas mapear y secuenciar el genoma humano en su totalidad era una idea prácticamente insoñable. Sin embargo, estas ideas se formalizaron en 1990 en uno de los proyectos más grandes de cooperación internacional, el proyecto genoma humano, el cual nos ha forzado a reflexionar no sólo en problemas técnicos y científicos, sino también en problemas éticos y morales. A pesar de los distintos enfoques en los que se puede abordar este asunto, nuestro objetivo será reflexionar sobre algunos eventos y factores que dieron forma a esta empresa internacional que en realidad es un conjunto de proyectos de muchos laboratorios alrededor del mundo que persiguen la misma finalidad: el conocimiento de nuestro genoma.
 
El surgimiento del proyecto genoma humano se sustenta en razones científicas, económicas y políticas. Desde el punto de vista científico el conocimiento del genoma humano, además de ser interesante en sí mismo, tiene un interés médico; desde el económico los avances en la biotecnología han resultado un gran negocio para las grandes transnacionales farmacéuticas, y desde el político, en el terreno internacional, Estados Unidos tiene un papel de potencia mundial no sólo por el avance del conocimiento del genoma humano, sino por la competencia con otros países, en especial con Japón. Incluso internamente en Estados Unidos vemos esta competencia política por parte del Departamento de Energía y los Institutos Nacionales de Salud por conseguir la dirección y los recursos del proyecto.
 
Antes de los avances tecnológicos el proyecto era inviable, por ello Victor A. Mckusick señalaba en 1971 la dificultad y lentitud de mapear genes humanos, por lo que hasta ese entonces no existía la intención de mapear todos. Durante muchos años sólo se mapearon genes relacionados con desórdenes genéticos, con la intención de contar con herramientas para diagnosis temprana de algunas enfermedades hereditarias. No obstante, el desarrollo de esta tradición no fue el motivo de inspiración para mapear todo el genoma humano.
 
La idea de secuenciar el genoma a gran escala se planteó en Estados Unidos en 1984, en una conferencia en Alta Utah realizada para evaluar los análisis directos de los efectos genéticos de los descendientes de japoneses que sobrevivieron a las bombas atómicas en 1945. En esa conferencia, auspiciada por el Departamento de Energía de Estados Unidos, Robert Shinsheimer (biólogo molecular y entonces rector de la Universidad de California) planteó la idea de fundar un instituto en Santa Cruz para secuenciar el genoma humano.
 
Después de la conferencia de Alta Utah la idea fue promovida por dos grupos independientes. El primero, liderado por Charles de Lisi, director de la Oficina de Investigación Sanitaria del Departamento de Energía, y el segundo, por Robert Sinsheimer.
 
De Lisi se inclinó por los mapas genéticos y propuso que esa institución aumentara su participación en las investigaciones del genoma; principalmente porque llevaba mucho tiempo interesado en la genética humana y tenía programas para examinar los efectos de la radiación y la contaminación ambiental sobre el cuerpo humano, así como proyectos para determinar la frecuencia de mutaciones en los descendientes de Hiroshima y Nagasaki, como parte de los programas de seguridad nacional de Estados Unidos. La creación de un proyecto para mapear y secuenciar el genoma parecía justificar, continuar y expandir las investigaciones genéticas en el Departamento de Energía, que también contaba con programas de investigación sobre cromosomas. La proposición de Charles de Lisi ha hecho pensar que el origen del proyecto se encuentra en los programas de salud del Departamento de Energía. Incluso en ese departamento las investigaciones sobre el genoma se titulan “Iniciativa del Genoma Humano”. Sin embargo, como ya señalamos, la propuesta que motivó la discusión surgió de Robert Sinsheimer, un científico que no era de esa institución y que tenía otros intereses.
 
Robert Sinsheimer, quien estaba al frente del segundo grupo, convocó en mayo de 1985 a una conferencia sobre genética molecular, invitando a participar a los mejores biólogos moleculares de Estados Unidos. En esa conferencia se propuso secuenciar el genoma humano completo, se consideraron los aspectos técnicos para su realización y se discutió la manera de llevar a cabo el proyecto. La conferencia no resultó como Sinsheimer pretendía (formalizar el establecimiento de un instituto para secuenciar el genoma humano y atraer inversiones a la Universidad de California), pues de dicha sesión lo que surgió fue la idea de un proyecto de grandes proporciones que estaba en la mente de algunos biólogos, como Walter Gilbert, quien más tarde se convirtió en un apasionado impulsor del proyecto. En una publicación que favorecía la realización del proyecto, Sinsheimer declaró, usando un lenguaje científico supuestamente neutro para ocultar su interés económico, que el genoma debía estudiarse porque estaba aquí, de la misma forma que estudiamos al sol o a las estrellas porque están aquí.
 
Otro factor que motivó a científicos y políticos estadounidenses, entre ellos personas relacionadas con el Departamento de Energía, fue el conocimiento de que Japón había iniciado desde 1981 un plan modesto para mejorar la tecnología de secuenciación del ácido desoxirribonucleico. Temiendo el triunfo japonés, en Estados Unidos se lanzaron a conseguir el mismo objetivo y uno más ambicioso: obtener mapas genéticos y físicos completos del genoma humano. Como veremos enseguida, no fue casual que ese departamento tomara la iniciativa con el pretexto de aprovechar las instalaciones de informática de sus proyectos militares.
Ya en el marco de una discusión abierta, en mayo de 1986 el Departamento de Energía organizó un taller en Santa Fe, Nuevo México, para discutir un proyecto de mapeo y secuenciación. En esa reunión volvieron a plantearse los problemas técnicos y los costos, dos aspectos fundamentales que se discutieron acaloradamente a favor y en contra del proyecto.
 
En ese mismo mes un nuevo evento abrió una perspectiva diferente para las investigaciones. Renatto Dulbecco, entonces presidente del Salk Institute, publicó en Science su artículo “A turning Point in Cancer Research: Sequencing the Human Genome”, en el cual defendía la secuenciación del genoma argumentando que la secuencia podría ser útil en las investigaciones del cáncer. Con esa publicación el proyecto recibió el apoyo de una parte de la comunidad médica, debido a que la información de mapas y secuencias humanas puede ser útil para la predicción, diagnóstico, prevención y terapia de cerca de cuatro mil enfermedades hereditarias, y en menor medida para las enfermedades que son resultado de la interacción del material genético y el ambiente.
 
Después de estos intentos la propuesta de mapear y secuenciar el genoma humano tomó forma en Cold Spring Harbor en 1986, pues durante el “Simposium sobre la biología molecular de Homo sapiens” Walter Gilbert y Paul Berg coordinaron una sesión titulada “Proyecto Genoma Humano”. En ese encuentro hubo escepticismo entre algunos científicos, principalmente por los costos y la carencia de una tecnología adecuada. También se cuestionó si era apropiado que el Departamento de Energía dirigiera un programa de esa naturaleza, principalmente porque el interés se había desplazado hacia el terreno médico.
 
En otra de las sesiones de ese simposio, Eiichi Soeda, científico japonés, señaló los planes de su país y de compañías como Hitachi y Fuji de invertir juntas para mejorar la tecnología de secuenciación a gran velocidad en el Instituto Riken en Tokio.
 
El interés de las compañías biotecnológicas en las investigaciones del genoma fue uno de los factores importantes que aceleró las discusiones y la decisión a favor de realizar las investigaciones tanto en Estados Unidos como en Europa. Para fortalecer esta idea, señalamos un par de ejemplos donde se muestra que tanto en el origen como en la creación y en la actual realización del proyecto hay una decisiva participación de intereses económicos.
 
Primero, la industria privada japonesa y las compañías privadas como Nippon Steel Corporation y Kawasaki, entre muchas otras, y varios bancos locales, destinan recursos económicos para estas investigaciones por la posibilidad de desarrollar máquinas de diagnóstico para el mercado médico y para cualquier empresa interesada en aplicar pruebas genéticas.
 
Segundo, a partir de 1987 se ha dado un aumento notable en el número de empresas biotecnológicas tanto en Estados Unidos, Europa y Japón. Esto ha beneficiado al proyecto pues se cuenta con mayores recursos, pero al mismo tiempo genera una serie de problemas. Muchas de estas empresas tienen acuerdos con universidades e instituciones públicas para financiar parte de las investigaciones a cambio de la comercialización de la información obtenida; como consecuencia esto restringe la libre circulación de la información y plantea el dilema de si realmente habrá un beneficio social.
 
Estas compañías tienen tal influencia en las investigaciones del genoma que algunos empresarios, entre ellos Frederick Bourke (empresario norteamericano), han considerado a la industria biotecnológica como la segunda revolución industrial. Esta influencia ha provocado fuertes discusiones, pues existe el intento de empresas e investigadores, como Craig Venter, de patentar genes humanos. Este asunto ha sido tan polémico que Watson tuvo que renunciar en 1992 a la dirección del proyecto, pues se vio involucrado en problemas de patentes de genes. Watson fue reemplazado por Francis S. Collins, quien es director actual del proyecto.
Otra de las figuras principales que impulsaron el proyecto es Renatto Dulbecco, quien ha justificado los altos costos de la medicina moderna señalando que las empresas de alguna manera deben recuperar el dinero invertido en las investigaciones.
 
En un nuevo intento por conseguir la dirección de las investigaciones, poco tiempo después del “Simposium sobre la biología molecular de Homo sapiens”, De Lisi propuso que se realizaran mapas completos del genoma antes de iniciar la secuenciación.
 
Pese a que no había una decisión oficial el Departamento de Energía inició en 1987 los trabajos para conseguir mapas de todos los cromosomas humanos, con objeto de quedarse con la dirección de las investigaciones; para ello se argumentó que dicho departamento contaba con mejores instalaciones para desarrollar el proyecto. Sin embargo, los dirigentes de los Institutos Nacionales de Salud de Estados Unidos, entre ellos James Watson, se habían convencido de que el proyecto era posible, pero no podía dejarse en manos del Departamento de Energía, sino que tenía que estar dirigido por otro grupo de científicos. A Watson le parecía que el Departamento de Energía estaba lleno de físicos y pocos biólogos, en cambio en los institutos de salud había una mayor cantidad de médicos y biólogos.
 
En un ambiente de escepticismo y competencia las ideas y propuestas del proyecto llegaron al Consejo de la Academia de Ciencia e Ingeniería en agosto de 1986. El Consejo inmediatamente convocó a una reunión en Wood Hole Massachusetts, de la que surgió un comité (Comité del Genoma Humano) con plenos poderes para examinar y decidir sobre estas investigaciones. Mientras el grupo de científicos concluía su informe, el gobierno federal decidió financiar la investigación a través de los Institutos Nacionales de Salud.
 
En febrero de 1988, después de catorce meses de estudio, el comité para analizar las propuestas propuso que se hicieran las investigaciones en un reporte de ciento dos páginas titulado “Mapeo y secuenciación del genoma humano”.
 
Posteriormente, el Consejo de la Academia de Ciencia e Ingeniería discutió las ideas del comité y propuso como primer paso hacer los mapas genéticos, al parejo de los mapas de organismos modelo, y como segunda etapa conseguir la secuenciación de los genes. Recomendó un presupuesto de doscientos millones de dólares anuales durante un periodo de quince años. Y designó el papel principal para los Institutos Nacionales de Salud en Bethesda. Ante esta decisión una parte de médicos y biólogos de los institutos de salud mostraron su oposición al proyecto, pensando que quizás no valía la pena desviar fondos hacia el proyecto descuidando otras investigaciones biológicas, principalmente con el argumento de que una secuenciación a ciegas no tenía ningún sentido.
 
Parte de la discusión entre hacer mapas genéticos (lo que querían los dirigentes del Departamento de Energía) y hacer mapas físicos (lo que querían los biólogos moleculares, como Gilbert, Watson y Sinsheimer) encierra en el fondo dos visiones encontradas de dos tradiciones científicas diferentes: la biología molecular, por un lado, que se centra en detalles particulares, y la genética, que trabaja con elementos que se puedan seguir en una población. Los genetistas apoyaban la realización de los mapas porque sostenían que los marcadores genéticos han sido más útiles para la diagnosis de desórdenes hereditarios que las secuencias mismas. En la actualidad los mapas genéticos están casi terminados, mientras que la cantidad del genoma humano secuenciado es alrededor de 85%.
 
Después de cuatro años de discusiones, en marzo de 1988 James Wyngaarden, director general de los Institutos Nacionales de Salud, anunció la creación del Instituto Nacional para las Investigaciones del Genoma Humano, y al mismo tiempo invitó a Watson a dirigir la investigación. Watson fue nombrado director asociado del Instituto Nacional de Investigaciones del Genoma el 1 de octubre de 1988. Un año después (octubre de 1989) inició su función con un grupo de asesores para organizar los trabajos. Ese mismo día, representantes del Departamento de Energía y de los Institutos Nacionales de Salud firmaron un memorándum de entendimiento, mediante el cual ambas instituciones se comprometieron a cooperar en la investigación.
 
 
Bajo estas condiciones se formó un comité integrado por miembros de las dos instituciones y por otros expertos cuyo fin era elaborar un programa para el proyecto. El comité se reunió en Cold Spring Harbor y emitió un informe conjunto que se envió al Congreso de la Nación en febrero de 1990. En él se establecían objetivos concretos que la investigación debería cumplir. El programa fue aprobado por el Congreso, destinándose doscientos millones de dólares anuales durante quince años, a partir de octubre de 1990 y hasta el 30 de septiembre del año 2005, aunque en la última modificación del plan general se propuso terminar en el año 2003 para que la fecha coincida con el cincuenta aniversario del descubrimiento de la estructura del adn en 1953.
 
El estudio del genoma humano
La información genética que determina el desarrollo del ser humano se encuentra en los cuarenta y seis cromosomas que se hallan en el núcleo de sus células. Cuarenta y cuatro de éstos son llamados autosomas para diferenciarlos de los dos cromosomas que determinan el sexo. Cada cromosoma está formado por una larga cadena de adn consitutida por aproximadamente ciento treinta millones de pares de bases, enrrollada y empaquetada por medio de una serie de proteínas, entre las que predominan las histonas. Prácticamente toda la actividad de regulación y síntesis de proteínas está regida por estas estructuras. Sin embargo hasta hace veinte años era casi imposible establecer con precisión el cromosoma en que se encontraban los genes.
 
Los métodos para distinguir un cromosoma de otro no permitían ir muy lejos en la ubicación de los genes. El mapeo de genes ligados establece la posición de un gen en relación a otro; por medio de las proporciones fenotípicas que produce una cruza dihíbrida es posible saber si dos genes comparten un mismo cromosoma o están en dos distintos; y por su tasa de recombinación es posible estimar qué tan cerca se encuentra uno de otro, y cuando son más de dos genes, establecer sus posiciones relativas, mas no su ubicación física. Los mapas de ligamiento son un método muy útil para el estudio de genes que codifican exclusivamente una característica que varía y que ha permitido entender la transmisión de ciertas enfermedades, pero con grandes limitaciones para establecer distancias en pares de bases así como la localización precisa de genes.
 
El advenimiento de la biología molecular revolucionó por completo el estudio de la genética y muy pronto aparecieron nuevas técnicas para su desarrollo. El descubrimiento de las enzimas de restricción y el desarrollo de las técnicas de adn recombinante abrió las puertas a las elaboración de mapas de ligamiento más precisos, de mapas físicos y al conocimiento de la secuencia del adn que constituye los genes.
 
La geografía genética
 
El estudio de la secuencia de las bases de adn humano mostraba que en ella había una gran variabilidad. Al comparar el adn de un individuo con el de otro se podía observar que si bien hay zonas que se mantienen iguales, una enorme cantidad de ellas variaba aunque fuera muy ligeramente. A estas porciones se les denominó adn polimorfas. Sin embargo, las variaciones que presentaban muchas de estas regiones eran bastante estables, es decir, que en una población, de una generación a otra, sólo variaban de manera bastante limitada. El diseño de sondas de adn permitía detectar estas secuencias con cierta facilidad, lo que hizo de ellas marcadores para ubicar estas regiones en el genoma y puntos de referencia en general. Debido a que son obtenidas por medio de enzimas de restricción, se les llamó Restriction Fragment Length Polymorphisms.
 
El uso de estos marcadores para elaborar mapas de ligamiento resultó ser de gran utilidad, ya que hacían posible establecer la distancia génica entre un marcador y un gen que codificara para alguna caracaterística fenotípica, entre dos marcadores, o determinar con precisión la ubicación de un marcador en un cromosoma. Así, por ejemplo, si en un mapa de ligamiento se estableciera que un gen determinado se encuentra entre dos marcadores, entonces es posible conocer su ubicación analizando la tira de adn que va de un marcador a otro.
 
El primer objetivo de la fase inicial del programa es la elaboración de mapas de ligamiento de cada uno de los cromosomas humanos, que contengan marcadores de adn polimorfos a una distancia de dos a cinco centimorgan, lo que corresponde aproximadamente a distancias físicas de dos a cinco millones de pares de bases. El fin es contar con una serie de puntos de referencia para poder localizar genes de interés, en pocas palabras, que los investigadores puedan tener puntos bien establecidos que les permitan transitar de manera más accesible por la intrincada geografía de los cromosomas.
 
Aun cuando la precisión de este tipo de mapas debe llegar a ser de un marcador por cada micromorgan de distancia —objetivo contemplado en la segunda fase del programa—, la elaboración en paralelo de un mapa físico, esto es, en el que la distancia entre dos puntos se expresa en número de pares de bases, permite la sobreposición de uno al otro, asociando cada uno de los locus marcados en el mapa de ligamiento a un locus específico del mapa físico, con lo cual se gana en información y exactitud.
 
En la elaboración de un mapa físico de un cromosoma se emplean por lo tanto distancias absolutas y no relativas, y éste debe estar compuesto por la cadena de adn completa que lo constituye, de principio a fin, esto es, cerca de ciento treinta millones de pares de bases. El mapa físico del genoma humano debe comprender la cartografía completa de los veinticuatro cromosomas lo que permitirá cualquier gen de cualquier cromosoma con extrema precisión.
 
Este tipo de mapas se consituyen a partir de la fragmentación de los fragmentos de adn contenidos en las bibliotecas génicas. Así, es posible tomar el adn de alguna parte de un cromosoma, copiarlo por medio de un vector (una bacteria o un virus), aplicarle una enzima de restricción y después pasar los fragmentos por electroforesis, con lo cual se obtienen los llamados fragmentos de restricción. La distancia entre cada uno de los sitios de restricción es dada en pares de bases. Cada uno de los fragmentos se sobrepone a aquél con el que comparte una porción similar o varias. De esta manera se llega a formar un fragmento de adn de mayor tamaño, que a su vez se puede unir a otro u otros más, dando un fragmento final en el que, por medio de marcadores, es posible ubicar genes y finalmente conocer la secuencia de sus nucleótidos con precisión.
 
Tal vez una de las limitantes para obtener mapas completos por este método es que, con mucha frecuencia, quedan huecos que no son fáciles de llenar, a pesar de las técnicas desarrolladas para ello. En el caso del genoma humano, cuyo adn contiene elementos muy repetitivos, la sobreposición resuta aún más difícil, ya que estos fragmentos llegan a perderse en el proceso de clonación.
 
Uno de los recursos inventados para hacer frente a estos problemas son los marcadores sts (Sequenced-Tagged-Sites), que consisten en una pequeña porción de adn (de doscientos a trescientos pares de bases) cuya secuencia no se encuentra en ninguna otra parte del genoma. Usados como promotores en pcr, es posible obtener largas cadenas de adn flanqueadas por dos sitios de fácil ubicación por su secuencia única. Al aplicar una sonda con esta secuencia a fragmentos de adn unidos por medio de enzimas de restricción, se pueden llenar los huecos que quedaban, ya que, por su longitud y sitio preciso, es posible lograr la unión de varios fragmentos. El empleo de sts en la elaboración de mapas de ligamiento y en mapas físicos es una parte central de la primera fase del proyecto genoma humano.
 
Objetivo final: secuenciación total
 
Una vez que se ha completado el mapa físico de alguna región de un cromosoma, el largo fragmento de adn se corta, se procede a una nueva clonación o subclonación con un vector, y se copia varias veces para proceder a su secuenciación base por base. Este procedimiento ordenado de secuenciación región por región, juntando trozos para reconstituir el orden de un cromosoma y luego de otro, hasta eventualmente secuenciar la totalidad del genoma, es muy preciso, pero es un proyecto laborioso y largo.
 
En 1998, Craig Venter, propuso una nueva metodología y retó a los investigadores del proyecto genoma humano, diciendo que su compañía, armada de secuenciadores automáticos y computadoras, terminaría antes la secuenciación total. Su estrategia consiste en secuenciar fragmentos aleatorios de adn —en contraposición al empleo de bibliotecas de genes ordenadas en mapas físicos— y utilizando algoritmos, recomponer el orden. Este método fue muy criticado en un inicio pues dada la conformación del genoma había muchas posibles fuentes de error. Sin embargo, para corroborar su información, Venter cuenta también con la información generada por el proyecto genoma humano vertida en una base de datos pública, llamada el GenBank. De esta manera, le es posible cotejar sus datos con aquellos generados por el proyecto, y lo que parecía imposible, gracias a las computadoras y las bases de datos, ha resultado ser una metodología rápida y eficaz.
 
 
En el plan de trabajo de Estados Unidos se establecieron varios centros para llevar a cabo la investigación, tanto en laboratorios nacionales como en universidades de todo el país y desde luego en las instalaciones del Departamento de Energía en los Alamos, Nuevo México, y en el Instituto Nacional de Investigaciones del Genoma Humano en Bethesda, Maryland.
 
De esta manera el Proyecto Genoma Humano en Estados Unidos quedó como una investigación coordinada, con el objetivo de producir en detalle el mapa genético y físico de cada uno de los veintidós cromosomas humanos y los cromosomas sexuales (x/y).
 
La participación de otros países
 
La comunidad científica internacional mostró interés en participar en las investigaciones, por lo que en 1990 trescientos científicos de treinta y cinco países se reunieron en París, Francia, en la sede central de la unesco, para discutir la importancia de una cooperación internacional en el proyecto genoma humano. En esa reunión Watson aclaró que los costos podían reducirse si había una cooperación internacional. Además, no consideraba adecuado que los datos se compartieran con naciones que no participaran en la medida de sus economías. En esto había una amenaza dirigida principalmente a los científicos japoneses, quienes tenían planeado seguir con sus programas de perfeccionamiento de tecnología de secuenciación.
 
La iniciativa de Estados Unidos fue seguida por otros países desarrollados, como el Reino Unido, Japón, los Países Bajos, Escandinavia, Rusia, Suecia, Canadá, Francia, Italia, Alemania, Hungría, Suiza, Portugal, España, Dinamarca y Canadá, que estaban motivados principalmente por la preocupación de no quedar rezagados en las investigaciones, sobre todo por la desventaja biotecnológica y económica que esto implica.
 
En 1991 la Comunidad Europea lanzó una propuesta para la región, buscando abatir el costo de las investigaciones a través de una mayor colaboración, cooperación y coordinación. Para conseguir esto se propuso que la Fundación de Ciencia Europea coordinara las investigaciones en este continente.
 
 
Antes de 1991 algunas naciones europeas habían iniciado sus programas de investigación. Por ejemplo, el Reino Unido desarrolló una propuesta en 1986 sugerida por Walt Bodmer y Sydney Brenner, dos biólogos moleculares de Inglaterra que estuvieron presentes en el “Simposium sobre la biología molecular de Homo sapiens” y en otras conferencias realizadas en torno al tema. Su propuesta consistía en un programa que involucraba al Consejo de Investigación Médica y a la Fundación Imperial para las Investigaciones del Cáncer.
 
 
Por su parte, Francia decidió en 1990 crear su propio programa de investigación, logrando una participación importante en las investigaciones del genoma humano a través del Centro de Estudio del Polimorfismo Humano, en colaboración con Estados Unidos. También cuenta con industrias privadas como el Centro Généthon.
 
 
En Italia la discusión en torno a un programa de investigación sobre el genoma inició en 1987 promovida por Renatto Dulbecco a través del Consejo de Investigación Italiano. El proyecto italiano fue pensado para una colaboración de varias unidades de este centro y diferentes universidades e institutos a lo largo de Italia.
 
 
Alemania, por su parte, participa en las investigaciones del genoma humano principalmente a través del Centro de Investigación del Cáncer de Alemania, en Heidelberg. Esta institución funciona como un centro de coordinación en la comunidad europea, debido a que cuenta con una base de almacenamiento de datos de secuencias.
 
 
Japón, como mencionamos anteriormente, ha trabajado desde principio de los ochentas en la fabricación de tecnología de secuenciación. Sin embargo, fue uno de los últimos países industrializados en establecer un programa nacional coordinado de investigación sobre el genoma humano, debido en parte a que los científicos japoneses no mostraban mucho interés en hacer mapas genéticos y físicos del genoma. Como ya mencionamos anteriormente, las industrias japonesas estaban interesadas en invertir sólo en la tecnología de secuenciación. Este interés era compartido por algunos científicos japoneses, entre ellos Akiyoshi Wada, de la Universidad de Tokio, quien propuso establecer una fábrica de secuenciación de adn en Japón. Wada estaba convencido de que esta actividad no era propia de científicos, sino de técnicos y mecánicos bien entrenados.
 
 
Para terminar la visión de lo que fue en su origen y la posterior difusión de la idea de conseguir mapas genéticos y físicos completos del genoma hasta llegar a consolidarse como una empresa internacional, mencionaremos dos organizaciones involucradas en la organización y coordinación de las investigaciones entre los países participantes.
 
 
La primera es la Organización Internacional del Genoma (Hugo), creada como un foro internacional en la primera conferencia de Cold Spring Harbor sobre el mapeo y la secuenciación, que se llevó a cabo el 29 de abril de 1988.
 
 
La segunda es la unesco, pues su director general, el doctor Federico Mayor, reunió en octubre de 1988, en Valencia, España, a un grupo de asesores científicos para considerar el papel de la unesco en el proyecto genoma humano; la primera conferencia sobre este tema se celebró en París en febrero de 1989. En ella los participantes acordaron que la unesco ayudaría facilitando la cooperación internacional; particularmente hacia los países en desarrollo, en donde era más apremiante.
 
 
El proyecto en América Latina
 
Debido a que la unesco no podría cubrir los programas de muchos grupos y países, se pensó agruparlos por regiones, en grandes programas. Uno de ellos es el Programa Latinoamericano del Genoma Humano, fundado bajo la iniciativa de la Red Latinoamericana de Ciencias Biológicas durante el simposium “Genética molecular y el proyecto genoma humano: perspectivas para América Latina”, realizado en junio de 1990 en Santiago de Chile.
 
Este proyecto está integrado por Chile, Brasil, México, Venezuela, Costa Rica, Colombia, Cuba y otros países de la región. Con este mecanismo de programas regionales se evitan traslapamientos con otros proyectos; además, permite una comunicación eficaz entre la unesco y los países en vías de desarrollo.
 
Bajo este interés, la unesco ha promovido investigaciones sobre el genoma en China, India y Sudáfrica.
 
A pesar de los esfuerzos de la unesco existe una evidente y tremenda asimetría entre las investigaciones de los países desarrollados y los subdesarrollados. Estos últimos participan en las investigaciones aportando acervos de información genética de poblaciones que presentan problemas de enfermedades hereditarias, con datos obtenidos a través de análisis de genealogías y en una mínima porción de secuenciación de genes.
 
Las aristas del proyecto
 
Para terminar esta breve descripción del origen del proyecto señalaremos tres asuntos que han estado en el centro de los debates: los beneficios médicos, el presupuesto destinado a estas investigaciones y los temores sobre el uso de la información genética que podría servir para justificar la discriminación en proporciones inimaginadas.
 
Desde el punto de vista científico representa un gran avance en la comprensión de la naturaleza de los seres vivos, pero es en la medicina donde habrá mayores beneficios. La medicina tradicionalmente se basa en la prevención, detección y cura de la enfermedad. La medicina moderna, influida profundamente por la biología, está encaminada a enfrentar las enfermedades genéticas por medio de la predicción. Una de las promesas de los programas de investigación sobre el genoma es mejorar la habilidad para comprender las enfermedades genéticas y obtener conocimientos para tratar pacientes con esas anormalidades. Actualmente existen algunos tratamientos en el terreno experimental.
 
La información de mapas y secuencias humanas será útil principalmente en la predicción, diagnóstico, prevención y terapia. En la predicción, la información de los mapas puede ser utilizada para predecir el riesgo individual de heredar una enfermedad genética. En el diagnóstico, un gran número de enfermedades genéticas puede ser detectado mediante pruebas genéticas. En la terapia o tratamiento la identificación de genes que provocan enfermedades y sus proteínas puede posibilitar la creación de terapias efectivas. El conocimiento de estos genes y sus proteínas ayudará a perfeccionar las medidas preventivas, basadas sobre todo en dietas o administración de sustancias que retarden o bloqueen los efectos de genes causantes de enfermedades. Un caso ilustrativo que se ha conseguido es poder transplantar médula a niños a los que se les ha detectado el gen ada, causante de 30% de los casos de la enfermedad de immunodeficiencia severa combinada; la efectividad es de 90%.
 
Por otra parte, es indudablemente un gran avance que se puedan detectar genes deletéreos o anormalidades cromosómicas en embriones de corta edad, lo que permite a los padres tomar la decisión de interrumpir el embarazo. Además de errores grandes como la trisomía 21 o el síndrome de Turner, hoy se pueden detectar genes como el de Huntington; el gen que provoca la galactosemia; el gen causante de la acondroplasia, y muchos más. Un gran problema es que toda esta medicina tiene un costo altísimo, pues tan sólo para la detección de genes de alguna enfermedad el costo es de varios miles de dólares; esta situación ha llevado a considerar que el beneficio social es muy limitado, sobre todo si nos damos cuenta de que el costo del mapeo y de la secuenciación de genoma humano será aportado principalmente por presupuesto público (tanto en los países desarrollados como en los países en vías de desarrollo) y en menor grado por la iniciativa privada .
 
Una de las grandes objeciones a este proyecto fue si tenía sentido secuenciar todo sin conocerlo, pensando que el argumento de beneficio médico era solamente utilizado para desviar fondos de investigaciones o programas sociales de atención y beneficio médico que tienen un impacto más inmediato. Sin embargo, pese a que este proyecto tiene un costo demasiado elevado y una utilidad práctica que no resulta nada sencillo aplicar, para muchos defensores del proyecto no existía tal desvío tremendo de fondos, contrargumentando, por ejemplo, que el proyecto costará aproximadamente de tres mil a cinco mil millones de dólares, mucho menos que otras investigaciones científicas como la estrategia de defensa nacional de Estados Unidos, que recibió tan sólo en 1993 un presupuesto de tres mil ochocientos millones de dólares, mientras que la asignación para el proyecto en ese mismo año fue de ciento setenta y un millones de dólares. La misma situación se repite en muchos países donde los recursos destinados a proyectos o programas militares supera en mucho los recursos destinados a las investigaciones del genoma humano.
 
Por último, ha surgido un fuerte temor de problemas sociales relacionados con la discriminación, debido a la presencia de una ideología reduccionista en el marco general de las investigaciones del genoma humano; una visión que no sólo se percibe dentro de la comunidad científica, sino que trasciende hacia la sociedad. Esta ideología ha surgido porque la metodología de investigación utilizada en la biología molecular (el reduccionismo metodológico o explicativo, que abarca cuestiones referentes a la estrategia de investigación y a la adquisición de conocimientos) se ha convertido en una forma de “reduccionismo genético”, al afirmar que todas las propiedades biológicas de un organismo pueden ser explicadas y determinadas únicamente por sus genes.
 
De esta forma las explicaciones reduccionistas como una estrategia de investigación han sido transformadas en una ideología por los proponentes del proyecto. El empleo del reduccionismo en la ciencia en casos como el que nos ocupa ha sido traducido en una visión metafísica, pues, por ejemplo, algunos biólogos moleculares han dicho que todos los problemas biológicos son mejor enfocados con el estudio de los genes. Muchos dirigentes de la revolución en biología molecular han reivindicado todo papel explicativo para la genética y muchos de ellos están asociados con el inicio del proyecto. El problema es creer que en las secuencias genéticas está la clave para construir un ser humano, pero un ser humano es resultado de una fina interacción de un genoma y un ambiente determinado. Así como habrá diferencias si cambia el genoma las habrá si cambia el ambiente; lo más importante es entender que a un ser humano no lo define solamente su estructura física, lo define, ante todo, su manera de pensar, su manera de actuar, su forma de ser humano. Si no se toma en cuenta lo antes señalado existe el riesgo de problemas sociales de graves consecuencias. La información actual sobre el genoma humano nos ha dado las bases para una nueva práctica médica; de la misma manera nos ha dado las bases para argumentar, justificar y aumentar la discriminación, por ejemplo, en la contratación de empleados o en la venta de seguros médicos que podrían negarse a personas con aparentes problemas genéticos.
 
La información de las secuencias puede tener un impacto positivo en la ciencia, en la práctica médica y en el terreno biotecnológico con aplicaciones en la agricultura y en la cría de animales de importancia económica. Sin embargo, no debemos olvidarnos de las lecciones de la historia sobre el mal uso que a veces se le da al conocimiento científico, debido a que la información obtenida puede usarse inadecuadamente en contra de sectores de la población humana (principalmente contra los grupos que por su raza o clase social siempre han sufrido discriminación).
 
La razón de este temor es, por un lado, la existencia de una concepción equivocada del genoma; la creencia de que el conocimiento de la información genética es suficiente para explicar y definir todo lo que un ser humano representa, biológica, estructural, intelectual y emocionalmente. Por otro lado, la causa que originó y que le ha dado impulso a estas investigaciones no es precisamente el convencimiento de un beneficio social, sino en gran medida es consecuencia de la competencia económica y comercial, en donde las partes que intentan salir mejor beneficiadas son las industrias biotecnológicas de los países desarrollados donde se realiza la mayoría de la investigación.
Referencias bibliográficas
 
Bishop, Jerry. 1992. Genoma: la historia de la aventura científica más asombrosa de nuestro tiempo, el intento de trazar el mapa genético del cuerpo humano. Plaza & Janes 401 pp.
Engel, L. W. 1993. “The Human Genome Project: History, Goals and Progress to Date”, Arch. Pathol. Lab. Med., 117, pp. 459-465.
Haq, M. M. 1993. “Medical Genetics and the Human Genome Project: a historical review”, Texas Medicine/the journal, 89(3), pp. 68-73.
Keleher, Cynthia. 1993. “Translating the genetics library: The goal, metods and applications of the Human Genome Project”, Bull. Med. Libr. Assoc., 81(3), pp. 277-277.
Leder, Phillip. 1990. “Can The Human Genome Project Be Saved From its Critics... and Itself?”, Cell, 63, pp. 1-3.
Lee, Thomas F. 1994. El Proyecto Genoma Humano. Gedisa, Barcelona.
Noguera Solano, Ricardo y Lucia Ramírez Escobar. 1998, El proyecto genoma humano: una aproximación histórica. Tesis de Licenciatura, Facultad de Ciencias, unam, 85 pp.
Oliva, Virgil Rafael. 1996. Genoma humano. Barcelona, 224 pp.
Watson, J. D. 1990. “The Human Genome Project: Past, Present and Future”, Science, 248, pp. 44-48.
Watson and Cook-Deegan. 1991 “Origins of the Human Genome Project”, faseb, J 5, pp. 8-11.
Wilkie, Tom. 1993. El conocimiento peligroso: el proyecto genoma humano y sus implicaciones. Faber and Faber.
Ricardo Noguera Solano
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
 
 
Rosaura Ruiz Gutiérrez
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Noguera Solano, Ricardo y Ruiz Gutiérrez, Rosaura. (2000). El proyecto genoma humano. Ciencias 58, abril-junio, 4-13. [En línea]
    Regresar al índice artículo siguiente
  CNS05810    
  del tintero
 
     
El tesoro de la juventud
 
 
 
Julio Cortázar
conoce más del autor
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
       
Los niños son por naturaleza desagradecidos, cosa comprensible puesto que no hacen más que imitar a sus amantes padres; así, los niños de ahora vuelven de la escuela, aprietan un botón y se sientan a ver el teledrama del día, sin ocurrírseles pensar un solo instante en esa maravilla tecnológica que representa la televisión. Por eso no será inútil insistir ante los párvulos en la historia del progreso científico, aprovechando la primera ocasión favorable, digamos el paso de un estrepitoso avión a reacción, a fin de mostrarles los admirables resultados del esfuerzo humano.
 
El ejemplo del “jet” es una de las mejores pruebas. Cualquiera sabe, aun sin haber viajado en ellos, lo que representan los aviones modernos: velocidad, silencio en la cabina, estabili-dad, radio de acción.
 
Pero la ciencia es por antonomasia una búsqueda sin término, y los “jets” no han tardado en quedar atrás, superados por nuevas y más portentosas muestras del ingenio humano. Con todos sus adelantos esos aviones tenían numerosas desventajas, hasta el día en que fueron sustituidos por los aviones de hélice. Esta conquista representó un importante progreso, pues al volar a poca velocidad y altura el piloto tenía mayores posibilidades de fijar el rumbo y de efectuar en buenas condiciones de seguridad las maniobras de despegue y aterrizaje. No obstante, los técnicos siguieron trabajando en busca de nuevos medios de comunicación aún más aventajados, y así dieron a conocer con breve intervalo dos descubrimientos capitales: nos referimos a los barcos de vapor y al ferrocarril. Por primera vez, y gracias a ellos, se logró la conquista extraordinaria de viajar al nivel del suelo, con el inapreciable margen de seguridad que ello representaba.
 
Sigamos paralelamente la evolución de estas técnicas, comenzando por la navegación marítima. El peligro de los incendios, tan frecuente en alta mar, incitó a los ingenieros a encontrar un sistema más seguro; así fueron naciendo la navegación a vela y más tarde (aunque la cronología no es segura) el remo como los medios más aventajados para propulsar las naves.
 
Este progreso era considerable, pero los naufragios se repetían de tiempo en tiempo por razones diversas, hasta que los adelantos técnicos proporcionaron un método seguro y perfeccionado para desplazarse en el agua. Nos referimos por supuesto a la natación, más allá de la cual no parece haber progreso posible, aunque desde luego la ciencia es pródiga en sorpresas.
 
Por lo que toca a los ferrocarriles, sus ventajas eran notorias con relación a los aviones, pero a su turno fueron superados por las diligencias, vehículos que no contaminaban el aire con el humo del petróleo o el carbón, y que permitían admirar las bellezas del paisaje y el vigor de los caballos de tiro. La bicicleta, medio de transporte altamente científico, se sitúa históricamente entre la diligencia y el ferrocarril, sin que pueda definirse exactamente el momento de su aparición. Se sabe, en cambio, y ello constituye el último eslabón del progreso, que la incomodidad innegable de las diligencias aguzó el ingenio humano a tal punto que no tardó en inventarse un medio de viaje incomparable, el de andar a pie. Peatones y nadadores constituye así el coronamiento de la pirámide científica, como cabe comprobar en cualquier playa cuando se ve a los paseantes del malecón que a su vez observan complacidos las evoluciones de los bañistas. Quizá sea por eso que hay tanta gente en las playas, puesto que los progresos de la técnica, aunque ignorados por muchos niños, terminan siendo aclamados por la humanidad entera, sobre todo en la época de las vacaciones pagas.
Julio Cortázar
(Tomado de Último round, Tomo 1, Siglo xxi Editores).
_______________________________________________________________
 

como citar este artículo

Cortázar, Julio. (2000). El tesoro de la juventud. Ciencias 58, abril-junio, 75. [En línea]
 
  P01 P02  
 
 
     
Ética y genética
 
Rubén Lisker
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Los principales objetivos del proyecto genoma humano son: 1) averiguar la ubicación cromosómica de los alrededor de cien mil genes que forman el genoma humano, empezando por aquellos que producen enfermedades, y 2) conocer la secuencia de los tres mil millones de pares de bases que integran nuestro ácido desoxirribonucleico (adn). Ambos objetivos están muy adelantados y se considera que los resultados del proyecto serán sumamente benéficos para la humanidad, quedando sin embargo la inquietud de cuál es el uso que se dará a los nuevos conocimientos y si en realidad se emplearán para bien del hombre.
 
Una de las organizaciones internacionales preocupadas por el asunto fue la unesco, que por decisión de Federico Mayor, su director general, creó en 1993 el Comité Internacional de Genética, con el fin de convertirlo en un foro libre de intercambio de ideas para analizar las implicaciones sociales, políticas, éticas y legales del uso de los resultados del Proyecto. El objetivo final es producir un documento que terminó llamándose Declaración Universal sobre el Genoma Humano y los Derechos Humanos.
 
El Comité estuvo dirigido por una distinguida jurista francesa, Noelle Leonoir, y se integró, por invitación de la unesco, con cerca de cincuenta personas, entre científicos, juristas, filósofos y políticos. La mitad de los integrantes provenían de países en vías de desarrollo, cuatro de los cuales eran representantes de América Latina: tres genetistas humanos (Argentina, Chile y México) y un jurista de Uruguay que encabezó la comisión legal del Comité, y se encargó de redactar el documento a que hicimos referencia en líneas previas. De 1993 a 1996 se realizaron cuatro sesiones generales del Comité en las que se discutieron a fondo numerosos temas relacionados con la ética y genética, cuyos detalles se pueden encontrar en publicaciones de la unesco sobre el particular aparecidas de 1994 a 1997. La comisión legal presentó un anteproyecto sobre la protección del genoma humano en 1994, el cual fue modificado cada año, distribuyéndose por todo el mundo con objeto de recibir opiniones y enriquecer el documento final, el cual se aprobó por unanimidad el 11 de noviembre de 1997, durante los trabajos de la 29 reunión de la Conferencia General de la unesco.
 
Federico Mayor señala que el texto busca equilibrar la garantía del respeto a los derechos y libertades fundamentales del hombre con la necesidad de garantizar la libertad de la investigación científica. La Conferencia General de la unesco acompañó a la Declaración con una resolución en la que pide a los Estados enunciados en ella favorecer su aplicación. El compromiso moral contraído por los Estados al adoptar la Declaración se considera como un punto de partida: una toma de conciencia mundial de la necesidad de una reflexión ética sobre la ciencia y la tecnología. Es ahora prerrogativa de los países dar vida a la Declaración con las medidas que cada uno decida adoptar.
 
La Declaración consta de veinticinco artículos distribuidos en los siguientes siete apartados: a) la dignidad humana y el genoma humano, b) derechos de las personas interesadas, c) investigación sobre el genoma humano, d) condiciones de ejercicio de la actividad científica, e) solidaridad y cooperación internacional, f) fomento de los principios de la declaración y g) aplicación de la Declaración. La Declaración está redactada en términos muy generales, como es usual en documentos que requieren el consenso de todos los países involucrados, pero representa lo enunciado por Federico Mayor: una toma de conciencia universal de la necesidad de una reflexión ética sobre la ciencia y la tecnología.
 
El código ético de Hugo
 
Hugo es el acrónimo de Human Genome Organization, grupo no gubernamental que trata de hacer más eficiente el proyecto. Una de sus recientes iniciativas es el proyecto diversidad del genoma humano, que tiene como fin averiguar la diversidad del genoma humano analizando el adn de quinientas poblaciones humanas. Esto ha generado una serie de preocupaciones, entre otras: 1) temor a que se estigmatice y discrimine a personas o grupos y se promueva el racismo, 2) perder el acceso universal a los nuevos conocimientos cuando éstos sean patentados y 3) reducir el concepto de ser humano a su adn y que nuestros problemas sociales sean atribuidos a causas genéticas.
 
Por lo anterior, la directiva de Hugo pidió a su Comité de asuntos éticos, legales y sociales que emitiera una serie de recomendaciones para garantizar que todos los proyectos se ajusten a los más rigurosos conceptos éticos. De carácter internacional y multidisciplinario, el Comité, dirigido por la jurista canadiense Bartha María Knoppers, emitió una serie de recomendaciones más específicas que las del Comité Internacional de Bioética de la unesco, lo que se comprende por tratarse de un grupo de trabajo pequeño que no requiere el consenso de todos los países. Las recomendaciones emitidas son: 1) que es indispensable el cuidado de la calidad científica de las investigaciones en humanos, para que éstas sean éticas; 2) en el proceso de comunicación con comunidades deben tomarse en cuenta las características culturales de la población; 3) la consulta debe hacerse antes de reclutar a los posibles participantes en una investigación; 4) es necesario un consentimiento informado de los participantes que no sea coercitivo y que explique con claridad los detalles de la investigación; 5) debe respetarse la decisión de los participantes y asegurarles el respeto a su vida privada, cuidando la confidencialidad de la información recabada, y 6) debe codificarse la información para impedir el libre acceso a ella, siempre cuidando los intereses de los individuos investigados y de sus familiares.
 
A un nivel menos general y más concreto pensamos que aun cuando el proyecto genoma humano no vaya a plantear nuevos problemas éticos, en la práctica de la genética médica en nuestro país éstos sí serán mucho más frecuentes, por lo que es necesario ir meditando sobre ellos, pues la ciencia va mucho más rápido que las reflexiones éticas, particularmente en un país como el nuestro, en que el nivel de discusión crítica y abierta de los problemas se estila poco.
 
El problema del aborto electivo
 
En la mayor parte del país el aborto es ilegal y todos los intentos que se han hecho para que la ley al respecto sea más liberal han fracasado. En la actualidad sólo se permite cuando el embarazo es producto de una violación o si la vida de la madre está en peligro. Nadie, que yo sepa, está a favor del aborto. Lo que sí se ha intentado es que éste se permita en algunas circunstancias, entre otras, cuando exista la certeza de que el producto tiene un padecimiento genético grave, lo que no sólo impediría una vida sin razonable calidad, sino que además interferiría con el bienestar familiar. Este tipo de aborto recibe el nombre de eugenésico, lo que puede ser visto como un intento de descalificarlo a priori, ya que la palabra eugenesia se ha convertido en un término negativo por las atrocidades cometidas en Alemania durante la Segunda Guerra Mundial y por los programas de esterilización obligatorios realizados en algunos países escandinavos, Estados Unidos y Canadá en la década de los treintas.
 
Los argumentos a favor y en contra del aborto electivo no convencen a nadie de los que están del lado contrario; así, dada la poca información objetiva que hay en México sobre el particular, se realizó una encuesta en cinco grupos de médicos: genetistas, obstetras, internistas, pediatras y neurólogos, a quienes se les hicieron cuatro preguntas con relación al aborto electivo: a) qué opinaban cuando se hacía sólo a solicitud de los interesados; b) cuando el producto tenía una malformación congénita; c) cuando la malformación era grave, y d) cuando el problema era personal. Respecto a la primera pregunta sólo 15% estuvo de acuerdo con el aborto, pero la cifra subió a 50% y 90% en la segunda y tercer preguntas. Cuando se personalizó la situación (pregunta d) bajó a 70% quienes estaban de acuerdo con el aborto. En las contestaciones no intervino el género del encuestado, su edad y su experiencia en ver enfermos con malformaciones; el único factor que dio diferencias significativas fue el grado de religiosidad, pero aun entre los médicos que manifestaban que la religión era importante o muy importante en su vida diaria, la mayoría estuvo a favor del aborto electivo en las preguntas c y d.
 
Pienso que la decisión de realizar un aborto es exclusiva de la pareja. El genetista debe informar y asegurarse que la información sea bien comprendida. El procedimiento nunca deberá ser obligatorio y si una pareja decide llevar a término el embarazo de un producto afectado no se debe interferir con esa decisión. Estoy seguro de que no habrá un consenso respecto a este problema y que a lo más a que se podría llegar es a que la sociedad permita que cada quien obre conforme su propia conciencia, lo cual sería ideal desde mi punto de vista, pero también muy difícil de lograr.
 
Respeto a la autonomía del enfermo
 
En los países anglosajones se hace mucho énfasis en respetar la autonomía de las personas y en que al proporcionar el llamado consejo genético, el genetista sólo debe explicar cuál es el problema, sin tratar de influir en la decisión del paciente. Encuestas realizadas en México entre diferentes especialistas médicos, incluyendo genetistas, señalan que lo anterior no ocurre y que el consejo genético casi nunca es neutral y priva el deseo del genetista de ayudar a sus pacientes, proporcionándoles el “mejor” consejo posible, basado en los valores del médicos y en su idea de la importancia del problema sobre el que está asesorando. Esta actitud es también la que prevalece en el mundo no anglosajón y ha sido criticada por ser considerada como una política eugenésica. Pensamos que esta crítica no es correcta ya que el médico nunca tiene en mente: 1) mejorar la composición genética de la población, ni 2) toma actitudes coercitivas. Ambos elementos necesarios para hablar de la eugenesia propiamente dicha.
 
Confidencialidad
 
La confidencialidad es el acuerdo (no explícito) entre el médico y su paciente, en el que el primero se compromete a no dar información relativa al paciente, a menos que tenga su permiso. En genética médica el primer problema es definir quién es el paciente, si el enfermo que consulta o toda su familia que comparte los mismos genes. Esto es relevante, ya que el médico tiene como obligación, además de guardar la confidencialidad, proteger de daño a terceros cuando esto es posible.
 
En las encuestas que hemos realizado en México resulta claro que los genetistas están más interesados en proteger de daño al cónyuge, a los parientes directos del enfermo y al público en general, que mantener la confidencialidad del paciente. Esto pasa en todo el mundo, excepto en el norte de Europa y en poblaciones de habla inglesa, que dan mayor importancia a mantener la confidencialidad que a proteger a terceros. Afortunadamente existe una solución parcial a este dilema, pues el médico puede advertir al paciente, antes de darle consulta, que si ocurre una situación en la que por motivos médicos convenga informar a otros de cuál es su situación lo hará aun cuando el o la paciente no lo deseen. Ello permite al paciente decidir si consulta a ese médico o prefiere cambiar de facultativo. Es claro que en México y en otros países el principio ético dominante es evitar el daño a terceros, más que respetar la autonomía del paciente.
 
Medicina predictiva
 
Cada vez es más fácil, mediante el uso de pruebas de laboratorio, conocer el riesgo que tiene determinada persona de desarrollar más tarde alguna enfermedad genética. Pondré como ejemplo una enfermedad neurodegenerativa, la Corea de Huntington. Los primeros síntomas suelen aparecer a los cuarenta años, son progresivos y los pacientes mueren diez años después con problemas de manejo en el lapso sumamente difíciles. Por su forma de herencia se sabe que cada hijo, independientemente del sexo, tiene 50% de riesgo de padecerla, y en la actualidad hay manera de tener la certeza, desde la más tierna infancia, si un sujeto de riesgo tiene o no la enfermedad.
 
El dilema es que podemos estar seguros de que un sujeto tiene la enfermedad a la edad de cinco años, por ejemplo, pero será treinta y cinco años después cuando esa persona mostrará los primeros síntomas. ¿Hay que informarle de ello y a qué edad? ¿Cómo saber si no va a morir de otra circunstancia antes de los cuarenta años? Ante esto vale la pena preguntarse qué se ganó al informarle fuera de preocuparlo y hacerlo infeliz desde que se enteró. En el fondo el problema radica en que podemos diagnosticar la enfermedad pero no tratarla, y es seguro que cada vez habrá más ejemplos similares; de hecho, en la actualidad ya se conocen genes que predisponen a cáncer de mama en la mujer, y quien los tiene, si llega a los ochenta años, cuenta con 90% de posibilidad de desarrollar este tumor maligno. ¿Qué hacer? ¿Recomendar mastectomía bilateral preventiva?, ¿a qué edad hacerla?, son interrogantes que, aparte de no tener respuesta, necesitan investigarse a fondo antes de ofrecer pruebas predictivas a la sociedad, situación que de ocurrir podría tener un gran éxito comercial.
 
Terapia génica
 
La terapia génica es la manipulación del adn de células vivas con objeto de modificarlo e introducirlo al organismo con fines terapéuticos. Se puede realizar en células somáticas, en cuyo caso, si llega a suceder cualquier imprevisto negativo, sólo se afecta al individuo en que se está intentando y no presenta ningún problema ético en particular, ya que el procedimiento es igual a cualquier otro procedimiento terapéutico en fase experimental y debe someterse a los mismos reglamentos.
 
Esta terapia también puede aplicarse en células germinales, pero en la actualidad existe consenso de que no debe realizarse, ya que de haber efectos imprevistos, en particular a largo plazo, podrían manifestarse en los descendiente de los sujetos en que se realizó el procedimiento, lo cual resulta indeseable. En lo que sí se está de acuerdo es en que hay que tener mucho más experiencia con el procedimiento realizado en células somáticas, antes de intentarlo en las germinales.
 
La terapia génica aún está en la infancia y es posible que se convierta en un arma terapéutica muy útil para el tratamiento de diversas enfermedades, pero debe quedar claro que su uso será precisamente para eso, curar enfermedades, y no para “mejorar” a las personas aumentando su talla o cambiando el color del pelo o de los ojos, ya que ello implica juicios de valor con connotaciones negativas y francamente racistas para algunos individuos o grupos de personas.
Rubén Lisker
Instituto Nacional de la Nutrición Salvador Zubirán.
_______________________________________________________________
 

como citar este artículo

Lisker, Rubén. (2000). Ética y genética. Ciencias 58, abril-junio, 26-30. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
     
Genes ¿para qué?
 
Helène Gilgenkrantz, Jacques Emmanuel Guidotti
y Axel Kahn.
conoce más del autor
 
 
 
HTML ↓
PDF Regresar al índiceartículo siguiente
     
Nuestra percepción actual acerca de la genética está sufriendo cambios profundos. Desde los primeros trabajos de Gregorio Mendel en 1865, hasta el desarrollo de la enzimología y de la bioquímica de las proteínas en las décadas de los cincuentas y los sesentas, los estudios de genética se basaron en el análisis de la transmisión de caracteres fenotípicos de una generación a la otra, es decir, en el estudio de los caracteres observables. A partir de 1973, con el inicio de la ingeniería genética, se empezó a considerar que el procedimiento normal para identificar un gen consistía en caracterizar primero la proteína para la cual codifica. A mediados de los años ochentas, armados con la experiencia de la ingeniería genética y de los estudios de adn, se emprendió un retorno a las raíces: se estableció que el gen responsable de una enfermedad se puede identificar porque cosegrega (se transmite) con un fenotipo patológico, lo que se conoce como clonación posicional. La proteína se deduce a partir de la secuencia del gen identificado, e incluso se puede sintetizar por ingeniería genética. Este procedimiento también permite reconocer genes cuyas mutaciones no son directamente responsables de una enfermedad, pero que sin embargo aumentan la probabilidad de que ésta se manifieste, como en el caso de los genes de susceptibilidad a la arteriosclerosis, hipertensión o Alzheimer.
Recientemente la sed por descifrar nuestro propio genoma nos ha llevado a una nueva era, la de la genómica, cuyo principal objetivo es la secuenciación completa del genoma humano. De hecho, acaba de anunciarse la primera secuencia entera de un cromosoma humano, y podemos asegurar, sin demasiado riesgo, que todos los cromosomas habrán sido secuenciados en un futuro muy próximo.
 
Sin embargo, aún nos falta un enorme trecho antes de que a partir de la secuencia de los genes podamos inferir los fenómenos fisiológicos y patológicos. Entre los ochenta mil a ciento cuarenta mil genes de los que se compone nuestro alfabeto, sólo algunos están implicados en una enfermedad monogénica específica. Algunos de ellos son tan importantes que la más ligera mutación es letal, pero en otros casos existen candados de seguridad que permiten a ciertos genes paliar la ausencia o la alteración de otros, por medio de una cierta redundancia funcional. Además, el resultado fenotípico de un gen depende, generalmente, de su colaboración con otros genes y del contexto del medio ambiente, de la misma forma que el significado de una palabra depende de su posición dentro de una frase y debe de ser interpretado en función de la trama de la historia.
Ratones para los hombres
Uno de los prerrequisitos indispensables para la realización de ensayos terapéuticos clínicos es contar con modelos animales. A partir del nacimiento de la transgénesis, que permite la introducción de un fragmento de adn en el genoma desde los primeros estados de la embriogénesis, ha sido posible desarrollar diversos modelos de afecciones humanas. Por medio de esta técnica no sólo se pueden modelar enfermedades monogénicas, sino que también se han desarrollado modelos de cáncer en tejidos específicos y es posible estudiar la cooperación entre distintos oncogenes, la cinética de la aparición de un proceso canceroso y, de esta manera, establecer sitios potenciales de intervención terapéutica.
 
Hacia finales de la década de los ochentas se desarrolló una herramienta de creación de modelos animales muy poderosa; se trata de la posibilidad de reemplazar, durante las primeras etapas del desarrollo embrionario de los ratones, un gen normal por uno mutado, lo que se conoce como recombinación homóloga. Hasta entonces los investigadores habían dependido del carácter aleatorio de la mutagénesis, pero con esta nueva técnica, que se basa en el conocimiento del gen que se quiere interrumpir o mutar, se introduce la secuencia mutada en células embrionarias totipotenciales de ratón y, por medio de un método de selección positiva o negativa, se escogen aquellas células donde la secuencia mutada haya reemplazado a la secuencia normal del ratón. Gracias a esta técnica ha sido posible desarrollar modelos de mucoviscidosis que reproducen algunos de los signos de la afección en humanos, y fue posible probar la viabilidad, la eficacia y la inocuidad de las primeras tentativas de terapia génica. Desde entonces, la técnica de recombinación homóloga se ha refinado considerablemente, y ahora es posible controlar la disfunción de un gen en el tiempo y en el espacio, como si estuviéramos accionando un interruptor. Volviendo al ejemplo de la mucoviscidosis, o del gen responsable, el crtf, ha sido posible estudiar las consecuencias de la ausencia de su expresión en tipos de células específicos. Como esta técnica se basa en la homología de la secuencia del fragmento introducido con la del gen mutado, uno de los requisitos para poder emplearla es conocer, al menos, una parte de la secuencia del adn del gen que se quiere modificar.
A pesar de estos avances, los modelos animales no siempre constituyen una buena copia fenotípica de las afecciones humanas. Por ejemplo, los ratones mdx, que al igual que los niños con miopatía de Duchenne están desprovistos de distrofina muscular, presentan un diagnóstico vital normal aun cuando sus músculos presentan ciertas lesiones causadas por el proceso necrótico característico de esta enfermedad. En algunos casos es posible contar con otros modelos animales, como ciertas afecciones articulares o de hipertensión, en las cuales las ratas desarrollan una semiología cercana a la enfermedad humana. Sin embargo, la transgénesis es aún una técnica difícil de realizar en especies que difieren del ratón, como ratas, conejos y vacas. Una de las aplicaciones de la transgénesis podría ser el uso de los órganos de animales transgénicos para realizar xenotransplantes. Aunque esta idea ya no sea ciencia ficción pura, la técnica aún presenta grandes dificultades de orden inmunológico y de seguridad que será necesario vencer antes de poder ponerla en práctica.
Comprender mejor para curar mejor
El hecho de haber identificado al gen responsable de una afección no implica que se comprenda su función o su participación en la fisiopatología, sin embargo, es necesario establecer los lazos que unen a la estructura del gen y a la proteína con los efectos deletéreos que produce su ausencia, para poder diseñar estrategias terapéuticas dirigidas y eficaces. Un ejemplo espectacular y reciente que ilustra este proceso es el de los trabajos emprendidos por dos equipos franceses en torno a una enfermedad muscular, la ataxia de Friedreich, un padecimiento que sufre una persona de cada cincuenta mil en Europa. El grupo de Jean Louis Mandel y Michel Koenig, en Estrasburgo, identificó el gen responsable de esta enfermedad y bautizó a la proteína para la cual codifica, pero cuya función se desconoce, frataxina. Un año más tarde, el equipo de Arnold Munich y Agnes Rôtig, en París, observó una deficiencia en las proteínas fierro-azufre mitocondriales en las biopsias de endiomiocardio de los pacientes con ataxia de Friedreich. Con estas dos claves era posible describir la secuencia fisiopatológica de la enfermedad aunque no se hubiese descubierto la función precisa de la frataxina: acumulación de fierro mitocondrial, pérdida de las proteínas fierro-azufre y sobreproducción de aniones superóxidos tóxicos para las células. Siguiendo esta lógica, se probaron in vitro numerosas sustancias farmacológicas que pudieran intervenir en este ciclo. La vitamina c, que aumenta la producción de fierro reducido, aumentó la toxicidad; el desferral desplazó el fierro responsable de la destrucción de las proteínas fierro-azufre solubles de las membranas, y un agente antioxidante, el idebenone, que no reduce el fierro, protegió a las enzimas, tanto a las solubles como a las membranales. El tratamiento con idebenone permitió mejorar espectacularmente la hipertrofia cardiaca de los tres primeros pacientes tratados, y actualmente, solamente tres años después del descubrimiento del gen, ya se está llevando a cabo un ensayo clínico con más de cincuenta enfermos.
 
Desgraciadamente esto no sucede así para todas las enfermedades. Aunque el gen de la distrofina muscular de Duchenne fue identificado desde hace más de diez años, no se ha podido diseñar una terapia eficaz para los pacientes con este padecimiento. Sin embargo, numerosos trabajos han permitido la consolidación del conocimiento acerca de las proteínas de esta familia. Un equipo inglés encontró una proteína análoga, la utrofina, que se expresa durante la vida fetal debajo de la membrana muscular al igual que la distrofina, pero que desaparece casi totalmente y sólo se expresa en las uniones neuromusculares después del nacimiento. Experimentos con modelos animales mostraron que la utrofina es capaz de reemplazar a la distrofina en el músculo adulto, reforzando así la idea de la existencia de una homología funcional entre ambas proteínas. Uno de los ejes de investigación terapéutica consiste en tratar de estimular la reexpresión de la utropina fetal con el fin de prevenir la necrosis muscular.
Las estrategias terapéuticas derivadas del conocimiento del genoma no se restringen a las enfermedades monogenéticas o cancerosas. También se pueden aplicar para tratar enfermedades inducidas por agentes infecciosos. ¿O no fue acaso el conocimiento del genoma del virus del sida lo que permitió imaginar el eficaz tratamiento con antiproteasas?
 
Una mina de medicamentos
Mucho antes de la revolución del genoma los genes ya servían como una fuente indiscutible de proteínas medicamentosas. Gracias a la ingeniería genética y al conocimiento de la secuencia protéica y de su maduración postraduccional —que en ocasiones es esencial para su funcionamiento— ha sido posible desarrollar terapias de sustitución, es decir, la administración de la proteína “sana” para compensar a la que falta o que está mutada. Para obtener una proteína determinada en grandes cantidades se introduce el gen en un organismo, desde una bacteria hasta un mamífero, para que su maquinaria de transcripción y de traducción la sintetice. Esta técnica de síntesis de proteínas es preferible a la de purificación a partir de tejidos animales o humanos que ocasionaron graves accidentes. Entre la larga lista de proteínas que se producen con este método, también llamadas proteínas recombinantes, se encuentran la insulina, la eritropoietina, el factor viii, el factor ix, las enzimas lisosomales, la hormona de crecimiento, las citoquinas y el interferón.
En la era de la automatización y de la informatización intensivas, la secuenciación completa de nuestro genoma puede significar la posibilidad de identificar todos los sitios de intervención terapéutica o las moléculas protéicas codificadas por esos genes. En efecto, los genes codifican para las enzimas, los receptores o los canales, que son las proteínas sobre las cuales actúan y actuarán los medicamentos de hoy y del mañana. Un importante esfuerzo industrial ha sido puesto en marcha para identificar moléculas naturales y sintéticas capaces de interaccionar y modular la actividad de estos sitios “blanco”. Se han emprendido varios programas para identificar nuevos moduladores químicos de la expresión génica, en particular, se busca aumentar la actividad específica de los promotores de genes que tengan un interés terapéutico. Este estudio se puede realizar en cultivos de células que contengan en su genoma la región promotora del gen que se quiere analizar acoplada a un gen marcador. De esta manera se pueden probar varios miles de moléculas en cadenas automatizadas, lo que se conoce como highthrouput screening o tamiz de alto rendimiento. La modulación de la expresión del gen marcador se analiza por medio de sistemas ópticos integrados a procesadores informáticos. Una vez que se identifica una molécula activa se estudia su biodisponibilidad, toxicidad y metabolismo. En nuestro ejemplo de la distrofia muscular de Duchenne, una vía terapéutica posible consistiría en buscar moléculas capaces de estimular la reexpresión de la utropina bajo la membrana muscular como en el estado fetal, así como se logró la reexpresión de la hemoglobina fetal por medio de butirato, hidroxiurea y eritropoietina en la drepanocitosis.
 
Así como la genómica se refiere a la genética en la época de los programas de los genomas, la farmacogenómica es una nueva forma de ver la farmacogenética a una gran escala. La idea subyacente es que el desarrollo de los métodos de estudio genéticos de los individuos permitirá desembocar en una terapéutica personalizada, adaptada a cada caso en función de la sensibilidad individual a los efectos terapéuticos e iatrogénicos de los medicamentos. La fabricación de chips de adn, que inmoviliza en un soporte sólido sondas, permite explorar miles de eventos genéticos en poco tiempo. Por ejemplo, se podrá detectar la presencia de mutaciones activadoras de oncogenes, alteraciones de antioncogenes, modificación de genes de susceptibilidad, etc.
El empleo de los chips nos permite esperar que las personas con determinadas afecciones podrán recibir un tratamiento mejor adaptado a la forma etiológica de su enfermedad y de su “acervo genético”, en términos de eficacia y de minimalización de riesgos de toxicidad.
La terapia génica: un concepto evolutivo
La terapia génica podría definirse de varias maneras, pero tal vez el significado menos restrictivo sea el de la utilización de un gen como molécula medicamentosa. En realidad no es un concepto nuevo, pues en un principio se veía la terapia génica como un transplante de genes al igual que uno de órganos, en donde el órgano sano suple la función del defectuoso, por lo que se pensaba que este tipo de terapia estaría reservado a las enfermedades genéticas. De hecho, además de las afecciones hereditarias, todos los tratamientos de sustitución que emplean proteínas recombinantes podrán ser reemplazados por la transferencia de los genes que codifican para esas proteínas. Además de esta terapia génica de “prótesis”, la perspectiva de poder llevar a cabo una reparación directa de los genes mutados ha dejado de ser ciencia ficción.
¿Terapia germinal o terapia somática?
La transgénesis, como se aplica para fines terapéuticos en modelos murinos (de ratón) de enfermedades humanas, constituye el arquetipo de lo que llamamos terapia germinal. El gen introducido desde una etapa precoz de la embriogénesis estará presente en todas las células del organismo y, por consiguiente, se transmitirá a la descendencia. En realidad hay muy pocas indicaciones en las que se podría aplicar al hombre, ya que solamente las afecciones dominantes en estado homocigoto, que son excepcionales, se verían beneficiadas por un tratamiento de este tipo. En todos los demás casos una proporción de la descendencia no son portadores de la mutación, y en consecuencia basta con transplantar al útero materno los embriones sanos, en vez de introducir un gen corrector cuyo efecto terapéutico en los embriones mutados es incierto.
En cambio, la terapia génica somática busca corregir una mutación o introducir un nuevo gen en un tejido determinado, o incluso en un tipo celular específico, sin modificar la herencia del paciente. Las aplicaciones para este tipo de terapia son muy variadas, y a partir de este momento sólo nos referiremos a este tipo de terapia génica a lo largo del texto.
¿Transferencia de células o de genes?
De manera un poco esquemática se puede decir que hay dos estrategias distintas para introducir un gen en un organismo: la transferencia directa o la transferencia de células genéticamente modificadas ex vivo, es decir, transformadas fuera del organismo. La estrategia directa, in vivo, parece ser técnicamente más sencilla puesto que consiste en aportar directamente el gen de interés al órgano afectado. Ésta se utilizará preferentemente en los casos en los que se disponga de una vía fácil de acceso al tejido blanco, cuando las células que se quieran tratar no se puedan extraer, o cuando éstas se encuentren diseminadas por todo el organismo. La mucoviscidosis, que afecta sobre todo a las células epiteliales del tracto traqueobronquial, ciertas enfermedades neurodegenerativas, así como la miopatía de Duchenne, son algunos ejemplos en los cuales se podría aplicar la terapia génica in vivo.
La estrategia celular, en cambio, consiste en aislar células del paciente, cultivarlas ex vivo e insertarles, generalmente por medio de vectores virales, el gen terapéutico. Esta estrategia se parece a los autotransplantes. Entre las enfermedades susceptibles a ser tratadas por este método y para las cuales los primeros ensayos clínicos, desgraciadamente aún raros, dieron resultados biológicos efectivos, se encuentran el déficit en adenosina desaminasa y la hipercolesterolemia familiar debida a la falta de receptores ldl. En el caso del déficit en adenosina desaminasa, los linfocitos aislados de niños afectados fueron infectados con un vector retroviral que contenía una versión normal del gen y, posteriormente, se volvieron a introducir en los pacientes. Las respuestas inmunológicas de los enfermos tratados mejoraron notablemente de manera durable. En el caso de la hipercolesterolemia, los hepatocitos de los pacientes se aislaron a partir de una biopsia hepática, se pusieron en cultivo y se indujo su proliferación al mismo tiempo que se infectaban con un retrovirus que contenía el gen del receptor ldl. Estos hepatocitos tratados fueron reinyectados a los pacientes por vía intraportal, sin embargo, el tratamiento no resultó muy eficaz. Posiblemente esto se debe a que la técnica, sin duda muy pesada, está además limitada por el número de células que se pueden corregir y reimplantar.
Cualquiera que sea la estrategia que se emplee, la directa o la celular, hay que notar que es posible hacer secretar una proteína potencialmente terapéutica a un tipo celular que normalmente no la produce. Esto permite escoger un tipo celular que sea capaz de secretar de manera eficaz una proteína terapéutica, aunque no sea el blanco principal de la enfermedad, lo cual resulta en más posibilidades terapéuticas. De la misma forma, las células modificadas pueden ser reimplantadas en un lugar que no corresponda con el tejido de origen. Por ejemplo, algunos experimentos con mamíferos grandes, como los perros, mostraron que es posible programar fibroblastos para que secreten una proteína lisosomal. Cuando se implanta en la cavidad peritoneal del perro un tejido sintético inerte constituido de fibras de colágeno y factores de crecimiento, llamado organoide, que espontáneamente se vasculariza, los fibroblastos secretan de manera activa la enzima.
Medicina regenerativa
Uno de los factores limitantes es la necesidad de obtener un buen número de células corregidas para poder generar un efecto terapéutico. Por lo tanto, si se les pudiera conferir alguna ventaja para su proliferación se incrementaría la eficacia de la estrategia. En este sentido, los resultados obtenidos por el equipo de Alain Fisher en el hospital Necker de París en el tratamiento de niños con un déficit inmunológico, son particularmente interesantes. En este caso, la introducción del gen normal en las células hematopoiéticas de los pacientes produjo una ventaja proliferativa a las células modificadas sobre las que residen en la médula. Esto permite explicar la extraordinaria eficacia que obtuvieron con el tratamiento a pesar de que el número inicial de células corregidas era muy bajo. Este concepto de “medicina regenerativa” no se limita al tejido hematopoiético, también se ha demostrado que funciona en el tejido hepático del ratón. Como el hígado posee la capacidad espontánea de regenerarse, es posible, confiriéndoles una ventaja selectiva a los hepatocidos reimplantados, inducir la proliferación de los hepatocitos corregidos en detrimento de los hepatocitos residentes y, de esta manera, asistir a la población progresiva del hígado con células modificadas. Este concepto tendrá, probablemente, grandes aplicaciones en la terapia génica del tercer milenio.
Desde la perspectiva del empleo de células con una ventaja proliferativa, las células madre son muy atractivas, ya que constituyen, al menos en teoría, un reservorio casi ilimitado de células diferenciadas potencialmente útiles en terapia génica. Desde algunos años parece que nuestro patrimonio de células madre de hígado, músculo e, incluso, de cerebro, es mucho más grande de lo que imaginábamos.
Así, hemos podido observar células neuronales que se diferencian en células hematopoiéticas, células hematopiéticas en hígado o músculo, e incluso hemos podido aislar células de músculo esquelético capaces de colonizar la médula. Este tipo de células parecen adaptar su comportamiento al medio en el que se encuentran, como si fueran una especie de camaleón. Ser capaces de aislar, cultivar y hacer proliferar este tipo de células sin duda permitiría revolucionar la terapia por autotransplante de células, genéticamente modificadas o no, de todos los tipos de afecciones para las cuales la única posibilidad terapéutica es el transplante.
Terapia génica aditiva o cirugía reparadora
Los primeros esfuerzos de terapia génica fueron dirigidos a las enfermedades genéticas. La adición de una copia normal del gen permite pasar, al menos en los casos de las enfermedades recesivas, de un estado homocigoto que presenta la enfermedad, a un estado heterocigoto fenotípicamente sano. Sin embargo, la necesidad de transmitir el gen a todas las células del tejido afectado por la enfermedad y de que la proteína terapéutica se exprese durante toda la vida del paciente ha restringido de manera considerable la eficacia terapéutica de los ensayos clínicos planeados hasta ahora. Si bien, el concepto es muy elegante, su realización es, por lo pronto, delicada. Otra posibilidad, considerada por mucho tiempo como mítica, se ha abierto recientemente: se trata de la posibilidad de reparar el sitio del gen mutado, como un tipo de cirugía estética. Esta posibilidad, realmente revolucionaria, de poder cambiar la porción mutada de un gen por su contraparte sana, se basa en el hecho de que las dobles hélices de arn-adn son más estables que las de adn-adn. En los casos en los que se conoce la secuencia mutada basta con introducir una secuencia muy corta de arn-adn en las células donde la mutación es deletérea, para corregir la zona mutada. Esta técnica, también conocida como quimeroplastia, tiene la gran ventaja de que no introduce ninguna secuencia exógena al genoma de las células tratadas. Hasta ahora solamente se ha probado en animales pero ya ha dado resultados espectaculares en distintos modelos de enfermedades humanas, como la hemoglobina, donde fue posible corregir 30% de las células hepáticas, o en un modelo de Crigler-Najjar, una hiperbilirrubinemia severa. Sin embargo, es necesario recalcar que esta cirugía sólo se aplica a casos de mutaciones puntuales, ya que no funciona más que para un número muy pequeño de pares de bases, y que en un gran número de enfermedades cada paciente necesitaría su propia terapia.
El geneticista que desde hace más de veinte años clona genes e identifica las mutaciones responsables de las enfermedades genéticas sin poder realizar su sueño de repararlas, no podría esperar mejor recompensa a sus esfuerzos que la obtención de resultados equivalentes en humanos.
Un resultado promisorio
Frecuentemente se le reprocha a las estrategias de terapia génica el hecho de ser extremadamente caras y difícilmente generalizables. A pesar de ello, esta intensa actividad de investigación ha llevado a una aplicación marginal del ámbito de la prevención más que de la terapéutica, que podría revelarse como extremadamente eficaz y poco costosa: la vacunación. En efecto, ahí donde la terapia génica fracasa por causa de la eficacia restringida de la transferencia de genes y por los límites temporales de la expresión, la vacunación por inyección de adn desnudo, que no requiere más que una pequeña cantidad y una expresión transitoria del antígeno, podría constituir una vía futura. La inyección intramuscular de adn desnudo que codifica para los antígenos ha permitido desencadenar una respuesta inmune de tipo celular y humoral. El uso extensivo de este método para la vacunación antiviral en países en vías de desarrollo sería suficiente para justificar todos los esfuerzos emprendidos hasta este momento.
Helène Gilgenkrantz
Jacques Emmanuel Guidotti
Axel Kahn
Institute Cochin de Génétique Moléculaire,
inserm u129, París.
Traducción
Nina Hinke
_______________________________________________________________
 

como citar este artículo

Gilgenkrantz, Helène y Guidotti Jacques Emmanuel, Kahn Axel. (2000). Genes ¿para qué? Ciencias 58, abril-junio, 15-21. [En línea]
    Regresar al índiceartículo siguiente
  P01 P02  
  del herbario
 
     
La llegada del eucalipto a México
 
 
 
Nina Hinke
conoce más del autor
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
         
La introducción del eucalipto en México se ha dado por etapas, y en cada una de ellas su propagación ha obedecido a distintos fines. En el último tercio del siglo pasado fueron los médicos quienes impulsaron la aclimatación del eucalipto en el valle de México con el fin de "sanear" la ciudad y reducir los casos de malaria. Las fiebres frecuentes y otras "afecciones palustres" preocupaban seriamente a los médicos y a las autoridades. Con el fin de determinar científicamente las causas que propiciaban el aumento de estas enfermedades y la manera de combatirlas, la Academia Nacional de Medicina ofreció un premio de quinientos pesos.
 
El doctor De Bellina, cuyo escrito mereció el reconocimiento de la Academia por su excelente exposición acerca de los principios generales de la "buena higiene", opinaba que el incremento en los accidentes palustres era consecuencia de la degradación de las condiciones sanitarias de la ciudad y, en particular, de la acumulación de aguas estancadas debido a la falta de limpia de las atarjeas y a la escasez de drenaje, lo cual había propiciado la acumulación de miasmas. Para combatir las enfermedades era necesario desecar las zonas pantanosas y plantar numerosas hileras de árboles. En su estudio, De Bellina recomendaba el uso de eucaliptos, en particular las especies Eucalyptus gobulus, Blue gum. y Gunii, que ya habían sido empleadas con éxito en lugares como Argel, Barcelona, Cádiz y en varias ciudades de Italia y Córcega.
 
Mucha de la información en torno al eucalipto había sido recopilada con fines estratégicos por los médicos militares establecidos en Argelia. Gracias a la plantación de esas especies habían logrado reducir los casos de malaria que hacía verdaderos estragos entre sus filas y  ponía en peligro la empresa colonial. En aquella época ya se habían sembrado en Argelia quince millones de árboles.
 
Con esas experiencias y otros datos, De Bellina calculó que para sanear el valle de México era necesario plantar cincuenta y dos millones seiscientos cincuenta mil árboles.
 
La idea de plantar eucaliptos para mejorar las condiciones sanitarias del valle de México y de combatir las enfermedades no era novedosa entre los científicos mexicanos, pues ya en 1874 se había nombrado una comisión en el Consejo Superior de Salubridad, institución encargada de regular y vigilar los asuntos de la salud pública, para dictaminar sobre el efecto higiénico y los posibles usos medicinales de Eucalyptus globulus. La comisión había concluido que la introducción del árbol originario de Australia a suelo mexicano sería muy provechosa, ya que la experiencia mostraba "que en las comarcas malsanas en donde los pantanos abundan y dan nacimiento a miasmas que dan muerte a un gran número de habitantes produciéndoles el envenenamiento pernicioso, [...] la plantación de Eucalyptus las transforma en lugares sanos y ricos".
 
Aunque parezca raro, estas ideas eran compartidas por toda la comunidad científica de la época y estaban sustentadas en una teoría de la enfermedad coherente. Los causantes de las enfermedades eran los miasmas que se originaban preferentemente en los lugares pantanosos donde había agua estancada y descomposición de materiales tanto de origen vegetal como animal, y generalmente se les podía reconocer por su mal olor. La mejor manera de combatir la acumulación peligrosa de los miasmas era fomentar la circulación, tanto de las aguas estancadas como del aire, y promover la aireación de la tierra y el empleo de antisépticos.
 
Las mejores medidas preventivas en contra del peligro de la acumulación de las emanaciones nocivas eran drenar, ventilar y purificar, y el eucalipto poseía características que le permitían contribuir a ello. El doctor De Bellina afirmaba que sus raíces "perpendiculares y fuertes que absorben en grado superior el agua, y que perforan profundo el suelo", hacían desaparecer el exceso de humedad y fomentaban la filtración de aire y agua en la tierra, y "la calidad prodigiosa e incomparable de sus hojas" que esparcen en la atmósfera "cantidades enormes de vapores acuosos, oxígeno y efluvios balsámicos" purificaban el aire. La acción antiséptica del eucalipto residía principalmente en el bálsamo de sus hojas, pues, como opinaba la comisión, "si el perfume que desprende el árbol como es de suponerse está formado en su totalidad del principio volátil del Laurus camphora, es casi seguro que será un buen medio de neutralizar los malos efectos de nuestros pantanos y lagunas". Los bálsamos debían su poder antiséptico a su volatilidad y aroma que disponían a la circulación —en contra del estancamiento— al mismo tiempo que disipaban el exceso de putrefacción en el cuerpo. Si los olores fétidos entraban en el organismo por medio de la inhalación causando efectos nocivos al interrumpir el flujo de la sangre por obstrucción de las venas y el aumento de la viscosidad de los humores, el aire perfumado por el eucalipto podía disiparlos y restablecer el fluir del cuerpo.
 
El eucalipto tenía además un efecto directo sobre el organismo como medicamento, y esto también era de considerarse como una razón para introducirlo en el valle de México y otros lugares de la República. El informe del Consejo Superior de Salubridad recomendaba el uso de las distintas preparaciones en los hospitales de la Beneficencia Pública, ya que la esencia o eucalyptol servía para sanar las bronquitis subagudas, la laringitis catarral, la tisis de marcha lenta, las pulmonías crónicas y las gangrenas pulmonares. El polvo y las píldoras hechas a partir del extracto alcohólico de las hojas eran aconsejados como tónico para los enfermos debilitados, y también en los casos de fiebres intermitentes, asegurando un gran éxito. Finalmente, los cigarros balsámicos eran recomendados para combatir las toses espasmódicas y el enfisema.
Así fue como los médicos promovieron en una primera etapa la introducción del eucalipto en México. Lo que no sabemos es si se plantaron los cincuenta y dos millones de árboles que proponía el doctor De Bellina. Con el tiempo, el uso medicinal del eucalipto fue cayendo en desuso, y su propagación en el país obedeció a otros impulsos.
Referencias bibliográficas
 
Corbin A. 1982. Le miasme et la jonquille. Flammarion, París.
Archivo Histórico de la Secretaría de Salubridad y Asistencia. Fondo Salubridad Pública. Medicamentos. Caja 1. Expediente 19. 1874. Eucalyptus. Memoria del Dr. De Bellina sobre la intensidad del paludismo en México. 1882. Gaceta Médica de México, tomo 17, pp. 347, 352, 413.
Nina Hinke
Universidad de París VII.
_______________________________________________________________
 

como citar este artículo

Hinke, Nina. (2000). La llegada del eucalipto a México. Ciencias 58, abril-junio, 60-62. [En línea]
  P01 P02  
 
 
     
La seguridad nuclear de Laguna Verde en cuestión  
Marco Antonio Martínez Negrete
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
En el contexto posterior al cambio de administración (una más) en la nucleoeléctrica de Laguna Verde, ocasionado por la remoción de la anterior en 1999, debido, según la Secodam, a “irregularidades en la asignación de contratos”, la Comisión Federal de Electricidad (cfe) y la nueva dirección de la planta nuclear ordenaron la visita de dieciocho técnicos de la Organización Mundial de Operadores Nucleares (acrónimo en inglés: Wano), la cual se realizó en octubre y noviembre de 1999.
 
Wano, hay que recordarlo, es una organización que se creó después del grave accidente de Chernobil, en abril de 1986, con objeto de supervisar las condiciones de operación de las plantas nucleares en el mundo, a modo de prevenir accidentes tan graves como el mencionado, que sacudió los cimientos de una industria nuclear ya de por sí herida de muerte en algunos países como Estados Unidos. En esta potencia mundial, cuna de la energía nuclear para los propósitos de destrucción masiva y de generación eléctrica (usos que para algunos estuvieron y siguen estando indisolublemente unidos), el crecimiento de la industria nuclear se ha ido a pique desde la década de los setentas, pues todos los proyectos nucleares en construcción y ordenados hasta 1973 se han cancelado (un poco más de cien) y desde 1978 no ha habido nuevas órdenes de construcción.
 
El accidente de Chernobil ensombreció aún más el futuro de la industria nuclear, por lo que una de las urgentes medidas emprendidas fue la creación de Wano, en vista de las deficiencias de supervisión de la Agencia Internacional de Energía Atómica. Este organismo dependiente de la onu había venido realizando dos funciones contradictorias, pues mientras por un lado tenía el mandato de reglamentar la difusión de la energía nuclear (incluyendo el uso de generación eléctrica) tomando en cuenta la seguridad y la no proliferación armamentista (lo cual, como se mencionaba, es una prueba de la indisolubilidad del uso militar y el civil), por el otro se dedicaba a promover descuidadamente su comercialización. Esta confluencia de intereses contradictorios provocó que la disciplina en la supervisión técnica de las plantas nucleares se fuera relajando, al grado de que la Agencia Internacional no vio peligro alguno en la continua operación de instalaciones nucleares que poco tiempo después sufrirían los peores accidentes de la industria nuclear: la Isla de las Tres Millas (accidentada en marzo de 1979) y Chernobil (accidentada en abril de 1986). Aunque el director de aquel tiempo, Hans Blix, declarara que al ser imposible evitar los accidentes en las nucleoeléctricas (“un accidente nuclear grave puede ocurrir mañana”) se tomarían medidas más rigurosas en la supervisión de la industria nuclear, el enorme daño causado sobre todo por Chernobil ya estaba dado y el desprestigio de la Agencia demandaba la creación de nuevas instituciones. Una de las iniciativas se dio, como era de esperar, por parte de la industria nuclear con el fin de preservar sus intereses y así nació Wano.
 
El informe Wano
 
El reporte Wano se refiere a lo observado por los dieciocho operadores que visitaron Laguna Verde durante octubre y noviembre de 1999, y reúne información de eventos ocurridos solamente a partir de los inicios de 1998; todo el pasado y aun eventos que se podrían calificar como preocupantes (que se mencionan más adelante) no se cubren en las cerca de doscientas páginas del reporte escrito. Tampoco hay, por las características de la investigación, una descripción de irregularidades provenientes de la naturaleza de los equipos, reportados como defectuosos desde 1958, pero que es importante mencionar al hacer un juicio sobre el estado de seguridad de la nucleoeléctrica.
 
El reporte Wano es una llamada de atención para que se realice una investigación más profunda y extensa, con el fin de apreciar objetivamente las condiciones de operación de la planta nuclear y más allá de lo que puede revelar una visita de apenas dos meses, sujeta al recabamiento de información anterior basada en la buena voluntad informativa del personal que actualmente ahí labora.
 
Los operadores de Wano revisaron sesenta y dos áreas que tienen que ver con la seguridad de Laguna Verde, encontrando deficiencias en prácticamente todas ellas. Como conclusiones generales desprendidas de la lectura del informe se pueden anotar que, en primer lugar, es evidente que esta central no opera con los niveles de “excelencia” dados a conocer por la cfe; por el contrario, Wano señala que en varios aspectos la operación está muy por debajo de los niveles comunes de calidad de la industria nuclear internacional. En segundo lugar, se puede apreciar que hay un deterioro en la llamada “cultura de seguridad nuclear”, según nosotros por la interrelación de tres factores (observados como aislados por Wano y enseguida referidos entre paréntesis): relajamiento en la disciplina de los técnicos (inobservancia parcial de reglamentos e instructivos técnicos de seguridad); preparación deficiente de los operadores (falta de dominio en aspectos básicos de la ingeniería de reactores, proveniente en parte de deficiencias en el entrenamiento en el simulador), y deterioro de componentes técnicas en funcionamiento (como ocurre con numerosos detectores de radiación situados en componentes críticas del reactor, en parte imputables a falta de presupuesto y directamente a fallas del área de servicio y mantenimiento). Estos tres factores interactúan de manera sinérgica, de ahí su elevado grado de peligrosidad. Wano no se refiere explícitamente al sinergismo que detectamos como consecuencia de su informe, pero pensamos que está presente y actuante y que, además, tiene una componente adicional que es el diseño defectuoso de Laguna Verde (se sabe desde 1958 que el sistema de “supresión de la presión” no es adecuado, al grado que en 1972 así fue oficialmente reconocido en un memorando interno de la Comisión de Energía Atómica de Estados Unidos, pero que se ocultó al público y a las compañías generadoras de electricidad, razón por la que General Electric enfrenta demandas multimillonarias por fraude al vender a sabiendas equipos defectuosos).
 
Enseguida Wano hace un relato de los eventos más recientes ocurridos en la central, en donde se aprecia la interacción de los factores mencionados en el párrafo anterior. Debe tenerse en cuenta que el tipo de incidentes que se relatan se vienen presentando desde el inicio de operación de la primera unidad de Laguna Verde (lv1); otro tipo de eventos, que también influyen o tiene que ver con el estado de seguridad, han ocurrido desde las etapas previas al inicio de operación (alguien podría pensar que si eventos similares son la normalidad, entonces no habría lugar al temor, dado que nada grave ha sucedido en los ya casi diez años de operación de lv1; sin embargo, la operación del equipo en condiciones de tensión continua puede provocar fallas de gravedad en el momento menos pensado, como cuando se utiliza en demasía los frenos del automóvil. O como dice el dicho: “tanto va el cántaro al agua...”).
 
El equipo
 
Los datos siguientes fueron proporcionados a Wano por las autoridades de la central. No incluyen, sin embargo, otros eventos que les fueron ocultados, a los que se hará referencia posteriormente. Los problemas se refieren a fallas en los sistemas conectados directamente con funciones de seguridad, como sistemas de potencia ac de emergencia, sistemas de emergencia de enfriamiento, etcétera.
 
En los generadores diesel, que guardan relación con múltiples sistemas de seguridad, ocurrieron diversas fallas por contactos defectuosos en las dos unidades, imputables en todos los casos (31 de abril en lv1, 3 de abril en lv1 y 2 de abril de 1998 en lv2) al hecho de que el programa de mantenimiento preventivo en Laguna Verde no revisa rutinariamente la limpieza de los contactos eléctricos.
 
En el Sistema de Protección del Reactor (cuya misión es apagar el reactor en forma segura) las tallas de los epa (Electrical Protector Assembly) son un problema crónico. Ocurrieron nada más seis fallas en éstos durante la más reciente recarga de combustión en lv1, las más notorias los días 12 y 13 de abril de 1998, en que no funcionó el enfriamiento de paro del reactor y se activó espontáneamente el sistema de protección b (que consiste en bañar al reactor a alta presión), respectivamente.
 
Problemas de equipo relacionados con el manejo de la reactividad del reactor
(la reactividad es el porcentaje de desviación relativa de la criticalidad; un reactor estable funciona con valor uno en la criticalidad; si el valor supera la unidad se presentaría una reacción nuclear en cadena descontrolada). Se trata de fallas que también tienen que ver con los sistemas de enfriamiento del reactor (para que no se funda), como las bombas de recirculación de agua, etcétera. Éstas fueron:
 
• 19 de febrero de 1999. lv2 entra en una región peligrosa de radioactividad al estar funcionando a 100% de la potencia, debido a que una bomba de recirculación baja de velocidad por la falla de una tarjeta de un circuito. En esta situación debió pararse el reactor, de acuerdo con los procedimientos pero los operadores no lo hicieron.
 
• 4 de febrero de 1999. Al estar trabajando lv2 a 100% de la potencia falló la bomba de recirculación b del reactor; ocurrió cuando los técnicos revisaban un contacto a tierra en el circuito de control de la bomba. Causa: la acción conjunta del vapor condensado en la caja de interruptores y la corriente de 300 ma del equipo eléctrico de revisión.
 
• 7 de noviembre de 1998. Mientras la potencia de lv1 era bajada para atender una alarma de elevada entrada de agua al pozo seco (el contenedor primario, dentro del cual se halla el reactor), la bomba a de recirculación no pudo pasar al régimen de baja velocidad. El operador finalmente pudo conducir la bomba a este régimen. Causa: contactos sucios en el circuito de control de la bomba, por fallas del programa de mantenimiento preventivo (que debería revisar rutinariamente los contactos).
 
• 22 de septiembre de 1998. Al estar funcionando lv1 a 85% de la potencia durante una prueba de inserción de barras de control, una de éstas no se insertó en los siete segundos requeridos por el criterio de aceptación. Causa: diafragma de hule deteriorado de la válvula piloto del solenoide del scram. El evento es de notar porque pudo preverse (según Wano), pero no se hizo caso de fallas similares en el solenoide, detectadas como comunes en la industria nuclear (en otras palabras, no se está al día respecto al comportamiento de partes técnicas en plantas nucleares).
 
• 8 de febrero de 1998. Al estar funcionando lv1 con una potencia de 96.7% y a 104.5% del flujo en el núcleo del reactor, se violaron durante 0.5 segundos los límites permitidos de flujo (107%) en dicho núcleo debido a que la válvula b de control del flujo de recirculación se empezó a abrir, hasta que el flujo llegó al valor de 107.07%. La causa se debió a múltiples errores humanos de precedimiento, descoordinación entre un operador emergente y el del cuarto de control y fallas de componentes. En este caso la estabilidad del reactor fue restablecida de manera contingente, pudiendo llegar a una emergencia nuclear.
 
Paros y pérdidas de generación
 
Lo siguiente es —nuevamente según Wano— un resumen de los problemas que afectan la confiabilidad de la central, por ejemplo, transitorios no planificados de la central, pérdidas de disponibilidad, degradaciones, paros extensos, etcétera. En lv1 estos han sido:
 
• 9 de enero de 1999. Al estar en marcha la unidad a 70% de la potencia dejó de funcionar la bomba a de recirculación del reactor. Ninguna alarma se activó por la falla de la bomba, más bien la falla fue detectada por los operadores al notar reducciones en el flujo dentro del reactor y en la potencia.
 
• 9 de enero de 1999. Para la bomba de recirculación a del reactor, por un contacto a tierra detectado desde el 4 de enero sobre el que no se actúa hasta el 8 de enero sin lograr detener la falla. La causa se debió a a la lenta respuesta del servicio de mantenimineto.
 
• 4 de enero de 1999. Los operadores recibieron indicación de un contacto a tierra del canal de la división de corriente directa de un ampere y 125 v. Hasta el 8 de enero se empezó el servicio de mantenimiento para localizar el sitio del contacto a tierra, lo cual no se logró antes de que ocurriera la falla en la bomba de recirculación a (9 de enero). Las investigaciones prosiguieron el 9 de enero y se descubrió que varios contactos a tierra del canal fueron los causantes del paro en la bomba de recirculación a del reactor.
 
• 23 de junio de 1998: mientras se paraba la unidad, que estaba a 100% de la potencia, se excedió el tiempo límite especificado de aislamiento del reactor para tal acción. Mientras se observaba la situación del núcleo del reactor una parte del sistema de observación se atoró en el núcleo, siendo inútiles los esfuerzos para liberarla; entonces se cerró el reactor y la válvula de explosión (de emergencia) restableció el confinamiento aislante del núcleo. Causa: partes gastadas e insuficiencias del servicio de prevención y mantenimiento del sistema de observación contribuyeron al evento.
 
• 19 de mayo de 1998. Paro automático del rector por despresurización de la vasija a 100% de potencia, por un interruptor de una válvula de seguridad que falló por razón desconocida. El interruptor se envió al fabricante para determinar la causa del fallo.
 
En cuanto a los problemas producidos por paros y fallas de generación ocurridos en lv2, la lista es la siguiente:
 
• 25 de junio de 1999. Al estar funcionando la unidad a 90% de la potencia una alarma de radiación del túnel principal de vapor forzó una parada de emergencia del reactor. El scram fue ocasionado por un operador que, durante una operación de limpieza del agua del reactor, omitió un paso en el procedimiento dejando parcialmente abierta la válvula de uno de los filtros. Esto ocasionó un flujo de basura radiactiva que accionó la alarma de radiación en el túnel de vapor, por lo que (conforme al diseño) el reactor paró mediante la acción del sistema de paro automático. Pero el transitorio subsiguiente se complicó por la indicación de que una válvula de seguridad estaba abierta, lo que envió una segunda señal de parada de emergencia. A esto se sumó una inestabilidad extrema en el nivel del agua del reactor, de alto nivel a bajo nivel, lo que provocó la aparición de una tercera señal de parada de emergencia. Causa del evento: error humano y errores de diseño (en cuanto a estabilidad) del reactor.
 
• 22 de junio de 1999. Al estar funcionando el reactor a 100% de potencia la tripulación de operadores observó un descenso en la presión del aire de los instrumentos de control, mientras se actuaba sobre el sistema de prefiltrado del agua del reactor. Al tratar de enmendar la falla la presión del aire de una de las válvulas del sistema de parada súbita empezó a descender; antes de que la válvula se reabriera los operadores observaron que varias de las barras de control empezaron a insertarse, por lo que la tripulación procedió inmediatamente a un paro manual de emergencia. La enmienda emprendida se realizó sin ningún plan escrito, lo cual es requerido en los procedimientos administrativos; los operadores, sin embargo, no creyeron que tal plan fuera necesario (el personal de Wano hizo notar que es necesario verificar que el control y seguimiento del estado técnico de las válvulas forma parte del programa de mantenimiento preventivo).
 
• 19 de enero de 1999. La unidad experimentó una parada de emergencia (scram) al recibirse una señal espuria de bajo nivel de agua en el reactor. Adicionalmente al scram el generador diesel de la división iii se activó espontáneamente iniciándose el rociado de alta presión al reactor. El scram fue exitoso y los otros sistemas funcionaron de acuerdo con el diseño.
 
• 3 de enero de 1999. Los operadores decidieron parar manualmente el reactor, debido a una (falsa) señal de vibraciones más altas de lo permitido, según el diseño de las turbinas principales del generador.
 
Fallas en contención
 
Este tipo de fallas se refiere a grietas en el combustible, integridad del sistema de refrigeración del reactor, integridad de contenedores, etcétera. Éstas fueron:
 
• 10 de enero de 1999. Se detectaron niveles crecientes de radiactividad en el sistema de expulsión de gas al ambiente (el llamado off gas o gas de salida) cuando se incrementaba la potencia del reactor de la Unidad 1. La causa se debió a la existencia de un agujero en un bloque de elementos de combustible.
 
• 11 de enero de 1999. Con objeto de evitar el aislamiento automático del condensador principal, los operadores elevaron el umbral de activación de la alarma radiactiva del gas de salida, contraviniendo los instructivos.
 
• 14 de mayo de 1998. Al estar funcionando lv1 a 100% se declaró un evento no común, pues mientras se investigaba en esas condiciones una entrada de aire al contenedor primario se detectó una fuga del refrigerante primario (el agua que circula por el núcleo del reactor) y pérdida de la frontera del contenedor. La causa se debió a la colocación de una válvula sin empaque en la brida, entre la frontera del sistema primario de hidrógeno-oxígeno y el pozo seco del reactor.
 
• 13 de abril de 1998. Los puntos de ajuste de cinco sistemas de voltaje de lv1 estaban fuera del intervalo especificado.
 
El cuarto de control
 
En otro orden de cosas se encontró que las válvulas de recirculación de flujo mínimo se operan manualmente debido a problemas de goteo presentes durante varios años; por causa del goteo de varias válvulas se activa el sistema de enfriamiento de la alberca de supresión y ésta tiene que ser drenada periódicamente. La impermeabilidad de las válvulas se deteriora en cada scram o en los transitorios, y éstas se cambian hasta que se realizan las recargas. El supervisor indica que el ingeniero de sistemas no dispone de un plan de largo plazo para corregir el problema; hay tres tuberías del agua de servicio que tienen fugas, situadas entre la entrada de la casa de bombas y los edificios del reactor y el de control, pero no hay planes a largo plazo para reemplazar la tubería de cobre-níquel.
 
La lectura de lo que sucede en las restantes sesenta y un actividades relacionadas con la seguridad de Laguna Verde es larga de resumir, por el nivel de los detalles y la relevancia de lo que se describe. Como muestra de lo anterior (la punta del iceberg) abajo se detallará lo que sucede en el cuarto de control y se escribirán las conclusiones a las que los operadores de Wano han llegado, para que el lector se dé una idea de lo que puede leer en el resto del reporte (el cuarto de control es el “cerebro” de la central, en donde se toman las acciones principales que gobiernan su funcionamiento operativo de la central).
 
• Deficiencias de equipo. Por la falta de refacciones no funciona la guía del “monitor de contaminación” del panel desde hace cuatro años; los interruptores de apertura para desconexión remota automática no sirven, por lo que desde 1992 la operación tiene que realizarse manualmente; el switch A-3099/b4l2 no se puede activar eléctricamente, por lo que desde hace ocho meses tiene que ser operado manualmente; el transformador at-3 para la fase de reserva no está en condiciones óptimas desde hace dieciocho meses; la válvula de aire comprimido para el interruptor de 400 kv ha estado goteando aceite desde 1997 (se depende entonces del compresor de aire de 230 kv, el cual tiene una válvula que presenta fugas desde hace dos meses; el operador dijo que no sabría qué hacer en caso de que el compresor fallara); el interruptor de fase a 4030 tiene fugas de aceite desde hace más de dos años; las tuberías de las conexiones neumáticas de los interruptores están tan corroídas que pueden fallar en cualquier momento; los filtros de ventana de la casa de bombas desaparecieron desde 1996; el transformador del reactor lr-1 para la línea Tecali tiene dos pequeñas fugas de aceite.
 
• Seguridad industrial. Varias puertas de emergencia permanecen rotas desde hace cuatro años; el operador dijo que está solo en el cuarto de control durante su turno y que cierra la puerta cuando va a la separada zona de los interruptores (existiendo la posibilidad de que no reciba ayuda en caso de ataque al corazón o de lesión, sino hasta el término de su turno); los operadores pueden tropezar por irregularidades en el suelo del cuarto de control; varias luces de emergencia no funcionan; los operadores pueden recibir líquidos peligrosos en los ojos en los cuartos de baterías; hay una lata de cinco galones de líquido inflamable, entre otros objetos peligrosos, almacenados en una esquina del cuarto de baterías; los operadores pueden sufrir choques eléctricos en la casa de bombas por falta de aislantes en el panel eléctrico de distribución lp-iwph-na/nb.
 
• Etiquetado. Baterías, paneles eléctricos, etcétera, están marcados con masking tape; otros controles no tienen etiquetas.
 
• Modificaciones temporales. Un cable de potencia de cientos de metros se salió de un panel de distribución descubierto y ha permanecido así por más de diez años; desde hace año y medio no han movido un cable de potencia para monitoreo sísmico de varios cientos de metros que pasa por la zona de interruptores; hay alambres que reemplazan los goznes de la puerta de la zona de interruptores, para evitar que se azote.
 
• Procedimientos. Una revisión de los trece procedimientos para los paneles del cuarto de control identificó las siguientes deficiencias: el operador manifestó que varios de los procedimientos fueron incorrectamente identificados como del área 17 en vez de la 41, que es la correcta; no había procedimientos de emergencia (solamente para encendido y parado del equipo); hay documentos que se emplean como procedimientos, cuando no lo son; el operador manifestó no haber tenido entrenamiento en ninguno de los procedimientos del cuarto de control.
 
• Aseo y condiciones materiales. Partes de cables, escaleras, baterías, papeles, etcétera, han estado abandonados por años en el cuarto de control; varias de las torres de los interruptores muestran signos de corrosión; las partes que se reemplazan durante los servicios de mantenimiento suelen abandonarse en el mismo lugar.
 
• Misceláneos. El operador manifestó su frustración debido a que no se atienden los problemas que él reporta (también dijo que el equipo relacionado con producción sí es reparado, pero que al restante no se le hace caso; hace cuatro meses se formó un grupo especial para atender los problemas del área de interruptores del cuarto de control, pero sin resultados; las etiquetas del equipo deficiente se cambian en cada parada por recarga para propósitos de renumeración, pero muchas se quitan y no se reemplazan en el cuarto de control; el panel cargador de baterías tiene un voltímetro y un amperímetro con etiquetas que muestran que desde 1995 no han sido calibrados.
 
Los operadores de Wano concluyeron que, en relación con el cuarto de control: a) existen algunos problemas con el etiquetado, b) se identificaron ciertos problemas de seguridad industrial en el área de interruptores, c) el operador de interruptores del cuarto de control podría no disponer de procedimientos adecuados en situaciones de emergencia, d) hay algunas modificaciones temporales en el área de interruptores, e) se puede mejorar el aseo en el cuarto de control y f) parte del equipo del área de interruptores no puede operar en automático a causa de los problemas que el equipo presenta.
 
Otras causas de inseguridad
 
La lectura de la lista de los problemas y fallas detectadas por Wano en las restantes actividades permite agruparlos en tres rubros que tienen que ver con la inseguridad de Laguna Verde: humanos, técnicos y económicos.
 
• Aspectos humanos. Deficiente conocimiento práctico de la ingeniería de los reactores nucleares del personal del cuarto de control; deficiencias en el manejo de la reactividad del reactor, con respecto a estándares internacionales de operación; operadores que no siempre siguen las instrucciones y los manuales técnicos de operación; entrenamiento deficiente y tardío del personal acerca de fallas técnicas de operación de equipos; muchos de los desperfectos y fallas no se reportan; ausencia de programas de mejoramiento en la preparación de operadores; falta de estímulos al operador por buen desempeño; desconfianza de los operadores en algunas alarmas (por ejemplo en la alarma de alta temperatura del pozo seco, por lo que no se toman acciones); posibilidad de que deficiencias prioritarias no sean tomadas en cuenta por priorización excesiva; respuestas apresuradas y automáticas de los operadores ante emergencias; operadores que apagan algunas alarmas radiactivas en el cuarto de control por la creencia de que están defectuosas; fallas en el entrenamiento de los operadores para emergencias nucleares; ocultamiento de información sobre “errores humanos de operación”; memoria, seguimiento y evaluación deficiente de los desperfectos técnicos; descoordinación de los equipos relacionados directamente con la seguridad nuclear; mayor contaminación radiactiva que en plantas de diseño semejante; sobrecarga de trabajo del personal encargado del análisis causal de desperfectos; atención focalizada en desperfectos y fallas aislados, sin consideración de las interacciones; supervisores de campo que cumplen sólo parcialmente sus cometidos; falta de “sentido de propiedad” de los operadores; sistemas subjetivos de evaluación de la conducta operativa de los técnicos; las causas de los paros automáticos o manuales de los reactores son analizados por una sola persona, mientras que en la práctica internacional tales eventos son estudiados por un equipo interdisciplinario; el personal no sigue las recomendaciones (ciento veinte hasta ahora) del Grupo Independiente de Evaluación de Seguridad (creado en julio de 1998), de las cuales 5% tiene que ver con seguridad nuclear; el Grupo Independiente reporta violaciones mensuales a especificaciones técnicas; procedimientos de emergencia ocultos debajo de libros (en el cuarto de control), etcétera.
 
• Aspectos técnicos. Muchos de los paros automáticos y manuales del reactor son ocasionados por mantenimiento y servicio deficientes o simplemente ausentes; simulador para entrenamiento de operadores obsoleto; los eventos reales no son considerados en los procedimientos de operación; cuarto de control mal iluminado, sonido distractor y desaseo; fallas múltiples en los generadores diesel de emergencia; juntas eléctricas defectuosas (alambres torcidos y cubiertos con cinta aislante) capaces de inutilizar equipo crítico de seguridad; uso generalizado de masking tape como señalador o como aislante de fugas; peligro de incendios por deficiente control de material químico inflamable; se pueden dar pérdidas temporales de potencia en los reactores por fallas en el seguimiento de percances técnicos de componentes; pueden ocurrir cambios de configuración por la falta de sujetadores y de pernos en equipo relacionado con seguridad, que pueden ocasionar que no sea posible enfrentar un accidente de diseño básico (como es el caso de algunas bombas de enfriamiento); no se ha evaluado el posible impacto sobre los elementos combustibles de una barra de control mal situada (percance del 22 de junio de 1999); sistemas de detección de radiactividad deficientes o defectuosos provocan la activación de múltiples alarmas en el cuarto de control (las cuales se desconectan, porque “no se les cree”), lo que impide la activación de los generadores diesel de emergencia (lo que en una situación grave de verdad podría degenerar en un accidente); larga lista de paros de emergencia, que demuestra el deterioro creciente de equipos y servicios de mantenimiento, etcétera.
 
A las fallas técnicas anteriores hay que sumar lo defectuoso del diseño de algunos de los sistemas de seguridad de Laguna Verde, como el sistema de supresión de la presión.
 
• Aspectos económicos. Continuamente se repiten percances por falta de presupuesto para atender las recomendaciones (de compra de equipo nuevo, pago de cursos para operadores, compra de refacciones, etcétera); no se efectuará la indagatoria sobre un percance de reactividad en lv2 por causa de fugas en elementos combustibles, sino hasta la siguiente recarga de marzo de 2000; la falta de detectores y medidores de radiactividad en buen estado obliga a que el off gas (el gas radiactivo contaminante que normal y legalmente sale de la central) sea analizado químicamente, lo que retrasa la detección de desperfectos (que pueden ser indicativos de incidentes de gravedad), etcétera.
 
Todos y cada uno de los contenidos que abarcan los tres aspectos anteriores consta de ejemplos precisos en las doscientas páginas del reporte Wano. De varios de ellos se puede concluir que, contrariamente a lo que especifica la legislación sobre la operación de plantas nucleares, la producción (es decir, la generación de electricidad) es la prioridad más alta, y no así la seguridad.
 
Puede también concluirse que la llamada “cultura de seguridad nuclear” va en decadencia, pues la planta y sus componentes envejecen, la disciplina de los operadores se relaja y lo caro del funcionamiento de la central incide cada vez más sobre la capacidad de servicio y mantenimiento adecuado. La interacción sinérgica de estos tres factores, sumado a lo defectuoso de varios de los diseños claves para la seguridad (como el mencionado “supresión de la presión”), indican como necesaria la detención de la operación de Laguna Verde.
 
Una opinión especializada
 
El reporte Wano fue analizado por David Lochbaum, un especialista en plantas nucleares perteneciente a la Union of Concerned Scientists, organización independiente de científicos estadounidenses dedicada a la promoción de la utilización benéfica de la ciencia y la tecnología, y abocada también a la lucha en contra de las técnicas peligrosas para la humanidad, como es el caso de la energía nuclear. De la carta que Lochbaum dirige a la organización ecologista de Greenpeace-México (y de la cual da noticia Alejandro Calvillo en el periódico La Jornada, el 14 de abril del presente año), destacamos lo siguiente:
 
a) Los problemas descritos en el reporte Wano “tienen muy serias implicaciones” para la seguridad de Laguna Verde.
 
b) Aunque es cierto lo que el director de Wano expresó al director de la Comisión Federal de Electricidad (en una carta posterior al informe Wano, al parecer requerida por el director de cfe para con ella tranquilizar a la Cámara de Diputados sobre la seguridad de la central) que “aspectos como los identificados en Laguna Verde han existido en otras plantas nucleares en el pasado y aún existen hoy en día en otras plantas actualmente en operación en América del Norte”, la realidad es que “muchas de las plantas nucleares en Estados Unidos efectivamente han operado con problemas comparables a los identificados en Laguna Verde. [...] hasta que fueron descubiertos. En los últimos quince años, veintitrés plantas nortemericanas han sido forzadas a cerrar por un año o más con el objeto de hacer reparaciones al equipo de seguridad y a los procedimientos de operación de las plantas [...] Nada más en 1997 nueve reactores en Estados Unidos fueron cerrados durante el periodo para tales reparaciones. Hoy en día los dos reactores de la planta Donald C. Cook en Michigan permanecen cerrados. Ellos fueron cerrados en septiembre de 1997 y literalmente miles de reparaciones tienen que realizarse antes de que tal planta pueda reiniciar operaciones de manera segura”.
 
c) “Las plantas nucleares norteamericanas, y Laguna Verde también (dado que su diseño es de General Electric), están diseñadas para que una falla específica aislada no dañe a la población o al ambiente. Este concepto del diseño de falla aislada tiene la intención de prevenir que el error de un operador o la falla de una pieza del equipo no ocasionen que el material radiactivo escape a la atmósfera en cantidades suficientes como para causar daño. A las veintitrés plantas nucleares norteamericanas que han sido cerradas en los últimos quince años se les ha descompuesto más de un componente del equipo. El hecho de que a los dueños les ha tomado más de un año reparar todo el equipo descompuesto es una indicación de las pésimas condiciones de operación en que se encontraban tales plantas nucleares. La población y el ambiente no fueron protegidos por el diseño, sino por pura suerte. Si hubiera ocurrido un accidente en cualquiera de las veintitrés plantas nucleares los equipos de seguridad no habrían actuado y las consecuencias habrían sido graves”.
 
d) “Desafortunadamente las condiciones de operación de los dos reactores en Laguna Verde se parecen a las condiciones de las veintitrés plantas en Estados Unidos antes de que fueran cerradas para las necesarias reparaciones. Si Laguna Verde fuera una planta norteamericana, la Union of Concerned Scientist pediría a la Comisión Reguladora Nuclear que obligara al paro de la central hasta que todas las reparaciones que necesita fueran efectuadas. Con tantos problemas de equipo y de procedimientos identificados en Laguna Verde es muy remota la posibilidad de que la población sea protegida en caso de que ocurra un accidente”.
 
e) “Los problemas identificados por Wano cubren el espectro de las actividades de una planta nuclear. La mayoría de los problemas, si no todos, parecen originarse por la misma causa: recursos inadecuados. Desde la carencia de un programa de entrenamiento para el ingeniero del sistema de generadores diesel hasta la falta de disponibilidad de refacciones para la gran cantidad de reparaciones atrasadas, revelan que Laguna Verde no dispone del personal ni de los recursos necesarios para adquirir y sostener niveles apropiados de seguridad”.
 
f) “El reporte contiene ejemplo tras ejemplo de problemas de mantenimiento: i) falla para realizar el mantenimiento preventivo; ii) mantenimiento que provoca, en vez de resolver, problemas, y iii) falta de seguimiento después del mantenimiento para un control adecuado. Estos problemas simplemente no serían tolerados en plantas norteamericanas y no deberían ser tolerados en Laguna Verde”.
 
g) “Veintitrés reactores norteamericanos han sido cerrados en los últimos quince años debido a problemas de seguridad. Siete reactores canadienses han sido parados en los últimos tres años por causa de problemas de seguridad. Los dos reactores nucleares de Laguna Verde continúan operando con problemas de seguridad tan malos como, y en algunos casos peores que, los problemas que causaron que treinta reactores nucleares en Norteamérica se hallan cerrado”.
 
h) “Si cualquiera de los reactores de Laguna Verde experimenta un accidente con tantos problemas de seguridad documentados por Wano —aun si no existen otros problemas— las consecuencias pueden ser desastrosas”.
 
Hasta aquí las conclusiones del ingeniero en seguridad nuclear David Lochbaum. Ellas son compatibles con las que se han escrito anteriormente y apuntan en la misma dirección: es urgente el paro de Laguna Verde.
 
Greenpeace-México también solicitó una evaluación del reporte Wano a una prestigiada empresa británica, Large & Associates, con amplia experiencia internacional en evaluaciones de seguridad nuclear; su conclusión básica es que Laguna Verde está al borde de una falla institucional, “allí donde los factores de n eventos causativos se combinan y actúan de tal manera que derrumban el sistema completo”. Los elementos causativos identificados por Large son: 1) falla en asignación de recursos apropiados; 2) falla en reconocimiento de un ambiente de seguridad insatisfactorio y en deterioro; 3) falla en reconocimiento de las limitaciones de la cubierta de seguridad nuclear; 4) prioridad de los imperativos de producción sobre la seguridad. Es decir, y al igual que Lochbaum, el informe Wano apunta a un riesgo inminente de accidente en Laguna Verde.
 
Una propuesta sencilla
 
De las fallas no consignadas en Wano la siguiente es un ejemplo, según información proporcionada por técnicos de Laguna Verde al Grupo de Madres Veracruzanas y Greenpeace-México (documento “Anexo núm. pas-07-5”).
 
• 1 de octubre de 1999. Paro en lv2 para la investigación de un contacto a tierra de un ventilador del sistema de mezclado de hidrógeno de la contención primaria. A partir de esta investigación se “declara inoperable el sistema de mezclado de hidrógeno de la contención primaria”, por causa de un “incorrecto acomodamiento de cables de penetración desde la fase constructiva”. De acuerdo con el citado documento, se considera que sí pudo haber tenido consecuencias en la seguridad debido a que el sistema de remoción de hidrógeno es requerido después de un accidente base de diseño. Por tal motivo se tomó la acción de parar la unidad de acuerdo a la c.l.o.3.6.6.3”. Recuérdese que en un “accidente base de diseño” falla la refrigeración de los elementos de combustible, por lo que al interactuar a elevada temperatura con el vapor de agua lo descomponen en hidrógeno y oxígeno, formándose una nube que puede explotar (como en Chernobil), o desaparecer “milagrosamente” (como en la Isla de las Tres Millas).
 
Finalmente, la seguridad nuclear también tiene que ver con una correcta organización institucional de la misma: por ello en Estados Unidos, durante el gobierno de Gerald Ford, en 1975 se tuvo que dividir en dos la Atomic Energy Commission, en una parte dedicada a la promoción de la energía nuclear y otras fuentes energéticas (la Energy Research and Development Agency) y otra orientada al control y reglamentación de la seguridad (la Nuclear Regulatory Commission), ambas funciones realizadas por la antigua comisión, con los obvios conflictos de intereses (que a la fecha persisten, pero disminuidos). Por esto mismo en México la Comisión Federal de Electricidad (promotora de la nucleoelectricidad) y la Comisión Nacional de Seguridad Nuclear y Salvaguardas deberían quedar en cabezas sectoriales distintas, en vez de ambas depender de la Secretaría de Energía; la cfe podría seguir en esta secretaría, pero el organo encargado de la seguridad debería ser separado definitivamente de ella, para ser una dependencia de otra instancia, por ejemplo, de la Procuraduría Federal de Protección al Ambiente. La Comisión de Energéticos y la de Ecología de la Cámara de Diputados deberían también intervenir en la supervisión del funcionamiento de Laguna Verde, como instancia de intermediación. No es que con estas medidas institucionales se pueda evitar el riesgo nuclear (para esto se requeriría el cierre definitivo de Laguna Verde), pero al menos disminuiría bastante.
Referencias bibliográficas
 
Reporte Wano, octubre-noviembre de 1999.
Carta de David Lochbaum a Alejandro Calvillo (director ejecutivo de Greenpeace-México), 20 de marzo de 2000.
Large & Associates, informe R3039-A1 dirigido a Greenpeace-México, 15 de abril de 2000.
Marco Antonio Martínez Negrete
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Martínez Negrete, Marco Antonio. (2000). La seguridad nuclear de Laguna Verde en cuestión. Ciencias 58, abril-junio, 49-59. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
  del bestiario
 
     
La vida familiar en las Seychelles
 
 
 
Héctor T. Arita
conoce más del autor
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
       
Nadie está dispuesto a sacrificar su vida por la de una sola persona, pero todos la sacrificarán si con ello pueden salvar más de dos hermanos, o cuatro medio hermanos u ocho primos...

W. D. Hamilton

   
Las hembras del carricero1 de las Seychelles (Acrocephalus sechellensis) parecerían ser las hijas modelo. Estas aves, originarias de la nación insular de las Seychelles, situada en el océano Índico al norte de Madagascar, forman una suerte de familias extendidas para la crianza de los polluelos. Las hembras jóvenes permanecen por un tiempo en el territorio donde nacieron, ayudando a sus padres en el cuidado y alimentación de las crías, que vienen siendo sus hermanos o hermanastros pequeños. Por el contrario, aunque existen excepciones, la mayoría de los machos carriceros abandonan su territorio natal y no participan en la crianza de sus hermanitos.
 
Este patrón de comportamiento puede ser explicado razonablemente a la luz de la sociobiología, el estudio biológico y evolutivo de la conducta social de los animales (y de las plantas, algunas de cuyas estrategias de vida pueden considerarse como “comportamiento”). Uno de los pilares de la sociobiología es el concepto del “gen egoísta”, término acuñado por Richard Dawkins a finales de los años setentas para describir el proceso mediante el cual los genes “manipulan” el comportamiento de los organismos para maximizar la cantidad de copias de sí mismos en futuras generaciones. Llevando el concepto a un extremo, los seres vivos no serían otra cosa que máquinas diseñadas y perfeccionadas por la selección natural para producir copias y más copias de los genes que contienen. El comportamiento de los individuos estaría regido por estrategias encaminadas a llevar al máximo su propia “adecuación” darwiniana, medida como la cantidad de copias de sus propios genes en las generaciones futuras. A pesar de ser una teoría muy controvertida, especialmente cuando se intenta explicar con ella el comportamiento social humano, la sociobiología ha sido capaz de explicar en forma plausible la mayoría de los patrones de conducta animal conocidos, resolviendo incluso algunas aparentes paradojas.
 
El caso de los carriceros de las Seychelles representa, por ejemplo, una aparente contradicción a la idea de los genes egoístas. Si en verdad las hembras de los carriceros son individuos egoístas que sólo buscan su propia reproducción como una vía para crear más copias de sus propios genes, entonces ¿por qué invierten tiempo y energía en ayudar a sus padres en lugar de establecer sus propios territorios y reproducirse por sí mismos?, ¿cómo puede explicar la sociobiología éste y otros casos de altruismo? La clave para resolver estos enigmas evolutivos se sustenta en la idea de la “adecuación inclusiva” de W. D. Hamilton.
 
A la edad de veintiséis años, Hamilton publicó un par de artículos teóricos (1963 y 1964) en los que demostraba matemáticamente cómo un individuo podía aumentar su propia adecuación draconiana (recordemos, medida como la cantidad de copias de sus propios genes en generaciones subsecuentes) ayudando a parientes cercanos a sobrevivir y reproducirse. A final de cuentas, razonó Hamilton, un individuo comparte en promedio la mitad de sus genes con cualquiera de sus padres y una cuarta parte de aquéllos con un hermano. Bajo ciertas circunstancias, que Hamilton analizó con modelos genéticos, un individuo puede generar más copias de sus propios genes colaborando en la reproducción de sus padres, hermanos u otros parientes que reproduciéndose él mismo. En estos casos, los individuos no maximizan su adecuación directa, sino su adecuación inclusiva, que incluye las copias de sus genes que pasan a las siguientes generaciones a través de la reproducción de sus parientes. En condiciones particulares, el modelo puede explicar también casos de aparente altruismo aun cuando los individuos involucrados no están emparentados directamente.
 
La vida en familia entre los animales se presta de forma particularmente adecuada para poner a prueba algunas predicciones basadas en el modelo de la adecuación inclusiva. En uno de los estudios más detallados que se han realizado hasta la fecha, Stephen T. Emlen y sus colaboradores han descrito meticulosamente la compleja vida familiar de los abejarucos africanos (Merops bullockoides) en Kenia. Estas vistosas aves africanas viven en grandes colonias que consisten en numerosos nidos habitados por familias extendidas que incluyen individuos de varias generaciones, todos emparentados entre sí. Cuando Emlen y sus colegas comenzaron sus estudios, se pensaba que el mecanismo de vida de estos pájaros era muy sencillo: debido a las reglas de la adecuación inclusiva, simplemente era más conveniente para los individuos jóvenes permanecer en grupos familiares y colaborar en la crianza de los polluelos. Cuando las condiciones se prestaran, los jóvenes simplemente podían independizarse, buscar su propia pareja y establecer sus propios nidos.
 
A medida que el estudio avanzaba, sin embargo, Emlen y su grupo documentaron una serie de comportamientos complejos que rompieron con el modelo de la familia “feliz”. La forma más sencilla de describir estas conductas es usando términos que se aplican a familias humanas. Así, Emlen y sus colegas documentaron numerosos casos de infidelidad, agresiones contra hijastros, competencia entre hermanos o hermanastros, bloqueo de los “tíos” a la reproducción de las hembras más jóvenes y hasta casos de “alta traición”. Los investigadores pudieron observar, por ejemplo, que algunas hembras jóvenes encargadas de la vigilancia de un nido podían reemplazar el huevo puesto por una hembra más vieja por un huevo propio, producto de una furtiva incursión a un nido ajeno a la familia. Todos y cada uno de estos patrones conductuales pueden explicarse por la sencilla lógica de la adecuación inclusiva. Por ejemplo, en el caso de las hembras jóvenes, si se presenta la oportunidad, es más conveniente colocar su propio huevo que ayudar a la crianza de un huevo de un pariente, ya que un hijo propio tendrá más genes en común con la madre que un polluelo puesto por otra hembra.
 
Una de las críticas que se han hecho a la sociobiología es que, por la forma en la que se plantean los modelos y se presentan los resultados de los estudios, parecería que la teoría implica que los animales tienen alguna forma de calcular el grado de parentesco con otros individuos y de estimar cuantitativamente los costos y beneficios de sus acciones. Sin embargo, tal como lo expresó Dawkins en un ensayo mordaz y sarcástico publicado en 1979, los individuos no tienen que realizar ningún cálculo, simplemente la selección natural moldea aquellos patrones conductuales que maximizan la adecuación. Así como un abejaruco no necesita conocer los modelos de dinámica de fluidos o aeronáutica para poder volar, tampoco necesita haber leído los artículos de Hamilton para, maquiavélicamente, urdir complicadas intrigas que le permitan maximizar su propia adecuación. De igual forma, así como un carricero de las Seychelles no necesita estar versado en óptica para poder ver a través del complicado diseño de sus ojos, las hembras de esta especie no necesitan de una computadora personal para decidir si quedarse a auxiliar a sus padres en la crianza o mejor establecer sus propios nidos.
 
Recientemente se han reportado detalles asombrosos del sistema familiar de los carriceros de las Seychelles. Se sabía ya que las familias extendidas tienen más éxito en los territorios ricos en recursos. En ellos, la presencia de hembras jóvenes que ayudan en la crianza incrementa sensiblemente el éxito reproductivo de los padres, aumentando así la adecuación inclusiva de todos los participantes. Por el contrario, en territorios de baja calidad, las hembras jóvenes disminuyen la adecuación de los padres, ya que su presencia representa una competencia por los de por sí magros recursos del territorio. Hay que recordar también que los machos jóvenes generalmente abandonan su territorio natal para buscar sus propios sitios de anidación. Con esta información es fácil ver que desde la perspectiva de los padres sería más ventajoso producir crías hembras en territorios de alta calidad, para obtener ayudantes en futuras nidadas, y resultaría mejor producir crías machos en territorios de baja calidad, para evitar la competencia con las hembras jóvenes y de todas formas obtener adecuación a través de la producción de hijos machos. Obviamente, este sencillo cálculo de costos y beneficios debería tomar en cuenta la presencia y número de ayudantes presentes en los territorios.
 
J. Komdeur y sus colaboradores usaron marcadores genéticos para determinar el sexo de los huevos en territorios de baja y alta calidad, con y sin ayudantes. Asimismo, realizaron experimentos en los que movieron parejas reproductivas de territorios pobres a ricos o viceversa. Los resultados del grupo de investigación confirmaron las predicciones basadas en el modelo de adecuación inclusiva. Por ejemplo, las parejas que no contaban con ayudantes pero que estaban en territorios pobres produjeron 77% de crías machos, mientras que sólo 13% de los huevos contenían crías machos en territorios de alta calidad. Los resultados de los experimentos confirmaron la hipótesis básica: las parejas de carriceros pueden, de alguna manera, manipular el sexo de sus crías para aumentar su adecuación. Cuando necesitan ayudantes y el territorio es suficientemente rico, se producen huevos con embrión de hembra; cuando no conviene a los padres tener hembras, ya sea por la pobre calidad del territorio o por la presencia de otras hembras, se producen huevos con embrión de macho. Toda esta complicada estrategia se ajusta perfectamente al modelo de la adecuación inclusiva.
 
En marzo de este año, un boletín de prensa de la Associated Press informó de la muerte de W. D. Hamilton. El creador del modelo de la adecuación inclusiva murió de malaria, enfermedad que había contraído en África mientras realizaba investigaciones sobre el origen del virus del sida. A sus sesenta y tres años, Hamilton tuvo la oportunidad de ser testigo de cómo su teoría encuentra cada vez más apoyo empírico en las investigaciones sobre la conducta social de los animales. La evidencia acumulada hasta ahora muestra que aun patrones conductuales muy complejos pueden ser explicados en términos del modelo desarrollado por W. D. Hamilton en su juventud.
Notas.
1. “Carricero” es el nombre que se usa en España para las aves del género Acrocephalus, de la familia Sylviidae del Viejo Mundo. En inglés estos pájaros son llamados warblers, mismo nombre que se usa para algunas especies de la familia Parulidae del Nuevo Mundo, conocidas en México como chipes.
Referencias bibliográficas
 
Emlen, Stephen T. 1995. “An evolutionary theory of the family”, Proceedings of the National Academy of Sciences of the United States of America 92, pp. 8 /092-8/ 099. Revisión técnica sobre el proceso de formación de familias animales y humanas bajo la luz de la sociobiología.
Hamilton, W. D. 1995. “The genetical evolution of social behaviour. I & II”, Theoretical Biology 7, pp. 1-52.
Hively, W., “Family man”, Discover Magazine, octubre de 1997, pp. 80-90. Reportaje no técnico acerca de las investigaciones de S. T. Emlen sobre el abejaruco africano.
Komdeur, J., S. Daan, J. Tinbergen y C. Mateman. 1997. “Extreme adaptive modification in sex ratio of the Seychelles warblerís eggs”, Nature 385, pp. 522-525. Reporte técnico sobre la manipulación del sexo de los huevos del carricero de las Seychelles.
Héctor T. Arita
Instituto de Ecología,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Arita, Héctor T. (2000). La vida familiar en las Seychelles. Ciencias 58, abril-junio, 22-25. [En línea]

Las ciencias naturales en México

 
PortadaB6
Fondo de Estudios e Investigaciones
Ricardo J. Zevada.
cnca, fce, México, 1999.
 
 
 
 
 
 
     
HTML ↓ PDF ← Regresar al índice
     
 
En México hay una larga tradición de estudios sobre la naturaleza. Los antiguos mesoamericanos, tras siglos de observación y selección cuidadosa, lograron un amplio conocimiento de las especies vernáculas. Sus variedades comestibles son, aún hoy, base de la alimentación popular, y la rica botánica medicinal que desarrollaron sigue siendo tema de estudio y admiración. Desde su llegada al Anáhuac, los españoles elogiaron el esmero con que se cuidaban las muy variadas manifestaciones de la vida animal y vegetal; así, el jardín botánico y el zoológico de Moctezuma no tenían rival en Europa. Esta fuente de riqueza no pasó inadvertida a la Corona española, que promovió, durante los tres siglos de coloniaje, buen número de expediciones de naturalistas y la elaboración de catálogos de la flora y la fauna novohispanas. Aunque tardíamente, también estimuló la preparación académica al establecer, a finales del siglo xviii, la cátedra de botánica, disciplina que fue motivo de una de las primeras controversias entre los miembros de la naciente inteligencia criolla y sus mentores peninsulares.
 
Con la Independencia, pese a las turbulencias que agitaron a la sociedad mexicana durante el siglo xix, se mantuvo el interés por la naturaleza y se continuó la catalogación de especies biológicas; se establecieron sociedades de naturalistas y la cátedra universitaria fue foro de discusión de las ciencias naturales. Con el fin de siglo surgieron las primeras instituciones de investigación biomédica, en las que cobró auge el estudio de los productos naturales.
Luego del paréntesis impuesto por la fase armada de la Revolución mexicana, se inició la época contemporánea de nuestro desarrollo científico. Con el decreto de autonomía nace en la Universidad Nacional de México el Instituto de Biología, y luego los institutos y varios departamentos dedicados a la botánica, la zoología, las disciplinas biomédicas y la biología marina, en una serie que se prolonga hasta muy recientemente, así como nuevos laboratorios de investigación. En el Instituto Politécnico Nacional se funda la Escuela Nacional de Ciencias Biológicas y, dos décadas después, el Centro de Investigación y de Estudios Avanzados.
 
La Secretaría de Agricultura crea importantes centros de investigación en ciencias agrícolas; surgen así el Colegio de Posgraduados y el Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias, y luego el Centro Internacional de Mejoramiento de Maíz y Trigo. La biomedicina florece en las grandes instituciones de salud, como el Instituto Mexicano del Seguro Social.
 
Durante el último cuarto de siglo han surgido grupos de investigación en instituciones de educación superior y de salud tanto de la capital como de diversos estados de la República. En conjunto, la investigación biológica y biomédica constituyen hoy día una de las áreas más productivas de la ciencia nacional, aunque, por lo demás, acusa deficiencias similares a las de otras disciplinas; así, aún está demasiado centralizada y en conjunto es escasa, y mientras algunas áreas cuentan con grupos de alto nivel, otras sufren grandes rezagos. El reto está en ensanchar la base y ganar altura.
 
Hoy, que el proyecto del genoma humano, el del cerebro humano y otras grandes empresas internacionales abren posibilidades insospechadas a la biología y la convierten en la promesa más importante para la investigación en el próximo siglo, México no puede quedar al margen. Será necesario redoblar esfuerzos y abrir nuevos centros de trabajo que permitan a los jóvenes biólogos incorporar nuevas corrientes de pensamiento y de acción.
 
Fragmento de la presentación.
_______________________________________________________________

 

como citar este artículo

Aréchinga, Hugo y Bayer, Carlos. (2000). Las ciencias naturales en México. Ciencias 58, abril-junio, 78. [En línea]
 
← Regresar al índice
Está aquí: Inicio Búsqueda Titulo revistas revista ciencias 58
Universidad Nacional Autónoma de México
Facultad de Ciencias
Departamento de Física, cubículos 320 y 321.
Ciudad Universitaria. México, D.F., C.P. 04510.
Télefono y Fax: +52 (01 55) 56 22 4935, 56 22 5316


Trabajo realizado con el apoyo de:
Programa UNAM-DGAPA-PAPIME número PE103509 y
UNAM-DGAPA-PAPIME número PE106212
 ISSN:0187-6376

Indice-RM

Responsable del sitio
Laura González Guerrero
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
 

Asesor técnico:
e-marketingservices.com
facebooktwitteryoutube

cclCreative Commons License
This work is licensed under a Creative Commons
Attribution-Noncommercial-Share Alike 3.0 United States License