revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
  P01 P02  
 
 
     
Breve cronología de la genética
 
Jorge González Astorga
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
La genética es uno de los puntales teóricos más importantes de la biología contemporánea, y sin embargo es una ciencia relativamente nueva. Es por eso que la construcción de la genética durante el siglo xx constituye uno de los retos intelectuales de mayor calibre. Y aunque la genética es una ciencia de este siglo, que inicia formalmente con el redescubrimiento de las leyes de Mendel en 1900, no fue sino hasta 1906 que William Bateson acuñó el término y escribió el primer libro de genética: Mendel’s Principles of Heredity: A Defence. Para esto, los avances teóricos y metodológicos del siglo xix fueron trascendentales en el fundamento de las bases de la genética del siglo xx.
 
Durante la segunda mitad del siglo xix, en el periodo de 1850 a 1900, la biología surgió de los últimos vestigios medievales y aristotélicos, generándose una visión unificada cuyo paradigma no es esencialmente distinto del nuestro. Por una parte, la teoría celular se había establecido ya en la década de los treintas, pero en 1858 el fisiólogo alemán R. Virchow introdujo una generalización adicional: el principio de la continuidad de la vida por división celular, que en síntesis se contempla en una frase célebre: omnis cellula e cellula. Con esto, la célula quedó establecida como la unidad de la vida y reproducción de los organismos. Este reconocimiento, como unidad de reproducción y continuidad, llevó a la generación espontánea y al preformacionismo a los terrenos de la metaciencia. En este sentido, cualquier organismo se origina de una simple célula mediante un proceso de ontogénesis, a través de sucesivos pasos de diferenciación de un huevo indiferenciado. Esto hace a la célula el contenedor de las potencialidades para generar un organismo. Este planteamiento teórico llevó a la búsqueda de la base material de la herencia.
 
A mediados del siglo xix, Darwin introdujo en El origen de las especies la segunda unificación importante de la biología, esto es: la teoría de la evolución biológica. Fundamentalmente, Darwin explica que las formas orgánicas existentes proceden de otras distintas que existieron en el pasado, mediante un proceso de descendencia con modificación. Para llegar a esto sintetizó sistemáticamente evidencias procedentes de muy diversas disciplinas de la ciencia de la época, como son la geología, donde tomó el principio del uniformitarismo de Charles Lyell; la paleontología, que cimentó su planteamiento sobre las relaciones ancestro-descendencia y sobre la distribución de las especies a nivel macrogeográfico; también, su gran experiencia como naturalista le permitió conocer la gran diversidad y variedad de organismos que se distribuyen en los trópicos; esto lo llevó a entender, en parte, la importancia de las relaciones inter e intraespecíficas como fuerzas motoras de la evolución; por último, y no menos importante, la influencia de las teorías socioeconómicas de Thomas Malthus y Adam Smith fortalecieron aún más su planteamiento teórico. Con estos antecedentes, la síntesis de estas disciplinas convergieron en una explicación de un proceso natural para la evolución orgánica: la selección natural. Con la finalidad de imponer esta concepción Darwin incorporó una nueva y radical perspectiva: el pensamiento poblacional. En contradicción con la visión esencialista dominante en su tiempo, la variación individual, lejos de ser trivial, era para Darwin la piedra angular del proceso evolutivo. Son las diferencias existentes entre los organismos al seno de las poblaciones las que, al incrementarse en el espacio y en el tiempo, constituirán la evolución biológica. La teoría general de la evolución de Darwin fue casi inmediatamente aceptada por la comunidad científica, pero su teoría de la selección natural (teoría particular) tuvo que esperar hasta los años treintas del siglo xx para que recibiera la aceptación unánime.
 
Un hueco importante en el esquema de Darwin era el de la explicación del origen y el mantenimiento de la variación genética sobre la que opera la selección natural. Posterior a la publicación de El origen de las especies, en 1868, Darwin intentó explicar el fenómeno de la herencia a través de la hipótesis provisional de la pangénesis. Ésta es el resultado de un intenso trabajo de recopilación e interpretación de gran número de observaciones y experimentos, que se encuentran en un tratado de dos volúmenes: The Variation of Animals Under Domestication. Allí postula la existencia de partículas hereditarias o de reproducción, que llamó gémulas. Cada parte del organismo, e incluso partes de las células, producen sus propias y específicas gémulas; estas partículas fluyen por todo el cuerpo, de modo que en cada parte, como en los óvulos y espermatozoides, pueden encontrarse todos los tipos de gémulas. Para esto, las células reproductoras tienen la potencialidad de desarrollar un organismo completo. Contrariamente a las conclusiones a las que llegó en 1859, su hipótesis de la herencia resultó incorrecta, como se demostró posteriormente por, entre otros, su sobrino Francis Galton en un experimento de transfusión sanguínea recíproca entre dos líneas de conejos que diferían en el color del pelaje. De cualquier manera, el trabajo y entusiasmo de Darwin estimuló el pensamiento genético.
 
En 1865, tres años antes de la publicación del tratado de Darwin sobre la herencia, el monje austriaco Gregor Mendel publicó en el Boletín de la Sociedad de Ciencias Naturales de Brno su trabajo "Experimentos de hibridación en plantas", en el cual resume los experimentos que había llevado a cabo durante casi diez años en el frijol Pisum sativum. El trabajo de Mendel se enmarcaba dentro del paradigma de la teoría de la evolución, pues una de las razones para efectuar dicho trabajo era "alcanzar la solución a un problema cuya importancia para la historia evolutiva de las formas orgánicas no debería ser subestimada" (en sus propias palabras). En su base experimental está el paradigma del análisis genético y su trabajo es considerado el fundamento de la ciencia genética. La fuerza de este trabajo radica en un diseño experimental sencillo, aunado a un análisis cuantitativo de sus datos. Experimentalmente demostró que: i) la herencia se transmite por elementos en forma de partículas, refutando la herencia mezclada, y ii) que el mecanismo de la herencia sigue normas estadísticas sencillas, resumidas en dos principios. Pero el momento histórico no era aún propicio y el nuevo paradigma de la genética debería esperar más de treinta años guardado en los archivos de un monasterio del centro de Europa. Y en realidad no fue, como se ha creído, porque su trabajo fuera desconocido, sino porque los experimentos de Mendel fueron simplemente despreciados. Se sabe que Mendel intercambió correspondencia con el alemán Carl Nägeli, uno de los más prominentes botánicos del momento, quien no pareció muy impresionado por su trabajo y le sugirió a Mendel que estudiara otras especies vegetales, entre ellas una del género como Hieracium, en la que Nägeli estaba interesado. En ella Mendel no encontró normas consistentes en la segregación de sus caracteres y empezó a creer que sus resultados eran de aplicación limitada, por lo que su fe (que la debería tener por decreto) y entusiasmo en su labor como experimentador disminuyó. No fue sino hasta mucho tiempo después de la muerte de Mendel, en 1903, que se descubrió que un tipo especial de partenogénesis ocurre en Hieracium spp., lo que genera desviaciones muy significativas de las proporciones mendelianas esperadas. Debido al olvido y a la desidia de su trabajo, se puede afirmar que sin Mendel la genética posiblemente sería la misma, lo cual nos lleva a la conclusión de que cuando la historia se estudia como recapitulación de fechas y personajes nos hace percibir a los genios como simples pensadores de la época.
 
En la década de los setentas las técnicas citológicas emergentes, como el microtomo y las lentes de inmersión en aceite, condujeron al descubrimiento del proceso de la fecundación (la fusión de los núcleos del óvulo y del espermatozoide para formar el núcleo del huevo) y la mitosis. Por esa época Nägeli enunció la teoría del idioplasma, que establece que el núcleo celular es el vehículo de la herencia. En 1883 van Beneden, experimentando con el nemátodo Ascaris spp., descubrió el proceso de la meiosis, reconociéndose por fin la individualidad de los cromosomas. T. Boveri, entre 1888 y 1909, demostró que los cromosomas mantienen su estabilidad a lo largo de las generaciones. Así, a partir de 1880 existía un acuerdo generalizado de que el material hereditario residía en los cromosomas, aunque esto no estuvo completamente claro hasta 1916.
 
 
 
El embriólogo alemán August Weismann desarrolló en 1885 su teoría de la continuidad del plasma germinal. En ésta se reconocen dos tipos de tejidos en los organismos, el plasma somático y el plasma germinal, que en nuestros días vendría siendo el germen del fenotipo y del genotipo, respectivamente. El plasma somático o somatoplasma forma la mayor parte del cuerpo de un individuo, mientras que el germoplasma es una porción inmortal de un organismo que tenía la potencialidad de reproducir al individuo. A diferencia de la teoría de la pangénesis, el germoplasma no proviene del somatoplasma ni se forma nuevamente en cada generación, sino que constituye la continuidad de la información genética entre generaciones. La teoría de Weismann rechazaba rotundamente la herencia de los caracteres adquiridos haciendo un mayor énfasis en el material hereditario. Se le llamó neodarwinismo a la síntesis de la teoría de la evolución por selección natural y la hipótesis del plasma germinal de Weismann. En 1883 Weismann propuso la teoría de que las partículas hereditarias o bióforas eran invisibles, autorreplicativas y asociadas con los cromosomas de un modo lineal, postulando que cada biófora estaba implicada en la determinación de una característica o atributo. Esto nos lleva a pensar que su intuición fue realmente prodigiosa. En 1871 Fiedrich Miescher aisló nucleína de núcleos de células humanas de pus; hoy sabemos que esta nucleoproteína forma la cromatina. Posteriormente, en 1886, el citólogo norteamericano E. B. Wilson relacionó la cromatina con el material genético.
 
El siglo xx
 
Con el inicio del siglo xx se produjo una explosión de descubrimientos que revolucionaron a la ciencia de la genética y que continuaría a un ritmo vertiginoso. En la primera década se llevó a cabo la síntesis de los trabajos genéticos (hibridación experimental) y citológicos. Esta fusión simboliza a la genética en su mayoría de edad, iniciándose como una ciencia propia e independiente. Los albores del siglo xx iniciaron con el redescubrimiento de las leyes de Mendel por los trabajos de tres ilustres botánicos: Carl Correns, Hugo de Vries y Eric von Tschermak, a las que el británico William Bateson daría un gran impulso, generándose la integración de los estudios genéticos y citológicos. En 1902, Boveri y Sutton se percataron, de forma independiente, de la existencia de un estrecho paralelismo entre los principios mendelianos, recién descubiertos, y el comportamiento de los cromosomas durante la meiosis. En 1906, Bateson, quien en 1901 había introducido los términos alelomorfo, homocigoto y heterocigoto acuñó el término genética para designar "la ciencia dedicada al estudio de los fenómenos de la herencia y de la variación". En 1909 el danés Wilhelm Johannsen introdujo el término “gen” como “una palabra [...] útil como expresión para los factores unitarios [...] que se ha demostrado que están en los gametos por los investigadores modernos del mendelismo”.
 
 
 
Durante la segunda década de este siglo Thomas Hunt Morgan inició el estudio de la genética de la mosca de la fruta Drosophila melanogaster. En 1910 descubrió la herencia ligada al cromosoma X, así como la base cromosómica del ligamiento. Tres años después, A. H. Sturtevant construyó el primer mapa genético y en 1916 Calvin Bridges demostró definitivamente la teoría cromosómica de la herencia mediante la no disyunción del cromosoma X. En 1927 H. J. Muller publicó su trabajo en el que cuantifica, mediante una técnica de análisis genético, el efecto inductor de los rayos X de genes letales ligados al sexo en Drosophila. A principios de la década de los años treintas Harriet Creighton y Barbara McClintock, en el maíz, y Gunter Stern, en Drosophila, demostraron que la recombinación genética está correlacionada con el intercambio de marcadores citológicos. Todos estos descubrimientos condujeron a la fundación conceptual de la genética clásica. Los factores hereditarios o genes eran la unidad básica de la herencia, entendida tanto funcional como estructuralmente (la unidad de estructura se definía operacionalmente por la recombinación y la mutación). Espacialmente, los genes se encuentran lineal y ordenadamente dispuestos en los cromosomas como las cuentas en un collar.
 
Paralelamente a estos avances, un conflicto que había surgido en 1859 con la aparición de El origen de las especies de Darwin empezó a resolverse. Era el problema de la naturaleza de la variación sobre la que actúa la selección natural. Para esto, Darwin puso énfasis en la evolución gradual y continua que transforma la variación dentro de las poblaciones en variación entre poblaciones; otros, como Thomas Huxley, e inicialmente Galton (cuyo libro Natural Inheritance está considerado como fundador de la biometría) creían que la evolución ocurre de forma relativamente rápida y discontinua, por lo que la selección natural usaba principalmente variación discontinua, por lo que la variación continua no poseía ningún valor evolutivo a sus ojos. Con el fortalecimiento del mendelismo este antagonismo se acentuó hasta convertirse en un conflicto entre los biometristas, por un lado, apoyando la evolución discontinua o por saltos, y los mendelianos, por el otro, que estudiaban la variación en los caracteres físicos cuantitativamente y apoyaban la evolución darwiniana. Estos últimos tenían como cabeza teórica a Bateson, Morgan y Hugo de Vries, mientras que Karl Pearson y W. F. R. Weldom (junto con Galton, que se les unió ideológicamente después) fueron los puntales de la escuela biométrica. En medio de este conflicto, en 1908 se formuló la ley del equilibrio de Hardy-Weinberg, que relaciona las frecuencias génicas con las genotípicas en poblaciones panmícticas o con cruzamientos al azar, lo cual permite cuantificar la evolución. Entre los años 1918 y 1932 la polémica entre biometristas y mendelianos quedó resuelta finalmente: Ronald Fisher, Sewall Wright y J. B. S. Haldane llevaron a cabo la síntesis del darwinismo, el mendelismo y la biometría, y fundaron la teoría de la genética de poblaciones. De manera independiente, Fisher es el responsable directo, y en este sentido la historia (mito o realidad, no es claro todavía) dice que el comité de redacción del Proceedings of the Royal Society de Londres no publicó en 1916 el artículo de Fisher, por la aversión que el comité tenía contra todo lo que tuviera sabor mendelista. Y no fue sino hasta dos años más tarde que Transactions of the Royal Society de Edimburgo lo publicó. En este artículo Fisher desarrolla de manera sumamente elegante el modelo infinitesimal, que es la base de la genética cuantitativa teórica y aplicada a los programas de mejoramiento genético en animales y plantas. En su base teórica proporciona una magistral objetivación de la naturaleza de la variación continua de los caracteres cuantitativos, entendidos como aquellos cuya variabilidad observable se debe principalmente a la segregación de varios loci, que pueden ser modificados por la acción del ambiente. Lo relevante de esta propuesta radica en que los caracteres cuantitativos se pueden entender con una base genética mendeliana discreta. Kempthorne, discípulo de Fisher, reconoce no haberlo entendido en toda su expresión, lo cual lo llevó a escribir su libro An Introduction to Genetic Statistics, para ponerlo al alcance de los genetistas y en general como una propuesta entendible del razonamiento fisheriano desde el punto de vista cualitativo.
 
Por otro lado, el desarrollo de los modelos matemáticos de la acción de la selección natural quitó los velos en cuanto a si esta fuerza microevolutiva podía o no producir cambios importantes, incluso cuando sus coeficientes eran débiles: la selección volvió a adquirir un papel preponderante como proceso evolutivo directriz. Con la genética de poblaciones la teoría de la evolución se presenta como una teoría de fuerzas interactuantes: la selección, la mutación, la deriva genética, la endogamia y la migración. Éstas actúan sobre un acervo genético que tiende a permanecer invariable como consecuencia de la ley del equilibrio de Hardy-Weinberg, que a su vez es una extensión de la primera ley de Mendel (segregación independiente) a las poblaciones. Así, la genética de poblaciones se estableció como el núcleo teórico y el componente explicativo “duro” de la teoría de la evolución. Posteriormente, la integración de la genética de poblaciones con otras áreas como la biología de poblaciones, la sistemática y taxonomía, la paleontología, la zoología y la botánica, generaron durante el periodo comprendido entre 1937 y 1950 la teoría sintética de la evolución. En ésta se produce la mayor integración de disciplinas, nunca antes alcanzada, de una teoría evolutiva.
 
A partir de los cuarentas se aplicaron sistemáticamente las técnicas moleculares, con un éxito extraordinario en la genética. Para esto, el acceso al nivel molecular había comenzado y la estructura y función de los genes era el próximo frente del avance genético. En 1941 George Beadle y E. L. Tatum introdujeron la revolución de Neurospora, estableciendo el concepto de un gen una proteína, por lo que los genes son elementos portadores de información que codifican a las enzimas. En 1944 Oswald Avery, Colin McLeod y Maclyn McCarty demostraron que el "principio transformador" es el adn.
 
El año 1953 representa un momento culminante: James Watson y Francis Crick interpretaron los datos de difracción de rayos X de Maurice Wilkins junto con los resultados de la composición de bases nucleotídicas de Erwin Chargaff, concluyendo que la estructura del adn es una doble hélice, formada por dos cadenas orientadas en sentidos opuestos, esto es: antiparalelas. La estructura de tres dimensiones (3-D) se mantiene gracias a enlaces de hidrógeno entre bases nitrogenadas que se encuentran orientadas hacia el interior de las cadenas. Dicha estructura sugería, de un modo inmediato, cómo el material hereditario podía ser duplicado. Una estructura tan simple proveía la explicación al secreto de la herencia: la base material (adn), la estructura (doble hélice 3-D) y la función básica (portador de información codificada que se expresa y se transmite íntegramente entre generaciones); así, el fenómeno genético era, por fin, explicado. Por lo anterior, no debe sorprendernos que el descubrimiento de la doble hélice se considere el más revolucionario y fundamental de toda la biología; aunque en esta visión en mucho han influido las modas de máxima complejidad de sentirse “biólogo molecular” en los ochentas y noventas.
 
En 1958 Matthew Meselson y Franklin Stahl demostraron que el adn se replicaba de manera semiconservativa. El problema de cómo la secuencia del arn se traduce en secuencia proteica se empezaba a resolver. Un triplete de bases (codón) codifica un aminoácido. Inmediatamente se establece el flujo de la información genética: el Dogma Central de la Biología Molecular. Ese mismo año Arthur Kornberg aisló la polimerasa del adn y en 1959 Severo Ochoa aisló por vez primera el arn polimerasa, con lo que inicia la elucidación del código. En 1961 Sidney Brenner, François Jacob y Meselson descubrieron el arn mensajero. En 1966 Marshall Nirenberg y Har Gobind Khorana terminaron de develar el código genético. Paralelamente a estos descubrimientos, Seymour Benzer publicó sus primeras investigaciones sobre la estructura fina del locus rii en el fago t4. Años antes, en 1961, Jacob y Monod propusieron el modelo del operón como mecanismo de regulación de la expresión génica en procariontes. Charles Yanofsky demostró la colinearidad entre genes y sus productos proteicos, en 1964. Dos años después R. Lewontin, J. L. Hubby y H. Harris aplicaron la técnica de la electroforesis en gel de proteínas al estudio de la variación enzimática en poblaciones naturales, obteniéndose las primeras estimaciones de la variación genética de algunas especies. En 1968 hizo su aparición la teoría neutralista de la evolución molecular, introducida por M. Kimura, que da la primera explicación satisfactoria al exceso de variación genética encontrada en los datos de las electroforesis de enzimas en poblaciones naturales; para esto su propuesta es que gran porcentaje de esa variación es selectivamente neutra y, dado esto, la tasa de sustitución de bases o aminoácidos por mutación, es directamente proporcional a la tasa de evolución: nace el reloj molecular.
Con el inicio de la década de los setentas surgieron técnicas muy sofisticadas de manipulación directa del adn. Así, en 1970 se aislaron las primeras endonucleasas de restricción y H. Temin y D. Baltimore descubrieron la reverso transcriptasa (enzima típica de los retrovirus como el vih). En 1972, en el laboratorio de Paul Berg, se construyó el primer adn recombinante in vitro. El año 1977 fue muy importante, pues se publicaron las técnicas de secuenciación del adn de Walter Gilbert y de Frederick Sanger; Sanger y sus colegas publicaron, a su vez, la secuencia completa de cinco mil trescientos ochenta y siete nucleótidos del fago f x171; varios autores descubrieron que los genes de los organismos eucariontes se encuentran interrumpidos: descubren los intrones. En 1976 salió a la venta The Selfish Gene, del controvertido evolucionista Richard Dawkins; su planteamiento es sencillo: los cuerpos (soma) son efímeros en la evolución, lo que importa es la transferencia de los genes (germen) a las generaciones futuras; así, esta propuesta es un eco weismaniano en el tiempo.
 
Entre 1981 y 1982 fueron creados los primeros ratones y moscas transgénicos. A su vez, Thomas Cech y Sidney Altman, en 1983, descubrieron que el arn tiene funciones autocatalíticas. En ese año M. Kreitman publicó el primer estudio de variación intraespecífica en secuencias de adn del locus Adh (alcohol deshidrogenasa) de Drosophila melanogaster. A principios de la década de los ochentas R. Lande y S. Arnold introdujeron el análisis estadístico multivariado en los estudios de selección fenotípica y genotípica en la naturaleza. A mediados de esa misma década se iniciaron los estudios que abordan el problema de la conservación de la biodiversidad con una perspectiva genética, los cuales prevalecen hasta nuestros días. En 1986 Kary Mullis presentó la técnica de la reacción en cadena de la polimerasa (pcr). En 1990 Lap-Chee Tsui, Michael Collins y John Riordan encontraron el gen cuyas mutaciones alélicas son responsables directas de la fibrosis quística. Ese mismo año Watson y muchos otros lanzaron el proyecto del genoma humano, cuyo objetivo es mapear completamente el genoma de Homo sapiens y, finalmente, determinar la secuencia completa de bases nucleotídicas en esta especie que creó (por llamarle de algún modo) la ciencia genética.
Referencias bibliográficas
 
Berry, R. J. 1982. Neo-Darwinism. Londres, E. Arnold.
Bowler, P. J. 1983. The Eclipse of Darwinism: Anti-Darwinian Evolution Theories in the Decades Around 1900. Baltimore, Universidad John Hopkins.
Bowler, P. J. 1992. The Fontana History of Environmental Sciencies. Fontana Press.
Bowler, P. J. 1989. The Mendelian Revolution: The Emergence of the Hereditarian Concepts in Modern Science and Society. Londres, Athione.
Dunn, L. C. 1965. A Short History of Genetics. Nueva York, McGraw-Hill.
Gardner, E. J. 1972. History of Biology. 3a. ed. Nueva York, Macmillan.
Harris, L. 1981. Evolución. Génesis y revelaciones. Barcelona, Hermann Blume.
Mayr, E. 1982. The Growth of Biological Thought. Diversity, Evolution and Inheritance. Cambridge, Universidad de Harvard.
Moore, J. A. 1993. Science as a Way of Knowing. The Foundations of Modern Biology. Cambridge, Universidad de Harvard.
Olby, R. C. 1991. El camino hacia la doble hélice. Madrid, Alianza.
Olby, R. C. 1966. Origins of Mendelism. Londres, Constable.
Portugal, F. H. y J. S. Cohen. 1977. A Century of dna. Cambridge, mit Press.
Provine, W. B. 1971. The Origins of Theoretical Population Genetics. Chicago, Universidad de Chicago.
Stent, G. S. y R. Calendar. 1978. Genetics: An Introductory Narrative. 2a. ed. San Francisco, Freeman.
Stigler, S. M. 1986. The History of Statistics: The Measurement of Uncertainty Before 1900. Cambridge, Universidad de Harvard.
Stuble, H. 1972. History of Genetics. Cambridge, mit Press.
Sturtevant, A. H. 1965. A History of Genetics. Nueva York, Harper and Row.
Watson, J. D. 1968. La doble hélice. Barcelona, Salvat. 1987.
Watson, J. D. y J. Tooze. 1982. The dna Story. San Francisco, Freeman.
Jorge González Astorga
Instituto de Ecología, A. C.
_______________________________________________________________
 

como citar este artículo

González Astorga, Jorge. (2001). Breve cronología de la genética. Ciencias 63, julio-septiembre, 70-77. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
  del tintero
 
     
Copenhague
(fragmentos)
 
 
 
Michael Frayn
conoce más del autor
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
         
 
Año de 1941. Niels Bohr y su esposa Margrethe reciben la visita de Werner Heisenberg.
 
B. ¡Mi querido Heisenberg!
H. ¡Mi querido Bohr!
 
 
B. Pasa, pasa…
 
 
H. ¿Sigues veleando?
 
 
B. ¿Veleando?
 
 
M. ¡Mal comienzo!
 
 
B. No, no he veleado.
 
 
H. ¿La bahía está…?
 
 
B. Minada.
 
 
H. Claro
 
 
M. Supongo que no irá a preguntar si Niels ha ido a esquiar.
 
 
H. ¿Y has podido esquiar algo?
 
 
B. ¿Esquiar? ¿En Dinamarca?
 
 
H. En Noruega. Acostumbrabas ir a Noruega.
 
 
B. Así es.
 
 
H. Pero como Noruega está también… es decir…
 
 
B. ¿También ocupada? Claro, eso podría hacerlo más fácil. De hecho supongo que ahora podríamos vacacionar prácticamente en cualquier lugar de Europa.
 
 
H. Lo siento. Supongo que no lo vi en esos términos.
 
 
B. Quizá estoy un poco hipersensible.
 
 
H. Desde luego que no. Debí haberlo pensado.
 
 
M. Debe estar deseando encontrarse de regreso en la Prince-Albrecht-Strasse.
 
 
H. Supongo que no ves factible volver a Alemania.
 
 
M. El muchacho es un idiota.
 
 
B. Mi querido Heisenberg, debe ser fácil cometer el error de pensar que los ciudadanos de una pequeña nación, de una pequeña nación invadida, cruel e injustificadamente invadida por un vecino más poderoso, no tienen exactamente los mismos sentimientos de orgullo nacional que sus conquistadores, exactamente el mismo amor a su patria.
 
 
M. Niels, habíamos acordado…
 
 
B. …hablar de física, sí.
 
 
M. No de política.
 
 
B. Lo siento.
 
 
H. No, no. Sólo iba a decir que todavía tengo mi viejo chalet de esquí en Bayrischzell. Así que si… en algún momento… por lo que sea…
 
 
B. Te lo agradezco. Voy a pedirle a Margrethe que tenga la amabilidad de coserme una estrella amarilla en mi chamarra de esquiar.
 
 
H. Sí, sí. Que estupidez la mía.
 
 
M. De nuevo el silencio. Esas primeras chispas han desaparecido y las cenizas han vuelto a enfriarse. Y ahora, claro, comienzo a sentir pena por él.
 
 
 
Sentado aquí, solo, en medio de gente que lo odia, totalmente solo frente a nosotros dos. Se ve más joven otra vez, como el muchacho que vino por primera vez en 1924. Tímido y arrogante, ansioso de ser querido. Contento de estar lejos de casa y extrañando a la vez. Sin duda es triste, porque Niels lo quería y al mismo tiempo era como un padre para él.
 
Bohr y Heisenberg salen a caminar.
 
H. Lo que quiero es que escuches atentamente lo que voy a decir a continuación, en vez de salir corriendo por la calle como un loco…
 
 
B. Muy bien. Aquí estoy, caminando muy lenta y pontificalmente. Y escucho atentamente mientras me dices que…
 
 
H. Que las armas nucleares van a requerir un esfuerzo tecnológico enorme.
 
 
B. Es verdad.
 
 
H. Que va a consumir una gran cantidad de recursos.
 
 
B. Gran cantidad de recursos. Sin duda.
 
 
H. Que tarde o temprano los gobiernos van a tener que acudir a los científicos para preguntarles si vale la pena dedicar esos recursos, si hay alguna esperanza de producir las armas a tiempo para ser usadas.
 
 
B. Claro, pero…
 
 
H. Espera. De modo que van a tener que acudir contigo y conmigo. Somos nosotros los que vamos a tener que recomendarles seguir adelante o no hacerlo. En última instancia la decisión estará en nuestras manos, querrámoslo o no.
 
 
B. ¿Y es eso lo que me quieres decir?
 
 
H. Es eso lo que te quiero decir.
B. ¿Es por eso que has venido hasta aquí, pasando por tantas dificultades? ¿Es por eso que has tirado casi veinte años de amistad? ¿Sólo para decirme eso?
 
 
H. Sólo para decirte eso.
 
 
B. ¡Pero, Heisenberg, esto es más misterioso que nunca! ¿Para qué me lo dices? ¿Qué se supone que debo hacer al respecto? ¡El gobierno de una Dinamarca ocupada no va a venir a preguntarme si debemos producir armas nucleares!
 
 
H. ¡No, pero tarde o temprano, si logro mantener el proyecto bajo mi control, el gobierno Alemán va a venir a preguntármelo a mí! ¡Me van a preguntar se debemos o no seguir adelante! ¡Yo voy a tener que decidir qué contestarles!
 
 
B. Entonces tienes una salida fácil para tus dificultades. Simplemente diles la verdad tal y como me la acabas de decir a mí. Diles lo difícil que va a resultar. Y quizá se descorazonen. Quizá pierdan el interés.
 
 
H. ¿Pero Bohr, cuáles serían las consecuencias si logramos fracasar?
 
 
B. ¿Qué puedo yo decirte que tú no sepas?
 
 
H. Hubo un reportaje en un periódico de Estocolmo diciendo que los americanos estaban trabajando en la bomba atómica.
 
 
B. ¡Ah! Ahora lo veo, ahora lo veo. Ahora entiendo todo. ¿Tú crees que yo estoy en contacto con los americanos?
 
 
H. Quizá. Es posible. Si alguien en la Europa ocupada está en contacto con ellos, tendrías que ser tú.
 
 
B. ¿De modo que sí quieres saber acerca del proyecto nuclear aliado?
 
 
H. Sólo quiero saber si existe. Una insinuación. Una pista. Si los aliados están fabricando una bomba, ¿qué estoy eligiendo para mi país? Dijiste que sería fácil imaginar que uno pudiera tener menos amor por su país si es pequeño e indefenso. Sí, pero también sería un error pensar que uno quiere menos a su país porque resulta que está del lado equivocado. Alemania es el país en que nací […]
 
 
B. Pero mi querido Heisenberg, no hay nada que yo pueda decirte. Ignoro si hay un proyecto nuclear aliado.
 
Años después...
 
H. La noche después de Hiroshima Oppenheimer dijo que ése era su único pesar. Que la bomba no haya sido producida a tiempo para usarse sobre Alemania.
 
 
B. Se atormentó después.
 
 
H. Después sí. Nosotros al menos nos atormentamos un poco antes ¿Alguno de ellos se detuvo a pensar, siquiera un instante, en lo que estaban haciendo? ¿Lo hizo Oppenheimer? ¿Lo hicieron Fermi, o Teller, o Szilard? ¿Lo hizo Einstein cuando le escribió a Roosevelt en 1939 instándolo a financiar las investigaciones para la bomba? ¿Lo hiciste tú cuando escapaste de Copenhague dos años después para ir a Los Álamos?
 
 
B. ¡Mi querido Heisenberg, no estábamos haciendo una bomba para Hitler!
 
 
H. Tampoco estaban arrojándola sobre Hitler. La estaban arrojando sobre quien estuviera a la mano. Sobre hombres y mujeres ancianos en la calle, sobre las madres e hijos. Y si la hubieran producido a tiempo hubiera sido sobre mis compatriotas. Mi mujer. Mi hijos. Ésa era la intención ¿o no?
 
 
B. Ésa era la intención […]
 
 
B. Bien sabes por qué los científicos aliados trabajaron en la bomba.
 
 
H. Desde luego. Por miedo.
 
 
B. El mismo miedo que los consumía a ustedes. Porque temíamos que ustedes estuvieran trabajando en lo mismo.
 
 
H. ¡Pero Bohr, tú podías habérselos dicho!
 
 
B. ¿Decirles qué?
 
 
H. ¡Lo que te dije en 1941! ¡Que la decisión está en nuestras manos! ¡En las mías, en las de Oppenheimer! ¡Que si yo puedo decirles la verdad cuando me pregunten, la simple y descorazonante verdad, también él puede!
 
 
B. ¿Esto es lo que quieres de mí? No que te diga lo que los americanos están haciendo, ¿sino que los detenga?
 
 
H. Decirles que juntos podemos detenerlo.
 
 
B. ¡No tenía yo ningún contacto con los americanos!
 
 
H. Pero sí con los británicos.
 
 
B. Sólo más tarde.
 
 
H. La Gestapo interceptó el mensaje que les enviaste sobre nuestra reunión.
 
 
B. ¿Y te lo pasaron a ti?
 
 
H. ¿Por qué no? Comenzaban a confiar en mí. Es lo que me dio la posibilidad de mantener los eventos bajo control.
 
 
B. No es por criticar, Heisenberg, pero si éste es tu plan para venir a Copenhague, es… ¿cómo pudiera decirlo? De lo más interesante.
 
 
H. No es un plan. Es una esperanza. Ni siquiera una esperanza. La hebra microscópica de una posibilidad. Una posibilidad muy remota. ¡Aunque digna de intentarse, Bohr! ¡Sin duda digna de intentarse! ¡Pero ya estás demasiado alterado para entender lo que estoy diciendo!
 
 
M. ¡No, está alterado porque está comenzando a entender! Los alemanes expulsan a la mayoría de sus mejores físicos porque son judíos. Estados Unidos y Gran Bretaña los acogen. Ahora resulta que esto tal vez ofrece una esperanza de salvación. Y entonces tú vienes aullando con Niels, a rogarle que los convenza de que la abandonen […]
 
 
H. Otto Hahn quiere pegarse un tiro, porque fue él quien descubrió la fisión y ve sus manos llenas de sangre. Gerlach, nuestro coordinador con los nazis, quiere morirse porque sus manos están vergonzosamente limpias. Sin embargo ustedes lo hicieron. Ustedes fabricaron la bomba.
 
 
B. Sí.
 
 
H. Y la usaron sobre blancos vivientes.
 
 
M. ¿Estás sugiriendo que Niels hizo algo indebido en Los Álamos?
 
 
H. Claro que no. Bohr jamás ha hecho algo indebido.
 
 
M. La decisión había sido tomada mucho antes de que Niels llegara. La bomba se habría fabricado con o sin Niels.
 
 
B. En todo caso yo jugué una parte muy pequeña.
 
 
H. Oppenheimer dijo que hiciste una gran contribución.
 
 
B. Espiritual quizá. No práctica.
H. Fermi dice que fuiste tú el que diseñó el disparador de la bomba de Nagasaki.
 
 
B. Propuse una idea.
 
 
M. ¿Estás sugiriendo que hay algo que Niels debe explicar o defender?
 
 
H. Nadie espera que Bohr tenga que explicar ni defender nada. Es un hombre profundamente bondadoso.
 
 
B. No es cuestión de bondad. Me fue ahorrado el tener que tomar una decisión.
 
 
H. Sí, y a mí no. De modo que he pasado los últimos treinta años de mi vida explicándome y defendiéndome. Cuando fui a los Estados Unidos en 1949 muchos físicos ni siquiera me daban la mano. Manos que habían fabricado la bomba no querían tocar la mía.
 
 
M. Déjame decirte, si crees que estás aclarándome las cosas, no es así.
 
 
B. Margrethe, entiendo sus sentimientos.
 
 
M. Yo no. ¡Estoy enfadada como tú antes! Es tan fácil hacerte sentir culpable. ¿Por qué habría de transferirte su carga? ¿Qué hace después de venir a consultarte? ¡Regresa a Berlín y les dice a los nazis que puede producir bombas atómicas!
 
 
H. Pero hago énfasis en la dificultad para separar el 235.
 
 
M. Les dices acerca del plutonio. […]
 
 
H. Pero no le digo a Speer que el reactor…
 
 
M. …va a producir plutonio, no, porque temes lo que sucedería si los nazis le dedicaran grandes recursos y tú no les entregaras una bomba. ¡Por favor, no trates de decirnos que eres un héroe de la Resistencia!
 
 
H. Nunca pretendí ser un
héroe.
 
 
M. Tienes habilidad para esquiar tan rápido como para que nadie puede localizarte. Para ocupar más de una posición al mismo tiempo, como una de tus partículas.
 
 
H.  A diferencia de la mayoría de las acciones de los heroes de la Resistencia. ¡Funcionó! Sé lo que piensas. Piensas que debí unirme al complot contra Hitler y que me colgaran como al resto.
 
 
B. Claro que no.
 
 
H. No lo dices, porque hay cosas que no pueden decirse. Pero lo piensas.
 
 
B. No.
 
 
H. ¿Qué hubiera logrado? Y puede que tengas razón. En efecto, tenía miedo de lo que pudiera suceder. Estaba consciente de estar del lado de los ganadores… ¡Tantas explicaciones para todo lo que hice! ¡Muchas de ellas sentadas alrededor de la mesa del almuerzo! En algún lugar en la cabecera está, me parece, la verdadera razón por la cual vine a Copenhague…
 
Traducción
Armando Jinich.
_______________________________________________________________
 

como citar este artículo

Frayn, Michael y (Traducción Jinich, Armando). (2001). Copenhague (fragmentos). Ciencias 63, julio-septiembre, 26-29. [En línea]
  P01 P02  
 
 
     
De moluscos, discontinuidades
y politopías
 
Armando Bartra
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Las compulsivas diásporas rurales, intensificadas en el último cuarto de siglo, no disolvieron la comunidad agraria mexicana pero modificaron dramáticamente su perfil. La congregación cerrada, introspectiva y circunscrita a estrechos ámbitos sociales y geográficos, si alguna vez existió, ya no existe más. Hoy los asentamientos arcaicos son origen y destino de intensas traslaciones poblacionales. Movimientos migratorios estables y prolongados o estacionales en vaivén, que les quitan a los grupos sociales cohesivos y culturalmente diferenciados su proverbial naturaleza endémica, y a través de una suerte de gitanización generalizada les confieren una condición peregrina y transterritorial. De esta manera la comunidad rebasa su índole puramente agraria y rural y los comuneros trascienden su perfil estrechamente campesino, pues con frecuencia los migrantes se asientan en ciudades empleándose en actividades no primarias. A su vez, los poblados natales y sus inmediaciones dejan de ser hábitat único para convertirse en punto de referencia y matriz cultural; en aztlanes mitificados pero revisitables que otorgan retaguardia y consistencia espiritual a la comunidad desperdigada. Porque para los pueblos peregrinos e históricamente cuchileados, conservar o reinventar la identidad es cuestión de vida o muerte.
 
Escribiendo sobre estos temas en un ensayo reciente, titulado “La patria peregrina”, califiqué de topológicas a las comunidades territorialmente distendidas y chiclosas, pues pese a la distorsión que sufre su espacio social conservan una serie de invariantes. Entre otras las de delimitar un adentro y un afuera, mantener la cohesión, elevar la autoestima y conferir sentido de pertenencia e identidad. Además, los dilatados colectivos de la diáspora siguen definiendo su propio espacio y su propio tiempo internos. Hacia adentro las reglas y los relojes que emplean los miembros de una comunidad desperdigada para medir sitios y distancias sociales, procesos de cambio y ciclos históricos, son herencia mudante pero directa del sentido del espacio y del tiempo propios de la comunidad originaria. Y esto es así, por mucho que sus miembros peregrinos o migrados se muevan ahora en otros contextos sociales asumiendo también
y con prestancia sus novedosas coordenadas. Por todo ello me parece que una buena representación de estas plásticas pero consistentes entidades colectivas son los moluscos de Einstein.
 
“Por eso se utilizan cuerpos de referencia no rígidos, que no solamente se mueven en su conjunto de cualquier modo, sino que también sufren durante su movimiento toda clase de cambios de forma… Este cuerpo de referencia no rígido, se podría designar, con cierta razón, como molusco de referencia…”, escribió el célebre físico en un libro de divulgación sobre la teoría de la relatividad. Pero al aplicar metafóricamente estos conceptos a la comunidad peregrina no es mi pretensión identificar la relatividad espacio-temporal de la física con el relativismo cultural de la antropología, traduciendo reglas y relojes por valores, normas, usos y costumbres. Sí me parece útil, en cambio, pensar a la comunidad como un sistema complejo de múltiples dimensiones y desarrollo no lineal, de modo que por lo general el efecto de los éxodos y diásporas no será la disolución, que pronostica la sociología clásica, sino la rearticulación y el fortalecimiento de las diferencias que otorgan identidad.
 
Siguiendo con las analogías, podríamos pensar que de la misma manera como se incrementa la asincronía de los relojes y la desproporción de las reglas, cuanto mayor es la velocidad relativa de un sistema de referencia con respecto a otro, así también una comunidad que se desplaza y transforma aceleradamente tiende a intensificar la especificidad de sus valores y el diferencial de sus usos y costumbres.
 
Hay comunitarismo fuerte y comunitarismo tenue, y paradójicamente las comunidades más movidas con frecuencia son también las más cohesionadas. En contextos sociales abiertos y competitivos se afila el individualismo y la colectividad se debilita. En cambio, en los grupos ancestralmente lacerados la cohesión deviene estrategia de sobrevivencia. Pero cohesión no significa enconchamiento inmovilizador sino apertura y transformación. Una comunidad fuerte no es dura, rígida, cerrada, resistente al cambio (como la concha), sino flexible dinámica, oportunista, mudable (como el molusco). Y muchas de estas mudanzas van en el sentido de aglutinar, actualizando y fortaleciendo la identidad.
 
Un ejemplo paradigmático, el deterioro de la base de sustentación económica de las comunidades tzotzil-tzeltales de Los Altos de Chiapas derivó en una generalizada migración a Las Cañadas y La Selva. Pero la diáspora de los viejos parajes y el entreveramiento étnico resultante en las zonas de colonización no diluyeron la identidad, al contrario, crearon las premisas para renovar los elementos aglutinadores. Surgieron así inéditas convergencias en torno a las lenguas —que enlazan por encima de la diversidad de parajes originarios—, en torno a la común pero arcaica raíz maya, en torno a la compartida condición indígena y, finalmente, en torno al zapatismo contemporáneo; es decir, un indigenismo puesto al día que al cuestionar la marginación de las etnias convoca a todos los excluidos y propone una neototémica identidad planetaria. Posmodernidad de los globalifóbicos pero mundializados rebeldes chiapanecos, que no le impide al molusco de Las Cañadas seguir desquiciando a sus interlocutores más rígidos y hostiles al remitirlos a los usos y costumbres ancestrales y a las cadencias del tiempo indio.
 
Otro ejemplo de un sistema complejo que al acelerar su movimiento acendra su individualidad, es el proceso migratorio cuyo saldo fue la reciente invención de la identidad oaxaqueña. El inesperado fenómeno resultó del atrabancado éxodo finisecular hacia el norte, traslación poblacional que permitió construir en los campos agrícolas del noroeste mexicano y en la proverbial Oaxacalifornia del gabacho una inédita cohesión oaxaqueña transfronteriza. Convergencia inconcebible en la natal Antequera, que empezó aglutinando a trasterrados mixtecos y zapotecos de distintas localidades en torno a su lengua, su dignidad y sus reivindicaciones laborales, y terminó agrupando también a chatinos, triquis, mixes y otros grupos, en una organización que desde 1994 se llama Frente Indígena Oaxaqueño Binacional. No es éste un curioso y exótico muégano multiétnico, sino un protagonista social de tercera generación que, como los agrupamientos oaxaqueños primarios, tiene bases en la entidad de origen: en los valles centrales, la sierra Norte y la Mixteca; aunque igualmente las tiene en Tijuana y San Quintín, del estado norteño de Baja California, donde surgieron desde hace décadas núcleos trasterrados pero nacionales; y también cuenta con asociados en Los Ángeles, San Diego, Fresno y Valle de San Joaquín, en California. Y fue ahí, en Estados Unidos, donde los organismos locales oaxaqueños de autodefensa integrados recientemente recuperaron sus raíces transformándose en agrupamientos de nuevo tipo, en convergencias binacionales de tercer nivel.
 
Pero con los oaxaqueños la metáfora einsteiniana se retuerce en limón, pues el multiterritorial Frente Indígena Oaxaqueño Binacional no puede pensarse como un molusco; más aún no puede pensarse con ninguna variante de la geometría topológica, pues ésta se ocupa de propiedades invariantes a todo tipo de distorsiones menos la ruptura.
 
Comunidades salteadas
 
La plasticidad espacial de la comunidad, que primero nos llevó a representarla como un continuo no euclideano, es decir como un molusco de Einstein, no se circunscribe al estiramiento. En el caso de los oaxaqueños y otros migrantes remotos, el espacio comunal no sólo se extiende, también se desgarra en fragmentos geográficamente separados, que pese a la distancia conservan su unicidad y propiedades básicas. Si insistimos en buscar analogías en las ciencias llamadas duras, nos encontraremos con que la estructura salteada del espacio comunitario reclama modelos sustentados en una geometría no sólo chiclosa sino también discreta. Un marco conceptual que dé razón de las soluciones de continuidad de un sistema social complejo que conserva su unidad pese a estar formado por trozos no colindantes. Pero, como veremos, para encontrar en la física algo parecido a esto necesitamos transitar de la relativística a la cuántica.
 
Un mixteco puede pasar de San Juan Suchitepec, en Oaxaca, a San Quintín, en Baja California, y de ahí al Valle de San Joaquín, en California, sin dejar de estar en su comunidad. Más aún, puede hacerlo sin salir de ella, pues el que transita entre un nivel comunitario y otro no es en rigor un comunero, sino un simple viajante (tan es así que de extraviarse en el camino y no encontrar una masa crítica de mixtecos a la cual integrarse, no podría recuperar su condición comunitaria). La colectividad multiterritorial se nos presenta, entonces, como un espacio salteado formado por lugares sociales continuos separados por extensiones discretas; los comuneros transitan habitualmente de uno a otro nivel comunitario, pero como tales nunca se encuentran a medio camino. Descripción mañosa, con la que intencionalmente busco subrayar las analogías con la naturaleza cuántica del modelo atómico propuesto por Niels Bohr.
 
En este paralelismo quizá forzado, el comunero multiespacial, que en adelante llamaré polibio (término empleado por el sociólogo estadounidense Michael Kearney que remite a la capacidad de los anfibios para transitar de un medio a otro cambiando de forma pero no de condición), se nos presenta como un sujeto individual, es decir elemental, definido por su pertenencia a un campo social comunitario, ámbito donde puede ocupar diferentes niveles, o segmentos, así como transitar de uno a otro a través de territorios no comunitarios en los que pierde provisionalmente su condición de polibio.
 
La comunidad y el comunero, como el campo y la partícula en la física atómica, son dos aspectos de la realidad social, contradictorios pero inseparables. El polibio se define tanto por su individualidad como por su pertenencia; pero mientras que la individualidad remite a su condición discreta o corpuscular, la pertenencia refiere a la continuidad, que se antoja ondulatoria, del campo comunitario. Así como las ondas y las partículas, los comuneros y las comunidades son manifestaciones contrapuestas pero complementarias de una misma realidad compleja.
 
Siguiendo la analogía y parafraseando a Werner Heisenberg, podríamos decir que individualidad y pertenencia son aspectos imposibles de fijar con precisión al mismo tiempo, pues si atendemos a lo comunitario se diluyen los atributos personales, mientras que si nos enfocamos sobre lo individual se difuminan los comunitarios. Pero se trata de una incertidumbre virtuosa, pues llama la atención sobre una tensión objetiva e insoslayable, obligándonos a abordar en su integridad y articulación tanto el contexto colectivo como las particularidades individuales de los fenómenos comunitarios. En este doble abordaje, el aspecto comunitario remite principalmente a los elementos de continuidad y homogeneidad, mientras que al individual corresponde en mayor medida la discontinuidad y la diferencia.
 
Otras analogías sociológicas del Principio de incertidumbre son más obvias y manoseadas: tanto en la microfísica como en la antropología es sabido que la acción de indagar altera lo investigado, sea esto la trayectoria de un fotón o la autoestima de una familia campesina.
 
La ubicuidad de los polibios
 
Cuando la analogía parecía exhausta, una frase de Heisenberg y un poema de Porfirio García me remiten de nuevo a la transdisciplinaria posibilidad de socializar el Principio de incertidumbre. Escribe el físico: “En el nivel atómico debemos renunciar a la idea de que la trayectoria de un objeto es una línea matemática…” Dice el poeta: “Mi madre era joven cuando bajó a este páramo / Tenía los ojos cansados de caminar promesas / Tenía el defecto de estar en todas partes”.
 
¿Qué quiere decir el oaxaqueño nacido en Ciudad Nezahualcóyotl cuando en un homenaje poético a las migrantes madres fundadoras de ese no lugar proclama que la suya tenía “el defecto de estar en todas partes”? ¿Tendrá algo que ver con la hipótesis de Heisenberg, que Stephen W. Hawking formula con palabras más cercanas a las del poeta necense: “una partícula no tiene siempre una historia única… En lugar de eso se supone que sigue todos los caminos posibles”? Dicho de otra manera: ¿el politopismo de las partículas elementales puede ponerse en relación, así sea alegórica, con las múltiples trayectorias y ubicaciones de los hombres y mujeres de la diáspora?
 
Posiblemente sí, porque sucede que en las comunidades desperdigadas una misma persona puede ser jefe de cuadrilla en los campos agrícolas del noroeste, mientras que a miles de kilómetros de distancia, en su comunidad oaxaqueña de origen, ocupa el cargo de mayordomo encargado de organizar la fiesta del santo. En las comunidades fuertes el que se va a La Villa no pierde su silla. La migración permanente o en vaivén no significa que el comunero abandone su lugar en la colectividad natal, y de la misma manera el sistemático regreso de los migrados estables a sus pueblos de origen no supone perder su sitio en la comunidad trasterrada. Y es que, por definición, el polibio ocupa simultáneamente diversos lugares sociales en el colectivo disperso, aun cuando no ejerza al mismo tiempo sus diferentes funciones.
 
Y esta multiespacialidad es una forma de sobreponerse al desgarramiento migratorio. “Resistir pues, para no desbaratarse en el éxodo, y para aprender, poco a poco, como se vive al mismo tiempo en Texcatepec y en Nueva York”. El revelador al mismo tiempo lo emplea el Fleis Zepeda al relatar los avatares de sus amigos ñuhú de Amaxac avecindados en el Bronx.
La politopía de los polibios los hace socialmente ubicuos, permitiéndoles ocupar simultáneamente lugares comunitarios geográficamente separados. Pero además, su multiespacialidad respecto del sistema colectivo transterritorial se expresa en una suerte de relativización de la lejanía o indiferencia a la distancia. En las comunidades multiterritoriales no euclidianas se desvanece en cierta medida el sentido del cerca y el lejos, y así como el cronopio y descolocado Julio Cortázar transitaba de la parisina Galerie Vivien al porteño Pasaje Güemes sin atravesar el Atlántico, un yalalteco trasterrado en Frisco celebra la Guelaguetza sin necesidad de cruzar la frontera y el ñuhú Bernardino Femando trota por las banquetas de Melrose aveniu, en Manhatan, mientras su otro yo marcha bajo los cedros blancos de la vereda del cerro del Brujo, en El Pericón.
 
Igual como en la física no hay partículas sin campo, en los sistemas societarios fuertes y cohesivos no existen individuos aislados o libres. Aun cuando los separen grandes extensiones geográficas, pertenencia mata distancia y entre los comuneros siempre priva una suerte de contigüidad moral. Colindancia que renueva y enriquece los imaginarios colectivos, pero no es sólo espiritual y se materializa en constantes flujos de personas, mensajes, imágenes, servicios y dinero. Intercambios favorecidos por el enlace expedito y en ocasiones instantáneo que permiten los nuevos medios de comunicación. La comunidad es tan cohesiva como el átomo o un muégano. Para su fortuna, o su desgracia, no existe el polibio solitario.
 
Si la simultaneidad de la riqueza digitalizada que fluye por la red caracteriza a la mundialización financiera, la contigüidad de las comunidades transterritoriales segmentadas define a la mundialización laboral. Una y otro son formas de abolir el tradicional espacio euclidiano, saltos cuánticos del nuevo capital y del nuevo trabajo, modos aristocráticos o plebeyos de la inédita globalidad.
Armando Bartra
Instituto Maya.
_______________________________________________________________
 

como citar este artículo

Bartra, Armando. (2001). De moluscos, discontinuidades y politopías. Ciencias 63, julio-septiembre, 41-46. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
  de la red
 
     
Entre oreja y oreja
 
 
 
Susana Biro
conoce más del autor
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
         
Queda aún tanto por averiguar acerca del órgano que estás utilizando para leer esto, pero lo que se conoce es fascinante. Algunas de las funciones simples que compartimos con otros animales
—como movimiento voluntario, visión o tacto— se comprenden mejor. Otras, como la memoria o el aprendizaje, son todavía un misterio. En el pasado, los estudios del funcionamiento del cerebro humano se limitaban a hacer observaciones, ya sea de cerebros muertos o del comportamiento de quienes portaban uno vivo. En esa época los casos patológicos, en los cuales el cerebro hubiera sufrido algún daño, eran muy útiles para conocer más acerca de las funciones asociadas a la zona dañada. Desde hace mucho tiempo se hacen experimentos con animales, y más recientemente una amplia experimentación con humanos ha sido posible gracias a la utilización de técnicas no invasivas, como los estímulos eléctricos o químicos y la medición con resonancia magnética.
 
El sitio dana.org es un buen punto de partida; un “todo lo que usted siempre quiso saber” sobre el cerebro. Se trata de la página de una organización filantrópica en la cual se abordan todos los temas relacionados con la mente desde la “adicción” hasta el “Tourrette” (síndrome retratado en la película Niagara, Niagara). Dicha organización publica tres boletines dirigidos al público en general, con noticias y artículos de fondo. Su sección de actividades y recomendaciones para niños es pequeña pero sustanciosa.
 
Actualmente el cerebro se estudia a dos niveles: desde la neurología y desde la psicología. Recurriendo a la analogía tan utilizada para este tema, se estudia el hardware y el software. La obra de Oliver Sacks resulta muy interesante precisamente porque combina ambas formas de acercarse al tema. Sacks es un neurólogo clínico y divulgador de su disciplina. Probablemente se le conozca por su libro El hombre que confundió a su mujer con un sombrero, o por la película Despertares. En libros tan entretenidos como informativos aborda temas como la migraña, el daltonismo o la memoria. El sitio oficial de este escritor, oliversacks.com, contiene descripciones de sus libros y datos sobre las traducciones existentes. Han puesto algunas entrevistas con el autor y un foro de discusión sobre los temas relacionados con su obra. Tal vez lo más interesante de este sitio son los sitios que recomienda. Como siempre, es mejor que nos recomiende alguien que sabe.
 
Mientras funciona, no estamos muy conscientes de esto que llevamos entre oreja y oreja. Es cuando nos falla que nos acordamos de él. La memoria es una de las funciones que, cuando olvidamos, nos hace recordar que tenemos cerebro. Su estudio es una de las ramas más interesantes de la investigación de este órgano. Las preguntas que se hacen actualmente los investigadores sobre la memoria son ¿cómo se almacena?, ¿dónde queda?, ¿cómo recordamos? Y las respuestas se buscan por todos los medios posibles.
 
El sitio del Museo de Ciencias de San Francisco, Exploratorium, tiene una exposición virtual sobre la memoria (exploratorium.edu/memory), la cual fue inaugurada junto con una exposición real en 1998 y, a diferencia de ésta, es permanente. Aborda el tema desde muchos ángulos y con varias técnicas. Por ejemplo, para entender la anatomía de la memoria se nos presenta la disección del cerebro de un borrego. Mediante fotografías y videos se muestran las zonas asociadas, por ejemplo, a memoria de corto y largo plazo. Por otro lado, para ponernos a pensar un poco acerca de cómo funciona nuestra memoria, se incluye una serie de experiencias en torno del aspecto visual de recordar.
 
Se han puesto en línea todas las conferencias sobre el tema que se dieron durante la exposición real. Se trata de charlas de divulgación que estuvieron a cargo de expertos en las diferentes disciplinas que estudian la memoria. Escuchar, por ejemplo, acerca del efecto que tiene el estrés sobre esta función es prácticamente como haber asistido a la conferencia. La otra forma de saber más acerca de este vasto y aún poco conocido tema es siguiendo sus excelentes ligas a otros sitios.
 
En un tono de cavilación sobre el tema, hay una sección sobre arte y memoria. Ahí aparece, entre otros, un reportaje sobre Franco Magnani, un artista italiano con una extraordinaria memoria visual exclusivamente acerca de su pueblo natal. Por cierto, la historia de este pintor, y una explicación del caso, aparece en el libro de Sacks Un antropólogo en Marte.
 
Uno de los relatos en el libro de El hombre… de Sacks ilustra muy bien la complejidad del asunto de la memoria. Se llama “Reminiscencia” y trata sobre una mujer de más de noventa años que repentinamente empieza a escuchar música en su cabeza. Por un tiempo oye baladas de la Irlanda de su infancia continuamente. Luego estos eventos se vuelven más esporádicos y finalmente desaparecen. Observando con un electroencefalograma, se encuentra que tiene una pequeña zona del lóbulo temporal infartada y que cuando escucha la música le dan leves ataques de apoplejía. Cuando el doctor Sacks le ofrece administrar cierta medicina para reducir los ataques, ella no acepta pues disfruta evocar su infancia hace tanto tiempo olvidada. En este caso se combinan la parte claramente fisiológica —daño en una parte del cerebro— y la psicológica —la infancia recobrada. La relación es compleja y comprenderla requiere conocimiento y sensibilidad en ambas áreas, como muestra Sacks.
 
Probablemente queda más por descubrir de lo que ya se sabe acerca del cerebro.
Algunos expertos opinan que las dos vías por las cuales se está estudiando van a converger, y que se podrá explicar todo con la neurofisiología. Lo que es seguro es que éste es un tema del cual valdrá la pena estar pendientes.
 
Susana Biro
Dirección General de Divulgación de la Ciencia,
Universidad Nacional Autónoma de México
_______________________________________________________________
 

como citar este artículo

Biro, Susana. (2001). Entre oreja y oreja. Ciencias 63, julio-septiembre, 39-40. [En línea]
  P01 P02  
 
 
     
Espacio, tiempo y realidad.
De la física cuántica a la metafísica kantiana
 
 
Shahen Hacyan
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
La Crítica de la razón pura de Kant empieza con la frase: “No hay duda de que todo nuestro conocimiento comienza con la experiencia”. Pero unos renglones más abajo, su autor precisa: “Si bien todo nuestro conocimiento comienza con la experiencia, de ningún modo se infiere que todo se origine de la experiencia. Por el contrario, es muy posible que nuestro conocimiento empírico sea una combinación de aquello que recibimos a través de nuestros sentidos, y aquello que la capacidad de cognición proporciona por sí misma”. Dicho de un modo más cercano a nuestra experiencia moderna, el cerebro tiene que venir con algún programa “de fábrica” que nos permita procesar los estímulos captados por los sentidos; un programa con el cual podamos ordenar la experiencia sensorial y darle coherencia a nuestras percepciones. Si no tuviéramos ese programa, sólo percibiríamos una sucesión interminable y abigarrada de estímulos del mundo exterior.
 
Kant postuló la existencia de cosas inaccesibles a los sentidos, a las que llamó cosas-en-sí, que forman parte de una realidad que existe independientemente de la conciencia. Las cosas-en-sí no son directamente perceptibles, pero producen sensaciones en nuestra mente, con las cuales ésta reconstruye la realidad. La tesis de Kant es que el espacio y el tiempo no se encuentran en el mundo de las cosas-en-sí, sino que forman parte de nuestro aparato de cognición. El espacio y el tiempo son formas de percepción. El espacio nos permite la intuición del mundo exterior, mientras que el tiempo nos permite ordenar el mundo interior de nuestros pensamientos.
Si Kant tenía razón es algo que todavía está sujeto a discusión. Por ahora, sólo podemos decir que su concepción del mundo no está en contradicción con la teoría de la relatividad y la mecánica cuántica. Estas dos teorías fundamentales de la física moderna, que, desde perspectivas distintas, cambiaron radicalmente nuestras ideas sobre el espacio, el tiempo y la causalidad, parecen confirmar la tesis de Kant hasta cierto punto.
 
Tiempo
 
Después de que Newton postulara la existencia de un tiempo absoluto, los físicos no se preocuparon demasiado por el concepto del tiempo. Sin embargo, era evidente que las ecuaciones de Newton, que describen la evolución dinámica de un sistema físico, no cambian su forma si se invierte en ellas el sentido del tiempo. Los planetas del Sistema Solar podrían girar en un sentido o en otro, sin que un observador lejano que filmara el curso de los astros pudiese determinar si está observando la película proyectada al derecho o al revés.
 
El asunto empezó a preocupar a los físicos en el siglo xix cuando surgió la termodinámica, inicialmente para describir el funcionamiento de las máquinas de vapor. Un concepto fundamental de la termodinámica es la entropía, que es, en cierta forma, una medida de la energía que ya no se puede aprovechar (por ejemplo, el calentamiento de una máquina por la fricción de sus partes es, en cierta forma, energía desperdiciada). La segunda ley de la termodinámica postula que la entropía debe aumentar, o permanecer al menos constante, a medida que transcurre el tiempo. Ésta es la única ley de la física clásica en la que aparece una distinción entre pasado y futuro, pero es una ley empírica. Ni las ecuaciones de la mecánica, ni ninguna ley fundamental de la física implican que exista una dirección del tiempo; pasado y futuro son sólo conceptos relativos. Y sin embargo, la experiencia nos enseña todo lo contrario…
 
Mucho físicos del siglo xix trataron de demostrar la segunda ley de la termodinámica a partir de principios fundamentales, pero Ludwig Boltzmann es el único a quien se le puede adjudicar un éxito parcial. Boltzmann creía firmemente en la existencia de las moléculas y desarrolló lo que se conoce actualmente como la teoría cinética, rama de la física que estudia el comportamiento estadístico de sistemas compuestos de un número muy grande de partículas en interacción. Las moléculas se mueven y chocan unas con otras constantemente, intercambiando energía entre ellas. Boltzmann mostró que la segunda ley se puede demostrar a partir de este movimiento azaroso y de principios estadísticos: el tiempo transcurre en un sentido, del pasado al futuro, porque es inmensamente más probable que suceda así. Si no sucede al revés, no es porque sea imposible, sino porque es inmensamente improbable.
 
Tomemos el ejemplo de un vaso de agua cuyo contenido se derrama en el suelo. Éste es un proceso muy probable y ocurre comúnmente. Pero a nivel microscópico el charco en el suelo está formado de billones de billones de moléculas que se mueven azarosamente. En principio, podría suceder que estas moléculas, por pura coincidencia, coordinaran sus movimientos espontáneamente de tal suerte que brincaran de regreso al vaso. Este proceso es muy improbable, por lo que nunca lo observamos. Es tan improbable como ganar la lotería en un sorteo en el que el número de billetes se escribe con varios trillones de dígitos (en comparación, el número de átomos en el Universo visible no necesita más de ochenta dígitos para escribirse).
En cambio, para una molécula sola, la probabilidad de que “caiga” desde una altura de un kilómetro es casi la misma de que regrese espontáneamente a esa altura, debido al choque con otras moléculas. ¡Gracias a que la segunda ley de la termodinámica no se aplica a moléculas, existe la atmósfera que respiramos!
 
Así estaba la situación cuando, en 1905, Albert Einstein presentó la teoría de la relatividad. En esta teoría no existe un tiempo absoluto, sino lapsos que dependen de cada observador. Einstein mostró que existe una conexión básica entre espacio y tiempo, y que un intervalo de tiempo o una sección de espacio pueden variar según el observador, de modo tal que la duración de los procesos depende del sistema de referencia desde el cual se observan. Por ejemplo, el tiempo transcurrido en una nave espacial que se mueve (con respecto a la Tierra) a una velocidad muy cercana a la de la luz es sustancialmente menor al tiempo medido por los que se quedan en la Tierra: los viajeros pueden regresar y encontrarse a sus hijos o nietos más viejos que ellos mismos. Este efecto se ha comprobado perfectamente para las partículas subatómicas generadas con velocidades muy grandes (el tiempo del viajero se contrae con respecto al tiempo del observador fijo, por un factor ÷1–(v/c)2, donde v es la velocidad del viajero).
 
A pesar de lo espectacular que es la relatividad del tiempo predicha por la relatividad de Einstein, esta teoría no explica el fluir del tiempo, como tampoco lo hace la física newtoniana. Por eso, quizás, en ese aspecto es más fundamental la teoría de Boltzmann, con su énfasis en la manifestación estadística de los procesos microscópicos.
 
El punto esencial es que para una partícula del mundo atómico no existe distinción entre pasado o futuro. Este hecho se manifiesta en una forma muy espectacular si tomamos en cuenta a las antipartículas. En el mundo de las partículas subatómicas existe una simetría tal que a cada partícula le corresponde una antipartícula, con esencialmente las mismas características, excepto la carga eléctrica, que es de signo contrario; por ejemplo, al electrón le corresponde, como antipartícula, el positrón, que es idéntico al electrón excepto por su carga positiva. Pero la simetría es completa sólo si se incluye el espacio y el tiempo. Más precisamente, se puede demostrar rigurosamente, en el marco de la teoría cuántica de las partículas elementales, que las leyes de la física permanecen inalteradas si se invierten el espacio y el sentido del tiempo, y se intercambian simultáneamente partículas por antipartículas. Dicho de otro modo, una antipartícula se comporta exactamente como una partícula, vista en un espejo, que viaja hacia atrás en el tiempo.
 
En resumen, el tiempo surge sólo cuando percibimos sistemas de billones de billones de átomos (como son todas las cosas que observamos directamente).
 
Nace el cuanto
 
El nacimiento de la mecánica cuántica se puede situar en diciembre de 1900, cuando Max Planck demostró que la radiación de los llamados cuerpos negros (esencialmente un horno cerrado en equilibrio térmico) podía explicarse con la suposición de que la luz se propaga en paquetes de energías. Pero lo que para Planck era sólo un truco matemático resultó tener una profunda implicación. Cinco años después de la publicación de su trabajo, el entonces joven y desconocido Albert Einstein mostró que el efecto fotoeléctrico podía explicarse muy bien suponiendo que la luz está hecha de partículas de energía pura. Por si fuera poco, en 1913, Niels Bohr se basó en el mismo concepto de Planck para formular su teoría del átomo y explicar el espectro de la luz emitida por el hidrógeno; en el modelo de Bohr, los electrones se encuentran sólo en ciertas órbitas alrededor del núcleo atómico, y la emisión de luz ocurre en paquetes de energía cuando un electrón brinca de una órbita a otra.
 
Los físicos estaban perplejos: después de un largo debate, que se remonta a los tiempos de Newton y Huygens, y habiéndose finalmente convencido de que la luz era una onda, ésta resultaba ser más bien una partícula. La solución del problema (o más bien su disolución, como diría Feyerabend) llegó en 1924, cuando Louis de Broglie propuso la hipótesis de que todos los objetos del mundo atómico tienen propiedades tanto de onda como de partícula. La luz no es una excepción a esta regla: la partícula de la luz —que ahora llamamos fotón— también se comporta como onda.
 
Esta dualidad propia de los objetos atómicos condujo a Bohr a plantear su Principio de Complementariedad. Si diseñamos un experimento para ver un electrón en cuanto partícula, éste no manifestará ningún comportamiento de onda; y viceversa. La intervención del observador —o más específicamente: el diseño del experimento— obliga a los objetos atómicos a manifestarse de una u otra forma, incompatible la una con la otra.
 
La complementariedad se manifiesta en el famoso Principio de Incertidumbre de Heisenberg. Se trata de la incertidumbre asociada a la medición simultánea de dos propiedades complementarias de un sistema, como pueden ser la posición y la velocidad, la energía y el tiempo… o las propiedades de onda y partícula. Implica que la precisión de una medición es a costa de la precisión de otra medición.
 
Lo esencial del principio de Heisenberg no es que haya una incertidumbre en una medición —cosa inevitable incluso en la física clásica—, sino que la observación de un sistema atómico, hecha por un sujeto humano, tenga consecuencias sobre su realidad objetiva. Por ejemplo, si decido medir con absoluta precisión la velocidad de un electrón, entonces el electrón puede estar en cualquier lugar del Universo: la velocidad adquiere realidad física, a costa de que la pierda la posición. Y viceversa si prefiero medir la posición con absoluta precisión. El principio de incertidumbre vuelve indefinida la frontera entre sujeto y objeto.
 
Realidad y causalidad
 
En 1930, el formalismo matemático de la mecánica cuántica había sido plenamente establecido, pero las interpretaciones filosóficas eran objeto de acalorados debates. De acuerdo con la interpretación de Copenhague —ciudad natal de Niels Bohr, su principal proponente—, un átomo (o una partícula como el electrón) puede estar en varios estados simultáneamente. Es el acto de observarlo el que lo obliga a pasar a uno de esos estados y manifestarse en él. Esta interpretación pone especial énfasis en la inseparabilidad del sujeto y del objeto, de modo tal que el concepto de realidad objetiva pierde su sentido obvio; pues ¿qué es esa realidad antes de hacer una observación? Es el acto de observar lo que asigna realidad a las cosas.
 
En la mecánica cuántica, un sistema se describe por su función de onda, que es la solución de Schrödinger, la ecuación fundamental de los fenómenos cuánticos (no relativistas). Pero, de acuerdo con la interpretación de Copenhague, la función de onda describe el conjunto de todos los posibles estados de un sistema físico en condiciones específicas. El hecho de hacer una medición equivale a forzar al sistema a manifestarse en uno de esos posibles estados, y el conocimiento total de la función de onda permite calcular sólo la probabilidad de que ese estado sea el resultado de la medición efectuada.
 
La función de onda no permite saber cuándo un sistema pasará de un estado a otro; sólo permite saber cuál es la probabilidad de que lo haga. En los átomos, los electrones pueden efectuar “saltos cuánticos” de una órbita a otra, sin que se pueda, por cuestiones fundamentales, predecir cuándo lo harán. Éste es el indeterminismo que tanto molestaba a Einstein, quien, años después, afirmaría que él no podía creer en un “Dios que juega a los dados”.
 
La indeterminación del estado de un sistema se debe al acto de observar y medir, porque hay un límite a la certidumbre con la que se puede conocer el estado de un sistema físico. Este límite es inherente a todo proceso de medición y está relacionado con el principio de incertidumbre de Heisenberg. Como lo señaló él mismo, mientras no se interfiera con un sistema por medio de la observación, la función de onda de ese sistema físico contiene todas las posibilidades en “potencia”, en el sentido utilizado por Aristóteles. Cuando un observador toma conciencia del resultado de una observación, se produce una “reducción” del conjunto de posibilidades, que equivale a una transición brusca de lo posible a lo real. Por lo tanto, las probabilidades que describe la función de onda son probabilidades que se anticipan a una posible medición. En ese sentido, son “probabilidades en potencia” que no afectan la precisión con la que se puede estudiar el estado de un sistema.
 
En la mecánica clásica, si se conocen la posición y la velocidad iniciales de cualquier sistema físico, las ecuaciones de movimiento permiten calcular, al menos en principio, sus posiciones y velocidades en cualquier otro momento posterior. En este sentido, la mecánica clásica es una teoría causal: a cada causa corresponde un efecto, y este efecto es susceptible de conocerse. La física clásica es una teoría completa, aun si, en la práctica, debamos recurrir a una descripción aproximada cuando se trata de sistemas muy complicados.
 
La mecánica cuántica, de acuerdo con Bohr y Heisenberg, también es una teoría causal y completa, pero la intervención de un observador introduce una incertidumbre inevitable. Sólo se puede calcular la probabilidad de obtener un cierto resultado en una medición. Una vez más, lo anterior conduce a cuestiones filosóficas fundamentales sobre la existencia de la realidad objetiva y la causalidad.
 
¿Existe contradicción entre la causalidad física y la libre voluntad? Ésta es una vieja discusión filosófica. Para Kant, la causalidad de la física newtoniana (la que él pudo conocer en su tiempo) no implica una falta de libertad para las acciones humanas. La solución de esta aparente contradicción, según él, radica en el hecho de que “un objeto puede tomarse en dos sentidos; primero, como un fenómeno, segundo, como una cosa en sí”; pero el principio de causalidad se refiere sólo al fenómeno. Las cosas en sí están fuera del tiempo y no obedecen a leyes causales.
Cabe mencionar que la incertidumbre propia de la mecánica cuántica ha sido retomada por científicos modernos para afirmar la libertad del pensamiento. Así, John Eccles, destacado neurofisiólogo que estudió los procesos de sinapsis en el cerebro humano, argumentó que éstos se rigen por las leyes cuánticas, dejando así margen para la voluntad de la mente humana.
 
El gato de Schrödinger
 
Así pues, un sistema atómico estaría en todos sus posibles estados mientras no sea observado. El asunto no está exento de paradojas, como hizo notar el mismo Schrödinger al proponer la siguiente situación. Supongamos que ponemos un núcleo radiactivo en una caja: si nadie lo observa, el núcleo está en dos estados simultáneamente: ha emitido y no ha emitido radiación. Si ponemos ahora un detector Geiger que, a su vez, acciona un mecanismo que destapa una botella con gas venenoso, y colocamos un gato en la caja, el felino estará en dos estados: vivo o muerto.
 
¿Por qué no se manifiesta un gato de Schrödinger en nuestro mundo macroscópico? La situación se aclaró sólo en años recientes: la respuesta debe buscarse en un fenómeno conocido como “decoherencia cuántica”. Cuando un sistema está en interacción con un aparato macroscópico de medición o, en general, con su entorno, la función de onda pierde la coherencia entre sus diversas partes y se transforma rápidamente en una suma estadística; por ejemplo: tal probabilidad de que el gato esté vivo o de que esté muerto.
 
En el mundo de los átomos, en cambio, la decoherencia es muy lenta en comparación con los tiempos característicos de los procesos atómicos y, en consecuencia, se puede tener superposiciones simultáneas de diversos estados. En 1997, un equipo de físicos logró construir un estado como el del gato de Schrödinger, pero utilizando un átomo en lugar de un felino; el mismo átomo apareció en dos posiciones simultáneamente, separadas por una distancia de ochenta nanómetros, mucho mayor que el tamaño de un átomo. El experimento se ha repetido también para estados de fotones, siendo posible incluso rastrear la decoherencia, y más recientemente con estados de corrientes en superconductores.
 
Un concepto básico de la mecánica cuántica, como lo es el principio de superposición, podría conducir a posibles aplicaciones tecnológicas. El tamaño de los circuitos electrónicos de las computadoras ha ido disminuyendo con los años y, de seguir esta tendencia, es posible que en unas cuantas décadas los mismos átomos se puedan utilizar como componentes. Las nuevas computadoras se regirían entonces por las leyes de la mecánica cuántica, con la posibilidad de hacer cálculos en paralelo, en estados superpuestos. Incluso, se conocen ya algunos algoritmos que permitirían efectuar operaciones que quedan fuera del alcance de las computadoras actuales. Las computadoras cuánticas, si llegaran a concretarse, serían los dignos herederos del gato de Schrödinger, ya que funcionarían con base en el mismo principio. Incluso se puede especular que una computadora cuántica podría reproducir más fielmente el comportamiento del cerebro.
 
Espacio
 
La interpretación de Copenhague no fue del agrado de todos los físicos. Entre sus críticos más severos destaca nada menos que Einstein. El creador de la teoría de la relatividad siempre pensó que la mecánica cuántica, cuyos éxitos son innegables, era una etapa previa a una teoría del mundo más profunda, que habría de surgir en el futuro y que le daría lugar a una concepción de la realidad más acorde con nuestras ideas intuitivas.
 
Einstein, junto con sus colegas Podolsky y Rosen, ideó un experimento mental en el que dos partículas atómicas están inicialmente en interacción y, en algún momento, se separan. De acuerdo con la mecánica cuántica, si uno mide la posición de una de las partículas puede deducir la posición de la otra y asignarle, así, realidad física a las posiciones en el espacio tanto de una como de la otra partícula. Del mismo modo, midiendo la velocidad de una, puede deducirse la velocidad de la otra, y así asignarle realidad física a las velocidades de las dos. Lo paradójico del asunto es que la separación entre las dos partículas es totalmente arbitraria, a pesar de lo cual, la medición de una partícula determina la realidad física también de la otra. La mecánica cuántica implica entonces la existencia de una “acción fantasmal”, declaró Einstein algunos años más tarde.
 
El meollo del asunto consiste en que dos o más partículas atómicas pueden, en general, estar en lo que se llama un “estado enredado”, lo cual no tiene equivalente en el mundo macroscópico. En tal estado, la distancia espacial entre dos partículas no juega ningún papel; el hecho de hacer una medición en una influye instantáneamente en la otra, aun si las dos se encuentran en extremos opuestos de nuestra galaxia. Tal “comunicación” instantánea viola uno de los principios fundamentales de la teoría de la relatividad: nada puede viajar más rápido que la luz. Pero tal parece que el espacio no tiene existencia en el mundo cuántico.
 
El asunto se habría quedado en el reino de los experimentos mentales si no fuera porque, en 1965, John Bell encontró una manera cuantitativa de comprobar si efectivamente existe la acción fantasmal. Si dos fotones son emitidos por un átomo en direcciones opuestas, se puede medir la probabilidad de que cada fotón tenga una cierta polarización. La mecánica cuántica predice que, para dos fotones en estado enredado, la probabilidad de medir un cierto ángulo de polarización en un fotón depende de lo que un observador lejano decida medir en el otro fotón. Las interacciones cuánticas se producen como si hubiera una transmisión instantánea de información. Esto parece contradecir la teoría de la relatividad, pero hay que recordar que las partículas no tienen realidad física antes de ser detectadas; sólo después de realizar las mediciones y comparar los datos es posible deducir que una partícula “supo” instantáneamente lo que le sucedió a su compañera lejana. Bell mostró que es posible cuantificar la correlación entre los fotones, de tal modo que es posible distinguir tajantemente entre la predicción de la mecánica cuántica y cualquier otra que no implique la existencia de la acción fantasmal.
 
En 1982 fue realizado por primera vez, en un laboratorio francés, un experimento con parejas de fotones emitidos en direcciones opuestas. Al medir las correlaciones entre los ángulos de polarización de los fotones se encontró un resultado que, de acuerdo con la predicción de Bell, confirmaba la interpretación de Copenhague. La existencia de la acción fantasmal quedó así confirmada. Por si quedaban dudas, el mismo tipo de experimento se repitió en 1997, en Ginebra, enviando los pares de fotones por medio de fibras ópticas, a dos regiones separadas diez kilómetros: una vez más, los resultados confirmaron la predicción de la física cuántica.
 
Así pues, en el mundo de los átomos donde rigen las leyes de la física cuántica suceden cosas muy extrañas que ponen en entredicho los mismos conceptos de espacio y tiempo. El espacio pierde su sentido habitual y se manifiesta por la intervención del sujeto que observa. Los experimentos en las últimas dos décadas han establecido plenamente la existencia de una interacción que no respeta ninguna separación espacial.
 
Para que quede claro que la filosofía tiene aplicaciones tecnológicas, señalaremos que el tipo de correlación propuesto por Einstein y colaboradores puede utilizarse hasta cierto punto para transmitir información de un lugar a otro. Esta aplicación de la física cuántica ya se ha vuelto realidad. El método consiste en transportar por medios convencionales una parte de la información (por ejemplo, la mitad de los “bits” necesarios para reconstruir una imagen o un texto) y el resto por interacción cuántica.
 
Siguiendo con esta idea, el año 2000 empezó con el anuncio espectacular de una aplicación más de la “acción fantasmal”: la criptografía cuántica. Tres equipos de científicos lograron desarrollar, en forma independiente, las técnicas para crear claves por medio de transmisiones cuánticas. En este esquema se envían, por fibras ópticas, pares de fotones en estados enredados a dos receptores distintos; éstos miden las polarizaciones de los fotones variando el ángulo de sus respectivos polarizadores en forma aleatoria; después, se comunican por medios tradicionales (y públicos) sus ángulos de polarización y una parte de sus mediciones; la otra parte de sus mediciones, la que no revelan, les sirve para generar un número clave.
 
La idea esencial es que el número clave, generado en dos lugares distintos, sólo puede ser reconstruido por sus receptores y sólo ellos lo conocen. Por lo tanto, lo pueden utilizar para codificar y descodificar los mensajes que quieran intercambiarse. El método tiene la gran ventaja de ser totalmente a prueba de espías, ya que la información enviada por los canales públicos para construir la clave es incompleta y tiene que combinarse forzosamente con los fotones enredados. Si algún intruso intercepta esos fotones, les asigna realidad física antes de que lleguen a sus destinatarios legítimos y revela, de esa forma, su fechoría.
 
Gödel, Einstein, Kant
 
Kurt Gödel es bien conocido por un famoso teorema. El teorema de Gödel muestra la imposibilidad de construir un sistema lógico libre de contradicciones, en el que cualquier proposición pueda probarse o refutarse.
 
Los trabajos de Gödel sobre lógica matemática se remontan a los años treintas, cuando él trabajaba en la Universidad de Viena. Al empezar la Segunda Guerra Mundial, Gödel huyó de Austria y llegó a Estados Unidos, donde se estableció en la Universidad de Princeton. Allí conoció a Albert Einstein, otro ilustre refugiado político, y los dos científicos desarrollaron una estrecha amistad que habría de perdurar hasta la muerte del gran físico en 1955.
 
Seguramente influenciado por su amigo Einstein, Gödel empezó a interesarse en la teoría de la relatividad general durante su estancia en Princeton. Esta teoría postula que la gravitación se debe a la curvatura del espacio-tiempo, espacio de cuatro dimensiones que posee una geometría no euclidiana; la distribución de la materia en el Universo determina su geometría. Como una de las primeras aplicaciones de su teoría, Einstein había propuesto, años atrás, un modelo de universo en el que el espacio se cierra sobre sí mismo, al igual que la superficie de una esfera, de tal modo que si una nave espacial viaja siempre en la misma dirección, daría la vuelta al universo y regresaría a su punto de partida.
 
En 1947, Gödel publicó un trabajo sobre relatividad general que, hasta la fecha, sigue despertando interés por sus extrañas implicaciones. Se trata de una solución de las ecuaciones de Einstein que representa un universo en rotación. Lo curioso es que, en el universo de Gödel, es posible dar la vuelta y regresar no sólo al mismo punto en el espacio —tal como en el universo de Einstein—, sino también al mismo instante en el tiempo. En otras palabras, en el universo de Gödel existen trayectorias de eterno retorno, sin distinción entre pasado y futuro.
 
La conclusión principal de Gödel no es tanto que se pueda construir una máquina del tiempo, ya que, para entrar en un ciclo eterno, una nave espacial tendría que moverse a una velocidad cercana a la de la luz y recorrer una distancia comparable al radio del Universo. La implicación esencial es que la distinción entre pasado y futuro no está implícita en la teoría de la relatividad, ya que esta teoría no excluye el eterno retorno. El sentido del tiempo debe buscarse en algún otro principio fundamental.
 
Con motivo del septuagésimo aniversario de Einstein, Gödel escribió un ensayo filosófico en el que, con base en la teoría de la relatividad, analiza la idea de Kant de que el tiempo no es más que una forma de percepción. Gödel hace notar que la teoría de Einstein elimina la noción de un tiempo absoluto y el concepto de simultaneidad, lo cual, para Gödel, es una evidencia de que el tiempo no tiene una realidad objetiva. Incluso, esta teoría ni siquiera excluye la posibilidad de un tiempo circular, como muestra la existencia de la solución que él encontró. Así, concluye: “Tenemos una prueba inequívoca para el punto de vista de aquellos filósofos como Parménides, Kant, y los idealistas modernos, que niegan la objetividad del cambio y consideran a éste una ilusión o una apariencia producto de nuestro modo especial de percepción”.
 
En su respuesta al planteamiento de su amigo, Einstein reconoce la seriedad del problema. El hecho de que el futuro no pueda influir causalmente sobre el pasado está relacionado con la ley del aumento de la entropía, pero, dice Einstein, eso sólo se aplica a dos sucesos suficientemente cercanos. Decir que un suceso a antecede un suceso b tiene sentido físico gracias a esta ley, pero no es evidente, reconoce Einstein, que el orden causal siga teniendo sentido si a y b están muy separados entre sí en el espacio, como sucede en el universo de Gödel.
 
Gödel dejó después de su muerte varios manuscritos entre los cuales se cuentan varias versiones previas del ensayo mencionado. En esos manuscritos presenta una concepción más detallada de su posición con respecto a la filosofía de Kant, que, por alguna razón, no se decidió a hacer pública en su momento. Gödel manifiesta estar de acuerdo parcialmente con Kant: admite su concepción del tiempo como una forma de percepción, pero duda que lo mismo se pueda aplicar al espacio. Sin embargo, hay que recordar que Gödel escribió en una época en la que todavía no se había establecido plenamente la existencia de la acción fantasmal, que conduce a replantear el concepto de espacio, como mencionamos más arriba.
 
Empero, Gödel señala claramente su posición personal sobre la existencia de las cosas-en-sí, cuyas similitudes con las cosas del mundo cuántico no se le escapan. Los átomos son inaccesibles directamente a nuestros sentidos, y su existencia es ajena al espacio y al tiempo. Al respecto, Gödel considera que el punto de vista de Kant “debe ser modificado si uno quiere establecer acuerdo entre su doctrina y la física moderna; es decir, debe presuponerse que el conocimiento científico es capaz, al menos parcialmente y paso por paso, de ir más allá de las apariencias y aproximarse al mundo de las cosas”.
 
•••
 
“Es sólo desde el punto de vista humano que podemos hablar de espacio, objetos extendidos, etc.”, escribió Kant. La física cuántica no contradice esta afirmación: los objetos del mundo atómico no tienen dimensión o extensión, sólo algunos parámetros específicos como la masa, la carga eléctrica o el espín; son objetos que a veces se comportan como partículas y a veces como onda, dependiendo de cómo el sujeto decide observarlos. Electrones o fotones pueden estar simultáneamente en varios puntos del espacio e influir unos en otros como si el espacio y el tiempo no existieran para ellos; como fenómenos, sólo existen para nosotros, que los percibimos con nuestros sentidos, con el intermedio de aparatos de medición que extienden nuestras posibilidades sensitivas en forma extraordinaria.
 
Kant no podía prever los avances de la ciencia moderna, pero seguramente le habría gustado ver cómo la física cuántica y la teoría de la relatividad lograron penetrar en un mundo cuyos objetos recuerdan tanto a las cosas-en-sí. Un mundo donde tiempo, espacio y causalidad no tienen el carácter que les asignamos comúnmente.
Referencias bibliográficas
 
Aspect, A. et al., 1982. “Experimental Realization of the Einstein-Podolsky-Rosen-Bohm Gedankenexperiment: A New Realization of Bell´s Inequalities”, en Physical Review Letters, 49, 91.
Aspect, A. et al. 1982. “Experimental Test of Bell´s Inequalities Using Time-Varying Analyzers”, en Physical Review Letters, 49, 91. 1804.
Bell, J. 1965. Physics, 1, 195.
Bell, J. 1987. Speakable and Unspeakable in Quantum Mechanics. Cambridge.
Blatter, G. 2000. “Schrödinger´s Cat is Now Fat”, en Nature, 406, 25.
Bohm, D. 1951. Quantum Theory. Prentice Hall.
Bohr, N. Philosophical Writings, vols. i, ii y iii. Ox Bow Press.
Bouwmester, D., A. K. Ekert y A. Zeilinger. 2000. The Physics of Quantum Information.
Brune, M. et al. Observing the Progressive Decoherence of the “Meter” in a Quantum.
Eccles, J. C. 1994. How thw Self Controls its Brain. Springer-Verlag.
Einstein, A., B. Podolsky y N. Rosen. 1935. “Can Quantum Mechanical Description of Reality be Onsidered Complete?”, en Physical Review, 47, 777.
Gödel, K. 1949. “A Remark About the Relationship Between Relativity Theory and Idealistic Philosophy”, en P. Schilpp, ed. Albert Einstein: Philosopher Scientist.
Gödel, K. 1995. “Some Observations About the Relationship Between Theory of Relativity and Kantian Philosophy”, en S. Feferman et al., eds. Kurt Gödel: Collected Works, vol. iii, p. 202.
Heisenberg, W. 1958. Physics and Philosophy. Harper.
Jennewein, T. et al. 2000. “Quantum Cryptography with Entangled Photons”, en Physical Review Letters, 84, 4729.
Kant, E. 1781 y 1787. Crítica de la razón pura.
Kant, E. 1783. Prolegómenos a toda metafísica del porvenir.
“Measurement”, en Physical Review Letters, 77, 4887. 1996.
Monroe, C. et al. 1996. “A Schrödinger Cat Superposition State of an Atom”, en Science, 272, 1131.
Naik, D. S. et al. 2000. “Entangled State Quantum Cryptography: Eavesdropping on the Ekert Protocol”, en Physical Review Letters, 84, 4733.
Tittel, W. et al. 2000. “Quantum Cryptography Using Entangled Photons in Energy-Time Bell States”, en Physical Review Letters, 84, 4737.
Tittel, W. et al. 1998. “Violation of Bell Inequalities by Photons More than 10 km Apart”, en Physical Review Letters, 81, 3563.
Yourgrau, P. 1999. Gödel Meets Einstein: Time Travel in the Gödel Universe. Open Court.
Shahen Hacyan
Instituto de Física,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Hacyan, Shahen. (2001). Espacio, tiempo y realidad. De la física cuántica a la metafísica kantiana. Ciencias 63, julio-septiembre, 15-25. [En línea]
    Regresar al índice artículo siguiente

 

 
 
  P01 P02  
 
 
     
¿Existen buenas razones para clonar seres humanos?
 
Inmaculada de Melo Martín
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Vivimos en una era de avances biotecnológicos. Cada día aparecen, tanto en prestigiosas revistas científicas como en las sensacionalistas, discusiones sobre los aspectos sociales, legales, éticos y científicos de la terapia genética, la fertilización in vitro o los alimentos transgénicos. Por supuesto, estas discusiones también acaparan la atención de muchos especialistas en bioética que relegan asuntos como los relacionados con una justa distribución de los recursos médicos limitados. Últimamente, en especial desde el nacimiento de la oveja Dolly, el tema de clonar seres humanos ocupa el interés de muchos.

 

Debido a que en muchos casos las discusiones sobre la clonación de seres humanos se llevan a cabo ignorando el contexto en el que se desarrolla y establece esta nueva tecnología, los argumentos presentados para defenderla están lejos de ser convincentes. En general, coincidimos con los partidarios de clonar seres humanos en que los argumentos en contra de esta práctica son incapaces de probar que debe prohibirse completamente. Por lo tanto, no discutiré aquí dichos argumentos (se puede encontrar un resumen de los principales argumentos en contra de la clonación de seres humanos, así como una crítica a estos argumentos, en la obra de G. Pence y en varios de los artículos que aparecen en la compilada por Nussbaum y Sunstein). Sin embargo, a menos que asumamos que todo lo que es posible hacer tecnológicamente debe hacerse, el hecho de que no existan buenos razones en contra de la clonación de humanos no es suficiente para proceder con esta tecnología. Se necesitan también argumentos positivos, y éstos, hasta ahora, tampoco son convincentes, veamos por qué.
 
Los problemas de infertilidad
 
Los defensores de la clonación argumentan con frecuencia que esta práctica puede ayudar a parejas que tienen dificultades para tener hijos propios. Por ejemplo, esta nueva tecnología puede asistir a personas que carecen de gametos viables.
 
El número de gente que padece problemas reproductivos varía de manera importante dependiendo de qué definición de infertilidad se utilice. Empleando una de las definiciones más aceptadas —imposibilidad de concebir después de doce meses de intercurso sexual sin protección— la infertilidad afecta a entre 7 y 12% de parejas con mujeres en edad de concebir. Obviamente, cuanto mayor sea el número de parejas que necesitan la clonación como la única posibilidad de tener hijos propios, mayor es también la posibilidad de que esta tecnología sea aceptada.
 
Dada la importancia que la mayoría de las personas conceden al hecho de tener hijos propios, y dados los serios problemas psicológicos que quienes padecen infertilidad pueden sufrir, los intentos por resolver problemas reproductivos parecen admirables. Sin embargo, esta tesis de que la clonación de seres humanos debe ser permitida porque puede ayudar a los infértiles contiene varias presuposiciones problemáticas. En primer lugar, quienes proponen este argumento asumen que si algo resuelve el problema de la infertilidad, entonces debe aceptarse. Segundo, también asumen que la infertilidad es principalmente un problema médico que requiere una solución tecnológica. Evaluemos, pues, estas dos presuposiciones.
 
En un mundo con recursos limitados y donde numerosas enfermedades y disfunciones afectan a muchos seres humanos, debemos preguntarnos qué tiene la infertilidad que atrae tanto la atención de médicos, tecnólogos y profesionales de la bioética. Ciertamente, la dificultad de tener hijos propios es un problema que puede resultar estresante y doloroso. Sin embargo, éste es también el caso de muchas otras enfermedades que no han recibido o no reciben tanta atención. Así, a pesar de que los defensores de clonar seres humanos mantienen que esta práctica debe permitirse porque ayudará a la gente que sufre problemas reproductivos, tales autores se olvidan de ofrecer razones de por qué la solución de la infertilidad es un argumento concluyente a favor de la clonación. Para entender la importancia de este punto debemos prestar atención al contexto en el que se presentan estos argumentos. Si viviésemos en un mundo en el que las mayores causas de estrés y dolor (incluso considerando sólo las producidas por problemas médicos) estuviesen resueltas, podríamos pensar que si aparece una nueva tecnología que puede solucionar problemas reproductivos, entonces debería apoyarse su desarrollo (siempre y cuando los riesgos no superen a los beneficios). Desgraciadamente no vivimos en un mundo así. Si esto es cierto, los argumentos de quienes respaldan la clonación porque puede ayudar a los infértiles son incompletos. Deben ofrecerse también razones por las cuales si algo soluciona la infertilidad, entonces es bueno y debe aceptarse. Hasta que se ofrezcan dichas razones este argumento está lejos de resultar convincente.
 
Respecto de la segunda presuposición, que la infertilidad es principalmente un problema médico que requiere una solución tecnológica, es también cuestionable. En primer lugar, presentar el problema de la infertilidad de esta forma puede perjudicar los intentos por solucionarlo. Así, al enfatizar las soluciones tecnológicas los partidarios de la clonación pueden enmascarar el hecho de que las principales causas de la infertilidad son prevenibles. Determinadas prácticas sexuales, anticonceptivas y médicas, así como contaminantes ambientales y ciertos conservantes alimenticios, constituyen ejemplos de causas prevenibles de la infertilidad. Las enfermedades de transmisión sexual son responsables de 20% de los casos de infertilidad. Cada año miles de mujeres se enfrentan con dificultades reproductivas debido a inflamaciones de la pelvis causadas por éstas. Anticonceptivos hormonales tales como depo-provera y otros como los intrauterinos incrementan también los riesgos de inflamaciones pélvicas y, por lo tanto, de infertilidad. Por otra parte, de acuerdo con algunos profesionales la infertilidad yatrogénica es común. Problemas como las infecciones después del parto pueden desencadenar dificultades a la hora de concebir. También existe evidencia de que algunos contaminantes medioambientales son susceptibles de dañar la capacidad reproductiva de hombres y mujeres. La nutrición inadecuada, los problemas de salud y un acceso limitado a los cuidados médicos básicos pueden igualmente fomentar problemas reproductivos. Por esta razón, la infertilidad es mayor en comunidades pobres. De la misma manera, prácticas sociales como retrasar la edad de concebir parecen aumentar los problemas de infertilidad.
 
Si lo que nos preocupa es la solución de la infertilidad, parece que hay otras formas, posiblemente más efectivas que la clonación, de resolver el problema. Dados los bajos índices de éxito de otras tecnologías reproductivas, como la fertilización in vitro, no hay razones para creer que la clonación de humanos vaya a funcionar mejor (o peor). Así, enfatizar la importancia del desarrollo de la clonación como una solución a la infertilidad puede promover políticas públicas que dediquen fondos principalmente para soluciones tecnológicas en vez de invertir también en medidas preventivas. De esta forma menos gente resultaría beneficiada.
 
Algunos podrían objetar que quienes defienden la clonación como una forma de ayudar a los infértiles también apoyan otras formas de solventar el problema. Sin embargo, lo que resulta significativo es que aunque quienes emplean este argumento se esfuerzan en reflexionar sobre lo terrible que puede resultar la infertilidad, raramente aportan soluciones no tecnológicas como una manera de resolver los problemas reproductivos.
 
Ciertamente, el argumento de que la clonación humana debería desarrollarse y usarse porque puede asistir a quienes padecen infertilidad podría tener más fuerza si la cantidad de gente que se beneficiase de esta tecnología fuese considerable. Sin embargo, y así lo reconocen incluso los defensores de este argumento, no hay razones para creer que el número de personas que la utilicen vaya a ser elevado.
 
En resumen, si existen otros medios de solucionar los problemas reproductivos, y si es improbable que la clonación de humanos vaya a ser utilizado por un número considerable de gente como forma de resolver dichos problemas, entonces es difícil aceptar la fuerza de un argumento que usa la infertilidad como una de las principales razones para defender la clonación.
 
Queremos hacer notar aquí que nuestro análisis de este argumento a favor de la clonación acepta como válida la tesis, normalmente asumida por quienes lo proponen, de que lo que resulta problemático de la infertilidad es la imposibilidad de tener hijos genéticamente relacionados. Obviamente si esta tesis no fuese correcta, la adopción u otras formas de paternidad social podrían ofrecerse como soluciones a los problemas reproductivos. Aunque creemos que esta presuposición es bastante cuestionable reconocemos que evaluarla está fuera del ámbito de este trabajo. En cualquier caso, creemos que de ninguna manera esto disminuye la fuerza de nuestra crítica el hecho de no poner aquí en tela de juicio esta presuposición.
 
Las enfermedades genéticas
 
De acuerdo con algunos autores, el argumento más fuerte a favor de clonar seres humanos es que los padres pueden brindar a sus hijos un maravilloso legado genético. Así, parejas con riesgo de transmitir enfermedades genéticas como la fibrosis quística o la enfermedad de Huntington, pueden decidir crear bebés por medio de la clonación para evitar que padezcan estas dolencias.
 
Quienes justifican la clonación utilizando este argumento han presentado lo que llamaremos aquí la versión fuerte y la moderada. En la primera, la clonación aparece como la solución a la mayoría de nuestras enfermedades mortales. Así, algunos autores han defendido que más del 70% de las muertes causadas por enfermedades del corazón, por cáncer y por accidentes cerebro-vasculares pueden ser debidas a causas genéticas que es posible prevenir. A éstas deben añadirse también las muertes causadas por enfermedades genéticas como Huntington, anemia falciforme, Tay-Sachs o distrofia muscular. Con este panorama es obvio que originar seres humanos por medio de la clonación podría salvar las vidas de un número considerable de personas. Más aún, continúa el argumento, no sólo debe permitirse el uso de la clonación para crear descendientes con el mayor número de cualidades naturales, con los mejores genes y con las mejores posibilidades para disfrutar de una vida larga y saludable, sino que además estamos obligados a utilizar esta tecnología. Esto es así porque sería inmoral elegir condiciones de vida para nuestros descendientes que fuesen menos satisfactorias de lo posible.
 
Este argumento es cuestionable por varias razones. Primero, en estos momentos no existe evidencia científica que pruebe que la mayoría de las muertes debidas a cánceres, accidentes cerebro-vasculares y enfermedades del corazón se deban a causas genéticas prevenibles. Esto, por supuesto, no quiere decir que la genética no cumpla ninguna función en estas enfermedades, sino que carecemos de evidencia que indique que su papel es tan esencial como este argumento lo presenta.
 
Segundo, argumentar que estamos obligados moralmente a crear descendientes con el mayor número de cualidades naturales posibles, los mejores genes y las mejores posibilidades de gozar una vida larga y saludable presupone que los conceptos de “mejores genes” o de “salud” carecen de ambigüedad y no son problemáticos. Sin embargo, como revelan numerosos artículos y monografías que discuten tales conceptos, esta presuposición es claramente cuestionable. Más aún, esta supuesta obligación puede entrar en conflicto con el deseo de tener hijos genéticamente relacionados. Así, y asumiendo que lo que significan los conceptos anteriores está claro para todo el mundo, puede ser el caso de que algunos hijos tendrían mejores vidas si sus padres, en lugar de clonarse ellos mismos, pidiesen ayuda a otros individuos con mejores características genéticas. Esto, por supuesto, podría impedir que algunas parejas tuvieran hijos relacionados genéticamente. Quizás quienes formulan este argumento puedan indicar si esta obligación moral de mejorar los genes de nuestros descendientes prevalece o no sobre el deseo de tener hijos propios.
 
Otros autores que defienden también la clonación con el argumento señalado anteriormente ofrecen en cambio una versión más moderada. Mantienen que la clonación puede ser beneficiosa en aquellos casos en los que la existencia de un gen concreto garantiza la existencia de una enfermedad genética concreta. Esta versión moderada es inmune a las dos críticas que hemos hecho anteriormente contra la versión fuerte. Sin embargo, comparte con ésta el siguiente problema: ambas versiones parecen presuponer que la clonación es la mejor manera de evitar enfermedades transmitidas genéticamente. Si existen otras técnicas que nos pueden ayudar a conseguirlo, quienes apoyan la clonación de seres humanos utilizando este argumento necesitan demostrar no sólo que esta tecnología es buena, sino también que es mejor que otras. En estos momentos existen otros medios que pueden utilizarse para evitar el riesgo de transmisión de enfermedades genéticas particulares. Por ejemplo, las parejas pueden usar óvulos o esperma de donantes que carecen de dichas enfermedades. Esta solución, sin embargo, puede resultar poco atractiva para quienes desean tener hijos relacionados genéticamente. También se pueden utilizar técnicas de diagnóstico de preimplantación con embriones creados por fertilización in vitro. Estas tecnologías son costosas y no tienen índices de éxito muy elevados, pero en estos momentos no hay razones para creer que la clonación resultase más económica o que tuviese más éxito. La terapia genética también puede asistirnos en nuestra lucha contra las enfermedades genéticas, y aunque es cierto que no está muy desarrollada, actualmente no se encuentra en peores condiciones que la clonación de seres humanos.
 
Otro problema con el que se enfrenta la versión moderada del argumento que estamos discutiendo es que no está claro que el usar la clonación para prevenir enfermedades genéticas vaya a ayudar a un número importante de personas. Dada la existencia de otras técnicas y puesto que vivimos en un mundo con recursos médicos limitados, este argumento es incapaz de ofrecer bases convincentes para apoyar la clonación humana.
 
Clonando seres queridos
 
Algunos autores también defienden la clonación argumentando que esta tecnología podría permitir que algunos individuos clonasen a personas que tienen un significado especial para ellos. Por ejemplo, algunas parejas pueden desear clonar a un hijo que acaba de morir. En algunas ocasiones los ejemplos que se ofrecen para apoyar este argumento son verdaderamente imaginativos. Existen, sin embargo, varios problemas al respecto. En primer lugar, aunque dada la oportunidad algunas personas pueden querer efectuar la clonación con este propósito, no hay evidencia de que mucha gente vaya a querer hacerlo así. Puesto que además vivimos en un mundo de recursos limitados donde existen otras necesidades al menos igualmente importantes, parece cuestionable apoyar el desarrollo y uso de una tecnología que será probablemente cara y que no favorecerá a un número muy elevado de gente.
 
Segundo, y más importante, no está claro qué tipo de deseo estamos intentando satisfacer en estos casos. Creemos que existen al menos dos posibilidades. Quizás lo que la gente puede querer es reemplazar a aquellos seres queridos que mueren con una nueva copia de tales personas. Es decir, quizás se busca la repetición de una determinada característica como la fuerza física, la belleza o el interés por la música. O quizás la clonación de un ser querido que muere pueda servir para aceptar la pérdida del original y seguir viviendo.
 
Si los defensores de este argumento quieren satisfacer la primera clase de deseos, entonces éste es cuestionable porque, o se basa en un crudo determinismo genético, o promueve la satisfacción de deseos basados en creencias falsas. La mayoría de quienes abogan por este argumento reconocen, sin embargo, que actualmente no existe evidencia científica para apoyar el determinismo genético. Están de acuerdo en que el clon de un ser querido que ha muerto no será una copia exacta de este último, sino que podría tener características físicas e intereses diferentes. Por tanto, si reconociendo los problemas que tiene el determinismo genético todavía se defiende la práctica de clonar en estos casos, entonces se está promoviendo la satisfacción de deseos basados en creencias falsas.
 
Por otra parte, algunos individuos pueden desear clonar a hijos que mueren como una manera de superar el dolor causado por tal muerte. Entendemos la enormidad del sufrimiento producido por la muerte de un ser querido, especialmente cuando se trata de muertes prematuras, y reconocemos que intentar paliar este dolor es laudable. Sin embargo, no está claro por qué promover la clonación es mejor que fomentar el apoyo de familiares, amigos, o instituciones sociales, o mejor que tener otros hijos.
 
¿Por qué clonar?
 
Si nuestro análisis de los argumentos a favor de la clonación es correcto, y si estamos de acuerdo con que el hecho de que podamos ejecutar algo tecnológicamente no es razón suficiente para hacerlo, entonces carecemos en estos momentos de buenas razones para promover o impulsar la clonación de seres humanos. Obviamente esto no quiere decir que debamos dejar de pensar en los posibles riesgos y beneficios de esta práctica. Lo que resulta problemático no es la reflexión sobre este tema u otros similares, sino el hecho de hacerlo de una manera claramente descontextualizada.
 
Con frecuencia, los profesionales de la bioética tienden a generalizar y simplificar determinados problemas eliminando el contexto en el que se presentan. Así se discute sobre las relaciones entre pacientes y médicos, sobre ingeniería genética o sobre tecnologías de reproducción sin tener en cuenta particularidades como la etnia, el género, la clase económica de las personas implicadas o el contexto en el que se desarrollan tales relaciones o tecnologías. Esta manera de enfocar los problemas puede ser beneficiosa cuando, por ejemplo, intentamos ofrecer principios éticos. Sin embargo, cuando se ignoran estas particularidades se corre el riesgo de desatender el análisis de serios problemas morales y la posibilidad de ofrecer ciertas soluciones. Por ejemplo, si ignoramos el género de las personas como una categoría de análisis puede pasar inadvertido el hecho de que la mayoría de las consultas médicas son solicitadas por mujeres. Descuidar este dato puede impedirnos analizar las relaciones de autoridad ejercidas por los miembros de una profesión, la médica, constituida principalmente por hombres.
 
Esta omisión del contexto está presente también en los análisis sobre la clonación de seres humanos. De esta forma, cuando se leen evaluaciones sobre esta tecnología se tiene la impresión de que vivimos en una sociedad donde nuestros problemas más serios y urgentes son resolver los ruegos de quienes padecen infertilidad, una sociedad donde las enfermedades genéticas parecen ser la principal causa de muertes prematuras prevenibles, y donde se dispone de recursos médicos ilimitados. Probablemente en un mundo con estas características esta clase de debate sobre la clonación tendría sentido. Pero éste no es el mundo en el que vivimos. El nuestro es un mundo superpoblado, en el que miles de niños tienen una desesperada necesidad de buenas familias; un mundo en el que miles de mujeres que tienen la suerte de tener hijos propios carecen de los recursos suficientes para ofrecerles los cuidados médicos básicos o la nutrición necesaria para que sobrevivan. En nuestro mundo la prevención de la mayoría de las muertes prematuras no requiere terapia genética sino acceso a simples vacunas como las de la tuberculosis o el sarampión, a cantidades básicas de alimentos o al desarrollo de estructuras sociales que detengan la violencia domestica e institucional contra los niños y que prevengan accidentes de tráfico, especialmente entre los más jóvenes.
 
Si queremos hacer evaluaciones de la clonación que sean más que discusiones intelectuales, debemos enmarcar tales análisis en el contexto real en el que se puede desarrollar y utilizar esta nueva tecnología. Si así lo hacemos se podrá evidenciar que decidir si la clonación puede usarse legítimamente para evitar el sufrimiento de quienes no pueden tener hijos propios, o ayudar a quienes padecen enfermedades genéticas que no quieren transmitir a sus hijos, o atender las necesidades de quienes desean superar el dolor de la pérdida de un ser querido, no es nuestro principal problema moral o la preocupación más acuciante de nuestras políticas sociales.
 
Queremos subrayar, para terminar, que nuestros argumentos no tratan de defender que esta clase de peticiones deban ser completamente ignoradas. No queremos tampoco propugnar que se acabe con el desarrollo de cualquier tecnología que aparezca hasta que solucionemos problemas más básicos. Ni tampoco intentamos promover la eliminación de discusiones intelectuales estimulantes sobre escenarios improbables que pueden surgir con la aparición de nuevas tecnologías. Los argumentos que hemos presentado aquí pretenden llamar la atención sobre el hecho de que la evaluación de nuevas tecnologías requiere discusiones no sólo sobre sus riesgos y beneficios, es decir, discusiones sobre los medios, sino reflexiones sobre los fines mismos que estas tecnologías parecen promover.
Referencias bibliográficas
 
Comité de Expertos sobre Bioética y Clonación, Instituto de Bioética. 1999. Informe sobre la clonación: en las fronteras de la vida. Aranjuez, Doce Calles.
Ellis, G. B. 1990. "Infertility and the Role of the Federal Government”, en D. M. Bartels, R. Priester, D. E. Vawter y A. L. Caplan, eds., Beyond Baby M. Clifton, Humana Press.
Henifin, M. S. 1993. ”New Reproductive Technologies: Equity and Access to Reproductive Health”, en Journal of Social Issues, 49, 2, pp. 61-74.
Humber, J. M. y R. F. Almeder, eds. 1998. Human Cloning. Totowa, Humana Press.
Jewelewicz, R. y E. E. Wallach. 1994. "Evaluation of the Infertile Couple”, en E. E. Wallach y H. A. Zacur, eds. Reproductive Medicine and Surgery. San Luis Missouri, Mosby.
Kass, L. y J. Wilson. 1998. The Ethics of Cloning. Washington, D. C., American Enterprise Institute.
Kolata, G. 1998. Hello Dolly: el nacimiento del primer clon. Barcelona, Planeta.
Koval, R. y J. A. Scutt. 1988. "Genetic and Reproductive Engineering —All for the Infertile?", en J. A. Scutt, Baby Machine. Reproductive Technology and the Commercialization of Motherhood. Melbourne, McCulloch.
McGee, G., ed. 1998. The Human Cloning Debate. Berkeley, Berkeley Hills Books.
Mueller, B. A. y J. R. Daling. 1989. "The Epidemiology of Infertility”, en M. R. Soules, ed. Controversies in Reproductive Endocrinology and Infertility. Nueva York, Elsevier.
Nussbaum, M. C. y C. R. Sunstein, eds. 2000. Clones y clones: hechos y fantasías acerca de la clonación. Madrid, Cátedra.
Pence, G. 1997. Who’s Afraid of Human Cloning. Lanham, Rowman and Littlefiled.
Pence, G., ed. 1998. Flesh of My Flesh. Lanham, Rowman and Littlefiled.
Robertson, J. 1994. “The Question of Human Cloning”, en Hasting Center Report, 24, pp. 6-14.
Robertson, J. 1998. “Human Cloning and the Challenge of Regulation”, en The New England Journal of Medicine, 339, 2.
Rowland. 1992. Living Laboratories. Bloomington, Universidad de Indiana.
The New York Task Force on Life and the Law. 1998. Assisted Reproductive Technologies: Analysis and Recommendations for Public Policy. Nueva York, The Task Force.
US National Bioethics Advisory Commission. 1997. Cloning Human Beings: Report and Recommendations of the National Bioethics Advisory Commission. Rockville, The Commission.
World Health Organization. 1992. Recent Advances in Medically Assisted Conception. Ginebra, who.
Inmaculada de Melo Martín
Departamento de Filosofía,
St. Mary’s University, Texas.
_______________________________________________________________
 

como citar este artículo

De Melo Martín, Inmaculada. (2001). ¿Existen buenas razones para clonar seres humanos? Ciencias 63, julio-septiembre, 62-69. [En línea]
    Regresar al índice artículo siguiente
Invitación a las gemometrías no euclidianas
 
PortadaB6
Ana Irene Ramírez Galarza y Guillermo Sienra Loera
Las Prensas de Ciencias.
Facultad de Ciencias, unam.
   
HTML ↓ PDF ← Regresar al índice / artículo siguiente →
     
En este libro se cuenta la historia de los descubrimientos que cambiaron la forma del pensamiento en lo que respecta a los conceptos geométricos desarrollados por el ser humano desde la Antigüedad hasta el Renacimiento. Estos descubrimientos tomaron forma en lo que se ha llamado geometrías no euclidianas.
 
Una de las claves iniciales fue el concepto de paralelismo introducido formalmente por el matemático griego Euclides alrededor del siglo iii a. C. en su obra Elementos, uno de los libros más editados de todos los tiempos. Desde el punto de vista del gran geómetra Félix Klein, puede decirse que la geometría euclidiana estudia aquellas propiedades de los cuerpos que no cambian cuando los desplazamos, los rotamos o los reflejamos.
 
La evolución de la geometría fue muy pobre durante los veinte siglos siguientes a la época de Euclides, sobre todo por la falta de conceptos fundamentales tanto de las matemáticas como de los de límite y continuidad, y la falta de una notación adecuada en el álgebra. Pero hubo una contribución importante, no matemática, debida al cambio de filosofía que en todos los órdenes de la vida introdujo el Renacimiento. La preocupación renacentista por obtener un método para lograr una buena representación plana de escenas o cuerpos tridimensionales llevó a los
artistas plásticos a precisar las nociones de un punto de fuga (antecedente de los puntos al infinito en matemáticas) y de línea del horizonte, logrando con ello establecer las reglas del dibujo en perspectiva. Las peripecias que los artistas en su búsqueda de las reglas de la perspectiva y el camino de dichas reglas debieron recorrer hasta transformarse en conceptos matemáticos son parte de esta historia.
 
Los primeros resultados en geometrías no euclidianas fueron obtenidos por dos estudiosos de la lógica, Saccheri y Lambert. La parte dramática de la historia de las geometrías elíptica e hiperbólica fue lograr la declaración de su existencia por los científicos más reconocidos de entonces, pues existía la convicción de que la única geometría era la euclidiana, y parte del discurso de filósofos muy respetados se había interpretado en ese sentido. A la dificultad de entender el planteamiento matemático debió añadirse el miedo a los beocios, seguidores a ultranza de los filósofos mencionados. Una vez extendida la noción de geometría, y habiendo superado el concepto euclidiano del espacio, se planteó su desarrollo a través de los trabajos de Bernhard Riemann, y su unificación a través de las ideas de Klein, quien finalmente define a la geometría como el estudio de los invariantes bajo un grupo de transformaciones.
 
Fragmento de la introducción.
_______________________________________________________________
 

 

como citar este artículo

Ramírez Galarza, Ana Irene y Sienra Loera, Guillermo. (2001). Invitación a las geometrías no euclidianas. Ciencias 63, julio-septiembre, 78. [En línea]
 
← Regresar al índice / artículo siguiente →
  P01 P02  
 
 
     
Necromonas: el olor de la muerte
 
Germán Octavio López Riquelme
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Una vez que yo estaba enterrando a uno de mis egos, se acercó a mí el sepulturero para decirme:
 
—De todos los que vienen aquí a enterrar a sus egos muertos, sólo tú me eres simpático.
—Me halagas mucho —le repliqué—; pero, ¿por qué te inspiro tanta simpatía?
—Porque todos llegan aquí llorando —me contestó el sepulturero—, y se van llorando; sólo tú llegas riendo, y te marchas riendo cada vez.
 
Khalil Gibrán
 
Una sociedad está definida en términos de comunicación. Los individuos componentes de una sociedad son comunicantes entre ellos y son capaces de reconocer a las entidades ajenas no comunicantes. Los beneficios esenciales de la vida en sociedad son proporcionados por la cooperación que trasciende a la reproducción, es decir, que se extiende hacia aspectos no reproductivos, como la consecución del alimento o el cuidado de la cría.
 
La exitosa vida de las sociedades de insectos ha evolucionado a partir de la división del trabajo reproductivo entre individuos reproductivos e individuos estériles, además de la división del trabajo de manutención entre diferentes castas de individuos estériles, todos actuando coordinadamente a través de sistemas de comunicación. Cada individuo, aparte de poseer un amplio repertorio de comportamientos y capacidades de aprendizaje y memoria, es parte de un sistema mayor conocido como superorganismo, cuyo estado como un todo determina las pautas de comportamiento que seguirán los individuos en un sistema retroalimentativo de información quimiotáctil que va desde la sociedad hasta el individuo.
 
Una economía se vuelve fuerte cuando la división del trabajo se encuentra muy marcada, ya que la especialización en las funciones permite a cada individuo y a cada región aprovechar todas las ventajas de sus diferencias particulares en habilidades y/o recursos. La especialización permite alcanzar un volumen de actividad suficiente que posibilita la producción a gran escala, donde todos los factores son aumentados en la misma proporción. A su vez, la especialización conduce a la dependencia mutua entre los subsistemas económicos de producción. Así pues, para una sociedad es más benéfico llevar a cabo diferentes tareas con ensambles de grupos de individuos especializados que con multitudes indiferenciadas.
 
 
La división del trabajo en los insectos que viven en sociedades muy complejas conocidas como eusociedades implica, además del sobrelapamiento de generaciones de adultos, la división del trabajo reproductor entre individuos fértiles conocidos como sexuados (machos y reinas), e individuos estériles conocidos como obreros, los cuales están exentos de la reproducción. En segundo término, está la división del trabajo en tareas no reproductivas, las cuales son realizadas por obreros más o menos especializados. Estos obreros realizan las tareas necesarias para el mantenimiento y crecimiento de la colonia, como forrajeo, cuidado de las crías y defensa contra enemigos. De esta manera, los individuos desarrollarán especializaciones en diferentes tareas, y serán seleccionados no por su eficacia individual en la realización de una tarea particular, sino por su capacidad para actuar coordinadamente en la sociedad, de manera que la función del todo, aunque no perfecta, resulte adaptativa. La principal especialización en la división del trabajo entre obreros se encuentra en las hormigas que realizan actividades exteriores al nido versus las que se dedican a actividades dentro del nido, sin embargo, aun dentro de estas categorías puede presentarse especialización, como por ejemplo recolectoras de polen versus recolectoras de néctar en las abejas sociales. La especialización es tal en estas últimas que existen diferencias, entre las recolectoras de polen y las recolectoras de miel, en áreas del cerebro conocidas como lóbulos antenales, zonas cerebrales dedicadas al procesamiento de señales olfativas provenientes de las antenas.
 
La higiene dentro del nido
 
La extrema división del trabajo ha producido individuos que se dedican a tareas muy especializadas, como la recolección del polen versus la recolección de la miel en abejas, o como las socialmente indispensables conductas higiénicas. Aunque la construcción de nidos encerrados en cavidades contribuyó a la expansión geográfica de los insectos sociales, también implicó la necesidad de incrementar las conductas de limpieza, como la remoción de los cadáveres, con lo que disminuye la posibilidad del surgimiento de enfermedades. Es sabido que el parasitismo y la enfermedad tienen efectos considerables sobre las poblaciones, principalmente sobre la mortalidad y sobre la fecundidad no realizada, por lo que estos factores inciden sobre la densidad de población. También resulta evidente que la transmisión de enfermedades infecciosas (no transportadas por el viento) y parásitos depende del número de contactos entre los individuos de una población, y por lo tanto, de la densidad de ésta. Así, las sociedades de insectos al vivir “enclaustradas” y en grupos densos y en interacciones constantes mantienen altas frecuencias de encuentros interindividuales, por lo que, si existe algún individuo parasitado o infectado, existe una alta probabilidad de dispersión de la enfermedad o del parásito (por ejemplo a través de la trofalaxis o regurgitación del alimento).
 
Los interiores de los nidos de los insectos sociales, y principalmente las cámaras de cría, son meticulosamente mantenidos limpios. Las hormigas, por ejemplo, secretan, de la glándula metapleural, cuya abertura se encuentra en la parte trasera del tórax, sustancias antibióticas, como el ácido fenilacético, que inhiben el crecimiento de microorganismos dentro del nido. Según algunos autores la glándula metapleural parece ser casi un carácter diagnóstico que separa a las hormigas de otros himenópteros. Aunque esta glándula se ha perdido secundariamente en algunos grupos (principalmente arborícolas), probablemente ha sido fundamental en la evolución del grupo y su colonización del suelo debido a que, contrario a las abejas y avispas, las cuales construyen celdas de cera o papel impregnadas de antibióticos en donde ponen los huevecillos, las hormigas mantienen los suyos directamente sobre el suelo donde abundan los microorganismos oportunistas, que son controlados al difundir ampliamente las secreciones antibióticas de la glándula metapleural. Además, las reinas de algunas especies de hormigas secretan de la glándula de veneno otras sustancias antibióticas sobre los huevecillos, protegiéndolos de los microbios oportunistas. De esta manera, si estos componentes son agentes controladores de microorganismos es probable que, aunque en su origen tuvieran alguna otra función, hayan sido seleccionados por sus efectos sobre tales microorganismos.
 
Entre las conductas higiénicas se encuentran la remoción de desperdicios alimenticios generados por la sociedad, o los desechos sólidos acumulados y despojados por la larva durante la pupación (llamados meconia), o también el recubrimiento de materiales desagradables con partículas de suelo, e incluso la remoción de compañeros de nido muertos o mortalmente enfermos por infecciones de fácil dispersión; la eliminación de agentes extraños, y, por supuesto, el aseo y el aloaseo (aseo de compañeros), que son conductas que los individuos realizan con una gran frecuencia.
 
Por ejemplo, cuando las abejas son incapaces de remover objetos extraños debido a su tamaño, los cubren con las resinas que recolectan de diferentes plantas, llamadas en conjunto propóleo. Esto hace que, por ejemplo, un cadáver de un enemigo así cubierto se momifique evitando la proliferación de microorganismos. Las hormigas, al descubrir objetos o sustancias desagradables o pegajosas, las cubren con partículas de suelo, con lo que se evita que los individuos queden atrapados. En tiempos pasados esta conducta fue interpretada como la construcción de puentes por parte de las hormigas. Por lo tanto, si los insectos sociales invierten gran cantidad de su tiempo y energía en la limpieza del nido es porque debe existir una presión que actuará en contra de la “negligencia” en el aseo de los interiores del nido.
 
No obstante los esfuerzos por prevenir enfermedades y la proliferación de microorganismos en la sociedad, en ocasiones la infección se vuelve inevitable y todos los esfuerzos, vanos. Sin embargo, cuando un individuo se ha infectado, la solución es eliminarlo. Las larvas de abeja muertas por infecciones bacterianas son eliminadas de las celdas de crianza por las abejas obreras. Antes de la eliminación, las obreras deben abrir las celdas (eliminar el opérculo que las cubre). Esta conducta higiénica depende de dos genes recesivos, es decir, que se expresan sólo en condiciones de homocigosis. Un gen determina la conducta de desoperculado y el otro el de eliminación de la cría muerta. Cuando uno de los dos genes presenta heterocigosis, la conducta se manifiesta incompleta, esto es, puede haber desoperculado sin eliminación de la cría muerta o viceversa.
 
Aunque no todas las tareas higiénicas requieran especialización, tanto en las abejas como en las hormigas existen ciertos individuos que se ocupan más frecuentemente que otros individuos de la remoción de compañeros de nido muertos. Estos individuos especializados en el manejo y desecho de cadáveres son llamados obreras sepultureras (en femenino, pues todos los individuos obreros de las colonias de abejas y hormigas son hembras), y el comportamiento que realizan es conocido como necroforesis.
 
Los insectos sociales son muy quisquillosos en cuanto a la limpieza de los interiores de sus nidos. En general, en todas las sociedades de insectos tanto los objetos extraños como los enemigos muertos son acarreados hacia afuera del nido y tirados en los basureros. Los individuos adultos muertos de las avispas y las abejas son llevados fuera del nido y tirados. Los cadáveres son sujetados con las mandíbulas, llevados hacia la salida del nido y tirados en un vuelo corto. El transporte de cadáveres en las sociedades de abejas se basa, en alguna medida, en el polietismo de edad, es decir, muchas obreras (generalmente de dos a tres semanas de edad) se dedican al servicio funerario por un tiempo breve de sus vidas, ya que, al avanzar su edad, sufren cambios fisiológicos y conductuales que los hacen menos respondientes a las tareas que realizan y más respondientes a otras tareas, esto es, tienden menos a realizar tareas pasadas conforme envejecen.
 
Entre las abejas la historia laboral de las obreras está frecuentemente relacionada con su edad, y la realización de las tareas cambia según envejecen. Así, puede considerarse que conforme una abeja envejece se “gradúa” de unas tareas, algunas de las cuales deja de realizar, para dedicarse a una tarea que no había hecho antes. Esos cambios en conducta y en labor, no necesariamente irreversibles, están relacionados con cambios fisiológicos y de actividad glandular de la abeja, y probablemente esté involucrado un reloj interno. Sin embargo, una minoría de las obreras se dedica casi durante toda su vida a las actividades funerarias, en parte debido a predisposiciones genéticas que otras obreras no poseen. Así pues, no todas las obreras en el sistema de polietismo temporal exhiben el mismo patrón de desarrollo conductual, por lo que las variaciones interindividuales que se presentan entre las obreras es otra forma de división del trabajo. Aparentemente, las abejas sepultureras no son ni más ni menos activas que los otros grupos de abejas dedicadas a otras tareas. La especialización funeraria en las abejas parece lograrse por un incremento en varias categorías conductuales junto con la reducción (no desaparición) de la frecuencia de muchos otros comportamientos. Las diferencias conductuales parecen deberse a diferencias en la tasa de desarrollo de los adultos especialistas y a preferencias conductuales de largo plazo, las cuales pueden estar influenciadas por diferencias en el genotipo de las obreras y/o por la experiencia.
 
El transporte de cadáveres entre las hormigas se conoce desde hace mucho tiempo y, como todo comportamiento de las hormigas, se le ha atribuido cualidades antropomórficas. Por ejemplo, los antiguos griegos y romanos creían que las hormigas tenían cementerios donde depositaban a los ciudadanos muertos. Otros, en el siglo xix, llevaron esto al extremo diciendo que si una obrera se rehusaba a transportar un cadáver al cementerio sería juzgada y ejecutada en medio de la plaza de la ciudad. A pesar de lo difundidas que estén estas ideas no existe evidencia de que las hormigas lleven a cabo algún tipo de ritual mortuorio.
 
Contrario a las termitas, las cuales devoran a todos los compañeros de nido muertos o heridos, las hormigas adultas muertas, aunque a veces devoradas (al menos parcialmente) por sus mismas hermanas en una forma de canibalismo, generalmente son llevadas hacia fuera del nido y arrojadas a la pila de desperdicios. Por el contrario, todos los estados inmaduros de las hormigas —huevos, larvas y pupas— que han sufrido algún daño o si se ha sobreinvertido energía en ellos y los recursos escasean en el territorio, son invariablemente devorados; de esta manera, si las circunstancias se han vuelto difíciles, los recursos invertidos en la alimentación de la cría pueden reutilizarse mediante el canibalismo. Por el contrario, los recursos invertidos en la construcción del nido no pueden ser reutilizados.
 
Las pilas de desperdicios pueden estar ubicadas en diferentes lugares dependiendo de la especie de que se trate. Por ejemplo, las hormigas corta hojas tienen varios basureros, una gran parte se encuentra bajo tierra en forma de galerías rellenas de desperdicios, y la otra parte se encuentra en el exterior, en los alrededores de las entradas al nido. En estos basureros se encuentran desperdicios de la materia vegetal que ha servido como sustrato para el crecimiento del hongo que cultivan y, por supuesto, cadáveres de hormigas.
 
El comportamiento necroforético es uno de los patrones conductuales más evidentes y estereotipados que las hormigas presentan. Cuando una hormiga muere, cae con las patas encogidas debajo de su cuerpo. Durante algún tiempo, tal vez un par de días, las otras hormigas del nido le prestan muy poca atención, probablemente debido a que aún conserva el olor que corresponde a una hormiga viva que es compañera del nido. Después de un par de días, ya que el cadáver ha comenzado a descomponerse, atrae la atención de otras hormigas, principalmente las sepultureras. Cuando el cadáver es encontrado por una sepulturera, ésta realiza una breve investigación mediante contactos antenales sobre el cuerpo y, entonces, con sus mandíbulas levanta al cadáver y lo lleva directamente hacia la pila de desperdicios. De la misma manera en que las hormigas reconocen a los compañeros de nido o a ciertas castas, ellas son capaces de reconocer a los muertos a través de señales particulares que estos presentan.
 
Debido a su forma de vida principalmente subterránea, las hormigas viven en un mundo perceptual de naturaleza química y táctil. Con excepción de algunas hormigas arborícolas y otras cazadoras con buena vista, en general, todas ellas dependen poco de la visión para su sobrevivencia, lo cual se refleja en la organización del cerebro: los lóbulos ópticos, áreas especializadas en el procesamiento de señales ópticas, son muy reducidos. El tamaño pequeño de los lóbulos ópticos demuestra la modesta importancia que la visión tiene en el comportamiento de las hormigas en el sentido de la formación de imágenes a partir de estímulos luminosos. No obstante, la fotorrecepción es importante como indicador de las fases de los ciclos geológicos, con lo que los animales responden adaptativamente al sincronizarse su reloj interno con las variaciones ambientales.
 
Comunicación con los muertos
 
La poca dependencia visual de la mayoría de las hormigas puede explicarse por su evolucionado sistema de comunicación basado en señales químicas: las feromonas. Las feromonas son semioquímicos, es decir, sustancias usadas en la comunicación, ya sea entre especies (como en una simbiosis) o entre miembros de la misma especie. Los sistemas de comunicación de los insectos sociales parecen estar basados principalmente en las señales químicas. Así, en las hormigas, por ejemplo, los lóbulos antenales son muy complejos y grandes, reflejando la importancia de la olfacción en la vida de estos himenópteros.
 
Aunque las señales químicas no son ambiguas debido a que cada hormiga puede producir, en glándulas especiales, distintos químicos que con muy poca probabilidad se encuentran en el ambiente, la modulación de la señal (que transmitiría más información) es difícil, debido principalmente a que las señales químicas se propagan por difusión o por microturbulencias, mecanismos fuera de control para el emisor. Además, existe otro problema para terminar con el mensaje puesto que la sustancia persiste aun después de que ha producido algún efecto. Las señales químicas que median la comunicación en las hormigas consisten en mezclas de diversas sustancias con una gran variación en la composición molecular y en las proporciones relativas de sus componentes. Aunque algunas de estas señales multicomponentes pueden ser producidas por glándulas exocrinas individuales, también pueden estar compuestas de secreciones de varias glándulas. Esta variación es funcional, identificando grupos o acciones en una variedad de niveles de organización.
 
Según lo anterior, no sería sorprendente que las señales de reconocimiento de la muerte sean de naturaleza química. ¡Pero qué desfachatez, una hormiga muerta que se comunica! Debemos mencionar aquí que en la evolución de los sistemas de comunicación ha sido fundamental el desarrollo de capacidades responsivas de los individuos receptores, aun cuando los individuos de los que emana la señal no resulten beneficiados por la reacción del receptor. Así pues, es probable que los individuos sepultureros reaccionen ante las sustancias que emanan de los cadáveres sin que se considere estricta y necesariamente que el cuerpo emite señales.
Las sustancias que actúan como señales químicas para la muerte son subproductos de la descomposición bacteriana de triglicéridos. De los subproductos de la descomposición, sólo los ácidos grasos de cadena larga, principalmente el ácido oléico, están involucrados en el desencadenamiento de la respuesta necroforética; hablamos entonces de necromonas. De esta manera, si la aparición de tales sustancias ocurre sólo después de que una hormiga muere, y si como se ha sugerido acerca de que tales sustancias son el producto de la descomposición bacteriana de compuestos cuticulares, el ácido oléico y otros compuestos serían el indicativo de la aparición o proliferación de microorganismos.
 
Si, por ejemplo, se toma un cadáver que previamente haya sido acarreado hacia el basurero y se limpia completamente el ácido oléico mediante solventes, las hormigas serán incapaces de reconocerlo como un cadáver. De esta manera, para una hormiga y su rígida “concepción del mundo” un cadáver está definido en términos de presencia de ácido oléico o sustancias parecidas. Incluso si una hormiga viva y saludable es embadurnada con ácido oléico y se introduce al nido, es tomada por las sepultureras y llevada hasta el montón de basura. Aunque la hormiga se mueva es considerada como un cadáver que es necesario echar fuera del nido. Sólo hasta que la hormiga embadurnada se ha limpiado varias veces dejará de ser acarreada por las sepultureras hacia el basurero.
 
No obstante que se ha determinado que son los ácidos grasos de cadena larga, principalmente el ácido oléico y sus ésteres, los que desencadenan el comportamiento necroforético, es muy probable que el ácido oléico no desencadene, por sí solo y en cualquier contexto, el comportamiento funerario. Es posible que existan otras señales que informen a la sepulturera en qué sitio levantar cadáveres y en qué otro sitio dejarlos. Así, el comportamiento necroforético es un comportamiento que podría ser desencadenado por un estímulo particular (el ácido oléico), pero siempre en un contexto social particular (probablemente el olor del nido).
 
El comportamiento necroforético en las hormigas parece ser una tarea especializada, quizá principalmente en aquellas especies en las que es aún más importante evitar la proliferación de microorganismos.
 
En Acromyrmex versicolor, una especie cultivadora de hongos, relativamente pocos individuos realizan la mayoría del acarreo funerario. Esto se desprende de la observación de que las hormigas que realizan la remoción de cuerpos repetidamente lo hacen independientemente de la proporción de encuentros con los cadáveres, mientras que un gran subgrupo de hormigas que tiene la oportunidad de realizar tal tarea debido a la proporción de encuentros con cadáveres nunca realizan el comportamiento sepulturero. Esto puede indicar que la especialización sepulturera puede estar determinada, al menos en gran medida, por causas internas, como sucede en las abejas. Estas sepultureras especializadas encuentran cadáveres más frecuentemente que otras hormigas. Se les puede ver patrullando los interiores del nido como un grupo aparte de las obreras que se dedican a atender al huerto de hongos.
 
Es probable que la especialización en el comportamiento sepulturero se deba a diferencias genéticas o relacionadas con la edad. De cualquier manera, parece que las sepultureras tienen diferentes umbrales de sensibilidad para realizar el comportamiento necroforético. Si esto es así, la casta funcional sepulturera puede ser parte de un grupo mayor e incluyente de hormigas especializadas en el mantenimiento del nido. Las diferencias entre las sepultureras y otros gremios de hormigas pueden estar principalmente en: 1) la sensibilidad a las señales químicas liberadas por los cadáveres en descomposición, y 2) en la ejecución de la tarea, ya que las sepultureras más especializadas, es decir, aquellas que realizan más frecuentemente la necroforesis, realizan la remoción de los cuerpos más rápido que aquellas sepultureras menos especializadas. Probablemente esto se deba a que las sepultureras más especializadas son mejores en la navegación dentro del nido y más eficientes en llevar el cadáver hasta la pila de basura sin dejarlo caer dentro del nido. No obstante lo anterior, la aparición de sepultureras altamente especializadas en la remoción de cadáveres aumenta conforme aumenta el tamaño poblacional de la colonia. Así, las sepultureras altamente especializadas se encuentran liberadas de otras tareas, siendo particularmente eficientes en la detección de cadáveres y cuando recorren los interiores del nido, aun cuando la alta densidad de población confiera un complejo ambiente para el desplazamiento individual.
 
En las hormigas Lasius niger, que se alimentan de las secreciones azucaradas de los pulgones y, en ocasiones, de su carne, también existen especialistas en necroforesis. De las obreras del nido, entre 3 y 6% se dedican repetidamente a la remoción de cadáveres, aunque, en general, 37% de los individuos realizará, al menos una vez en su vida, el acarreo de cuerpos. El comportamiento funerario en estas hormigas parece ser plástico, ya que si todas las sepultureras son retiradas, algunas obreras de las no sepultureras se vuelven sensibles a los estímulos que provienen de los cadáveres, y, entonces, ellas toman el lugar de las sepultureras en la remoción de los individuos muertos. Así pues, el comportamiento necroforético es una especialización, pero las sepultureras y algunas de las otras obreras son lo suficientemente plásticas para cambiar de acuerdo con las situaciones sociales y demográficas de la colonia.
 
El reconocimiento de los individuos muertos es una capacidad que puede estar más desarrollada en algunos de los individuos que componen la sociedad. Los estímulos que componen este reconocimiento provienen de la descomposición bacteriana. Aunque las sustancias que desencadenen el comportamiento necroforético puedan variar entre las especies, es probable que estén restringidas, en mayor grado, a ciertos ácidos grasos, principalmente oléico, miristoléico, palmitoléico y linoléico. Si la detección de una señal particular resulta benéfica para la sobrevivencia, los aspectos relacionados con la detección de esta señal pueden constituir presiones de selección que produzcan, a lo largo de la evolución, que los individuos se especialicen en la detección de tal señal. De hecho, las señales que intervienen en los sistemas de comunicación han evolucionado a partir de síntomas involuntarios que los individuos manifiestan ante situaciones particulares. Durante la evolución, la ritualización (exageración y transformación) de las señales sintomáticas ha conducido a estas últimas a ser exclusivamente comunicativas. Una señal especialmente modificada en el curso de la evolución para proporcionar información se denomina ostentación. En este caso, la señal se exagera y se hace más compleja. El proceso puede comenzar cuando algún movimiento, característica anatómica, fisiológica o bioquímica, que es funcional en otro contexto adquiere valor secundario como señal.
 
Así, los beneficios de reaccionar ante las señales que emanan de los cadáveres, o necromonas, han sido tales que en las diferentes sociedades han evolucionado castas funcionales especializadas en su detección y en la remoción de las fuentes de emisión. El reconocimiento de la muerte no sólo ocurre en las sociedades complejas, aunque es en éstas, cuando viven en nidos fijos y encerrados, en las que tal reconocimiento proporciona mayores beneficios previniendo de enfermedades o de la infestación de microorganismos oportunistas. Por ejemplo, las cucarachas evitan los refugios que contienen conespecíficos muertos o que contienen trozos de papel filtro que han sido tratados con un extracto de cucarachas muertas. El extracto es producido endógenamente, se distribuye a través de los cuerpos de los individuos de ambos sexos, es activo contra adultos y ninfas y no es liberado por insectos vivos. Los compuestos que constituyen estos extractos son, y no debería sorprendernos, metil ésteres de los ácidos grasos palmítico, linoléico, oléico y esteárico. Estos compuestos son altamente repelentes para las cucarachas. De estas sustancias, los ácidos oléico y linoléico son los más efectivos. De estos últimos, el ácido linoléico es diez veces más repelente que el oléico. La combinación de ambos ácidos grasos no tiene un efecto sinergético, ya que la respuesta conjunta es muy similar a la del ácido linoléico solo. Esto puede estar relacionado con los descubrimientos hechos acerca de la producción enzimática de ácido linoléico a partir de ácido oléico por parte de las cucarachas.
 
El reconocimiento y remoción de cadáveres en los insectos es tan sorprendente como el hecho de que, en algunas especies de hormigas, las obreras tienden a removerse ellas mismas del nido cuando van a morir. Por ejemplo, las obreras de la especie Formica rufa, la hormiga de los bosques europeos protegida por la ley, cuando han sido infectadas por el mortal hongo Alternaria tenius dejan el nido muriendo lejos de él. Con esto puede evitarse que la infección de una hormiga se convierta en una epidemia dentro del nido.
 
A pesar de que la identificación de la muerte no es considerada, en sentido estricto, como comunicación, el comportamiento necroforético comparte características comunes con la comunicación, particularmente su dependencia en respuestas estereotipadas disparadas por estímulos químicos específicos.
 
Evolución social
 
Aunque los repertorios conductuales de los insectos para la vida en sociedad sean heredados, es poco posible que la organización completa de la complejidad conductual sea codificada solamente por el genoma. Es más probable que muchos comportamientos resulten de la modificación experiencial de los circuitos definidos genéticamente. Así, una sociedad es capaz de hacer frente a situaciones nuevas y responder adaptativamente. Aunque existen especializaciones conductuales dentro de la sociedad, estos individuos conservan cierta plasticidad para cambiar de tarea cuando es necesario. De esta manera, todos los miembros de la sociedad tienen una historia determinada por el ambiente social, ambiente que varía de individuo a individuo y con la edad de la colonia.
 
El resultado de la evolución social en la conducta de las hormigas ha sido la capacidad de responder adecuada, eficiente y oportunamente a las señales sociales, y, a partir de esto, integrar el comportamiento individual en el todo. Además, las capacidades plásticas del comportamiento de las hormigas individuales son muy importantes y marcadas. Los constantes cambios en la vida social, principalmente los demográficos, y el almacenamiento y constante intercambio de información hacen fundamental la plasticidad conductual.
 
Los beneficios organizacionales de la emergencia de propiedades nuevas en los sistemas sociales sólo pueden ser alcanzados cuando ciertas condiciones previas son cumplidas, como el parentesco, con lo que los beneficios de la cooperación y el acceso a nuevas fuentes de energía, así como su optimación, permiten que los individuos sacrifiquen su reproducción directa en favor de la de sus parientes más relacionados. En los himenópteros son los hermanos en vez de los padres. Por otro lado, una condicionante previa para la vida social es la presencia de ciertas capacidades (no sólo las relacionadas con estructuras que componen el canal sensorial, sino también, y principalmente, las que constituyen los centros de control y procesamiento) que permitan la comunicación eficiente, de manera que sea posible la regulación y la función coordinada entre diferentes individuos durante la realización de tareas comunes y durante el funcionamiento de la sociedad completa. Por ejemplo, durante la evolución de los organismos multicelulares fue un suceso fundamental la liberación de la membrana celular de su función energética, cosa que se logró con la aparición de los eucariotes, de tal forma que esto permitió que la membrana se especializara en procesos de señalización, de los cuales dependen las actividades de las células de los organismos multicelulares. El sistema nervioso de los insectos sociales liberó gran parte de su maquinaria neural de los compromisos de la vida en solitario, es decir, la búsqueda de pareja, la construcción de nido, la evasión de depredadores, la oviposición, el cuidado de la cría, etcétera. Con la liberación de tales tareas en solitario debido a la división del trabajo y a la cooperación, el cerebro hormiga fue sometido a las presiones de la vida en sociedad: cada “individuo” fue seleccionado no por sus capacidades individuales per se, sino por sus capacidades para funcionar con la colonia. El cerebro, entonces, fue principalmente seleccionado por sus capacidades de reconocimiento de señales sociales y, a partir de éstas, de regulación de la conducta individual, así como de su plasticidad potencial. La lógica es la siguiente: el comportamiento animal es controlado y generado en el sistema nervioso central, principalmente en el cerebro; la vida social de los animales implica una especialización conductual que sea respondiente, fundamental y adecuadamente, a los estímulos de naturaleza social; por lo tanto, los cerebros de los animales sociales deben haberse especializado en el procesamiento de estímulos de naturaleza social y en la generación del comportamiento según dichos estímulos. En términos estrictos, un cerebro social es altamente manipulable por sus conciudadanos. Esto se debe a que dentro de la sociedad no sólo existen flujos energéticos, sino también informativos. La especialización en la recepción y emisión de señales es tal que incluso después de muertos los individuos manipulan el comportamiento de sus compañeros a través de las sustancias que emanan de ellos, estas sustancias, conocidas como necromonas, son los olores de la muerte.
Referencias bibliográficas
 
Hölldobler, B. 1994. “Conflict and Cooperation in Ant Societies”, en Naturwissenschaften, 81, pp. 489-497.
Hölldobler, B. y E. O. Wilson. 1990. The Ants. Belknap.
Jaffe, K. 1996. “The Energetic Cost of Sociality”, en Physiology & Behavior, 59(4/5), pp. 713-719.
Julian, G. E. y S. Cahan. 1999. “Undertaking Specialization in the Desert Leaf-Cutter Ant”, en Acromyrmex versicolor. Animal Behaviour, 58, pp. 437-442.
Passera, L. 1984. L'organisation sociale des fourmis. Privat.
Robinson, G. E. 1992. “Regulation of Division of Labor in Insect Societies”, en Ann. Rev. Entomol., 37, pp. 637-665.
Robinson, G. E. y R. E. Page Jr. 1988. “Genetic Determination of Guarding and Undertaking in Honey-Bee Colonies”, en Nature, 333, pp. 356-358.
Rollo, C. D., E. Czyzewska y J. H. Borden. 1994. “Fatty Acid Necromones for Cockroaches”, en Naturwissenschaften, 81, pp. 409-410.
Trumbo, S. T. y G. E. Robinson. 1997. “Learning and Task Interference by Corpse-Removal Specialists in Honey Bee colonies”, Ethology, 103, pp. 966-975.
Trumbo, S. T., Z.-Y. Huang y G. E. Robinson. 1997. “Division of Labour Between Undertaker Specialists and Other Middle-Aged Workers in Honey Bee Colonies”, en Behav. Ecol. Sociobiol., 41, pp. 151-163.
Wilson, E. O. 1971. The Insect Societies. Belknap.
Germán Octavio López Riquelme
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

López Riquelme, Germán Octavio. (2001). Necromonas: el olor de la muerte. Ciencias 63, julio-septiembre, 50-60. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
  del bestiario
 
     
Ojos bien abiertos en el Mar de Lidenbrock
 
 
Héctor T. Arita
conoce más del autor
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
         
El jueves 13 de agosto de 1863 se hizo a la mar una pequeña embarcación improvisada por tres intrépidos aventureros. Partiendo de Puerto Graüben, los tres osados exploradores subieron a la frágil balsa que habían construido con troncos rotos y tocaron por primera vez las aguas del vasto océano recién descubierto por ellos mismos. No sin cierta falta de modestia, el líder de la expedición, el profesor Otto Lidenbrock, había bautizado con su nombre aquel inhóspito mar. Por su parte, con más romanticismo que vanagloria, el sobrino del profesor, Axel, decidió inmortalizar a su ausente amada Graüben usando su nombre para el lugar de donde zarpó la expedición. Completaba el equipo Hans Bjelke, un taciturno guía nórdico.
A los cinco días de navegación, los tres exploradores fueron testigos de una batalla nunca antes presenciada por ser humano alguno. Ante ellos, un gigantesco ictiosaurio se batió en mortal duelo con un plesiosaurio. La batalla de los monstruos jurásicos, que según el relato de Axel duró más de dos horas, culminó con la muerte del plesiosaurio, pero el ictiosaurio recibió también heridas graves. Su enorme ojo, "del tamaño de la cabeza de un hombre", se veía ensangrentado a raíz de la fragorosa lucha.
Por supuesto, el relato de Axel pertenece al ámbito de la ficción. Se trata de un pasaje de Viaje al centro de la Tierra, la segunda novela que escribió Julio Verne, cuando tenía treinta y seis años de edad. Como en otros de sus relatos, Verne combina en la narración de las aventuras del profesor Lidenbrock los productos de su fértil imaginación con datos científicos asombrosamente verídicos. En Viaje al centro de la Tierra, Verne imaginó un enorme océano subterráneo, iluminado perpetuamente por fenómenos eléctricos, en el que habitaban criaturas antediluvianas extintas en el resto del mundo. Aunque la batalla de un plesiosaurio contra un
ictiosaurio resulta realmente fantasiosa, Verne muestra en su narrativa sus profundos conocimientos sobre la paleontología y la incipiente ciencia de la evolución. Para poner en contexto las afirmaciones científicas de Verne, hay que recordar que El origen de las especies de Darwin había aparecido sólo cinco años antes de la publicación de Viaje al centro de la Tierra.
Muchos de los detalles que sobre la anatomía y el comportamiento de los ictiosaurios presenta Verne resultan ciertos a la luz de investigaciones recientes sobre estos animales del pasado. Los ictiosaurios fueron reptiles que dominaron los mares por más de ciento cincuenta y cinco millones de años hasta que desaparecieron de la faz de la tierra hace unos noventa millones de años. Tal como los describió Verne, los ictiosaurios más evolucionados semejaban marsopas gigantescas por su forma hidrodinámica y la presencia de aletas dorsal y caudal. Sin embargo, sus rasgos anatómicos sitúan claramente a los ictiosaurios en algún lugar de la evolución de los reptiles entre los lepidosaurios (serpientes y lagartijas) y los arcosaurios (grupo filogenético que incluye a los cocodrilos, los dinosaurios y las aves). Los primeros ictiosaurios de hecho semejan
lagartijas acuáticas, con cuerpos alargados, aletas primitivas y poco diferenciadas y sin aleta dorsal.
Los maravillosos fósiles de Hulzmaden, Alemania, han permitido a los paleobiólogos reconstruir detalles asombrosos de la forma de vida de estos fascinantes animales. Se sabe, por ejemplo, que los ictiosaurios más evolucionados daban a luz crías vivas, tal como lo hacen los actuales cetáceos. Existe incluso un ejemplar fósil que muestra tres crías en el interior de
la madre y otra justo en el momento en que nacía. Se cree que los ictiosaurios pequeños y medianos se alimentaban principalmente de belemnites, unos cefalópodos extintos semejantes a los actuales calamares. En algunos fósiles particularmente bien preservados es posible observar el contenido estomacal de algunos ictiosaurios, en los que se han observado
restos de los calamares que les sirvieron de alimento. Es posible, sin embargo, que las especies más grandes se hayan alimentado además de peces y de otras criaturas marinas.
 
Para encontrar los grandes bancos de belemnites, los ictiosaurios debieron ser capaces de realizar inmersiones profundas en el mar, de entre seiscientos y mil quinientos metros. Para poder realizar estas proezas de buceo, los ictiosaurios debieron poseer adaptaciones anatómicas y fisiológicas muy particulares. Por ejemplo, hay que recordar que los ictiosaurios, siendo descendientes directos de criaturas terrestres, respiraban aire, por lo que cada inmersión debía ser realizada literalmente en un respiro. Según cálculos fisiológicos que toman en cuenta el gasto energético asociado a la realización de movimientos en el agua, un ictiosaurio de cerca de una tonelada de peso debió ser capaz de sostener la respiración por cerca de veinte minutos, tiempo suficiente para tomar aire, bucear hasta alcanzar los bancos de belemnites, darse un festín con estos cefalópodos y regresar cómodamente a la superficie del mar.
 
Pero hay otro problema asociado con el buceo profundo. La intensidad de la luz disponible en el mar disminuye exponencialmente con la profundidad, de manera que a más de quinientos metros reina una oscuridad que un ser humano juzgaría como total. Sin embargo, se ha calculado que algunos ictiosaurios deben haber sido capaces de ver aun a mayores profundidades, gracias a los gigantescos ojos que poseían. Temnodontosaurus, un portentoso ictiosaurio de más de diez metros de longitud, tenía ojos de veintiséis centímetros de diámetro, los aparatos visuales más grandes que haya tenido animal alguno. Ciertamente, Verne no exageraba al comparar el tamaño de los ojos de los ictiosaurios con el de la cabeza de un hombre. Para poner en contexto la magnitud de estos aparatos, basta mencionar que los ojos de la ballena azul, el animal más grande que ha existido sobre la faz de la tierra, miden "apenas" quince centímetros. Entre los ictiosaurios, sin embargo, existió otra especie con ojos aún más grandes en proporción con su tamaño.
 
Ophtalmosaurus medía poco menos que la mitad que Temnodontosaurus pero sus ojos tenían un diámetro de veintitrés centímetros.
 
Para medir la luminosidad de una lente, natural o artificial, se utiliza el número f, que es el cociente que resulta de dividir la longitud focal de la lente por su diámetro efectivo. Obviamente, entre más ancha es la lente, más luz transmite y la imagen que produce es más luminosa. Por tanto, entre menor es el valor del número f, más brillante es la imagen. De hecho, en términos técnicos, la luminosidad de la imagen es inversamente proporcional al cuadrado del número f. En términos prácticos, esto significa que para incrementar en pequeñas proporciones la luminosidad de una lente se debe aumentar en gran medida su diámetro, con los concomitantes problemas de diseño, soporte y funcionamiento. En fotografía,  los objetivos más finos tienen aperturas máximas de f/1.4 o f/1.2, pero la mayoría de ellos tienen números f similares a los del ojo humano, alrededor de f/2, o mayores. Se ha calculado que el ojo de los Ophtalmosaurus tenía una luminosidad de f/0.9, comparable a la del ojo del gato doméstico y ligeramente superior a la de las lechuzas. Equipado con este aparato óptico tan luminoso, los
Ophtalmosaurus seguramente eran capaces de usar la visión a profundidades mucho mayores de quinientos metros.
Pero, ¿cómo es posible conocer el tamaño de los ojos de un animal extinto? En el caso de los ictiosaurios, la respuesta se relaciona con una estructura que además constituye otra aparente adaptación de estos animales a su particular forma de vida. Se trata de los anillos escleróticos, estructuras óseas en forma de dona que quedan embebidas dentro de los ojos de los animales que los poseen. Se cree que estas estructuras, particularmente bien desarrolladas en los ictiosaurios, permitían a los ojos de estos animales mantener su forma a pesar de las presiones generadas durante el desplazamiento en el medio marino, especialmente durante las
inmersiones a grandes profundidades. La presencia de anillos escleróticos en los ictiosaurios ha permitido a los paleobiólogos estimar el tamaño de los ojos de estas criaturas antediluvianas, ya que constituyen elementos fácilmente fosilizables y medibles.
Siendo exageradamente rigurosos, podríamos preguntar ¿por qué el ictiosaurio de Verne tenía ojos gigantescos? El escritor francés imaginó la existencia de ictiosaurios en un mar subterráneo, en el que un extraño fenómeno eléctrico proveía de luz perpetua a la gigantesca caverna que contenía el mar de Lidenbrock. Podríamos especular tal vez sobre la existencia de bancos de belemnites a grandes profundidades en este mar y sobre la posibilidad de que los ictiosaurios vernianos ejecutaran profundas inmersiones, tal como lo hicieron sus equivalentes reales hace millones de años. La realidad es que Verne basó la descripción de su ictiosaurio en las reconstrucciones de los fósiles disponibles en la época y, dada la naturaleza de su libro, no se ocupó de dar una explicación adaptativa a las características de los animales involucrados.
A menos que en el futuro se desarrollen tecnologías aún no pensadas, ningún ser humano verá un ictiosaurio vivo. Lo más a lo que podemos aspirar es, a la manera de Verne, imaginar encontrarnos con uno de estos animales en algún recóndito paraje de la Tierra, como su idílico Mar de Lidenbrock. Veríamos tal vez a un Ophtalmosaurus, con su cuerpo algo rechoncho, desplazándose suavemente con un lento movimiento de sus aletas. Si hay suerte, podríamos observar a uno de estos animales ejecutando una inmersión a las aguas profundas, capturando con parsimonia cientos de primitivos calamares para después nadar, con estudiada elegancia, de regreso a la superficie. Sin duda nos llamaría la atención el par de enormes ojos que parecerían observarnos con frialdad. Ojos brillantes y perfectamente redondos, mantenidos en forma y posición por los anillos escleróticos. Ojos que han visto grandes batallas en los mares jurásicos. Ojos que fueron testigos de los grandes cambios evolutivos a lo largo de los casi ciento sesenta millones de años que los ictiosaurios dominaron los mares del mundo.
Referencias bibliográficas
Motani, R. et al. 1999. “Large Eyeballs in Diving Ichthyosaurs”, en Nature, 402, 747.
Verne, J. 1864. Viaje al centro de la Tierra. Una obra clásica que, además de ser sumamente entretenida, presenta un panorama del conocimiento geológico y biológico que existía a mediados del siglo xix.
www.ucmp.berkeley.edu/people/motani/ichthyo/ es la página de los ictiosaurios (todo sobre ellos).
 
Héctor T. Arita
Instituto de Ecología,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Arita, Héctor T. (2001). Ojos bien abiertos en el Mar de Lidenbrock. Ciencias 63, julio-septiembre, 11-13. [En línea]
 

 Temas selectos de geografía de México

 
PortadaB6
El clima de la ciudad de México
Ernesto Jáuregui Ostos
Instituto de Geografía, unam
Plaza y Valdés, 2000. 131 pp.
 
 
 
   
México a través de los mapas
Héctor Mendoza Vargas
 
Instituto de Geografía, unam
Plaza y Valdés, 2000. 203 pp.
     
HTML ↓ PDF ← Regresar al índice
     
México a través de los mapas reúne varios ensayos en torno a la historia general de la cartografía mexicana y sus vínculos con la historia política del país. México se distingue fundamentalmente por la riqueza de su tradición en la elaboración de mapas. Así, por ejemplo, en Mesoamérica se elaboraron mapas de pequeña y gran escala, usando una práctica particular y signos convencionales propios, distintos a los de Europa. Una vez establecidos en América, los españoles emplearon a los indígenas en la elaboración de imágenes para Felipe II, las cuales representan una fusión única entre lo indígena y lo europeo. Al lado de esos mapas sincréticos se encuentran durante los siglos xvi y xvii mapas y planos hechos por los ingenieros de la Corona con fines militares y los de los misioneros jesuitas, en lo que constituye el primer intento por elaborar mapas de gran escala de los territorios del interior.
Además de la obra borbónica y la de los ilustrados, otros de los ejemplos analizados en esta obra son la labor fronteriza de los ingenieros y el trabajo de Antonio García Cubas, cuyo Atlas geográfico de 1858 dio una idea a los mexicanos de la forma general y las nuevas dimensiones
de su país, o el mapa de Francisco Calderón de 1910, que muestra el desarrollo de núcleos urbanos y una densa red de comunicaciones. Para el siglo xx se discuten la creación de nuevas oficinas geográficas y la obra más distinguida de la geografía universitaria, el Atlas nacional de México. Durante quinientos años la historia de México ha sido reflejada con fidelidad a lo largo de su cartografía, situación que los ensayos de esta obra colectiva logran delinear.
En El clima de la ciudad de México, Ernesto Jáuregui Ostos describe los principales rasgos del clima de la ciudad y los probables cambios observados desde la llegada de los españoles hasta el presente. Si bien las características generales del clima de la cuenca han permanecido invariables en los últimos siglos en cuanto a su “estacionalidad” (es decir, sigue observándose una estación de lluvias y otra de secas), el cambio de uso de suelo, la desecación de los lagos, la tala de bosques y la creciente urbanización han modificado la temperatura, la humedad y, quizá, la lluvia en el ámbito de la ciudad. Pero sin duda el componente que ha sufrido una mayor alteración y deterioro es la calidad del aire que respiramos y que está en el origen de las diversas enfermedades respiratorias y cardiovasculares que padece la población en la capital.
Ambos libros pertenecen a la colección “Temas selectos de geografía de México”, editada por el Instituto de Geografía en colaboración con la editorial Plaza y Valdés, la cual contará con ciento nueve títulos.
Fragmentos del resumen.
_______________________________________________________________
 

como citar este artículo

sin autor. (2001). Temas selectos de geografía de México. Ciencias 63, julio-septiembre, 79. [En línea]
 
← Regresar al índice
Está aquí: Inicio Búsqueda Titulo revistas revista ciencias 63
Universidad Nacional Autónoma de México
Facultad de Ciencias
Departamento de Física, cubículos 320 y 321.
Ciudad Universitaria. México, D.F., C.P. 04510.
Télefono y Fax: +52 (01 55) 56 22 4935, 56 22 5316


Trabajo realizado con el apoyo de:
Programa UNAM-DGAPA-PAPIME número PE103509 y
UNAM-DGAPA-PAPIME número PE106212
 ISSN:0187-6376

Indice-RM

Responsable del sitio
Laura González Guerrero
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
 

Asesor técnico:
e-marketingservices.com
facebooktwitteryoutube

cclCreative Commons License
This work is licensed under a Creative Commons
Attribution-Noncommercial-Share Alike 3.0 United States License