revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
1 12
     
¿Vale la pena la búsqueda de inteligencia extraterrestre?
Se expone el surgimiento y desarrollo del programa para captar señales de radio provenientes de alguna civilización extraterrestre seti, y se analiza la veracidad de sus argumentos, como la probabilidad de que la inteligencia haya evolucionado en otros mundos por caminos convergentes.
Carlos Alberto Ochoa y Ana Barahona
conoce más del autor
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
 
Actualmente algunos científicos postulan que si tan sólo en la Vía Láctea existen miles de millones de estrellas, es absurdo pensar que la Tierra, nuestro planeta, fue el único lugar donde se desarrolló la inteligencia. Para de­mos­trar sus presunciones han intentado, por más de cuarenta años, captar señales de radio provenientes de alguna civilización extraterrestre. En ello consiste el famoso programa seti —siglas de Search for Extraterrestrial Intelligence. De acuerdo con esos científicos, seti es el único medio por el cual podemos probar la existencia de vida inteligente más allá del Sistema Solar, ya que los viajes in­terestelares por ahora no son posibles, además de que los costos de los programas de búsqueda son relativamente bajos.

En 1959, la revista Nature publicó un artículo en el que Philip Morrison y Giuseppe Cocconi, de la Universidad de Cornell, proponen un método para entablar comunicación con civilizaciones extraterrestres; sugieren que para sintonizar las señales el canal adecuado es en la frecuencia de 1.420 millones de ciclos por segundo (Mc/s), esto es, una longitud de onda de 21 cm, por ser la línea que emiten los átomos de hidrógeno. Como este es el compuesto más abundante en todo el Universo, parece razonable pensar que las civilizaciones extraterrestres usan la misma frecuencia de emisión y de recepción para realizar el contacto. En 1961 se llevó a cabo una afamada reunión cuyo principal objetivo fue conversar acerca de la posibilidad de contactar con civilizaciones extraterrestres; el suceso se realizó en Green Bank, Virginia Oriental de Estados Unidos, sede de la National Radio Astronomy Observatory (nrao). Lloyd Berkner consiguió el patrocinio de la Space Science Board de la National Academy of Science de los Estados Unidos. El organizador del evento fue J. P. T. Pearman, de la National Academy, Otto Struve fue el guía y asistieron Cocconi, Morrison, el famoso físico Frank Drake, los astrónomos Su-Shu Huang y Carl Sagan, el biólogo molecular Melvin Calvin —quien recién había recibido el premio Nobel—, el especialista en delfines John C. Lilly, y los ingenieros electrónicos Bernard M. Oliver y Dana W. Atchley.

Días antes del encuentro, Frank Drake desarrolló una ecuación que proporcionaría las bases para las discusiones y que sería utilizada para evaluar la probabilidad de encontrar vida e inteligencia extraterrestre. La llamada ecuación de Drake es la siguiente:

N= R* x fp x ne x fl x fi x fc x L

en la cual N representa el número de civilizaciones comunicativas en la Galaxia. Las primeras tres fracciones son valores astronómicos que estiman, respectivamente, la proporción de formación de estrellas R*, la fracción de estrellas con planetas fp y el número de planetas por estrellas en los que el ambiente es favorable para mantener la vida ne; los siguientes dos factores pertenecen al dominio de la biología, la fracción de planetas convenientes en los que se originó la vida fl, y la fracción de planetas donde se originó y evolucionó la vida en alguna forma inteligente fi; las últimas dos son del ámbito cultural, fracción de planetas con seres inteligentes que desarrollaron una fase comunicativa fc, y la vida media en la cual una civilización se comunica L.

Durante la reunión en Green Bank, Struve conservó su entusiasmo sobre el número de sistemas planetarios estimados gracias a su investigación en la rotación estelar, Su-Shu Huang se encargó de deducir el número de planetas en la Galaxia convenientes para el desarrollo de la vida, Calvin argumentó que el origen de la vida era un evento común y un paso inevitable en la evolución planetaria; Lilly comentó que si los delfines se consideran seres inteligentes, entonces la inteligencia evolucionó independientemente dos veces en la Tierra, por ello deducía que también podría evolucionar en otros planetas. En definitiva, todos concluyeron que dependiendo del promedio de la vida media de una civilización, el rango se ubicaría entre menos de mil hasta mil millones de civilizaciones con las que podríamos comunicarnos en toda la Galaxia.

Un año antes se realizó la primera búsqueda, encabezada por Drake y su equipo, con el proyecto Ozma —en honor al nombre de la reina de la mítica tierra de Oz, un lugar lejano, difícil de encontrar, donde habitan seres extraños y exóticos. La observación se hizo en las instalaciones de la nrao en Green Bank; inició el 8 de abril de 1960 y duró poco más de una semana. Sus objetivos fueron dos estrellas de tipo solar, Tau Ceti y Epsilon Eridani, y aunque falló en la búsqueda de inteligencia extraterrestre, facilitó la realización de otros programas de búsqueda, los cuales se llevan a cabo hasta la fecha, pero aún sin éxito.

Conflicto

En las décadas de los años sesentas y setentas del siglo xx se realizó una serie de conferencias dedicadas al estudio de la vida extraterrestre que impulsó el nacimiento de una nueva disciplina, la exobiología, con el subsecuente establecimiento de una comunidad científica encargada de la investigación de la vida más allá de la Tierra, la cual estuvo formada únicamente por físicos, químicos e ingenieros, especialmente del seti. Con base en esta aclaración, hay que recalcar dos puntos importantes. En primer lugar, los conceptos acerca de la evolución extraterrestre no fueron consultados a biólogos evolucionistas, y no porque no hubiera biólogos cualificados que opinaran sobre este tipo de cuestiones. Aún vivían los creadores de la teoría sintética de la evolución, George Simpson, Ernst Mayr y Theodosius Dobzhansky; de hecho, ellos discutieron, en artículos separados, sobre la vida e inteligencia extraterrestre, y resulta interesante saber que sus opiniones fueron considerablemente escépticas. En segundo lugar, la ecuación de Drake es bastante determinista, idea muy controvertida en biología; las últimas cuatro variables de la ecuación no puede evaluarse, mucho menos (fi), porque no es posible predecir un rumbo concreto en el curso de la evolución, simplemente podemos decir que nuestra historia evolutiva fue sumamente compleja y, por consiguiente, es bastante difícil tratar de determinar una inteligencia extraterrestre tomando como modelo solamente lo ocurrido en la Tierra.

Por lo anterior, el conflicto se ha arraigado entre dos formaciones disciplinarias; por un lado los físicos, quienes tienden al determinismo, y por el otro, los biólogos, a quienes se les ha inculcado la importancia del azar en los procesos evolutivos. Pero, ¿qué tan azarosos pueden ser estos procesos?

Argumentos contra seti

En su libro La vida maravillosa, Stephen Jay Gould escribió que la evolución de la inteligencia en el planeta Tierra fue altamente indeterminada, un suceso totalmente improbable visto en retrospectiva, si en el transcurso de la evolución cualquier evento fuera diferente, la especie humana jamás habría existido. Qué mundos alternos surgirían sin la evolución de los organismos pluricelulares, o de los animales, los cordados o los mamíferos; si no hubiera caído un meteorito en la Tierra hace sesenta y cinco millones de años, cuando los mamíferos vivían bajo la sombra de los dinosaurios; es muy probable que los primeros jamás habrían alcanzado las formas actuales —incluyendo al ser humano. Si en el curso de la evolución, la vida tomara otra alternativa, es seguro que no estaríamos aquí. En palabras de Gould, el “Homo sapiens es una cosa tan pequeña, en un Universo enorme, un acontecimiento evolutivo ferozmente improbable, claramente situado dentro del dominio de las contingencias”.

Pese a eso, Gould no era totalmente escéptico en cuanto a la posibilidad de evolución de inteligencia extraterrestre, ponía mucha atención en el fenómeno de las convergencias; por ejemplo, la capacidad de volar —sostenía Gould— ha evolucionado por separado en insectos, aves, murciélagos y pterosaurios; todos tienen los principios básicos para levantar el vuelo, aun con una morfología variada. Otro ejemplo son los lobos y los topos marsupiales australianos, que evolucionaron en formas similares independientemente de los mamíferos placentarios quienes están ubicados en el resto de los continentes. Por lo tanto, Gould estaba de acuerdo con el postulado de que la inteligencia podría haber evolucionado en otros mundos por caminos convergentes, al igual que aquí en la Tierra la facultad del vuelo en los animales. Además, coincidía con la postura de que seti era la única forma de comprobar la hipótesis de los extraterrestres inteligentes, aunque también reconocía que sus posibilidades de éxito eran muy escasas.

El fenómeno de las convergencias ha favorecido la realización del programa seti; sin embargo, el surgimiento de nuevos conceptos puso en tela de juicio sus argumentos. En 1977, Salvini Plawen y Ernst Mayr señalaron que la evolución de los ojos se ha presentado en por lo menos cuarenta diferentes grupos de animales, y concluían de ahí que un órgano tan complicado como es el ojo podría surgir repetidas veces en el curso de la evolución. Pero, ¿puede originarse por convergencia una inteligencia similar a la del ser humano? Gould apoyaba esta idea. Más regresando al argumento del origen polifilético de los ojos, es pertinente señalar que en los últimos años la evolución de los ojos se está rexaminando. De hecho, el descubrimiento de los genes que regulan la morfogénesis en el desarrollo embrionario —genes de control maestro— cambió la perspectiva en la biología moderna. Resulta que todos los metazoos comparten genes homólogos que regulan el desarrollo embrionario. En una de las investigaciones que apoyan fuertemente la nueva perspectiva, realizadas por Walter J. Gehring y sus colaboradores, encontraron que el gen Pax 6 —el que regula la morfogénesis del ojo— es homólogo tanto en insectos como en vertebrados. Es interesante señalar que este gen se ha detectado en todos los grupos de animales que poseen ojos, desde platelmintos —invertebrados de simetría bilateral— hasta mamíferos. Estos resultados comienzan a generar dudas sobre la hipótesis del origen polifilético de los ojos en los grupos animales, sugiriendo más bien uno monofilético. Gehring señala que el origen de los ojos fue un evento raro, y una vez que surgió el prototipo, la selección natural actuó optimizando el desarrollo de los ojos en los diferentes grupos de animales, como es el caso de la convergencia de los de vertebrados y de cefalópodos. Estas conclusiones son sorprendentes, ya que empezamos a comprender que los animales —bilateralmente simétricos— podrían ser variaciones de un mismo diseño corporal que se remonta al precámbrico y, por lo tanto, el surgimiento de cada estructura o morfología, como los ojos y el cerebro de los animales, podría ser irrepetible.
Con base en lo anterior, podemos revisar uno de los descubrimientos más importantes en la exobiología. El 7 de agosto de 1996, la National Aeronautics and Space Administration (nasa), realizó una conferencia de prensa para anunciar la publicación de un artículo en la revista Science, “Search for past life on Mars: possible relic biogenic activity in martian meteorite ALH84001”. En ese texto, David S. McKay y sus colegas afirmaban haber encontrado en un meteorito marciano la evidencia de una posible forma de vida extraterrestre. La historia de este meteorito surge hace quince mil millones de años, cuando Marte fue impactado por un asteroide, desprendiéndose de él algunos fragmentos que viajaron por el espacio exterior hasta que cayeron en la Antártica hace trece mil años. Al examinar varios de esos fragmentos se descubrió que en las grietas de uno de ellos había substancias químicas que suelen formarse por alguna actividad biológica; y no sólo eso, incluso presentaba unos microfósiles que recordaban a las bacterias de la Tierra. Lo más curioso del asunto es que esos microfósiles datan de tres mil seiscientos millones de años atrás —lo que coincide con los fósiles más antiguos de la Tierra—, una época en la que el agua era abundante en la superficie de Marte. Aunque todas estas evidencias podrían explicarse de otra manera —no mediante la materia biológica—, es cierto que despertó el interés del público y el de la ciencia. Ahora bien, cabría preguntarnos ¿qué relación tiene el meteorito marciano con la inteligencia extraterrestre? Sus bacterias nos conducen a una conclusión fascinante: que ése podría ser el tipo cosmopolita de la vida en el Universo. Si es así, ¿cuáles son las posibilidades de que surja la vida compleja por caminos convergentes en otros planetas partiendo de las bacterias? Como vemos, la pregunta cambió radicalmente. Antes podría ser cualquier cosa refiriéndonos a la materia organizada, ahora tendría que surgir de una célula tipo bacteriano, el cual es muy diferente a nuestro tipo celular que es eucarionte y sus orígenes pueden rastrearse hace mil cuatrocientos millones de años, una época en la que las condiciones atmosféricas de la Tierra empezaban a cambiar. En aquel entonces hubo un incremento exponencial de oxígeno, un gas venenoso que resultó mortífero para los organismos dominantes en ese período; solamente algunos sobrevivieron, entre ellos los eucariontes, un tipo celular que surgió de la simbiosis de dos células de tipo bacteriano. Ahora bien, las mitocondrias transforman el mortífero oxígeno en energía, cualidad que proporcionaría a las nuevas células eucariontes el boleto para la supervivencia. En conclusión, sin la simbiosis de las dos células de origen procarionte, las eucariontes no existirían. Algo interesante, puesto que las últimas son la materia prima para la construcción de organismos pluricelulares. Éste caso sólo representa un pequeño ejemplo de las millones de contingencias que nos conducen a pensar en lo indeterminado que es la inteligencia extraterrestre.

Finalmente, según la hipótesis de Peter D. Ward y Donald Brownlee, la vida bacteriana está extendida por todo el Universo, y que la vida compleja —como los animales— probablemente es extraña y difícil de mantener —postura a la que llaman la hipótesis de la Tierra extraña. De hecho, Ward y Brownlee desarrollaron su propia ecuación, la ecuación de la Tierra extraña, que es la siguiente:
 
N = N* x fp x fpm x ne x ng x fi x fc x fl x fm x fj x fme
 
donde N* es el número de estrellas en la Vía Láctea, fp la fracción de estrellas con planetas, fpm la fracción de planetas ricos en metales, ne el número de planetas en zonas habitables de la estrella, ng las estrellas en una zona habitable de la Galaxia, fi la fracción de planetas habitables donde se originó la vida, fc la fracción de planetas donde surgió vida compleja como los metazoos, fl el porcentaje del tiempo de vida de un planeta donde existe vida compleja como los metazoos, fm la fracción de planetas que tengan un satélite del tamaño adecuado, fj la fracción de sistemas solares con planetas del tamaño de Júpiter, y por último, fme la fracción de planetas con un bajo número de eventos de extinción masiva. Con todas estas variables, el valor del número de civilizaciones en la Vía Láctea N, según Ward y Brownlee, se aproxima a cero. Escribieron, “evidentemente, algunos de estos términos se conocen en poco detalle [pero] la variabilidad de factores que han permitido la evolución de la vida animal en este planeta, debe ser más grande de lo que se conoce ahora […] La continua marginalización de la Tierra y su lugar en el Universo quizás debería ser examinada de nuevo. No estamos en el centro del Universo y nunca lo estaremos. Sin embargo, no somos tan ordinarios como la ciencia occidental nos ha hecho creer durante milenios”.

Aunque todas las propuestas acerca del programa seti parecen bastante interesantes, es indudable que sus posibilidades de éxito son escasas y, por lo tanto, podrían representar una perdida de tiempo y de recursos. Thomas S. Kuhn decía que la ciencia es un fenómeno social que se realiza por medio de nociones y supuestos teóricos que un grupo humano comparte en una época en particular.

Quizás, por ahora, no podamos responder la pregunta más enigmática de la humanidad; pero de algo sí podemos estar seguros: nuestra especie es del tipo de vida más raro y exótico que pueda presenciar el Cosmos. Tal vez el Universo está plagado de vida, pero imaginar que hay seres inteligentes en otros mundos, en realidad es lo que nos hace únicos.
Carlos Alberto Ochoa Olmos
Ana Barahona Echeverría
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Referencias bibliográficas
 
Cocconi, G. y P. Morrison. 1959. “Searching for inter­stellar communications”, en Nature, vol. 184, pp. 844-846.
Dick, S. J. 1996. The biological Universe: The twen­tieth-century extraterrestrial life debate and the limits of science. Cambridge University Press.
Dobzhansky, T. 1972. “Darwinian evolution and the problem of extraterrestrial life”, en Perspectives in Biology and Medicine, vol. 15, pp. 157-175.
Gehring, W. J. 1998. Master control genes in development and evolution: The homeobox story. Yale University Press.
Gould, S. J. 1995. La sonrisa del flamenco. Crítica, Barcelona.
Gould, S. J. 1999. La vida maravillosa: Burgess Shale y la naturaleza de la historia. Crítica, Barcelona.
Mayr, E. 1987. “The probability of extraterrestrial intelligent life” en Extraterrestrials: Science and alien intelligence, Regis, E. (ed.), Cambridge University Press, pp. 23-30.
Ochoa Olmos, C. A. 2003. Perspectiva histórica de la pluralidad de los mundos y el debate inteligencia extraterrestre en el siglo xx. Tesis de licenciatura, unam, fes Iztacala.
Carlos Alberto Ochoa Olmos estudió biología en la Facultad de Estudios Superiores Iztacala de la unam. Actualmente estudia la maestría en Ciencias Biológicas y es profesor de Filosofía e Historia de la Biología en la Facultad de Ciencias de la unam.
Ana Barahona Echeverría estudio la licenciatura en biología en la Facultad de Ciencias de la unam, donde obtuvo el Doctorado en Ciencias. Es profesora de la Facultad de Ciencias de la unam, miembro de la Academia Mexicana de Ciencias y del Sistema Nacional de Investigadores.
_______________________________________________________________
 

 

como citar este artículo

Ochoa Olmos, Carlos Alberto y Barahona Echeverría, Ana. (2006). ¿Vale la pena la búsqueda de inteligencia extraterrestre? Ciencias 82, abril-junio, 4-10. [En línea]

 
  ←Regresar al índiceartículo siguiente→
1 12
     
Homeostasis global y selección natural, un juicio para Gaia
Se presenta un análisis de la literatura sobre las evidencias actuales que fortalecen y que cuestionan la hipótesis Gaia para establecer su estatus actual, principalmente en cuanto su compatibilidad con la teoría de la evolución por selección natural.
Miguel Ángel Munguía Rosas
conoce más del autor
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
 
En 1965, durante un programa de ex­ploración de la National Aeronautics and Space Administration (nasa), James Lovelock examinó la atmósfera de diversos planetas; buscaba desarrollar un modelo para predecir la presencia de vida. Analizó la composición atmosférica de los planetas que no albergan vida y la de la Tierra, y advirtió que en los primeros la mezcla de gases estaba en completo equilibrio químico y que lo opuesto sucedía en nuestro planeta. Las atmósferas de Venus y Marte están dominadas por dióxido de carbono, mientras que la Tierra presenta una extraña combinación de gases altamente reactivos, como el metano y el oxígeno, que difiere por muchos ordenes de magnitud del esperado en el equilibrio químico. No pudo evitar relacionar su hallazgo con los seres vivos —que son sistemas termodinámicamente abiertos fuera del equilibrio— y sugirió que los organismos son más que simples pasajeros de la Tierra que modifican activamente la atmósfera de acuerdo con sus requerimientos, conduciéndola fuera del equilibrio químico. Entonces, la vida podría detectarse indirectamente analizando la composición de la atmósfera de los planetas.

Las grandes cantidades de gases producidas por los seres vivos están involucradas en el mantenimiento de la composición inestable de la atmósfera terrícola. La vida también es la causa de la homeostasis —la capacidad de un sistema para mantener determinados parámetros dentro de ciertos márgenes a pesar de los cambios en su entorno— en la composición atmosférica por periodos de tiempo que rebasan la residencia esperada de los gases según sus propiedades fisicoquímicas. Las condiciones actuales de nuestro planeta se mantienen dentro de los límites relativamente estrechos que los eucariontes multicelulares —algas, hongos, líquenes, etcétera— pueden tolerar. La vida persiste a pesar de que, desde que se originó, la temperatura del Sol se ha incrementado alrededor de 25%. La vida está involucrada en la regulación del clima.
 
Lovelock, quien decidió llamar Gaia al complejo Tierra-vida, recibió fuertes criticas, entre las que destacan que en su forma inicial sugiere que los organismos buscan un objetivo, es decir, es teleológica; aparentemente es incongruente que pueda emerger la autorregulación en el nivel planetario mediante el proceso de selección natural, el cual opera sobre individuos; y es sumamente difícil plantear una hipótesis nula para una teoría de estas dimensiones, y más difícil aún conducir algún experimento.

En 1974, Lovelock y la microbióloga Lynn Margulis conjugaron sus observaciones sobre comunidades de bacterias y publicaron un trabajo con un título seductor, Homeostasis atmosférica por y para la biósfera. La hipótesis, en su forma original, establecía que la vida regula la composición atmosférica y el clima; ahora se ha modificado en función de las críticas recibidas, perdiendo paulatinamente el marco sensacionalista característico de Lovelock. En 2002, Lenton y Van Oijen describieron una versión moderna de la teoría. Gaia es un sistema cibernético cuyos elementos esenciales son la vida que afecta su ambiente, todos los organismos toman energía libre y excretan compuestos con alto grado de desorden para mantener su entropía interna baja; el crecimiento y la reproducción de los organismos; el ambiente que limita la vida, para cada variable ambiental existe un rango o nivel en el cual el crecimiento de un organismo se maximiza; y la selección natural, una vez que el planeta es habitado por diferentes formas de organismos cuya variación es heredable, la presión de selección y la competencia por recursos limitados filtra los genotipos con mayor adecuación. Gaia comprende la biósfera, la atmósfera, la hidrósfera, la materia orgánica muerta y el suelo, difiere del sistema Tierra previo a la vida y de la biósfera porque llega más allá del espacio ocupado por la vida.

Modelos de vida artificial

Los organismos, de acuerdo con Gaia, crean en conjunto un ambiente propicio para su desarrollo, con lo que parecería inevitable pensar en cooperativismo en el nivel de la biota total y, por lo tanto, en selección de grupos. Esto haría que Gaia sea insostenible según la actual teoría de la evolución, la cual postula que la unidad sobre la que opera la selección natural es el individuo. En relación con esto, en una ocasión Hamilton comentó, “así como Copérnico necesitó de Newton para explicar sus observaciones, yo necesito otro Newton para poder explicar cómo la selección natural pudo originar la homeostasis global”. Lejos de revivir a Newton para responderle, Lovelock creó la parábola del planeta de las margaritas, que en su forma original asume un planeta que gira alrededor de una estrella, a una distancia similar a la que existe entre la Tierra y el Sol, y que la temperatura aumenta con el tiempo. En el planeta existen dos especies, una margarita negra y otra blanca, que compiten por espacio y afectan su medio inmediato mediante la refracción de la luz. Tanto las margaritas negras como las blancas presentan tasas de crecimiento óptimas a 25ºC y un rango de tolerancia de entre 5 y 40ºC, ambas tienen la misma tasa de crecimiento, pero difieren en su capacidad para reflejar la luz, las blancas enfrían su ambiente —alta refracción—, mientras que las negras lo calientan —alta absorción. En un principio, el planeta presenta bajas temperaturas, lo que impide que las semillas germinen, pero conforme se incrementa la temperatura, las primeras semillas logran germinar. La refracción de la luz de las margaritas blancas provoca que su temperatura sea más fría que la de su ambiente, lo que obstaculiza su crecimiento. En contraste, las margaritas negras calientan su medio y favorecen su reproducción, por lo que proliferan calentando más el ambiente, lo cual favorece el crecimiento de ambas especies. Con el aumento de la temperatura, llega un momento en que las margaritas negras son perjudicadas por su alta absorción de radiación y su población declina. En este punto, las margaritas blancas son las que dominan el planeta hasta que la temperatura excede los rangos de tolerancia. Aunque aumente la temperatura de la estrella hasta 45ºC, la superficie del planeta permanece cercana al óptimo. Las margaritas funcionan como termostato, pues las dos especies presentan tendencias opuestas. En 1995, Stöcker incorporó al modelo la capacidad de mutación en el color de las margaritas, bajo este supuesto el planeta experimenta mayor capacidad de regulación y por periodos de tiempo más prolongados.
 
Saunders, en 1994, y Robertson y Robinson, en 1998, plantearon dos cuestionamientos al modelo del planeta de las margaritas. Primero, ¿qué pasaría si alguna de las especies de margaritas o ambas, en lugar de regular la temperatura se adaptara a temperaturas cada vez más altas? Segundo, ¿por qué no surge por mutación un defraudador que no contribuya, pero que se beneficie con la regulación de los demás? Ser defraudador puede proporcionar una ventaja, pues economiza recursos que puede invertir en su adecuación, ¿qué mecanismos de recompensa tienen los organismos que cooperan y cuáles evitan la presencia de defrauda­dores?
En 2000, Lenton y Lovelock respondieron al primero argumentando que la adaptación no puede ser ilimitada, “una margarita adaptada a una temperatura de 100ºC no es algo coherente”. Incorporaron un término al modelo que limita la capacidad de adaptación, con lo que lograron reinstalar al planeta de las margaritas en el marco de la evolución. Dos años más tarde, Sugimoto analizó nuevamente la adaptación de las margaritas considerando que las plantas tienen una capacidad de adaptación variable; encontró que las margaritas no pierden la capacidad de regular la temperatura a pesar de las diferencias entre los individuos. Introducir en el modelo la capacidad de adaptación diferencial sólo lo ajusta más a situaciones reales.
Para resolver el segundo cuestionamiento, Lovelock introdujo en el planeta de las margaritas una planta gris, la cual se podría esperar que ahorre energía porque no participa en la regulación del medio que realizan las blancas y las negras. De acuerdo con los resultados, la margarita gris no destruye la capacidad de regulación del sistema, sólo tiene ventaja mientras la energía de la estrella está en el punto donde la regulación no es requerida. A medida que se incrementa la temperatura en el mundo de las margaritas, el costo de participar en la regulación es recompensado por el beneficio de mantener la temperatura cercana al óptimo para su crecimiento.

En 2001, Harding incluyó en su modelo, además de las margaritas, herbívoros y carnívoros. Con él predice que las plantas más abundantes serán las más atacadas por los herbívoros, algunas evolucionan con estrategias antiherbívoro y las que poseen mayor potencial biótico pueden sobrevivir porque la población de her­bívoros es controlada por la de carnívoros. Las margaritas continúan regulando la temperatura de la atmósfera, regulación que emerge de procesos como la competencia, la de­predación y la selección natural.
Algunos trabajos teóricos trata­ron de abordar el problema de la ho­meostasis global mediante modelos que hacen una abstracción de un eco­sistema. En 2003, Wilkinson enume­ró las características mínimas que en cualquier planeta con vida basada en carbono debe presentar un ecosistema para ser autorregulable: flujo de energía, múltiples gremios, compromisos ecológicos que promueven la diversificación de los gremios, hi­perciclos ecológicos, captación de carbono y posiblemente fotosíntesis. Cuatro años antes, Down­ing y Zvrinsky habían retomado la mayoría de los elementos enumerados por Wilkinson para modelar el desarrollo de un gremio biogeoquímico artificial. El modelo demostró que cuando una biósfera artificial tiene una cantidad limitada de recursos y un vasto número de organismos, la competencia promoverá que la bio­ta desarrolle innovaciones metabólicas. Muchos gremios biogeoquímicos pueden emerger cuando un desecho se convierte en recurso para otros. Esta transferencia de materiales puede forjar ciclos y procesos de retro­alimentación, lo que le permite a la biota ganar más biomasa de la que el flujo externo puede soportar.

Teleología


El título del artículo donde se postulaba la teoría de Gaia, Homeostasis atmosférica por y para la biósfera, sugiere que la biota busca una meta. Sin embargo, buena parte de los títulos de los trabajos de Lovelock tienen esa connotación, por lo que puede ser más cuestión de estilo que de teleología explícita. Las hipótesis con alguna connotación teleológica refutan la selección natural como un proceso evolutivo, porque la última es un mecanismo y no un principio, no busca una meta, simplemente regula el paso de un carácter que confiere ventaja de un individuo hacia otro, por medio de la sobrevivencia y la reproducción diferencial.
 
La teleología en Gaia puede ser simplemente una cuestión de enfoque. Una adaptación con cierta función X podría tener otros efectos adicionales Y y Z, los cuales no pueden considerarse como la función primaria de esa adaptación. Transportando este razonamiento hasta un ejemplo real, la fotosíntesis tiene como principal función la captura de energía por medio de la conversión de la energía luminosa en glucosa; por lo tanto, la liberación de oxígeno y el consumo de bióxido de carbono son efectos colaterales. No sería coherente interpretar la producción de oxígeno como algo consciente para beneficio de los organismos aerobios. Sin embargo, los últimos son beneficiados. No es coherente argumentar teleología cuando la regulación en el nivel global no es el objetivo, sino un efecto colateral.

Un sistema complejo adaptativo

Un sistema complejo, aquel que no puede explicarse por el comportamiento de sus partes, tiene propiedades emergentes que describen su conducta colectiva. La diversidad e individualidad de componentes, la interacción de ellos y un proceso autónomo que los selecciona son los tres elementos esenciales de los sistemas complejos adaptativos de donde pueden emerger propiedades como la adaptación continua, la ausencia de un controlador global, la organización jerárquica, la generación de novedades perpetuas y el desequilibrio termodinámico. Ejemplos de sistemas complejos adaptativos son los organismos y los ecosistemas.

El término adaptativo no significa que todo el sistema esté sometido a la selección, se utiliza para describir el desarrollo y la respuesta del sistema, y se aplica a aquellos no sujetos a la selección natural como un todo, aunque sus partes posiblemente sí. Aunado a esto, si se considera la selección en un sentido más amplio que la selección natural, podemos describir conductas adaptativas que no son necesariamente el producto de la última.
 
Gaia es un sistema complejo adaptativo porque tiene diversas partes interconectadas y sus propiedades no se explican totalmente por sus componentes; además, posee los tres elementos básicos: sostiene una gran diversidad e individualidad de componentes, existe interacción entre los organismos y, al menos, un proceso autónomo de selección —la selección natural. Como Gaia es un sistema complejo, emergen las propiedades mencionadas: es un sistema fuera del equilibrio, genera perpetuamente novedades —evolución—, tiene una organización jerárquica —poblaciones-ecosistemas-Gaia— y no existe un controlador global.

Considerar a Gaia como un sistema de tal naturaleza neutraliza la necesidad de recurrir a la selección en el nivel de grupo, porque la selección no opera en el nivel de todo el sistema, sino en sus partes. El hecho de que el sistema total aparente ser un sistema armónico no es teleología, es una propiedad emergente.

Un sistema cibernético

La cibernética estudia los sistemas que son regulados por retroalimentación, mecanismos que mantienen al sistema dentro de un marco de variación bien delimitado —placa homeostática. Cuando el proceso conserva al sistema dentro de la placa homeostática se denomina retroalimentación negativa, mientras que cuando se incrementa la tendencia de una respuesta más allá de la placa los mecanismos constituyen la retroalimentación positiva. La teoría de sistemas cibernéticos, ampliamente empleada en ecología —interacciones depredador-presa, ciclos biogeoquímicos, etcétera—, puede utilizarse para explicar la resiliencia —capacidad para volver a la situación anterior de una alteración, tras cesar la causa de la última— de Gaia durante el tiempo en que la vida ha permanecido en la Tierra.

Lovelock sugirió que Gaia se autorregula en el rango de lo habitable. El término regulación es utilizado, en un sentido cibernético, como la tendencia de un sistema para contrarrestar las perturbaciones. La hipótesis de Gaia propone tres elementos en la regulación: los procesos de retroalimentación que contribuyen con la homeostasis ambiental, los organismos que construyen un ambiente favorable para la vida y los mecanismos de retroalimentación que emergen por selección natural. En 2002, Kirchner criticó estos elementos, argumentando que los mecanismos mediados por retroalimentación no son intrínsecamente homeostáticos, que muchos de los mecanismos biológicos que afecta el clima son desestabilizadores; es decir, algunos mecanismos de retroalimentación biológicamente mediados son amplificadores —retroalimentación positiva— y no depresores —retroalimentación negativa— de procesos ambientales como el calentamiento global. Afirmaba también que la retroalimentación biológicamente mediada no necesariamente hace al ambiente más favorable para la vida —aunque lo aparenta—, la imagen del ambiente completamente armónico con la vida es simplemente un artefacto, producto de la fuerza purificadora de la selección natural, la cual sólo favoreció los organismos con mejor desempeño en sus respectivos ambientes. Por último, decía que si bien la retroalimentación que favorece la homeostasis de Gaia puede haber evolucionado por selección natural, también puede hacerlo la retroalimentación disruptiva.
 
Los partidarios de Gaia rápidamente respondieron a las inquietudes de Kirchner. Los procesos de retroalimentación no emergen por selección natural, la retroalimentación es una propiedad emergente de Gaia. Los sistemas anti-Gaia no pueden permanecer mucho tiempo porque se colapsarían. El patrón avalado por la historia geológica es que existen largos periodos de estabilidad, regulados principalmente por retroalimentación negativa, interrumpidos por intervalos cortos en los que predomina la retroalimentación positiva —por ejemplo, las extinciones masivas. De hecho, la teoría de Gaia siempre ha integrado eventos de retroalimentación, tanto negativa como positiva.
 
En 2003, Volk sugirió que la emergencia de retroalimentación puede explicarse mediante mecanismos que operan en el nivel del individuo. Para él, los elementos clave son los subproductos, que en su forma más simple son desechos de los organismos. Estos subproductos no evolucionaron para ser evacuados al ambiente y alterarle su composición química, si eso sucede es un efecto colateral. Aunque los desechos son sustancias inútiles para los organismos que los producen, pueden y de hecho afectan el ambiente global. Si consideramos que la Tierra tiene recursos limitados y una vasta cantidad de organismos, la competencia y la selección natural pueden favorecer la presencia de nuevas rutas bioquímicas, donde se utilicen los subproductos como recurso y se evite así la competencia.

El modelo nulo

Un aspecto que ha obstaculizado la consolidación de Gaia es la generación de hipótesis. ¿Cómo podemos hacer una hipótesis nula de una teoría de dimensión planetaria donde sólo tenemos una N = 1? De acuerdo con Gaia, la vida ejerce gran influencia sobre su medio para su propio beneficio, pero ¿cuál es ese beneficio y cómo puede medirse? En 2002, Kleidon propuso utilizar la productividad primaria bruta como indicador de los efectos favorables de la vida en su ambiente. Las hipótesis nulas de Kleidon son: a) anti-Gaia: los efectos de la biota sobre el ambiente son disruptivos y repercuten en baja productividad primaria bruta, el porcentaje de esta última con vida es menor que el de la abiótica; b) no Gaia: pueden existir efectos de la biota sobre el ambiente, pero no incrementan ni deprimen la productividad mencionada, aquella con biota es igual que la sin biota; c) favorables a Gaia: la biota modifica las condiciones ambientales de acuerdo con sus requerimientos, esto repercute en mayor productividad primaria bruta, pero sin alcanzar el máximo, aquella con biota es mayor que la abiótica; y d) Gaia óptimo: los efectos de la biota modifican favorablemente la productividad, al punto en que el ambiente es óptimo para la vida, aquella con biota es mayor que la abiótica.
 
Las hipótesis nulas pueden probarse con modelos empíricos bioclimáticos. Uno de ellosresta el papel de la vegetación en la captación de carbono y otro incrementa la precipitación natural en un 30%. Los resultados obtenidos sugieren un significativo efecto benéfico de la vida sobre la productividad mencionada, respecto al ambiente abiótico. Esto proporciona argumentos para rechazar las dos primeras hipótesis. 30% de precipitación adicional sólo incrementa la productividad del mundo real en 5% y no alcanza el óptimo, por lo que la última hipótesis también es rechazada. La tercera es la única que resiste los intentos de refutación utilizando como parámetro la productividad primaria bruta.

Evidencia empírica

La ciencia avanza mediante un proceso de conjetura y refutación. Las teorías se proponen por medio de especulaciones y se contrastan contra observaciones. En 2003, Kirchen argumentó que no existen posibilidades de comprobar empíricamente la teoría de Gaia. Las cuatro hipótesis nulas planteadas sólo pueden contrastarse y refutarse con base en datos que provienen de modelos, no de estudios empíricos. Las evidencias de que Gaia existe provienen principalmente de modelos teóricos. Sin embargo, esta es una fase característica en el desarrollo de cualquier teoría —sobre todo de una que trata de fenómenos en el nivel global, con limitadas posibilidades de experimentación. Los partidarios de Gaia, para recabar evidencia empírica, han buscado ciclos en la escala del ecosistema o huellas del pasado que puedan ejemplificar cómo emerge la autorregulación.

Desde sus inicios, Gaia fue planteada con base en datos empíricos, como las observaciones de Lovelock con espectrografía infrarroja de la atmósfera de varios planetas. En la Tierra existen varios ciclos homeostáticos que involucran factores climáticos, químicos, geológicos y biológicos, algunos de ellos son la regulación de largo plazo de las temperaturas globales por organismos fotosintéticos, el mantenimiento en los océanos de la salinidad relativa, la proporción fósforo-nitrógeno en los cuerpos de agua y en los microorganismos acuáticos, la habilidad de la vida para crear rutas eficientes de reciclaje para los nutrimentos presentes en cantidades limitadas y la producción de un precursor de dimetil sulfuro (dms) por parte del fitoplancton marino, el cual funciona como núcleo de condensación de nubes y puede actuar como un termostato en el nivel global.

Los opositores de Gaia han citado otros fenómenos que parecen no ajustarse a ella. En 2002, Kirchner mencionó que la producción antropogénica de dióxido de carbono es evidencia de la pobre capacidad reguladora de la vida. El uso de combustibles fósiles ha colocado las concentraciones de los gases de invernadero más allá de los límites observados en los últimos cuatrocientos mil años. La composición de la atmósfera no es regulada eficientemente por los individuos. Los partidarios de Gaia: respondieron que la aparente falta de regulación de los gases de invernadero en la atmósfera actual es el resultado de la incorporación de carbono que estaba inmovilizado. Después de un periodo probablemente no perceptible en la escala humana, cuando el combustible fósil se agote, los or­ga­nismos regularán de nuevo las concentraciones de esos gases —lo cual es anticipado con modelos empí­ricos.

Un año después, el mismo Kirchner adicionó otras interrogantes en la agenda de Gaia: ¿qué controla la magnitud y duración de los ciclos glaciales e interglaciales?, y ¿por qué cambian todo el tiempo?, ¿qué controla los patrones de extinción y diversificación en el registro fósil?, y ¿cómo están ligados con el clima? Sería prematuro decir que estas preguntas no pueden contestarse, porque apenas fueron planteadas.

El juicio

En los últimos años creció la apertura de los editores de revistas científicas para publicar trabajos sobre la hipótesis de Gaia, lo que puede considerarse una evidencia de que está ganando un lugar como una teoría científica seria. Los modelos teóricos son otras evidencias que apoyan a Gaia. Elementos críticos para la teoría de la evolución —como la competencia intra e inter especifica, la limitación de recursos, la mutación y la presión del ambiente— se han integrado con éxito en los modelos del planeta de las margaritas y de la vida artificial. La historia que narran parece infalible, los modelos teóricos tienen la capacidad de integrar cualquier elemento y refutar así las críticas. Sin embargo, la impresión de que son infalibles no es una propiedad de Gaia, sino de los modelos.
 
Mientras que Lenton en 2002, y junto con Wilkinson un año después, habla de que el incremento en el número de publicaciones sobre Gaia anuncia la emergencia de un nuevo paradigma, Kirchern, en 2003, dice que el terreno que ha ganado se debe a las modificaciones que sufrió y a lo que han cedido los opositores. Sin embargo, existen puntos de concordancia entre partidarios y algunos opositores cuando opinan que entre la atmósfera y la biósfera deben emerger procesos de retroalimentación, que los sistemas acoplados por retroalimentación pueden exhibir propiedades emergentes, incluso la autoregulación y que la Tierra debe considerarse como un todo.
 
Aunque la evidencia que trata de reconciliar a Gaia con la selección natural es creciente, existen problemas que dificultan realizar un juicio sobre ella. La mayoría de los cuestionamientos que plantean los opositores aún surge desde una visión reduccionista y no de una donde la Tierra sea vista como un sistema global. Los partidarios deberán reunir más datos de procesos reales compatibles con Gaia, así como tener iniciativas de experimentación —un microcosmos podría ser una alternativa. A pesar de las limitaciones para la última, la teoría actualmente vive su etapa de mayor intensidad de debate científico. La aceptación de Gaia parece no estar lejos. Sin embargo, su completa aceptación no será en su forma actual, seguramente tendrá que sufrir transformaciones radicales.
Miguel Ángel Munguía Rosas
Instituto de Ecología A. C.
Xalapa, Veracruz.
Referencias bibliográficas
 
Downing K. y P. Zvirinsky. 1999. “The simulated Evolution of Biochemical Gilds: Reconciling Gaia and Natural Selection”, en Artificial Life, núm. 5, pp. 291-318.
Harding S. 2001. “Complexity and Stability in a Gaian Ecosystem Model”, en Tellus, núm. 51, pp. 1-10.
Kirchner J. W. 2002. “The Gaia Hypothesis: Fact, Theory, and Wishful Thinking”, en Climatic Change, núm. 52, pp. 391-408.
Kirchner J. 2003. “The Gaia Hypothesis: Conjectures and Refutations”, en Climatic Change, núm. 58, pp. 21-45.
Kleidon A. 2002. “Testing the Effect of Life on Earth’s Functioning: How Gaia is the Earth System”, en Climatic Change, núm. 52, pp. 383-389.
Lenton T. M. y J. E. Lovelock. 2000. “Daisy World is Darwinian: Constrain on Adaptations are Important for Planet Regulation”, en Journal of Theoretical Biology, núm. 206, pp. 109-114.
Lento T. M. y M. Van Oijen. 2002. “Gaia as a Complex Adaptive System”, en Philosophical Transactions B, núm. 357, pp. 683-695.
Lenton T. M. 2002. “Testing Gaia: The Efect of Life on Earth’s Habitability and Regulation”, en Climatic Change, núm. 52, pp. 409-422.
Lenton T. M. y D. M. Wilkinson. 2003. “Developing the Gaia Theory”, en Climatic Change, núm. 58, pp. 1-12.
Lovelock J. E. y L. Margulis. 1974. “Atmospheric Homeostasis by and for the Biosphere: The Gaia Hypothesis”, en Tellus, núm. 26, pp. 2-9.
Lovelock. 2003. “The Living Earth”, en Nature, núm. 426, pp. 769-770.
Robertson D. y J. Robinson. 1998. “Darwinian Daisy World”, en Journal of Theoretical Biology, núm. 195, pp. 129-134.
Saunders P. T. 1994. “Evolution Without Natural Selection”, en Journal of Theoretical Biology, núm. 166, pp. 365-373.
Stöcker S. 1995. “Regarding Mutations in Daisyworld Models”, en Journal of Theoretical Biology, núm. 175, pp. 495-501.
Sugimoto T. 2002. “Darwinian Evolution Does not Rule Out Gaia Hypothesis”, en Journal of Theoretical Biology, núm. 218, pp. 447-455.
Volk T. 2003. “Natural Selection, Gaia, and Inadvertent By-products: A Reply to Lenton and Wilkinson’s Response”, en Climatic Change, núm. 58, pp. 13-19.
Wilkinson. 2003. “The Fundamental Processes in Ecology: a thought experiment on extraterrestrial Biospheres”, en Biological review, núm. 78, pp. 171-179.
Miguel Ángel Munguía Rosas es biólogo por la Facultad de Estudios Superiores Iztacala de la unam. Maestro en Ciencias Biológicas por el Centro de Investigaciones en Ecosistemas (cieco) de la unam. Actualmente cursa el doctorado en Ecología en el Instituto de Ecología A. C. de Xalapa, Veracruz.
_______________________________________________________________ 

como citar este artículo

Munguía Rosas, Miguel Ángel. (2006). Homeostasis global y selección natural, un juicio para Gaia. Ciencias 82, abril-junio, 16-25. [En línea]
flechavolver82   ←Regresar al índiceartículo siguiente→
1 12
     
¿Colaborar o no colaborar?
Ése es el dilema
Se presenta el desarrollo del estudio matemático de la colaboración entre los seres humanos, a partir de la formulación del dilema del prisionero. Se analizan las principales estrategias utilizadas en torneos de colaboración del juego del dilema del prisionero iterado.
José Antonio de la Peña y Nelia Tello
conoce más del autor
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
La sociedad precede en la naturaleza al individuo.
Alguien que no puede llevar a cabo una vida social o que es autosuficiente y no la necesita,
es una bestia o un Dios.

Aristóteles
 
Es manifiesto que durante el tiempo
que los hombres viven sin una fuerza común
que los mantiene controlados, viven en condición de guerra: todo hombre contra todo hombre.

Hobbes
 
La colaboración entre los seres humanos es un asunto sobre el que no sólo Aristóteles y Hobbes han reflexionado. Grandes mentes en filosofía, ciencias políticas, economía, antropología, historia, psicología y biología evolutiva lo han hecho a lo largo de la historia. Para algunos, la naturaleza humana es pacífica y hay una tendencia natural a colaborar; por ejemplo, Locke argumentaba que, aunque el hombre pueda entrar en un estado de guerra, es por naturaleza cooperativo. Para otros, más pesimistas, sólo la fuerza del Estado puede llevarnos a trabajar por el bienestar común. Muchos problemas de colaboración, no sólo entre humanos, pueden reducirse a un planteamiento similar al del dilema del prisionero, que de alguna forma presenta la situación más simple y desnuda en la que dos actores se encuentran y tienen que decidir, ¿colaboro o no colaboro?

El problema conocido como el dilema del prisionero fue formulado por primera vez en 1950 por Melvin Drescher y Merrill Flood de la corporación rand. El primer artículo sobre el tema lo escribió Albert Tucker y de ahí surgió su famoso nombre. Publicado sólo años después, el dilema del prisionero fue ampliamente socializado entre la comunidad científica por un rápido proceso de transmisión oral, probablemente porque en esa época prevalecían preocupaciones por la carrera armamentista y la proliferación nuclear.

En la formulación original, dos prisioneros A y B, detenidos por la policía como sospechosos de ser cómplices en un delito, son interrogados por separado. A cada uno se le hace la siguiente oferta: si confiesas y delatas al otro preso, tendrás un castigo menor. Así, si A acusa a B y éste guarda silencio, A saldrá libre, mientras que B será recluido cinco años. Pero como la oferta también vale para B, si ambos se acusan, los dos recibirán tres años en prisión. Por otra parte, como no hay pruebas importantes, si ambos guardan silencio, sólo recibirán un año en prisión.
 
¿Qué deben hacer?
 
Cada cual tiene la tentación de acusar al otro. Peor aún, cada cual piensa: si callo y el otro me traiciona, me tocan cinco años de prisión. Si lo acuso, tal vez salga libre y, en el peor de los casos, sólo me tocarán tres años de cárcel. Luego, lógicamente, acusa al otro preso. Ambos tendrán sus tres años en prisión. Si tan sólo hubieran colaborado con el otro y callado, sólo se quedarían un año encerrados. Paradoja.

Quizás la publicación más influyente sobre el tema sea The Evolution of Cooperation de Robert Axelrodt, un investigador de ciencias políticas que condujo las primeras simulaciones en computadora para enfrentar distin­tas estrategias de cooperación. Actual­mente, poco más de veinte años después de escritas, las conclusiones de su libro cobran validez. “Hoy, los problemas más importantes que enfrenta la humanidad están en la arena de las relaciones internacionales, donde naciones independientes y egoístas se enfrentan unas a otras en un estado de casi total anarquía. Muchos de estos problemas toman la forma del dilema del prisionero iterado. Entre los ejemplos se pueden incluir la carrera armamentista, la proliferación nuclear y la escalada militar. Por supuesto, para una comprensión realista de estos problemas tendríamos que considerar muchos factores que no están incorporados en la formulación simple del dilema del prisionero, algunos de ellos son la ideología, la burocracia, los acuerdos y coaliciones, la media­ción y el liderazgo. Sin embargo, po­de­mos usar la perspectiva ganada con el enfoque matemático. […] Desde los griegos clásicos hasta los estudios contemporáneos, toda la teoría de las ciencias políticas trata un problema fundamental: ¿cómo puede la raza humana entender y controlar las fuerzas ciegas de la Historia? En el mundo contemporáneo este problema es especialmente agudo”.

La formulación original del dilema del prisionero es equivalente al siguiente problema —según la forma sugerida por Hofstadter. Supongamos que tienes una cantidad de dinero y quieres comprar diamantes. Contactas al único vendedor de joyas de la ciudad y te pones de acuerdo en las cantidades que habrán de intercambiar. Por alguna causa, la transacción tiene que llevarse a cabo en secreto y cada cual acuerda en dejar una bolsa —una con el dinero, otra con las joyas— en un lugar preestablecido. Para ambos, el comprador y el joyero, es claro que no se encontrarán nunca más en la vida. ¿Qué sucede?

Por supuesto, ambos temen que el otro traicionará el acuerdo y deja­rá la bolsa vacía. Si ambos cumplen y dejan las cantidades acordadas, los dos estarán contentos. Pero cada cual está tentado a salirse con la mayor ganancia: obtener lo que se quería a cambio de no dar nada. ¿Qué piensas hacer? Si cumples y te traicionan, además de lo perdido, te sentirás como tonto. Si no cumples y sólo dejas la bolsa vacía, hay dos posibilidades: o bien te traicionan y no pierdes nada, o bien el joyero cumple y ¡tanto mejor! Entonces, parece razonable concluir que debes dejar la bolsa de dinero vacía. Esta conclusión, lógica y razonable, también la puede tomar el joyero, y te dejará sólo una bolsa vacía. Así, de acuerdo con la lógica, nadie obtiene lo que quiere. Situación paradójica: pudiendo ganar algo que desean, un razonamiento elemental los lleva a perderlo.

Para comprender mejor el problema de la colaboración en la sociedad humana, los ejemplos en el mundo animal pueden ayudar. El estudio de la colaboración entre animales surgió con Darwin, quien en 1859, en El Origen de las Especies, señala una serie de tendencias cooperativas y altruistas en los animales que calificó como “una especial dificultad, pues al principio me parecieron fatales para mi teoría”. Sin embargo, se percató de que si la selección natural operaba al nivel de las colonias sociales, las tendencias altruistas podrían explicarse. De hecho, el codescubridor de la selección natural, A. R. Wallace argumentaba en Darwinism, publicado en 1891, “la idea popular de la lucha por la existencia en el mundo animal, que conlleva miseria y dolor, está muy alejada de la realidad. Realmente, la vida se da con gran gozo y un mínimo de sufrimiento”.

Uno de los autores más influyentes en el cambio de percepción del mundo animal fue Peter Kropotkin. Personaje fascinante. Príncipe ruso, fundador de un movimiento anarquista, renombrado geólogo y biólogo evolucionista, Kropotkin reportó por primera vez detalles de la cooperación de abejas y de hormigas en la defensa de sus nidos, cooperación en­tre aves, lobos y la colaboración de los perros de las praderas en la construcción de sus casas.

Todos estos ejemplos de cooperación en el mundo animal, y otros casos, pueden considerarse como situaciones del dilema del prisionero. Pero, ¿por qué en el mundo animal hay colaboración, si nuestra conclusión lógica era no colaborar? Por la simple razón de que los animales se reconocen entre sí. El que hoy ayuda, mañana podrá beneficiarse de la ayuda de otros. Las situaciones interesantes en el mundo real no son dilemas del prisionero aislados, sino una sucesión indefinida de dilemas, uno tras otro. Para estudiar el problema en su nueva complejidad, la teoría de juegos puede auxiliarnos.

El mito de Tit-for-Tat

Consideremos nuevamente el planteamiento del dilema del prisionero. Estamos interesados en cambiar dinero por joyas, pero esta vez continuaremos viviendo en la misma ciudad que el joyero y estaremos interesados en realizar otras transacciones. ¿Qué hacer en este caso? Si traicionamos al joyero, seguramente, será difícil recuperar su confianza para hacer otra transacción. Tal vez sea más inteligente colaborar con él en varias ocasiones, esperar a que se confié, y ¡entonces engañarlo! Bueno, ésta es una estrategia posible. Pero, ¿qué estra­tegia seguirá el joyero?

Pongamos las cosas en términos más precisos. Dos jugadores A y B se enfrentarán en situaciones sucesivas del dilema del prisionero. Ambos podrán colaborar, entonces se presenta la situación C:C, y ambos obtendrán una ganancia R —que pueden ser pesos, años de cárcel, u otra forma de pago—; si A colabora y B no, estamos en la situación C:D, así A obtendrá una ganancia S y B una ganancia T; si sucede que A no colabora y B sí, entonces A obtiene T y B obtiene S; finalmente, si ninguno colabora, es la situación D:D y ambos obtienen P. Por supuesto, se debe tener
 
S < P < R < T.
 
Además, se impone en el juego la condición T + S < 2 R, para que un jugador no encuentre atractiva la estrategia de “colaboro una vez y la siguiente no, alternadamente”. Por ejemplo, podría ser
 
T= 3, R = 1, P= –2 y S= –3.
 
En el dilema del prisionero iterado la estrategia del jugador A puede leerse como una sucesión de acciones: colabora C, no colabora D. Por ejemplo, la estrategia de A puede ser: (C, C, C, D, C, D, D, …), y continúa siempre sin colaborar. Tal vez, la estrategia de B sea (D, C, D, C, D, C, D, …) colaborando una vez no, la siguiente si. En el primer encuentro de A y B, se presenta la situación C:D, de forma que A pierde 3 puntos y B gana 2. En el segundo encuentro, la situación que es C:C y ambos ganan 1 punto. Si seguimos la sucesión de respuestas de las estrategias de A y B, tendremos que sus ganacias, son para A:
 
–3 + 1 – 3 + 2 – 3 + 2 –2 –2.
 
y para B:
 
2 + 1 + 2 – 3 + 2 – 3 –2 –2.
 
De manera que B siempre aventajará a A por 5 puntos.
 
Hay muchas estrategias. Por ejemplo:
 
EstC = (C, C, C, …) siempre colabora
EstD = (D, D, D, …) nunca colabora
EstCD = (C, D, C, D …) colabora y luego no, y así sucesivamente
EstDC = (D, C, D, C …) no colabora y luego sí, y así sucesivamente;
 
Azar, que decide en cada ocasión por medio de un volado.
 
Por supuesto, A puede recordar lo que le hizo B y actuar en consecuencia. Así, la estrategia de A puede ser “colaboro siempre que B colabore conmigo, la primera vez que no lo haga, no volveré a colaborar”. O bien, “colaboro con B la primera vez y luego colaboro sólo que haya colaborado conmigo la vez anterior”.

En 1979, Robert Axelrodt decidió organizar un torneo para elegir la mejor estrategia en el juego del dilema del prisionero iterado. Para ello, envió invitaciones a más de sesenta personas, de todas las disciplinas del conocimiento, en seis países. Los instaba a que propusieran estrategias para un torneo que se efectuaría en una computadora. Las estrategias que recibió fueron programadas en Basic y puestas a competir todas contra todas, de modo que cada una se enfrentara a las otras exactamente doscientas veces. ¿Cuál fue la vencedora?

La ganadora, y por clara diferencia, fue la propuesta del psicólogo de la Universidad de Toronto, Anatol Rapoport, llamada Tit-for-Tat —que podríamos traducir como Tal para Cual. Esta estrategia, que denotaremos tt, consiste en la siguiente táctica al enfrentarse a otra estrategia B: coopera en la primera jugada con B, y a partir de la segunda vez que lo enfrentes, hazle lo mismo que te hizo en el enfrentamiento anterior.
 
Así de sencillo. El programa de Rapoport era el más corto de todos los enviados a Axelrodt. Más que vencer a las otras estrategias, tt permitía ganar tanto como las otras. Esto bastaba para triunfar en el torneo.

Había otros programas ingeniosos en la lista de Axelrodt. Por ejemplo, el programa Joss enviado por el matemático suizo de ese nombre. Comienza colaborando y contesta no co­laborando (D) enseguida de una D del rival, pero a una colaboración (C) contesta colaborando casi siempre, salvo en ocasiones, que al azar elige no colaborar. Joss trata de sacar provecho de la confianza establecida. Otro programa en la lista era Tit-for-two-Tats —escribiremos t2t— que es aún más generosa que tt: colabora primero y no colabora sólo después de que se presenten dos no colaboraciones sucesivas del rival.

¿Por qué Joss no le gana a tt? Enfrentémoslos. La primera jugada es siempre C:C y así continúan hasta que Joss decide no colaborar y tenemos una situación C:D. Entonces tt no colabora, y Joss, inocentemente, regresa a colaborar. Tenemos ahora D:C. Entonces, la siguiente jugada es C:D y después D:C y así sucesivamente hasta que a Joss se le vuelve a ocurrir no colaborar, y se presenta entonces una situación D:D. De ahí en adelante siempre tendremos D:D como respuestas. ¡Joss no pudo sacar ventaja de tt!

Probablemente fue una sorpresa que un programa tan simple y claro como tt resultase el ganador del torneo de Axelrodt. A partir de entonces, tt se convirtió en el paradigma del altruismo recíproco. Muchas conclusiones se siguieron de esta idea. En palabras de Axelrodt, “la cooperación mutua puede emerger en un mundo de egoístas sin contar con un control centralizado. Basta comenzar con un grupo de individuos que trabajan con base en la reciprocidad”.

Las estrategias deterministas

Durante años de trabajo en el área nun­ca se demostró que tt fuera real­mente una estrategia vencedora en torneos definidos de manera más for­mal y general que los caprichosos torneos de Axelrodt.
 
Tratemos algunos desarrollos recientes. Normalmente, la literatura sobre el tema considera estrategias estocásticas en las cuales las respuestas, C o D, están determinadas sólo con cierta probabilidad. Por el contrario, para entender mejor la situación es conveniente considerar estrategias deterministas.
 

Una estrategia determinista E consta de un número finito de estados

el primero de los cuales es el estado inicial, dos funciones de transición y una función de salida

Al enfrentarse E con una estrategia B, primero responde s(a0), y dependiendo de la respuesta de B, cambia su estado a uno nuevo e; por ejemplo, si B responde C entonces el nuevo estado de E será e=fC (a0), y responde s(e), y así sucesivamente.
Una estrategia determinista puede dibujarse de manera sencilla por medio de una gráfica con n vértices y flechas de acuerdo con las funciones fC y fD, el valor de la función s se determina por la letra C o D en el lugar de cada vértice. Por ejemplo, conside­remos las gráficas de la figura 1.
FIG1
La primera, con un solo estado
 
a0, s(a0)=C
 
y, por supuesto,
 
fC(a0)= a0 y fD(a0)=a0
 
es la estrategia EstC definida antes. La segunda corresponde a EstD. La tercera es Tit-for-Tat y la cuarta Tit-for-two-Tats. La ventaja de dibujar explícitamente las estrategias es que podemos manipularlas con mayor facilidad. En particular, podemos enfrentarlas y calcular al ganador de torneos.
Primero, es necesario resaltar algunas propiedades interesantes que pueden cumplir las estrategias deterministas. Decimos que una estrategia determinista
 
A= ({a0, a1,…, an}, fC, fD, s)
 
es noble si
 
s(a0) = C y s(fC(ai)) = C
 
para toda i. En otras palabras, colabora al principio y, cuando el rival colabora, siempre responde C. Decimos que A es vengativa si
 
s(fD(ai)) = D
 
para toda i. En otras palabras, siempre responde D a una no colaboración de un rival.
Observemos que EstC, tt, t2t son estrategias nobles, mientras que EstD y tt son vengativas. De hecho, en alguna forma que no trataremos aquí, tt es la única estrategia determinista que es simultáneamente noble y vengativa.
Supongamos que tenemos dos estrategias deterministas A y B.
 
A = ({a0, a1,…, an}, fC, fD, s)
B = ({b0, b1,…, bm}, gC, gD, t)
 
En su primer encuentro, responden
 
s(a0):t(b0)
 
La estrategia A cambiará al estado ft(b0)(a0) y la B al estado gs(a0)(b0). En su segundo encuentro, la respuesta será
 
s(ft(b0)(a0)): t(gs(a0)(b0))
 
y cambian los estados de A y B correspondientemente. Matemáticamente, diríamos que la serie de respuestas de los enfrentamientos de A y B, que llamaremos el torneo t(A:B), está dado por la órbita del elemento (a0, b0) en la función tal que
 
F(ai, bj) = (ft(bj) (ai)), gs(ai) (bj))
 
Estos torneos también se pueden dibujar por medio de una gráfica, como en los ejemplos de la figura 2.
FIG2
Ahora, hablemos de la ganancia que obtienen A y B al enfrentarse. Usaremos los mismos valores que empleamos anteriormente, es decir, si en el paso i-ésimo la respuesta es
 
s(ai): t(bi)
 
la ganancia gi(A:B) de A respecto a B en ese paso es
 
1 si s(ai): t(bi) = C:C;
2 si s(ai): t(bi) = D:C;
– 3 si s(ai): t(bi) = C:D;
– 2 si s(ai): t(bi) = D:D;
 
La ganancia g(j)(A:B) de A respecto a B hasta el paso j-ésimo es la suma de todas las gi(A:B) con i ≤ j. Se puede demostrar matemáticamente que el límite de las ganancias promedio de A respecto a B
 
g(A:B) = limj-->∞ g(j)(A:B)/j
 
existe y, conociendo la gráfica del torneo t(A:B), puede calcularse fácilmente. Llamaremos a este número g(A:B) la ganancia neta de A respecto a B, la cual, salvo desviaciones marginales, indica la ganancia que obtiene A al enfrentarse con B. En los ejemplos concretos es fácil calcular g(A:B) como ilustramos en la figura 3.
FIG3
Un resultado importante que muestra el comportamiento de diferentes tipos de estrategias es el siguiente teorema: sean A y B dos estrategias deterministas. Entonces sucede lo siguiente: Si A es noble,
 
g(A:B) ≤ g(B:A)
 
si A es vengativa, entonces
 
g(A:B) ≥ g(B:A); y g(tt,B) = g(B:tt).
 
En otras palabras, Tit-for-Tat no supera a ninguna, sólo empata. Sin embargo, esto le basta para ganar, al menos a veces, cuando se enfrenta con varias estrategias en torneos co­mo los organizados por Axelrodt.
Ahora, organicemos un torneo con los siguientes participantes: Tit-for-Tat y las estrategias P y B indicadas en la figura 4, que incluye la tabla de ganancias. Observamos que P resulta ganadora del torneo. Definitivamente, Tit-for-Tat no es tan buena como la pintan.
FIG4
La estrategia Pavlov

En 1993, Nowak y Sigmund observaron que la estrategia P tenía un comportamiento interesante. Al realizar simulaciones por computadora de torneos entre estrategias estocásticas, obtenían que P era más exitosa que Tit-for-Tat. Por primera vez se contradecían las aclamadas observaciones de Axelrodt.
 
En ese artículo, se le llamó Pavlov a la estrategia P por la siguiente observación: Pavlov colabora con otra estrategia B en el movimiento i-ésimo si y sólo si en el movimiento anterior ambas jugaron igual. Un jugador con la estrategia Pavlov reacciona como reflejo a su ganancia, repite la respuesta anterior si obtiene T o R puntos (> 0) y cambia de respuesta si obtiene P o S puntos (< 0). Según los autores, el éxito de Pavlov se basa en dos ventajas sobre Tit-for-Tat.
 
La primera es que puede corregir errores ocasionales. Si dos estrategias Tit-for-Tat se enfrentan y por error —aquí no suponemos que las estrategias son deterministas puras— una contesta D en lugar de C, quedarían perpetuamente respondiendo D:D. En cambio, un error en un jugador Pavloviano, se corrige a la ronda si­guiente y regresan a una amigable situación C:C. La segunda es que, a diferencia de Tit-for-Tat, puede sacar provecho de los cooperadores incondicionales. Un error de un jugador Pavloviano contra un cooperador in­condicional trae por consecuencia una sucesión de D:C, lo cual favorece las ganancias del Pavloviano. Jamás le sucederá algo así a un jugador con estrategia Tit-for-Tat.
 
La explicación del éxito pretendido por Tit-for-Tat, según Nowak y Sigmund, está en el tipo de torneos deterministas que fueron jugados. Además, ya se mostró que tt no es exitosa en el mundo determinista. Por otra parte, en el torneo de la figura 4 se observa que Pavlov tampoco es una estrategia invencible, la estrategia B la vence. De hecho, hemos demostrado el siguiente resultado o teorema: Sea

A= ({a0, a1,…, an}, fC, fD, s)

una estrategia determinista con un máximo de cuatro estados. Entonces g(A:J4) ≤ g(J4:A) donde J4 es la estrategia definida en la figura 5.
FIG5
El dilema del prisionero se ha estudiado por más de cincuenta años como una metáfora matemática de muchos problemas biológicos, sociales, económicos y políticos. Como paradigma de la colaboración, la es­trategia Tit-for-Tat ha jugado un papel conceptual fundamental. Sin embargo, diversas consideraciones matemáticas y algunas simulaciones por computadora, muestran que esta estrategia no cumple con las expectativas formuladas en la literatura. Otras estrategias más simples, como la intolerante —igual a colaboro la primera vez y sigo colaborando sólo si antes colaboraron conmigo—es mucho más exitosa que la estrategia Tit-for-Tat. Tal vez esto sea decepcionante políticamente, pero matemáticamente es cierto.
José Antonio de la Peña
Instituto de Matemáticas,
Universidad Nacional Autónoma de México.
Nelia Tello
Escuela Nacional de Trabajo Social,
Universidad Nacional Autónoma de México.
Referencias bibliográficas
 
Axelrodt, R. 1984. The Evolution of Cooperation. Basic Books, Nueva York.
Conway, J. H. 1971. Regular Algebra and Finite Machines. Chapman and Hall, Londres.
De la Peña, J. A. y N. Tello (en prensa). Deterministic strategies in the iterated Prisoner´s Dilemma.
Dugatkin, L. A. 1997. Cooperation among Animals. An Evolutionary perspective. Oxford University Press.
Hofstadter, D. 1983. “The Prisoner´s Dilemma and the evolution of cooperation”, en Scientific American, número de mayo.
Mesterton-Gibbons, M. 2001. An Introduction to Game-Theoretic Modelling. Student Mathematical Librery 11, ams.
Nowak, M. y K. Sigmund. 1993. “A strategy of win-stay, lose-shift that outperforms tit-for-tat in the Prisoner´s Dilemma game”, en Nature, Vol. 364, pp. 56-58.
José Antonio de la Peña es Doctor en Matemáticas por la unam y realizó un posdoctorado en la Universidad de Zürich. Es investigador del Instituto de Matemáticas de la unam, de donde es director desde 1998. Pertenece al SNI en el Nivel III. Obtuvo el Premio Nacional de Ciencias y Artes 2005 en el área de Ciencias Exactas y Naturales.
Nelia Tello Peón es licenciada en Trabajo Social por la unam y pasante de la maestría en Semiótica, U. Anahuac. Especialista en atención a jóvenes y académica de la Escuela Nacional de Trabajo Social de la unam, de donde fue directora entre 1992 y 2000.
_______________________________________________________________

 

como citar este artículo

De la Peña, José Antonio y Tello, Nelia. (2006). ¿Colaborar o no colaborar? Ése es el dilema. Ciencias 82, abril-junio, 42-49. [En línea]
  ←Regresar al índiceartículo siguiente→
1 12
     
Matracas estocásticas,
¿una máquina de movimiento perpetuo?
Se analizan algunos intentos de construir máquinas de movimiento perpetuo con base en la primera y segunda ley de la termodinamica y se ve cómo, aunque la construcción de una máquina de ese tipo es imposible, su búsqueda ha conducido a proponer nuevas hipótesis sobre el origen de la vida.
Laura Viana y Carlos Villarreal
conoce más del autor
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
Durante siglos, una parte de la humanidad ha luchado persistentemente por mejorar las duras condiciones de trabajo, eliminar la devastadora acción del hambre y de las enfermedades, y evadir la certeza de la vejez y de la muerte. De alguna manera para retornar al paraíso original de la tradición judeo-cristiana, un sitio idílico donde todas las especies, incluído el ser humano, conviven en armonía, sin actos de predación ni presiones de selección natural. Muchos esfuerzos se enfocaron en entender y manipular la naturaleza para sacar mejor provecho de ella, conjugando elementos materiales y espirituales. Así, nos encontramos con la búsqueda de la piedra filosofal, que transmutaría la materia degradada y corrupta en oro incorruptible y puro; o la de la fuente de la eterna juventud, para hacer realidad el sueño de poseer la belleza y el vigor juvenil por siempre; y finalmente, la del perpetuum mobilae, o máquinas de movimiento perpetuo, que desarrollarían trabajo de manera gratuita, eximiendo a los hombres de muchas de sus cargas laborales. Estas máquinas, una vez en movimiento, permanecerían en ese estado por siempre, sin necesidad de utilizar combustible, lo que permite pensar en ruedas que giran eternamente o barcos que obtienen su energía a partir de calor extraído del agua de mar. Por supuesto, la historia está plagada de fraudes de quienes, pretendiendo haber logrado un diseño exitoso, consiguieron socios inversionistas para desarrollarlo.

Algunos de los pri­meros intentos de di­se­ño de este tipo de má­quinas están registrados en documentos medievales de mediados del siglo xiii. Por ejemplo, la figura de la izquierda data de 1235 y está tomada del libro de notas del ingeniero francés Villard de Honnecourt, allí se muestra una rueda de la que cuelgan pesos que hacen que un lado siempre sea más pesado que el otro, lo cual la mantendría girando. En 1269 aparece un diseño similar en el libro De Magnete de Pièrre de Mericourt (el Peregrino), pero en éste —la figura de la derecha—, los pesos son reemplazados por una rueda de hierro dentada y la fuerza motriz proviene de un imán en forma de cucharón colocado en el centro.

La figura superior, un grabado extraído del Theatrum Machinarum Novum de 1673, muestra una máquina de mo­vimiento perpetuo para afilar cuchillos. Su mecanismo se basa en el uso de una rueda hidráulica que al girar acciona un tornillo de Arquímedes, el cual permite subir agua hasta un depósito. Al caer el agua sobre la rueda hidráulica, la hace girar, cerrándose de esta forma el ciclo. En el siglo xvii se intentó la construcción de los primeros artefactos de este tipo, algunos realmen­te ingeniosos. Sin embargo, aunque tengan la habilidad de operar durante largos periodos de tiempo, eventualmente se detienen.

En 1635 se otorgó la primera patente inglesa para una máquina de movimiento perpetuo y, al comenzar el siglo xx, en ese país se habían otorgado alrededor de seiscientas. Actualmente, las oficinas de patentes de muchos países, entre ellos Gran Bretaña y los Estados Unidos, no revisan las solicitudes para máquinas de movimiento perpetuo, y en Francia, desde 1775, la Academia de Ciencias implantó como política no establecer ninguna correspondencia respecto a este asunto. Sin embargo, todavía hay quienes —basados en concepciones erróneas de la termodinámica— piensan que es posible construir una máquina de movimiento perpetuo, siempre y cuando se conjuguen grandes dosis de tenacidad e ingenio. Así, un rápido vistazo por internet permite distinguir los intentos de algunas personas que, de buena o mala fe, continúan trabajando con esta idea en mente.

Nunca se construyó una máquina de movimiento perpetuo, pero no todos los esfuerzos fueron en vano, pues gran parte del desarrollo de la termodinámica tuvo su origen en los intentos por crear máquinas capaces de convertir eficientemente energía calorífica en mecánica. El desarrollo conceptual de la termodinámica evolucionó lentamente durante el siglo xix. Después de años de trabajo de muchas personas, Julius Clasius logró resumir sus postulados básicos en dos leyes fundamentales, actualmente conocidas como la primera y la segunda ley de la termodinámica, que permitieron el diseño de máquinas que realmente funcionaron y que originaron la revolución industrial. Posteriormente, se incorporó la tercera ley que completa la teoría y cuya formulación requirió el desarrollo de la estadística cuántica; esta ley es muy importante desde el punto de vista conceptual, pero no es requerida por el grueso de la termodinámica.

Las leyes de la termodinámica

A mediados del siglo xix, el científico inglés James Joule probó que todas las formas de energía son esencialmente lo mismo y que, por lo tanto, pueden transformarse una en otra. Con esto demostró que la cantidad de energía requerida para producir un cambio en un sistema es independiente del método de administración y de la velocidad de suministro. Los métodos pueden ser la inyección o extracción de calor, la aplicación de algún tipo de trabajo mecánico, eléctrico, etcétera, o una combinación. Esto significa que existe una relación fija entre la cantidad de trabajo y el calor, lo cual representa el equivalente mecá­ni­co del calor y constituye la base de lo que ahora se co­noce como la primera ley de la termodinámica, que también puede expresarse como una declaración: “existe una cantidad llamada energía, la cual se conserva y es aditiva”. Entonces, si unimos dos sistemas, la energía total será igual a la suma de la energía de cada uno.

Ahora bien, aunque son formas equivalentes de energía, la transformación del calor en trabajo no se efectúa de manera arbitraria; siempre que se realiza, una parte de la energía se pierde irremediablemente en forma de calor. Esto es precisamente lo que se encuentra plasmado en la segunda ley de la termodinámica. En 1824, el ingeniero militar francés Sadi Carnot encontró que existe un límite teórico para la eficiencia con que se puede producir trabajo partiendo de calor. La forma más eficiente es mediante un proceso cíclico reversible, el cual regresa al estado original después de cada ciclo y opera alternadamente entre dos temperaturas, T2 y T1. Este ciclo de Carnot es un procedimiento específico de cuatro etapas, gracias al cual podemos extraer calor de un sistema caliente —a temperatura T2—, utilizar parte de la energía para realizar trabajo e inyectar la energía restante, en forma de calor, en un sistema más frío —a temperatura T1— para después regresar al estado de partida. El sistema caliente podría ser una caldera y el frío el ambiente o agua templada. Se puede demostrar que la eficiencia (ε) de este proceso, definida como la fracción de calor extraído que es transformada en trabajo, depende únicamente de la temperatura de las dos fuentes y está dada por la relación

ε = (T2-T1 ) /T2

donde las temperaturas se expresan en grados Kelvin. Según esta relación, si las dos temperaturas son iguales, la eficiencia es cero y es imposible extraer trabajo del sistema. También sugiere que para transformar todo el calor en trabajo, o lograr un proceso con eficiencia ε = 1, necesitaríamos que T2 fuese muy grande comparada con T1; de hecho, la temperatura T2 tendría que ser infinita o alternativamente, T1 igual a cero grados Kelvin, aproximada de –273oC. Por las enormes dificultades que implicaría alcanzar estas temperaturas y como cualquier otro proceso para convertir calor en energía tiene una eficiencia menor, queda claro que no puede haber un proceso con eficiencia ε = 1 y, por lo tanto, debemos desechar el sueño del movimiento perpetuo.

La segunda ley y el movimiento perpetuo

No existe una línea divisoria precisa entre los distintos tipos de máquinas de movimiento perpetuo que se han diseñado, aunque hay que insistir en que ninguna funcionó. Sin embargo, para analizarlas podríamos dividirlas en tres clases: las de primer y segundo tipo, que violarían la primera y la segunda ley de la termodinámica, respectivamente, y las de tercer tipo, que se podrían construir si se eliminan todos los factores que disipan energía, como la fricción mecánica y la resistividad eléctrica. La de primer tipo, aquella que después de pasar por un proceso cíclico en el que el estado final es igual al inicial, tiene como efecto neto la producción de trabajo —implica que la energía no se conserva, sino que aumenta. Un ejemplo sería el afilador de cuchillos de la figura superior en la página 32. El error de este diseño consistió en suponer que la energía obtenida del movimiento de la rueda sería mayor que la necesaria para regresar el agua a su posición original. La de segundo tipo transformaría íntegramente el calor en trabajo; por ejemplo, el diseño del ceromotor, muy similar a una máquina de vapor convencional. La última, como la que se muestra en la figura inferior, utiliza agua que al ponerse en contacto con una fuente de calor a temperatura T2, como en una caldera, se calienta; cuando alcanza 100oC, el agua se evapora y conforme continúa calentándose, aumenta la presión del vapor, que al llegar al valor máximo deseado, libera un pistón, el cual se mueve, transformando energía calorífica en mecánica. Posteriormente, se aleja el sistema de la caldera y se pone en contacto con uno de enfriamiento, con lo que el aire se enfría, se contrae y crea un vacío que provoca que el pistón se retraiga y que el volumen del gas disminuya; de esta manera, el gas vuelve a condensarse y regresa a su estado original. En este ciclo el sistema toma energía de una fuente caliente —caldera—, suelta calor hacia una fuente fría —sistema de enfriamiento o ambiente— y produce trabajo mecánico. Es claro que para que funcione, hay que mantener la caldera caliente; esto es, hay que suministrarle energía.

El ceromotor, diseñado por John Gamgee, utilizaría amonio como líquido operante en lugar de agua, porque el amonio se evapora a 0oC y ejerce una presión de cuatro atmósferas —cuatro veces mayor a la presión atmosférica al nivel del mar— a esa temperatura. Por ello, su diseñador pensó que esta máquina podría utilizar el calor del ambiente para evaporar el amonio, y que éste al expanderse se enfriaría y condensaría, cerrándose así el ciclo. Gamgee consideró que de esta forma no sería necesario mantener caliente una caldera, por lo que no se utilizaría combustible. Lo que no calculó correctamente es que si este gas se expande cuatro veces su volumen original, consecuentemente su temperatura bajaría a –33oC, por lo que para alcanzar esta temperatura durante la segunda fase tendría que estar en contacto con un reservorio a una temperatura aún menor. Así, aunque la temperatura alta podría obtenerse del ambiente, tendríamos que enfriar el sistema en la segunda parte del ciclo, y para ello, utilizar un refrigerador, que obviamente consume energía.

Respecto a las máquinas del tercer tipo, aquéllas que sólo podrían construirse eliminando todos los aspectos que disipan energía, resulta pertinente comentar que si bien se ha alcanzado cierto éxito en la construcción de máquinas que permanecen en movimiento por largos periodos, es un hecho que, tarde o temprano, fatalmente se detienen.

De pulgas y elevadores

El proceso de extraer calor de un sistema y transformarlo en trabajo se hace con una eficiencia menor que uno. Pero, ¿será esto ineludiblemente cierto o se trata de una limitación de nuestras capacidades técnicas? Siguiendo al famoso físico Richard Feynman, hagamos un experimento pensado. Tenemos dos recipientes con gas a temperaturas TISQ y TDER, respectivamente, unidos por un perno que los atraviesa de lado a lado por su parte media, dejando una sección suspendida en medio de los dos, tal como lo muestra la figura de esta página.

Ahora, en el interior del recipiente de la izquierda y montado sobre este perno, fijemos un engrane que pueda girar únicamente en un sentido por la presencia de una laminilla de metal que obstaculiza el giro en el otro. Es decir, tendremos algo similar a una matraca. Por otro lado, a la sección del perno que se encuentra en el interior de la caja del lado derecho le fijaremos un sistema de aspas. Los gases contenidos en las dos cajas están compuestos por moléculas que se mueven chocando entre sí, con una variación aleatoria en la dirección de sus movimientos, de manera que las aspas reciben bombardeos de partículas sobre sus dos caras, con la misma regularidad. Si suponemos que las aspas y el engrane son de diminutas dimensiones, de forma que los golpeteos moleculares pueden perturbarlas, las paletas girarían aleatoriamente en una y otra dirección y transmitirían su movimiento, a través del perno, al engrane localizado en la otra caja. Sin embargo, recordemos que el engrane en la caja izquierda únicamente permite los giros en una dirección; así, los golpeteos sobre una cara de las aspas harían girar el engrane en la otra caja, mientras que sobre los lados opuestos, se encontrarían con la resistencia del engrane, por lo que no tendrían ningún efecto. Ahora viene lo interesante. Supongamos que atamos un pequeño hilo al segmento central del perno que se encuentra en el exterior, en medio de las dos cajas, en su otro extremo sujetamos a una pulga. La lógica nos dice que al girar el perno exclusivamente en una dirección el cordón se enrollaría y como resultado la pulga ascendería, independientemente de la temperatura de los dos recipientes. Esto es, estaríamos extrayendo energía del recipiente derecho que se encuentra a temperatura TDER y la transformaríamos en trabajo. Ahora bien, si TIZQ es igual a TDER, de acuerdo con la segunda ley de la termodinámica esto sería imposible, pero todo parece indicar que nuestro razonamiento es correcto e independiente de la temperatura en los dos recipientes. ¿Qué es lo que sucede?, ¿podemos ir corriendo hasta la oficina de patentes para registrar este magnífico dispositivo elevapulgas?, ¿es que realmente hemos encontrado que la segunda ley de la termodinámica tiene excepciones?

Si analizamos con mayor detalle el razonamiento, notaremos que hay algunos elementos que no se han considerado. Por ejemplo, la intensidad del golpeteo molecular que mueve las aspas está determinada por la temperatura TDER del recipiente en el cual se encuentra a mayor temperatura, recibirán un mayor número de impactos molecu­lares por segundo. Si la intensidad del golpeteo es suficiente para hacer girar las aspas en un sentido, venciendo con ello la resistencia de la laminilla de la matraca, es factible pensar que el golpeteo molecu­lar en la caja izquierda también sea capaz de levantar esta laminilla. Basta suponer que la temperatura TIZQ de su entorno es idéntica a la temperatura TDER del recipiente de las aspas, por lo que la laminilla recibirá el mismo número de colisiones por unidad de área y por segundo que aquéllas. Al levantarse la laminilla aleatoriamente, la rueda con engrane girará en uno u otro sentido indis­tintamente. Al final, no ocurriría una rotación neta y nuestro proyecto de máquina de movimiento perpetuo fracasaría rotundamente.

Pero, ¿existe alguna forma de darle una utilidad a nuestra máquina? Por supuesto, pero para ello habrá que hacer que las leyes de la termodinámica trabajen a nuestro favor. Si elevamos la temperatura de la caja en la que se encuentran las aspas, de modo que TDER > TIZQ, el número de colisiones por segundo que recibirán las aspas será mayor que el recibido por la laminilla; esto permitirá que la rueda engranada tenga una rotación neta. Si la diferencia en el número de colisiones es suficientemente grande, la pulga se elevará. ¡Nuestra máquina funciona! Sin embargo, no será una máquina de movimiento perpetuo, pues eventualmente las moléculas del segundo recipiente irán perdiendo energía y, por lo tanto, enfriándose; parte de esta energía se utilizará para subir a la pulga y la restante calentará el gas del recipiente izquierdo, de manera que la pulga dejará de ascender cuando estas dos temperaturas se igualen.

Las matracas estocásticas

Pero, ¿para qué sirve construir un elevador de pulgas? Originalmente, Feynman concibió este experimento pensado para discutir algunos aspectos de la termodinámica; sin embargo, recientemente estos sistemas han encontrado aplicaciones para modelar procesos biológicos. Así, podemos pensar en el movimiento que sufrirá una molécula polarizable que interactúa con una sucesión de moléculas cargadas o polares, tal y como ocurre en la transcripción del código genético. La información del código genético (dna, por sus siglas en inglés) está conte­nida en el orden de las cuatro moléculas básicas de la vida: la guanina G, la citosina C, la timina T y la adenina A. Estas bases están dispuestas en secuencias del tipo AGTCTTGGAA…, cada grupo de tres bases corresponde a uno de los veinte aminoácidos esenciales con los que se contruyen las proteínas de los seres vivos, y se leen siempre en el mismo sentido: AGT, CTT, GGA, … Este mecanismo de lectura es muy similar al funcionamiento de la matraca, que siempre rota a saltitos en un mismo sentido. En este caso, la molécula encargada de la transcripción de bases en aminoácidos puede percibir la cadena de dna como un sustrato representado por una sucesión de potenciales asimétricos, entre los cuales la molécula podría brincar en una dirección preferencial bajo ciertas condiciones.
 
Si la molécula no tuviera interacciones, permanecería en una posición determinada en alguno de los pozos del potencial. Sin embargo, la molécula será capaz de brincar aleatoriamente hacia los pozos vecinos por estar sujeta a fluctuaciones térmicas de energía, las cuales se originan por colisiones azarozas e impredecibles provo­cadas por las moléculas libres del medio. Podríamos pensar que, si alguna de las pendientes del potencial fuese más suave que la otra, la molécula tendría una mayor probabilidad de brincar en esa dirección hacia el pozo contiguo. Una vez que caiga en el nuevo pozo, el fenómeno se repetiría y habríamos generado un desplazamiento neto partiendo de meras fluctuaciones. Pero esto contradice las conclusiones extraídas en el problema de la matraca. La falla en este razonamiento consiste en que el número de colisiones por segundo que sufrirá nuestra partícula hacia un lado y hacia el otro también es asimétrico, lo cual provocará que la tendencia a remontar el potencial de pendiente más suave sea amortiguada por un mayor número de colisiones en contra. Como resultado, la probabilidad de brincar hacia un lado y hacia el otro es la misma y la molécula no sufre un desplazamiento neto. Como en el problema anterior, es necesario invertir energía química, electromagnética, o mediante un gradiente de temperatura, para provocar un movimiento ordenado. Este mecanismo fue propuesto como un rectificador de ruido; es decir, como una forma de transformar movimiento fluctuante en ordenado.

En equilibrio, el efecto del ruido térmico sobre una partícula es simétrico, aun cuando se encuentre en un medio espacialmente asimétrico, de manera que la partícula brincaría hacia uno y otro lado, pero en promedio no tendría un desplazamiento neto. Sin embargo, si existe una diferencia de temperatura entre los extremos de nuestro sustrato, la partícula se desplazaría hacia uno de los extremos. Por otro lado, se ha encontrado que si se suministra energía fluctuante externa —por ejemplo, un campo eléctrico que varíe en el tiempo o reacciones químicas fuera de equilibrio—, la partícula aprovechará la asimetría del potencial y se desplazará en alguna dirección, que depende en forma no trivial de la asimetría local del potencial, del coefi­ciente de difusión de la partícula, de su masa, de la viscosidad del medio, etcétera. El movimiento azaroso del medio afecta las partículas con masas diferentes de distintas formas; este efecto podría utilizarse para separar partículas o para diseñar dispositivos como motores moleculares, bombas biológicas para iones, etcétera. Ciertamente, la naturaleza se vale de estos mecanismos para muchos de los procesos físicos y biológicos que ocurren en el planeta, los cuales no contradicen la segunda ley de termodinámica, porque parte de la energía utilizada para sobrepasar las barreras de energía se obtiene del ruido térmico.
 
Este mecanismo se ha utilizado para proponer un posible escenario del origen de la vida. Según evidencias recientes, el intervalo de tiempo transcurrido desde el enfriamiento del material terrestre hasta el surgimiento de las primeras manifestaciones de vida, es muy estrecho: unos cuantos cientos de millones de años. Si se calcula la probabilidad de que aparezca la vida exclusivamente como consecuencia de interacciones azarosas en un mar primigenio, como se suponía hasta hace poco, resulta que tendrían que haber pasado muchos más años. Entonces, existe la posibilidad de que la vida en la Tierra se haya originado en partículas sólidas provenientes del espacio interestelar, donde se han encontrado moléculas orgánicas de gran complejidad. Dichas partículas tienen numerosos canales que facilitarían la interacción de diversas moléculas, las cuales podrían formar largas cadenas poliméricas. La información contenida en la estructura polimérica resultaría susceptible de ser transcrita por otras moléculas cuya interacción con éstas estaría determinada por un potencial del tipo diente de sierra. El potencial oscilatorio podría provenir de la luz de las estrellas, mientras que las fluctuaciones estarían determinadas por los rayos cósmicos y todo tipo de perturbaciones existentes en el espacio interestelar. Cuando se realizan los cálculos matemáticos pertinentes nos percatamos de que este escenario no resulta descabellado.

De este modo, ahora buscamos respuestas a la pre­gunta de cómo es que un universo que tiende a aproximarse naturalmente al desorden, a generar el caos, encuentra resqui­cios para burlarse de si mismo y crear orden por doquier. Hablando metafóricamente, quizás al encontrarlas nos recon­ciliemos un poco con la expulsión original y concluyamos que en realidad fue un acto de amor primordial.
Laura Viana Castrillón
Centro de Ciencias de la Materia,
Universidad Nacional Autónoma de México.
Carlos Villarreal Luján
Instituto de Física,
Universidad Nacional Autónoma de México.
Referencias bibliográficas
 
Bernal, J. D. 1975. La proyección del hombre. Historia de la física clásica. Siglo xxi editores, México.
Aldana, M., F. Cázarez Bush, G. Cocho y G. Martínez Mekler. 1998. “Primordial synthesis machines and the origin of the genetic code”, en Physica A, vol. 257, pp. 119-127.
Martínez Mekler, G., M. Aldana, F. Cázarez Bush, R. García Pelayo y G. Cocho. 1999. “Primitive molecular machine scenario for the origin of the three base codon composition”, en Origins of Life and evolution of the Biosphere, vol. 29, pp. 203-214.
Ibarra Bracamontes, L. y V. Romero. 1997. “Stochastic ratchets with colored thermal noise”, en Physical Review E, vol. 56, p. 4048.
Bier, M. 1997. “Brownian ratchets in physics and biology”, en Contemporary Physics, vol. 38, núm. 6, pp. 371-379.
Laura Viana Castrillón estudió la licenciatura en Física en la Facultad de Ciencias de la unam y el doctorado en la Universidad de Mánchester, Inglaterra. Actualmente trabaja como investigadora en el Centro de Ciencias de la Materia Condensada de la unam, en la Cd. de Ensenada B.C. y es coordinadora del Posgrado en Física de Materiales que ofrece la unam conjuntamente con el cisese.
Carlos Villarreal Luján estudió la licenciatura en Física, la maestría y el doctorado en Ciencias en la Facultad de Ciencias de la unam, y el posdoctorado en Física de Altas Energías en Duke University, Carolina del Norte. Actualmente es investigador del Instituto de Física y profesor de la Facultad de Ciencias de la unam.
_______________________________________________________________

 

como citar este artículo

Viana Castrillón, Laura y Villareal Luján, Carlos. (2006). Matracas estocásticas, ¿una máquina de movimiento perpetuo? Ciencias 82, abril-junio, 30-37. [En línea]
 
  ←Regresar al índiceartículo siguiente→
1 12
     
De la licuefacción de los gases o hacia la bajas temperaturas
Se describen los principales acontecimientos, desde la segunda mitad del siglo XVII hasta los albores del XX, en torno al desarrollo de la rama de la física dedicada al estudio de las bajas temperaturas, incluyendo la fundación del primer laboratorio moderno de criogenia en el mundo.
Andrea Aburto
conoce más del autor
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
Cuando escuchamos o leemos acerca de las altas o bajas temperaturas, en general, nuestra percepción se limita a lo que nos es usual. En París, en el verano de 2003 se alcanzó la temperatura récord de 40ºC; la exterior, cuando viajamos en avión, es de alrededor de –40ºC. En este marco, no sería difícil imaginar que la temperatura de fusión del cobre es de 1 380ºC y que en el espacio interestelar es de –120ºC. Sin embargo, ¿qué sucede cuando nos informan que el interior del Sol está a casi diez millones de grados Kelvin o que en su corona es cerca de un millón?, entonces cabe preguntarnos ¿qué tan alto podemos llegar?, o ¿qué tan bajo?
 
La historia de las bajas temperaturas está estrechamente vinculada con la evolución de los conceptos de calor y temperatura. Sabemos que cuando juntamos dos cuerpos, uno caliente y otro frío, al cabo de un tiempo llegarán al equilibrio térmico; es decir, tendrán la misma temperatura, que es una medida del nivel de calor alcanzado y no del calor propiamente como tal. Microscópicamente decimos que la temperatura mide el grado de agitación de los átomos de un cuerpo y, por ende, no hay límite superior. Entonces, cuanto más agitados estén los átomos, mayor será la temperatura del cuerpo y a la inversa, conforme se calma la agitación la temperatura desciende hasta llegar a un punto de inmovilidad casi total, el cero absoluto.

Muchas escalas de temperatura están basadas en conocimientos empíricos, pero la absoluta lo está en resultados experimentales sobre las propiedades de los gases. En 1661, Robert Boyle observó que el producto de la presión (P) por el volumen (V) de una cantidad de aire, a temperatura constante, era constante en un intervalo moderadamente amplio de presiones. Hoy, este resultado se conoce como la ley de Boyle y tiene como expresión matemática: PV = constante. Posteriores experimentos mostraron que la ley de Boyle sólo era aproximadamente cierta, excepto en el límite de las bajas presiones donde es exacta para todos los gases.
 
En dos notables trabajos sobre termometría, publicados en 1688, el físico francés Guillaume Amontons propuso un método para medir el cambio de temperatura del aire en términos de un cambio proporcional de la presión del gas en condiciones de masa y volumen constante. Amontons definió la temperatura del cero absoluto como aquella en que la presión del gas tiende a cero.
 
En los albores del siglo xix, Joseph-Louis Gay Lussac y Jacques-Alexandre César Charles concluyeron, en forma independiente, que el volumen ocupado por cualquier gas incrementa linealmente con el aumento de la temperatura, cuando la presión se mantiene constante. Este resultado se conoce como la ley de Charles y puede expresarse de la siguiente forma:


V = Vo(1 + α t)

donde V es el volumen a una temperatura t (ºC), Vo es el volumen a 0ºC y α es el coeficiente de expansión térmica. Según esta ley, α presenta el mismo valor para varios gases, y como la de Boyle, llega a ser exacta en el límite de las bajas presiones, donde α toma el valor 0.003661 = 1/273.15. Ahora bien, si insertamos este valor en la ecuación anterior se obtiene que cuando t = –273.15ºC, el gas no presenta volumen.
 
De acuerdo con estas leyes, el enfriamiento contínuo de un gas lo llevaría a contraerse de tal manera que una vez alcanzado –273.15ºC, ocuparía un volumen nulo. A esta temperatura se le llamó el cero absoluto, porque cualquiera más baja es imposible. El concepto de volumen nulo se entiende en términos de que no existe espacio libre entre las moléculas del gas por la compresión molecular a esta temperatura. Es importante resaltar que como resultado de estas leyes, en el cero absoluto toda sustancia se presenta en estado líquido o sólido. Se definió entonces una nueva escala de temperaturas que establece que al insertar la temperatura T, dada por


T = t + 273.15

en la ley de Charles se llega a V/T = constante, expresión que combinada con la ley de Boyle resulta en la ley general de los gases: PV/T = constante.

Esta ecuación implica que si se mantiene constante la presión de una cantidad de gas, la medición del volumen puede usarse para determinar la temperatura, y viceversa. El gas ideal o perfecto es aquel que respeta la ecuación general de los gases, y la temperatura T fue definida en la escala absoluta de temperaturas o escala de temperatura de los gases ideales. Ningún gas conocido se comporta exactamente como un gas ideal, por eso la mayoría de los experimentos iniciales que utilizaron estos principios produjeron escalas ligeramente diferentes. No sólo por las divergencias entre los gases, también por los modos de operación de las constantes de presión y de volumen.

En 1848, el físico irlandés William Thomson, prosiguiendo los trabajos de los franceses Gay Lussac y Sadi Carnot, precisó los resultados con respecto al cero absoluto al proponer una escala termodinámica independiente de las sustancias estudiadas. Estos trabajos demostraron que las moléculas de toda sustancia —sólida, líquida o gaseosa— pierden energía a un ritmo constante al descender la temperatura. Calculó que la pérdida total de energía se presenta cuando la sustancia alcanza –273.15ºC, el cero absoluto.

Además de la búsqueda del cero absoluto, Thomson trabajó en termodinámica y estuvo involucrado en el primer cable trasatlántico, para el cual diseñó una máquina capaz de transmitir señales rápidamente a través del cable y comunicarse con un submarino. Tal invento no sólo lo enriqueció, por ser más rentable y mucho más fácil de comprender, sino que además le valió el título de caballero, concedido por la reina Victoria. En 1892 fue nom­brado Barón Kelvin de Largs, Lord Kelvin. La escala absoluta de temperaturas se bautizó así en su honor, el 0 K —sin el símbolo de grado— es equivalente a –273.15ºC.

Una vez conocida la meta, el cero absoluto, quedaba por descubrir ¿cómo llegar a ella? Actualmente, según las condiciones normales que se presentan en nuestro planeta o las obtenidas en los laboratorios, sabemos que las sustancias están formadas por elementos que pueden cambiar de estado de agregación por medio de la condensación, la solidificación, la licuefacción, la sublimación o el derretimiento.

Los gases permanentes

En 1835, con una mezcla de nieve carbónica y éter, el químico francés Thilorier alcanzó –110ºC. Sin embargo, en ese momento el gran enigma consistía en cómo licuar los llamados gases permanentes: el oxígeno, el nitrógeno y el hidrógeno. Por más que se comprimían, aumentando la presión, inexorablemente quedaban como vapor.

Un astrónomo aficionado, Joseph Norman Lockyer descubrió el helio en 1868. Leyó los trabajos de dos científicos alemanes, Gustav Kirchkoff y Robert Bunsen, en donde explicaban cómo el espectro de una fuente luminosa tenía que ver con su composición química. Así, cada raya del espectro indicaba la presencia de un elemento químico. Basado en esto, Lockyer estudió el espectro del Sol y observó las rayas características del hidrógeno, pero también una raya amarilla que no pudo adjudicar a ningún elemento, entonces la atribuyó a un nuevo elemento presente en el Sol, el helio. La carta en la que anunciaba su descubrimiento llegó a la Academia de Ciencias de París el 24 de octubre de 1868, el mismo día en que fue enviada la comunicación del astrónomo francés Janssen, quien llegó paralelamente a los mismos resultados.
 
Esta paternidad simultánea de los descubrimientos no es una casualidad en las ciencias, durante muchos años para evitar la ambigüedad se consideraba al primero en comunicar como el autor del descubrimiento. Hoy, es la publicación en revistas científicas lo que rompe esa ambigüedad. Al año siguiente de su descubrimiento, Lockyer fundó la revista Nature, una de las más prestigiadas del mundo.

Después del descubrimiento de Janssen y Lockyer quedaba encontrar el helio en la Tierra. Como tan sólo cinco partes por millón del aire están constituidas por helio, la dificultad de aislarlo era evidente. Encontrarlo en nuestro planeta tuvo que esperar ventisiete años.
En 1877, como muchos de sus congéneres, Georges Cailletet estaba consagrado a la licuefacción del oxígeno, y esperaba conseguirlo comprimiéndolo suficientemente. En varias tentativas fallidas, observó un fenómeno curioso, en las pruebas preliminares con acetileno se percató de una fuga en su aparato, una parte del gas comprimido se escapaba. Había constatado la formación y casi instantánea desaparición de una ligera niebla dentro del tubo de vidrio que contenía el acetileno.

De ello dedujo que la caída de presión provocó el enfriamiento del gas y su condensación temporal en gotitas. ¿Qué había pasado? La fuga descomprimió al acetileno. Al enfriarse un gas ocupa un volumen mayor; en efecto, la temperatura —como lo predijo Joules— está en relación directa con la agitación de las moléculas. En el tubo de Cailletet las moléculas de acetileno, que después de la fuga tenían más espacio, chocaban y se agitaban menos, el gas se había enfriado. Esta observación del experimento fallido le proporcionó la clave para el método con el cual obtener el resultado buscado. Encerró oxígeno bajo presión —aproximadamente 300 atmósferas— en un tubo de vidrio de paredes gruesas. Enfrió el tubo en forma constante a –29ºC, utilizando vapores de anhídrido sulfuroso. Posteriormente, permitió que el oxígeno se dilatara en el recipiente, la temperatura cayó abruptamente y se formaron gotitas sobre las paredes del tubo. Aunque se evaporaron casi inmediatamente, no importaba, fue ese día, 2 de diciembre de 1877, cuando el oxígeno dejó de ser un gas permanente.
 
Cailletet no reveló sus resultados a la Academia de Ciencias. El 17 del diciembre se celebraría una reunión en la que se decidiría su elección como miembro correspondiente, y pensó que comunicar su hallazgo antes de tal reunión podría influir la decisión del consejo. Sin embargo, envió una carta a un amigo —Saint Claire Deville—, el cual lo comunicó inmediatamente al Secretario Permanente de la Academia, quien fechó y selló la comunicación. Así las cosas, el 24 de diciembre Cailletet entregó su comunicado a la Academia, apenas hubo terminado su lectura, el secretario anunció en la tribuna que dos días antes había recibido el siguiente telegrama: oxígeno licuado hoy bajo 320 atmósferas y 140 grados de frío por la combinación de ácido sulfuroso y ácido carbónico. Raoul Picket.

El físico suizo pudo tener la primicia de no ser por la actitud precavida de Cailletet al enviar la carta a su amigo. Por ello, Cailletet pasó a la posteridad como quien licuó el oxígeno. Sin embargo, Picket llegó a un resultado idéntico pero con un método mucho más eficaz, llamado de cascadas. El 18 de diciembre, la Academia eligió a Cailletet como miembro correspondiente por 33 votos contra 19. Unas semanas después la licuefacción del oxígeno.

En ambos casos, sólo se obtuvieron pocas gotitas y de corta duración. Entonces, el reto, como lo expuso Cailletet en su presentación “queda pendiente el experimento decisivo”, era poder conservar el oxígeno líquido a la temperatura de su punto de ebullición. Ni él ni Picket lo consiguieron.

En 1877 vivía en París un físico polaco de noble cuna que devoraba toda publicación sobre el tema, Szygmunt Florenty von Wroblewski, originario de Cracovia. Con particular interés había leido un informe de una serie de experimentos realizados la década anterior por el químico Thomas Andrews en el Queens College de Belfast. Andrews demostró que la presión sólo podía ayudar para licuar un gas si éste se enfriaba por debajo de una temperatura crítica propia del gas. Mientras no se superara este escollo-umbral, todo esfuerzo sería inútil, por más que se comprima, el gas jamás pasaría al estado líquido.

Wroblewski y Cailletet tenían una cordial relación, a menudo conversaban o discutían, al grado que al regresar Wroblewski a su país natal, se llevó consigo un aparato idéntico al de Cailletet. Cuando llegó a la Universidad de Cra­covia, se encontró con que el jefe del laboratorio de química, Olszewski, también era un apasionado de las bajas temperaturas y de la posibilidad de licuar los aún llamados gases permanentes, el nitrógeno y el hidrógeno.

Wroblewski y Olszewski comenzaron a trabajar juntos en febrero de 1883. Durante dos meses se abocaron a la posibilidad de que aquellas gotitas de Cailletet se transformaran en un líquido bullente. Ya iban por –105ºC, faltaba poco. En ese momento no sabían que la temperatura crítica del oxígeno —bajo presión— es de –118ºC. Los polacos tuvieron la idea de emplear una bomba para disminuir la presión sobre el etileno líquido, porque según los trabajos de Andrews y Cailletet así sobrevendría el enfriamiento.

Efectivamente, la temperatura del etileno cayó a –130ºC, un ambiente frío para el tubo que contenía oxígeno. El 9 de abril vieron cómo se formaban pequeñas gotas sobre las paredes de vidrio, gotas de oxígeno que lentamente se acumulaban en el fondo. El nuevo líquido de tonos azules que hervía en el fondo del tubo de ensayo era el preludio de una nueva tecnología. Mucho tiempo después, los motores de los cohetes V2 de la Alemania nazi llevarían este líquido azulado y posteriormente permitiría al hombre llegar a la Luna.

Wroblewski y Olszewski se enemistaron y no volvieron a trabajar juntos. Wroblewski falleció en un accidente de laboratorio cinco años más tarde y Olszewski continuó trabajando en forma independiente y falleció en 1915. Cuentan que si se visita la Universidad de Cracovia, en la antigua sala de la Universidad Real, se puede ver las notas de Wroblewski, medio quemadas en el accidente, junto a las de su ilustre predecesor, Nicolás Copérnico.

Durante los años siguientes, se licuaron sucesivamente el metano, el óxido de carbono y el nitrógeno. Nadie dudaba en la licuefacción del hidrógeno, el último de los gases permanentes.

El crióstato de Dewar

Dicen que James Dewar, hijo de un posadero escocés, tenía un carácter colérico y hasta vengativo, así como una innegable necesidad de figurar. Sin embargo, también poseía una extraordinaria capacidad manual y era un gran experimentador. De niño cayó al agua al fracturarse la capa de hielo por donde caminaba, el accidente le causó una grave pulmonía, debilitándolo y privándolo de los juegos típicos de la edad. Pasó su recuperación junto a un constructor de violines, se dice que de ahí provienen sus grandes capacidades manuales.

Todos los viernes por la noche, Dewar dictaba conferencias públicas en el Royal Institute de Londres, en las que exponía sus últimas investigaciones. El público asistía como quien va al teatro, para admirar la licuefacción del oxígeno. Sus exposiciones eran perfectas y no dejaban traslucir los problemas de su niñez. Le mostraba al público los gases licuados hirviendo lentamente en sus probetas, evitando que una pronta evaporación aburriera a la concurrencia. Empresa para nada evidente si se considera que sólo el calor del conjunto de personas encerradas en un auditorio era capaz de trasminar los tubos de vidrio y echar a perder el espectáculo.

El primer sistema que inventó consistía en una probeta con oxígeno líquido, dentro de otra más grande cerrada con un tapón. En el fondo y en medio de las probetas, había un producto secante que impedía la formación de escarcha al absorber el vapor del agua condensada entre los dos recipientes, posibilitando siempre la observación del oxígeno en ebullición. Según sus propios cálculos, este artefacto era bastante bueno para el oxígeno, pero insuficiente para el hidrógeno. Entonces decidió abocarse a la posibilidad de guardar el hidrógeno líquido, antes de licuarlo.

Dewar tuvo un momento de genialidad cuando observó que el mejor aislante era el vacío, ya que el calor se transmite vía las moléculas del aire; sin aire, el recipiente interno estaría aislado. En 1892 fabricó un recipiente de doble pared, plateadas para reducir la absorción de calor reflejando los rayos, en el cual bombeó el aire entre las paredes para tener un vacío lo más perfecto posible. Este aparato permitía conservar no sólo algunos centímetros cúbicos, sino litros de gas licuado. Con estos crióstatos —del griego cryos que quiere decir frío— era posible conservar el hidrógeno, si se conseguía licuarlo. Dewar se puso a trabajar casi frenéticamente porque sabía que tanto Karol Olszewski, en Cracovia, como Kamerlingh Onnes, en Leyden, estaban en el mismo tema.

Dewar ganaría la carrera el 10 de mayo de 1898, al ob­tener veinte centímetros cúbicos de hidrógeno hirviendo lentamente en su crióstato. La máquina que el escocés concibió para alcanzar su meta se basaba en el principio de la descompresión de Joule-Thomson, quienes cuarenta años antes descubrieron que si la descompresión de un gas, o una lenta disminución de la presión que se ejerce sobre él, se realiza sin intercambios con el exterior, entonces el trabajo necesario para separar sus moléculas debe realizarse desde dentro, por consiguiente, por el propio gas. Como el gas gasta energía, se enfría. Sin embargo, esta regla tiene sus excepciones, el hidró­geno a temperatura ambiente se recalienta cuando se le descomprime. Hay que partir de –40ºC para que la descompresión sea acompañada de un descenso de la tempe­ratura.

Dewar comenzó comprimiendo fuertemente el hidró­geno y lo introdujo en un recipiente de nitrógeno líqui­do. Dejó que el hidrógeno se descomprimiera así enfriado —el nitrógeno se vuelve líquido a –196ºC—, luego permitió que circulara por una serpentina que llevaba nuevas cantidades de gas comprimido hasta un grifo de descompresión. La temperatura de la serpentina decrece continuamente hasta la licuefacción del hidrógeno. De este modo, alcanzó –252.76ºC. El líquido de su recipiente no existía en ninguna otra parte del Sistema Solar. Creyó que ya no quedaban gases permanentes, puesto que el último se rindió a su ingenio.

La comunicación de Dewar estuvo acompañada por una de esas numerosas controversias a la que estaba acostumbrado. Algunos meses antes, Linde en Alemania y Hampson en Inglaterra registraron las patentes de las máquinas industriales de descompresión Joule-Thomson que permitían separar el oxígeno del aire líquido. Karl von Linde fundó una fábrica de máquinas de hielo y, posteriormente, la primera empresa de licuefacción de oxígeno, la cual prospera hasta ahora. Dewar se había inspirado en sus máquinas y citaba a Linde en las notas de pie de página, pero no a Hampson; dicen que por regla general no le gustaba citar a todos.

Dos semanas después, la revista de Lockyer —Na­ture— publicó una indignada carta de Hampson en la que se quejaba del olvido. Aseguraba que hacia fines de 1894 visitó al adjunto de Dewar, Lennox y le habló de su invento. Esto ocurrió seis meses antes de registrar la patente. Por consiguiente, Hampson dejaba entrever que si Dewar había logrado la licuefacción del hidrógeno era gracias a la información que le había proporcionado a Lennox. Por el mismo medio, Dewar respondió con su acostumbrada amabilidad, que habría tenido éxito de todos modos y con la misma rapidez aunque Hampson nunca hubiese existido.
 
Nature publicó cuatro series de intercambios epistolares entre Hampson y Dewar, tan pérfidos unos como otros. Llegó el mes de agosto y el asunto seguía ahí. Sin embargo, el tiempo de Dewar tocaba a su fin. El año siguiente alcanzó su último triunfo en la ruta del frío, logró solidificar el hidrógeno llegando a sólo catorce grados del cero absoluto, –259ºC. Esta vez, Dewar estaba convencido de haber terminado con esa página de la física. Su primera comunicación, se titulaba La licuefacción del hidrógeno y del helio, pues estaba persuadido que al obtener el hidrógeno líquido, también había licuado todo resto de helio allí mezclado.

El helio, en la tierra como en el cielo

En 1895 se detectó helio en la Tierra, Sir William Ramsay descubrió que la clevita —mineral de uranio—, emitía un espectro idéntico al observado en el Sol por Janssen y Lockyer. El 23 de marzo le envió un telegrama al químico francés Marcelin Berthelot: “Gas obtenido por mi —clevita— mezcla argón-helio […] Grookes identifica espectro […] envíe comunicación a la Academia el lunes”. Berthelot presentó el informe solicitado y se ocupó, tres días después, de elaborar otra comunicación sobre el tema, donde contaba pocas cosas en muchas palabras por la falta de informaciones nuevas; pero con ello, valorizaba su imagen de sabio siempre al día en materia de investigación. El procedimiento probó ser eficaz, porque, entre otras funciones, ocupó el cargo de ministro de instrucción pública.

Una vez descubierto el helio en la Tierra, era preciso obtenerlo en cantidades importantes. Primero, se constató su presencia en la atmósfera a razón de un cinco cien milésimo del aire; sobretodo en las arenas de monacita —fosfatos de tierras raras— y hasta en las fuentes minerales de las estaciones termales de moda.

Dewar podía pensar, con todo derecho, que había licuado el helio al licuar el aire y luego el hidrógeno. Pero en realidad lo que tomaba por restos de helio era resultado de impurezas; debió rendirse al hecho de que la nueva sustancia quedó en estado gaseoso, prisionera del hidrógeno sólido, y ello a pesar de su nuevo récord de temperatura, sólo diez grados por encima del cero absoluto.
La carrera se reanudó con más fuerza entre Leyden, Cracovia y Londres. Dewar pudo ganar, pero su carácter desconfiado le jugó una mala pasada. Para licuar el helio era necesario poseer el gas y en grandes cantidades; sin embargo, no podía procurárselo. Había una solución, pero tenía que pasar por los grandes precipicios del orgullo para llegar hasta Ramsey, el mayor especialista mundial de helio, quien vivía a dos pasos. Desgraciadamente, ninguno de los dos era modesto y se detestaban cordialmente.

Ramsey llegó a convencerse de que la licuefacción del hidrógeno la realizó Olszewski antes que Dewar, golpe que le asestó en plena reunión de la Royal Society. Al reclamarle Dewar las pruebas de su afirmación, Ramsay fue incapaz de presentarlas; incluso debió admitir, en la reunión siguiente, que se había equivocado; el polaco, enterado de la querella, le había enviado una carta en la que decía claramente que no pretendía haber licuado el hidrógeno. Olszewski también detestaba a Dewar, pero su odio no llegaba al punto de hacerle inventar resultados. Ramsey no se disculpó y también tuvo que padecer por esta querella; para extraer el helio del neón necesitaba hidrógeno. Ahora bien, ¿como pedirle a Dewar su máquina después de la afrenta que le había infringido?

Sin embargo, Ramsey tuvo suerte: contaba con un talentoso joven como asistente, Morris Travers, quien le construyó su licuefactor en menos de dos años. La situación cambió radicalmente, Dewar no sólo no podía pedirle helio a Ramsey, sino que para colmo de males, el último se lanzó a la carrera del helio líquido. No obstante, ambos se quedaron varados a pocos grados de la temperatura crítica del helio. Pronto llegó la noticia desde Leyden: el helio se había licuado. Dewar nunca se repuso de este fracaso. Se peleó con Lennox y luego con su último amigo, el fiel Sir William Crookes.

El descubrimiento de Leyden marcó el comienzo de una nueva concepción de la investigación científica. El tiempo de la física de armarios cambiaba definitivamente para dar paso a los grandes laboratorios. Lo que siguió fue la profesionalización del oficio de investigador. El laboratorio criogénico de Leyden era la primera señal de una transformación radical. Nacía una nueva física; el físico, al igual que el director de una obra de teatro, debe aprender a dirigir un equipo y a conseguir patrocinadores.

El fin de los gases permanentes

El responsable de tal mutación fue Heike Kamerlingh Onnes, hijo del propietario de una fábrica de tejas en Groningen, una ciudad universitaria en los Países Bajos, Holanda. “Como buenos burgueses, sus padres le habían dado una educación tradicional, privilegiando la cortesía, los buenos modales, la austeridad y el rigor”. El axioma central de la casa Onnes era, según las palabras del físico, “tienes que llegar a ser un hombre”. Algo muy clásico sin duda, pero el holandés habría de hacer de este rigor el rasgo fundamental de su oficio. Y fue lo que hizo que Robert Bunsen y Gustav Kirchkoff se fijaran en él, cuando a los dieciocho años partió a estudiar a la Universidad de Heidelberg. En 1873 volvió a su Holanda natal, donde fue ascendiendo los escalones que lo condujeron, en 1882, a la cátedra de física experimental de la Universidad de Ley­den. Allí, bajo la influencia de los trabajos de uno de sus compatriotas, Johannes Van der Waals, comenzó a apasionarse por las propiedades termodinámicas de los líquidos y los gases.
Kamerlingh Onnes estimaba que la licuefacción de los gases debía pasar al estadio industrial o semi-industrial, para poder hacer progresos significativos. Para él, la época de los experimentos “en un rincón de una mansarda dudosa, en un sótano oscuro”, había terminado. Era la hora de dar vuelta a la página.

Así, en 1894 fundó el primer laboratorio moderno del mundo, el laboratorio de criogenia de Leyden, con técni­cos, ingenieros y dos escuelas asociadas, una destinada a formar técnicos mecánicos y la otra de sopladores de vidrio, indispensables para fabricar matraces, vasos y otros recipientes necesarios para transportar líquidos hirvientes a muy baja temperatura. En ese año puso a punto una cascada según el modelo imaginado por Picket. Pero su objetivo era cuantitativo, quería aire líquido en grandes cantidades, le hacía falta una cascada mucho más rendidora que la del suizo. Para comenzar el enfriamiento eligió el cloruro de metilo, un gas que se licúa a temperatura ambiente pero sometido a una presión de cuatro atmósferas y que, por lo tanto, resultaba ideal para la primera etapa: una bomba de vacío ramificada sobre el recipiente de metal blanco que contenía cloruro de metilo le permitió practicar una evaporación que llevó al líquido a –85ºC. En la segunda etapa utilizó el baño obtenido para la licuefacción del etileno, igualmente bajo presión. Por un ciclo análogo al precedente, el etileno líquido es llevado a –150ºC. En la tercera etapa, hizo circular oxígeno comprimido a veinte atmósferas en una serpentina sumergida en ese nuevo baño. En esas condiciones, el oxígeno se licúa y al volver a la presión atmosférica, su temperatura cae hasta –83ºC. Con ese nuevo baño de oxígeno, en la cuarta y última etapa, se puede licuar el aire comprimido a quince atmósferas y llegar a –217ºC. A esta temperatura el oxígeno, pero también el argón, el monóxido de carbono, el flúor y el nitrógeno se tornan líquidos.
 
Su aparato proporcionaba alrededor de catorce litros de aire líquido por hora. Era más que suficiente para planificar toda una serie de experimentos y aprender perfectamente el manejo de los licuefactores. Pero para llegar más abajo, el método de las cascadas era insuficiente.
Mientras tanto, Dewar ganó la carrera del hidrógeno y demostró que era preciso utilizar la descompresión Jou­le-Thomson para llegar a las temperaturas necesarias.

Después de estudiar el método de Dewar, Onnes volvió a lo suyo, mandó construir las famosas botellas de doble pared plateada inventadas por Dewar y luego comenzó la construcción de un licuefactor de hidrógeno compuesto de tres compartimentos; el primero lleno de aire líquido, donde el hidrógeno es comprimido a doscien­tas atmósferas, se enfría a través de una serpentina; el segundo asegura, por descompresión Joule-Thomson, una primera condensación del hidrógeno. En el tercero, una última descompresión conduce el hidrógeno a la licuefacción total.

El licuefactor construido por Onnes no tiene nada que ver con el de Dewar. En 1898 el inglés había obtenido veinte centímetros cúbicos de hidrógeno líquido. En 1905, en Leyden se logró la preparación del primer cuarto de litro. En febrero de 1906 se prepararon tres litros de hidrógeno líquido en una sola colada. En mayo comenzaron los primeros experimentos de física a la temperatura del hidrógeno líquido. Kamerlingh Onnes estaba listo para la carrera del helio líquido. Entre él y sus competidores se abría el abismo que separa a un profesional de los aficionados, por más lúcidos que éstos fuesen.

El triunfo de Kamerlingh Onnes

La licuefacción del helio exigiría todavía dos años más de preparación. En marzo de 1908, Onnes sometió el helio comprimido a cien atmósferas bajo un refrigerante de hidrógeno líquido —hirviendo en el vacío a –259ºC— a una descompresión Joule-Thomson. Una ligera neblina aparecía en el crióstato, pero Onnes consideró que podía deberse a las impurezas del hidrógeno presentes en el gas. Lo purificó nuevamente y, el 9 de julio de 1908, con un aparato análogo al licuefactor de hidrógeno, dio un impulso definitivo al experimento final. Aquel día, Flim, el técnico responsable de la construcción de los crióstatos, licuó setenta y cinco litros de aire.
A las seis y media de la mañana del día siguiente, Onnes abordó la segunda fase del experimento; a las 13:30 tenía almacenado veinte litros de hidrógeno, suficiente para intentar la licuefacción del helio. El termómetro sumergido en el licuefactor indicaba una baja gradual de la temperatura y luego, dejó de descender. El stock de hidrógeno líquido está por agotarse; a las 18:30 Onnes creía haber fracasado, pero en ese momento uno de los numerosos curiosos, que regularmente iban a enterarse de las novedades, le hace notar que quizá su termómetro de helio gaseoso no funciona en esas condiciones.
 
Onnes ilumina entonces el licuefactor por abajo; la refracción de los rayos luminosos muestra, sin duda posible, el recipiente central casi totalmente lleno de helio líquido.
 
Entre los espectadores, el profesor Kuenen parece muy intrigado. No aguanta más y se acerca a Onnes para hacerle notar que la superficie del helio líquido es muy diferente de la de los líquidos habituales. Efectivamente Onnes constata que aparece plana como la hoja de un cuchillo en contacto con las paredes del vidrio; dicho de otro modo, el menisco del helio era casi nulo.
 
En el entusiasmo general se olvidará esta observación que después conducirá al descubrimiento de la superfluidez. Era perdonable, pues se festejaba allí una hazaña: las mediciones realizadas por Kamerlingh Onnes revelaban que la temperatura alcanzada era de 1.82 K por encima del cero absoluto. Esta vez sí, ya no quedaban más gases permanentes.

Una vez que todo está frío-frío ¿qué hacemos con tanto frío? Pregunta que empezó a contestarse Kamerlingh Onnes al estudiar las propiedades físicas de los materiales a bajas temperaturas. Así, podemos citar a Mendelssohn para decir que el descubrimiento del frío al inicio del siglo xx preparó la agitación para el conocimiento de la naturaleza de la materia. “Trastorno casi equivalente a la revolución coperniicana. Este trastorno iba a ser la fragua en la que se forjaría una nueva herramienta, tan extraña como incomprensible, y la única capaz de explicar la superconductividad y la superfluidez: la mecánica cuántica.”
Andrea Aburto
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Referencias bibliográficas
 
Ortoli, S. y J. Klein. 1989. Histoires et légendes de la supraconduction. Calman-Levy.
Mendelssohn, K. 1965. La búsqueda del cero absoluto. El significado de las bajas temperaturas. McGraw-Hill, Madrid.
Andrea Aburto es profesora de la Facultad de Ciencias de la unam desde 1988. Realizó sus estudios de Licenciatura y de Maestría en la Facultad de Ciencias, unam y obtuvo el Doctorado en la Université de Paris-Sud XI (Orsay). Sus áreas de especialidad son la física de bajas temperaturas y la estructura electrónica de sólidos.
_______________________________________________________________

 

como citar este artículo

Aburto, Andrea. (2006). La licuefacción de los gases o hacia las bajas temperaturas. Ciencias 82, abril-junio, 52-61. [En línea]
  ←Regresar al índiceartículo siguiente→
Está aquí: Inicio Búsqueda Número revistas revista ciencias 82
Universidad Nacional Autónoma de México
Facultad de Ciencias
Departamento de Física, cubículos 320 y 321.
Ciudad Universitaria. México, D.F., C.P. 04510.
Télefono y Fax: +52 (01 55) 56 22 4935, 56 22 5316


Trabajo realizado con el apoyo de:
Programa UNAM-DGAPA-PAPIME número PE103509 y
UNAM-DGAPA-PAPIME número PE106212
 ISSN:0187-6376

Indice-RM

Responsable del sitio
Laura González Guerrero
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
 

Asesor técnico:
e-marketingservices.com
facebooktwitteryoutube

cclCreative Commons License
This work is licensed under a Creative Commons
Attribution-Noncommercial-Share Alike 3.0 United States License