revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
  P01 P02  
 
 
     
Un siglo en la construcción de un mapa del mundo cuántico
 
Sergio F. Martínez
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Un mapa puede decirnos muchas cosas. El mapa de un tesoro nos dice dónde está el tesoro y esto puede requerir una larga búsqueda. Si llegamos a una isla en la que hay una montaña con forma de cara de pirata al pie de la cual corre un río que hace una cierta curva, y si en el mapa hay una montaña con forma de pirata y un río con esa curva pensamos que por lo menos ya hemos encontrado la isla del tesoro.
 
Usamos las convenciones implícitas y explícitas en el mapa para hacer inferencias con respecto a dónde estamos y sobre cómo llegar al tesoro o a una ciudad. En general un mapa nos permite orientarnos, y por lo tanto predecir determinado tipo de sucesos, como un resultado de nuestras acciones. Un mapa de la ciudad de México nos permite predecir que si estamos cerca de Ciudad Universitaria y tomamos al norte llegaremos al centro de la ciudad. Sabemos, sin embargo, que el mapa no nos va a decir nada en relación con la gente que vamos a encontrar en el camino, ni si hay una gasolinera en el camino, aunque ésa es una información que muchas veces aparece en un mapa de carreteras. Consideramos obvio que el mapa nos dice algo respecto de un tipo de cosas muy especiales y no sobre muchas otras, pero es importante recalcar que este hecho que consideramos obvio es el resultado de expectativas generadas como parte de una cultura, expectativas que son parte de lo que entendemos por saber leer un mapa.
 
 
 
 
 
 
Alguien podría pensar en la existencia de algo como un mapa maestro de carreteras por ejemplo, un mapa fundamental, que permitiera prever todo lo que encontraríamos en cualquier camino. Podríamos tener en una supercomputadora un mapa de México lo suficientemente completo como para que por medio de un sistema de zoom, como ya existen en muchas enciclopedias electrónicas, lo pudiéramos ver con la escala que quisiéramos y con los detalles deseados. Pero si reflexionamos un momento, o nos acordamos de algunos de los mapas de Borges, es claro que esta idea no puede ser sino una fantasía. Un “mapa completo” de una ciudad ¿va a incluir los baches de las calles o no?, ¿va a incluir información que nos diga la pendiente de una calle, las corrientes de agua subterránea que pasan por el lugar, la intensidad del campo magnético terrestre, o la altura sobre el nivel del mar de cada metro cuadrado? En primer lugar tendríamos que ponernos de acuerdo respecto de qué vamos a entender por “completo”, y esto no es fácil. Podríamos pensar que caracterizar un mapa completo de carreteras es fácil, pues simplemente es un mapa que contiene todas las carreteras. Pero esta respuesta es claramente insuficiente para caracterizar en general un mapa completo de carreteras. No es claro qué es una carretera. ¿Vamos a incluir carreteras de primera y segunda, o también de tercera? ¿Vamos a incluir brechas por donde sólo circulan vehículos de doble transmisión, o los caminos por donde sólo circulan motocicletas? Ciertamente podemos pensar que nos podemos poner de acuerdo con respecto a qué sería un mapa completo, pero también tendríamos que aceptar que la decisión de qué es un mapa completo va a depender de los fines para los que pensamos que va a ser utilizado el mapa. Parece que sería simplemente ininteligible pensar en un mapa que fuera completo con relación a cualquier fin que podamos tener. Si nuestro interés es viajar en automóvil nos van a interesar los mapas que tengan las carreteras por las que los automóviles pueden circular, e información relativa a dónde hay una gasolinera o un restaurante. Si nuestro interés es viajar en bicicleta otro tipo de mapa nos sería más útil, y por lo tanto el criterio de lo que sería un mapa completo sería diferente.
 
 
Una teoría científica es un tipo de mapa, sólo que a diferencia de lo que usualmente entendemos por mapa no es una descripción sólo de lo que es (o lo que ha sido) el caso (pertinente a un cierto fin), sino que muchas veces es una caracterización de lo que es posiblemente “el caso” en un cierto ámbito de la experiencia. Muchas teorías de las ciencias naturales y sociales son en parte caracterizaciones o clasificaciones de procesos históricos,
y por lo tanto descripciones de lo que es el caso, y en parte son caracterizaciones de lo que es posible. Muchas teorías de la física, y en particular las llamadas teorías fundamentales, pueden caracterizarse como caracterizaciones de lo que es posible, no de lo que es el caso. La teoría de Newton nos dice que si una cierta distribución de materia tiene lugar entonces habrá un cierto tipo de fuerza. Esa cierta distribución de materia puede ser que no exista en ningún lugar del universo. La teoría de la evolución nos dice que si hay una cierta presión de selección en una población un determinado carácter va a tender a extenderse en la población. Puede ser que no exista tal población.
 
 
 
Qué es posible y qué no es un tipo de pregunta que no podemos respondernos sentándonos a meditar; requiere la determinación de lo que usualmente denominamos como “leyes de la naturaleza”, o la “estructura causal del mundo”. Durante muchos siglos se pensaba que la estructura causal del mundo estaba caracterizada por lo que tenía que suceder necesariamente, y la estructura de la ciencia por lo que era posible deducir de teorías que considerábamos verdaderas, o aproximadamente verdaderas. Incluso en el siglo xx muchos científicos estuvieron de acuerdo con Einstein en que “la tarea suprema del físico es llegar a aquellas leyes universales y elementales de las que el cosmos puede construirse por deducción pura”. En este caso la estructura de lo posible podía identificarse con (o describirse por medio de) la estructura deductiva de las teorías que buscaba la ciencia. Pero esta identificación de la estructura de lo posible con la estructura deductiva de las teorías ha sido muy cuestionada, y hoy día está claro que la estructura de las teorías es algo más que su estructura deductiva, y que entender la estructura de lo posible requiere que tomemos en cuenta aspectos contingentes del mundo, y en particular elementos prácticos o tecnológicos que van más allá de la estructura de teorías específicas.
 
 
 
Una teoría científica toma en cuenta de muchas maneras aspectos contingentes del mundo en su estructura. Esto es algo muy claro en la teoría de la evolución de Darwin, o en teorías de la geología, en donde la historia juega un papel muy importante en caracterizar las categorías de cosas de las que habla la teoría. Pero muchos físicos y filósofos de la ciencia piensan que la diferencia entre la física y otras disciplinas científicas tiene que ver con el hecho de que la física, a diferencia de otras ciencias, no está “infectada” por lo contingente en sus teorías. Por lo menos en el sentido que lo contingente sólo entra en la caracterización de lo que es el caso, no en la caracterización de lo que es posible. En particular esto es claro en la manera como se piensa en la física clásica que una teoría de la mecánica es completa. Una teoría de la mecánica es completa si podemos caracterizar por medio de un cierto formalismo generalmente asociado con una ecuación fundamental, y un número determinado, relativamente pequeño de magnitudes, el comportamiento de los sistemas en el tiempo. En este tipo de caracterización lo contingente sólo entra en las condiciones iniciales y de frontera que nos permiten resolver las ecuaciones. La mecánica cuántica fue a lo largo del siglo xx el instrumento más importante para entender el sentido en el cual la estructura de lo contingente puede entrar en la caracterización de la estructura de lo posible en la física.
 
 
 
Uno de los grandes fundadores de lo que conocemos hoy día como la teoría de la mecánica cuántica es Niels Bohr. Una de las ideas centrales que introduce Bohr como parte de la primera teoría cuántica es que un enunciado como “un electrón tiene una posición x en un tiempo t” adquiere sentido sólo en un contexto experimental, no hay tal cosa como el hecho de la posición del electrón independientemente del contexto experimental en el cual medimos la posición. Exactamente cómo entendemos este tipo de aseveraciones, y qué implicaciones tiene nuestra manera de entender este tipo de contextualización de lo que consideramos objetivo para nuestro concepto de “realidad física”, es un tema que estuvo en el centro de la filosofía de la física durante todo el siglo xx.
 
 
 
De acuerdo con la teoría cuántica, en un arreglo experimental en el que medimos la posición no es posible que se manifieste como una cantidad determinada el momentum. Y si medimos el momentum y luego regresamos a medir la posición vamos a encontrar que por lo general la posición ha cambiado de manera impredecible. Algunas interpretaciones de la mecánica cuántica sugieren que esta incompatibilidad implica que algún elemento subjetivo entra en la caracterización del proceso físico de medición. Es claro que de aceptar este tipo de interpretaciones subjetivistas llegamos muy fácilmente a la conclusión de que hay aspectos contingentes que entran en la teoría física a nivel fundamental. Pero esto nos dejaría con toda una serie de preguntas respecto de la manera como tiene lugar esa incorporación de lo contingente. Parecería que tendría que asumirse (y algunos físicos lo han hecho) que la mecánica cuántica apunta a que la conciencia es un hecho fundamental del universo, como lo es la energía por ejemplo. Pero hay muchas maneras de entender un proceso de medición cuántica en las que no es necesario incorporar elementos subjetivos. Algunas de estas propuestas parten de una lectura a pie juntillas del formalismo y sugieren que en realidad nuestro universo es un multiuniverso de universos paralelos, con copias de cada uno de nosotros en cada uno de esos universos paralelos. Otra manera de rechazar el subjectivismo que parece requerir la interpretación de la mecánica cuántica es por medio de la propuesta que apunta que simplemente la mecánica cuántica no es una teoría completa en el sentido que no nos dice todo lo que tendría que decirnos una teoría de los procesos fundamentales de la física. La situación es análoga al caso en el que un mapa no tiene todas las calles por donde podemos ir de un lugar a a un lugar b.
 
 
 
Podría ser que las partículas poseen todas las propiedades todo el tiempo, pero la mecánica cuántica no es como se pensaba una teoría fundamental que nos dé una descripción completa de los factores que juegan un papel en la caracterización de la dinámica de las partículas elementales y los cuerpos que la componen. Esta alternativa sugiere que la mecánica cuántica tiene que enriquecerse con la descripción adicional de algunas “variables ocultas”.
 
 
La idea de esta última alternativa para entender el resultado de los experimentos fue concretizada en un famoso trabajo publicado por Einstein, Podolski y Rosen en 1935. Ellos muestran que o bien la mecánica cuántica describe influencias entre sistemas que tienen lugar a distancia, sin mediación de procesos físicos conocidos, o bien la mecánica cuántica es “incompleta” en el sentido que no describe todas las propiedades que las partículas tienen de hecho. La discusión anterior respecto de las dificultades para entender qué puede querer decir que un mapa es completo debe de alertarnos a potenciales dificultades análogas relativas al concepto de teoría completa que se está utilizando.
 
 
 
La discusión se da entre aquellos que asumen que la realidad microscópica seguramente está constituida por partículas que tienen las propiedades clásicamente reconocidas, y que esas propiedades son todo lo que es necesario conocer para poder entender la estructura de lo real, o para ser más cuidadosos (y más exactos creo yo), la estructura de lo posible, y aquellos que piensan que la mecánica cuántica nos obliga a reconocer que la descripción clásica de las propiedades relevantes para describir la realidad física (i.e. la estructura de lo posible) tiene que abandonarse por una nueva manera de describir qué es una propiedad, o qué es un sistema físico. Antes de adentrarnos en la discusión vale la pena acordarnos del famoso experimento pensado (y su interpretación) al que se refiere el trabajo Einstein, Podolski y Rosen.
 
 
 
Supongamos que se crean dos partículas a partir de una fuente común en un tipo de estado que permite la mecánica cuántica y que se conoce como “enredado” (entangled). Se asume que tanto el momentum total como la (diferencia en) posición son cantidades conservadas (i.e. cantidades que obedecen un principio de conservación). Consideremos qué sucede con la partícula a la izquierda. Si conocemos su posición podemos inferir la posición de la partícula a la derecha por el principio de conservación de la posición total. Con el momentum podemos razonar de manera análoga. Pero como la mecánica cuántica asume desde Bohr que la posición y el momentum son cantidades incompatibles no podemos medirlas con exactitud para la partícula izquierda (ni para la derecha) en un mismo tiempo. Sin embargo, asumamos que a una cierta hora un científico decide medir ya sea la posición o el momentum en la partícula a la izquierda. Esto permitiría atribuirle a la partícula a la derecha ya sea una posición definida o un momentum definido en el tiempo de la medición. El argumento de Einstein, Podolski y Rosen es que es absurdo suponer que los procedimientos que se llevan a cabo localmente en una partícula puedan afectar la otra (que puede estar tan lejos como queramos inmaginarnoslo) al mismo tiempo. De aquí se infiere que la partícula de la derecha debe de tener tanto una posición como un momentum definido en el tiempo en el que tiene lugar la medición, en contra de lo que asume la mecánica cuántica. En todo caso, ellos plantean un dilema: o estamos dispuestos a aceptar que la mecánica cuántica describe procesos que actúan a distancia, algo que parecería dar un paso hacia atrás en el desarrollo de la física, o bien la mecánica cuántica es incompleta. En otras palabras, o bien la mecánica cuántica es no local o bien es incompleta. En la segunda mitad del siglo xx se buscaron formulaciones precisas tanto de la idea de localidad como de la idea de completitud que permitan resolver este dilema planteado por medio de experimentos mentales.
 
 
 
En primer lugar, es claro que la manera de formular la dicotomía en el trabajo citado es demasiado simplista. El tipo de localidad de la que ellos hablan puede entenderse de varias maneras. Por ejemplo, puede formularse como la conjunción de dos tesis: realismo: las partículas poseen valores definidos para todos sus atributos en todo tiempo, y localismo: estos atributos no pueden ser afectados instantáneamente por procesos físicos, tales como mediciones, que involucran otras partículas en localizaciones espaciales diferentes.
 
 
 
El realismo local caracterizado por la conjunción de estas dos tesis puede mostrar que implica algo falso. Por lo que al menos una de las dos tesis, el realismo o el localismo, es falsa. Es muy común en la literatura especializada llegar a la conclusión de que debemos de rechazar la tesis del realismo porque el localismo está apoyado por la otra gran teoría de la física del siglo xx, la teoría de la relatividad. Puede aceptarse que la mecánica cuántica es no local, pero en un sentido que no permite la existencia de efectos controlables que viajen a mayor velocidad que la luz, y por lo tanto que no contradiga la prohibición relativista con relación a causación más rápida que la luz. Es posible formular más precisamente las tesis del realismo y el localismo de manera tal que sus implicaciones ontológicas sean más claras. Por ejemplo, es posible reformular la primera tesis, la tesis del realismo, diciendo que: 1) todos los observadores locales pueden ser especificados independientemente de las propiedades globales del sistema combinado.
 
 
 
Y podemos reformular la tesis del localismo diciendo que: 2) los valores de cualquier observable local que pueden ser observados no pueden cambiarse alterando el arreglo de una pieza remota de equipo que forme parte del contexto de medición para el sistema compuesto.
 
 
Puede mostrarse que ambas tesis junto con algunos principios que son aceptados sin controversia, llevan a una contradicción. Como en la versión menos precisa que mencionamos anteriormente, la manera más común de resolver esta contradicción es diciendo que la primera no puede violarse porque esto implicaría que podemos modificar instantáneamente, y a nuestra discreción, las estadísticas de la medición de un tipo de sistema como el planteado por Einstein, Podolski y Rosen en un lugar distante, y esto se considera que entra en conflicto con la teoría de la relatividad y por lo tanto no puede violarse. Pero este tipo de argumento deja de lado el hecho que la aceptación de la no localidad abre la posibilidad que de alguna manera la noción de causa asociada con la física relativista no sea extendible a toda la física, o simplemente que sea una concepción de causa que debamos abandonar. El reconocimiento de esta posibilidad ha motivado diferentes intentos por probar de manera independiente el principio de la no señalización a distancia implícito en la segunda tesis. Pero todas las pruebas parecen basarse en diferentes versiones del supuesto de localidad expresadas en lenguaje técnico que son ajenas al formalismo de la mecánica cuántica, por lo que surge la duda si todas estas pruebas son en el fondo circulares.
 
 
 
Otro problema que genera la consideración del tipo de situaciones propuesto por Einstein, Podolski y Rosen es que la tesis del realismo reformador implica el colapso del principio reduccionista del todo a las partes, un principio que se conoce como el principio de la reducción parte-todo. Implícitamente esta tesis nos dice que las propiedades que podemos atribuir a colecciones de partículas pueden explicarse como una “suma” de las propiedades de las partículas constituyentes. En otras palabras, parece ser que el rechazo de ésta nos obliga a concluir que los sistemas cuánticos son tales que en general no tienen partes independientemente de la manera como esas partes se examinan experimentalmente. Sin embargo, de esto no tiene que concluirse, como a veces se concluye, que no podemos hablar de la realidad de los sistemas cuánticos, o que una metodología reduccionista ya no tiene cabida en la mecánica cuántica. Las cosas son más complicadas. De un par de partículas que constituyen un sistema del tipo planteado por Einstein, Podolski y Rosen podemos decir que algunas propiedades globales, como el momentum angular, tienen valores definidos, y podemos hablar de estos atributos como atributos del sistema como un todo. Esto sería suficiente para hablar de la realidad de esos sistemas, siempre y cuando estemos dispuestos a reconocer que ese tipo de realismo es compatible con la no localización de las partículas componentes.
 
 
 
Finalmente quiero hacer ver que los problemas de la interpretación de la mecánica cuántica que hemos ejemplificado a partir de la consideración de situaciones como las propuestas por Einstein, Podolski y Rosen tienen mucho que ver con falta de claridad respecto de qué entendemos por una teoría completa. La teoría física hasta el siglo xx asumía implícitamente que era posible construir una teoría de todo. Una teoría de todo es una teoría completa desde la perspectiva de cualquier propósito importante para la física, y en particular desde la perspectiva de la capacidad de predicción y explicación de fenómenos físicos. Una teoría de todo debería de respondernos, por lo menos en principio, a todas las preguntas importantes de la física. La famosa formulación de Laplace del determinismo es una formulación de ese ideal. Dice Laplace que: “Una inteligencia que en un instante dado conociera todas las fuerzas que animan a la naturaleza y la situación respectiva de los seres que la comoponen, y que, por otra parte, fuera suficientemente amplia como para someter estos datos al análisis, abarcaría en la misma fórmula los movimientos de los cuerpos más grandes del universo y los de los átomos más ligeros; nada le sería incierto, y tanto el futuro como el pasado estarían presentes delante de ella”. El determinismo de Laplace ya asumía la creencia que iba a ser muy extendida en el siglo xix: que en sus rasgos fundamentales las teorías físicas de entonces eran el núcleo de una teoría verdadera y completa del mundo físico.
 
 
 
Ahora bien, si no delimitamos clara y modestamente el sentido en el cual queremos que una teoría sea lo más completa posible, entonces, como en el caso de un mapa de carreteras al que le quisiéramos agregar información sobre todo lo que se nos pueda ocurrir, el vasto contenido empírico de la teoría haría que su información fuera irrecuperable o simplemente ininteligible. Además, como en el caso de la doctrina del determinismo laplaciano, una tesis de completitud muchas veces va acompañada de una serie de tesis reduccionistas que pueden ser muy cuestionables. Adicionalmente a todos estos problemas en los que no entraremos, la mecánica cuántica sugiere un sentido importante adicional en el que la búsqueda de una teoría de todo está en principio condenada al fracaso.
 
 
 
De ser cierta una historia como la del Big Bang, que sugiere que el Universo empieza en un estado del que todas las partículas surgen, entonces tenemos que reconocer que todos los sistemas están en mayor o menor grado “enredados”, como lo están las partículas en un sistema como el planteado por Einstein, Podolski y Rosen. Pero entonces, incluso en principio, no sería posible pensar en aislar partes del universo de manera tal que pudieran modelarse por medio de las ecuaciones dinámicas. El método clásico de análisis está condenado en principio a fallar porque describir cualquier cosa nos comprometería con una descripción de todo. Por supuesto que esta visión de la física podría pensarse como muy pesimista. No lo es. Simplemente nos invita a reconocer que nuestros métodos de análisis están limitados por lo que es el caso de manera contingente, el grado de enredo de nuestros sistemas físicos, por ejemplo, y que quizás debamos aceptar que las limitaciones a una metodología reduccionista parte-todo que se sigue de un siglo de mecánica cuántica son también limitaciones al tipo de reduccionismo de las partes al todo que caracteriza nuestros modelos de dinámica de partículas (y que en particular se presupone en la doctrina laplaciana del determinismo).
 
 
 
Sería muy fácil tomar una actitud positivista y pensar que los éxitos en el desarrollo de aplicaciones y explicaciones de fenómenos cuánticos es tal que problemas como los límites del reduccionismo parte-todo sólo pueden ser considerados como un pelo en la sopa. Pero es esta actitud triunfalista asociada con la cultura positivista en la que se ha desarrollado la física desde el siglo xix la que motivó la tesis determinista de Laplace y la convicción en la completitud de la física clásica, pensada como una teoría de todo. Bien al principio del siglo xx las famosas palabras de A. A. Michelson deben verse como la expresión de esa convicción generalizada: “Los más importantes hechos y leyes fundamentales de la física han sido ya descubiertos, y están ahora tan firmemente establecidos que la posibilidad de que tengamos que abandonarlos como consecuencia de algún nuevo descubrimiento es excesivamente remota”. Es por supuesto irónico que precisamente en esos mismos años Planck y Einstein estaban dando los primeros pasos en la elaboración de la hipótesis cuántica que iba a terminar por dar al traste con lo que Michelson y sus contemporáneos consideraban un optimismo plenamente justificado en la física clásica.
 
 
 
Explorar las implicaciones de la hipótesis cuántica nos ha llevado todo el siglo xx, y si bien es indudable que el avance en el desarrollo de aplicaciones y explicaciones de fenómenos físicos basados en la teoría cuántica ha sido impresionante, es también importante recordar que los fundamentos de la mecánica cuántica siguen siendo problemáticos, y que la elucidación de algunos de esos problemas fundamentales puede darnos sorpresas en el siglo que principia, comparables a las que nos dio en su primer siglo de vida.
 

Sergio F. Martínez
Instituto de Investigaciones Filosóficas,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 
 
como citar este artículo
Martínez, Sergio F. (2001). Un siglo en la construcción de un mapa cuántico. Ciencias 63, julio-septiembre, 30-37. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Valores morales y valores científicos
 
Fernando Savater
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Me gustaría hablar en favor de la comunicación social de la ciencia y por qué desde mi punto de vista la comunicación social de la ciencia es algo importante. Existe una visión general del asunto que nos indica que tanto en el terreno científico como en el ético o moral se dan posturas contrapuestas, intuiciones diferentes, caminos divergentes o formas explicativas desiguales. De modo que aparece el debate. No se parte de una homogeneidad, de un acuerdo total, sino que existe un debate.
 
Lo que ocurre es que en el debate científico hay un árbitro enormemente eficaz. Y aunque no siempre fiable, ya que los oráculos de este árbitro son un poco oscuros, inescrutables, después de todo es el árbitro que zanja las cuestiones entre los científicos. Ellos pueden no ponerse de acuerdo entre sí, porque están sujetos a pasiones u obnubilaciones como el resto de los seres humanos, pero hay un árbitro que antes o después los pone de acuerdo y decide quién va por el buen camino y quién no. Y ese árbitro es la realidad, la realidad exterior.
 
La existencia de una realidad objetiva, externa, zanja las discusiones entre los científicos. Es una realidad que a veces cuesta interpretar porque no se da sin esfuerzo ni de una manera fácil, pero, en último término, el científico que acierta a utilizarla como argumento a su favor, obviamente, termina “llevándose el gato al agua” en cualquier debate con los científicos.
 
Esto hace que los enfrentamientos en el campo científico no sean nunca tan agónicos como lo son en el campo moral o ético, porque ahí la pelea siempre puede ser zanjada antes o después y, salvo casos de verdadera ofuscación irracional, todos terminan dándose cuenta de que esto es lo que hay y lo otro queda descartado, queda arrumbado por la contrastación con la realidad misma.
 
El problema del campo moral es que no existe una realidad moral objetiva como existe en el campo que trata o estudia el conocimiento científico. Por lo tanto, es fácil para cada uno de nosotros, o por lo menos tenemos una esperanza razonable, de que a la pregunta qué debo creer respecto de una cuestión que de hecho la ciencia o la historia puede verificar, tengo posibilidad de dar una respuesta convincente y de zanjar mi duda o las disputas que tengo con otro, mientras que la pregunta qué debo hacer probablemente seguirá siempre reducida a una dimensión mucho más subjetiva.
 
No estoy inventando grandes cosas, sigo la exposición clásica de Bernard Williams sobre estos temas. Si lo que quiero preguntarme es qué debo creer respecto, por ejemplo, de la altitud del Mulhacén, a si el estroncio es o no un metal, o si Wagner y Verdi se encontraron personalmente alguna vez, hay posibilidades de recurrir a una realidad que zanje mis dudas o que las aclare en buena medida.
 
Cuando me pregunto qué debo hacer en cuestiones morales, si, por ejemplo, es lícita la clonación humana o si bombardear un país es decente y bueno o no, ahí no hay una realidad exterior objetiva a la que pueda acudir para responder mis dudas.
 
En el fondo, lo que los teóricos anglosajones de la ética llaman “el argumento de la tercera persona”, es decir, ni tú ni yo, sino la tercera persona, la objetividad, no suele valer en el campo de la moral, que está siempre encerrado en la pugna entre el tú y el yo.
 
No quiere decir que esa pugna sea totalmente infranqueable a argumentos racionales. También en esas argumentaciones entre el tú y el yo existe la posibilidad de usar bases empíricas, de utilizar conocimientos sobre historia, economía, psicología, etcétera, que enriquecen el juicio moral. Pero, obviamente, nunca terminan por desembocar por sí mismos en un juicio moral.
 
Ningún conocimiento empírico por sí mismo desemboca en un juicio moral. Es decir, puedo saber cuántas personas civiles morirán si se bombardea determinado país, pero eso en sí mismo no es un juicio moral. Puedo ser más o menos preciso, puedo incluso conocer si esas personas civiles pertenecerán a determinadas capas sociales, si serán niños o no. Todo eso me completará el marco sobre el cual después debo juzgar, pero, evidentemente, ninguno de esos datos empíricos, ninguno de los conocimientos que han llevado a poder poseer armas destructivas de determinado alcance ni ningún otro tipo de conocimiento imaginable de este orden me pueden dar la solución moral a mi duda. La solución moral sólo la puedo exponer como una convicción razonada, pero nunca concluyente por el refrendo de una realidad moral comparable con la realidad objetiva exterior.
 
Y ésa es la gran dificultad de las argumentaciones éticas y morales. Por eso, el único equivalente que podemos buscar o encontrar a la realidad objetiva en el campo de la moral son las otras personas, los otros argumentadores en el momento de plantearnos las dudas de las cuestiones morales. Es decir, como no puedo acudir a una realidad moral en sí, podemos, a partir de los datos y de los conocimientos empíricos que aporten las diversas vías del conocimiento de la realidad, establecer un cierto debate entre sujetos, que nunca será plenamente objetivo, porque, como digo, está hecho por sujetos. Siempre recuerdo la lección de mi viejo amigo el poeta Pepe Bergamín, a quien reprochaba frecuentemente su arbitrariedad razonante, que a veces llegaba a lo caprichoso, pero siempre muy divertida y genial. Alguna vez le decía: “pero qué subjetivo eres, Pepe, es que eres incapaz de un mínimo de objetividad”, y él me decía: “mira, si yo fuera objeto, sería objetivo, pero como soy sujeto, soy subjetivo”. Algo de eso hay, es decir, como somos sujetos, necesariamente al hablar de los sujetos tenemos que ser subjetivos, tenemos que incluir criterios subjetivos en nuestra forma de pensar.
 
Esto es lo que en otras ocasiones he tratado de explicar cuando hablaba, repitiendo líneas de pensamiento comunes de nuestro tiempo, de la contraposición entre lo racional y lo razonable como dos vertientes posibles de la razón.
 
Lo racional es lo que nos faculta para el trato con los objetos, es decir, lo que hace al mundo inteligible y practicable.
 
El conocimiento científico nos acerca a los objetos y realidades de este mundo y nos los hace inteligibles y practicables. Esto es muy importante desde todo punto de vista, porque tiene unos ecos sociales en el bienestar, en el desarrollo, etcétera.
 
Para conocer racionalmente los objetos tenemos que conocer sus propiedades, de qué están hechos, a qué reaccionan, cuál es la causalidad que opera en ellos. Ése es el conocimiento racional de los objetos. En cambio, el reconocimiento de los sujetos es diferente, por eso utilizaba la expresión razonable y no racional. Razonable, porque dentro de nuestro conocimiento de los sujetos no solamente hay que incluir sus propiedades, la causalidad que opera en ellos o sus circunstancias objetivas, sino también sus deseos, proyectos, orientaciones o valoraciones propias, hacia dónde quieren ir, hacia dónde quieren llegar, cuál es su visión de las cosas o qué objetivos se proponen.
 
Todo eso cuenta si quiero tener una visión razonable del otro, si quiero tener una visión meramente racional en el sentido objetivista de los otros. No quiere decir que sea más científico, sino al contrario: me pierdo la dimensión verdaderamente propia y peculiar de los seres humanos que es tener dimensiones subjetivas, que no se puede contraponer a esa tercera persona que decide las cuestiones, puesto que son de alguna manera expresión de un mundo propio, o si queremos, de una libertad de opción.
 
Esa libertad de opción no se puede nunca terminar de prever ni de calcular. Antes se decía que el mundo era algo previsible y, evidentemente, es previsible saber dónde estará el día 14 de enero del año 2030 el planeta Marte. Lo que es difícil es saber dónde estará en ese momento una persona determinada que tenga una capacidad de opción sobre su propio destino, sobre su propio camino.
 
Prever aquello en lo cual sólo influyen causas mecánicas ya es difícil y complejo y se ha visto que hay estructuras más o menos disipativas y azarosas que intervienen en la realidad y que hacen que esos cálculos plenamente deterministas no puedan darse ni siquiera con los objetos. Pero no con los sujetos, en los que uno de los elementos que interviene es la voluntad propia y la de los otros; es decir, puedo interactuar con los otros sujetos, de tal manera que sus decisiones vayan en un sentido o en el otro, cosa que no me ocurre con el resto de la realidad.
Por lo tanto, es razonable saber que aunque puedo estudiar aspectos objetivos de los sujetos, también debo relacionarme subjetivamente con ellos porque es la forma de conocerlos e incluso de influir o actuar sobre ellos mejor.
 
De modo que los valores morales quieren ser valores razonables, no meramente racionales, pues no son constataciones meramente de hecho, sino que tienen esa otra dimensión de comprensión del mundo subjetivo. Obviamente, cuando se contraponen los valores científicos con los valores morales, a veces, hay un cierto encasillamiento por parte de los que piensan desde una perspectiva opuesta.
 
Existen visiones científicas que opinan que la visión objetiva del mundo no puede detenerse ni cortocircuitarse por consideraciones de lo meramente razonable, es decir, que lo racional es lo que tiene que seguir adelante y lo razonable está siempre teñido de superstición, de elementos atávicos, que antes o después deben ser desdeñados. Esta forma de ser refleja en esa frase que se suele repetir mucho cuando se discute sobre algún avance científico (que no progreso, porque mientras que el avance puede ser algo objetivamente comprobable, el progreso introduce elementos morales distintos) y se trata de valorar moralmente: siempre que alguien dice que es inútil discutir porque todo lo que puede hacerse científicamente se hará. Este tipo de planteamiento es muy común cuando se habla de la clonación.
 
Primero, es un argumento que tiene un fondo un poco absurdo, porque naturalmente los juicios éticos sólo pueden hacerse sobre lo que puede hacerse. Nadie se plantea problemas morales sobre lo imposible, por lo tanto, decir que todo lo que puede hacerse se hará, es anular toda la posibilidad de juicio de los seres humanos sobre las cosas que ocurren en el mundo y los procesos en los que ellos mismos están incursos, porque si verdaderamente Aristóteles no se planteó nunca el problema de la clonación es porque en su época no se podía hacer y los problemas morales sólo se plantean allí donde la acción humana puede intervenir.
Pero, por otra parte, se da al proceso científico un camino como si de alguna manera fuera sobre rieles, como si el proceso científico-tecnológico tuviera que seguir un camino determinado y que no pudiera ser juzgado, interpretado ni desviado.
 
Es verdad que a veces hay formas de progreso tecnológico que han despertado alarmas injustificadas en la sociedad. Recuerdo una vez que cayó en mis manos un libro muy divertido sobre las opiniones que tenían los psiquiatras ingleses del siglo pasado sobre los trastornos mentales que sufrirían las personas viajando en los primeros trenes. Parece que ver pasar por la ventanilla vacas a cuarenta kilómetros por hora hacía que uno llegara a Liverpool en un estado lamentable. O como la degeneración de las relaciones humanas que iba a traer el teléfono porque los seres humanos dejarían de hablarse unos a otros y sólo lo harían por teléfono (y eso que todavía no conocían los teléfonos móviles que realmente empieza a parecer un cierto peligro con respecto a aquello que antes se temió). Todos éstos son temores morales de grandes cambios morales y sociales que no han ocurrido y que no tienen mucha base.
 
Ahora bien, la invención de la bomba atómica y otras armas destructivas ha traído temores y dudas morales que creo están perfectamente justificadas; asimismo, la posibilidad de una restricta manipulación genética que convirtiese al ser humano en materia genética, o la idea de que los seres humanos provienen de una materia genética y no de una afiliación de hombres y mujeres, tiene, por supuesto, graves implicaciones éticas y morales y es justificado no tomar una postura crítica ni de aprobación sin más, sino obviamente una actitud de cuestionamiento y de debate. Es imposible que alguien diga: esto puede ser o esto debe ser, sobre todo si tomamos en cuenta la cuestión que decíamos del carácter necesariamente subjetivo de la actitud moral; subjetivo no quiere decir relativo o relativista o irracional, sino que no hay una posibilidad de referencia que todos deban asumir y que esté fuera de nosotros.
 
Pero el debate sí se puede establecer, sí hay razonamientos que hacer, por ejemplo, por decir una opinión mitológica que, no sé si tenga alguna base real, se atribuye a Werner von Braun, el padre de las v-1 y v-2 alemanas durante la Guerra Mundial, que cuando estaba trabajando en proyectos de la nasa que tenían que ver con cohetes espaciales, alguien le preguntó: “¿no siente remordimiento, preocupación, angustia por haber producido aquellos elementos destructivos que asolaron Londres?”, y éste contestó: “Mire, en aquel momento, como científico, mi problema empezaba simplemente cuando el cohete despegaba y acababa cuando el cohete caía, pero mi problema no concernía de dónde salía o a dónde llegaba después”. No sé si lo dijo. De todas maneras, esto en algún momento puede ser una tentación que reclama que la sociedad intervenga: nadie puede abstraerse así de la repercusión social de su trabajo, en el mero plano de la objetividad, desconociendo que vive entre seres dotados de subjetividad y por lo tanto no sólo racionales sino también razonables.
 
Esto hace que la moral no pueda convertirse en juez de la ciencia y que incluso intente bloquear caminos determinados de investigación, de conocimiento, puesto que el conocimiento siempre es positivo; saber dónde estamos y qué ocurre siempre es bueno.
 
Pero también es verdad que no se puede admitir simplemente que la ciencia es como una locomotora que va con los frenos rotos y por la vía a toda velocidad sin que nadie pueda detenerla. Ahí realmente hay una necesidad de debate, un ejercicio de humildad y profundización sobre los planteamientos valorativos y científicos y sobre la contraposición de ambos. En este sentido, es importante la comunicación social de la ciencia, porque es imposible realizar juicios morales mínimamente lícitos y lógicos si se desconoce absolutamente de lo que se está hablando. Por eso, a veces, respecto a cuestiones que el sensacionalismo pone de moda, hay unos debates feroces sobre la posibilidad de que miles de “hitleres” corran por el mundo y nadie se preocupa, o por lo menos muy pocos, de aclarar hasta qué punto se está discutiendo algo real, una extrapolación, una fantasía.
 
Creo que la comunicación social podría no dar la impresión falsa a la gente de que va a haber un tipo de realidad exterior que va a zanjar todas nuestras dudas morales. No va a suceder eso, porque no pertenece a ese campo la decisión moral de un ideal de vida, no pertenece a la realidad objetiva de la vida.
 
La ciencia trata de lo que es, y la moral de lo que debe ser. No corren por la misma pista. Naturalmente para saber lo que debe ser es necesario conocer lo que es y las posibilidades de transformación de los que es, pero el ideal o el proyecto de lo que debe ser no puede surgir simplemente del conocimiento de lo que es.
 
Por lo tanto, ahí hay que comunicar la base científica, incluso el hábito de razonamiento argumentado que la ciencia brinda, y que es importante para las discusiones, y saber que, en el campo moral, lo más parecido que existe a esa realidad exterior, tercera persona que zanja la cuestión entre el tú y el yo, es el conjunto del resto de la sociedad, el conjunto de los otros seres que pueden intervenir y argumentar de una forma sometida a la razón pero no exclusivamente con una visión objetivista sino también incluyendo proyectos, deseos, ambiciones, temores, etcétera.
 
Y hay un aspecto por el cual es muy importante la comunicación social de la ciencia. Creo que es falso el dilema entre ciencia sí y ciencia no. Es absurdo. El dilema es entre ciencia y falsa ciencia, entre ciencia y falsos sustitutos de la ciencia. Porque, como ciencia, tiene que haber un conocimiento orientado a la vez a lo inteligible y a lo practicable, a la comprensión y a la transformación o a la obtención a veces ávida de riquezas, placeres, posibilidades de actividad, etcétera. A partir de la existencia de estos elementos se va a buscar en la ciencia verdadera, una ciencia sometida a los parámetros de una racionalidad estricta, se va a buscar en el mundo de lo irracional, de lo fantástico, a veces incluso en el mundo de las supersticiones nocivas, dogmáticas, que van a darse por científicas. Pensemos que aberraciones como el racismo se han presentado como científicas, y aún quedan atisbos, por ejemplo, en la forma en que ciertos genetistas se refieren a las condiciones éticas o a las preferencias sexuales de las personas. Esta posibilidad de la falsa utilización de la ciencia es la razón por la que es necesario explicar la ciencia.
 
A veces, porque se ofrece como ciencia cualquier cosa, la palabra ciencia y científico ya es prestigiosa. Recuerdo cuando estuve en un kashba, en un país árabe, donde se ofrecían artesanías y objetos, y noté que los vendedores se acercaban entusiasmados gritando ¡video!, ¡video! Yo veía que eran objetos que nada tenían que ver con un video, hasta que me explicaron que la palabra video era como una cosa ponderativa.
 
A veces, decir que algo es científico, sea o no verdad que es científico, es algo que ya no se puede discutir y debatir. Por ejemplo, cuando venía en el avión leí unas declaraciones de Rouco Varela que defendía la asignatura de religión afirmando que no tienen nada que ver con un catecismo, sino que es una asignatura científica porque, aunque a nivel más o menos infantil, es una teología para niños. Claro, dice él, a ver quién se atreve a decir que la teología no es científica. No quisiera pecar de arriesgado y diría que, efectivamente, la teología es científica en el mismo sentido en que lo es, por ejemplo, el Manual de zoología fantástica de Jorge Luis Borges, obra deliciosa, interesantísima de lectura, pero sería muy raro que se diera como materia obligatoria en las facultades de ciencias biológicas. Por la misma razón que, pese al enorme interés y agrado que produce, el Manual de zoología fantástica de Borges debe ser leído en otro contexto y no en el de los estudios biológicos, quizás deberíamos reservar ese tipo de ciencia teológica para aficionados más decididos y las materias del bachillerato dedicarlas a la difusión social de la ciencia en el sentido habitual del término o de algunas cuestiones valorativas, como la ética ciudadana, que también tiene importancia y compromete la marcha de la sociedad.
 
Por eso es importante la difusión social, la comunicación social, la elucidación social de la ciencia. El científico no es brujo. A pesar de que pueda encerrarse, clausurarse, en realidad está actuando de la manera más pública del mundo porque lo está haciendo en el órgano que todos compartimos, que no es la genealogía ni la raza ni la tradición ni la lengua, sino la función racional.
 
Precisamente, a diferencia de los que dicen “escuchadme a mí, creedme, yo lo he visto”, el científico dice “ponte aquí, mira por dónde estoy mirando y lo verás tú también”. Eso es la difusión social que me parece importante tanto por sus contenidos como por la misma actitud de humildad y de sometimiento a la prueba, al racionamiento y, en caso de que la realidad no nos sirva para zanjar cuestiones morales, al menos al intercambio de aportaciones razonables, incluso ciertas
Ponencia Marco. Comunicar la Ciencia en el Siglo xxi. I Congreso sobre Comunicación Social de la Ciencia. Granada, marzo de 1999.

Fernando Savater
UniveNota
_______________________________________________________________

como citar este artículo
Savater, Fernando. (2001). Valores morales y valores científicos. Ciencias 63, julio-septiembre, 4-10. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
  de flujos y reflujos
 
     
Y sin embargo se mueve
 
 
 
Ramón Peralta y Fabi
conoce más del autor
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
         
Sí, y de una manera que Galileo Galilei no hubiera imaginado, nuestro planeta parece tener una vida propia que lo mantiene activo e inquieto.
 
La Tierra y la mayoría de los miembros de la familia que circunnavega a la estrella más cercana tienen más en común de lo que se creía antes de que las sondas espaciales nos mandaran imágenes de Venus, Marte o la Luna.
 
El siglo xx fue la sede temporal de varias revoluciones científicas que influirán en el pensamiento de las generaciones venideras; la que concierne a la Tierra es una de ellas.
 
Las revoluciones intelectuales toman su tiempo en llegar al dominio público. Las ideas de Isaac Newton en torno a la mecánica celeste, que pone en una misma base conceptual al movimiento de los planetas, las galaxias y las manzanas, y las preocupaciones de sobrepeso de una parte del género humano, es sólo una muestra. Más recientes, e igualmente importantes, son la teoría de la evolución de Charles Darwin y la teoría de la relatividad de Albert Einstein, y las teorías modernas del átomo, de la genética y de la Tierra, que son de paternidad múltiple; en realidad todas tienen un linaje aristocrático largo y rico al que poco damos crédito. Con justeza y humildad, Newton, con una mente privilegiada, afirmó que si podía ver más lejos que los demás era porque estaba sobre los hombros de quienes lo antecedieron.
 
Si se tuviera que asociar a una persona lo que podríamos llamar la teoría de la Tierra, sería Alfred Wegener quien tendría ese privilegio. Nació en Berlín en 1880 y estudió hasta obtener un doctorado en Astronomía Planetaria. Pronto su interés se dirigió a la climatología y la paleoclimatología, áreas en las que ganó un merecido prestigio. En 1915 presentó el resultado de sus investigaciones en la primera formulación coherente de la teoría de la deriva continental. Sobre la base de que las costas americana y africana tienen un parecido que sugiere que estuvieron juntas en algún remoto pasado, y que las semejanzas estratigráficas y de registros fósiles de cada lado difícilmente podrían ser casuales, Wegener escribió su obra clásica El origen de los continentes y los océanos, usando campos muy variados del conocimiento, anticipando la necesidad del concierto de diversas disciplinas en la solución del problema y reflejando la complejidad del mismo. Sin poder ver la aceptación de su teoría, murió congelado en su cuarta expedición en Groenlandia cuando buscaba más evidencia para apoyar sus ideas, midiendo el grosor del hielo “tierra” adentro.
 
A mediados del siglo xix, la Tierra se consideraba un sitio rígido que evolucionaba debido al proceso natural de enfriamiento, a través del vulcanismo; el diluvio y otras actividades punitivas de origen divino, con los hundimientos resultantes, eran vistos como excepciones bíblicas, pero se usaban para “explicar” algunas características terrestres. Por la erosión del agua y el viento, las montañas decrecían llenando valles y mares.
 
Los cataclismos, imaginados o reales, son una de las formas simples para explicar las evidencias. Una cómoda virtud es la de no necesariamente hacer predicción alguna. Es más fácil decir que al hermanito se lo llevó una nave espacial, que ya se fue, que ir a buscarlo. Otra virtud es que sólo es preciso invocarlos una vez para justificar un hecho particular. Así, por ejemplo, el Diluvio Universal nos quita la preocupación de entender cómo es que entre las cañadas altas de los Alpes suizos hay restos fósiles de vida marina o foraminíferos del Triásico en el Muschelkalk alemán.
 
La visión opuesta, llamada uniformismo, es todavía la dominante y postula que todos los procesos en acción hoy día, operando durante largos periodos de tiempo, son suficientes para explicar la historia geológica y el estado presente de las cosas. El panorama que hoy tenemos, más afín a esta forma de imaginar la dinámica terrestre, requiere la determinación de estas fuerzas en permanente acción para explicar por qué la Tierra es como es y a dónde va. Las ideas centrales de la concepción moderna pueden resumirse en forma muy esquemática de la siguiente manera.
 
La distribución de temperaturas en la Tierra es muy probablemente debida a la combinación de varios efectos. Una rápida (de cien mil a diez millones de años) acreción de material durante su formación, hace unos 4.6 miles de millones de años; la energía cinética no tuvo tiempo de ser liberada y el material primigenio permaneció en estado líquido, al menos en las regiones externas. Una acreción violenta, por colisión con diversos objetos (cometas, asteroides y planetoides), en las etapas iniciales del sistema solar, que volvió a licuar buena parte del planeta, varias veces. En esa época se “hundieron” los materiales pesados y “salieron a flote” los más ligeros, proceso llamado de diferenciación, dando lugar a la estratificación en un núcleo sólido, debido a las altas presiones, un manto líquido y la corteza, todos de composición y dinámica distintas; esta última tiene un grosor medio de 10 km en el fondo oceánico y hasta 40 km en la masa continental. Un tercer mecanismo, señalado por el mismo Wegener, es la radiactividad, descubierta un par de décadas antes, en la que átomos pesados inestables, como el uranio y el torio, decaen en átomos más ligeros liberando energía en el proceso; éste sigue siendo la fuente de calor en el interior terrestre y en otros objetos del sistema solar.
 
Desde 1906, estudiando la propagación de las ondas sísmicas (la forma en que los geofísicos “ven” el interior de la Tierra, y hoy la tomografían con notable precisión), se había establecido el carácter líquido del manto; conocida ahora como una doble capa de material que cubre de los 10 a los 2 980 km de profundidad (manto superior, de 10 a 400 km, una zona de transición o mesosfera, de 400 a 650 km, manto inferior, de 650 a 2 890 km). De esta misma manera, en 1926 se conocía la existencia de un núcleo de más de 3 000 km de grosor. Recientemente establecido como un núcleo externo líquido de 2 890 a 5 150 km y un núcleo interno sólido de 5 150 a 6 370 km, todo parece indicar que gira a una velocidad ligeramente distinta a la del resto del planeta, lo que podría explicar los cambios registrados en la polaridad magnética de la Tierra.
 
En 1929 Arthur Holmes propuso que las variaciones de la temperatura en el interior y el estado líquido del manto serían suficientes para que circulara el material y transportara el calor del interior al exterior (corrientes convectivas) en forma más eficiente, como lo hace cualquier líquido en circunstancias semejantes. Este mecanismo es ahora uno de los más aceptados como motor del movimiento de las placas, las cuales son arrastradas al flotar sobre la capa superior del manto.
 
La propuesta de la tectónica de placas, esencial en la teoría, fue hecha en la década de los sesentas del siglo pasado, siendo Harry Hess el más importante de los muchos que participaron en darle la forma que actualmente tiene. Dos ingredientes determinantes fueron la asociación hecha por Patrick Blackett entre las observaciones geomagnéticas y la deriva continental, más de una década antes, y el conocimiento de la distribución espacial de los sismos en todo el planeta. De acuerdo con ella, la litosfera, la capa superficial de la Tierra que incluye a la corteza y llega a 60 km de profundidad, está formada por ocho placas rígidas grandes y más de veinte pequeñas, que se mueven e interaccionan; sobre estas placas se asientan los continentes o partes de ellos. A lo largo de las activas y extensas cordilleras oceánicas, marcadas por múltiples fallas, se genera litosfera nueva que va desplazando al fondo marino hasta llegar a las trincheras marinas o zonas de subducción, donde se desliza hacia el interior de la Tierra y da lugar a intensa actividad volcánica y sísmica. En el proceso crípticamente descrito aquí, se da pie a la colisión o a la ruptura de masas continentales, reconfigurando dramáticamente la topografía de la Tierra; el choque de la placa Euro-Asiática con la India, montada en la placa Indo-Australiana, se hace evidente en la formación de la cordillera de los Himalaya, región que hace apenas cincuenta millones de años era plana como una moneda.
 
Con muy diversa y robusta evidencia es ahora bastante claro que la distribución de la superficie caminable del planeta ha cambiado sustancialmente en los últimos quinientos millones de años. Cuando la deriva continental es invertida en el tiempo, hasta unos ciento ochenta millones de años, con los grandes reptiles en febril actividad, los continentes estaban todos unidos en un supercontinente, llamado Pangea por sus futuros pobladores.
 
La falta de un mecanismo convincente para justificar la deriva continental dio lugar a que la propuesta de Wegener fuera ignorada por la mayoría de quienes trabajaban en el campo, durante más de tres décadas. Cabe señalar que quienes habían hecho suya la propuesta fueron objeto del desprestigio, junto con la burla o el enojo de reconocidos geofísicos. Que los hechos no fueron suficientes para que la comunidad aceptara la teoría y buscara los argumentos y evidencias que hacían falta para completar el esquema, muestra como el prejuicio puede prevalecer en una actividad que supone no hacerlo. Es cierto que faltaban elementos clave para dar contenido y predictibilidad al modelo de la Tierra que se iría a conformar, pero las bases estaban presentes desde el inicio y los hechos eran inexplicables con las concepciones de entonces.
 
Es frecuente pensar que la ciencia avanza de manera inexorable hacia la Verdad (sic), construyendo sistemática y objetivamente un edificio intelectual, armónico con la arquitectura de lo ya diseñado y edificado, lográndose la visión consistente que hoy tenemos. Ojalá. No es así y no lo ha sido, aunque saberlo puede ser la clave para superarlo, diría el sentido común o un psicoanalista. La historia de cómo y qué hemos aprendido de Gaia, nuestra amable anfitriona, ilustra bien cómo la ciencia, a pesar de todo, se mueve…
 
Ramón Peralta y Fabi
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Peralta y Fabi, Ramón. (2001). Y sin embargo se mueve. Ciencias 63, julio-septiembre, 47-49. [En línea]
Você está aqui: Inicio Búsqueda Titulo revistas revista ciencias 63