revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
  P01    
  del tintero
 
     
Notas sueltas. Reflexiones sobre ciencia
 
 
Tomás Segovia
conoce más del autor
 
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
         
El hombre moderno sigue haciendo la mímica de la participación en el mundo, ahora ya sin contenido. La técnica, con sus impresionantes logros, ha proporcionado el modelo de esa vida, y es la mímica del trabajo, produce los mismos efectos, aumentadísismos, sin tener su contenido. La fascinación de esa eficacia era inevitable. Todo el mundo piensa en la “magia” ante los logros de la técnica; pero ¿qué magia es ésa? Porque todo el mundo sabe al mismo tiempo que no hay nada mágico detrás de los aparatos. “Ce n’est pas sorcier”, como dicen los franceses. De la magia sólo nos ha quedado el aspecto negativo: la impenetrabilidad, el escape a nuestro control. El que aprieta el botón de un aparato de radio, ignorando en absoluto cómo funciona eso (cosa que por lo demás la propia ciencia ignora) y sin poder creer al mismo tiempo que un “espíritu” lo produce, está viviendo una mímica sin contenido.
 
*  *  *
 
 
 
El romanticismo es una toma de conciencia radical del misterio del significar y por tanto del misterio de la verdad. Este misterio se puede expresar incluso en los términos más chatos de la lógica formal-pragmática. En esos términos la verdad tiene dos naturalezas, puesto que hay dos modos de verificar: por un lado un juicio se verifica cotejándolo con las reglas sintácticas de la lógica misma (las “tablas de verificación”); por otro se verifica cotejándolo con un “estado de cosas” exterior. Pero resulta que las reglas sintácticas son ellas mismas inverificables (sería un círculo vicioso), y lo mismo sucede con el “estado de hecho”, incluso más aún que con las reglas sintácticas, porque esa verificación implica que sepamos ya, de alguna otra manera que no sea lógica y por lo tanto inverificable, o sea que sepamos fuera de la verdad cuál es el estado de cosas; e implica también unas reglas de cotejo que serán tan inverificables sin círculo vicioso como las reglas sintácticas.
 
La Verdad es pues triplemente misteriosa para la lógica formal: porque es misterioso el origen de las reglas sintácticas que “verifican” la verdad: porque es misterioso el origen del cotejo que “verifica” el juicio verdadero, y porque es misteriosa esa “verdad” fuera de la Verdad que es el conocimiento del “estado de cosas” (o más bien, saliéndonos de ese formalismo, su sentido).
 
*  *  *
 
 
 
Me parece claro que una actitud (y no una filosofía o una teoría o una ideología) verdaderamente relativista e indeterminista, una mentalidad que dejara de estar obsesionada por el sueño de conocerlo todo, explicarlo todo, explorarlo todo, dominarlo y controlarlo todo, sería una novedad histórica radical, una “revolución” en el sentido en que lo fueron la Revolución Industrial, la Revolución Neolítica, o todavía mejor la Revolución Romántica. Una civilización que viviera de veras lo que he llamado el principio de incertidumbre del sentido, no como teoría, sino como estilo histórico y actitud espontánea, como respeto y amor a la oscuridad de todo origen, respetaría y amaría también las zonas oscuras del conocimiento del mundo y de la historia. Y el verdadero respeto de lo oscuro, que no consiste en blandirlo para demoler la claridad del contrario o la claridad en general, sino en saber dónde está el límite de la certidumbre, empezando por la propia, y respetar ese límite (o sea la regla universal que tanto he repetido y que prescribe: “No inventarás”); ese verdadero respeto es el summum de la tolerancia, una tolerancia llevada tan lejos que sin duda habría que darle otro nombre.Chivi66
Tomás Segovia
Poeta y escritor. Premio Octavio Paz de Poesía 2001.
_______________________________________________________________

como citar este artículo

Segovia, Tomás. (2002). Notas sueltas. Reflexiones sobre ciencia. Ciencias 66, abril-junio, 99. [En línea]
Cultivos y alimentos transgénicos
P01
Jorge Riechmann
 
Argumentos recombinantes sobre cultivos y
alimentos transgénicos.
Fundación Primero de Mayo, Madrid.
Los Libros de la Catarata, 1999.
   
HTML ↓ PDF ← Regresar al índice
     
Este libro, editado por las Comisiones Obreras de España, es más que un manifiesto de este sindicato. Se trata de una reflexión en torno a las biotecnologías, en la que se hace especial énfasis en el caso de los cultivos y los alimentos transgénicos. Dos temas centrales, el riesgo y la democracia, guían el texto y están íntimamente ligados a la convicción del autor de que las decisiones en torno a la manipulación genética deben estar guiadas por una crítica diferenciada, según las aplicaciones que se le den a cada una de las nuevas tecnologías, y que debe existir la posibilidad de un control social mucho más severo al que se ha tenido hasta ahora.
 
 
Uno de los principales objetivos de esta obra es darle a los lectores inexpertos, argumentos a partir de los cuales puedan formarse una opinión acerca de los organismos genéticamente modificados en el ámbito de la agricultura. Se trata de una exposición clara de los riesgos asociados al cultivo y al consumo de las plantas transgénicas, sobre todo en el ámbito de la ecología y de la salud pública, y también se discuten las posibles implicaciones político-económicas; como la oligopolización de la agricultura y el desplazamiento de la agricultura de subsistencia, entre otros.
 
 
El otro objetivo del libro es ampliar el debate en torno a los cultivos y alimentos transgénicos, y reflexionar acerca de los mecanismos de adopción de las biotecnologías en general. Para el autor la evaluación y la toma de decisiones corresponde a la sociedad en general, ya que la introducción de las nuevas tecnologías le afecta directamente, y porque los mecanismos existentes actualmente no han podido contrarrestar el poder de la industria. Aquí, el ejemplo de la aceptación de la comercialización del maíz transgénico por la Comisión Europea resulta muy ilustrativo. En 1997 la Comisión Europea aprobó la comercialización de maíz transgénico contra la opinión de trece de quince de los países miembros. A pesar de las quejas del Parlamento Europeo por la toma de decisiones hecha de manera unilateral, sin respeto por las posiciones negativas de la mayoría de los estados miembros y del Parlamento Europeo, la Comisión Europea anunció que no daría marcha atrás en su decisión. Para contrarrestar esos abusos de poder, el autor analiza distintas herramientas de participación democrática como los son los referendos, el veto mayoritario por iniciativa popular, los comités ciudadanos y las conferencias de consenso.
 
 
Para el autor un elemento indispensable para la toma de decisiones de manera democrática es el tiempo; para evaluar todas las implicaciones que se desprenden de una tecnología, y para poder decidir. En ese sentido, el autor aboga por el principio de precaución y por una moratoria. Es necesario que antes de que se acepte una tecnología se realicen estudios que permitan demostrar su inocuidad o su necesidad a largo plazo. El tiempo de evaluación y de reflexión es una condición fundamental para la apropiación de la tecnociencia por parte de la sociedad.
 
 
Este libro proporciona al lector argumentos sobre los cultivos y los alimentos transgénicos para que cada ciudadano pueda participar en la reflexión que se lleva a cabo en torno a ellos, y provee alternativas frente a la resignación de un futuro diseñado y dominado por los intereses de las grandes transnacionales.
 
 
En el caso de México nos parece importante destacar dos aspectos con relación a los riesgos esbozados por el autor. El primero es la transferencia de genes de las variedades transgénicas cultivadas a las variedades silvestres.
 
 
El segundo aspecto concierne al modelo agrícola que se quiera implantar en el país, donde una gran parte de la agricultura es de subsistencia. El modelo que subyace al de los organismos genéticamente modificados se parece y adolece de los mismos grandes defectos que el de la “revolución verde”, cuyos efectos ecológicos, pero primordialmente socio-económicos, han sido ampliamente criticados.
 
 
Este tipo de cultivos necesita una agricultura de altos insumos y grandes extensiones de tierra industrializadas. Hasta ahora no se han creado semillas capaces de crecer en suelos pobres o salinizados, o cultivos con más proteínas y nutrientes que no necesiten de un uso generalizado de fertilizantes, herbicidas, etcétera, ni tampoco cultivos dirigidos a los agricultores de subsistencia.Chivi66
 
Nina Hinke
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Hinke, Nina. (2002). Cultivos y alimentos transgénicos. Ciencias 66, abril-junio, 118-119. [En línea]
 
← Regresar al índice
  P01 P02  
 
 
     
Metafísica experimental y mécanica cuántica
 
Luis de la Peña y Ana María Cetto
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Cada vez que ha surgido una nueva rama de la física —sea la mecánica clásica, la óptica, el electromagnetismo, u otra— su desarrollo ha implicado la necesidad de revisar preconcepciones y de crear conceptos apropiados para entender, describir y relacionar los nuevos fenómenos en cuestión. Este tipo de trabajo, el de construcción de la base conceptual de una nueva teoría, normalmente implica una confrontación de visiones; y en el camino suelen presentarse fuertes desacuerdos y resistencias a la aceptación de las nuevas ideas, antes de quedar establecido un andamiaje conceptual más o menos completo y coherente, que sirva de soporte para la nueva teoría.
 
El desarrollo de la mecánica cuántica no ha sido la excepción. El hecho de que los fenómenos típicamente cuánticos se presenten normalmente en sistemas de pequeñísima dimensión, no susceptibles a observación directa, abre la posibilidad a diferentes lecturas del mundo cuántico, que conducen a esquemas conceptuales discrepantes entre sí. Si bien uno de ellos ha adquirido amplia popularidad, no puede decirse siquiera que esté libre de severas dificultades conceptuales. Detrás de cada uno de estos esquemas se encierra toda una forma de leer la naturaleza y de interpretar sus mensajes; el asunto por lo tanto tiene profundas implicaciones metafísicas. No es gratuito que los debates en torno a la interpretación de la mecánica cuántica hayan llenado algunas de las páginas más notables de la historia de la física del siglo pasado.
 
 
En el proceso de construcción y consolidación del andamiaje conceptual, los experimentos juegan a menudo un papel privilegiado. Más allá de confirmar las predicciones del nuevo formalismo, y de explorar los límites de su aplicabilidad, pueden ayudar a profundizar en la comprensión de los nuevos fenómenos, o inclusive a someter a prueba su ropaje interpretativo. Así, en las últimas décadas se ha realizado toda una serie de complejos y delicados experimentos con el propósito de confirmar la interpretación que oficialmente acompaña a la mecánica cuántica —y que es considerada parte integral de esta teoría.
 
Tales experimentos se han hecho posibles gracias a que hoy día se cuenta con instrumentos capaces de crear condiciones muy especiales —como cavidades microscópicas que encierran una o dos partículas en su interior bajo condiciones controladas, átomos en estados bien definidos, haces de luz de muy baja intensidad, etcétera. La motivación para llevarlos a cabo no es solamente de origen metafísico; una buena parte de este trabajo experimental tiene implicaciones importantes en áreas de investigación de avanzada, como la computación cuántica y la transmisión de mensajes codificados. Tal circunstancia ayuda, naturalmente, a mantener en estado de buena salud financiera a estos proyectos experimentales.
El indeterminismo cuántico
 
Una de las características de la mecánica cuántica más extensamente discutidas en la literatura que aborda los problemas conceptuales de esta teoría, ya sea a nivel profesional o de divulgación, es su indeterminismo.
 
El que una teoría física no sea determinista no representa en sí ningún problema, si lo consideramos una propiedad de nuestra descripción, más que una propiedad ontológica del sistema examinado o descrito. Y en efecto, el que el comportamiento de un sistema físico o de cualquier otra índole sea descrito como tal no significa, sino que el cúmulo de factores que determinan detalladamente su comportamiento ha sido dejado a un lado al separar, conceptualmente, el modelo que se discute de una parte de su entorno. Veamos un ejemplo para ser claros: consideremos un recipiente cerrado que contiene únicamente algún gas, y que se encuentra a una temperatura fija (por ejemplo, la del medio ambiente). Sabemos bien que existen leyes relativamente simples que nos permiten determinar la presión del gas en términos del volumen y la temperatura; como ambos son fijos, también la presión es fija. Todo parece estar determinado. Pero en realidad no, pues basta que nos preguntemos con qué velocidad se mueve una cierta molécula (alguna en particular, arbitraria y libremente escogida de entre los cuadrillones que contiene el frasco) para advertir, de inmediato, que no tenemos información alguna para contestar: la velocidad puede ser prácticamente cualquiera. Lo que las simples leyes de la termodinámica nos permiten determinar con precisión es la velocidad promedio de las moléculas o la velocidad más probable, y otras cantidades como éstas, pero no más.
 
La descripción termodinámica es global, no entra en los detalles del movimiento de cada molécula, sino que contempla sólo algunas de sus propiedades estadísticas. Se trata así de una descripción muy simple y útil —pero claramente incompleta. Los movimientos particulares de cada una de las moléculas quedan indeterminados, o sea que la teoría proporciona una descripción indeterminista. Sin embargo, nadie dudaría que hay factores físicos que determinan con precisión el movimiento de cada molécula —al menos mientras consideremos al sistema dentro de los cánones de la física clásica—, aunque no lo conozcamos. El sistema es determinista; lo indeterminista es la descripción que de él hacemos.
 
El meollo del problema con la teoría cuántica es que percibimos el indeterminismo de los sistemas por ella descritos, pero a la vez consideramos esta descripción como acabada, como la más completa posible. Esto usualmente se entiende en un sentido estricto, es decir, no como la descripción más completa de que disponemos hoy en día, sino la más completa en principio, ahora y para siempre.
 
Recurramos otra vez a un ejemplo sencillo para aclarar el punto. Pensemos esta vez en una pizca de un material radioactivo con una vida media de algunos minutos. Esto quiere decir que cualquiera de los (muchísimos) núcleos radioactivos de la muestra puede decaer en el curso de los próximos minutos, aunque también puede no hacerlo. Precisar cuales núcleos decaerán en los próximos cinco minutos y cuales no, queda fuera de las posibilidades de la teoría, que sólo puede decir qué fracción del total decaerá en ese lapso. Además, en cada decaimiento el correspondiente núcleo emite una partícula —supondremos que son electrones, pero podría ser otra cualquiera— que sale en un caso en una dirección, en el siguiente en otra dirección cualquiera, y así sucesivamente. El resultado es que cuando decaen muchos núcleos, salen electrones uniformemente repartidos en todas las direcciones. A pesar de que cada decaimiento se produce en un momento preciso y emite un electrón en una dirección bien establecida, la descripción cuántica —la mejor con que contamos— no nos permite determinar estos datos precisos, sino sólo la probabilidad de que un núcleo dado que aún no ha decaído, lo haga dentro del plazo dado, como hemos dicho, y la probabilidad de que el electrón emitido caiga o no dentro de la ventana estrecha de un detector colocado en las cercanías. La naturaleza decide con precisión; nosotros únicamente calculamos con probabilidades.
 
Si se creyera —que, como hemos visto, no es el caso— que la situación es análoga a la de la molécula del gas, no habría nada de extraño en el comportamiento cuántico. Pero la convicción prevaleciente de que hasta aquí podemos —y podremos— llegar con nuestras descripciones del mundo cuántico, convierte a este indeterminismo en algo esencial. Como este fenómeno es omnipresente en la teoría cuántica, suele interpretársele como manifestación de una nueva propiedad de la materia: si no es el caso que la propia naturaleza es indeterminista, lo son al menos y de forma irremediable e irreductible nuestras descripciones de ella, como lo expresan formalmente las llamadas relaciones de indeterminación de Heisenberg (conocidas también bajo otros nombres y significados, pero esto lo podemos dejar de lado), o como indeterminismo ontológico, o indeterminismo epistemológico, pero indeterminismo al fin.
 
Iconoclasia de las variables ocultas
 
Para muchos espíritus este estado de cosas resulta poco satisfactorio: es posible entenderlo como un resultado de nuestros procedimientos de investigación y descripción, o como una característica del conocimiento alcanzado, pero no como una ley de la naturaleza. Sin duda alguna, el más conocido de los físicos que de manera abierta se negó a aceptar como definitiva a la mecánica cuántica (con todo y su ropaje interpretativo), precisamente por su indeterminismo esencial, es Einstein, a quien no tenemos necesidad de presentar. A su lado ha alineado toda una fila de científicos realistas que, al igual que él, ven en la teoría actual un magnífico logro, pero no una teoría final, acabada. Naturalmente, las razones y circunstancias de cada uno de estos disidentes son muchas y muy variadas, de tal manera que no podemos decir que se trate de una escuela, sino más bien de una posición común de principio.
 
En la mente de muchos de estos iconoclastas surge la idea de que debe ser posible construir una teoría más refinada y rica que la actual, la cual contenga variables de algún tipo hoy desconocidas que sean las responsables de los diversos posibles comportamientos; su conocimiento detallado explicaría el del sistema cuántico, y el indeterminismo desaparecería. Por ejemplo, en el caso del gas clásico, se trataría de todo el conjunto de velocidades y posiciones de las otras moléculas, más los datos del recipiente, lo que determinaría detalladamente la velocidad y posición de la molécula de nuestro interés. Basta esta imagen para entender la razón por la cual a estas hipotéticas variables, que transformarían en deterministas a los sistemas cuánticos, se les conoce bajo el nombre genérico de variables ocultas. En ellas radicaría el misterio que los físicos deterministas desearían resolver.
 
Para que una teoría de variables ocultas tenga interés físico y perspectivas de éxito debe cumplir varios requisitos indispensables. Dos de ellos son obvios: las variables deberán ser distribuidas, y la teoría resultante deberá ser plenamente compatible con la mecánica cuántica actual y reproducir sus resultados dentro de los estrechos límites que fijan los experimentos. La primera simplemente dice que es en las diferentes realizaciones de tales variables en donde debemos encontrar la razón de los diferentes resultados observados o predichos por la teoría, con lo cual el actual indeterminismo se transforma en el mero resultado de las realizaciones azarosas de las posibilidades, que naturalmente se dan en el sistema. La segunda condición resulta del hecho de que las predicciones de la teoría cuántica contemporánea, que cubren un impresionante rango de fenómenos físicos de muy diversas escalas y estructuras, nunca han sido fallidas, y que algunas de ellas han sido verificadas con la increíble precisión de diez dígitos. Sirva de referencia que en la ingeniería usual una exactitud de una parte en mil ya es considerada como ingeniería de precisión y difícilmente se alcanza la de una parte en diez mil, salvo en aplicaciones muy especiales, como sucede en la óptica.
 
Pero aún hay más (como nos enseñara a decir uno de los más profundos filósofos de la televisión nacional): es claro que si la intención al introducir las variables ocultas es darle a la teoría una estructura conceptual aceptable dentro de los cánones del realismo, estas variables a su vez deberán tener propiedades plenamente aceptables según los mismos cánones. Aquí es donde vuelven a complicarse las cosas. La historia de este asunto es compleja y larga —pues se inicia en 1932, muy pocos años después del nacimiento de la teoría cuántica que hoy manejamos y que podemos situar en el curso de los años 1925 a 1927—, por lo que sólo haremos referencia a los puntos centrales, sin pretensión alguna ni de totalidad ni de apego a la cronología del tema. En aquel año, 1932, apareció publicado el primer texto de mecánica cuántica escrito por un matemático, el húngaro-norteamericano Johann von Neumann —por cierto, uno de los verdaderamente grandes matemáticos del siglo xx, quien, entre tantas otras cosas, fue uno de los creadores de la actual computadora digital. En su libro, von Neumann incluyó una famosa demostración sobre la imposibilidad de construir una teoría de variables ocultas consistente con la mecánica cuántica. Con esto, el sueño realista se quedaba en esto, un sueño. Naturalmente los esfuerzos en esta dirección se redujeron drásticamente, mientras su descrédito se extendía. Peor aún, como respuesta a las limitaciones que se le encontraron al teorema de von Neumann en el curso de las décadas, aparecieron otros teoremas similares (de Kochen y Specker, de Gleason, etcétera), que venían a reforzar el clima contra la propuesta realista.
 
Las desigualdades de Bell
 
De entre todos estos esfuerzos el que indudablemente tuvo mayor éxito fue el del físico inglés John Bell, con su famoso teorema de 1966. En realidad se trata de un teorema muy simple y general que debe cumplir cualquier teoría realista cuántica —el que una descripción del sistema cuántico sea realista significa que se puede hacer, al menos en principio, en términos de las trayectorias seguidas por las partículas— con propiedades físicamente aceptables (como las citadas arriba), a lo que se agrega la demostración, vía un ejemplo específico, de que la teoría cuántica viola tal teorema en situaciones apropiadas. La amenaza de muerte de las intenciones realistas parecía cumplirse finalmente.
 
El resultado vino a ser un tanto paradójico, pues la intención de Bell, al enfocar sus esfuerzos en este tema, era precisamente la opuesta a lo que emergió de su empeño. Bell analizó la interpretación causal de la mecánica cuántica propuesta desde 1952 por el físico estadounidense (a pesar de Estados Unidos) David Bohm, que es una teoría de variables ocultas plenamente consistente con el formalismo cuántico (pues se trata sólo de una relectura de sus resultados, en términos realistas). Luego la mera existencia de la teoría de Bohm desdecía el teorema de von Neumann y mostraba que algo esencial estaba mal en todo este entramado. Para Bell, esto significaba que la sentencia de muerte del realismo no estaba realmente dictada, lo que le complacía, pues él mismo era un físico realista. Sin embargo, prestó de inmediato atención a una propiedad central y no precisamente atractiva de esta teoría, y se preguntó si ella era inevitable en cualquier teoría de variables ocultas, o bien se aplicaba específicamente a la teoría de Bohm. Fue en la búsqueda de la respuesta a esta interrogante que Bell llegó a su teorema.
 
 
El punto en cuestión es que la teoría de Bohm no es local. Esto puede sonar demasiado abstracto a algunos e irrelevante a otros, pero se trata de algo fundamental e incompatible con principios centrales de la física no cuántica (y del resto de las ciencias naturales). La no localidad significa que un cuerpo puede actuar sobre otro a distancia. Tal acción ocurre en la mecánica cuántica que es no relativista de manera instantánea, pero podemos achacar esto al carácter no relativista de la teoría, o sea al hecho de que el formalismo cuántico usual no es consistente con la teoría de la relatividad —deficiencia que se corrige con una versión relativista de la teoría. Sin embargo, dada su naturaleza, esta interacción a distancia no desaparecería aun en la versión relativista. El punto es si en efecto un cuerpo puede actuar sobre otro sin conexión causal aparente o, en términos más simples, sin que medie fuerza alguna entre ellos. Hasta se estremece uno un poco con esta pregunta, la cual parece pertenecer más bien al terreno de lo sobrenatural. La respuesta que da la física no cuántica es un rotundo no. Y esa misma respuesta quisiera poder darla un sector importante de los físicos realistas, aunque no todos, en el caso de la física cuántica. Por ejemplo, Bohm, el propio Bell y muchos otros físicos e incluso filósofos de la ciencia, han asumido la no localidad cuántica como algo que nos impone la naturaleza y que debemos aceptar, gústenos o no. Si ello contradice nuestra intuición o visión filosófica, peor para nosotros, nos dirían, pues no nos queda más que cambiarla si deseamos profesar una filosofía compatible con las leyes naturales; es decir, debemos dejar que la naturaleza nos imponga sus leyes, en vez de tratar de imponerle las nuestras.
 
Sin embargo, para el sector de físicos realistas que se estremece con la pregunta sobre la localidad, la respuesta anterior aparece como la aceptación de una comunión entre la magia y la ciencia. El precio que se está pagando por eliminar el indeterminismo resulta demasiado alto. Para el sector de iconoclastas empedernidos es tan inaceptable la no localidad, como el indeterminismo esencial. Lo que se antoja es una teoría a la vez realista y local, en vez de la actual teoría indeterminista o no local.
 
A diferencia de resultados anteriores, como el teorema de von Neumann y otros, el teorema de Bell tiene dos características de gran relevancia. Una es la simplicidad y generalidad de su derivación, que lo torna transparente y difícilmente rebatible. Otra, la que ha determinado su éxito, es que su enunciado es tal, que se hace posible llevarlo al experimento. Se trata de verificar en el laboratorio que los sistemas cuánticos cumplen las predicciones de la teoría cuántica y violan ciertas desigualdades matemáticas, que Bell obtuvo a partir de las demandas de determinismo y localidad (y nada más, fuera de relaciones probabilistas muy generales y elementales). Así, lo que se pretende probar en el laboratorio es si los sistemas cuánticos contradicen o no la demanda de realismo local, que se refiere más a un principio metafísico que físico. Con esto se han abierto las puertas a un nuevo terreno, hasta hoy totalmente impensado, al que algunos autores comienzan a llamar metafísica experimental. Quizá sea un poco exagerado hablar en tales términos en este momento; pero sí es un hecho que las fronteras de lo físico y experimentable se han recorrido significativamente con estos estudios.
 
Las predicciones de la teoría cuántica han sido tantas y tan bien verificadas que la mayoría de los físicos no dudaría en suponer que en estos experimentos también se cumplirán. Hay quienes, incluso, han insistido en que no se requiere hacer ninguno nuevo: la simple extrapolación de nuestra experiencia cuántica nos hace saber que los sistemas cuánticos pueden violar las desigualdades de Bell. ¿Para qué malgastar tiempo, esfuerzo y dinero en lo obvio?
Sin embargo, cuando se trata de principios generales y profundos hay quienes perseveran. Es posible que la naturaleza sea como se nos dice, nos guste o no creerlo; pero esto no ha sido demostrado, sino simplemente aceptado como resultado de ver y leer el formalismo de la mecánica cuántica desde una cierta perspectiva, la ortodoxa. No estamos obligados a rechazar a priori otras posibilidades, como la que precisamente postula el realismo local. Por tanto, la realización de los experimentos tiene sentido, pues se trata de certificar o negar predicciones que son específicas de la teoría cuántica. Y el argumento se ha reforzado profundamente de la manera más convincente y simple posible: diversos autores han construido modelos realistas locales de los dispositivos experimentales que satisfacen cumplidamente los resultados. Esto refuta de manera evidente la convicción generalizada y popular de que los experimentos realizados han demostrado la incompatibilidad entre el realismo local y el comportamiento de la naturaleza.
 
Son varios los que se han hecho —en realidad no con partículas, sino con luz, pero formalmente las cosas son equivalentes para la mecánica cuántica a través de la dualidad onda-corpúsculo— y todos parecen conducir a conclusiones consistentes con las predicciones cuánticas. Con ello suele justificarse la conclusión mencionada líneas arriba sobre el realismo local. Sin embargo, aun aquí hay gato encerrado, pues diversos análisis detallados de los experimentos han mostrado que todos contienen algún punto débil: o enfrentan problemas de muestreo estadístico, o bien debido a la baja eficiencia de los detectores, o a la necesaria supresión del ruido de fondo, o a la introducción obligada de hipótesis adicionales no verificadas (en ocasiones incluso inverificables). De manera que siempre hay alguna vía de escape que permite la construcción de un modelo realista local capaz de reproducir los resultados observados, e incluso, en varios casos, de ir más allá. Basta la existencia de un solo modelo de esta naturaleza consistente con la mecánica cuántica, para que pierda toda su fuerza el correspondiente experimento como refutación del realismo local. Es claro que hasta que no se haya realizado simultáneamente un experimento libre de todas las escapatorias conocidas, no se deberá considerar como ganada la ofensiva contra el realismo local.
 
¿Qué tan definitivo es lo concluido?
 
Las desigualdades originales de Bell no son homogéneas en las probabilidades de coincidencia, o sea que están relacionadas con números absolutos. Pero verificar relaciones de este tipo está más allá del límite de las posibilidades tecnológicas contemporáneas, básicamente debido a la baja eficiencia de los detectores. Lo que se puede poner a prueba en el laboratorio son otras desigualdades, de tipo homogéneo, que se derivan de las de Bell, a costa de agregar hipótesis suplementarias sobre el comportamiento de los detectores, los polarizadores, etcétera. Como éstas no han sido verificadas, no queda excluida la posibilidad de que sean ellas las responsables de la supuesta violación del realismo local, sin que ello cree ningún problema mayor.
 
A lo anterior podemos añadir consideraciones de otra naturaleza, que permiten rescatar el realismo local sin afectar la teoría cuántica. Una primera muy básica es la siguiente: los estados cuánticos que conducen a la violación de las desigualdades de Bell son los conocidos como estados entrelazados (entangled) entre dos partículas. Estos son estados que se refieren simultáneamente y de manera indisoluble a las dos partículas de una pareja y no permiten hacer una afirmación sobre el posible estado de cada una por separado. Mucho se ha escrito sobre ellos, pero poco se les entiende realmente; poseen multitud de propiedades anti-intuitivas y son en buena medida responsables de una variedad de sorprendentes, cuasi mágicos, fenómenos cuánticos. Lo que nos importa resaltar aquí es que las correlaciones entre las dos partes entrelazadas del sistema que tienen propiedades son locales. De hecho, es esta ausencia de localidad la que pone en evidencia las desigualdades de Bell.
 
En otras palabras, la no localidad está ya en cada una de las correlaciones que se miden en los experimentos, por lo que es perfectamente posible, al menos en principio, olvidarse de las desigualdades de Bell si de lo que se trata es de evidenciar la falta de localidad cuántica, y medir sólo las correlaciones entre la pareja de partículas entrelazadas. El resultado será tan no local como lo que intenta ponerse en evidencia con los experimentos más complejos como los de Bell. Luego lo que está realmente a discusión es si las propiedades no locales de un sistema entrelazado se preservan intactas cualquiera que sea la distancia, aun macroscópica, entre las dos partes del sistema, o si hay límites espacio-temporales, aún no establecidos, para la preservación de la integridad de estos estados.
 
Este es un tema que en varias formas se encuentra también en escrutinio activo, bajo el nombre genérico de decoherencia. Y poco a poco se está abriendo paso la idea de que, en efecto, existen factores naturales que limitan la vida de la coherencia cuántica. El tema es de gran importancia práctica, aunque parezca increíble, pues es precisamente el fenómeno de entrelazado el que sirve de soporte a las ideas relacionadas con temas tan actuales como la computación cuántica, la (mal) llamada teleportación, el cifrado seguro de mensajes, etcétera. Seguramente dentro de muy poco tiempo tendremos mucho más que decir respecto a estos asuntos; hoy por hoy no sabemos con certeza en qué sentido habrán de evolucionar nuestros conocimientos al respecto.
 
Un segundo comentario, que surge de manera natural, se refiere al sentido físico que pudieran tener las variables ocultas. Si se tratara de un esquema meramente formal, es decir, con las variables adicionales introducidas ad hoc con el solo propósito de recuperar la causalidad, no sería mucho lo que se ganaría en comprensión física. En alguna forma esto es lo que se hace en la teoría de Bohm, donde a la propia función de onda cuántica se le asigna el papel de un campo físico sui generis, generador de la fuerza no local que conduce al comportamiento cuántico. En ésta no se introducen elementos físicos nuevos; se trata de la vieja mecánica cuántica vestida con un ropaje diferente.
 
Pero hay otras alternativas más ricas, una de las cuales, la electrodinámica estocástica, nos parece que tiene un buen porvenir. En esta teoría se toma seriamente al campo de radiación de fondo, el llamado campo de punto cero o de vacío, que es un ruido electromagnético que persiste aun a temperatura cero. Se trata de un campo bien conocido dentro de la electrodinámica cuántica, pero tomado usualmente en ella como un campo virtual, responsable apenas de algunas correcciones menores a los resultados predichos por la mecánica cuántica. Si se considera que el espacio está ocupado al menos por este campo de vacío, la imagen de la dinámica de los electrones atómicos cambia sustancialmente, pues cada uno de ellos se encontrará en permanente e inevitable interacción con este campo estocástico, lo que le imprimirá un movimiento azaroso.
 
He aquí un mecanismo simple que explica de inmediato no sólo el aparente indeterminismo de los átomos, sino su estabilidad, problema cuya comprensión física se le escapa a la mecánica cuántica. En efecto, cada estado estacionario atómico puede entenderse ahora como un estado donde la potencia media extraída del campo por el electrón se compensa en promedio con la potencia radiada por éste. Incluso la misteriosa causa que vincula electrones separados distancias apreciables en los estados entrelazados (aunque siempre dentro de la escala atómica) y da lugar a la aparente no localidad discutida arriba, queda explicada en principio. Puesto que las longitudes de onda de los componentes del campo de vacío que determinan los rasgos esenciales de la dinámica (de unos miles de ángstroms) se extienden normalmente por muchas distancias atómicas (que son apenas de algunos). Es de esperar entonces que tienda a establecerse una correlación importante entre los movimientos de partículas relativamente separadas, pero que comparten un mismo (o varios) componentes relevantes del campo de fondo: quedan ellas vinculadas dinámicamente a distancia a través de este campo.
 
La somera descripción anterior puede verse como una propuesta concreta para construir una teoría alternativa, que sirva de fundamento a la mecánica cuántica contemporánea y brinde una explicación racional, causal y realista a sus propiedades misteriosas. De hecho, con esta intención se le ha ido investigando y elaborando durante las últimas décadas, pero puede tomarse otra perspectiva menos comprometida, reduciéndose a ver en la electrodinámica estocástica un ejemplo que muestra la posible existencia de vías alternas capaces de ofrecer una salida interesante y enriquecedora a los problemas que confronta la actual mecánica cuántica. Lo que parece menos prometedor es dejar las cosas como están, que es, en el fondo, lo que propone la ortodoxia de los textos.
 
De todo lo anterior puede concluirse, con optimismo, que la mecánica cuántica está lejos de ser una teoría acabada, y que tanto en el terreno teórico como en el experimental hay aun un enorme trabajo por delante, cuyos resultados podrán tener consecuencias importantes importantes en ámbitos tan distantes como la metafísica y la alta tecnología.Chivi66
Referencias bibliográficas
 
Bell, John S. 1966. “On the Problem of Hidden-Variables in Quantum Mechanics”, en Rev. Mod. Phys., vol. 38, núm. 447.
. 1987. Lo decible y lo indecible en mecánica cuántica. Alianza Universidad, vol. 661 Alianza Editorial, Madrid, 1990.
Ferrero, Miguel y Emilio Santos. 1997. “Empirical Consequences of the Scientific Construction: The Program of Local Hidden-Variables Theories in Quantum Mechanics”, en Found. Phys., vol. 27, núm. 765.
Laloë, Frank. 2001. “Do we really understand Quantum Mechanics? Strange Correlations, Paradoxes and Theorems”, en Am. J. Phys., vol. 69, núm. 655.
Patiño Jaidar, Leonardo. 2001. “¿Es no separable la mecánica cuántica?”, en Rev. Mex. Fís., vol. 47, núm. 181.
De la Peña, Luis. y Ana María Cetto. 1995. The Quantum Dice. An Introduction to Stochastic Electrodynamics. Kluwer Academic Press., Dordrecht.
Selleri, Franco. 1990. Quantum Paradoxes and Physical Reality. Kluwer Academic Press., Dordrecht.
. 1986. El debate de la teoría cuántica. Alianza Editorial, Madrid.
Sulcs, Sue y Graham Oppy. “The Rejection of Local Realism is Premature”, en Found. Phys. Lett., vol. 13. núm, 521.
Wick, David. 1996. The Infamous Boundary. Seven Decades of Heresy in Quantum Physics. Copernicus (Springer-Verlag), Nueva York.
 

Luis de la Peña
Instituto de Física,
Universidad Nacional Autónoma de México.
 
Ana María Cetto
Instituto de Física,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 
como citar este artículo
De la Peña, Luis y Cetto, Ana María. (2002). Metafísica experimental y mecánica cuántica. Ciencias 66, abril-junio, 16-23. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Redescubriendo a Alexander von Humboldt
 
Exequiel Ezcurra
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Como ciencia, la teoría ecológica es producto de una larga y colorida historia, forjada a lo largo de siglos con el trabajo laborioso de naturalistas en el campo, en las selvas y en los desiertos. Es una historia larga, llena de hitos maravillosos y sobrecogedores. En el trabajo de expedicionarios excéntricos, naturalistas hoscos y antisociales, observadores obsesivos, y colectores compulsivos, yacen los orígenes y fundamentos de las teorías científicas que hoy rigen la protección de nuestros recursos naturales. Entender esta historia y honrar su legado, es una deuda con los singulares personajes que construyeron el camino de la ciencia a la que hoy llamamos ecología.
 
Uno de los muchos comienzos de esta historia ocurrió en 1798, cuando dos jóvenes científicos, de escasos 25 y 27 años, recorrían los prostíbulos y los bares de París en busca de algún contacto con oficiales del ejército napoleónico, que les permitiera colarse a las filas de la expedición imperial a Egipto. La nacionalidad alemana del primero —un tímido geólogo de minas— y el carácter festivo y mujeriego del segundo —un médico con radicales tendencias socialistas— les impidieron lograr su objetivo; el adusto ejército del Emperador no fue capaz de aceptar a personajes tan singulares. Sin embargo, en su búsqueda, nuestros protagonistas conocieron a un apasionado adolescente de 16 años, que era asiduo visitante de las casas de citas, lleno de pláticas encendidas y fervorosas, quien les describió con entusiasmo las riquezas naturales de su país, la Nueva Granada, hoy Venezuela. Así, ambos científicos, cuyos nombres eran Alexander von Humboldt y Aimé Bonpland, partieron para la tierra del joven estudiante, que se llamaba Simón Bolívar. En sus periplos por la América colonial llegaron finalmente a México, entonces eje cultural de la América española.
 
Así, nació el Ensayo político sobre el Reino de la Nueva España y el Viaje a las regiones equinocciales, el primero era una especie de versión decimoctávica de un informe de país —infinitamente más perceptivo que los aburridos reportes que hacen los expertos del Banco Mundial— y el segundo era un intento de lo que ahora llamaríamos una base de datos florísticos y un modelo ecológico de la América tropical. En estos ensayos se plantearon, por primera vez, algunos de los nuevos paradigmas de las ciencias del ambiente global. Éstos tardaron dos siglos en consolidarse, y se fueron apropiando lentamente de nuestra percepción de la realidad. Hoy, muchas de las ideas de Humboldt, acerca de cómo funciona nuestro planeta, son parte del conjunto de disciplinas de lo que llamamos “ecología global”, y forman parte del discurso cotidiano. Su genialidad radica en que fue capaz de intuir estas teorías sólo a partir de la observación descriptiva de la naturaleza, y de sus conversaciones con brillantes colegas de la América colonial.
 
“Un celo que distingue a México”
 
Humboldt y Bonpland nunca llegaron a conocer a un excéntrico naturalista mexicano —aunque sí lo leyeron con gran interés—, nacido en 1737 en Ozumba y fallecido en 1799, mientras ellos exploraban el Orinoco. Médico de formación, sacerdote, y erudito en mil temas, este naturalista graduado de la Real y Pontificia Universidad de México —hoy nuestra querida unam— investigó el movimiento de los planetas; hizo el primer mapa detallado de América del Norte, fue ardiente defensor de los pueblos indígenas; habló de la necesidad de controlar las inundaciones en la Cuenca de México, protegiendo su área lacustre; escribió una larga y curiosa memoria en favor del uso medicinal de las semillas de mariguana o pipiltzintzintlis; estudió el nopal y la grana cochinilla; elaboró preciosas ilustraciones científicas, que, hasta el día de hoy, son un testimonio de incalculable valor, y teorizó sobre la importancia de las plantas nativas —despreciadas en ese entonces por los criollos— como valiosos alimentos. Es una pena que no pudieran encontrarse, porque el carácter enciclopedista y la insaciable curiosidad de José Antonio de Alzate (ese era su nombre) habría impresionado mucho a los exploradores europeos. De cualquier manera, las ideas y los textos de Alzate fueron para ellos de gran importancia.
 
En cambio, el que sí pudo entrevistarse con Humboldt y Bonpland fue José Mariano Mociño, contemporáneo de Alzate, médico y botánico por la Universidad de México, quien pocos años antes había encabezado junto con el español Martín de Sessé —fundador de la cátedra de botánica en la misma universidad—, una serie de expediciones científicas desde Nicaragua hasta el Canadá. Éstas fueron financiadas por la Corona española y representaron un esfuerzo algo tardío —después de tres siglos de saqueo— por entender y describir la inmensa riqueza natural de la Nueva España. Sin embargo, la decadencia del imperio español a principios del siglo xix y la independencia de México pulverizaron cualquier expectativa de utilizar esos recursos botánicos y el conocimiento desarrollado en estas expediciones en beneficio de la metrópoli europea.
 
Pero Sessé y Mociño no habían sido los primeros; unos doscientos cincuenta años antes, a principios de la Colonia, la Corona había financiado trabajos similares antes de que la codicia por el oro y la plata, así como la Inquisición, hiciera desaparecer las prioridades más académicas. En 1552 dos indígenas, el médico Martín de la Cruz y el traductor Juan Badiano, habían publicado una luminosa obra describiendo las plantas medicinales autóctonas de México. El Códice de la Cruz-Badiano se escribió en náhuatl y latín, ya que eran fieles seguidores de la tradición de los códices prehispánicos, es decir, de su propia y rica tradición indígena. Pronto les siguieron muchos otros brillantes trabajos; en 1559 el fraile franciscano Bernardino Sahagún produjo una de las más grandes obras etnográficas del inicio de la Colonia, en la que describió con detalle importantes aspectos de la historia natural de México. En 1571, por órdenes del rey Felipe II, se inició la expedición de Francisco Hernández, con el objetivo de describir la historia natural de la Nueva España, y estudiar la medicina herbolaria indígena. La obra de Hernández aunque fue destruida en gran parte en el incendio de la biblioteca del Escorial en 1671, es un texto fundamental sobre la riqueza natural de México.
 
La fascinación por la naturaleza que mostraron Badiano, de la Cruz, Hernández, Mociño y Alzate forma parte de una tradición antigua en México, la cual fue reconocida con admiración y respeto por Humboldt, quien la describió como “el celo por las ciencias naturales en que con tanto honor se distingue México”. La síntesis de conocimientos teóricos que forman el cuerpo del Ensayo político y del Viaje a las regiones equinocciales se debe, en gran medida, a las discusiones con colegas mexicanos y a la lectura de trabajos que hizo Humboldt en la Nueva España. La investigación biológica de campo, y la descripción sistemática de la naturaleza son parte de esa admirable tradición intelectual, de ese “celo” mexicano, que tanto admiraba Alexander von Humboldt y que tanto contribuyó a su obra.
 
El rompecabezas planetario
 
Su mérito fundamental no radicó solamente en su capacidad para leer, entender y admirar el trabajo de sus colegas. Como muy pocos naturalistas de su época, llegó a comprender y deducir complejos fenómenos de la naturaleza, basado simplemente en sus observaciones. Es asombrosa la capacidad que tuvo para inferir, sin experimentar, el funcionamiento de complejos mecanismos naturales a partir de observaciones meramente descriptivas y basado tan sólo en sus experiencias como viajero y explorador. Humboldt pudo adelantarse a la aventura del descubrimiento científico, solamente con un libro de notas y sencillos instrumentos de navegación. Así recorrió la América tropical, armando con paciencia las piezas del rompecabezas planetario, e intuyendo fenómenos que hemos alcanzado a entender bien dos siglos más tarde.
 
Una de las preguntas científicas más relevantes que se hizo, fue acerca de las causas de la riqueza y la variación biológica sobre la Tierra. Esta pregunta fundamental corresponde al campo general de lo que en la actualidad llamamos “diversidad biológica”. En la época en que escribió el Viaje a las regiones equinocciales, que contiene el visionario Ensayo sobre la geografía de las plantas, no se conocía aún la teoría de la evolución ni la historia geológica y climática del planeta.
 
Medio siglo antes de Darwin, Humboldt esbozó algunas ideas que se vinculan con los conocimientos más modernos sobre la evolución biológica y geológica del planeta. En todos los casos sus esbozos fueron planteados como reflexiones sin mayor trascendencia. Sin embargo, muchas de estas ideas estaban anticipando grandes revoluciones científicas, que ocurrirían uno o dos siglos más tarde. Curiosamente, Humboldt tuvo la capacidad de anticipar las ideas de varios notables precursores de la ciencia, investigadores desconocidos en su momento que no fueron reconocidos, sino hasta después de su propia muerte.
 
Agassiz, el enamorado del hielo
 
En 1807, el mismo año en que Humboldt publicaba su Ensayo sobre la geografía de las plantas, nacía en Suiza Louis Agassiz, quien sería educado primero en Alemania y después en París, bajo la dirección de Cuvier (uno de los naturalistas más famosos de Europa) y quien se convertiría unos años más tarde en un joven y brillante médico y biólogo. En 1834 mientras que Humboldt empezaba a escribir su obra cumbre Cosmos, Agassiz regresaba a Suiza como profesor del Liceo y empezaba a estudiar los glaciares de los valles alpinos. En 1847, después de trece años de andar en los hielos, los valles y las morrenas —cuando se imprimía el segundo volumen de Cosmos—, Agassiz publicaba un libro, con poco impacto al principio, en el que arriesgaba la audaz hipótesis de que Europa había estado ocupada miles de años antes por inmensos glaciares que cubrían la mayor parte del continente. La Tierra, según Agassiz, había sufrido periodos de enfriamiento, a los que llamó “glaciaciones”, seguidos por periodos de calentamiento o “interglaciares” en los que la vegetación tropical había llegado hasta las latitudes boreales.
 
En un principio la idea fue tratada con desdén por la comunidad científica europea, cegada por la aparente evidencia de que los ciclos climáticos de invierno y verano se repetían con la precisión de un reloj. Fueron necesarios muchos años de evidencias fosilizadas, de descubrimientos geológicos, así como la teoría de le evolución de Darwin para que el público empezara a tomar en serio la teoría de Agassiz sobre las Edades Glaciales (quien, paradójicamente, se dedicó a combatir con celo religioso las ideas evolucionistas que sus propios descubrimientos habían ayudado a desarrollar).
 
Para Humboldt, sin embargo, era obvio que el ambiente global había pasado por sucesivos periodos de calentamiento y enfriamiento durante los últimos siglos, y planteó el problema con toda claridad en el Ensayo sobre la geografía de las plantas, casi cincuenta años antes que Agassiz: “Para decidir el problema de la migración de los vegetales, la geografía de las plantas desciende al interior del globo terráqueo y consulta ahí los antiguos monumentos que la naturaleza ha dejado en las petrificaciones, los bosques fósiles y las capas de hulla que constituyen la primera vegetación de nuestro planeta. Descubre los frutos petrificados de las Indias, las palmeras, los helechos arbóreos, las escitamíneas y el bambú de los trópicos, sepultados en las heladas tierras del norte; considera si estas producciones equinocciales, lo mismo que los huesos de los elefantes, tapires, cocodrilos y didelfos, recientemente encontrados en Europa, han sido transportados a las regiones templadas por la fuerza de las corrientes en un mundo sumergido bajo el agua, o si estas mismas regiones alimentaron en la antigüedad las palmeras y el tapir, el cocodrilo y el bambú. Uno se inclina hacia esta opinión, cuando se consideran las circunstancias locales que acompañan estas petrificaciones de las Indias”.
 
Sin conocer los valle glaciares que llevaron a Agassiz a elaborar su teoría, simplemente viajando por Venezuela, Ecuador y México, Humboldt había llegado ya —medio siglo antes— a la conclusión de que el clima en la Tierra no era constante.
 
Wegener, el gran menospreciado
 
En 1880, pocos años después de la muerte de Agassiz —en los Estados Unidos—, otro gran precursor nacía en Alemania; su nombre era Alfred Lothar Wegener. Después de obtener un doctorado en la Universidad de Berlín en 1905, Wegener tuvo oportunidad de integrarse a una expedición danesa a Groenlandia de 1906 a 1908. Allí empezó a interesarse en el movimiento de los continentes a escala global, y elaboró una teoría que en su tiempo casi nadie quiso aceptar.
Como otros científicos que lo precedieron, Wegener había notado la similitud del perfil de las costas de África y América, y especuló que estas tierras habían estado alguna vez unidas —posiblemente en el Paleozoico tardío, unos doscientos cincuenta millones de años atrás— formando un supercontinente ancestral al cual llamó Pangea. Basado en evidencias biológicas y geológicas, Wegener pudo demostrar que rocas y fósiles similares se encontraban en las costas de continentes separados, como América y África, y que grupos biológicos emparentados poblaban áreas ahora distantes. En apoyo a su teoría, además, esgrimió el argumento de la presencia de organismos fósiles tropicales en ambientes actualmente árticos.
 
Basado en estas evidencias, Wegener postuló la teoría de la deriva continental, en la que aseguraba que los continentes se desplazaban lentamente sobre la corteza terrestre. Sin embargo, la falta de un mecanismo que explicara la causa de esto, y el rechazo enérgico y fundamentalista del establishment geológico, llevaron a los investigadores de su época a desechar las hipótesis del movimiento continental, a pesar de los incuestionables argumentos de Wegener. Amargado por la falta de reconocimiento, Wegener murió heroicamente en 1930, en el rescate de un grupo de colegas que se había extraviado en el hielo, durante su tercera expedición a Groenlandia. Nunca llegó a enterarse de que, en los sesentas, su teoría sería retomada con el nombre de “tectónica de placas”, y que sus ideas dieron a la geología una teoría unificadora, que lo explica todo; desde los volcanes y los terremotos, hasta la formación de cordones de montañas y cuencas oceánicas.
 
Humboldt había concluido, sorprendentemente, que los continentes se movían de alguna manera, y había llegado a esta deducción unos ciento veinte años antes que Wegener. Nuevamente, sus razonamientos se basaban en la simple observación de campo sobre la distribución geográfica de las plantas: “Para decidir acerca del antiguo enlace de continentes vecinos, la geología se funda sobre la análoga estructura de las costas, los bajíos del océano y la identidad de los animales que los habitan. La geografía de las plantas proporciona materiales preciosos para este género de investigaciones: desde cierto punto de vista, puede hacernos reconocer las islas que, antiguamente unidas, se han separado; muestra que la separación de África y América meridional se hizo antes del desarrollo de los seres organizados. Todavía más, esta ciencia nos muestra cuáles plantas son comunes al Asia oriental y a las costas de México y California [...] Con la ayuda de la geografía de las plantas puede uno remontar con cierta certeza hasta el primer estado físico del globo”.
 
Milankovich, o las desventajas de publicar en serbio
 
Nacido en 1878 —unos pocos meses antes que Wegener—, el tercer gran precursor de esta historia es un matemático serbio, profesor de mecánica en la Universidad de Belgrado, de nombre Milutin Milankovich; quien demostró que la cantidad promedio de radiación proveniente del Sol que llega a la Tierra no es constante, como se creía, sino que varía de acuerdo a tres factores que inducen cambios en la trayectoria del planeta. En primer lugar, la excentricidad de la órbita terrestre experimenta variaciones periódicas, que tienen como consecuencia la modificación de la distancia media entre la Tierra y el Sol; cuando ésta aumenta en la elipse orbital, disminuye el flujo anual de energía solar incidente. En segundo lugar, la inclinación del eje de la Tierra —el ángulo entre el eje de rotación y el plano de la órbita, que en la actualidad es de 23° 27’—, sufre fluctuaciones a lo largo del tiempo causadas por la influencia gravitatoria de los demás planetas. Finalmente, el eje de rotación terrestre cambia la dirección hacia la cual se inclina, igual que un trompo al girar, y describe un cono perpendicular al plano que contiene la órbita terrestre, lo cual, a su vez, ocasiona que el equinoccio se ubique en distintas partes de la órbita terrestre según la orientación del eje. A este fenómeno se le denomina precesión de los equinoccios. Milankovich pudo calcular que los periodos característicos de los efectos producidos por cada uno de los tres factores anteriores —excentricidad de la órbita, inclinación del eje, y precesión de los equinoccios— son de cien mil, cuarenta y un mil, y veintidós mil años, respectivamente. Sus estudios demostraron que el efecto combinado de los tres ciclos es suficiente como para que la Tierra pueda calentarse y enfriarse significativamente, produciendo las glaciaciones de los últimos dos millones de años.
 
Durante casi cincuenta años, desde su publicación en varias revistas serbias en la década de los veintes, su teoría fue ignorada por la comunidad científica. Sorpresivamente, en 1976, un trabajo escrito por J. D. Hays, J. Imbrie y N. J. Shackleton, aparecido en la prestigiosa revista Science, demostró que las temperaturas globales inferidas a partir de núcleos del sedimento marino correspondían con los cambios en la órbita y la inclinación de la Tierra predichos por Milankovich. En efecto, los datos mostraban que los cambios en la excentricidad, inclinación y precesión de la Tierra eran los motores del cambio climático global.
 
Desafortunadamente, Milankovich no pudo verse reivindicado, ya que había fallecido dieciocho años antes.
 
Sin desarrollar la elegante y compleja teoría del matemático serbio, Humboldt había intuido la razón profunda de los cambios que habían operado —para él de manera obvia y transparente— sobre el clima de la Tierra en el pasado: “Pero ¿pueden admitirse estos enormes cambios en la temperatura de la atmósfera, sin recurrir a un desplazamiento de los astros o a un cambio en el eje de la Tierra? […] Un aumento en la intensidad de los rayos solares, ¿habría expandido, en ciertas épocas, el calor de los trópicos sobre las zonas vecinas del polo? Estas variaciones, que habrían hecho a Laponia habitable para las plantas equinocciales, los elefantes y los tapires, ¿son periódicas? ¿O son el efecto de algunas causas pasajeras y perturbadoras de nuestro sistema planetario”?
 
Del conocimiento a la acción
 
De manera prodigiosa, Humboldt pudo anticipar —a partir de sus exploraciones en México y Sudamérica— las grandes teorías biológicas que surgirían y se consolidarían en los siguientes doscientos años. Si bien, quizás, esa no es su grandeza fundamental, su capacidad de inferir el funcionamiento de sistemas tan complejos no deja de ser un motivo de asombro, que para México legó una de las más lúcidas descripciones de nuestra naturaleza y cultura durante el siglo xviii. En referencia a la Ciudad de México Humboldt escribió en el Ensayo político sobre el Reino de la Nueva España, publicado en 1822: “La construcción de la nueva ciudad, comenzada en 1524, consumió una inmensa cantidad de maderas de armazón y pilotaje. Entonces se destruyeron, y hoy se continúa destruyendo diariamente, sin plantar nada de nuevo, si se exceptúan los paseos y alamedas que los últimos virreyes han hecho alrededor de la ciudad y que llevan sus nombres. La falta de vegetación deja el suelo descubierto a la fuerza directa de los rayos del sol, y la humedad que no se había ya perdido en las filtraciones de la roca amigdaloide basáltica y esponjosa, se evapora rápidamente y se disuelve en el aire, cuando ni las hojas de los árboles ni lo frondoso de la yerba defienden el suelo de la influencia del sol y vientos secos del mediodía [...] Como en todo el valle existe la misma causa, han disminuido visiblemente en él la abundancia y circulación de las aguas. El lago de Texcoco, que es el más hermoso de los cinco, y que Cortés en sus cartas llama mar interior, recibe actualmente mucha menos agua por infiltración que en el siglo xvi, porque en todas partes tienen unas mismas consecuencias los descuajos y la destrucción de los bosques”.
 
Dos siglos antes de que la Ciudad de México enfrentara la crisis ambiental que hoy vive, Alexander von Humboldt pudo prever las dificultades hidrológicas que sobrevendrían y pudo atribuirlas, correctamente, a las consecuencias de “los descuajos y la destrucción de los bosques.” La devastación forestal, profetizó, traería graves consecuencias para el ciclo del agua.
Hoy, gracias a las teorías modernas de la diversidad biológica sabemos que los bosques, y en particular los bosques tropicales, son también inmensos reservorios de riqueza biológica, en donde sobrevive una gran parte de las especies del planeta. Un concepto que, por supuesto, tampoco fue ajeno a Humboldt, quien realizó en el Ensayo sobre la geografía de las plantas el primer análisis serio de la importancia de la diversidad biológica en los bosques tropicales de montaña: “De tal estado de cosas resulta que cada altura bajo los trópicos, al presentar condiciones particulares, ofrece también productos variados según la naturaleza de las circunstancias, y que en los Andes de Quito, en una zona de mil toesas (dos mil metros) de anchura horizontal, se descubrirá una mayor variedad de formas que en una zona de la misma extensión en la pendiente de los Pirineos”.
 
Del conocimiento de un fenómeno surge la apreciación del mismo, y de ésta la necesidad de protegerlo. Así, en las notas precursoras tomadas por dos botánicos —Humboldt y Bonpland—, sin más elementos que un teodolito, una brújula, una prensa de herbario y una desbordada pasión por la observación minuciosa del mundo natural, está también contenido el embrión de la biología de la conservación, la semilla de la protección de la diversidad natural.
La conservación de la riqueza biológica es un imperativo de la coyuntura global del siglo xxi, y es uno de los problemas centrales de la ciencia y de las sociedades modernas que debemos enfrentar y resolver todos los seres humanos de manera colectiva. Es una cuestión esencial para la sobrevivencia del planeta, y para nuestra propia sobrevivencia. Pero también es parte de nuestra herencia cultural, de ese “celo por las ciencias naturales en que con tanto honor se distingue México”, como tan bien lo describió Alexander von Humboldt. Muchas veces hemos repetido que debemos conservar la naturaleza por nuestros hijos y por los hijos de nuestros hijos. Es cierto, pero quizás también debemos cuidar la naturaleza por la naturaleza misma, sin más recompensa que sentirnos parte de la continuidad de la evolución biológica sobre la Tierra. Si Humboldt estuviera hoy vivo, creo que estaría de acuerdo.Chivi66
Referencias bibliográficas
 
Humboldt, Alejandro de. 1811. Ensayo político sobre el Reino de la Nueva España. Porrúa, México, 1978.
Humboldt, Alexander von. 1805. Ensayo sobre la geografía de las plantas. Siglo xxi/unam, México, 1997.
Alejandro de Humboldt. 1834. Viaje a las Regiones Equinocciales del Nuevo Continente. Monte Ávila, Caracas, 1991.
Exequiel Ezcurra
Instituto Nacional de Ecología.
_______________________________________________________________

como citar este artículo

Ezcurra, Exequiel. (2002). Redescubriendo a Alexander von Humboldt. Ciencias 66, abril-junio, 4-11. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
La demencia vacuna cuando los priones nos alcancen
 
Samuel Ponce de León R. y Antonio Lazcano Araujo
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
En 1996, cuando se iniciaba la epidemia de encefalopatía espongiforme bovina en Inglaterra, y se comenzaba a saber de los primeros casos del mal y su equivalente en los humanos, (el mal de Creutzfeldt-Jakob variante), publicamos un pequeño ensayo titulado La demencia vacuna. En esos momentos la noticia era recibida por el mundo entero con una mezcla de preocupación y escepticismo, que incluso alcanzó el mundo de la moda y la decoración de interiores. Después de casi seis años, el balance no puede ser más desolador: han fallecido más de cien personas en Europa y se ignora cuántas más estén infectadas; todavía continúa el debate sobre la naturaleza misma del agente infeccioso; se sabe que la enfermedad ya se presentó en Japón y, aunque hay un par de reportes científicos esperanzadores, no se conoce remedio alguno contra ella.
 
El desastre económico para la Comunidad Europea, al que se sumó recientemente una epidemia repentina de fiebre aftosa, se calcula en siete millones de reses sacrificadas, lo que implica un costo multimillonario para la industria ganadera. La mayor parte de las muertes humanas causadas por esta enfermedad están concentradas en la Gran Bretaña, aunque se sabe de algunas personas fallecidas en Francia. Actualmente, podemos estar seguros no sólo de que estas cifras aumentarán, sino que también veremos pronto a pacientes afectados por esta enfermedad en muchos otros países europeos y, tarde o temprano, en otros continentes; incluyendo al nuestro.
 
Las encefalopatías del ganado
 
Las enfermedades del sistema nervioso en los animales, similares al mal de las “vacas locas”, no son ninguna novedad. Como escribió recientemente Maxime Schwartz, antiguo director del Instituto Pasteur de París, algunas de ellas fueron descritas desde el siglo xviii, durante el reinado de Luis xv. Sin duda alguna, la mejor estudiada es la llamada Scrapie, que se encuentra entre las ovejas. Se conoce, además, la encefalopatía de los felinos y del visón, que, junto con el síndrome de desgaste en alces y venados, ha sido descrita desde hace muchos años en los Estados Unidos y Canadá. A esta lista se agregó en 1986 la encefalopatía espongiforme bovina, que tuvo una rápida diseminación en los hatos de ganado vacuno inglés; probablemente como resultado de la contaminación del pienso, al cual desde hace muchos años se le agregaban proteínas de origen animal, incluyendo restos de ovejas enfermas. El problema surgió al alimentar a herbívoros con restos de otros animales, volviéndolos carnívoros (de hecho, caníbales). Esto permitió el paso del prión de ovejas a vacunos, posiblemente unido a una mutación del prión vacuno, diseminado como resultado del mismo proceso de enriquecimiento del pienso.
 
Ante la rápida evolución de la epidemia vacuna, en 1988 el gobierno británico prohibió el uso de restos animales en la producción de alimentos para el ganado, y se inició la matanza de aquellas reses que pudieran estar infectadas. A partir de 1992, estas medidas permitieron disminuir los casos de vacas infectadas en la Gran Bretaña, a pesar de lo cual se calcula que se enfermaron más de doscientas mil reses y fue necesario el sacrificio de 4.5 millones de cabezas de ganado asintomático. La publicidad hecha en torno a este problema provocó, como era previsible, que muchos países europeos prohibieran la importación de ganado y productos cárnicos ingleses (de nada sirvieron los uniformes de los beef-eaters de la Torre de Londres). Sin embargo, a pesar de su carácter flemático, hasta los propios británicos disminuyeron su consumo de productos bovinos, y fue necesario que el entonces ministro de agricultura y su hija aparecieran ante los medios de comunicación, comiendo roast-beef y hamburguesas, con la intención de aminorar el miedo que para desgracia de los ganaderos y la economía, comenzaba a apoderarse de muchos.
 
Pero nada de esto limitó la diseminación de la epidemia de la encefalopatía espongiforme bovina. Mientras el gabinete inglés consumía en público productos de vacas británicas, muchos gobiernos europeos se rasgaban las vestiduras y vociferaban contra la carne inglesa. Estos últimos seguramente tenían en mente aquello de: “Hágase Señor tu voluntad, pero en los bueyes (o en las vacas) de mi compadre”. Aun así no detuvieron ni la importación ni la exportación de pienso contaminado. La razón es muy simple; como mostró hace algunos años la revista Nature, aunque desde junio de 1988 el Gobierno británico prohibió alimentar al ganado con mezclas de pienso que contuvieran restos de rumiantes, entre 1988 y 1989 Inglaterra prácticamente triplicó las exportaciones de éste. Los franceses, por ejemplo, importaron más de quince mil toneladas del alimento durante ese mismo periodo.
 
Hoy se están viviendo —o, mejor dicho, consumiendo— las consecuencias de esa decisión. En un esfuerzo por frenar el problema se ha organizado un programa de control, apoyado con un presupuesto de novecientos millones de dólares, y se han matado dos millones de reses para tratar de controlar la epidemia, que hoy involucra a Irlanda, Francia, Portugal, Suiza, Dinamarca, Bélgica, Holanda, Alemania y España. Las predicciones más conservadoras prevén que para el año 2010 habrá al menos tres mil quinientos casos de “vacas locas” en Europa.
 
Existe, además, una serie de problemas. El tener que estudiar todo animal menor de treinta meses de edad, aunado a la matanza de animales infectados y a la destrucción posterior de los cadáveres de los bovinos, ha saturado los laboratorios veterinarios y hasta los sitios de incineración, ya que basta descubrir un solo caso de “vaca loca” para eliminar a todo el rebaño. Ahora se están viviendo las consecuencias de haber tomado medidas preventivas, no bajo una óptica de bienestar social, sino dentro de una perspectiva que obliga a justificar económicamente cualquier acción (sobre todo si implica gastos y pérdidas en las ganancias). ¿Para qué abatir, por ejemplo, las ganancias de la industria cárnica en un país en el que en 1988 no había tenido aún casos de esta enfermedad? Seguramente, en ese momento muchos de quiénes tenían la capacidad de decisión, pensaron que en términos de costo y eficiencia era mucho más redituable suponer que las fronteras políticas evitarían el tránsito de los priones, sin considerar que en esta época de movimientos masivos (personas, bienes de consumo y desechos), los agentes patógenos viajan sin visa ni pasaporte y con una rapidez inusitada; sin fronteras que lo impidan.
 
Los insólitos priones
 
A principio de los ochentas Stanley Prusiner, un médico estadounidense dedicado al estudio de las enfermedades neurodegenerativas, postuló que el virus de Creutzfeldt-Jakob y en general las encefalopatías espongiformes surgían por la infección de patógenos minúsculos, constituidos únicamente por proteínas. Denominó a estos agentes “priones”, para denotar que se trataba de proteínas infecciosas. Pocos le creyeron; acostumbrados a reconocer a los ácidos nucleicos como a las únicas moléculas replicativas, a los estudiosos de los seres vivos les resultaba difícil aceptar que las proteínas se pudieran multiplicar. A pesar de ello, y de algunas inconsistencias conceptuales, Prusiner recibió en 1997 el Premio Nobel en Medicina, otorgado por la originalidad y pertinencia de la hipótesis de los priones. El premio también reflejaba, por supuesto, la preocupación del establishment científico ante el rápido avance de la epidemia de las “vacas locas”.
 
Aunque algunos investigadores siguen creyendo que el agente infeccioso podría ser un virus asociado a un prión, la mayor parte de los grupos de investigación parecen haber aceptado la idea de que una versión mutante de los priones es la responsable de la epidemia actual. De hecho, este reconocimiento del potencial dañino de estas moléculas no ha significado ningún cambio radical en las concepciones biológicas. En condiciones normales muchos organismos (incluyendo los humanos, las vacas y las levaduras) producimos una proteína similar a la de los priones que participa en la comunicación entre las células. La versión normal, no patógena del prión, se encuentra codificada en el gen 129 del cromosoma 20 de los humanos, y se sintetiza sin provocar problema alguno en las células de nuestros cerebros. Sin embargo, el contacto con la proteína infectante induce un importante cambio en la conformación de la normal, tornándola en una molécula de efectos mortales. En otras palabras, la presencia de los priones convierte a la proteína normal en su similar, provocando su acumulación en el tejido nervioso. La forma patógena de la proteína no sólo se puede multiplicar en un individuo, sino que también se puede transmitir de uno a otro, como si se tratara de una infección. Sin reproducirse, los priones se multiplican induciendo en sus similares una modificación que recuerda, en última instancia, al mecanismo llamado alosterismo, que estudió desde hace muchos años y con éxito considerable Jacques Monod, una de las figuras centrales de la biología molecular del siglo xx.
 
Recientemente, Prusiner ha señalado todo un grupo de enfermedades neurodegenerativas para las que propone una explicación fisiopatogénica común y similar a la descrita para el Creutzfeldt-Jakob variante, esto es, la acumulación de proteínas “modificadas” que causan funciones aberrantes. Dentro de estas enfermedades destacan el Alzheimer y el Parkinson, aunque la lista es más larga. La propuesta adquiere una particular importancia en vista de los resultados obtenidos por el mismo grupo de Prusiner, que demostró la efectividad de anticuerpos monoclonales (Fab18), con capacidad para detener el daño neurológico causado por los priones, eliminando la proteína anómala de células en cultivo. El reporte, publicado hace apenas unos meses en Nature, muestra cómo la proteína infectante es limpiada de acuerdo a la dosis y el tiempo de exposición del anticuerpo Fab18. Esto abre el camino para intervenciones terapéuticas y preventivas con el desarrollo de anticuerpos, medicamentos y vacunas; sin embargo, la solución aún está lejana.
 
Las encefalopatías espongiformes humanas
 
Por si la epidemia vacuna no fuera suficientemente grave, resulta que la infección bovina se transmite a los humanos, ocasionando un cuadro clínico que inexorablemente lleva a los infectados a la muerte después de meses de un paulatino y progresivo deterioro neurológico. Las encefalopatías espongiformes son un grupo de enfermedades que se clasifican así por sus cambios en el tejido cerebral, en donde se observa la acumulación de la proteína anormal y la formación de espacios vacíos (como en las esponjas). Dentro de estas encefalopatías destaca el kuru —por haber sido la primera en ser estudiada y actualmente ya desaparecida— y tenemos además la enfermedad de Creutzfeldt-Jakob esporádica, el síndrome de Gerstmann-Straussler-Sheinker y el insomnio cerebral fatal.
 
En 1996, casi una década después de que se descubriera la epidemia en bovinos, se comenzaron a reconocer casos de lo que se denominó Creutzfeldt-Jakob variante. Esta es una encefalopatía espongiforme muy parecida al Creutzfeldt-Jakob —enfermedad neurológica bien conocida—, por sus cambios en el cerebro, que ocurre más bien de manera esporádica y ocasionalmente con tendencia familiar. Se calcula que cada año uno de cada millón de humanos la desarrolla en forma espontánea. La variante, sin embargo, afecta a personas menores de cincuenta años; en un principio se manifesta como una enfermedad psíquica y después con movimientos anormales que llevan al coma y a la muerte. No sólo desconocemos el periodo de incubación, sino que tampoco contamos con procedimientos diagnósticos simples, por lo que es imposible realizarlos en personas asintomáticas. Aunque hay reportes esperanzadores basados en la aplicación de anticuerpos, no existe alguna forma efectiva de tratamiento.
 
Un aspecto particularmente preocupante es la posibilidad de transmisión sanguínea del Creutzfeldt-Jakob variante, ya que esto se ha demostrado experimentalmente en un animal. En consecuencia existe el riesgo de que un número desconocido de personas (en su mayoría ingleses), portadores asintomáticos de priones asociados a dicha enfermedad, sean y hayan sido donadores de sangre. Por tanto, en Estados Unidos y otros países fue prohibida la donación a personas que hubiesen residido temporalmente en Inglaterra, y evitan la importación de productos biológicos elaborados a partir de sangre.
 
América, ¿territorio libre?
 
Hasta ahora no parece haber motivos de preocupación en este lado del Atlántico y mucho menos para los mexicanos. Existe un solo caso de encefalopatía espongiforme bovina reportado en Canadá, y unos cuantos en Texas y en el sur de Brasil que resultaron ser, por fortuna, falsa alarma. Se sabe de casos reportados en las Islas Malvinas (que gracias a Margaret Tatcher y a sus acciones militares siguen siendo británicas), que por razones obvias importan ganado de Inglaterra. En México, sin embargo, las harinas de carne como alimento para animales del mismo tipo no habían sido prohibidas explícitamente hasta el 28 de junio de 2001, cuando se publicó la Norma Oficial Mexicana correspondiente (nom-060-zoo-1999), que prohíbe la alimentación de bovinos con restos de bovinos (¡trece años después que en Inglaterra!). Como miembros del Tratado de Libre Comercio se cerraron rápidamente las fronteras mexicanas a la importación de ganado y cárnicos de áreas con sospecha de enfermedad (la insólita aparición de un elefante indocumentado en la Ciudad de México, basta para alimentar nuestras inquietudes y pesadillas). Por otro lado, y sin ánimo catastrofista, es necesario subrayar, como lo hizo notar la revista Science hace unos meses, que existe la posibilidad de transmisión originada en nuestro propio continente, como ha ocurrido con las epidemias de encefalopatia espongiforme que diezmaron las granjas de visones en Estados Unidos, y que aparentemente se expandieron debido a la alimentación enriquecida con restos de bovinos.
 
Por el momento, la única forma de diagnosticar con certeza si una persona padeció la enfermedad, es mediante la autopsia (lo que sirve de poco al paciente). En la actualidad se trabaja intensamente en el desarrollo de pruebas que permitan la identificación rápida mediante análisis de sangre u otros tejidos. Aunque se han desarrollado técnicas analíticas que permiten detectar si un bovino ha sido alimentado con piensos preparados con restos de animales, ninguna precaución está de más. Como advirtió a principios de marzo la revista Nature Medicine, si bien es cierto que algunos grupos de investigadores —como el dirigido por Michael Clinton del Roslin Institute de Edimburgo—, han logrado detectar la inactividad parcial de un gen involucrado en la formación de glóbulos rojos en los animales infectados mucho antes de presentar la encefalopatía, existe el riesgo potencial de que personas infectadas por priones puedan transmitirlos por vía sanguínea.
 
Es difícil pensar que con la globalización exista alguna región del mundo que pueda permanecer aislada de las epidemias y los patógenos que las causan. Así que las precauciones exitosas que México ha tomado con los bancos de sangre para evitar los contagios de sida y hepatitis b y c, por ejemplo, justifican también la reciente recomendación (vigente en los Estados Unidos) de que quienes hayan vivido en Inglaterra en los últimos diez años no donen sangre; aunque se trate de una proporción minúscula de la población. Y tal vez valdría la pena que los aficionados a los embutidos importados de Europa, siempre tan sabrosos, recordaran la famosa frase de Bismarck: “al que le gusten las salchichas y la política, que no vean como se hacen las unas y la otra”.
 
La moraleja del cuento es...
 
La reflexión sobre estos desastres nos debería dejar conocimientos útiles. El enriquecimiento del ganado usando cadáveres para acelerar la engorda ha resultado una tragedia que, ciertamente, era difícil de prever. Empero, hoy tenemos conocimiento del efecto dañino que el uso y abuso de los antibióticos han causado; a pesar de lo cual son cientos de miles de toneladas las que la ganadería utiliza cada año para aumentar la eficiencia de la alimentación, provocando con ello en los humanos un gravísimo incremento en la resistencia a los antibióticos. La otra moraleja es que —como ocurrió en el caso de la encefalopatía espongiforme bovina—, los análisis mal realizados del costo y beneficio son al menos parcialmente responsables de esta tragedia, cuya magnitud es hasta el momento imposible de calcular, como recién afirmó el propio Stanley Prusiner en Le Monde. Cuando se trata de garantizar el bien individual y colectivo, el criterio dominante no puede ser el comercial; lo que conviene recordar en todo momento a quienes definen las políticas públicas de la nación.Chivi66
Samuel Ponce de León R.
Instituto Nacional de la Nutrición “Salvador Zubirán”.
 
Antonio Lazcano Araujo
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Ponce de León R., Samuel y Lazcano Araujo, Antonio. (2002). La demencia vacuna: cuando los priones nos alcancen. Ciencias 66, abril-junio, 28-34. [En línea]

    Regresar al índice artículo siguiente
Você está aqui: Inicio Búsqueda Autor revistas revista ciencias 66