revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
  1 2  
  de genio y figura  
Cuestión de pedigrí
 
 
Pedro Miramontes
   
       
       
HTML ↓
PDF ←Regresar al índiceartículo siguiente→
       
       
Los primeros sistemas posicionales de numeración surgieron en Mesopotamia (en lo que hoy son los restos de Iraq). La civilización babilonia tenía ya, hace más de cuatro milenios, un sistema de numeración sexagesimal. Sin embargo, carecían de un símbolo específico para denotar al cero. Ellos usaban un espacio en blanco para indicar la ausen­cia de una potencia dada de la base sexagesimal.

El cero, tal como lo usamos hoy en día, se originó en la India hace alrededor de dos mil quinientos años y por influencia “occidental” seguimos usando prácticamente la notación india antigua. Casi simultáneamente a la aparición de la notación deci­mal en el antiguo reino de Gujarat en el norte de la India, en Mesoamérica los pueblos olmecas que habitaron lo que hoy son los estados de Tabasco y Veracruz desarrollaron su propio sistema posicional en base veinte y asignaron un símbolo especial para el cero. Este conocimiento se transmitió a la civilización maya y ellos llamaron ­“mixbaal” al número cero. Mixbaal significa “la ­nada”, en curiosa convergencia cultural con la raíz etimológica de “cero” que ­proviene del árabe “safr” y tiene el mismo significado.

Mixbaal se llama el premio que la Escuela Nacional de Análisis Numérico y Optimización (enoan) otorga todos los años a la mejor tesis de licenciatura en matemáticas aplicadas en México.

En el 2007, la reunión de la enoan se llevó a cabo en la ciudad duranguense de Gómez Palacio y el premio fue otorgado a Eréndira Itzel García Islas, de la Facultad de Ciencias de la unam, por su trabajo
 
Algunos modelos del sistema nervioso: sincronización y autoorganización hacia la zona crítica de redes neuronales.

El director de la tesis fue Antonio Neme de la Universi­dad Autónoma de la Ciudad de México. La presentación del premio durante la ceremonia inaugural del evento corrió a cargo del presidente nacional de la enoan, nuestro querido maestro Humberto Madrid, de cuyo discurso cito, a la letra, el siguiente fragmento:

“Es digno de comentar un suceso singular. El maestro Antonio Neme, a quien podemos pensar como el padre académico de Eréndira, realizó su tesis de maestría con el doctor Pedro Miramontes, el abuelo académico, quien por cierto está aquí presente. A su vez Pedro se tituló de licenciatura con una tesis dirigida por el doctor Jesús López Estrada, el bisabuelo académico, también presente. A Jesús le dirigió la tesis de licenciatura el doctor Pablo Barrera Sánchez, el tatarabuelo académico, ¡también aquí presente! Felicidades a todos, pero principalmente al ¡Tata Pablo!”.

Como los lectores podrán imaginar, la ceremonia terminó en un festejo por la deslumbrante estirpe académica de Itzel Eréndira. Yo sabía que Pablo Barrera había hecho su tesis con Salomón ­Lefschetz, que falleció en 1962, y la­men­té que hasta ahí llegara el árbol genealógico de los antepasados intelectuales vivos. Sin embargo, me quedó la inquietud de rastrear más allá la línea genealógica de Itzel, sobre todo porque Lefschetz trabajó con el notable matemático y extraordinario mentor Charles Émile Picard.
 
Salomon Lefschetz, sin embargo, no fue tesista de Picard. Obtuvo su grado en Estados Unidos bajo la dirección de William Story, quien es poco conocido, y cuya mayor contribución fue, quizá, precisamente haber sido el tutor de Lefschetz y del notable Richard Bellman. Pero Story, en su juventud, estudió en Leipzig, donde se doctoró bajo la dirección de dos tutores: Carl Neumann y Felix Klein; éste, en particular, destacó en varias ramas de la matemática y logró un armonioso equilibrio entre formalismo e intuición creadora. Su libro La matemática elemental desde un punto de vista avanzado, es una lectura que debería ser obligatoria para todo estudiante de ciencias.

Felix Klein obtuvo sus grados académicos en la Universidad de Bonn y sus asesores fueron Julius Plücker y Rudolf Lipschitz. Lipschitz nació en la que fue alguna vez orgullosa capital de la Prusia Oriental, la ciudad de Koenigsberg, cuna de Kant, Hilbert, Goldbach, Kirchoff y Sommerfeld, y que desde el fin de la Segunda Guerra Mundial es la ciudad rusa de Kaliningrado. ­Lipschitz trabajó tanto en teoría de nú­me­ros como en ecuaciones diferenciales parciales, series de Fourier y teoría del potencial; pero la primera evocación asociada con su nombre es la “condición de Lipschitz”, una desigualdad que garantiza la unicidad de la solución de una clase de ecuaciones diferenciales.
 
Lipschitz se graduó en la Universidad de Berlín también bajo la supervisión de dos tutores (parece haber sido regla en ese entonces): Martin Ohm y Gustav Dirichlet. Aunque de origen belga, Dirichlet creció y se educó en Alemania y, en el ámbito de los matemáticos, no requiere presentación por sus contribuciones a la teoría de números; en particular, por sus demostraciones de los casos particulares para n = 5 y n = 14 de la conjetura de Fermat y la distribución de los números primos en una progresión aritmética. ­Dirichlet fue discípulo, en París, de los mejores matemáticos formados por las instituciones educativas que surgieron de la Francia revolucionaria de fines del siglo XVIII. Dirichlet fue dirigido por Jean-Baptiste Fourier y por Siméon Denis Poisson.
 
Fourier, quien en su juventud se involucró en la Revolución Francesa hasta el grado de casi perder, literalmente, la cabeza, fue posteriormente uno de los primeros profesores de la École Normale Supérieure y siguió activo en la política para contribuir al esplendor napoleónico. Ganó su lugar entre los inmortales, entre otras razones, por su trabajo en el desarrollo de las series trigonométricas que llevan su nombre. Fourier se expresaba en términos laudatorios de quien, a su vez, dirigió su tesis, Joseph Louis Lagrange, que era, en sus términos, “el primero entre todos los hombres de ciencia europeos”.
 
Pese a que muchos lo consideran francés, a despecho del tradicional chauvinismo galo, Joseph Louis Lagrange nació, creció y se educó italiano como Guiseppe Ludovico Lagrangia. Todavía joven, partió a Berlín siguiendo los consejos y las influencias de Euler, quien le había conseguido una plaza en la Academia Berlinesa. Lagrange y Euler habían publicado juntos una serie de trabajos sobre mecánica celeste que acrecentaron el prestigio de aquel brillante joven italiano. A los 51 años, Lagrange se muda a París y, pasadas las convulsiones de la revolución de 1789, es el primer profesor de análisis matemático de la École Normale Supérieure. La cercanía personal y académica entre Lagrange y Euler es natural pues aunque en esta época ya no se puede hablar en sentido estricto de director de tesis, ya que no era con las investigaciones formales y su defensa ante un jurado que se hacían méritos en el mundo académico, tanto Lagrange como Euler se reconocieron mutuamente como pupilo y tutor.

¿Qué podemos decir de Leonhard Euler? Posiblemente en 2007, año del tercer centenario de su nacimiento, se repita que ha sido el matemático más querido, respetado y prolífico que han visto los tiempos y esperan ver los venideros. Euler publicó en su larga vida —que lo llevó de su natal Basilea a Rusia y de ahí a Prusia— tal can­tidad de artículos que nadie lo ha superado y su calidad es equiparable a la de los otros grandes matemáticos, tanto de su época como de otra cualquiera. Se dice que el gran Laplace recomendaba: “Leed a Euler, leed a Euler, él es el maestro de todos nosotros”.

Un genio como Euler no podría haber tenido como tutor a alguien de menor estatura intelectual que Johan Bernoulli, quien a su vez fue tutelado por su hermano mayor Jacob Bernoulli. ¿Quién no ha escuchado la encantadora historia del epitafio en la tumba de Jacob? Se dice que estaba tan maravillado por las propiedades de la espiral equiangular que mandó poner en su lápida mortuoria la leyenda: Eadem mutata resurgo (“aunque transformada, yo misma, resurjo”). Para desgracia de su alma inmortal y deleite de quienes, como yo, se regocijan en contar ese tipo de anécdotas jocosas, en lugar de la que sólo se transforma y resurge, el maestro cantero trazó sobre la piedra una espiral arquimedeana.

Es difícil imaginar un ancestro originario más notable en la genealogía matemática de Itzel Eréndira: el maestro de Jacob Bernoulli fue Gottfried Wilhelm Leibniz: matemático, filósofo, sistematizador de los numerosos antecedentes del cálculo infinitesimal y creador, a la par de Isaac Newton, del aparato matemático que fue la base de la revolución científica de los siglos XVII y XVIII cuyas secuelas aún hoy alimentan las cátedras, congresos y seminarios del gremio matemático.

Leibniz inventó la notación básica que todavía usamos en el cálculo diferencial e integral. El uso de su simbología para representar límites de cocientes de diferencias infinitesimales y sumas de una infinidad de infinitésimos, se generalizó y ni siquiera hubo de desplazar a la de Newton porque la del inglés era intencionalmente oscura. Leibniz también creó la noción moderna de “función”, inventó lo que más tarde se llamaría “método de eliminación gaussiana” para la solución de sistemas de ecuaciones. Fundó el álgebra booleana y la lógica simbólica y, como filósofo, concibió la interacción del hombre con la naturaleza como un gran sistema integrado e inseparable.

Así termina la línea de vida de los antepasados intelectuales de Itzel Eréndira. Volvamos del pasado y celebremos que Pablo Barrera, el Tata Pablo, haya sido el puente entre la rama mexicana de la familia y los ancestros del viejo continente. Como todo abuelo orgulloso de su descendencia, deseo con fervor que Itzel Eréndira traiga a la vida, dentro de poco tiempo, la alegría de nuevos nietos.

Aquí se ha considerado que la paternidad viene por medio de la dirección de una tesis y no importa si ésta es de licenciatura maestría o doctorado. Con esta base, estoy dispuesto a aceptar apuestas que en México no hay una estirpe académica como la de Itzel Eréndira. Quien se sienta tentado a recoger el guante puede consultar en la red el proyecto de la genealogía matemática y la página de las biografías de matemáticos que patrocina la Universidad de Saint Andrews.
_______________________________________________________________
Pedro Miramontes
Facultad de Ciencias,
Universidad Nacional Autónoma de México.

como citar este artículo

Miramontes, Pedro. (2008). Cuestión de pedigrí. Ciencias 89, enero-marzo, 30-33. [En línea]

  ←Regresar al índiceartículo siguiente→
1 2
     
De las virtudes de la iconoclasia: una mirada
a la obra de Tomás Brody
En mayo de 2006 se inauguró en el Centro Universitario de los Lagos (Jalisco) la Cátedra Tomás Brody. El presente trabajo recoge la conferencia magistral que Luis de la Peña dictó en tal ocasión. En él se revisan muy someramente algunas de las importantes contribuciones de Brody a la filosofía de la ciencia y a la interpretación realista y objetiva de la mecánica cuántica.
Luis de la Peña
conoce más del autor
 
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
I. Tomás Brody tuvo la fortuna de gozar de un cerebro privilegiado y el privilegio de gozar en su uso. Lo llenó de conocimientos que cubrían un amplísimo espectro; los mantenía ordenados y despiertos y le daban la capacidad de discutir a profundidad sobre una enorme variedad de temas con sus especialistas en pie de igualdad. Tomás no era físico, al menos no tenía diploma alguno que lo reconociera como tal, pero nos legó muy importantes contribuciones a la física, trabajos que nos obligan a reconocerlo como uno de nuestros físicos importantes. Tanto se le reconocía en la práctica que con frecuencia la gente hablaba del doctor Brody. Recibió, pues, el más efectivo de los doctorados: el que otorga el reconocimiento de los pares. Tampoco era filósofo, o sea, tampoco poseía diploma alguno que lo acreditara como filósofo, pero su legado en esta rama es de seguro más trascendente que el de tantos filósofos cuyos diplomas de doctorado lucen hermosos en la pared más visible de su sala o cubícu­lo. Y a todo esto debemos agregar la temprana capacidad mostrada en muy diversas formas y ocasiones por Tomás Brody en el terreno de la computación, en particular —pero no exclusivamente— en la numérica. No creo que en la década de los sesentas tuviéramos en la unam, y probablemente en el país, un experto en cómputo y en métodos numéricos de mayor calibre que él. Para fijar ideas y mostrar que no se trata de exageración alguna baste recordar la elaboración por ­Brody y Marcos Moshinsky de las tablas de paréntesis de trans­formación para cálcu­los nucleares en 1964. Sin du­­da alguna los cálculos requeridos pa­ra la elaboración de estas tablas, que son la con­tribución de Brody a esta obra, fueron los más complejos, sofisticados y largos realizados en nuestro país en aquellas épocas. Fue su uso lo que mostró que ya podíamos hacer cómputo elec­tró­ni­co serio en nuestro país.

Me concreto sólo a estas tres expresiones de Tomás porque son aquellas en las que produjo una amplia obra publicada. Sin embargo antes de entrar en detalle alguno permítanme insistir en algo que de no ser mencionado desfiguraría y empobrecería su recuerdo y obra de manera no sólo injusta, sino definitivamente inapropiada por ajena a él. Me refiero al hecho de que Tomás no fue un investigador de torre de marfil, sino un ser de su tiempo, preocupado por los problemas de su momento y su medio. No sólo se expresó sistemáti­camente al respecto, sino que produjo varios trabajos sobre política científica y educativa, así como algunos escritos en los que despliega con amplitud su clara percepción social de los problemas y su patente intención de ayudar al lector a la comprensión más profunda y cabal del origen de las dificultades y del posible camino hacia su solución, siempre desde una perspectiva de avanzada, altamente original y creativa.

II

Con el objetivo de ilustrar aunque sea de manera mínima la capacidad analítica y creativa de Brody en el terreno de la filosofía de la física, recurriré a un ejemplo por demás significativo. ¿Cómo resuelve Tomás el añejo problema de la inducción en la ciencia? Es posible que la mayoría de ustedes ni siquiera haya tenido la oportunidad de enterarse que hay un problema con la inducción y de que este tema ha estado en discusión por parte de los filósofos de la ciencia durante casi doscientos años, lo que bien mide la importancia que se le atribuye.

No debo ni puedo entrar en una discusión a profundidad del tema, por lo que me limitaré a dar una idea somera del asunto. Para ello voy a recurrir a un famosísimo y viejo ejemplo propuesto (por Carl Hempel en 1935) con otro objetivo, aunque no desconectado del tema. Imaginemos que deseo elaborar una teoría sobre los cuervos; empiezo por examinar tantos de estos animalitos como me es posible y pronto llego a la observación de que todos ellos son negros. Así, mi teoría contendrá el postulado todos los cuervos son negros. Aquí surge ya el problema: ¿cómo puedo saber que todos los cuervos son negros, si sólo alcanzo a observar algunos de ellos? Es claro que nunca podré examinar todos los cuervos, así que no me es posible confirmar que todos son negros, y con ello no puedo garantizar la validez de la teoría. Pero sin el postulado tampoco tengo teoría.
 
La transición de mi observación de algunos cuervos a mi afirmación sobre todos los cuervos es un ejemplo de induc­ción. Aquí es conveniente aclarar, para evitar posibles confusiones, que el término “inducción” se utiliza con dos o tres significados diferentes, uno de los cuales es problemático, precisamente el que estoy discutiendo aquí. Así pues, he llegado a mi teoría por inducción. Es claro que la inducción no es una deducción lógica; de hecho, se trata de dos procesos mentales complementarios y excluyentes. Mientras que una deducción lógica va de lo general a lo particular, sigue reglas definidas y es única a partir de las premisas (suponiendo que lo hacemos bien), la inducción va de lo particular a lo general, y no es única, precisa ni garantizada. Como debido a esto no me es posible garantizar la validez de mi teoría, se ha propuesto como alternativa determinar para ella una probabilidad de ser correcta. Simplemente, los datos que utilicé para su construcción son claramente insuficientes para darla por demostrada, pero sí bastan para hacerla más o menos plausible, es decir, más o menos probable. Así, se habla de la probabilidad de las teorías, aunque deba reconocerse que éste es un término introducido por los filósofos de la ciencia; pero no es común su empleo entre los científicos. Además, debe quedar claro, determinar la probabilidad de una teoría no sólo no es tarea simple, sino que jamás se ha logrado hacer de manera persuasiva y útil. Así que mejor dejamos este punto de lado. Debo agregar también que se han propuesto varios otros criterios para la aceptabilidad de una teoría, pero como esto se aleja mucho de nuestro tema tampoco entraremos en su discusión.

En lo que se da por llamar el método científico, la inducción juega un papel central, pues es precisamente el paso que nos conduce de lo observado a lo general. Y no hay reglas para dar este paso, ya que, hasta donde hoy sabemos, no existen pautas para la invención. Y la inducción es eso, exactamente: una invención, una creación libre de la mente, empleando los términos de Einstein. Recuerdo bien que en nuestras discusiones y pláticas sobre estos asuntos, Tomás y yo habíamos decidido que en vez de hablar de inducción debería hablarse precisa y llanamente de invención. Ante los psicólogos y demás estudiosos de la mente humana, si desea entenderse el de la inducción, está por delante la tarea de desentrañar el misterio, hoy todavía profundo, de los mecanismos y leyes —si las hay— de la invención.

Pero regresemos a nuestro problema: ¿cómo puedo garantizar la validez de mi teoría en estas condiciones? ¿Cómo puedo saber si una teoría científica es cierta o no, considerando que todas ellas se basan en inducciones? Como respuesta parcial, y sin pretensiones de resolver con ello el problema, durante mucho tiempo —desde Stuart Mill para ser específicos, es decir, desde las primeras décadas del siglo xix— se consideró que una teoría científica se con­firma si los nuevos datos predichos por ella son convalidados por el experimento. De no ser así, debe regresarse al principio e intentar modificar la hipótesis o sustituirla por una nueva, lo que no es sino hacer una nueva inducción o una nueva invención, como prefieran decirlo, hasta que el proceso converja. De hecho, seguramente esto lo han oído muchas veces figurando como parte integral del llamado “método” científico (que no lo es tanto, en cuanto que involucra algo tan ajeno a una regla como “andar haciendo” invenciones). Vemos que según este esquema una teoría se confirma por medio de su “verificación”. Pero más adelante el destacado filósofo inglés Karl Popper argumentó que las instancias positivas no son suficientes para confirmar una teoría, pero que basta una sola instancia negativa para invalidarla. De aquí se infiere que toda teoría científica debe ser “falseable”. Por ejemplo, ninguna reli­gión es falseable, lo que significa que ningu­na es científica. Y, en efecto, ellas son religiones, no ciencias, pues se construyen no por acumulación de conocimiento verificado, sino vía la fe.
 
Vemos que para mostrar la validez de una teoría se re­quie­re un número ili­mi­ta­do de experimentos (deberé obser­var todos los cuervos de todos los tiempos y todos los lugares para verificar que mi teoría es correcta), pero bastará encontrar un ­solo cuervo verde —es decir, una sola instancia negativa— para concluir que ella es falsa: un número infinito de observaciones para validar la teoría; una sola para refutarla. Pareciera que las cosas son en efecto así, pues ciertamente pese a los millones de veces que las ­leyes de la mecánica clásica se han confirmado por doquier, bastaría que una canica empezara a acelerarse por sí sola para concluir que algo está mal en la mecánica clásica. Ello nos obligaría a sustituir la mecánica de Newton por otra teoría más abarcadora. Algo como esto pasó a principios del si­glo xx, cuando se comenzaron a realizar experimentos con los átomos y se encontró que ellos no obedecen las leyes de la mecánica clásica, es decir, que esta teo­ría falla en el nivel submicroscópico. Encima de ello, la teoría de la relatividad vino a mostrarnos que cuando los cuerpos se mueven con velocidades comparables a la de la luz, tampoco se cumplen las leyes de la mecánica newtoniana. Así, se nos dice, los nuevos conocimientos condujeron a la construcción de dos nuevas mecánicas, la cuántica y la relativista, que vinieron a sustituir la vieja teoría que se había mostrado insuficiente.
 
El concepto de la sustitución de una teoría por otra que muestra ser más exacta o general —es decir, “mejor”, pues cubre un más amplio conjunto de fenómenos o casos— es usual. La nueva teoría actúa algo así como sepulturera de la anterior. Se agrega que ésta es una vía hacia el progreso, pues con este procedimiento cada día tendremos teorías más exactas y de mayor cobertura. Sin embargo, por muy extendida que esté tal noción, basta echar un vistazo a lo que en realidad pasa para observar que las cosas no son así, al menos no en todas las instancias. Regresemos al caso de la mecánica clásica; en efecto se hizo necesario construir la mecánica cuántica para disponer de una teoría del comportamiento de los átomos y las moléculas. También fue necesaria la construcción de la teoría de la relatividad para estar en condiciones de tratar los problemas que involucran muy altas velocidades, o la cosmología, o, incluso, al campo electromagnético, el cual es por esencia relativista, ya que la luz viaja a la velocidad de la luz. Sin embargo todo esto de ningún modo significa que no sigamos usando la mecánica clásica: ella conserva toda su validez y uso para los problemas cotidianos en la industria, el taller, los transportes, etcétera. Ningún ingeniero utilizaría la mecánica cuántica para construir un puente, a pesar de que está hecho de átomos y moléculas. E in­cluso cuando se calculan las complicadas órbitas de los cohetes espaciales que van a visitar los planetas de nuestro sistema solar, no se utiliza la teoría de la relatividad, sino la vieja teoría gravitacional clásica heredada de Newton. Simplemente, las tres mecánicas coexisten y operan, “cada una en su campo de competencia”.

La observación que acabamos de hacer con­tie­ne la clave para la solución del problema de la inducción. Vemos que las teorías no necesariamente se sustituyen unas a las otras, sino que cada una (de las correctas) coexiste con las demás y opera en un intervalo de aplicabilidad limitada. En esto no hay ninguna sorpresa: por principio, toda teoría científica es de aplicación limitada a un sector de la naturaleza o la sociedad. Es claro que normalmente no sabemos a priori con detalle cuáles son esas limi­taciones. Eso lo averiguamos poco a poco, conforme ponemos a prueba las teorías. Con la mecánica clásica esto sucedió cuando se pudo operar con átomos aislados, por ejemplo. Así pues, un experimento que da un resultado diferente del esperado, no necesariamente invalida la teoría ni implica que la debemos abandonar, sino determina un límite de su aplicabilidad. Todo esto es común en la práctica científica (muy particularmente en la física), pero por una razón u otra los filósofos de la ciencia lo han omitido de sus consideraciones. En con­clu­sión: una parte muy importante del trabajo científico cotidiano consiste en probar si en las condiciones del nuevo experimento la teoría aún trabaja o hemos llegado a su límite de aplicabilidad. Es decir, estriba en determinar los límites de aplicabilidad de la teoría, lo que Tomás Brody llamó el alcance de la teoría.

La noción de alcance de una teoría es fundamental, por mucho que ni la filosofía de la ciencia ni la práctica cotidiana de la propia ciencia le asignen el papel preponderante que le ­co­rres­pon­de. Cuando nace una teoría normal­men­te se tiene sólo una idea de su alcance, de hasta dónde podemos efectivamente llegar con ella. Cuando Newton creó la mecánica clásica, muy probablemente suponía que era aplicable a todos los casos, incluyendo la mecánica celeste. Luego se encontró que el alcance de esta teoría termina donde empiezan a manifestarse los efec­tos directos de la estructura atómica de la materia. A su vez, cuando se construyó la mecánica cuántica se suponía que era aplicable al estudio de átomos y moléculas, pero no mucho más allá. Para sorpresa de todos, incluyendo sus descubridores, pronto se encontró que la mecánica cuántica sí puede aplicarse a sistemas muchísimo más pe­que­ños que los átomos, como son los nú­cleos atómicos e incluso sus constituyentes, las partículas elementales y los componentes de éstas, los cuarcs (o ­quarks). El alcance de la mecánica clásica ha quedado ya bastante bien establecido, pero el de la mecánica cuántica se amplió más allá de lo previsto y todavía no conocemos hasta dónde podremos llegar con ella. Por el contrario, determinarlo es aún una tarea abierta. Vemos que en el lenguaje cotidiano el alcance de una teoría queda especificado por sus límites de aplicabilidad: se trata, pues, del descubrimiento, no del hilo negro, sino de una nueva manera de hilvanarlo.

La noción de alcance nos aclara que cuando se pone a prueba una teoría (o, más simplemente, cuando se le usa) no necesariamente estamos verificando su validez, sino que bien puede ser que estemos determinando si nos encontramos aún dentro de su alcance. Que la teoría falle no significa así necesariamente una falla de la teoría, sino de su aplicación, que cayó más allá de su límite. Por lo tanto, se trata en realidad de una contribución adicional a la determinación del alcance, proceso que puede ser muy complejo y requerir mucho trabajo. Por ejemplo, se requirieron cosa de tres siglos para determinar el alcance de la mecánica newtoniana. Y aún no conocemos el de la teoría cuántica ni tampoco el del electromagnetismo o el de otras teorías de la física.
 
Apliquemos ahora la noción de al­can­ce de una teoría al problema de la inducción. Puesto que la inducción se acepta porque funciona en muchos ­casos, su validez misma es inductiva. Tratar de justificarla nos lleva simplemente a un círculo vi­cioso del cual no tenemos sa­lida. Y si no validamos la inducción perdemos la posibilidad de validar cualquier teoría científica. Hay aquí un punto neurálgico que normalmente no se considera, pero que nos saca del embrollo: la inducción no es una generalización que habrá de cubrir necesariamente todos los casos. Por ejemplo, al momento de construir la teoría no sabemos si los cuervos de alguna isla perdida en el Pacífico son verdes o negros. O sea, no sabemos si la teoría se aplica en todo el planeta o su alcance es más limitado. Serán las futuras exploraciones las que precisarán esto y, con ello, hasta dónde llega la teoría. Que podamos construir o no una teoría de mayor dominio es otro problema. Con esto se evapora el problema de la validación de las teorías científicas: todas las teorías que son en alguna medida correctas están plenamente justificadas dentro de su respectivo alcance. Las instancias negativas lo que hacen es acotar el difuso alcance de la teoría. En consecuencia, tanto instancias positivas como negativas son propias de los resultados de las teorías: ninguna de las dos posibilidades es suficiente por sí misma para validar o negar una teoría. Las teorías viven su vida y se refuerzan con resultados positivos y negativos. Ambos son propios de toda teoría. Vemos que en un lenguaje más apropiado en vez de hipótesis o postulados como base ­para la formulación de la nueva teoría deberíamos llamarles conjeturas, siguiendo el buen ejemplo de los matemáticos. Resulta asimismo que no necesitamos recurrir a la vaga noción de probabilidad de una teoría, pues dentro de su límite de precisión y de los propósitos que persigue, toda ­teoría científica está justificada por sus instancias positivas. Mejor aún, sólo es posible determinar la probabilidad de una teoría si se conoce su alcance, y una vez conocido éste la noción de probabilidad resulta prescindible.
 
Aunque narrado en términos por demás informales, hemos visto aquí un buen ejemplo de la extensión y calidad del trabajo filosófico de Brody. Vamos a darle un uso adicional, que seguramente no dejará de serles simpático, a la noción de alcance de una teoría, para ver mejor su alcance. Por cierto, si la teoría de Tomás es correcta, entonces también el suyo deberá ser limitado. En otras palabras: ¿significa esto que existen teorías científicas de alcance ilimitado?
El ejemplo que veremos y que super­ficialmente podría parecer un tanto juguetón, ha merecido seria atención por parte de los filósofos de la ciencia por su naturaleza paradójica y su importancia. Observamos que desde el punto de vista lógico, las frases: “todos los cuervos son negros” y “todos los no-negros son no-cuervos” son estrictamente equivalentes. Regresemos al problema de la validación de mi hipotética teoría sobre los cuervos teniendo presente esta observación. Cada vez que vea yo un lápiz amarillo en mi escritorio, es decir, un no-negro que es no-cuervo, doy un paso en la confirmación del segundo aserto. Y esto sucederá cuando vea mi cuaderno blanco, mi pantalón azul, mi pizarrón verde, etcétera, pues todos estos no-negros son efectivamente no-cuervos. Con cada paso que doy, haciendo casi cualquier cosa, aumento la probabilidad de la teoría que dice que todos los no-negros son no-cuervos. Pero como esto es lógicamente equivalente a la primera afirmación, la que dice que todos los cuervos son negros, concluyo que ¡toda observación irrelevante a mi teoría incrementa la probabilidad de su certeza! ¿Cómo podemos salir de esta paradoja?

Como dije poco an­tes, para los filó­sofos ocupados de este problema la paradoja está en pie. Pero veamos ahora el asunto a la Brody. La solución emerge de manera natural cuando observamos que el conjunto de instancias que pertenecen al alcance de cada una de estas dos teorías, es decir, sus respectivos referentes, son enteramente diferentes, e incluso con frecuencia resultan ajenos uno al otro. La primera teoría tiene que ver con los cuervos; la segunda con cosas totalmente otras, los objetos no negros. Estamos frente a dos problemas de naturaleza diferente y, por lo tanto, dos teorías que, aplicadas al mundo, no son en realidad equivalentes, aunque lo sean desde el punto de vista de la lógica. Aquí también se ha disuelto la paradoja. No se olviden: no todo lo racional es lógico.

III

Pasemos ahora, aunque sea de mane­ra muy somera, a otro de los gran­des amores de Tomás, la mecánica cuántica. Esta teoría constituye en la actualidad el soporte indispensable de casi todas las ramas de la física desarrollada durante el siglo pasado. Sin mecánica cuántica no hay física atómica, molecular, del estado sólido, nuclear, de partículas elementales, etcétera. Hasta la astrofísica ha pasado a requerir de la teoría cuántica. Pese a esta riqueza enorme de aplicaciones y de su consecuente inmensa capacidad predictiva, esta teoría, uno de los orgullos de la física teórica del siglo xx, no sólo no está exenta de problemas, ­sino que abunda en ellos. Para ser objetivos debemos decir de inmediato que no todos los físicos estarían de acuerdo con lo último que acabo de decir. Hay algunos físicos, y quizá no pocos, que hasta saltarían enojados al oírme decir tal necedad y, dando un manotazo en la mesa, negarían la existencia de cualquier problema que pudiera afectar a la más fundamental de las teorías físicas modernas. Esto mismo es señal de las complicaciones del asunto: no es que la teoría falle en el sentido de que proporcione resultados erróneos. Hasta donde hemos llegado, aparentemente ella jamás ha fallado y sus predicciones, pese a ser de naturaleza estadística, resultan sorprendentemente atinadas.

El problema tiene más fondo y consiste en que la teoría nos coloca en la posición de obli­garnos a aceptar una colección de paradojas o al menos propiedades exóticas e insólitas de los sistemas cuánticos, que van directamente en contra de esa intuición que un científico desarrolla conforme más profundi­za en la comprensión de los motores de la naturaleza. Aceptemos que cuando se aprende algo nuevo e importante de la naturaleza se revela mucho de inesperado, lo que nos obliga a reajustar continuamente nuestra intuición. La intuición de un científico se moldea a lo largo de muchos años de formación; no hay nada de sorprendente en que la aparición de una teoría fundamental de lo ultramicroscópico nos lleve hacia un mundo nuevo con leyes y conductas nue­­vas. Así también sucedió con la teoría de la relatividad, la que nos ha abierto todo un mundo de posibilidades insospechadas y extrañas. Pero, y es en los peros donde con frecuencia anidan los problemas, lo que demanda de nosotros la mecánica cuántica como hoy la conocemos, es la renuncia a principios realmente fundamentales de la ciencia. Nos pide, por ejemplo, que abdiquemos de la causalidad completa y total, y con ello del determinismo. Nos pide que renunciemos al realismo, en el sentido de la preservación de la realidad permanente del corpúsculo en su movimiento. Nos pide que aceptemos que hemos alcanzado un límite para nuestro conocimiento del mundo físi­co que no es ya posible rebasar; es de­cir, que aceptemos que hemos encontrado ya la física que habrán de usar todas las futuras generaciones. Nos pide, en fin, que aceptemos que la naturaleza es no local, es decir, que una parte de un sistema puede ejercer una acción inmediata sobre otra, sin mediar entre ellas interacción alguna conocida.
 
La posición de principio de un físico es lealtad a la naturaleza. Si ella, la naturaleza, nos muestra que su manera de actuar no corresponde a lo que esperábamos, aceptamos sin protestar cambiar nuestra forma de pensar para hacerlo de acuerdo con la lección recién aprendida: aprendemos de la naturaleza sin pretender que ella respete nuestros prejuicios. A esta aparente docilidad se contrapone otra actitud relativamente frecuente, que es el conservadurismo, llamémosle defensivo, del conocimiento establecido, que conduce a la rigidez intelectual. Pareciera, pues, que la resistencia a hacer nuestra buena parte de aquello que emerge de la física cuán­tica no es sino otra manifestación de ese conservadurismo “protector”. La esencia del problema radica, sin embargo, en que cuando se trata de abandonar principios tan profundos y generales como los de localidad, realismo o causalidad, lo menos que podemos esperar es que se demuestre la necesidad incuestionable, irrefutable, de tal proceder.

Es ahí donde se encuentra la raíz del problema: no para todo mundo resul­tan convincentes los argumentos que han sido esgrimidos para aceptar la interpretación usual, común, ortodoxa o de Co­pen­hague, de la mecánica cuántica. Y en efecto, para aceptar una renuncia tan radical de los principios básicos heredados de la protofísica general, es justo demandar que la necesidad de abandonar principios fundamentales como los ya mencionados se demuestre con procedimientos estrictamente físicos e incuestionables. Y este no es el caso. Lo que realmente sucedió durante la construcción de la teoría fue que, una vez encontrado —bastante azarosamente, por cierto— el formalismo matemático requerido, se le fue vistiendo con un ropaje hecho a la medida y escogido al gusto de los sastres, es decir, de los fundadores, quienes en su mayoría resultaron ser positivistas. Este ropaje es, precisamente, la interpretación física que debía asignarse al formalismo, esto es, empleando un término más técnico, la correspondiente semántica. Como el nombre lo indica, la semántica de una teoría físi­ca es el conjunto de reglas interpretativas que asigna un significado físico preciso a cada uno de los símbolos matemáticos de la teoría que tienen sentido físico directo. Sin semántica, es decir, sin interpretación, la teoría es una estructura matemática carente de sentido físico, son matemáticas puras, ajenas a la realidad física. La tarea de construir la semántica cuántica no fue un asunto trivial; de hecho, requirió varios años y muchas discusiones e incluso generó complejas objeciones desde un principio, elevadas por varios de los propios fundadores de la teoría, como Einstein, De Broglie, en algún sentido específico el propio Schrödinger, para citar sólo figuras de primera línea.

Recurramos a un ejemplo específico para concretar un poco lo que estoy diciendo. La mecánica cuántica nos permite hacer sólo predicciones de tipo estadístico. Muchas y muy variadas situaciones nos pueden servir para ilustrar esto. Un ejemplo común es el caso de una pequeña muestra radiactiva: podemos calcular con precisión cuánto tiempo tardará en desintegrarse, digamos, la mitad de sus átomos. Pero no podemos determinar si el siguiente átomo de la muestra en decaer es éste o aquél; tampoco podemos predecir en qué dirección habrá de salir la partícula emitida. Algo similar ocurre con la posición de un electrón en su átomo: lo más que la teoría nos permite predecir es la probabilidad de que se encuentre en una u otra pequeña zona de la región del espacio ocupada por el ­átomo.

En todos los ejemplos de este tipo nos encontramos con una dicotomía: nosotros sólo podemos determinar qué tan probable sería un posible resultado u otro si hiciéramos la observación respectiva. Pero si efectivamente hacemos tal observación se obtiene en cada caso un resultado preciso. Es decir, la naturaleza sí determina el resultado; nuestra teoría, no. Si aceptamos que la descripción que nos brinda la teoría cuántica es estadística, esta observación no resulta extraña, pues de antemano sabemos que toda descripción estadística es incompleta. Análogamente, sólo podemos calcular la probabilidad de que nuestro billete salga premia­do en el próximo sorteo de la lotería; pero cuando se realice el sorteo, saldrá o no premiado, sin indeterminación alguna. Pero no es éste el punto de vista que se adopta en la interpretación usual.

Encontramos aquí al menos dos problemas severos. El primero es que en la interpretación usual de la mecánica cuántica se insiste en que ella describe casos concretos, es decir, un átomo específico y único, o un electrón dado en los ejemplos anteriores. Y ese átomo específico decae en un momento específico que no podemos determinar. Además, puesto que el electrón en que hemos fijado nuestra atención tiene una probabilidad dada de encontrarse en un cierto lugar, y otra de estar en otro, y así sucesivamente, la interpretación usual, al ver un único electrón, le asigna todos esos lugares de manera simultánea, es decir, ve al electrón como una nube distribuida en el volumen atómico: el electrón como corpúsculo desaparece y se transforma con ello en una especie de onda ampliamente distribuida en el espacio. Pero con esta solución no sólo hemos creado el problema conceptual evidente, consecuencia de la transmutación, sino otros. Por ejemplo, dado que el electrón posee masa y carga eléctrica, éstas quedan también distribuidas en todo el volumen atómico. No deja de ser extraño que la carga eléctrica del electrón, que consideramos indivisible (no hay fracciones libres de la carga eléctrica del electrón; al menos nunca las hemos observado), se distribuya de manera continua en regiones arbitrariamente extensas del espacio.

Podemos aún agregar que es común considerar que la información que proporciona la mecánica cuántica es la máxima que puede obtenerse. Si creemos que la teoría intenta describir la realidad, entendida ésta en alguna forma apropiada, resulta que o la tal realidad se nos esconde parcialmente y nos impone un límite a su conocimiento detallado; o bien, que ella, la realidad, vive en un permanente estado de indeterminación, que sólo se colapsa en una situación definida cuando hacemos una medición específica.

De lo que acabo de decir, por extraño que suene, y de muchas cosas más que no resultan menos insólitas, está colmada la mecánica cuántica. Son estas peculiaridades, que emergen de la interpretación usual del formalismo cuántico, lo que ha conducido a muchos físicos a preguntarse si no será posible construir un camino alterno, libre del mayor número posible de ellas o, mejor aún, de todas ellas. En la lista de estos físicos iconoclastas figuraba Tomás Brody. Su visión materialista y realista le hacía demandar de una teoría física fundamental, características que, como se infiere de lo que hemos dicho, no posee la mecánica cuántica en su versión oficial. Su fino espíritu crítico le condujo a estudiar con detalle varios de estos problemas y a profundizar en sus vericuetos. El volumen que estaba preparando en la época de su muerte reco­ge una buena parte de los resultados de esas preocupaciones, así como un número de la Revista Mexica­na de Física ­dedicado a los artícu­los sobre el tema que dejó inéditos. En esos volúmenes se encuentran discutidos con bastante detalle un buen número de importantes problemas interpretativos y conceptuales de la mecánica cuántica, para los cuales To­más ofrece con frecuencia puntos de vista originales muy interesantes. Todos aquellos interesados en tales temas encon­trarán en estas obras una riquísima fuente de inspiración y conocimientos.

IV

Una posibilidad de solución a fondo de los problemas conceptuales de la mecánica cuántica que mucho atrajo la atención de Tomás y que tuvimos oportunidad de discutir en varias ocasiones, es la teoría que varios investigadores de diversos países hemos venido desarrollando desde hace algún tiempo, teoría que llamamos electrodinámica estocástica y que, en nuestra versión par­ticular actual, toma una forma más evolucionada que designamos como electrodinámica estocástica lineal. Dada su relativa reciente creación (sus inicios datan de hace cosa de diez años) Tomás no conoció esta última versión de la ­teoría, pero puedo decir con plena seguridad que le hubiera agradado sobremanera. La razón de ello es muy simple: es ésta la versión de la electrodinámica estocástica que más se ha acercado a los objetivos que se persiguen con esta teoría, es decir, dar una explicación física y conceptualmente aceptable de los fenómenos cuánticos.

La idea fundamental que define a la electrodinámica estocástica fue para él tan atractiva —sumada a una serie de resultados satisfactorios que esta teoría generó desde el principio de su estu­dio— que pronto se convirtió en su mejor propagandista: cuanta oportunidad tuvo Tomás la utilizó para dar a conocer los intentos y esfuerzos que se estaban realizando por desarrollar la electrodi­námica estocástica y sus resultados. Permítanme describir de manera somera la idea básica de esta teoría, pues puede resultar interesante para algunos de ustedes, al menos para quienes tengan su corazón cercano a la física. En todo caso seré muy breve para no correr el riesgo de agobiarles.

Vamos a ver el problema desde una perspectiva intuitiva, que tiene la doble ventaja de introducirnos al principio que constituye el punto de partida de la teoría y nos sugerirá a la vez el camino a la solución de dos problemas fundamentales de la teoría cuántica: el ­origen de la estabilidad atómica, es decir, el porqué los átomos existen y no se colapsan, y el mecanismo de su cuantización, es decir, la razón por la que sólo se realizan ciertas órbitas estables que poseen energía bastante precisa.

Pensemos en un electrón atómico que imaginamos revoloteando alrededor del núcleo del átomo, más o menos (más bien menos que más, pero en fin, sirva de punto de partida) como nos lo pintan en los dibujos del átomo estilo Walt Disney. Aquí aparece de inmediato un problema, pues si una carga eléctrica, como es el electrón, se mueve en esta forma (acelerada) necesariamente radia, es decir emite ondas electromagnéticas, similares a las de radio. Es así precisamente, ustedes lo saben, como se emiten las ondas de radio y de televisión: se ponen electrones a vibrar en la antena mediante una corriente eléctrica y la antena radia. Pero radiar significa emitir energía, por lo que los electrones del átomo en cuestión están perdiendo su energía. Y tan no es poca que un calculito nos muestra que en bastante menos de un billonésimo de segundo cada electrón atómico debería perder toda su energía, conduciendo al colapso del átomo. Pero los átomos no se colapsan, sino que se mantienen estables a través de los milenios. Algo importante, pues, nos está faltando. Aunque la respuesta va a ser simple y natural, vale la pena recordar que éste fue un problema que se planteó a la física y no encontró solución de amplia aceptación durante largo tiempo, debido tal vez a los prejuicios de la época. Lo usual, lo “natural” desde la perspectiva dominante durante la etapa de construcción de la física cuántica —y de hecho desde antes y hasta bastante después— era ver un átomo como un sistema aislado del resto del mundo. Esta perspectiva es usual en la física, en la que se acostumbra considerar al sistema estudiado como algo desconectado de sus alrededores. En la separabilidad de los sistemas físicos se basa buena parte del éxito de esta ciencia, pero también es claro que debe tenerse cuidado en decidir cuál es la porción del mundo físico de interés que resulta separable. Parte importante del éxito o del fracaso del estudio depende de esta decisión. Pero visto así nuestro problema simplemente no tiene solución, al menos dentro de la física clásica, que era la única que se conocía en las primeras décadas del siglo xx.

Nuestro análisis nos proporciona, sin embargo, si estamos dispuestos a abandonar el prejuicio mencionado, la clave para salir adelante. Vimos que cada electrón atómico emite radiación; si ahora pensamos en todos los átomos del universo, percibimos de inmediato que el espacio debe de estar lleno de esta radiación, emitida desde todos sus átomos, cercanos y lejanos. Luego el áto­mo que estamos estudiando también está inmerso en ella y sus electrones responderán absorbiendo parte de la energía del campo. Esto significa que los electrones están todo el tiempo absorbiendo y emitiendo energía en forma de radiación electromagnética. Puesto que los átomos son estables deberá suceder que existen órbitas para las cuales en promedio se emite tanta energía como se absorbe. Si la teoría confirma la existencia de tales órbitas estables, tendríamos aquí identificado el mecanismo que brinda su estabilidad a los átomos.

La electrodinámica estocástica recoge esta observación y la convierte en su principio rector. Postula que en el universo existe un campo electromagnético de fondo, llamado de vacío, sumamente complejo y azaroso, en el seno del cual se encuentran inmersos todos los átomos. En consecuencia el movimiento de los electrones resulta azaroso y muy complicado. Esto tiene secuelas importantes; por ejemplo, implica que no podemos conocer con detalle el movimiento al que está sujeto en un momento dado un electrón determinado, y que sólo lo podremos describir de manera estadística. A lo largo del tratamiento matemático de este problema, que es bastante complejo, se hace necesario introducir una serie de aproximaciones para su simplificación, pero se encuentra posible prestar atención exclusivamente a los movimientos que conducen a situaciones estadísticas estables. Resulta, como es de esperar intuitivamente, que tales condiciones se dan sólo para ciertas órbitas estocásticas (azarosas), pues la gran mayoría de los posibles movimientos no conducen al equilibrio energético, lo que identifica el mecanismo de la cuantización atómica. Vemos de esta manera que, pese a la simplicidad conceptual de la teoría, ella sugiere amplias posibilidades para entender y explicar el comportamiento cuántico de la materia. En otras palabras, de la teoría se desprende que las propiedades cuánticas de la materia, contrario a lo que hoy se estima, no son intrínsecas a ella, sino adquiridas, inducidas por su contacto estrecho, íntimo, inevitable con el resto del mundo por medio del campo de fondo de vacío. Para un físico y un filósofo de la ciencia esta conclusión es sumamente interesante, pues representa un vuelco en nuestra comprensión de la estructura de la materia.

Nuestras conclusiones nos invitan a pensar que la electrodinámica estocástica contiene efectivamente el germen de la explicación física del comportamiento cuántico de la materia. Incluso la famosa dualidad onda-corpúsculo tan propia de la física cuántica, es decir, el hecho de que hay situaciones en las cua­les los corpúsculos cuánticos se com­por­tan precisamente como tales, como partículas, pero que hay otras, no infrecuentes, en las que se comportan como ondas. Esta propiedad, cuyo origen resulta un misterio para la teoría usual, adquiere aquí visos de plausibilidad, pues cada sistema cuántico contiene como elemento fundamental además de sus partículas, el campo. En aquellas circunstancias en que este último logre imponer su marca ondulatoria sobre el movimiento de aquellas, éstas reaccionarán manifestando un aparente comportamiento ondulatorio. Hasta donde la teoría ha llegado, esto queda confirmado por los cálculos.

El desiderátum de Einstein de alcanzar una descripción determinista no se realiza en la presente teoría. Sin embargo, tal y como él lo esperaba, las ecuaciones iniciales de la electrodinámica estocástica lineal, las que describen el comportamiento de un electrón único, son perfectamente deterministas. No entra en ellas ninguna noción estadística y, en principio, describen de manera detallada el destino de cada electrón. Y lo conoceríamos, si fuera dable averiguar el campo de vacío específico en que tal electrón habrá de moverse. Pero esto queda fuera de nuestro alcance; pues se trata de un campo que se da de manera azarosa, imposible de prever en cada caso y al cual no podemos tener acceso detallado. La situación no es conceptualmente muy diferente de lo que sucede con las moléculas de un volumen de gas encerrado en una botella. Puesto que son billones de billones las moléculas ahí contenidas; es claro que no podemos conocer cómo se mueve cada una de ellas en un momento dado. Así pues, para describir lo que sucede no sólo tenemos, sino debemos recurrir a métodos estadísticos, que es lo que nos proporciona la descripción termodinámica del gas en términos de un número muy reducido de características, como la presión y la temperatura, en vez del absurdo multibillonario de pretender describir cada molécula, lo que a nadie interesaría, suponiendo que se pudiera hacer. Como decíamos, en el caso del electrón sucede algo similar: la enorme, enormísima complejidad del campo de fondo y su total desconocimiento pormenorizado en cada caso, hacen simplemente imposible y a la vez indeseable intentar una descripción detallada de su accidentado movimiento. Lo razonable y deseable a la vez es precisamente recurrir a una descripción estadística.

Es así como la electrodinámica estocástica da un contenido fundamental y claro al hecho de que la descripción cuántica sea meramente estadística. Vemos que se trata de la existencia de fluctuaciones que son enteramente causales, pese a que su descripción deba hacerse en términos probabilistas y que resulta imposible evitar el carácter estadístico, y por lo tanto, incompleto de la descripción. En otras palabras y como conclusión, la mecánica cuántica usual debe interpretarse siempre en términos de conjuntos estadísticos y no en términos de un único sistema, como usualmente se pretende.

Espero que esta pequeña narración pueda servir como una invitación para que algunos de ustedes, o muchos, o todos, se animen a conocer de cerca la obra de Brody. Pueden estar seguros de que siempre la encontrarán interesante y muy original, como es la propia de un pensador creativo.
Nota
Este texto fue leído con motivo de la Inauguración de la Cátedra Tomas Brody del Centro Universitario de Lagos, Lagos de Moreno, Jalisco, mayo de 2006.

Referencias bibliográficas

Brody, T. A. y M. Moshinsky. 1964. Tables of Transformation Brackets. Gordon and Breach, Nueva York.
Brody, T. A. 1993. The Philosophy Behin d Physics, L. de la Peña y P. Hodgson (eds.). Springer-Verlag, Berlín.
De la Peña, L. y A. M. Cetto. 1996. The Quantum Dice. An Introduction to Stochastic Electrodynamics, Kluwer Academic Publishers, Dordrecht.
T. A. Brody, Inedited papers-Artículos inéditos, A. M. Cetto y L. de la Peña (comps.). 1989, en Revista Mexicana de Física, 35, suplemento, diciembre.
_______________________________________________________________
Luis de la Peña
Instituto de Física, Universidad Nacional Autónoma de México.
 
Es ingeniero en electrónica y doctor en ciencias físico-matemáticas. Investigador emérito de la unam y del SNI. Labora en el Instituto de Física y en la Facultad de Ciencias. Su área de investigación es la física teórica, fundamentos de la teoría cuántica y procesos estocásticos. Autor de diez libros, un centenar de artículos de investigación y ochenta ensayos de política científica y divulgación.
 
como citar este artículoDe la Peña, Luis. (2008). De las virtudes de la iconoclasia: una mirada a la obra de Tomás Brody. Ciencias 89, enero-marzo, 16-28. [En línea]
  ←Regresar al índice artículo siguiente→
  1 2  
de la solapa  
e: historia de un número
 
 
Historia de π
   
       
HTML ↓ PDF ←Regresar al índice
       
e: historia de un número
   
Eli Maor
   
Conaculta / Libraria,
México, 2006. 214 p.
   
 
La historia de π ha sido extensamente narrada, sin duda porque se remonta a épocas remotas pero también porque mucho puede ser comprendido sin el conocimiento de matemáticas avanzadas. Tal vez ningún libro pueda superar la Historia de π, de Petr Beckmann,† un modelo de divulgación popular, a la vez claro y preciso. Al número e no le ha ido tan bien. No sólo es de una cosecha más reciente, sino que su historia está estrechamente relacionada con el cálculo, una materia que tradicionalmente es considerada la entrada a las matemáticas “superiores”. Hasta donde sé, todavía no ha aparecido un libro sobre la historia de e comparable al de Beckmann. Espero que el presente libro llene ese hueco.
 
Mi objetivo es contar la historia de e a un nivel accesible a los lectores con un modesto conocimiento de matemáticas. He minimizado el uso de las matemáticas en el texto en sí, relegando varias demostraciones y desarrollos a los apéndices. También me he permitido distraerme del tema principal en algunas ocasiones para explorar algunos asuntos laterales de interés histórico. Estos incluyen reseñas biográficas de muchas de las figuras que desempeñaron algún papel en la historia de e, algunas de las cuales rara vez son mencionadas en los libros de texto. Sobre todo, quiero mostrar la gran variedad de fenómenos de distintos orígenes —desde la física y la biología hasta el arte y la música— que están relacionados con la función exponencial ex, haciendo interesante este tema en campos muy alejados de la matemática.
 
En el curso de mis investigaciones, un hecho quedó inmediatamente claro: el número e era conocido por los matemáticos al menos medio siglo antes de la invención del cálculo (se refiere ya a él la traducción al inglés a cargo de Edward Wright de la obra de John Napier sobre los logaritmos, publicada en 1618). ¿Cómo pudo ocurrir esto? Una posible explicación es que el número e apareciera primero en conexión con la fórmula del interés compuesto. Alguien —no sabemos quién ni cuándo— tiene que haber notado el hecho curioso de que, dado un capital inicial C compuesto n veces al año a una tasa de interés anual r invertido durante t años, si se permite que n crezca indefinidamente, el monto final de dinero S, obtenido de la fórmula S = C (1 + r/n)nt, parece aproximarse a un cierto límite. Este límite, para C = 1, r = 1 y t = 1, es casi 2.718.
 
Este descubrimiento —más parecido a una observación experimental que al resultado de una deducción matemática rigurosa— debe haber sorprendido a los matemáticos de comienzos del siglo xvii, para los cuales el concepto de límite aún no era cono­cido. Así, el verdadero origen del número e y de la función exponencial bien puede encontrarse en un problema terrenal: la forma en que el dinero aumenta en el tiempo. Veremos, sin embargo, que otro problema —el área bajo la hipérbola y = 1/x — conduce independientemente al mismo número, lo que deja el origen exacto de e cubierto de misterio. El papel mucho más familiar de e como la base “natural” de los logaritmos tuvo que esperar hasta que el trabajo de Leonhard Euler en la primera mitad del siglo xviii hizo de la función exponencial uno de los protagonistas del cálculo.
 
Hice todos los esfuerzos que pude para ofrecer nombres y fechas con la mayor precisión posible, si bien con frecuencia las fuentes dan información contradictoria, particularmente en la prioridad de ciertos descubrimientos. Los comienzos del siglo XVII fueron un periodo de actividad matemática sin precedentes, y a menudo distintos científicos, sin estar enterados del trabajo de los otros, desarrollaban ideas similares y arribaban a resultados similares casi a la vez. La costumbre de publicar los resultados propios en revistas científicas no estaba todavía difundida ampliamente, por lo que muchos de los descubrimientos más importantes fueron comunicados al mundo en forma de cartas, panfletos o libros de circulación limitada, por lo que es difícil determinar quién fue el primero en encontrar este hecho o aquél. Esta desafortunada situación alcanzó un clímax en la amarga disputa por la prioridad en la invención del cálculo, un asunto que enfrentó a algunas de las mejores mentes de la época, y que en gran medida fue responsable del atraso de la matemática en Inglaterra durante casi un siglo luego de los descubrimientos de Newton.
 
Como alguien que ha enseñado matemáticas en todos los niveles de la instrucción universitaria, soy consciente de la actitud negativa de muchos estudiantes hacia la materia. Hay muchas razones para esto, una de las cuales es el modo esotérico y árido en que enseñamos esta materia. Tendemos a abrumar a nuestros estudiantes con fórmulas, definiciones, teoremas y demostraciones, pero rara vez mencionamos la evolución histórica de estos hechos, dando la impresión de que nos fueron legados, como los diez mandamientos, por alguna autoridad divina. La historia de la matemática es una buena forma de corregir esas impresiones. En mis clases siempre trato de introducir un bocado de historia de las matemáticas o viñetas de las personas cuyos nombres están asociados con las fórmulas y los teoremas. Este libro se desarrolló en parte con esta metodología. Espero que satisfaga el objetivo propuesto.
_____________________________________________________________
Fragmento del prefacio.
 
Historia de π.
   
Petr Beckmann
   
Conaculta / Libraria,
México, 2006. 167 p.
   
La historia de π refleja de forma muy particular la historia de la humanidad. Es la historia de hombres como Arquímedes de Siracusa, cuyo método para calcular π no fue superado significativamente durante 1900 años; y es también la historia de un hombre de negocios de Cleveland, quien en 1931 publicó un libro anunciando el gran descubrimiento de que π era exactamente igual a 256/81, un valor utilizado por los egipcios cuatro mil años antes. Es la historia de los grandes logros de la humanidad en la Universidad de Alejandría en el siglo III a.C.;
 
y también la historia de la estupidez humana que llevó a los obispos y cruzados medievales a entregar al fuego las bibliotecas científicas, porque condenaban su contenido como obra del demonio.
 
No siendo historiador ni matemático, sentí que estaba altamente calificado para escribir esta historia.
 
Esta afirmación pretende ser irónica, pero contiene un grano de verdad. Al no ser historiador, no estoy obligado a utilizar una máscara de distanciamiento ecuánime. Esta historia habla de ciertos hombres e instituciones que admiro, y de otros que detesto, y en ningún caso dudé en dar rienda suelta a mis opiniones. Sin embargo, creo que, en lo que sigue, los hechos y las opiniones están claramente diferenciados, por lo que el lector no corre el riesgo de verse muy influido por mis gustos y prejuicios.
 
No siendo matemático, tampoco estoy obligado a complicar mis explicaciones con un excesivo rigor. Espero que este librito aliente a los lectores no matemáticos a interesarse por las matemáticas, así como espero que los estudiantes de física e ingeniería se interesen en la historia de sus herramientas de trabajo. Sin embargo, existen dos métodos probados para volver odiosas las matemáticas: uno es embrutecer al lector con afirmaciones sin demostración; el otro consiste en martillar su cabeza con epsilones y demostraciones de existencia y unicidad. He tratado de mantener una ruta intermedia.
 
Una historia de π cuyo contenido se limite a los simples hechos y fechas de cuándo alguien hizo algo con el número tiende a ser bastante aburrida, y me pareció más interesante incluir en ella un poco del trasfondo de los tiempos en los que hubo progreso en el estudio de π. En algunas ocasiones me he alejado mucho del tema central, como por ejemplo con el imperio romano y el medioevo, y es que me pareció de igual importancia explorar las épocas en las que no existió progreso en el estudio de π, y por qué no lo hubo.
 
El nivel matemático del libro es flexible. Al lector que encuentre ciertos pasajes matemáticos demasiado complicados le sugiero hacer lo que el matemático hará cuando los encuentre excesivamente triviales: saltarlos.
______________________________________________________________

Fragmento del prólogo.

  ←Regresar al índice
  1 2  
del herbario  
El barbasco
 
 
Nina Hinke
conoce más del autor
 
 
       
       
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
       
       
Es posible que una de las plan­tas mexicanas más im­portantes para la industria farmacéutica de este siglo y, paradójicamente, muy poco conocida, sea el barbasco. Esta planta ha sido utilizada para la producción industrial de las hormonas esteroides, en particular de la progesterona y sus derivados (que se utilizan como anticonceptivos), y de la cortisona, un potente antiinflamatorio.
En México se designa con el nombre de barbasco varias especies vegetales pertenecientes a distintas familias botánicas, como la de las leguminosas y la de las sapindáceas. También reciben el nombre de barbasco muchas de las especies del género Dioscorea. Según Applezweig, tradicionalmente se da el nombre de barbasco a las plantas utilizadas en Latinoamérica en la preparación de venenos de pesca. Sin embargo, los dos barbascos a los que nos referiremos en esta ocasión son Dioscorea composita y D. bartletii, o “cabeza de negro”, que han constituido la materia prima en la industria de las hormonas esteroides sintéticas.

D. composita se distribuye desde Oaxaca y Veracruz hasta El Salvador y D. bartletii desde Veracruz y Oaxaca hasta Honduras, y ambas crecen de manera espontánea en los estados de Puebla, Veracruz, Oaxaca, Chiapas y Tabasco.

La historia de la explotación de estas dos especies está íntimamente ligada a la historia de la utilización de las hormonas esteroides sexuales en la terapéutica desde los años treinta. Por ejemplo, del uso de la progesterona para ayudar a mantener el embarazo (y sólo posteriormente como anticonceptivo), y al descubrimiento en los años cincuenta de que la cortisona, que tenía una gran demanda como remedio contra la artritis, se podía sintetizar a partir de la progesterona.
 
Hasta entonces, las hormonas disponibles en el comercio se obtenían de los órganos y de productos animales, pero la extracción no era una empresa fácil. Para la producción de progesterona, de testosterona o de estrona se necesitaban toneladas de ovarios de puerco, de testículos de toro y cientos de litros de orina de caballo, respectivamente. No es una coincidencia que Organon, una compañía holandesa que aún figura entre las más importantes en esta área, haya sido fundada por un profesor en farmacología, Ernst Laquear, y el dueño de un rastro, el señor S. van Zwanenberg.

La dificultad para obtener las hormonas y el alto costo de producción impulsaron a las distintas compañías farmacéuticas a la búsqueda de fuentes de esteroides más propicias para la producción industrial y el desarrollo de la síntesis química a partir de precursores. El primer precursor utilizado para estos fines fue el colesterol. Sin embargo, la oxidación del colesterol no era un procedimiento sencillo y el costo de un gramo de hormona sintetizada era elevadísimo. La producción barata de hormonas sexuales solamente se hizo posible después de que se descubriera en el barbasco un compuesto parecido a los esteroides, llamado diosgenina, y se lograra utilizar como precursor para la síntesis de la progesterona gracias a un investigador estadounidense, Russell Marker.
 
En la carrera internacional entre los productores de hormonas sexuales, la compañía farmacéutica americana Parke-Davies (siguiendo el ejemplo de Organon, Ciba y Schering, que establecieron desde un principio colaboraciones con académicos universitarios) patrocinó las investigaciones de Russell Marker, profesor de la Universidad Estatal de Pennsylvania, sobre unas moléculas vegetales cercanas a los esteroides, las sapogeninas. Éstas son esteroides glicosilados, solubles en agua, y generalmente se encuentran asociados a raíces. Gracias a su solubilidad se pueden obtener fácilmente por medio de una extracción alcohólica o en agua. Entre 1939 y 1943, Marker y su grupo realizaron varios estudios y demostraron que las sapogeninas podían ser utilizadas como precursores en la síntesis de hormonas esteroides. Entonces, se dieron a la búsqueda de plantas que tuvieran un alto contenido de sapogeninas.

Russell Marker cuenta que en 1941 se encontraba de viaje en Nuevo México colectando nuevas plantas para sus investigaciones, cuando vio, en la casa donde se estaba albergando, un libro de botánica con la foto de una planta con una raíz enorme de la familia de los ñames o camotes alimenticios, colectada en el estado de Veracruz. Al percatarse de que aquella raíz era una posible nueva fuente de sapogeninas, viajó a ese estado.
 
La planta que había visto era una “cabeza de negro”. Efectivamente encontró que producía grandes cantidades de un compuesto esteroide, la diosgenina, y logró transformarla en progesterona: Marker había encontrado una fuente abundante y fácil de extraer que permitía la producción barata y en masa de progesterona. Sin embargo, Marker no logró persuadir a los directivos de Parke-Davies de que se estableciera una planta de producción en México para explotar el barbasco. Quizás convencido de que el mercado de la progesterona tenía un gran futuro, Marker se fue a México en 1943 y estableció una nueva compañía en asociación con Emeric Somlo y Federico Lehmann, de los Laboratorios Hormona, S.A., a la que llamaron Syntex. Para 1956, Syntex era el proveedor de esteroides más importante de todo el mundo.

La “cabeza de negro” o D. bartletii fue posteriormente reemplazada por otra planta mexicana, la Dioscorea composita, que es una planta semiinvasora que crece abundantemente y que contiene concentraciones de diosgenina hasta diez veces mayores que la “cabeza de negro”. Además, su ciclo biológico es de sólo tres años comparado con el de D. bartletii, que dura veinte. Todas estas características hacen a D. composita mucho más redituable que D. bartletii.
 
A partir de los años cincuenta, la demanda de barbasco creció de tal manera que se convirtió en una fuente importante de ingresos para el país. Incluso se creó un organismo gubernamental encargado de la regulación del mercado de barbasco, que además contaba con su propia planta de procesamiento, Proquivemex. Se prohibió la exportación de barbasco y de diosgenina, de manera que las compañías extranjeras que querían producir anticonceptivos, cortisona u otros productos hormonales, tenían que comprarles directamente a los productores mexicanos la progesterona, con lo que se garantizaban las ganancias de las compañías nacionales. Además del provecho para las compañías farmacéuticas, en los estados como Veracruz y Oaxaca la recolección del barbasco se convirtió en la fuente principal de ingresos de comunidades enteras. Se crearon hasta mil centros acopio, donde los campesinos entregaban las raíces, y en las localidades aisladas llegaban las avionetas a recoger la mercancía.

En los setentas, cansadas y temerosas del monopolio mexicano del barbasco, las industrias farmacéuticas empezaron a buscar otras fuentes de precursores. Se organizaron expediciones botánicas en diversas partes del mundo para encontrar nuevas especies productoras de sapogeninas. Otras compañías perfeccionaron la síntesis de progesterona a partir de colesterol y Organon logró la síntesis química total, lo que les permitió prescindir del barbasco para producir la progesterona. Para fines de los ochentas, el mercado del barbasco había decaído drásticamente y, con él, el sustento de los campesinos que lo colectaban. Además, desde entonces también se ha ido borrando el barbasco de nuestra memoria, en particular de los citadinos que vivimos tan alejados de las historias de nuestros recursos naturales.

El barbasco es sólo uno de los tantos ejemplos de los recursos vegetales con los que cuenta México. De alguna manera, estas plantas y su explotación están inscritas en la historia de nuestra gente y de nuestro país.
_____________________________________________________________

Nina Hinke
(1969-2004) Fue editora de la revista Ciencias.

como citar este artículo

Hinke, Nina. (2008). El barbasco. Ciencias 89, enero-marzo, 54-57. [En línea]

  ←Regresar al índiceartículo siguiente→
1 2
     
El laboratorio más limpio: la computación atomística y las ciencias naturales
El nacimiento de la computación atomística y sus aplicaciones son el tema de este artículo. Se presenta aquí un breve recuento de la evolución de esta disciplina a partir del cómputo científico y se establece un punto de contacto entre estas técnicas y la contraparte del mundo real, la difracción de rayos X. El grafito y el plegamiento de proteínas nos permiten atisbar en el ámbito de aplicación de estas potentes técnicas.
Luis Guillermo Cota, Pablo de la Mora y Luis Rosales
conoce más del autor
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
Hace ya más de un siglo que los estudiosos dieron por primera vez con la forma de escudriñar las entrañas de la materia para arrancarle uno de sus secretos más bien guardados: su distribución atómica (el concepto de átomo, sin embargo, distaba mucho de ser nuevo, pues nació como tal en tiempo de los filósofos griegos). La técnica a la que nos referimos es la difracción de rayos X, que es más o menos una “radiografía” de la distribución atómica de un compuesto, y es pariente cercana de la radiografía ósea, que es a su vez una fotografía de la distribución de los huesos. La difracción de rayos X ha prestado un servicio invaluable en los laboratorios de investigación de todo el mundo. Sin embargo, como acontece frecuentemente con la investigación experimental, para allegarse los beneficios de esta técnica hay que lidiar con grandes aparatos, sustancias peligrosas, radiación electromagnética y, por si fuera poco, altos costos.
 
Por otro lado, el vertiginoso avance de la ciencia y la téc­ni­ca durante el último siglo dio a la humanidad grandes in­ven­tos, entre ellos los prodigiosos aparatos de cálculo electrónico, mejor conocidos en México como computadoras. Prácticamente, desde que las computadoras sólo existían en los laboratorios gubernamentales de unos cuantos países, y eran unos monstruos electromecánicos con una ridícula capacidad de cómputo —comparada con lo que se ve en nuestros días—, éstas se usaron para resolver problemas de corte científico, a la par de sus usos estadísticos y bélicos. Nació pues, desde entonces, el cómputo científico. Sólo era cuestión de tiempo para que a alguien se le ocurriera usar esta nueva herramienta para tratar de resolver problemas relacionados con la estructura de la materia usando el enfoque atomístico, nuestro tema. El enfoque atomístico implica el contemplar la materia y sus propiedades desde el punto de vista de la distribución espacial de sus átomos.
 
Quizá no sea del todo ocioso agregar que el uso del cómputo para hacer cálculos atomísticos no implica que los átomos del experimento estén danzando en el interior de la computadora, tal y como ocurre cuando jugamos en ella y no hay naves espaciales volando o explosiones sucediendo en su interior. En realidad, sólo se usan representaciones formales —fórmulas— de los átomos y de las fuerzas que actúan entre ellos. En otras palabras, se usan modelos computacionales para representar con simplicidad tal o cual comportamiento del mundo físico. Por ejemplo, en el pizarrón el modelo de un átomo podría ser simplemente una partícula esférica con una cierta masa. El enlace químico con otro átomo situado a una dis­tan­cia x de aquél podría representarse simplemente como un resorte que ejerce una fuerza, F(x), entre nuestra partícula y otra partícula esférica igual. En la computadora, por otro lado, este enlace químico se representaría simplemente como la interacción de las cantidades x, F(x) y d, la distancia óptima del enlace, por ejemplo, mediante la fórmula:

F(x) = k (x – d)


Por otro lado, usar modelos y simulaciones del mundo físico implica cierto nivel de representación abstracta, es decir, de teoría, lo cual nos lleva a formularnos la siguiente pregunta: ¿es esta técnica teoría o experimento? La mejor respuesta la tendrá seguramente un filósofo de la ciencia; para nuestros fines, sin embargo, lo que importa es que el cómputo atomístico nos permite salvar el pleito que parece existir desde siempre entre científicos teóricos y científicos experimentales, pues el cómputo atomístico tiene elementos que complacen a ambos bandos. Llamemos entonces a estos cálculos “experimentos computacionales atomísticos” y digamos, con el afán de simplificar, que son más fáciles de comprender que la teoría pura y que son más limpios y económicos que los experimentos reales.

Sin embargo, los físicos, los biólogos y los químicos atomísticos fundamentan su trabajo en las formulaciones de la termodinámica, de la mecánica clásica, de la mecánica estadística y de la mecánica cuántica, entre otras ramas “duras” de la ciencia. (De la mecánica clásica viene, por cierto, nuestro modelo del enlace químico visto como dos masas unidas por un resorte). Con esto pretendemos enfatizar que el trabajo de los científicos atomísticos no es simplemente teoría light, sino experimentos teóricos bien provistos de sustento formal, con un enfoque peculiar y con muchas ventajas, como enseguida veremos. Las limitaciones de espacio impiden abordar el tema mediante un planteamiento general, por lo cual nos restringiremos a exponer aquí un par de ejemplos que le den al lector una pequeña muestra de las posibilidades de los experimentos computacionales atomísticos.

Duro y suave, el grafito y los cálculos de estructura electrónica

El grafito, una forma de carbono puro, es una sustancia muy versátil: se utiliza en lápices, sirve como lubricante de piezas metálicas, es el material de los electrodos (los llamados “carbones”) de muchos motores eléctricos y, entre otras muchas cosas, se utiliza incluso para hacer raquetas de tenis ultrarresistentes y livianas. ¿Qué se puede aprender de las propiedades del grafito estudiando este material a partir de la configuración de sus átomos? Se puede explicar, a nivel muy detallado, por ejemplo, el porqué de su comportamiento mecánico y eléctrico. A nivel atómico, el grafito posee orden cristalino, lo cual significa que está construido por átomos de carbono que se repiten ordenadamente formando capas hexagonales, a manera de panal de abeja, las cuales, a su vez, se apilan ordenadamente unas sobre otras. Esta regularidad simplifica enormemente el cálculo, pues, usando la analogía del panal, sólo es necesario calcular las propiedades de una celda hexagonal, en lugar de las de todo el panal, que no son más que repeticiones de la celda.
 
Una explicación de por qué los lápices escriben resulta evidente a partir de los cálculos de estructura electrónica, al calcu­lar las fuerzas entre los átomos de una celda de grafito a medida que sus capas se deslizan una sobre otra. Los cálculos muestran que se requieren fuerzas muy pequeñas para deslizar las capas entre sí, lo que corresponde físicamente a que el lápiz, al deslizarlo suavemente, deja, escritas, capas de grafito sobre el papel. Por el contrario, si intentamos modificar la distancia entre los átomos de carbono que forman cada plano —el enlace carbono-carbono—, es decir, si intentamos estirar o comprimir la celda de grafito a lo largo y ancho de los planos hexagonales, será necesario aplicar una gran fuerza, lo cual explica, precisamente, la sorprendente resistencia y flexibilidad del grafito como elemento estructural de las raquetas de tenis. Los cálculos de estructura electrónica muestran, por otro lado, que el grafito conduce la electricidad fundamentalmente a lo largo de sus capas hexagonales, pero no entre las diferentes capas. Los cálculos pueden explicar, además, por qué el grafito es un conductor eléctrico más bien pobre.

Si bien en rigor los cálculos de estructura electrónica no se consideran cálculos atomísticos, nos hemos permitido, con cierta irreverencia, considerarlos aquí como tales en un afán simplificador. La razón es que en un material las propiedades electrónicas son, en última instancia, también atomísticas; la diferencia fundamental estriba en que los cálculos electrónicos abordan las propiedades materiales básicamente desde el punto de vista de la distribución espacial de sus electrones (o propiamente dicho, de su densidad electrónica).

La proteínas y su plegamiento

Al igual que en el caso de los materiales inorgánicos, como el grafito, el uso de modelos computacionales para el estudio de moléculas de importancia biológica constituye en nuestros días una parte fundamental de la comprensión cabal de los datos experimentales. A la vez, estos modelos son un poderoso aliado en la predicción de muchas propiedades estructurales y dinámicas de las moléculas biológicas, como se puede apreciar en el caso de las proteínas.

En los seres vivos sucede incesantemente una gran cantidad de reacciones químicas, todas las cuales son realizadas y reguladas por una infinidad de moléculas especializadas llamadas proteínas. En términos generales, las proteínas son cadenas compuestas por veinte distintos tipos de unidades básicas, llamadas aminoácidos. Cada proteína cuenta con una composición y longitud particular, y un arreglo espacial único de estas cadenas. Son proteínas el material de músculos y huesos, son proteínas los anticuerpos que combaten las enfermedades y son proteínas las enzimas que median en los procesos de respiración en los seres vivos, por ejemplo.
Actualmente sabemos que las estructuras de proteínas determinadas experimentalmente (mediante difracción de rayos X, como vimos antes), representan sólo el arreglo espacial promedio de una población de moléculas, debido a que éstas poseen una gran capacidad de movimiento —es decir, una gran plasticidad estructural. En este sentido, las estructuras determinadas experimentalmente constituyen simplemente “instantes” en la serie de tiempo (la “película”) que representa el movimiento normal de una proteína. Entender completamente el comportamiento de una proteína a partir exclusivamente de estructuras experimentales sería equivalente a tratar de entender la trama de una película ¡a partir de su cartel promocional!

Las simulaciones computacionales que utilizan el método conocido como dinámica molecular proponen una solución matemática a las ecuaciones de movimiento de Newton, utilizando una serie de parámetros determinados experimentalmente, conocidos como “potenciales” o “campos de fuerza” (traducción del término usual forcefields, en inglés). A partir de la estructura de una molécula, determinada experimentalmente, estas simulaciones permiten predecir su dinámica estructural —el cambio en el arreglo espacial de los átomos en función del tiempo; en otras palabras, una trayectoria—, así como los cambios de energía asociados a estos movimientos.

Las simulaciones de dinámica molecular de las proteínas arrojan información detallada acerca de su movimiento natural, es decir, de los mecanismos por medio de los cuales éstas obtienen su estructura única (fenómeno conocido como plegamiento), así como de las particularidades estructurales que explican su funcionamiento (el reconocimiento molecular y la catálisis). Es relevante mencionar que una gran parte de estos cambios ocurre en tiempos demasiado cortos para ser observada experimentalmente. Por ejemplo, el proceso de plegamiento de una proteína sólo toma unas cuantas decenas de microsegundos (un microsegundo es un millonésimo, 1/1 000 000, de segundo). Sin embargo, en términos computacionales éste es un intervalo de tiempo extremadamente largo para una simulación: para una computadora de escritorio de las actuales, tomaría más o menos un día simular el comportamiento de una proteína durante un nanosegundo (1/1 000 000 000 de segundo). Por lo tanto, simular el plegamiento de una proteína tomaría por lo menos diez mil veces este tiempo, o sea, ¡casi 28 años de cálculo ininterrumpido! Afortunadamente existen maneras ingeniosas de resolver este problema; una de ellas es el uso del llamado cómputo distribuido. Este original enfoque consiste en dividir el problema en partes más pequeñas, realizar los cálculos correspondientes a cada pequeña parte en un gran número de computadoras y finalmente combinar los resultados que arroja cada una de las máquinas.

Desde hace algunos años existen proyectos de cómputo distribuido que han sido diseñados para aprovechar el tiempo ocioso de las computadoras que cientos de miles de usuarios de internet, todos ellos voluntarios, donan. De esta manera, los voluntarios participan con sus recursos en la búsqueda de soluciones a problemas tales como el plegamiento de las proteínas y, con esto, en la búsqueda de fármacos más efectivos contra el cáncer y contra el mal de Parkinson (enfermedades relacionadas con un mal plegamiento de las proteínas), por hablar sólo de un par. Baste mencionar, como ejemplo, el proyecto de cómputo distribuido aplicado al plegamiento de proteínas conocido como Folding@Home (se lee como folding at home y se traduce más o menos como “plegamiento en casa”). Este proyecto cuenta ya con más de 270 000 computadoras activas, pertenecientes a más de 140 000 voluntarios alrededor del mundo, y su capacidad de cómputo actual sobrepasa ¡200 trillones de operaciones por segundo! (A manera de referencia diremos que las supercomputadoras más potentes del mundo sólo pueden realizar cerca de un trillón de operaciones cada segundo). El ejemplo de las proteínas permite hacer énfasis en el hecho de que las ciencias biológicas no se pueden permitir prescindir del auxilio que prestan los cálculos atomísticos. De hecho, éstos son la herramienta más moderna disponible para el diseño de nuevos fármacos, y existe hoy en día una gran demanda laboral a nivel mundial de profesionales en esta área, proveniente principalmente de los grandes laboratorios farmacéuticos.

Conclusión

La simplicidad estructural del grafito y las sutiles complejidades de las moléculas biológicas nos han servido para ilustrar cómo las computadoras sirven para hacer experimentos teóricos que implican observación y control a un nivel al que no tienen acceso ni la teoría ni el experimento real. Queremos terminar diciendo que habremos cumplido con nuestro propósito si algún lector logra interesarse por este apasionante tema. Para buena fortuna, es posible convertir práctica­men­te cualquier computadora personal en un pequeño laboratorio atomístico, sin sacrificar necesariamente sus usos habituales.

Se invita al lector que tenga cu­rio­si­dad o interés a visitar la pá­gina web del proyecto Folding@home y con el tiempo colaborar en él o en otros similares.
 
Referencias en la red

“Los experimentos computacionales atomísticos”, de la versión electrónica de Ciencia y Desarrollo, de los mismos autores, a través de la siguiente liga: http://www.conacyt.mx/comunicacion/revista/ArticulosCompletos/pdf/Atomistico.pdf
_______________________________________________________________
Luis Guillermo Cota Preciado
Universidad de Guadalajara.

Se graduó de ingeniería química en la Universidad de Guadalajara, es candidato a doctor en ciencias químicas por la unam. Ha realizado investigación en los campos de los cristales líquidos y de la ciencia de materiales con métodos computacionales. Es docente en la Facultad de Ciencias, UNAM.
 
Pablo de la Mora y Palomar Ashkinasy
Facultad de Ciencias, Universidad Nacional Autónoma de México.

Estudió licenciatura y maestría en física en la Facultad de Ciencias, unam, de donde es profesor. Se doctoró en física en la Universidad de Oxford, Inglaterra. Su tema principal es el cálculo de estructura electrónica de materiales cristalinos.
 
Luis Rosales León
Instituto de Investigaciones Biomédicas, Universidad Nacional Autónoma de México.

Estudió biología en la Facultad de Ciencias de la unam y es doctor en ciencias biomédicas. Se ha centrado en el análisis computacional de proteínas. Se desempeña como técnico académico en la Dirección General de Servicios de Cómputo Académico, UNAM.
_______________________________________________________________
como citar este artículo
Cota, Luis Guillermo, Pablo de la Mora Pablo y  Luis Rosales León. (2008). El laboratorio más limpio: la computación atomística y las ciencias naturales. Ciencias 89, enero-marzo, 34-40. [En línea]
  ←Regresar al índice artículo siguiente→
1 2
     
Fenomenología del dolor en Frida Kahlo. Reflexiones desde la salud pública
Se describen particularidades del dolor físico en la pintora mexicana Frida Kahlo, analizadas desde la perspectiva de la salud pública. Se modelan cambios en las condiciones iniciales de su gestación y en sus primeros años de vida, a partir de intervenciones preventivas contra espina bífida y poliomielitis. El modelo predice que si Frida hubiera nacido en 2007 tendría una probabilidad superior a 97% de no padecer espina bífida o de no presentar secuelas de esta enfermedad, y una probabilidad nula de padecer poliomielitis.
José Luis Díaz Ortega
conoce más del autor
 
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
El detalle con el que Frida Kahlo refleja el dolor físico en algunas de sus obras sugiere que era poseedora de una cultura médica importante, que provenía tal vez del propósito juvenil de estudiar medicina, frustrado por el trágico accidente de tránsito ocurrido en 1925. Su vida, a partir de los seis años en que adquirió la poliomielitis, estuvo marcada por la relación estrecha con médicos y servicios de salud, la cual trasciende lo estrictamente médico para apoyarse en la amistad, como queda evidenciado en las cartas de Frida o en las pinturas que obsequia a sus médicos.

La acuciosidad con que Frida recrea la realidad de su experiencia dolorosa, se ha documentado en otro contexto en algunos pintores impresionistas. Por ejemplo, las observaciones realizadas por Van Gogh del movimiento de las olas del mar, la caída de lluvia en colectores naturales de agua y otro tipo de turbulencias en su obra plástica, podrían considerarse verdaderas aproximaciones plásticas a la realidad, como ha sido demostrado por la modelación matemáti­ca utilizada en la física de fluidos. Frida, además de su sufrimiento físico, mostró la anatomía del dolor en su obra pictórica. En el cuadro de-nominado Lo que el agua me ha dado (1938) se observa una deformación y laceración en el pie derecho, lesiones que de acuerdo a la opinión especializada no necesariamente son consecuencia de la poliomielitis, sino que podrían ser atribuibles a espina bífida, lo que Frida pudo haber relacionado con herencia genética familiar, considerando que en el mismo cuadro, dentro de la tina de baño se encuentra un retrato de sus padres.

La pintura relacionada con el dolor físico de Frida probablemente está influenciada por la lectura de textos especializados y por el trato frecuente con galenos, apropiándose de alguna manera del lenguaje médico, lo que mezclado con su dolor físico da lugar a la lírica de algunas de sus obras pictóricas. En 1932, Frida presentó un aborto espontáneo en Estados Unidos, hecho que al parecer le dejó un trauma emocional profundo, lo que sería reflejado en la obra Hospital Henry Ford (1932) en el cual se muestra ella misma en una cama, con el producto de la gestación fuera de su cuerpo, teniendo como fondo la industria floreciente de Detroit. Este tema será nuevamente retomado en el cuadro denominado Frida y el aborto (1932), en el que se muestra de pie con una cuerda, probablemente el cordón umbilical, enrollada en su pierna derecha. En 1946 le practican una cirugía de columna, dejándole escaras dolorosas en la piel, lo que Frida, en carta dirigida a Alejandro Gómez Arias (su amor de adolescencia), considera como una especie de profanación de su cuerpo. Esta sensación la refleja en el autorretrato llamado Árbol de la esperanza, mantente firme (1946).

El malestar físico de Frida aumentó con­si­de­ra­ble­men­te en su última década de vida. Los instrumentos empleados en su “tormento terapéutico”: agujas, piquetes, corsés, acompañados por imágenes de arterias, cordones umbilicales, doble circular de cordón en su propio cuello, etcétera, serían una constante en algunas de sus obras. La recomendación médica de mejorar su ingesta alimenticia y la inapetencia crónica entran en juego en su obra Sin esperanza (1945), en la cual Frida refleja el hartazgo de alimentarse por necesidad. A partir de 1951 vivió prácticamente confinada a una silla de ruedas y forzada al uso de analgésicos derivados de la morfina.

¿Cuándo comenzó esta historia?

El origen de al menos una parte del sufrimiento de Frida Kahlo, podría haber ocurrido en las ­primeras semanas de su gestación en el vientre de Matilde Calderón, su madre, debido al defecto de cierre del tubo neural, conocido como espina bífida, diagnosticado por el doctor Leo Eloesser, su amigo y médico esta­do­unidense en 1930. El tu­bo neural es una estructura embrionaria que deriva del ectodermo y de la pla­ca neural y que da origen al siste­ma nervioso central, mismo que se cierra hacia la cuarta semana de gestación; de no hacerlo, da origen a este padecimiento. La espina bífida es generalmente asintomática si no presenta daño aparente de la médula espinal. Sin embargo, algunos casos presentan debilidad de extremidades, escoliosis (curvatura de la columna), dolor de espalda y piernas, trastornos presentes en Frida Kahlo. En algunas ocasiones se forma un saco o quiste en el que las meninges for­man una protuberancia a través de las vértebras, pero el quiste no atrapa nervios raquídeos ni médula espinal. Este tipo de espina bífida se denomina “meningocele” y generalmente se corrige con cirugía. El “mielomeningocele” es una forma severa de espina bífida, en la que el quiste sale por los espacios intervertebrales, atrapando nervios raquídeos y una porción de médula espinal. Tiene como consecuencia la parálisis de extremidades e incontinencia urinaria. La cirugía puede corregir sólo parcialmente el problema.

Aunque la causa del padecimiento se desconoce, se han identificado algunos factores de riesgo para adquirirlo, por ejemplo, si uno de los padres, un hermano(a) o algún miembro de la familia de los progenitores padeció espina bífida, aumenta la probabilidad de que no cierre el tubo neural en el producto en gestación. La obesidad, la diabetes, el tratamien­to anticonvulsivo en las mujeres gestantes o la presencia de enfermedades en las embarazadas como la influenza, el dengue u otros padecimientos que producen fiebre elevada, pueden ser factores de riesgo adicionales.

La poliomielitis no fue un convidado de piedra

En 1913, año del golpe de Estado de Victoriano Huerta y de la Decena Trágica en la ciudad de México, Frida, con seis años de edad, adquiere la poliomielitis, y sufrirá secuelas incapacitantes en la pierna derecha. Esta enfermedad es causada por un poliovirus que forma parte de los enterovirus neurotrópicos —llamados así por su afinidad con los tejidos digestivo y nervioso— de la familia Picornaviridae, que presentan tres variantes moleculares reconocidas por el sistema inmune (pv1, pv2 y pv3), el cual neutraliza la infección viral por medio de anticuerpos específicos para cada una de estas variantes. Los poliovirus son estructuras ico­saédricas de 20 a 29 nanómetros de diámetro (1 nanómetro = 1×10–9 metros) y su genoma está constituido por ácido ribonucléico de una sola cadena. Estos microorganismos se adquieren por vía digestiva, presentan estabilidad al medio ácido del estómago y soportan temperaturas ambientales próximas a 50 ºC; en aguas residuales pueden mantenerse hasta por cuatro meses, lo que favorece su diseminación a través de agua y alimentos contaminados. De acuerdo a la epidemiología del padecimiento en la época prevacunal, la variedad pv1 fue seguramente la responsable de la infección en Frida.

La descripción más antigua de la poliomielitis se encuen­tra en una estela egipcia que data de 1580 a 1350 a.C., que muestra la efigie de una persona con la extremidad izquierda acortada y adelgazada, imagen compatible con la parálisis residual dejada por este padecimiento. En 1789 el médico inglés Michael Underwood describe por primera vez esta enfermedad como una debilidad de los miembros inferiores, precedida de fiebre. En 1840, Jacob Heine identifica la médula espinal como el órgano objetivo del padecimiento y, en 1870, Jean Martin Charcot describe los cambios histopatológicos ocurridos en las astas anteriores de la médula espinal, sitio de residencia de las neuronas motoras, células de contorno poligonal irregular de las que se desprende una prolongación larga llamada cilindroeje o axón y cuyo extremo terminal presenta ramificaciones finas llamadas dendritas, responsables de la interacción electroquímica de las neuronas con las células musculares mediante la liberación de acetilco­lina, neurotransmisor que induce la contracción muscular. El conjunto formado por una neurona motora y las fibras musculares que activa se conoce como unidad motora.

La infección puede cursar en forma subclínica o asintomática (88-94% de los infectados); en forma abortiva (sólo fiebre, inflamación de amígdalas, o diarrea en 4-8% de infectados); en forma de inflamación de las envolturas del cerebro conocida como meningitis aséptica (1-2% de infectados) o en la forma paralítica que afecta generalmente una sola extremidad (1-2% de los infectados). En el siglo pasado se documentaron grandes pandemias (epidemias internacionales) en 1910, 1912 y 1916; en esta última se notificaron 900 casos tan sólo en la ciudad de Nueva York. En condiciones de pobreza la infección se presentaba usualmente en lactantes y preescolares, mientras que en el medio socioeconómico medio o superior la enfermedad paralítica afectaba más a niños en edad escolar y a jóvenes, corroborándose este comportamiento epidemiológico en Frida.

El trauma emocional que significó la deformidad y parálisis de la pierna derecha, seguramente modificó la forma de ver e imaginar la vida en la pequeña Frida. Durante su prolongada convalecencia en cama creó una amiga imaginaria con quien diálogaba y jugaba, que años después daría a conocer como “un clon” de ella misma en Las dos Fridas, cuadro probablemente emblemático de su personalidad.

Algo más que un accidente

En 1925, a la edad de dieciocho años, Frida sufrió un accidente a bordo de un vehículo público de motor, que sin lugar a duda marcó su destino. La pintora presentó fracturas múltiples en la columna, pierna y pie derechos. Por si fuera poco, una barra de metal se incrustó en su pelvis atravesando el útero, cuya reparación y cicatrización posterior probablemente modificaron la anatomía de la matriz impidiéndole llegar a tener embarazos de término y productos de la gestación viables. Este accidente llevó nuevamente a Frida a mantener periodos prolongados de inmovilidad en cama, lo que pudo alterar algunas de sus funciones motoras y la circulación sanguínea adecuada de la extremidad afectada. La recuperación de tan aparatoso accidente indica que a pesar de las fracturas múltiples de columna, la médula espinal probablemente no fue dañada, por lo que no presentó en lo inmediato problemas de nervios periféricos. En La columna rota (1944) pieza de gran profundidad, Frida desarrolla, probablemente por influencia de sus médicos, la idea de que el dolor que la aqueja se relaciona con el accidente de tráfico, mostrando en el interior de su cuerpo una columna “vertebral” jónica multifrac­turada, a la vez que sitúa su imagen en una tierra árida, probablemente arrasada por el sufrimiento. La expresión de desolación en su rostro y las lágrimas que corren por sus mejillas reflejan el dolor neuropático, definido académicamente como una sensación punzante de dolor intolerable. Cada clavo en su cuerpo describe, de acuerdo con su tamaño, la magnitud de la dolencia; los clavos se extienden hacia su extremidad inferior derecha.

¿Síndrome pospolio o fibromialgia postraumática?

El síndrome pospolio, descrito en los años setenta del siglo pasado, se presenta en un rango de 25% a 85% de los sobrevivientes a la poliomielitis, siendo más frecuente en mujeres. Los pacientes presentan sensación de fatiga, dolor muscular y sensación de debilidad progresiva en extremi­dades y en ocasiones en músculos respiratorios, lo que produce ansiedad, insomnio, depresión y déficit de memoria. La poliomielitis puede afectar hasta 95% de las neuronas motoras de la médula espinal, sin embargo, debido a la plasticidad del sistema nervioso, algunas neuronas sobrevivientes desarrollan nuevas prolongaciones que llegan a las fibras musculares innervadas previamente por células nerviosas fallecidas, generándose unidades motoras alternativas. La debilidad en estos pacientes podría atribuirse a un proceso de fatiga y degeneración de las unidades motoras emergentes, relacionado tal vez con mecanismos de daño autoinmune. El líquido cefalorraquídeo de algunos pacientes presenta interleucina-4 y factor de necrosis tumoral-alfa, moléculas conocidas como citocinas, que son excretadas por linfocitos T (células del sistema inmune). Estos hallazgos sólo están presentes en el líquido cefalorraquídeo y no en la sangre, lo que probablemente explicaría la ausencia de manifestaciones de daño en otros tejidos diferentes al nervioso. Adicionalmente, resultados de estudios de neuropatía epidémica realizados en Cuba, sugieren que algunas infecciones por enterovirus, no polio, podrían desencadenar procesos inflamatorios crónicos con potencialidad para disparar mecanismos de autoinmunidad hacia las unidades motoras.

Otros especialistas, considerando el antecedente del politraumatismo sufrido por Frida en 1925, señalan la fibromialgia postraumática —caracterizada por dolor muscular difuso, fatiga sin causa aparente y presencia de puntos dolorosos múltiples— como causa probable de su malestar crónico.

¿Y si las condiciones iniciales hubieran sido diferentes?

La enseñanza de la medicina clínica y preventiva generalmente se ha apoyado en el concepto de “historia natural de la enfermedad”, que es la forma en que se adquiere un padecimiento y su “evolución natural” sin intervención de la mano del terapeuta. Esta evolución se ubica en el contexto de la triada ecológica que determina la presencia de la enfermedad, es decir, en la relación entre agente causal, huésped (paciente) y medio ambiente, lo cual permitiría en términos teóricos identificar factores que podrían evitar o interrumpir esta historia en favor de la preservación de la salud o de una mejora en la calidad de vida de los enfermos, retrasando convenientemente la muerte. Esta forma, tal vez simplificada, de abordar el fenómeno salud-enfermedad no siempre permite ubicar el inicio de algunos padecimientos que pueden ser la suma o la multiplicación de varias enfermedades, ni la interacción compleja de diversas variables componentes del efecto clínico visible (propiedad emergente de la dinámica del fenómeno).

Vistas la salud y la enfermedad como sistemas dinámicos, podemos asumir que su comportamiento en el tiempo es suscep­tible de afectación por cambios en las condiciones biofísicas y sociales en que se desarrolla el proceso salud-enfermedad. De esta manera, habría que considerar las primeras semanas de gestación de Frida, y a partir de la identificación de ­factores de riesgo asociados a espina bífida y posteriormente de los me­ca­nismos de transmisión de la poliomielitis, imaginar un cambio en las condiciones iniciales que favorecieron la presencia de tales padecimientos. Bajo el supuesto de que Frida naciera por ejemplo, cien años después, propongamos un modelo que nos permita vislumbrar un futuro diferente para ella.

Espina bífida

Matilde Calderón vive en la ciudad de México y ha ganado derechos sobre su propio cuerpo, de manera que toma la deci­sión de embarazarse y consulta en compañía de Guillermo Kahlo un servicio médico, en donde —a partir de los progresos en salud pública y un análisis riguroso de su situación de salud— su médica le prescribe una práctica preventiva sumamente simple, aplicable a las mujeres en edad ­fértil, que consiste en recomendar el consumo de alimentos ricos en ácido fólico (vitamina B9), como naranja, vegetales verdes, legumbres y cereales fortificados con esta vitamina, disponibles en el mercado. Prescribe además una formulación farmacéutica de esta vitamina que deberá tomar un mes antes del inicio del embarazo y durante el primer trimestre de la gestación. La información disponible en la actualidad muestra que la eficacia de la intervención sería de 50% en ausencia de antecedentes familiares de defectos de cierre del tubo neural incluyendo espina bífida. La eficacia, por otra parte, sería de 71% en presencia de estos antecedentes. La probabilidad de falla de la estrategia sería por lo tanto de 50% en el primer escenario y de 29% en el segundo.

Si la intervención de salud pública fallara, no todo estaría perdido, ya que la tecnología vigente permitiría el diagnóstico oportuno de la espina bífida en el segundo trimestre de la gestación por detección de niveles elevados de una sustancia llamada alfa-fetoproteína en el suero materno. Ante un resultado positivo podrían realizarse pruebas más específicas, como la detección de esta sustancia en líquido amniótico (obtenido por amniocentesis) o mediante realización de ultrasonografía fetal de alta resolución. El diagnóstico confirmatorio de este padecimiento permitiría a la medicina preventiva nuevamente actuar con oportunidad para evaluar, mediante exploración clínica minuciosa de la recién nacida y un estudio de resonancia magnética nuclear, la dimensión del daño, para así llevar a cabo una intervención quirúrgica reconstructiva lo más tempranamente posible. Para vislumbrar qué tan diferente sería el futuro de Frida con las nuevas tecnologías de salud pública, asumamos los siguientes supuestos basados en la teoría de probabilidad: 1) la sensibilidad o capacidad de las pruebas diagnósticas de espina bífida es de 100%; 2) ante un diagnóstico confirmatorio se realiza cirugía reconstructiva; 3) en ausencia de intervención con ácido fólico, el riesgo de Frida de padecer espina bífida sería el mismo que tuvo en el siglo pasado, es decir de 100%; 4) la eficacia de la vacuna antipoliomielítica (esquema bá­sico de vacunación más dosis adicionales) es de 100%.

En términos estadísticos, y por convenir así a la comprensión de los resultados, consideremos la intervención de salud pública como un experimento, el cual se desarrolla en dos escenarios posibles. En el primero, la médica no encuentra ante­cedentes familiares de defectos de cierre del tubo neural o espina bífida en el historial clínico de Carmen Calderón ni de Guillermo Kahlo ni de las hermanas de Frida. En el segundo, estos antecedentes son positivos. A partir de los hallazgos referidos, se decide elaborar un modelo estocástico de árbol de decisión, para lo cual se establecen parámetros cuyos valores, a excepción de la eficacia de la cirugía reconstructiva, varían de acuerdo a los dos escenarios previamente comentados: 1) eficacia preventiva del ácido fólico: a) sin antecedentes familiares de defectos de cierre del tubo neural: 0.50; b) con antecedentes familiares de defectos de cierre del tubo neural: 0.71; 2) eficacia de la cirugía reconstructiva: 0.95.

El espacio muestra del experimento incluye todos los resultados posibles de la intervención, por lo que la probabilidad de que ocurra un resultado X es superior o igual a cero y, dado que estos eventos son mutuamente excluyentes, la suma de todos los resultados será igual a 1, de donde se desprende que el espacio de probabilidad de un resultado posible es el intervalo unitario: 0< P(R) < 1.

En el modelo se consideran cuatro resultados posibles, y la probabilidad de que ocurra cualquiera de ellos estará condicionada en la primera etapa del experimento al éxito o el fracaso de la dotación de ácido fólico a la madre de Frida en los tiempos anteriormente establecidos. En la segunda etapa del experimento, se realizará cirugía reconstructiva oportuna de espina bífida, cuyo éxito o fracaso condicionará la probabilidad de que se presenten los resultados
3 o 4 del espacio muestra que a continuación se describen:

espacio muestra= {X, Y},
donde: X= éxito de ácido fólico.
Y= éxito de la cirugía reconstructiva oportuna.

Los resultados posibles serían los siguientes: 1) probabilidad condicional de que Frida recién nacida no padezca de espina bífida, dado que su madre se expuso a la intervención exitosa de dotación de ácido fólico; 2) probabilidad condicional de Frida recién nacida de padecer espina bífida sin secuelas dado que su madre se expuso a una intervención fallida con ácido fólico, y dado que se expuso también a una cirugía reconstructiva exitosa; 3) probabilidad condicional de que Frida recién nacida padezca espina bífida con secuelas dado que Carmen Calderón se expuso a una intervención fallida con ácido fólico, y dado que se expuso a una cirugía reconstructiva no exitosa; 4) probabilidad de que Frida nazca sin espina bífida o de que nazca con ella pero no presente secuelas.

Analicemos las probabilidades en cada uno de los escenarios. Dado que la probabilidad de que ocurran los resultados 2 o 3 depende del fracaso de la intervención con ácido fólico y del éxito o fracaso de la cirugía reconstructiva, se trata, de acuerdo con la teoría de la probabilidad, de probabilidades condicionales con ocurrencia conjunta de dos eventos, por lo que se aplica la regla de la multiplicación para estimar la probabilidad del evento final.

Por otra parte, la probabilidad (P) de que Frida nazca sin espina bífida o de que no presente secuelas de este padecimiento estará dada por la suma de las probabilidades individuales de cada evento. Por lo que los resultados esperados podrían ser descritos por las siguientes expresiones:

Escenario 1. Sin antecedentes familiares de defectos de cierre del tubo neural o espina bífida:
1. P(nacer sin espina bífida)
P(x)= 0.50

2. P(nacer con espina bífida y no tener secuelas)
(1-P(x)) * P(y) = 0.5 × 0.95
= 0.475
3. P(nacer con espina bífida y presentar secuelas)
(1-P(x)) * (1-P(y)) = 0.5 × 0.05
= 0.025

4. P(nacer sin espina bífida, o con ella y no tener secuelas)
P(x) + ((1-P(x)) * P(y))= 0.5 + 0.475
= 0.975
Escenario 2. Con antecedentes familiares de defectos de cierre del tubo neural o espina bífida:
1. P(nacer sin espina bífida)
P(x)= 0.71

2. P(nacer con espina bífida y no tener secuelas)
(1-P(x)) * P(y)= 0.29 × 0.95
=0.276
3. P(nacer con espina bífida y presentar secuelas)
(1-P(x) * (1-P(y))= 0.29 × 0.05
=0.014

4. P(nacer sin espina bífida, o con ella y no tener secuelas)
P(x) + ((1-P(x)) * P(y))= 0.71 + 0.276
= 0.986

Los resultados de la intervención de salud pública y de la medicina preventiva en cuanto a limitación del daño, en términos porcentuales, son conmovedores: la probabilidad de nacer sin espina bífida o de no presentar secuelas sería de 97.5% en el escenario 1 y de 98.6% en el 2. La predicción de este modelo por lo tanto es que si Frida naciera en 2007, y su madre y ella misma se expusieran a las intervenciones de salud pública disponibles, tendría una probabilidad superior a 97% de desarrollarse como una niña feliz y saludable. Dado que se trata de un modelo estocástico, los resultados son solamente probables, por lo que se realizó análisis de sensibilidad del modelo a cambios en dos parámetros clave: la eficacia de la intervención con ácido fólico, la cual se modificó a 40% y posteriormente a 60% en el escenario 1, y a 61% y 81% en el escenario 2. Adicionalmente, regresando a los valores originales de los pa­rámetros anteriormente modificados, se varió el valor del pará­metro de la eficacia de la cirugía reconstructiva, asignándole valores de 85% y 100%, independientemente de los escenarios previamente aludidos. Los resultados auguran igualmente una infancia feliz para Frida si las condiciones iniciales hubieran sido diferentes: 92.5% a 100% de probabilidad de nacer sin espina bífida o de no presentar secuelas de este padecimiento.
 
 
Poliomielitis
 
A partir de las características de transmisión de la poliomielitis, aun cuando las condiciones de vivienda y saneamiento básico en general siguen siendo favorables a la diseminación de los poliovirus en México, la probabilidad de que Frida adquiriera la poliomielitis paralítica sería de 0, debido a que este padecimiento ha sido erradicado del país (último caso en 1990) y del continente americano (último caso en Perú en 1991), gracias a la vacunación universal contra la poliomielitis. La vacunación ha permitido sin duda el avance hacia la erradicación mundial de la enfermedad, objetivo proclamado por la Organización Mundial de la Salud en 1988. Actualmente la enfermedad se encuentra acorralada en países como Afganistán, Pakistán, India, Nigeria y otros, algunos de los cuales son víctimas de invasiones extranjeras o de conflictos bélicos internos. Nuestro modelo predice entonces que Frida tendría 100% de probabilidad de no padecer esta terrible enfermedad. El futuro le sonreiría a la pequeña Frida en su sexto aniversario, cuando la atacó la poliomielitis, y nadie le diría por tanto “pata de palo”, como la llamaban algunos niños en la escuela.
 
Accidente por vehículo de motor
 
Si Frida viviera su adolescencia y juventud en la ciudad de México en el año 2025, y asumiendo que se transportara a la universidad, a las reuniones políticas o a los museos y conciertos de rock en transporte público, sería difícil estimar la probabilidad de que sufriera un accidente tan trágico y aparatoso como el que vivió en el siglo pasado. Sin embargo, los recursos terapéuticos contemporáneos probablemente evitarían la mayoría de las 32 intervenciones quirúrgicas a las que fue sometida en el siglo pasado y seguramente le ofrecerían una mejor calidad de vida.

En conclusión

Frida nació y vivió en el centro de grandes convulsiones políticas y sociales. El secreto de su singular proceso de adaptación a la invalidez relativa radicó probablemente en la combina­ción creativa de sufrimiento, hedonismo y fe en el comunismo.

A consecuencia de la espina bífida, de la po­lio­mielitis paralítica, de los politraumatismos sufridos en 1925 y probablemente también a causa de las numerosas cirugías a las que fue sometida, Frida tuvo que pasar por periodos prolongados de inmovilidad en cama, lo que pudo producir problemas de circulación en la extremidad inferior derecha, inflamación, infección (celulitis) y ulceración de la piel que finalmente terminaría en gangrena y amputación de la pierna derecha en 1953. El dolor cada vez menos tolerable, aumentó su dependencia de fármacos derivados de la morfina, presentando además depresión e ideación suicida. Falleció finalmente el 13 de julio de 1954 con diagnóstico de embolia pulmonar. Días antes había escrito en su diario: “Espero alegre la salida y espero no volver jamás”. Las tecnologías disponi­bles ahora en salud pública modeladas en este trabajo, muestran que gran parte de su dolor podría actualmente ser evitado, otorgando a Frida mayoritariamente el derecho a la  felicidad.
 
Por último, puede afirmarse que a cien años de su nacimiento, Frida ha adquirido el don de la ubicuidad, haciendo acto de presencia en diferentes escenarios del mundo, donde mujeres y jóvenes enarbolan su imagen, más allá de la comercialización irrespetuosa, como símbolo de tenacidad y rebeldía ante la desesperanza y la oscuridad.
Referencias bibliográficas

American Academy of Pediatrics. 1999. “Folic acid for the prevention of neural tube defects”, en Pediatrics; 104: 325-327.
Budrys, V. 2006. “Neurological deficit in the life and works of Frida Kahlo”, en European Neurology; 55: 4-10.
Cherry, J. D. 1998. “Enteroviruses: Picornaviridae. Coxakievirus, echoviruses, and polioviruses”, en R. D. Feigin y J. D. Cherry (eds.). Textbook of pediatric infectious diseases. Elsevier, Filadelfia.
Consejo Superior de Investigación Científica (España). Nota de prensa (19/07/2006): “Una investigación del cisc demuestra que algunos cuadros de Van Gogh plasman la teoría de la turbulencia”. Disponible en: www.cisc.es/prensa/noticias2006
Espiño, I. 2006. “Medicina e historia. Los dolores de Frida”. Entrevista con el cirujano ortopedista James G. Gamble de la Universidad de Stanford, en el periódico El Mundo, Madrid. 25 de septiembre.
Gudenko, B. V. y A. Ya. Khinchin. 1962. An elementary introduction to the theory of probability. Dover Publications, Nueva York.
Halstead, L. S. 1998. “Post-polio syndrome”, en Scientific American; 278: 42-47.
Jubelt, B. y J. C. Agre. 2000. “Characteristics and management of postpolio syndrome”, en Journal of the American Medical Association; 284: 412-414.
Kahlo, F. 2001. Diario. Un íntimo retrato. 2ª edición, La vaca independiente, México.
Lomas, D. y R. Howell. 1989. “Medical imaginary in the art of Frida Kahlo”, en British Medical Journal; 299: 1584-1587.
Más Lago, P. 1998. “Neuropatía epidémica. Hipótesis etiopatogénica”, en Revista Cubana de Medicina Tropical; 50 (supl.): 259-263.
Oldstone mba. 2002. Virus, pestes e historia. Fondo de Cultura Económica, México.
Ramis, A. y M. Rina. 2004. “La causalidad compleja: un nuevo paradigma causal en epidemiología”, en Revista Cubana de Salud Pública (online); 30 (3).
Tibol, R. 2007. Escrituras de Frida Kahlo. Lumen, México.
_______________________________________________________________
José Luis Díaz Ortega
Centro de Investigación sobre Enfermedades  Infecciosas,
Instituto Nacional de Salud Pública.
 
Es médico cirujano, con especialidades en inmunología y en epidemiología, se desempeña como investigador en ciencias médicas en el Centro de Investigación sobre Enfermedades Infecciosas del Instituto Nacional de Salud Pública y es profesor del curso de verano “Vacunas y Salud Pública”.
como citar este artículo
Díaz Ortega, José Luis. (2008). Fenomenología del dolor en Frida Kahlo. Reflexiones desde la salud pública. Ciencias 89, enero-marzo, 4-13. [En línea]
  ←Regresar al índice artículo siguiente→
1 2
     
Génesis de la Sociedad Química Mexicana
Se describe el proceso de gestación de la Sociedad Química Mexicana durante el periodo de 1926 a 1934. El estudio también intenta analizar su publicación, Revista Química, inmerso en un contexto educativo de la Escuela Nacional de Ciencias Químicas de la Universidad Nacional.
Felipe León Olivares
conoce más del autor
 
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
La génesis de las asociaciones profesionales de los químicos es un proceso que está ligado indisolublemente a las instituciones formadoras de químicos y a sus órganos de expresión intelectual. En México, éste se inicia con la fundación del Real Seminario de Minería y cristaliza, a principios del siglo xx, con la fundación de la Escuela Nacional de Industrias Químicas. Durante los primeros años de la escuela se creó la primera agrupación de profesionales de la química, nombrada Sociedad Química Mexicana y la Revista Química, su órgano de difusión.

El estudio y la enseñanza de la química en México comenzaron su desarrollo por el camino de la metalurgia y la farmacia. Durante el largo periodo de dominación española la extracción de la plata y el oro fueron la columna vertebral de la economía novohispana. A finales del siglo xviii, ante el desarrollo de la ciencia y la tecnología en Europa, la monarquía española fundó el Real Seminario de Minería como una alternativa para formar los técnicos y los ingenieros que modernizarían la industria minera. En este contexto, la enseñanza de la química forma parte del currículo de la formación de ingenieros. El proyecto académico del Real Seminario de Minería no alcanzó a desarrollar sus propósitos por las profundas transformaciones políticas en Europa y en América. La invasión de Napoleón a España y la guerra de independencia de México trastocaron el proyecto académico.

En el siglo xix, aunque se vive una intensa lucha política para definir el proyecto de nación del naciente Estado mexicano, se desarrolla incipientemente la cultura científica. El Real Seminario de Minería se transforma en Colegio de Minería y se introducen algunos cursos de metalurgia para los estudiantes de ingeniería en las carreras de Ensayador, Apartador de Oro y Plata y Beneficiador de Metales.

En 1833 se funda la Escuela de Ciencias Médicas que, más tarde, en 1842, se transformará en Escuela de Medicina. En el proyecto curricular de la Escuela de Ciencias Médicas se estableció la especialización de farmacia y, en ésta, se incluyó el estudio de la química. En esta institución se formaron los destacados científicos que desempeñaron una función muy importante a finales del siglo XIX y principios del XX. Algunos de los farmacéuticos que sobresalen de estas generaciones son Alfonso Herrera, Andrés Almaraz, Alfonso L. Herrera, Juan Manuel Noriega, Ricardo Caturegli, Adolfo P. Castañares, Francisco Lisci y Roberto Medellín. A pesar de que los egresados de la carrera de Farmacia eran pocos, apenas cinco estudiantes por año, lograron manifestar los intereses propios de una comunidad académica y fundaron las primeras sociedades científicas.

Las primeras sociedades científicas

Durante el siglo XIX se fundaron varias sociedades científicas. En 1839 los farmacéuticos fundaron la Academia de Farmacia. Esta asociación profesional, entre otras cosas, escribió y publicó, en 1846, la primera Farmacopea de México. Más tarde, en 1849, Leopoldo Río de la Loza, con el propósito de difundir la ciencia y, particularmente, la química, impulsó la formación de la Sociedad Química con alumnos del curso de Química Médica de la Escuela de Medicina. La sociedad tuvo un periodo de vida muy corto, probablemente por la guerra con Estados Unidos o por la inestabilidad política de la época, sin embargo, la Sociedad Química expresa la importancia de las sociedades científicas para impulsar el desarrollo científico del país.

Posteriormente, con el triunfo del liberalismo, en 1867, empezó una nueva etapa histórica para nuestro país y, a su vez, surgieron nuevas posibilidades para el desarrollo científico. En 1871, por ejemplo, se reorganizó la Academia de Farmacia y se fundó la Sociedad Farmacéutica Mexicana. Entre sus fundadores se encontraban Leopoldo Río de la Loza, González Moro, Gumesindo Mendoza y José María Bustillos. En esta nueva etapa editaron la Nueva Farmacopea Mexicana y publicaron la revista Farmacia, en la que abordaron los problemas del ejercicio profesional y la necesidad de crear una escuela especial de farmacia.

En 1868 se fundó la Sociedad Mexicana de Historia Natural. Esta asociación tenía muy claro el momento históri­co del país y se propuso realizar estudios que impulsaran su de­sarrollo. Estuvo organizada en las secciones de zoología, botánica, mineralogía, geología, paleontología y ciencias auxiliares. Esta asociación fue muy importante porque formó a la nueva generación de científicos y, en 1884, impulsó la fundación de la Sociedad Científica “Antonio Alzate”.

En esta época también se creó el Instituto Médico Nacional. En 1888, este instituto se propuso estudiar la flora, la fauna, la climatología y la geografía del país para fortalecer la industria farmacéutica nacional y desarrollar la farmacopea nacional por medio del análisis químico de las plantas. Los estudios que se realizaron en el instituto se hicieron desde la perspectiva de los médicos, y no podía ser de otra manera, porque la comunidad académica era de médicos y no de quími­cos. Otra institución relevante fue el Instituto Geológico Nacional, fundado en 1891, en donde Juan Salvador Agraz, ingeniero químico formado en el Institut de Chimie Appliquée y en la Universidad de Berlín, impartió la cátedra de Química en su sección de análisis químico y metalurgia.

La química en esta época existía al lado de la medicina, la botánica o la metalurgia, es decir, no había logrado su autonomía disciplinaria. Sin embargo, el desarrollo de la ciencia durante el periodo porfirista generó las condiciones para crear una institución especializada en la enseñanza de la química.

La Escuela de Química

El olor a pólvora aún no se disipaba cuando ya estaba en proceso un nuevo proyec­to educativo. En 1916, en el barrio de Tacuba, el ingeniero químico Juan Salvador de Agraz, con mucho entusiasmo fundaba la Escuela Nacional de Industrias Químicas. La fundación de esta institución fue fundamental para el desarrollo ulterior de la química en México, en el sentido que se constituyó como una disciplina científica autónoma, independiente de la medicina y se inició la especialización en la formación de los químicos al establecerse los estudios de químico industrial y otras carreras técnicas.

El propósito del proyecto educativo de la escuela, por otra parte, constituye una respuesta a las necesidades crecientes de la industria moderna. En adelante, la manufactura de diversos productos estará relacionada con las industrias químicas. Con la creación de la escuela se pretendió impulsar y fo­mentar la industria nacional a través de la difusión de conocimientos teóricos y prácticos relacionados con la química.

La fundación de la escuela también generó una profunda reflexión sobre el perfil profesional de los químicos. Para algunos, la formación de los químicos debería limitarse a una formación técnica y, para otros, la formación de los químicos debería elevarse a un nivel profesional, equivalente a los estudios de licenciatura. Por lo pronto, al año siguiente, en diciembre de 1917, la Escuela Nacional de Industrias Químicas se incorporó a la Universidad Nacional con el nombre de Facultad de Ciencias Químicas, bajo la dirección de su fundador. El siguiente paso lo darían los farmacéuticos al trasladar los estudios de farmacia que ofrecía la Escuela Nacional de Medicina a la Facultad de Ciencias Químicas. La propuesta, apoyada por la Sociedad Farmacéutica Mexicana, estuvo a cargo del farmacéutico Adolfo P. Castañares.

Los médicos, a finales del siglo XIX, aún consideraban a los farmacéuticos como técnicos. Los farmacéuticos, por su parte, comprendieron que su futuro profesional no estaba al lado de la medicina sino de la química y solicitaron su incorporación a dicha facultad. A principios del si­glo xx, los farmacéuticos consideraban que la farmacia debía profesionalizarse. Castañares argumentó que la profesión de farmacéutico requería independizarse de la medicina y, como disciplina científica, necesitaba apoyarse en conceptos teóricos de la química general y del análisis químico, al igual que un químico industrial, como lo concebía Agraz. Des­pués de asumir la dirección de dicha facultad, en 1919, Adolfo P. Castañares invitó a colaborar a algunos compañeros de la carrera de farmacia. De esta manera, Roberto Medellín, Ricardo Caturegli y Juan Manuel Noriega, egresados de la Escuela Nacional de Medicina, se incorporaron como docentes a la facultad. Esta comunidad profesional de farmacéuticos fue la encargada de institucionalizar la enseñanza de la química durante los siguientes años en la facultad.

En 1920, cuando el farmacéutico Francisco Lisci asumió la dirección de la facultad, generó un nuevo proyecto curricu­lar para la carrera de químico farmacéutico que incluía asignaturas como Química Orgánica Experimental, Análisis Químico Cualitativo y Cuantitativo, Análisis Orgánico Elemental y Análisis Especiales, Microbiología, entre otras asignaturas. De esta manera se transitaba del químico farmacéutico como preparador de fórmulas galénicas al profesionista que realizaba análisis químicos o intentaba preparar un medicamento.

Durante la primera década de vida de la escuela se fueron conformando los planes de estudio de las carreras profe­sionales al lado de las carreras técnicas como la de Perito en Industrias, que implicaba cursar los dos primeros años de la carrera de químico industrial, así como la de Prácticos en Industrias que se cursaba en un año. En ambos estudios técnicos sólo se requería el certificado de educación primaria superior. También se impartían cursos industriales que eran de materias grasas, la gran industria química, de fermentaciones, de tanantes y curtientes, de aceites esenciales, látex, gomas y resinas y del petróleo.

Con el propósito de generar un nuevo proyecto educativo de acuerdo con las necesidades planteadas por la Revolución Mexicana se creó la Secretaría de Educación Pública en 1921. El director de Educación Técnica, el farmacéutico Roberto Medellín, generó un programa de becas para que los alumnos más sobresalientes realizaran estudios en Alemania y Francia. Los primeros estudiantes becados, en 1921, fueron Fernando Orozco, Marcelino García Junco, Ángel Solache, Agustín Solache, Alfonso Romero, Luis de la Borbolla, Teófilo García Sancho, Alberto Sellerier, Enrique Sosa y Praxedis de la Peña. Al año siguiente fueron becados Fernando González Vargas, Francisco Díaz Lombardo, Juan Chávez, Eduardo Castensen y Raúl Colorado.
Al poco tiempo regresaron los estudiantes que viajaron al extranjero y se incorporaron en diferentes espacios sociales. Algunos se incorporaron al Consejo Superior de Salubridad, en Hacienda, en las refinerías de petróleo o en las fábricas de papel. Otros profesionales se integraron al cuerpo docente de la Facultad de Ciencias Químicas, en donde Fernando Orozco impartió la cátedra de Análisis Químico Cuantitativo; Marcelino García Junco la de Química Orgánica y Francisco Díaz Lombardo la de Análisis Químico Cualitativo. Fernando González Vargas se incorporó a la Fundición Nacional de Artillería.

Los químicos formados en Europa transformaron progresivamente la vida académica de la facultad. Sus cátedras incorporaron las nuevas concepciones teóricas y metodológicas de su disciplina. Al mismo tiempo, también se fortaleció la ne­ce­sidad de formar una asociación de profesionales de la química.

Fundación de la Sociedad Química Mexicana

En agosto de 1926 un grupo de académicos y profesionales de la química decidieron fundar una sociedad cooperativa, que nombraron Sociedad Química Mexicana. La sociedad reunió a diferentes profesionales de la química de distintos espacios laborales; entre los socios fundadores se encontraba Francisco Lisci, Juan Manuel Noriega, Ignacio Rentería M., Alejandro Terreros, Rafael Illescas, Carlos Herrera, Esther Luque, Praxedis de la Peña, Fernando Orozco, Manuel Maza, Eugenio Álvarez, Francisco Noriega, Manuel González de la Vega, Luis de la Borbolla, Guillermo López, Elías Gómez, Nelly Frap, Juana Hube, Honoria Olivo, Enrique Sosa, Bernardo Izaguirre, Ignacio García, Lorenzo Pasquel, Alfonso Castro, Juan Chávez y Teófilo García. Algunos se formaron en la Escuela Nacional de Medicina como farmacéuticos, otros en la Escuela Nacional de Industrias Químicas y en la Facultad de Ciencias Químicas.

El cuerpo directivo de la Sociedad se integró de la siguiente manera: como presidente, el farmacéutico Francisco Lisci; como secretario, el químico técnico Ignacio Rentería; como tesorero, el farmacéutico Juan Manuel Noriega y como vocales, los ingenieros químicos Alejandro Terreros y Rafael Illescas.

En 1927 la Sociedad Química Mexicana se planteó los siguientes objetivos: “Agrupar a todos los químicos mexicanos, para ayudarse mutuamente y velar por los intereses de la profesión. Ayudar al gobierno y a las empresas particulares a tener personal idóneo. Proporcionar todas las facilidades a los socios para buscar trabajo. Colaborar con el poder público a fin de conseguir el más exacto cumplimiento de las disposiciones legales relativas al ejercicio científico de la profesión química en toda la república. Trabajar por la implantación de las reformas legislativas que tiendan a mejorar dicha profesión. Fundar una publicación como órgano de la Sociedad Química Mexicana, que se denominará Revista Química. Establecer un laboratorio para cubrir las necesidades de la Sociedad, que estará sujeta a una reglamentación interior, entre otros estatutos”.

El gobierno federal tomó nota de esta situación y recomendó al secretario de Gobernación para contratar alumnos egresados de la Facultad de Química y Farmacia de la Universidad Nacional.
En 1929, por ejemplo, la Sociedad solicitó al licenciado Antonio Castro Leal, rector de la Universidad Nacional, para que se contratara a los químicos porque, en algunos casos, éstos habían sido sustituidos por médicos. Al respecto argumentaron que eran actividades profesionales diferentes y, por lo mismo, con objetivos y funciones diversas. La Sociedad planteó la necesidad de respetar el ámbito profesional de los químicos.

Los químicos asociados también desempeñaron funciones de consultoría. En cierta ocasión la Secretaría de Hacienda y Crédito Público les solicitó asesoría sobre cómo utilizar dieciocho mil toneladas de arsénico blanco, material que tuvo en existencia la compañía minera “La Rosita”, en el estado de Chihuahua. En otro momento, el ingeniero químico Pablo Hope y Hope, jefe del laboratorio químico del Departamento de Investigación de la Oficina Federal para la Defensa Agríco­la, informó sobre las propiedades y métodos de fabricación del arseniato de calcio, con el propósito de combatir las plagas de los plantíos de algodón.

Los primeros años de vida de la Sociedad transcurrieron en un México que buscaba la estabilidad política después de la guerra cristera y cuando se logró la autonomía universitaria. En 1930 hubo cambio de mesa directiva en la Sociedad, tocó al doctor Fernando Orozco ser el presidente; el químico Guillermo García Colín, el secretario; el ingeniero quími­co Manuel Dondé, el tesorero; y los químicos farma­céuticos Esther Luque y Carlos Herrera, los vocales. En este año la sociedad estaba integrada por cuarenta y dos miembros, la mayoría académicos de la Facultad de Química y Farmacia y la Escuela Práctica de Industrias Químicas.

Entre tanto, los miembros de la Sociedad, durante sus primeras reuniones, expresaron la necesidad de contar con una publicación que manifestara sus intereses como agrupación profesional y se inició la edición de la Revista Química.

La Revista Química

La Sociedad Química Mexicana consideró de interés para los químicos la publicación de la revista. Se trataba de difundir algún tema relevante para los industriales, agricultores, farmacéuticos y, en general, para todos aquellos que tuvieran interés en los últimos adelantos de la química, tanto teórica como aplicada.

La dirección de la Revista Química estuvo a cargo del doctor Teófilo García; como jefe de redacción, el ingeniero químico Manuel González de la Vega; y como administrador, el ingeniero químico Raúl Colorado. El primer número de la publicación apareció en febrero de 1927; los siguientes números fueron trimestrales y, a partir de 1930, la publicación apareció mensualmente. La Sociedad, a través de su publicación, manifestó su interés por crear un plan nacional de desarrollo industrial para sustituir las importaciones. En este sentido, el ingeniero químico González de la Vega se expresó en su ar­tícu­lo “Las aberraciones de las importaciones”: “Para nadie es un secreto que se importan fuertes cantidades de barnices de muy diversas especies, tanto para usos en interiores de habitaciones como en exteriores; la mayor importación proviene de los Estados Unidos de Norte América y la mayor parte de los barnices americanos están hechos a base de brea, materia prima que tenemos nosotros en abundancia y que exportamos a los estados unidos de norte américa. Los industriales americanos transforman nuestra materia prima en barnices, nosotros importamos sus barnices y les enviamos nuestra brea. ¿No es esto una aberración? ¿No indica a las claras la falta de desarrollo in­dustrial? ¿No es un error gra­ve en un país que tiene el pro­ble­ma pavoroso de la falta de trabajo, el exportar su materia prima para importar un producto elaborado? El dinero que entra en concepto de nuestra exportación de materia prima es inferior al que sale por concepto de importación del producto elaborado; este dinero va a hacer florecer industrias extrañas, a engrosar capitales extranjeros, a dar vida y bienestar a innumerables trabajadores extranjeros, mientras los nuestros padecen hambres o se nulifican por la miseria. La aberración es patente. El público que prefiere la mercancía extranjera inferior a la nacional hace labor de lesa patria. El comerciante que denigra el producto nacional ejerce una labor criminal”.

Los cambios en la revista se fueron manifestando al paso de los años. En febrero de 1931, el ingeniero químico Manuel González de la Vega asumió la dirección y el ingeniero químico Edmundo de Jarmy, la jefatura de redacción. Para 1932, el nombre de la revista cambió a Revista de Química, aunque mantuvo la misma dirección, ahora el lema fue “La industria necesita la dirección técnico-química para poder prosperar”. Es muy probable que la revista se haya editado hasta 1933, cuando la Sociedad Química Mexicana tomó un nuevo rumbo al inicio del periodo cardenistas.

La Revista Química no tuvo secciones definidas; sus artículos consistían en cuestiones teóricas de la química y traducciones de la sección 7 del Chemical Abstracts, correspondientes a determinaciones analíticas de interés industrial que pudieran adaptarse al medio nacional, así como temas relacionados con las industrias minera, metalúrgica y farmacéutica. Por ejemplo, en el número 1, de 1927, aparecieron los artículos “Introducción al estudio de la concentración de iones hidrógeno”, de Alejandro Terreros; “Sobre la reacción de Shiff”, de Rafael Illescas y Chávez Orozco J.; “Teoría del teñido”, de Ignacio M. Rentería, entre otros trabajos. En el volumen VI, número 1, de 1931, los artículos de la Revista Química fueron “Sobre la producción de ­sueros y vacunas en México”, de Alfredo Rubio; “Productos farmacéuticos” de Guillermo García Colín; “Manufactura y refinación de los aceites lubricantes”, de Benjamín Arkin, entre otros trabajos.

También la Revista Química dio muestra de la actividad académica en sectores industriales como la metalurgia, textiles y aceites comestibles. Algunos artículos con esta temática fueron “Datos analíticos de trigos y harinas del país”, de Rafael Illescas; “Utilidad práctica del conocimiento estructural de los aceros”, de Francisco González; “Manteca vegetal, su composición e importancia”, de P. de la Peña. En relación a la industria petrolera sólo apareció un artículo en estos años, que fue la “hidrogenación del petróleo crudo y de sus derivados”, de Fernando Pacheco.

La Revista Química fue un medio de publicidad de carácter técnico-industrial. Algunas empresas como el Laboratorio Químico Central, la Compañía Industrial Refinadora de Aceites Vegetales, Productos Farmacéuticos Senosiain, Beick Félix y Compañía, la Industria Farmacéutica Nacional y Control Químico, la utilizaron como medio de publicidad de sus productos químicos a principios de la década de los treintas.

Después de la Primera Guerra Mundial la industria farmacéutica comienza a desarrollarse aceleradamente en Europa y Estados Unidos y se expande por otras regiones. En México empieza a manifestarse a principios de los años treinta. Su ingreso al mercado nacional lo realizaron representantes comerciales de productos importados, que más tarde se constituyeron como filiales de las grandes empresas farmacéuticas. Su actividad consistía en realizar actividades de mezcla, formulación y empaquetado de especialidades farmacéuticas a escala industrial. Algunas empresas de esta época son The Sydney Ross Co., S.A., 1929; Johnson&Johnson de México, S.A., 1931; los Laboratorios Hormona y Chinoin Productos Farmacéuticos, S.A., 1932; Grupo Roussel, S.A., 1933; los Abbott Laboratorios de México, S.A., 1934; y la Bayer de México, S.A., 1937. De estas empresas sólo Chinoin Productos Farmacéuticos, S.A. fue de capital mexicano.

La industria química estaba representada por tres firmas. Beick Félix y Compañía, S.A., que producía ácido sulfúrico, cola y superfosfatos. Los técnicos de la empresa eran alemanes, a excepción de un pasante de la Escuela Nacional de Ciencias Químicas que estaba en el laboratorio y tenía prohi­bido pasar a la fábrica. La Chemical Works, S.A., cuya producción era de ácido sulfúrico, ésteres, ácido acético, ácido nitroso, acetato de amilo y creolina. Finalmente, en Orizaba existía otra empresa llamada El Electrón, que producía hidróxido de sodio, pero debido a las dificultades para capturar el cloro, cerró sus instalaciones. La industria química en México era incipiente, así como el desarrollo industrial. Por otra parte, la inestabilidad política del país hacía difícil la instalación de fábricas de productos químicos.

El químico Guillermo García Colín, secretario de la Sociedad, informó que México importaba anualmente cerca de treinta millones de pesos en drogas. Esto significaba que el país no producía drogas, ni bicarbonato de sodio, nada.

¿De dónde viene ese bicarbonato? De Inglaterra. ¿Pedimos magnesia calcinada, carbonato de magnesia o alguna preparación de patente nacional a base de magnesia? La magnesia de cualquier forma viene de Inglaterra. El farmacéutico la vende al menudeo y el fabricante nacional la importa para envasarla. Un caso evidente, el bicarbonato de sodio y magnesia, dos drogas de consumo en medicina de uso cotidiano de las que no se producía ni siquiera un gramo en México. Al igual que los laxantes, algún derivado arsenical ­inyectable, sales orgánicas de calcio, el cuernecillo de centeno para hemorragias en la mujer, el clorhidrato de emetina para la disentería amibiana. En general, en una droguería y farmacia en México, con excepción de alcohol, glicerina y plantas medicinales nacionales, no existe ninguna droga derivada de la flora medicinal nacional, ni medicamento de patente cuyo principio activo o medicinal sea nacional.

Todo era importado y simplemente envasado en México. Razón por la que los químicos e industriales señalaban como una necesidad apremiante el desarrollo de una industria estratégica, la farmacéutica. También fue necesario impulsar esta industria en escuelas técnicas y en los laboratorios del gobierno.

El Laboratorio Químico Central, una empresa privada mexicana, en su Departamento de Farmacología intentó incorporase a la industria farmacéutica, desarrollando estudios sobre plantas medicinales, como la tronadora o retama, hierba que gozaba de cierta popularidad como agente curativo de la diabetes; al respecto se logró obtener una fracción cristalizada y soluble que llamaron glucolisina, aunque el estudio clínico-farmacológico de una droga requiere ante todo un fármaco de composición fija, ya que la composición química definida en estos casos es prácticamente compleja. Otros estudios semejantes consistieron en el estudio farmacológico del extracto de la planta conocida como zoapatle —a su formulación la llamaron eriocomina—, la cual presentó propiedades ocitócicas.

Una de las acciones más importantes en investigación por parte del Estado fueron los trabajos del Instituto de Higiene del Departamento de Salubridad Pública. El instituto elaboraba productos biológicos como antitoxina diftérica, suero antidisentérico, suero anti-alacrán, suero preventivo contra el sarampión, vacunas como Pertussis, tífica-paratífica, ­equipos para la inmunización activa contra la escarlatina, entre otros, que se utilizaban para las campañas sanitarias de dicho departamento.
 
Conclusiones

La Sociedad Química Mexicana es la primera asociación profesional de los químicos mexicanos. Sus fundadores no podrían ser otros que los farmacéuticos que le dieron vida a la Escuela Nacional de Industrias Químicas y a la Facultad de Ciencias Químicas. Por supuesto, los egresados de la facultad también serían fundadores de la Sociedad Química Mexicana.La Sociedad se fundó en 1926, a diez años de la creación de la Escuela Nacional de Industrias Químicas. Al año siguiente, en 1927, surgirá la Revista Química que se convirtió en la voz y expresión de los intereses profesionales de los químicos mexicanos, así como la de sus anhelos y es­peranzas.

En el primer número de la Revista Química se tuvieron muy presente los intereses de los mexicanos, al interesarse en el desarrollo de la industria mexicana como una estrategia para lograr el bienestar de la nación. La fundación de la Sociedad Quími­ca Mexicana es la síntesis del desarrollo de la Química en México durante el siglo xx y del surgimiento de la Facultad de Ciencias Químicas como institución formadora de los químicos.
________________________________________________________________
Felipe León Olivares
Escuela Nacional Preparatoria, Universidad Nacional Autónoma de México.
 
Es químico por la Facultad de Química de la unam y doctor en Investigaciones Educativas por el Cinvestav-ipn. Es profesor de química en la Escuela Nacional Preparatoria de la unam. Sus trabajos de investigación se centran en la historia de la química en México durante el siglo XX.

como citar este artículo

León Olivares, Felipe. (2008). Génesis de la Sociedad Química Mexicana. Ciencias 89, enero-marzo, 58-67. [En línea]

  ←Regresar al índiceartículo siguiente→
  1 2  
  de la red
Geomanía
 
 
Susana Biro
conoce más del autor
   
       
HTML ↓ PDF ←Regresar al índice/artículo siguiente→
       
Si la efectividad de un proceso de enseñanza se mide por la cantidad de información que se recuerda a largo plazo y la capacidad para relacionar ésta con un contexto más amplio, entonces mi experiencia con la geografía en la primaria fue un fracaso. De mi ya distante paso por las aulas recuerdo solamente dos cosas: mucha presión antes de los exámenes, pues era indispensable memorizar y eso no era mi fuerte; y tener que dibujar sobre un mapa en blanco unos puntos rojos para indicar las capitales, rayas azules para los ríos, y sucesiones de piquitos cafés para las cordilleras de montañas. Mediante un breve son­deo entre amigos y estudiantes encuentro que sus experiencias no son muy distintas a las mías. Pocos de ellos recuerdan el tema con gusto y menos todavía se quedaron con la idea de que la geografía pudiera estar relacionada con política, economía o biología.

Puesto que ahora hay tantos recursos adicionales para estimular una apropiación crítica y placentera de los temas, quisiera pensar que los chicos que están siendo sometidos a la educación primaria en la actualidad viven una experiencia bien distinta a la mía. Recientemente me topé con Google Earth (earth.google.com) y pasé un par de días tratando de imaginar cómo sería aprender geografía así. Se trata de un programa que se puede descargar sin costo a la computadora y que nos permite visualizar increíbles mapas de la Tierra en dos y tres dimensiones.

Con unos cuantos botones, el programa nos permite viajar a lo largo y ancho de todo el planeta. Nos podemos acercar o alejar a gusto, y controlar el án­gu­lo y la orientación de modo que se llega a sentir como una de esas películas de tres dimensiones en formato imax. Así, además de ­escuchar una descripción de las cordilleras o las costas de nuestro país, podemos volar por encima de ellas y ver, por ejemplo, cuánto del territorio está poblado o desértico. Pero además, este programa está conectado a herramientas complementarias como la enciclopedia gratuita en línea Wikipedia, en la cual obte­ne­mos descripciones de los sitios, o el programa ­Panoramio, que nos permite ver más fotos.
 
Como con muchos de estos nuevos espacios de acceso irrestricto a la información, Google Earth ha desatado controversias. Mandatarios de varios países han expresado su incomodidad con el hecho de que se maneje tanta información sobre sus territorios. Por un lado, las noticias reportan que los miembros de la guerrilla de Palestina utilizan este programa para planear sus ataques a Israel. Pero al mismo tiempo el Museo del Holocausto utiliza esta gran base de datos para informar acerca del genocidio que se está dando en Darfur, Sudan, y así evitar que se siga destruyendo el país y a sus habitantes.

Otro punto que es discutible se refiere a la ventaja de que cualquiera puede poner marcas sobre los mapas. Un ejemplo de un uso desinteresado son cápsulas de la wwf (World Wildlife Fund) que difunden sus proyectos para proteger especies en peligro de extinción. Pero de igual modo es posible anunciar cualquier producto y no hay nada que impida que pronto encontremos los mapas llenos de letreros de “pollos baratos” o “se vende este lote”.

Me parece que con esta vasta cantidad de información, tanto bella como interesante, debe ser posible entender mucho mejor las relaciones que hay, por ejemplo, entre territorio y población, ambiente y economía. No hay que perder de vista, claro está, que para hacer estos paseos se necesita tener una computadora que esté conectada a internet y que la velocidad de conexión sea buena. Y claro, como para cualquier viaje, hace falta un buen guía. En este caso le corresponde a los profesores encontrar maneras de integrar un programa como Google Earth a sus clases.
_______________________________________________________________
Susana Biro
Dirección General de Divulgación de la Ciencia,
Universidad Nacional Autónoma de México.
 
como citar este artículo
Biro, Susana. (2008). Geomanía. Ciencias 89, enero-marzo, 14-15. [En línea]
  ←Regresar al índiceartículo siguiente→
  1 2  
bibliofilia  
José Mariano Moziño y su incansable andar
 
 
Luis Estrada
conoce más del autor
   
       
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
       
Héctor Gómez Vázquez
Viaje interminable de un naturalista.
Academia Mexicana de Ciencias / Instituto Politécnico Nacional.
México: 2005, 260 pp.
 
 
Aunque no soy biólogo, he tratado de aprender algo de esa disciplina y tengo muchos amigos biólogos. Por otra parte, mi conocimiento de la historia general de la ciencia es muy pobre, por lo que he buscado enriquecerlo sin todavía lograr mucho. Con lo dicho resultará claro que lo que aportaré será un comentario propio de un curioso lector que ha encontrado un libro sorprendente.

Empezaré por confesar que aunque sabía de la existencia de José Mariano Moziño, ignoraba la naturaleza y magnitud de su obra y desconocía su vida. Por lo tanto, la lectura del Viaje interminable fue toda una revelación. De ella diré que la descripción que el autor hace de la formación del naturalista mexicano a partir de su infancia en Temascaltepec hasta lograr los nombramientos de naturalista de la Real Expedición Botánica, primero, y de miembro de la Real Academia de Medicina de Madrid, después, fueron para mí descubrimientos formidables. El relato de sus vínculos con Martín de Sesse, el promotor de expediciones en la Nueva España, repletos de reconocimiento y apoyo, así como de los obstáculos provenientes de los intereses y envidias de algunos médicos peninsulares me parecieron muy interesantes.
 
Sin embargo, me gustó más la relación del quehacer de los expedicionarios durante sus labores y la descripción de los lugares en donde estuvieron. De lo primero cito: “A lo lejos se ve la fila de hombres caminar por abruptos senderos con el objetivo y la ilusión, el sueño y la determinación de entender, comprender y clasificar ese maravilloso universo llamado naturaleza. Podemos verlos soportar el andar por rugosos terrenos a salto de machete, o en planicies infinitas para trasladarse de un sitio a otro: como fragmentos inéditos en el paisaje, como motas moviéndose en la superficie terrestre desolada, deshabitada, abundante, grosera y virgen. Se les ve subir y bajar por estrechas veredas, senderos escarpados o empinados bajo torrenciales aguaceros.

Las calamidades vienen, van y están en todas partes: en mí, en ti, en él, en ella, en nosotros y en ellos. Ellos están solos, solos, en la abrupta serranía tarahumara y en la tepehuana, en la Sierra Madre Occidental, en las selvas veracruzana y chiapaneca, en terrenos anegados de la costa de Michoacán, en las vertientes montañosas de la sierra mazateca, y ninguna persona, ningún lugareño, arriero o gambusino, clérigo o trashumante se encuentra con los expedicionarios en varios días. Habrá que hacerse de alimentos para sufragar las demandas del hambre y el cansancio en medio del desolado y salvaje paraje recorrido ese día que fue ayer y que probablemente no será mañana. Los accidentes comunes y excepcionales ocurren a los expedicionarios y a sus acompañantes por cuanto sitio se aproximan. A las desventuras y aventuras del conocimiento hay que ponerles la mejor cara, la mejor actitud para sobreponerse a los torrenciales disparates que a la naturaleza humana le deparan las otras naturalezas.”
 
Respecto de los lugares visitados por el naturalista mencionaré un relato, aparentemente del propio Moziño: “A un cuarto de legua de las casas de una ranchería de pronto, así nomás, reventó de la tierra una humareda oscura que se fue elevando a las nubes acompañada de estrepitosos rugidos y comenzó a vomitar entre el fuego mucha agua y lodo negro y hediondo, azufroso, formando pantanos a los alrededores de la ranchería y sacando humo por todas partes; como si estuviera ardiendo la tierra en pleno bosque y sobre ellos campos sembrados de maíz. La gente se refugió en el Cerro de Cuarallo donde sufrieron toda clase de inclemencias. A la lluvia tupida siguió la de arena caliente y azufrosa que causó el derrumbe de todas las oficinas de la hacienda de la Presentación. Las cenizas cubrieron los sembradíos y en cosa de tres horas todo lo de la hacienda se destruyó quedando en la miseria total doscientas personas […] El espanto pasmó a todos durante mucho tiempo pues el Jorullo, que brotó de la nada, ha mantenido en alerta a todas las poblaciones de los alrededores”.

Y en las Noticias de ­Nutka Moziño anota: “Casi es imposible penetrar al ­interior, pues al más resuelto es capaz de contener aquella multitud de barrancas profundísimas y espesas emboscaduras de espesas florestas. Los naturales no habitan más que las playas, quedando los montes reservadas a los osos, los linces, los mapaches, las comadrejas, las ardillas, los ciervos […] advertí que se escaseaban las aves; apenas pude ver un carpintero, un gorrión carba de pico, dos colibríes, e igual número de alandas”.

Me gustaría leer aquí más párrafos de libro, en especial algunos relativos a la labor que los dibujantes realizaron durante las expediciones en que participó Moziño, pero creo que es mejor que ustedes las disfruten leyéndolas directamente en el libro que nos ocupa.
 
Quiero ahora hacer, frente a ustedes, algunas reflexiones motivadas por mi lectura del Viaje interminable de un naturalista.
 
Lo primero que señalaré es que el libro difunde la existencia en el pasado de científicos mexicanos. Para muchos, la ciencia en México es algo que se ha iniciado hasta tiempos recientes. No falta quien cree que con la caída de las civilizaciones precortesianas el conocimiento científico, que además muchos dudan si era tal, se acabó para dar paso a otro tipo de saberes más fundamentados. Empero el interés por el conocimiento del universo no menguó con la conquista y se enriqueció con el proveniente de la península. Sabemos bien que José Mariano Moziño no salió de la nada y que cuando Martín de Sesse llegó a estas tierras había quien lo entendiera y lo cuestionara. Es doloroso que muchos compatriotas, aun con grados universitarios, no conozcan suficientemente esta faceta de nuestra historia cultural.

Muy relacionado con lo que acabo de mencionar es la imagen común de los científicos. Muchos los consideran como personas excéntricas que visten batas blancas y no salen de sus laboratorios. Que ellos se atrevan a vivir en condiciones rústicas y que los muevan sentimientos y deseos comunes a los ciudadanos comunes y corrientes es, a veces, increíble. El retrato del naturalista que hace el libro que aquí nos convoca es el de un hombre normal que no desdeña sus sentimientos y que persigue un ideal, luchando contra una sociedad miope, burocrática y deseosa únicamente de una vida cómoda.
 
Lo dicho me hace recordar que es frecuente oír que los mexicanos pronto olvidamos el pasado, que no tomamos en cuenta la historia. La historia de Moziño, como persona y como científico, me hace pensar que no es que olvidemos la historia sino que, en términos vivenciales, sólo percibimos la natural y eso porque es inevitable. Pervivimos de la misma manera que lo hacíamos hace dos siglos. Parece que el tiempo no modifica el fondo de nuestra conducta. Más aún, he buscado símiles del quehacer científico actual con el de la época en que vivió Moziño y he encontrado muchos. No abundaré sobre este tema y espero que muchos de los lectores del Viaje interminable de un naturalista analicen más este tema y me hagan notar mis exageraciones.

Mencionaré también que recordar las expediciones realizadas al final de la Colonia para conocer la naturaleza y riqueza de los dominios de la Nueva España debería animarnos a esforzamos por conocer mejor la naturaleza de nuestro país. Ignorar las características y virtudes de nuestro territorio es preocupante, más cuando ahora se ha incrementado la investigación científica en nuestro país. Quizá parte de ese descuido se deba a la creciente convicción de que la ciencia debe valorarse preponderantemente en términos de su impacto económico. En fin, creo que ya estoy desvariando por lo que me disculparé diciendo que estos pensamientos han sido provocados por la lectura de libros como el que escribió Héctor Gómez Vázquez. Este es, por tanto, el momento de callar, no sin antes agradecer a todos su atención por haberme escuchado.
Nota
Texto leído durante la presentación del libro Viaje interminable de un naturista de Héctor Gómez Vázquez, el 14 de noviembre de 2007, en la Biblioteca México.
_______________________________________________________________
Luis Estrada
Uiversidad Nacional Autónoma de México.
como citar este artículo

Estrada, Luis. (2008). José Mariano Moziño y su incansable andar. Ciencias 89, enero-marzo, 74-76. [En línea]

  ←Regresar al índiceartículo siguiente→
1 2
     
La investigación química en la creación de la píldora anticonceptiva.
Una entrevista a Luis E. Miramontes
México fue escenario de la investigación que llevó a la creación de la píldora anticonceptiva. Russell Marker encontró en el sureste las plantas que contenían compuestos de los que se podía derivar esteroides, y fundó un laboratorio, Syntex, en donde Carl Djerassi dirigió la investigación química para la obtención de estos últimos. Luis E. Miramontes, joven químico mexicano, fue quien se encargó de realizar la síntesis en el laboratorio.
Nina Hinke y César Carrillo Trueba
conoce más del autor
 
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
Estudié en la Escuela Nacional de Ciencias Químicas de la unam, en el pueblo de Tacuba —que después se convirtió en la Facultad de Química—, y allí hice la tesis en fisicoquímica con el doctor Ignacio Dondé. Pero cuando era estudiante del tercer año de la carrera de Química, uno de mis maestros de prácticas de laboratorio, el doctor Sandoval Landázuri, atraído por la gran habilidad que yo tenía para la experimentación química, en aquel tiempo podía hacer en unos meses prácticas que se tardaban un año, me invitó a colaborar a su lado en el Instituto de Química. En aquella época constaba de dos pisos con cuatro laboratorios, que financiaron los españoles refugiados. El primer director fue el doctor Reinaldo Orozco y, como director de investigación, se nombró al doctor Antonio. Yo trabajaba en un pequeño anexo, todo era química orgánica.
 
En ese entonces se vivía una revolución en la producción de hormonas esteroides para la producción de anticonceptivos. Ya desde fines de la década de los años treinta, la demanda de esteroides para atender a pacientes con insuficiencia hormonal era cada vez mayor. Algunas hormonas sexuales como la progesterona, la testostero­na y la estrona se aislaban de los ova­rios de cerda, los testículos de toro y la orina de ca­ballo, respectivamente. El proceso resultaba muy laborioso, ineficiente, costoso y la producción era escasa. Ante esta situación, la comunidad científica buscaba afanosamente procedimientos alternos. Algunos científicos intentaron duplicar las hormonas naturales sintetizando esteroles básicos a partir de otros que eran abundantes en la naturaleza, como el colesterol. Entre 1934 y 1940, los químicos de las compañías europeas crearon, a través de la síntesis orgánica, las principales hormonas sexuales a partir del colesterol, sin embargo, las hormonas obtenidas por este medio eran limitadas y muy costosas. Fue un científico japonés quien tuvo la idea, en 1935, de sintetizar diosgenina a partir de plantas, y esta vía fue retomada por Russell Marker, un químico de Etados Unidos, que terminó instalándose en México porque aquí encontró especies de barbasco con alta concentración de esta sustancia, a partir de la cual se obtenían esteroides.

Así pues, en ese entonces el problema a resolver era cómo obtener hormonas en cantidad y calidad suficientes a partir de materias primas abundantes para satisfacer la demanda. Al finalizar la década de los cuarenta, Syntex, el laboratorio fundado por Russell Marker, producía hormonas esteroides con una tecnología de punta que la convirtió en empresa líder en el ramo. Durante muchos años la industria farmacéutica centró sus esfuerzos en producir las hormonas por medio de la síntesis química. El mérito de Syntex reside en la propuesta para producir las hormonas a partir de la extracción de la diosgenina de la Dioscorea compositae, para producir hormonas esteroides.

El descubrimiento del primer antiovulatorio activo por vía oral ha tenido una influencia determinante para romper las viejas barreras ideológicas y transformar valores humanos en el ámbito mundial. Se originó la planificación familiar a partir del hallazgo de un antiovulatorio que promovió un cambio positivo en el comportamiento humano: la paternidad responsable. No obstante, este descubrimiento también generó en muchos sectores sociales, profundos y graves cuestionamientos morales y, en otros, actitudes obtusas y reaccionarias.
 
Syntex contrató a los doctores Rosenkranz, Kauffman y Djerassi, quienes, a su vez, en 1949, buscaron investigadores en el Instituto de Química para resolver algunos problemas que tenía la empresa para sintetizar cortisona a partir del barbasco, así como con algunos intermediarios que provenían de la diosgenina.

Con el propósito de fortalecer la investigación científica, finalmente se estableció un convenio de colaboración y se contrató a Octavio Mancera, José Francisco Herrán, Jesús Romo, Alberto Sandoval y a los tesistas de doctorado José Iriarte, Humberto Flores y a mí. Esto le convenía al Instituto porque venía de ser creado, no tenía fuentes de financiamiento importantes y tampoco temas de investigación en aquel entonces. Nos ayudaron mucho los de Syntex, nos proporcionaron sustancias, equipo, nos ayudaron realmente.

En el Instituto trabajamos en diversas cosas, por ejemplo, Djerassi estaba tratando de hacer sustitución en la tiroidina. El doctor Estrada hacía experimentos de fotoquímica y el doctor Herrán estaba sintetizando algo que nunca le salió; los doctores Romo Almería, Octavio Mancera, José Iriarte Guzmán y yo seguíamos trabajando esteroides.

Antes de entrar en colaboración con Syntex, yo trabajaba con quinonas, era un estudio básico. Trabajaba como ayudante del doctor Sandoval, que después fue el director del Instituto de Química, pero a Djerassi le gustó la manera como yo trabajaba: si algo quería que saliera bien, o que se comprobara, me daba el trabajo. Yo no trabajé en aspectos de síntesis de la cortisona. Comencé a colaborar con Syntex cuando tenía 25 años. Antes de terminar la licenciatura entré al Instituto de Química.
 
Trabajaba exclusivamente con Djerassi, repetía los trabajos de Djerassi, ya que pensaba que se estaba haciendo trampa en algunos de ellos, pero nunca se pudo comprobar.
 
A través de trabajar el mecanismo para hacer el naftaleno, Djerassi quería descubrir si Russell Marker había hecho trampa, esa era la intención. Sí, el dudaba mucho de que Marker fuera honesto, pero resultó que Marker era cien por ciento honesto, todo lo que publicaba era cierto, cien por ciento cierto, y no tenía los medios en Syntex para hacer investigación.

Yo también trabajaba en proyectos paralelos que quería Djerassi. Por ejemplo, un mecanismo de reacción que renueva el rearreglo de dienona fenol. Yo hice todo el trabajo experimental y, a propósito, es el único trabajo original que tenía Djerassi, los demás eran revolturas de publicaciones y una bola de cosas.

Marker trató de poner su propia fábrica de progesterona y terminó odiando a los esteroides, odiando la investigación, se dedicó a comprar artículos y venderlos. Vivió en México y en Estados Unidos, era un genio. En todas las publicaciones que hizo en México él aparece como autor y Josefina Sánchez, que era la muchacha que limpiaba el laboratorio, como autora. Le criticaban que era su amante pero nunca se comprobó. El día de su cumpleaños contrataba un mariachi y lo llevaba a tocar a su laboratorio, compraban carnitas y tequila y se ponían unas guarapetas, él con Josefina y todos los ayudantes, e invitaban a los vecinos de los laboratorios. Eso les caía como bomba a los doctores Lehman y Somlo; acostumbrados a la disciplina alemana, no concebían lo que pasaba, lo que contribuyó a que se pelearan. Lehmann era buen investigador, pero un poco ingenuo.

Entonces yo me fui con Djerassi, trabajé hasta que se fue. El llegó en 1950 y se fue en 1954 porque la síntesis de la cortisona fue un fiasco. Fue un éxito desde el punto de vista teórico, pero un fiasco desde el punto de vista práctico, porque el producto derivado de la cortisona sí tenía propiedades importantes, y los directivos de Upjohn y de Pfeizer acortaron el proceso a la mitad aplicando fermentaciones industriales, a menos de la mitad, porque la introducción del oxígeno en el átomo de carbono 11 lo hacían en un paso, de fermentación, y así lo reducían a 30 o 40 pasos. Además, los microbios se ponían en huelga y exigían comer la materia prima, que era progesterona, la cual convertían en cortisona.

Cuando desarrollamos la noretisterona, Djerassi se fue a exponer el hallazgo y se enteraron algunos investigadores de la competencia. De no haber sido así, se hubieran hecho otros compuestos que nos madrugaron.

En Upjohn sí tenían un grupo muy poderoso de bioquímicos y químicos expertos en fermentación, y en Pfeizer también, ellos habían producido toda la penicilina que se utilizó durante la guerra y la posguerra por fermentación, tenían más experiencia. Yo creo que los de Syntex se quedaron un poco estancados frente a los cambios, fueron un poco ciegos por no invertir más en bioquímica y en fermentación. Ya había reportes publicados con rendimientos bajos, entonces se necesitaba encontrar un microbio que elevara los rendimientos. Los microbios se encuentran en el suelo, sí, es otra cosa muy curiosa cómo se encuentran. Sí, en el suelo de una refinería, en el suelo de jardín. Se hace un cultivo, se aíslan y caracterizan las colonias, después vemos qué microbio hace qué cosa.

Respecto de las patentes que obtuvieron, como Syntex no era una transnacional, tenía problemas para comercializar el producto, no hizo lo que pudo haber hecho. Como Syntex no tenía empresas en muchos países de Europa, o en Canadá, Japón, India, etcétera, dejó de ganar lo que pudo haber ganado. Sí otorgó una licencia para Smith Kline & French, me parece que otorgó una licencia, y el presidente de esa empresa, que era católico creyente, cuando el papa prohibió la píldora regresó la licencia de patente. Quienes hicieron negocio después, y lo hacen ahora, fueron Schering, que por tradición ha sido una empresa de esteroides, Upjohn, Pfeizer y Searle, pero no Syntex. Todos ellos trabajaron a partir del proceso que habíamos desarrollado nosotros.

Djerassi no vivió de la pa­ten­te porque se separó de Syntex, con acciones de Syntex, pero después nada más fue consultor de la empresa. Las empresas no hacen tan malos negocios. Se registra la patente con el nombre del químico pero es propiedad de la empresa; la autoría es del químico, pero los dueños son la empresa patrocinadora. Una patente vence a los 20 años.

Djerassi tiene un centro para promover las artes en San Francisco. Él hizo fortuna y escribió un libro que se llama Los esteroides lo permitieron, donde explica que fue gracias a los esteroides que hizo su fortuna inicial, porque después entró en la bolsa y obtuvo buenas utilidades. Y un profesor de química en Estados Unidos gana un dineral, él fue profesor titular.

También es autor de cuatro novelas y recientemente escribió para el cincuentenario de la noretisterona. Todas sus obras están publicadas en el Fondo de Cultura Económica. Cuando salió de Syntex, lo único importante que hizo fue hacerse rico, de química ya no hizo nada. Realizó sólo algunas investigaciones en la Universidad de California.

En Syntex había otros químicos ayudantes de Djerassi trabajando en cortisona. Era un personal bastante reducido para llevar la investigación que era más o menos particular de Djerassi, porque lo de la cortisona lo trabajaba con una docena de doctores y laboratorios. El grupo es bastante numeroso, hay una foto de él, pero yo no aparezco porque mientras ellos se retrataban yo trabajaba.

Syntex patentó una bola de cosas, pero nunca se aplicaron. Vendió todo el conjunto de patentes a una empresa estadounidense, pero prácticamente las regaló. No me acuerdo a qué compañía, creo que está en el libro de Djerassi, porque eso lo supimos hasta que él lo publicó, la empresa nunca tuvo el cuidado de informar a sus químicos acerca de sus movimientos, jamás. Al parecer a Djerassi lo corrieron.

Djerassi y Kauffman, quien llegó junto a Djerassi, tenían las acciones de Syntex y, desde luego, Rosenkranz. Éste último se llevó la pachocha de acciones cuando se vendió Syntex. Rosenkranz se quedó como asesor, consultor, de hecho sigue siendo asesor de Roche, el gigante farmacéutico suizo.

La patente es del producto y del proceso, porque las patentes de marca duran toda la vida. Mientras paguen los derechos al gobierno, sigue valiendo la patente.

Pero para obtener un producto similar al Synalar, por ejemplo, deben transcurrir 20 años, tiempo de expiración de la patente. Cuando se vencen las patentes las absorben compañías más grandes, así ocurrió con el Synalar de Syntex.

Cuando concluí con la noretisterona se dio por terminado mi trabajo y me fui a un lugar que estaba por la salida a la carretera de Toluca, donde estuve a cargo de una planta piloto, una partecita, como director de investigación en producción de esteroides. El problema es que mi hallazgo, el que se encuentra inscrito en la placa que consagra nuestro trabajo en un salón donde están los grandes inventos, en Estados Unidos, es un proceso de laboratorio. El proceso que desarrollé no era industrialmente viable. Era muy elaborado, muy primitivo. En el que se hizo industrialmente ya no participé. Era primitivo porque fue la primera síntesis que se nos ocurrió y que produjo el compuesto y ya, se analizó para hidrógeno, el espectro de masas, el espectro en infrarrojo, se caracterizó y se encontró que su estructura era correcta, eso fue todo. Luego nada más hice una preparación adicional para pruebas biológicas, alrededor de 50 gramos.

Después, los de Schering introdujeron un etilo en el acetileno de la noretisterona y resultó un compuesto también activo. Luego lo hicieron en Alemania, como diez años después de que apareció la publicación de la noretisterona. Cuando producen su propio producto ya no pagan a nadie. Los de Searle hicieron un desarrollo para el mismo proceso y lo patentaron. Creo que ese es el proceso que ahora se utiliza industrialmente.

Cuando me fui a la parte industrial, en la planta piloto se producían los compuestos (compuesto F, compuesto S, progesterona) en cantidades fabulosas, porque Upjohn le pidió 50 toneladas de progesterona a Syntex. Entonces se armó una revolución en Syntex y yo me fui a ayudar en la producción. A partir de ese momento ellos siguieron investigando pero en obtener sus antinflamatorios y esas cosas, como el Synalar, que es un derivado de la cortisona para la artritis, con lo que Syntex ganó mucho dinero. Entonces Syntex se dedicó a más bien producir el compuesto básico que luego empleaban las industrias farmacéuticas para hacer la firma, ese era su negocio, la producción en masa.

Schering obtiene todas las materias primas de esteroides a partir de barbasco, todo lo que manejan sigue siendo directamente del barbasco, no es una vía química, siempre hay que partir de la diosgenina, no necesariamente del barbasco, sino de un producto natural. Los chinos encontraron una dioscorea que produce el doble de diosgenina, y más pura. Syntex y Schering comenzaron a importar diosgenina de China y disminuyeron su compra de barbasco a México.
Searle utiliza el estigmasterol que se obtiene de la soya, un producto de la refinación del aceite de la soya. El aceite de soya, una vez que se le separa la proteína y todo eso, se destila al súper alto vacío y queda un residuo que tiene estigmasterol que ahora usan Upjohn y Searle para fermentar (contiene oxi hidroxi progesterona directamente). Searle obtiene oxi hidroxidehidro esterol que es lo que mantiene a la compañía.

Searle le compró dextrona en cantidades importantes a Russel, una empresa que produce esteroides por síntesis total, todo tiene mercado, porque ha aumentado mucho el consumo de la píldora en el mundo. Ahora hay versiones inyectables, el efecto de una inyección dura cuatro meses y no se tiene la molestia de estar tomando una píldora todos los días. En Japón ya se permitió el uso de la píldora, y de los anticonceptivos en general, porque anteriormente se usaba el aborto y los médicos que eran aborteros impedían que se abriera el mercado de los anticonceptivos, sí es un mercado. China produce su propia noretisterona; los chinos con su dioscorea incluso venden la diosgenina excedente. Las condiciones de mercado juegan un papel importante en el desarrollo de un método, y una vez que se produce no puede quedarse estático, tiene que continuar la investigación siempre, para mejorarlo o encontrar otra manera de hacerlo.

Roche también utiliza los laboratorios de producción de Syntex para diversos productos, subproductos. Todo lo referente a los anticonceptivos se lo vendió Roche a Searle, Syntex ya no tiene anticonceptivos. Creo que en la actualidad Searle y Schering son los más grandes en el mercado de anticonceptivos. Los de Schering parecen tener la cantidad de hormonas más baja, lo producen con etisterona. También se descubrió que la noretisterona, tomada sola, en cantidades pequeñísimas, es mejor que usada con estrógenos en cantidades fuertes. La formulación ya no la hacen los químicos, la hacen médicos clínicos. Hacen pruebas con animales y con pacientes.

Los 50 gramos que yo preparé eran nada, sin embargo, se hizo una prueba a diez mil mujeres en Puerto Rico; aunque de nada servía una cantidad tan pequeña, yo creo que alguien maquilló los resultados. Sí hubo pruebas en animales, con conejos, con perros, con gorilas, en Chicago y en Boston, pero yo ya no tenía nada que ver, alguien más siguió produciendo el compuesto químico; yo creo que lo hacían en otro laboratorio, pero que yo sepa nunca produjeron cantidades significativas de noretisterona. Es que el noretrinordel, que fue el compuesto de Searle, es un isómero de la fenol tiesterona; el noretrinordel en el estómago, con el ácido clorhídrico del jugo gástrico, se convierte. Lo trataron con fluido y con solución y obtuvieron la noretiesterona para todas las pruebas, pero no lo podían vender, no le hubiera dado el visto bueno la fda. Lo probaban en Puerto Rico y después en Estados Unidos. Siempre que se hace un fármaco, un medicamento, hay que pasar por pruebas farmacológicas, pruebas en animales, pruebas en humanos y luego pedir autorización a la fda que exige un contrato de pruebas, de reacciones secundarias, por eso cuesta un dineral de dólares tener un compuesto nuevo en el mercado.

Se hacían pruebas sobre todo después de lo que ocurrió con la talidomina y sus efectos en los años cincuentas; antes era obligatorio hacer las pruebas, pero no eran tan duras. Se endureció mucho la fda, exigió más pruebas, pruebas en embarazadas, por ejemplo, para todos los medicamentos.

Para hacer todos estos fármacos es necesario obtener el principio activo. Cuando se trabaja con plantas, los químicos aíslan los compuestos que tiene la planta y lo prueban, hacen un barrido para aislar productos naturales. Luego aplican a la familia de compuestos la cromatografía, que es un método de purificación. Entonces los compuestos que entran por cromatografía se envían a prueba farmacológica. Entonces se conocen familias de medicamentos, las quinilonas, son familias enormes que tienen una estructura química básica y variantes según el compuesto. De los catálogos enormes de variantes que poseen, deben probar cuáles tienen acción química y acción clínica.

En este caso, fue una lotería porque lo que me pagaron a mí fue para ver si podía hacerse un reconocimiento automático, teórico, para que se redujera el número de compuestos que se iban a prueba química. De quinientos y tantos compuestos se busca reducir a 10, por lo que hacer las pruebas químicas resulta mucho más económico. Yo lo que hice fue un reconocimiento matemático y funcionó con una red de neuronas que reconocen cuáles son los rasgos de las variantes de las moléculas y cuáles son sus efectos, eso está publicado en la revista Ciencia. El problema es que si tú dices aquí le pongo un radical y aquí otra cosa, no es la suma de los componentes de los elementos por separado, o sea que tienen muchos radicales, entonces a mí lo que me preocupaba era hacer un modelo matemático, buscaba optimizar. Tú sabes, por ejemplo, más o menos cuál es el porcentaje cuando lo haces sin un modelo. De quinientos compuestos puede ser que tengan acción química cinco, y para todos tienes que hacer pruebas químicas, pero yo tenía la experiencia necesaria.

Al final regresé a hacer la tesis de doctorado al Instituto de Química pero lo que yo quería era trabajar en las empresas. Luego me fui al Instituto Mexicano del Petróleo al área de petroquímica y refinación. Estuve dando clases sobre estos temas. Trabajé 20 años y me jubilé en 1991.
Nota
Agradecemos a Alicia Villela la información proporcionada para lograr la transcripción de esta entrevista, y a Irama Nuñez su colaboración en el trabajo de transcripción y edición de la misma.
Nina Hinke†
Facultad de Ciencias,
Universidad Nacional Autónoma de México
 
Realizó la licenciatura en Investigación Biomédica Básica en la unam, una maestría en Fisiología del Desarrollo y otra en Epistemología e Historia de la Ciencia en la Universidad de París-7, donde cursó el doctorado en Epistemología e Historia de la Ciencia. Falleció en 2004 cuando preparaba la presentación de su tesis doctoral. Fue editora de la revista Ciencias.
 
César Carrillo Trueba
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
Es Biólogo por la Facultad de Ciencias de la unam y actualmente cursa estudios de doctorado en Antropología en la École des Hautes Études en Sciences Sociales de París, publicó Pluniverso, un ensayo sobre el conocimiento indígena contemporáneo, unam, 2006. Es editor de la revista Ciencias desde 1987.
 _______________________________________________________________
como citar este artículo

Hinke, Nina y Carrillo Trueba, César. (2008). La investigación química en la creación de la píldora anticonceptiva. Una entrevista a Luis E. Miramontes. Ciencias 89, enero-marzo, 68-73. [En línea]

flechavolver89   ←Regresar al índice artículo siguiente→
Você está aqui: Inicio Búsqueda Titulo revistas revista ciencias 89