revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
Ciencia in situ           menu2
           
R07B06 
“La Guacamaya”
Nota de los editores
   
   
     
                     

A partir de 1982 un grupo de profesores y estudiantes del Departamento de Física empezaron a trabajar en la comunidad rural “La Guacamaya”, en la sierra centro del estado de Michoacán, con el propósito de adaptar algunas tecnologías energéticas apropiadas a lugar. Posteriormente se unió al grupo inicial (que pasó a llamarse “Grupo de Energética”) el Grupo Interdisciplinario de Estudios Agrobiológicos (GIEA) del Departamento de Biología de la Facultad de Ciencias de la UNAM, con lo cual se amplió la temática hacia aplicar un tratamiento integral de las necesidades domésticas y la productividad de los habitantes, a la par de una evaluación de los recursos naturales (principalmente) renovables de la región.

Los proyectos de trabajo se definieron del mismo modo como se acostumbra tomar las decisiones en la comunidad: por discusión conjunta en asamblea general. De esta manera se comenzó a trabajar en los siguientes proyectos, algunos de los cuales ya habían sido identificados previamente por los habitantes:

Patrón de consumo energético doméstico y productivo para precisar las necesidades energéticas de la comunidad, actuales y a futuro (el proceso). Evaluación de los recursos renovables de la región (sol, agua, viento y biomasa, en proceso). Instalación de algunas tecnologías apropiadas a las actividades domésticas (estufas de Lorena para la cocción de alimentos; calentadores solares de agua). En proceso: construcción de un molino de agua.

 
Estufa de lorena


Las actividades productivas se encuentran en las etapas del desarrollo de una microcentral hidroeléctrica.

Acuacultura, para el cultivo de peces (en proceso). Sistema de captación de agua para el molino; la microcentral, acuacultura y el regadío de los huertos familiares y colectivos, en huertos familiares, letrinas, apiarios (en proceso), granja de pollos, huerto de frutales (en proceso), mejoramiento de la producción de granos básicos.

 
Calentador de agua

Implicaciones para la Facultad de Ciencias

A las prácticas de campo en física, biología (y hasta matemáticas), se les da contenido social. En general está promoviéndose la experimentación, actividad relativamente relegada, cuya función metodológicamente es un eslabón imprescindible de la educación científica. Pueden surgir nuevas materias interdisciplinarias que enriquezcan el currículum de las carreras.

Se propicia la investigación fundamental y de las aplicaciones de la ciencia. Por ejemplo: estado sólido, termodinámica y fluidos, del diseño de calentadores solares con superficies selectivas (alta absortividad, baja emisividad). Termodinámica, fluidos y óptica, del diseño de estufas de lorena; fluidos del diseño de la microcentral, acuacultura; genética de los huertos, granjas (producción de variedades) apropiadas al clima y condiciones generales de la región, y otros.

Difusión

Las funciones universitarias son extensivas al campo, y se prueba en este caso la posibilidad de integración respecto de la cadena Ciencia-Técnica-Producción.

Recursos

Hasta ahora tres profesores y, en promedio anual, unos 20 estudiantes de las tres carreras —biología, física y matemáticas— han participado en los proyectos, apoyados económicamente por la Coordinación del Servicio Social de la UNAM.

Los recursos invertidos para investigación son en cambio raquíticos. El GIEA cuenta con un reducido local en Biología, y el grupo de Energética ni siquiera eso. Este grupo ha solicitado espacio y presupuesto para instalar un laboratorio en el Departamento de Física, pero a la fecha no existe ninguna respuesta. Es claro que sin estos recursos, los proyectos no pueden continuar.

  articulos  
 _____________________________________________________________      
como citar este artículo      
       
bibliofilia             menu2
            R007B13
Reseña de libros
 
 
   
   
     
                     

La mayoría de las revistas de investigación, enseñanza
y divulgación contienen una sección dedicada a la reseña de libros. Algunas de ellas difieren en su finalidad y presentación. En algunos casos se acostumbra dar exclusivamente una pequeña descripción del contenido del libro con el propósito de mantener informados a los lectores respecto a las publicaciones recientes (Mathematical Reviews). En algunos casos el procedimiento usual es presentar un análisis crítico de los elementos centrales del libro (Isis, Annals of Science, entre otras). Nosotros estamos particularmente interesados en este segundo caso. Unas palabras de advertencia: por análisis crítico no se debe entender la necesaria presentación de un ataque despiadado —aunque algunas veces justificado— de las ideas expuestas. No todos los libros son iguales y por lo tanto de deben ser analizados desde los mismos puntos de vista (Mortimer J. Adler & Charles van Doren), How to read a book, New York, Touchstone, 1967). Pero algunos de los elementos que, por lo general, deben ser analizados en los tratados históricos, son los siguientes:

1. Tesis central. Todo libro académico —o al menos así lo deseamos— debe tener una razón específica de existir. Cuando escribimos algo pretendemos dar a conocer algo nuevo. Debemos preguntarnos: ¿cuál es la tesis central del libro? ¿Qué tan convincente es ésta? ¿Existen otras subtesis? (van der Waerden, en una de sus reseñas, discute cuáles son sus razones para estar en desacuerdo con el autor en algunos detalles de su interpretación, pero desafortunadamente no analiza la tesis central del libro. Consúltese: Wilbur Knorr, The evolution of the Euclidean Elements, Boston, Dodrecht, 1975. Reseñada en Historia Mathematica 3 (1976), pp. 497-499).

2. Alcance. ¿Qué es lo que cubre el libro? Tal vez pensamos que el autor debió haber extendido el contenido del libro para analizar su tesis en un contexto aún más general o, por el contrario, reducirlo a un marco de estudio más específico. Quizá la ejemplificación de su tesis en otras ramas de la disciplina lo podría haber ayudado a ser más convincente. ¿Qué más se puede haber analizado? ¿Por qué? (G. H. Moore correctamente critica la obra de Jean van Heijenoort en lo relativo a su alcance. Moore considera que si tomamos en cuenta los argumentos que establece van Heijenoort para seleccionar los textos que deben ser incorporados en su texto, entonces también debió haber tomado en cuenta algunas otras obras. Jean van Heijenoort, From Frege to Godel: A Source Book in Mathematical Logic, 1879-1931, Camb., Mass, Harvard University Press, Reseñada en Historia Mathematica 4, (1977) pp. 468-471).


3. Organización. Cualquier idea puede ser analizada desde varios puntos de vista distintos, algunas secuencias siendo más naturales o lógicas que otras. En este sentido nos debemos preguntar si el libro está lógicamente construido o es confuso, o repetitivo, etc. Tal vez si no estamos de acuerdo con su presentación original, la mejor manera de contestar a dicha pregunta sería presentando una versión alternativa de una mejor cadena lógica de argumentos (consúltese la obra de Dauben y la reseña de Hawkins mencionadas en el inciso 9).


4. Objetividad. Generalmente mantenemos un punto de vista particular bajo el cual juzgamos la mayoría de las acciones que nos rodean. Al reseñar un libro nos sucede lo mismo, y reaccionamos negativamente —o positivamente— a las ideas que nos presenta cierto autor. Pero es también un hecho que este último —aunque no lo reconozca explícitamente— tiene una predisposición hacia las ideas y fuentes que utiliza para desarrollar su obra. ¿Es esta predisposición clara en el libro y cómo afecta el desarrollo del mismo? ¿Estamos de acuerdo con dicha predisposición o fuimos convencidos al final de la validez de ésta por los argumentos del autor? (Consúltese la excelente reseña que escribiera Michael Ruse [Philosophy of Science 51 (1984), pp. 348-354] sobre el libro de Philip Kitcher, Abusing Science: The case against Creationism, Cam., Mass., Harvard University Press, 1982).

5. Estilo. Generalmente un autor busca ser entendido y por lo tanto intenta expresarse de una manera comprensible y sencilla, aunque no siempre sea posible. Algunos autores, por el contrario, pueden incluso llegar al extremo de tratar de esconder su ignorancia en un lenguaje técnico y complicado. ¿Qué tan fácil fue leer el libro? ¿Son claras sus ideas? ¿Busca el autor las palabras más sencillas para explicar ideas complejas? (En este caso, consúltese la reseña que publicara May sobre uno de los artículos del Dr. Ivor Grattan-Guinness, Ivor Grattan-Guinness. An unpublished paper by George Cantor: Principien einer Theorie der Ordungstypen, Ernst Mitteilung, Acta Mathematica 124, (1970), pp. 65-107. Reseñada en Mathematical Reviews, 41, (1970) pp. 948-949).

6. Fuentes. Una simple revisión a la bibliografía —si es que el ensayo presenta alguna y fue consultada por el autor— nos puede indicar objetivamente si se utilizaron libros y artículos de reciente publicación, correspondencia personal, diarios, material no publicado. Asimismo nos puede indicar si el libro fue escrito en base a otras fuentes secundarias, lo que podría sugerir —aunque no necesariamente— que este nuevo trabajo es un “refrito” de otros. También las ausencias de ciertas fuentes bibliográficas nos puede indicar qué tan bien —o mal— se rastreó la literatura existente. (Consúltese: Philip E. Johnson, A History of Set Theory, Boston, Prindle, Weber & Schmidt, 1972, y la reseña fuerte y negativa de Robert McGuigan, Historia Mathematica 1 (1974), pp. 106-108, y también: Bryan Morgan, Men and discoveries in Mathematics, Londres, John Murray, Reseñado por Gregory H. Moore en Historia Mathematica 2, (1975), pp., 358-359).

7. Documentación. En repetidas ocasiones —algunas veces más de lo necesario se respalda uno en la opinión de alguien más para darle fuerza a los argumentos. También es frecuente expresar ideas controversiales o señalar datos poco usuales o difíciles de localizar. En cada una de estas situaciones —y en muchas otras más— se deben indicar las fuentes de dicha información, es decir, presentar los registros que amparan el origen de dichas ideas. Es obligación del autor señalar de la manera más precisa dicha documentación y además buscar la forma de presentar las fuentes que sean más accesibles al lector. Es hasta cierto punto deshonesto ampararse en documentación a la cual el lector no tiene acceso alguno, si es que ésta puede hacerse pública. ¿Qué tan precisa es su documentación? ¿Nos oculta información? (Consúltese, por ejemplo: Nicholas Griffin, A choice set of letters, Russell: the journal of the Bertrand Russell Archives, Nos. 37-40 (1980-1981), pp. 65-86, e Ivor Grattan-Guinness, The Review of Dear Russell-Dear Jourdain, Ibid, New Series, Vol. I, No. 1, (Summer 1981), pp. 68-70).

8. Conclusiones. Cuando un investigador se plantea una pregunta que desea solucionar, ésta no debe ser tan sencilla que tenga una respuesta trivial que no necesite discusión (e. g., ¿cuál es la fecha de nacimiento de Albert Einstein?); o, por el contrario, que sea tan compleja —a pesar de que su formulación sea muy breve— que requiera de un número extraordinario de volúmenes y haga dudosa su completa realización (e. g., ¿cuál ha sido la influencia de Isaac Newton en la historia y desarrollo de las ciencias?). Necesitamos tener una tesis clara y precisa (Regla 1) y también se debe discutir un número concreto de conclusiones que nos permitan tener una visión de conjunto del tema discutido y de las implicaciones o consecuencias que éste pueda tener. En algunas ocasiones, el grado de especialización del escrito no permite obtener inmediatamente resultados que puedan ser aplicados a otras esferas del conocimiento, pero sí debe presentar algunas dentro de su propio marco teórico. ¿Qué conclusiones podemos obtener de dicho estudio? y ¿qué tan aceptables y útiles son? (La extensa biografía sobre Bertrand Russell que publicara Ronald C. Clark carece de un capítulo o sección que nos permita obtener una visión global de la metamorfosis —tanto social como intelectual— de Russell, R. C. Clark, The life of Bertrand Russell, Londres, Butler & Tanner LTD, 1975. Véase también: Katherine Tait, A daughter’s eye view, Russell, Nos., 21-22, (primavera-verano, 1976, pp., 51-56).

9. Valor general. Tomando en cuenta lo positivo o negativo en relación a los ocho puntos anteriores, nosotros podemos juzgar qué tan valioso puede ser el libro. ¿Es útil para el especialista o para el estudiante que se inicia? ¿Vale la pena adquirirlo o únicamente consultarlo en la biblioteca? ¿Es caro el libro? (Por ejemplo, un caso de una mala reseña que no cualifica en sus méritos generales el valor de un libro, es la escrita por Colin C. Graham y publicada en la revista Philosophy of Science (48 (1980) pp. 159-160). El trabajo criticado (Joseph Dauben, Georg Cantor: History, Mathematics and Philosophy of the Infinite, Camb., Mass., Harvard University Press, 1979) presenta algunos errores de comprensión. Pero, en general, es un excelente libro que no será superado en mucho tiempo. Otras reseñas, más justas en su apreciación general, también fueron publicadas, Thomas Hawkins, Historia Mathematica 8, (1981), pp. 368-375).

Como se señaló anteriormente, ésta no es una lista exhaustiva de las reglas o puntos que debemos tomar en cuenta al reseñar un libro. Así como no debemos tratar de leer de la misma manera libros que tratan distintas disciplinas, tampoco debemos tratar de reseñar cualquier libro siguiendo los mismos lineamientos. Pero, repetimos: los que se han enunciado con anterioridad nos pueden ser de gran utilidad para analizar algún libro que presente una tesis histórica.

   
 _____________________________________________________________      


como citar este artículo
 [En línea]
     
reportaje             menu2
           
R07B01
 
Chamela
Una estación de biología en Jalisco
Nota de los editores
   
   
     
                     

Los recursos naturales de la costa occidental de México han
sido, en general, poco estudiados a pesar de que poseen una gran riqueza, tanto en especies vegetales como animales. La fuerte presión que sobre los ecosistemas se ejerce desde hace tiempo a través de la agricultura y la ganadería en todo el país, ha estado incrementándose y esta zona no ha sido la excepción en los últimos años.

Desde su fundación los objetivos de la Estación Biológica de Chamela, dependiente del Instituto de Biología de la UNAM, ha sido conocer, conservar y aprovechar el ecosistema.

La Estación, situada a 65 km. al noroeste del poblado Barra de Navidad, se considera perteneciente a un ecosistema que forma parte de una franja ambiental que corre desde la parte central de Sinaloa hacia el sur a través de Nayarit, Jalisco y Colima, y luego a lo largo del litoral del Pacífico hasta Guerrero y Oaxaca. La característica más importante de la zona es que, por lo general, más del 90% de la lluvia cae en promedio en los meses de mayo a octubre, con lo cual el año queda dividido por un periodo húmedo y otro seco muy marcados.

Es durante la época de sequía, cuya duración es de casi 7 meses, cuando la mayor parte de las especies arbóreas pierden sus hojas, lo que da al paisaje características contrastantes durante el año.

Constituida por casi 1600 hectáreas donadas a la UNAM por el Dr. Antonio Urquiza, de las que tres cuartas partes pueden considerarse de reserva, la Estación comenzó a ser administrada por el Instituto de Biología en 1971. Los trabajos de investigación, iniciados un año después, fueron fundamentalmente de tipo descriptivo, consistentes en listados generales de las plantas y animales existentes en el área.

Hacia 1983 se estimaba tener conocimiento de un 90% de las fanerógamas y de los mamíferos; entre 90 y 95% de reptiles y anfibios y de un 85 a 90% de aves. Respecto a otros grupos, como insectos, el porcentaje es difícil de estimar ya que han sido escasos los estudios.

Para 1984 se estaban llevando a cabo alrededor de 22 proyectos de investigación en temas variados: estructura de poblaciones, dinámica de suelos, herviboría, control de erosión y biología reproductiva. La mayoría de las investigaciones seguirá desarrollándose durante el presente año.

Además del trabajo de investigación sobre aspectos biológicos desde hace varios años se pretende extender el campo de labores hacia la difusión y ayuda a la comunidad, con el propósito fundamental de ofrecer conservación del ecosistema; sin embargo, según plantea el maestro Alfredo Pérez Jiménez, Jefe de la Estación, se han enfrentado diversos problemas al respecto además de no contar con los recursos necesarios para estos trabajos, propiamente socioeconómicos.

La Estación posee una serie de instalaciones que facilitan la actividad investigativa y de estudios; se cuenta con un laboratorio general, herbario y área de colecciones, biblioteca, estación meteorológica y habitaciones para visitantes. Las facilidades están ligadas a los proyectos que en ella se desarrollen, básicamente los apoyados por la UNAM, aunque también se ha trabajado en proyectos impulsado por otras instituciones. La infraestructura y recursos impiden el acceso a grupos demasiado numerosos, pero hay una actitud abierta para aceptar programas de investigación que sean importantes para la zona.

En cuanto al futuro de la Estación existen diversas problemáticas. La fundamental es que a mediano o largo plazo ésta quede aislada al talarse la mayor parte de la vegetación circundante, al implementarse campos dc cultivo o pastizales, y los problemas de expansión hacia el área de reserva pueden incrementarse, añadiendo la caza y la explotación de madera. Además se considera que para conservar muchas de las especies, principalmente animales, se requeriría por lo menos poseer 10 veces la superficie que actualmente se tiene.

Toda esta perspectiva, poco halagüeña por cierto y que plantea diversos problemas, tendrá que comenzar a ser dilucidada y resuelta a corto plazo y debe ser considerada por todos los interesados en la preservación de los recursos naturales en nuestro país.

  articulos
 _____________________________________________________________      
como citar este artículo
 [En línea]
     
R07Articulos5   menu2 índice 07
siguiente
anterior
PDF
   
   
Francisco Javier Cepeda Flores      
               
               

Como parte de una errada visión, de una ciencia apologizada
que es sólo verdad y búsqueda de ella, se presenta a quienes se dedican a la investigación científica como genios que, en actos de revelación extraordinaria, descubren alguna ley secreta de la naturaleza. Por ejemplo esto sucede de manera muy marcada con Issac Newton.

Después de muchos años de estudiar problemas de la física, alquimia y teología —sobre todo estos últimos—, Issac Newton publica en 1687 los Phylosophiae Naturalis Principia Matetmatica, que representa la obra más importante de la gran cantidad de aportaciones del periodo denominado por él la Revolución Científica. Representa esta obra una gran síntesis complementaria y sistemática de esfuerzos y aportaciones en las ciencias naturales, que se habían iniciado desde el siglo anterior. La gran influencia teórica y práctica de los Principia darán a Newton un lugar tan especial en el campo de las ciencias, que en su tiempo se llegó a pensar que era muy poco lo que la física podría avanzar después de lo dicho por él. Fue tan generalizada y profunda su influencia que obstaculizó, incluso, explicaciones diferentes de fenómenos que no fuera posible tratar con los esquemas aportados por Newton.

Enfrentando la posición ideológica e incorrecta de una ciencia neutra y desinteresada, demostraremos que tanto su obra como él mismo son hijos de su época, por lo que debemos concebir al conocimiento como un proceso social interactuante con el resto, que no es neutro y que, por el contrario, está profundamente inmerso en las luchas y desarrollo de cada época histórica.

Veamos primero la relación entre Economía Física y Tecnológica en la época de Newton para después relacionar analíticamente la lucha de clases del momento con la filosofía y los conceptos físicos de Newton.

En una carta escrita por Newton en 1699 a Francois Aston le recomienda la importancia de estudiar los siguientes aspectos en el viaje que pronto éste emprendería por Europa:

* Estudiar el mecanismo de timón y gobierno y, en general, los métodos de navegación de los barcos.
* Descubrir si los relojes de péndulo eran usados para determinar la longitud en expediciones oceánicas.
* Familiarizarse con la organización bélica y estudiar los métodos de construcción; capacidades de los fuertes de defensa que encontrara.
* Estudiar las riquezas naturales de cada país, en especial los metales y minerales y sus métodos de producción y purificación.
* Capacitarse de manera especial en los problemas de transformación de metales como oro, plata, mercurio, fierro, cobre y ácidos.
* Visitar la fábrica holandesa de pulimento de vidrio.
* Observar cómo protegían los holandeses sus barcos en los viajes a la India.

Este listado refleja claramente los intereses de la época, que Newton había recogido como parte de sus propios intereses de investigación. Veamos cómo y por qué no es casual ni una búsqueda desinteresada de la verdad, ni su dedicación a ciertas áreas del conocimiento cuyos resultados se verán vaciados en los Principia.

La época histórica en que vive el inglés Newton es aquélla que empiezan con la desintegración del sistema feudal, caracterizado por el surgimiento y desarrollo del capital mercantil y la manufactura. Los cambios que se llevaban a cabo plantearon un sinnúmero de problemas a la ciencia y la técnica y condicionaron su desarrollo y la forma de pensar de los investigadores.

Como se sabe, la economía medieval tiene como base principal la producción para el consumo personal y no para el comercio. De aquí la naturaleza limitada del cambio y del mercado, lo atrasado y estático de las formas de producción, las relaciones exclusivamente locales de los productores. Tenemos en lo general a los estados feudales dominando el campo y al gremio en las ciudades poco pobladas.

Conforme va cambiando el mundo medieval cambian las relaciones de producción, se separa el comercio, cuyos limites son ampliados, buscando producir para el intercambio local y entre ciudades cada ver más lejanas con base en el trabajo manufacturero y asalariado. Es la época de los grandes viajes de conquista, del intercambio cada vez mayor y del desarrollo de la industria minera. Surgen nuevos grupos y clases sociales ubicados cada vez más en las ciudades que renacen y se especializan en la producción de mercancías.

Junto con la manufactura las relaciones entre el trabajador y el patrón se modificaron, haciendo su aparición la relación capitalista entre ellos. El comercio y la manufactura llevan aparejada la creación de la burguesía, comerciantes y fabricantes como clases hegemónicas.

Así, con la desintegración de la economía feudal se camina hacia el dominio del capital mercantil y manufacturero. Esta nueva realidad planteará problemas nuevos y diversos y hará que los hombres cambien de costumbres y formas de pensar.

Se impondrán entonces las necesidades surgidas del comercio y la manufactura como necesidades sociales, entre las que destacan:

* Buenas y seguras embarcaciones, vías, medios de comunicación y transporte, principalmente fluviales.
* Mecanismos simples, instrumentos y herramientas diversas para enfrentar el crecimiento de la producción manufacturera y el de la industria minera.
* Procedimientos metalúrgicos nuevos que la explosiva demanda de metales como el fierro, plomo, oro y plata estaba requiriendo.
* Nuevos materiales, armas y su manejo, nuevas fortificaciones y el lanzamiento de proyectiles para la guerra, que la introducción de la pólvora estaba transformando y que en su momento, en donde el cambio y dominio se obtienen por la fuerza, son de importancia vital.

Estamos ante la serie de tareas practicas y teóricas que el desarrollo de las fuerzas productivas demandaba imperativamente resolver a la ciencia. Si comparamos las recomendaciones a Aston en su carta, concluiremos que los intereses de Newton se encuentran correlacionados perfectamente con dichas necesidades.

Esas demandas van a determinar fundamentalmente las tendencias principales de los intereses de la física de los periodos inmediatamente anterior y contemporáneo a Newton. Considerando aparte sus contribuciones reportadas en los Principia, observamos nítidamente que el ambiente y necesidades de la época orientarían los trabajos e inquietudes de los esfuerzos científicos. Haciendo a un lado la óptica y las primeras observaciones de electricidad y magnetismo por estar a un nivel menos desarrollado, vernos que eran los diferentes temas de la mecánica los que darían respuesta a los problemas generados por la nueva sociedad. Así vemos, por ejemplo, que durante diferentes momentos del siglo XVI y, con mayor énfasis en el siglo XVII:

1. El problema de las máquinas simples, de las superficies inclinadas y problemas generales de estática fueron estudiados por Leonardo da Vinci, Ubaldi, Galileo, Cardan y Stevin. Este grupo de problemas físicos constituyen la base de creación de equipos y mecanismos de transmisión necesario en la industria minera y la construcción, principalmente.
2. La caída libre de los cuerpos y la trayectoria de los cuerpos disparados son estudiados por Tartaglia, Benedetti, Piccolomini, Galileo, Riccioli, la Academia de Cimente. Es obvia la relación de estos temas con la artillería y la balística, que se habían convertido en el instrumento de dominación por excelencia.
3. Las leyes de hidro y aerostática, la presión atmosférica, funcionamiento y construcción de equipo de bombeo y el movimiento de los cuerpos a través de un medio resistente fueron objeto de investigación de Stevin, Galileo, Torricelli, Pascal, Henrique, los ingenieros de Gustavo Adolfo (constructor de puentes y canales), Boyle y la Academia de Cimente. Problemas éstos de capital importancia para resolver las dificultades en el bombeo de agua de las minas, así como su ventilación; la construcción de canales y compuertas; los procesos internos en un arma de fuego y el cálculo de la forma y tamaño de los barcos.
4. Los problemas de la mecánica de los cielos, su observación y consecuencias como las mareas, heredados por la revolución copernicana, fueron estudiados entre otros por Tycho, Brahe, Kepler, Galileo, Gassendi, Wrem, Halley y Roberto Hooke. Esta área de estudio vendría a resolver los problemas de la navegación en el cálculo de la latitud y longitud y hasta la determinación precisa del calendario y muchos problemas adicionales.
5. Teóricos importantes como trabajadores prácticos se dedicaron al desarrollo de la metalurgia que, junto con la alquimia, representó el inicio del proceso de construcción de la química moderna con las posteriores repercusiones en la industria siglos después.

Todos estos problemas y preocupaciones de la ciencia integraban el ambiente en que Newton se desarrolló, por lo que no sólo en los Principia serán recogidos de manera total, sino que aún en la vida general de Newton habrían de tener una gran importancia. Newton se nutrió de ese esquema general de la física que describimos y que estuvo determinado fundamentalmente por las tareas económicas y técnicas de la burguesía ascendente.

La clase progresista de esa época demandaba una ciencia adecuada, que resolviera sus necesidades derivadas del desarrollo de las fuerzas productivas. El conocimiento medieval le era inútil y estorboso, así que habla necesidad de resolver problemas específicos y se precisaba una metodología diferente, construir una base teórica general para la resolución de todos los problemas físicos planteados por el desarrollo social. Y fue precisamente ese estudio enciclopédico de los problemas físicos que describimos, la creación de la estructura armoniosa de la mecánica teórica que proveería el conocimiento para resolver las tareas de la mecánica terrestre y de los cielos. Esta síntesis le corresponde lograrla brillantemente a Newton en los Principia. Su contenido se integra con cada uno de los aspectos del esquema general de la física de su tiempo que hemos descrito y que representaron la respuesta a todo aquel grupo de problemas surgidos a partir de los intereses del transporte, comercio, industria minera, manufacturera y actividades militares como fuerzas sociales dominantes en esa época.

Así, en el primer libro de los Principia Newton expone detalladamente las leyes generales del movimiento mecánico bajo la influencia de fuerzas gravitacionales o centrales, con lo que aporta un método general para la resolución de la gran mayoría de los problemas mecánicos.

Las primeras tres secciones del segundo libro están dedicadas al problema del movimiento de los cuerpos en un medio resistente.

La quinta sección de ese mismo segundo libro expone los fundamentos de la hidrostática y los fenómenos de los cuerpos flotantes. También se considera ahí la presión de los gases y comportamiento de gases y líquidos bajo presión.

La sexta sección trata el problema del movimiento del péndulo en un medio resistente, que partía de los estudios del péndulo en el vacío.

En la séptima parte, con que termina ese segundo libro, se describe el movimiento de líquidos o flujo de líquidos a través de canales y tubas. Se estudian también las leyes que gobiernan la resistencia y trayectoria de un cuerpo lanzado en un medio resistente.

El tercer y último libro de los Principia está dedicado a explicar el sistema del mundo. A los problemas de los movimientos de los planetas, la luna y sus anomalías, la aceleración de la fuerza de gravedad, con lo que responde a innumerables interrogantes de la mecánica terrestre y la astronomía de su tiempo.

Este esquemático y apresurado bosquejo del contenido de la principal obra de Newton exhibe la coincidencia total con la temática física del periodo y con los problemas planteados por la economía, la técnica y la producción ante el avance de las fuerzas productivas. Por lo mismo se pueda concluir qua los Principia es un análisis y resolución sistemática de todo el conjunto de problemas físicos de su tiempo, que eran problemas de mecánica terrestre y celeste definidos por la sociedad mercantil y manufacturera.

Pero esa sociedad no sólo condicionará la problemática sobre la cual estaba puesta la atención de los científicos de le época, con Newton a la cabeza. Los cambios sociales imponían tras de sí una filosofía diferente, un momento de lucha política específica que habrán de marcar no sólo la organización, orientación y uso de la nueva ciencia que se creaba, sino también del contenido de ella.

Sería imposible imaginar que tantos y tan variados cambios de la producción material, que cambiaban la cotidianeidad de la gente, no se reflejaran en sus mentes, en su forma de pensar y de luchar. Un análisis de sólo las determinaciones materiales en la obra de Newton sería grosero y burdo, por lo que habremos de integrarlo con las determinaciones filosóficas atrás de la obra newtoniana. Intentémoslo.

La gran lucha de la burguesía europea contra el feudalismo tuvo momentos claves como la Reforma en Alemania, la revolución inglesa de 1648-1688 y la gran revolución francesa.

En Inglaterra en 1648, la burguesía peleó junto a una nueva aristocracia de origen muy reciente y comprometida con aquélla, contra la monarquía, la nobleza feudal y la iglesia dominante. La lucha contra el poder absoluto del rey es al mismo tiempo una lucha contra el centralismo y absolutismo del Estado eclesiástico dominante, y por lo tanto la lucha política de la burguesía naciente contra el absolutismo y el feudalismo fue llevada a cabo bajo la bandera de la democracia y la tolerancia religiosa.

Fueron de las sectas protestantes de donde salieron las principales fuerzas combatientes de la clase media progresista. Estaban en contra del materialismo abstracto y estático de Hobbes por ser herético y por no poder ser sustento de las acciones revolucionarias, a las que se oponía este materialismo por sus ligas con las aristocracia. Pero aún más perjudicial para la burguesía puritana que el materialismo de Hobbes, fue el materialismo de Overton por se la bandera de lucha política contra la burguesía, alcanzando un ateísmo militante y radicalmente opuesto a las bases de la religión.

Newton fue un representante típico de la burguesía ascendente, y en su filosofía incluye las características distintivas de su clase en un materialismo preñado de teología e idealismo vergonzante. Fue un miembro típico de la clase que realizó la transacción de 1688, dando origen no a una república sino a una monarquía constitucionalista.

Newton, hijo de un pequeño granjero, tuvo una modesta posición en la universidad y en la sociedad hasta su nombramiento como Director de la Casa de Moneda en 1699. Por sus conexiones también pertenecía a la clase media protestante que defendió la democracia y la tolerancia religiosa, como miembro del partido liberal Whig. Por eso sus relaciones filosóficas están llenas de un incipiente materialismo abstracto, entremezcladas con sus concepciones idealistas y teológicas. Así los elementos materiales de la física de Newton estarán subordinados a sus concepciones idealistas y teológicas, no como una concesión fácil para evitar la represión, sino como parte constitutiva de los conceptos físicos. Veamos el detalle de este aspecto que demuestra cómo en el contenido de la ciencia están presentes las ideologías sociales del momento.

La idea básica, aunque no la única, de los Principia, consiste en la concepción del movimiento de los planetas como consecuencia de la unidad de dos fuerzas; una dirigida hacia el sol, y la otra, la del impulso original dado por Dios. Es una división de trabajo entre Dios y una causa mecánica que representa el sello característico de los filósofos ingleses vinculados a dogmas religiosos y con principios materialistas de causalidad mecánica. Una transacción digna de la época.

Esta concepción y la apelación de Newton a una mente divina como elemento superior, creador y motor principal del universo, no es de ninguna manera accidental o una fácil concesión, sino es la consecuencia de su concepción de los principios de la mecánica.

Newton concibe al espacio como absoluto y estático e independiente de la materia; sólo como un receptáculo de ella. Concibe que la materia que se encuentra en el espacio puede estar en movimiento rectilíneo o en un estado de inercia absoluta y para cambiar de estado se precisa una fuerza exterior. Si un cuerpo material está inerte sólo una fuerza externa puede sacarlo de ese estado. Con ello está considerando al espacio separado de la materia y al movimiento como independiente de ellos. Por eso, negando el movimiento como un atributo inseparable de la materia, aceptándolo sólo como una forma posible que no siempre posee, le quita a la materia una propiedad inalienable. De lo que se infiere por qué antes no había fuerzas que la movieran y en el inicio del mundo tuvo que existir la materia inmóvil, en estado de inercia absoluta, para ponerla en movimiento es necesaria una fuerza externa a ella. En consecuencia tuvo que ser Dios, el creador, el que, dándole un impulso original, la puso en movimiento en el inicio del mundo.

Así, negando al movimiento el carácter de ser un atributo de la materia y aceptándolo únicamente como una forma de ella, Newton priva a la materia de esa propiedad que hoy se concibe como inseparable, sin la cual no puede ser explicada la creación del mundo por las causas naturales y se hace indispensable una fuerza inicial que eche a caminar al mundo, permaneciendo así hasta que otra fuerza externa lo pare.

Concepción de la cual Newton es perfectamente consciente y acepta gustoso. Por eso sostiene que… “cuando escribí el tercer libro puse especial atención a aquellos principios que podían probar a la gente intelectual la existencia del poder divino”.

Las ideas filosóficas predominantes de la burguesía ascendente se reflejaron así en el contenido mismo de la mecánica, en los conceptos de un Newton prototipo de esa clase en ascenso.

La física de hoy, en otras condiciones sociales, considera inseparables el espacio, materia, tiempo y movimiento, con lo cual se reformula la física de Newton, y en particular la intervención de Dios resulta una hipótesis innecesaria según la vieja escuela de Laplace a Napoleón.

Pero no sólo así se reformula posteriormente a Newton. Lo que hoy se enseña como física de Newton en las universidades es en muchos aspectos diferente a lo formulado por él. Así como el capitalismo mercantil y manufacturero fue condición social de la síntesis del siglo XVII, el capitalismo industrial del siglo XIX habría de impulsar la transformación de los planteamientos físicos newtonianos. En el campo de la física las investigaciones de Newton fueron centrales dentro de los límites de una forma de movimiento —o sea la mecánica—, pero no contiene una concepción del desarrollo y transición de una forma de movimiento a otra con la consecuente conservación de la energía, ni tampoco tiene una concepción sobre la naturaleza como un todo y sobre su evolución.

El hecho de que en la física de Newton no tengan lugar los conceptos de trabajo, potencia, energía, conservación, ni tampoco el de evolución, no debe sorprendernos si tomamos en cuenta la estructura productiva de Inglaterra a fines del siglo XVII. Sólo hasta que ella cambia y se entra en la revolución industrial con sus máquinas en el centro, impulsará la concepción y estudio de estos conceptos a pesar del peso de las ideas newtonianas, para poder diseñar y explicar el funcionamiento de las nuevas máquinas y sobre todo para aumentar su eficacia.

El concepto de energía y sus relaciones, como una de las categorías básicas de la física, aparece sólo cuando el problema de las interrelaciones entre varias formas de movimiento cobra importancia social. Este será sólo hasta que, en época posterior a Newton, el capitalismo de la revolución industrial impone condiciones objetivas con la maquinización y producción a gran escala que introdujo, para el estudio de las diferentes formas de movimiento además del mecánico newtoniano, el térmico y el eléctrico. Por eso se presenta junto a la revolución industrial del siglo XIX una reestructuración de las ciencias naturales, orientada y condicionada también por el momento social de forma análoga que lo sucedido en la época de Newton.

Newton, al estudiar la mecánica bajo conceptos idealistas y no ver toda la variedad de formas de movimiento en sus transformación de una a otra, en su auto-movimiento y desarrollo se refleja como un hijo prototípico de la Inglaterra del siglo XVII. Sus límites y carencias y contradicciones se presentan no porque su genio fuera insuficientemente grande sino porque, sin importar cuán notable sea el genio de los grandes hombres, en todas las esferas formulan y resuelven aquellas tareas que han sido originadas para su logro por las características del desarrollo histórico de las fuerzas productivas y las relaciones de producción.

 articulos
____________________________________________________________      
Francisco Javier Cepeda Flores
Grupo de Ciencias y Sociedad,
Facultad de Ciencias, UNAM.
     
       
como citar este artículo      
       
R07Articulos3   menu2
   
   
Alejandro García-Diego      
               
               
A manera de presentación
 
El autor del presente ensayo no pretende reclamar o hacer suya la originalidad de las ideas aquí expuestas. Muchas de ellas están discutidas en algunos trabajos de los miembros del personal académico del Instituto para la Historia y Filosofía de la Ciencia y la Tecnología de la Universidad de Toronto (Ontario, Canadá). Otras son del dominio público. Sin embargo, el autor considera que su divulgación y conocimiento son de vital importancia para todos aquéllos que deseen iniciarse en el estudio de la historia de las matemáticas y de las ciencias. En particular, una de las obras del ya fallecido Dr. Kenneth O, May1 fue de fundamental importancia para el desarrollo del presente trabajo.
 
Qué es y cómo se hace la historia de la ciencias
 
Introducción
 
La inquietud de los matemáticos y científicos por conocer los orígenes y desarrollo de sus respectivas disciplinas ha sido motivada, en general, por razones didácticas. La mayoría de los pedagogos encontraron que la manera más natural de introducir la materia bajo estudio en un libro de texto fue la de presentar un “bosquejo histórico” de la misma. En la mayoría de los casos este boceto cronológico consiste únicamente en una breve descripción de los eventos que el autor considera relevantes para la formación del marco teórico del tema en discusión. Por otro lado, también es frecuente observar al investigador buscando las raíces y orígenes de los términos y conceptos por él utilizados. Sin embargo, hoy día existe asimismo un gran número de individuos que consideran el estudio de la historia de las ciencias valioso en sí mismo.
 
Pero ¿qué se entiende por hacer historia de las ciencias? La historia de las ciencias, como casi cualquier disciplina, pretende encontrar respuestas a ciertas cuestiones. Obviamente, como su nombre lo indica, estas preguntas son de origen histórico y generalmente involucran el desarrollo de una cronología. Existen varios tipos de interrogantes, igualmente válidas todas ellas. La diferencia esencial radica en el posible interés que despierte en nosotros una pregunta en particular. Cuestiones cuya formulación parezca a primera instancia trivial (¿cuándo?, ¿quién?, ¿dónde?, ¿por qué?) pueden provocar difíciles e interesantes respuestas; o viceversa, interrogantes que a primera vista semejen involucrar razonamientos muy complejos, pueden tener soluciones relativamente muy sencillas.
 
Como historiadores de las matemáticas y de las ciencias nos interesa conocer cuáles fueron los orígenes de los problemas que el hombre se propuso resolver en el pasado, cuáles eran las ideas que utilizaron como punto de partida, y qué era lo que ellos esperaban como respuestas. Pero no nos interesa —o no creemos provechoso y sí muy injusto— el acusar a los intelectuales del pasado de ignorantes debido a su desconocimiento de nuestros conceptos y métodos actuales; como también criticamos el aplicar nuestros conceptos y métodos modernos a las ciencias del pasado. Nuestra finalidad como historiadores de las ciencias no es la de mostrar qué tan parecidos son los conceptos del pasado comparados con los de ahora. La meta del historiador es juzgar —no simplemente describir— los eventos del pasado tal y como se dieron en el pasado, en sí mismos y como producto de su cultura.
 
De acuerdo con las política editorial de la revista Historia Mathematica, su comité está dispuesto a publicar manuscritos que traten aspectos de la historia de
 
“…todas las ciencias matemáticas en todas las partes del mundo y de todos los periodos, incluyendo teoría y práctica; ciencias de la computación, estadística, cibernética, investigación de operaciones, ciencias actuariales, tecnología matemática, ambas, hardware (desde el ábaco hasta la computadora) y software (algoritmos, lenguaje, notación y tablas); todas sus aplicaciones; interrelaciones con las ciencias naturales, ciencias sociales, humanidades, artes y educación, filosofía, psicología y sociología de las matemáticas; comunicación matemática, incluyendo sistemas de información y bibliografía; biografías de matemáticos e historiadores; organizaciones e instituciones; historiografía; y la interacción entre todas las facetas de actividad matemática y otros aspectos de la cultura y la sociedad (Historia Mathematica 10 (1983) información para autores).
 
Y ésta es únicamente una revista entre quinientas, aproximadamente, de las que publican periódicamente artículos de la historia de las ciencias y la tecnología.
 
Aunque la finalidad del historiador es clara —intentar reconstruir el pasado— es absurdo tratar de sugerir cómo debe uno aproximarse a la historia de las ciencias; y, peor aún, cómo debe uno llevar a cabo el análisis histórico. Sería similar a pretender decirle a un científico cómo debería interpretar sus resultados. El historiador podría estar atraído por la historia intelectual de las ideas; es decir, en el cómo una idea se origina, desarrolla y transforma para ir confirmando el campo de las ciencias (véase, por ejemplo, David C. Lindbergh, Theories of visión from Al-Kindi to Kepler, Chicago, Chicago University Press, 1976). Otros podrían estar interesados en la historia social de las ciencias; donde interesa explicar de qué forma los distintos factores sociales que rodean al individuo moldean su concepción de las ciencias (véase por ejemplo Wolf Lepenies, “Anthropological perspectives in the sociology of science”, contenido en Science and cultures: Anthropological and historical studies of sciences. Everett Mendelsohn & Tehuda Elkana (editores), Dordrecht: Reidel, 1981). Algunos otros podrían estar intrigados por aspectos historiográficos o metodológicos (véase: Henry Guerlac, “Some Historical Assumptions of the History of Science”, contenido en Scientific Change, A. C. Crombie (ed.), Londres: Heinemann, 1963, pp. 797-813).
 
Tal vez sería más provechoso y práctico el señalar algunos de los errores que con mayor frecuencia se cometen al hacer historia de las ciencias.
 
1. No basta simplemente con describir cronológicamente el orden de los eventos (Louis N. Magner, A History of the Life Sciences, New York: Marcel Dekker, Inc., 1979. Véase también la reseña que hiciera sobre el mismo libro Peter J. Bowler, Isis, 70 (1980) 500-501). La cronología, por sí sola, no explica cómo y por qué se han desarrollado las ciencias. De la misma manera que los datos experimentales y la observación no conforman las ciencias naturales. Como dice Kenneth O. May: “la historia surge cuando la cronología es seleccionada, organizada, relacionada y explicada” (Kenneth O, May, Op. cit., p. 28). Este error normalmente cometido por científicos y matemáticos, sin un entrenamiento profesional en historia, involucra el hecho de producir análisis no históricos, o mejor dicho, historia sin análisis. Es decir, que el interesado no toma en cuenta las circunstancias y los motivos por los que se dieron dichos eventos. Como se dijo con anterioridad, nosotros estamos interesados en examinar y explicar cómo surgieron los problemas en el pasado, en conocer las herramientas o conocimientos que se podían utilizar para resolver el problema, y en comprender qué era lo que se entendía entonces como una solución a dicha cuestión.
 
2. Otro error, estrechamente relacionado con el anterior, consiste en pretender que “el pasado hable por sí solo” (Hubert Kennedy, Peano: Life and Works of Guiseppe Peano, New York: Reidel, 1980. Consúltese también la reseña de este libro que presentara Beatrice Lumpkin, Science and Nature No. 4 (1981) 72-76). Numerosos autores se limitan simplemente a citar en numerosas y largas ocasiones a los intelectuales del pasado, sin comprender que lo realmente importante es explicar el por qué se establecen tales argumentos.
 
3. Tampoco debemos forzar las fuentes para demostrar la validez de ciertas hipótesis prefabricadas —error comúnmente cometido por aquéllos que pretenden probar que las condiciones sociales han determinado indefinidamente el desarrollo de las ciencias— (véase como un ejemplo del uso de hipótesis prefabricadas el libre de Imre Lakatos, Pruebas y Refutaciones, Madrid, Alianza Editorial, 1978. Es particularmente interesante la reseña de este libro publicado por Martin Gardner en el The New York Review of Books, el 13 de agosto de 1981, pp. 37-40). No debemos olvidar que las condiciones históricas se encuentran en constante y continua transformación; de la misma manera, tampoco debemos tratar de establecer modelos que pretendan explicar la historia de las ciencias en su totalidad (David Bloor, Kwnoledge and social imagery, Londres, Routledge & Kegan Paul, 1976. Consúltese: Gad Freudenthal, How Strong is Dr. Bloor’s “Strong Programme”? Studies in History and Philosophy of Science 10 (1976) 67-83). En la lucha ideológica es común recurrir a la opinión de algún intelectual del pasado para fortalecer o apoyar nuestro propio punto de vista, sin tomar en cuenta las condiciones históricas bajo las cuales se estableció dicho juicio en el pasado.
 
4. Es de fundamental importancia el evitar la credulidad, Uno debe leer y analizar todas sus fuentes críticamente. En especial aquéllas que son de orden autobiográfico (Alan Wood, Bertrand Russell, el escéptico apasionado, Madrid, Aguilar, 1967, en relación con la autobiografía de Bertrand Russell, La autobiografía de Bertrand Russell, Madrid, Aguilar, 3 vols. En el caso de las obras autobiográficas también es muy interesante consultar cómo es que James D. Watson describe su descubrimiento de la estructura molecular del ADN. Véase: James D. Watson, La doble hélice, México, Conacyt, 1981. Los dos siguientes libros presentan diferentes interpretaciones —al menos en lo relacionado con el papel que jugó Rosalind Franklin en dicho descubrimiento— a la presentada por Watson: Robert Olby, The Path of the Double Helix, Seattle, Wash., University of Washington Press, 1975 y Anne Sayre, Rosalind Franklin and DNA, New York, W. W. Norton, 1975). La simple existencia de un documento no garantiza la veracidad de su contenido. Es recomendable comparar la información con otras fuentes que puedan comprobarla. Aun cartas personales deben ser juzgadas críticamente. Sí debemos ser cautelosos con el uso de las fuentes primarias, este cuidado debe ser aún mayor con el estudio de las fuentes secundarias. Debemos tomar en cuenta que en el pasado algunos autores escribieron con el fin de entender o el de popularizar las ciencias, y que en muchas de estas obras se distorsionó la verdad aunque fuera de una manera accidental. Recordemos por un momento el interesante ensayo de Alexandre Koyré (“Galileo y el experimento de Pisa: a propósito de una leyenda”, contenido en su libro Estudios de Historia del Pensamiento Científico, México, Siglo XXI, 1977, pp. 196-205) donde éste discute las deformaciones que han surgido alrededor del relato original de Viviani. En este aspecto de deformar el pasado en aras de presentarlo de una manera más entretenida, tal vez el campo —y por consecuencia el más peligroso— sea el libro de Eric T. Bell, Los Grandes Matemáticos, Buenos Aires, Editorial Losada.
 
5. El tratar de resolver problemas de prioridad (cuando estamos tratando de establecer plena justicia) con conduce, generalmente, a resultados valiosos (Girolamo Cardano, The Great Art or the Rules of Algebra, Camb., Mass., MIT Press, pp. xvii-xxii). Carl B. Boyer, en uno de sus libros sobre historia de las matemáticas, ha enunciado al menos treinta casos —entre los capítulos dieciocho a veinticuatro, esencialmente cubriendo de la mitad del siglo XVII a la mitad del siglo XIX— de resultados y teoremas matemáticos que no han sido bautizados bajo los nombres de sus descubridores originales. Hubert Kennedy llegó incluso a establecer la siguiente ley:
 
Ley de Boyer: las fórmulas y teoremas matemáticos no son llamados usualmente como sus descubridores originales (Hubert Kennedy), Who discovered Boyer’s law?, American Mathematical Monthly, 79, (1972) (67).
 
Y en seguida agrega que ésta es tal vez una de las pocas leyes cuyo argumento confirma su propia validez.
 
La literatura secundaria ha pretendido mostrar que Gauss se oponía al uso del infinito actual en Matemáticas, a través de extraer un párrafo de una carta personal.
 
6. Otro grave error usualmente cometido es lo que Ken May ha llamado el Síndrome Salomónico. Este error consiste en querer juzgar, desde un punto de vista actual, quién en el pasado estaba en ‘lo correcto’ y quién en el ‘error’. El principal problema es que este tipo de ensayo no nos explica ni qué pasó ni el por qué pasó (véase, Alexadre Koyré, “Un experimento de medición”, contenido en Koyré, Op. cit., pp. 274-305, y véase también la crítica a este ensayo por Thomas B. Seattle, An Experiment in the history of science, Science 133, (1961), pp. 19-23).
 
Es necesario ser extremadamente cuidadosos con las notas autobiográficas. Varios filósofos e historiadores han señalado numerosas exageraciones en sus recopilaciones.
 
7. El hacer historia especulativa puede presentar profundos problemas. Es natural encontrar argumentos especulativos en la mayoría de los trabajos históricos, debido a que nuestras fuentes presentan, por lo general, grandes lagunas de oscuridad y se vuelve necesario el suponer qué podría haber sucedido. Desgraciadamente, existen áreas del conocimiento matemático y científico de las cuales se desconocen casi por completo todas sus fuentes (por ejemplo, ¿cómo surgió el proceso de contar?). En el presente ejemplo nosotros podemos suponer cómo pudo haber surgido, pero a pesar de que nuestro relato suene muy lógico y consistente nunca lo podremos concebir como un hecho (véase, por ejemplo, Richard J. Gillings, Mathematics in the time of the Pharaohs, New York, Dover, 1982 y Otto Neugebauer, The exact sciences in antiquity, New York, Dover, 1969; quienes presentan dos interpretaciones diferentes de un área eminentemente especulativa de la historia de las matemáticas: la matemática egipcia).
 
8. Ken May también hay señalado el daño que puede ocasionar el Síndrome de Mateo. Es costumbre de los historiadores el tratar de asignar más o de exagerar, los ya increíbles logro de algunos científicos del pasado (consúltese: Leopold Infeld, El elegido de los dioses. La historia de Evariste Galois, Buenos Aires, Siglo XXI, 1974 y Tony Rothman, Genius and Biographers: The Fictionalization of Evariste Galois, The American Mathematical Monthly, 89 (1982), pp. 84-106). Es muy común el poner únicamente atención a las ‘estrellas’ y dejar de lado a todos aquellos peones que poco a poco han contribuido al enriquecimiento de las distintas ciencias (véase, Eric T. Bell, Op. cit.).
 
9. Este error, estrechamente relacionado con el mencionado en el inciso cinco, es el de suponer que porque estamos apoyando nuestras ideas en las opiniones de otros historiadores y/o filósofos, esto automáticamente garantiza su credibilidad. Este defecto es fácil de detectar cuando encontramos una gran cantidad de citas o las fuentes de consulta no incluyen fuentes primarias (véase, Laurence Ch. Young, Marthematicians and Their Times: History of Mathematics and Mathematics of History, New York, North Holland, 1981. Consúltese también la reseña de este libro presentada por Philip C. Enros, Historia Mathematica, 11, (1984) pp. 99-100). Las citas deben ser usadas con mucha cautela. Para demostrar su comprensión es más recomendable expresar las ideas con nuestras propias palabras o, en su defecto, parafrasearlas.
 
10. Por último, uno de los errores más graves en lo que se puede incurrir es el de plagiarismo (el copiar o imitar el lenguaje, ideas y pensamiento de otro y pasarlos como si fuera el trabajo original de uno. Standard Desk Dictionary, New York, Funk & Wagnalls, 1977, p. 502). La manera más fácil de evitarlo es el de seguir el método de notas, que fuerza de una manera natural y sutil, el desarrollo de un trabajo original.
 
El proceso
 
Pero ¿cómo se lleva a cabo dicho fin? ¿Cómo es posible —o qué pasos son necesarios— para conducir a buen término nuestra investigación? Para que ésta sea útil de alguna manera a la comunidad de historiadores, debe contener:
 
nuevos datos históricos obtenidos de fuentes primarias, análisis de datos conocidos, reseña de trabajos históricos anteriores, examen de recientes investigaciones científicas o históricas, manuscritos previamente no publicados, traducción o reimpresión de materiales inaccesibles, bibliografías anotadas y cronología crítica (Historia Mathematica, 10, (1983). Información para autores).
 
Obviamente no se exige que un ensayo presentado en un curso de licenciatura sea necesariamente publicable. Al estudiante basta con exigirle que presente un problema —aunque no necesariamente sea original— y lo resuelva de una manera lógica y convincente. El alumno podría incluir nueva evidencia para apoyar sus puntos de vista o basarse en los de otros —siempre y cuando respete los derechos de los autores y no se vea envuelto en problemas de plagiarismo— para presentar viejos puntos de vista bajo una nueva perspectiva.
 
El historiador debe, con respecto a la información necesaria para producir un trabajo: recobrarla, almacenarla, analizarla y presentarla. Obviamente estas etapas no son rígidas ni excluyentes, sino que se encuentran retroalimentándose constantemente. En casi cada paso del trabajo el investigador usa simultáneamente información científica, bibliográfica e histórica.
 
La mayor dificultad que enfrenta cualquier historiador es la ignorancia y limitaciones de las fuentes a su alcance. Además, por más rica que sea una biblioteca —aún en países desarrollados— siempre nos encontraremos con inminentes limitaciones bibliográficas.
 
Ante todo es necesario describir las fuentes necesarias para el desarrollo de una investigación histórica. La clasificación general incluye:
 
i) fuentes primarias: son fuentes de información directa o de evidencia e incluyen normalmente publicaciones que contienen contribuciones originales al conocimiento científico o filosófico, correspondencia personal, diarios personales, escritos autobiográficos, manuscritos, artefactos, películas, fotografías, cintas.
 
ii) fuentes secundarias: son escritos basados en fuentes primarias. Las fuentes secundarias incorporan a nuestra bibliografía publicaciones históricas, tratados generales y algunos libros de texto.
 
iii) fuentes terciarias: son aquéllas que tratan generalmente los materiales de referencia. Estas fuentes comprenden diccionarios generales, diccionarios biográficos, diccionarios científicos, el catálogo de la biblioteca, catálogos impresos, revistas de reseñas, índices de revistas y periódicos, bibliografías, guías, índices de citas científicas, directorios, tratados históricos. Es aquí, en las fuentes terciarias, donde se encuentra el punto de partida más lógico para iniciar nuestras investigaciones. Las enciclopedias acostumbran describir las posturas o conocimientos generalmente aceptados y éstos, en ocasiones, no siempre presentan el punto de vista de los expertos. No es necesario hacer hincapié en que la categoría o clasificación de nuestras fuentes serán consideradas como fuentes primarias, en otras como secundarias, y viceversa. Sin embargo, es importante señalar que toda fuente debe ser analizada con extremo cuidado. Siempre debemos estudiar nuestras fuentes sin importar si son primarias, secundarias o de orden n-ésimo con el mismo carácter crítico y escéptico. Todas las fuentes pueden presentar la misma naturaleza indigna de confianza y ser incorrectamente interpretadas.
 
Una vez recobrada la información necesaria, el problema más inmediato es cómo conservar la información vital para nuestra investigación. Debemos tomar en cuenta ante todo que si la nota que hemos elaborador no la podemos localizar más tarde, nuestra labor fue infructuosa. Por cuestiones de manejo de grandes cantidades de información, el medio que ha demostrado ser el más práctico para escribir y conservar nuestras notas es el de fichas o tarjetas. Sin embargo, antes de entrar a los detalles de cómo se maneja este tipo específico de notas, hagamos algunas observaciones válidas para cualquier sistema de información.
 
1. No es necesario —ni recomendable— hacer notas cuando se puede hacer uso del original o de una fotocopia del original.
 
2. Es necesario clasificar todas las notas haciendo referencia al tema de que se trata, la fuente de la que proceda y la fecha a la que corresponda.
 
3. Es necesario escribir de tal manera como si otra persona fuera a leer las notas. Muchas veces nuestras notas son tomadas con tan mala caligrafía que el propio autor las encuentra imposibles de descifrar más tarde. Es necesario recalcar que no resulta aconsejable convertirnos en hermenéuticos de nuestros propios textos.
 
4. Es también necesario clasificar las notas bajo temas generales o clasificaciones cronológicas.
 
Tal vez uno de los sistemas de mayor uso en el mundo sea el de las fichas o tarjetas (de 3 X 5, 4 X 6 o hasta 5 X 8 pulgadas). La mayoría de las bibliotecas que no cuentan con un sistema de micropelículas o microfichas para el uso de sus catálogos, cuenta con un sistema de tarjetas —parece ser que la razón principal para la existencia de dicho sistema es el poder satisfacer las demandas de su continuo crecimiento. La biblioteca general de nuestra Facultad cuenta con dicho método y es la manera más práctica —cuando se tienen recursos limitados— para describir el acervo de una biblioteca, ya sea ésta pública o personal.
 
Es necesario esbozar ciertas características (que se aplican a diversos sistemas de fichas) antes de entrar en detalles de cómo elaborar nuestras propias tarjetas.
 
1. El sistema se debe planear en función de las necesidades de uno mismo.
2. Los ficheros debe ser trabajados periódicamente.
3. Debe conservarse un solo dato por tarjeta.
4. Cada tarjeta debe ser catalogada bajo una palabra o palabras clave.
5. Uno debe ser explícito, claro, concreto y legible.
6. En el caso de transcribir una cita, ésta debe ser copiada cuidando exageradamente todos los detalles del original, incluyendo puntuación.
 
El siguiente sistema, modificado del original de Ken May, ha probado ser muy útil, preciso y funcional para el autor del presente ensayo. Ante todo las tarjetas de información han de ser divididas en dos grandes categorías: bibliográficas y de notas. Las primeras, a su vez, pueden ser subdivididas en dos: por autores y temáticas. Las segundas —las de notas— también deben ser subdivididas en dos: temáticas y cronológicas. De tal manera que obtendríamos el siguiente cuadro:
 
cuadro
 
Todo el sistema de información se puede mantener en un solo fichero, o se puede utilizar un fichero para cada una de las distintas categorías. Es importante hacer notar que entre más tarjetas se tengan, aunque muchas de éstas contengan esencialmente la misma información, más fácil será localizar referencias cruzadas de los datos necesarios. Se ha encontrado el uso del papel carbón muy práctico para producir una, dos o hasta tres copias simultáneamente —para evitar malgastar tiempo reescribiendo los mismos datos hasta en tres o cuatro ocasiones distintas. El duplicar la información es particularmente benéfico en el caso de fichas bibliográficas, las cuales pueden ser arregladas por medio del nombre del autor y el tema de estudio. El clasificarlas bajo el título del artículo o del libro no representa ninguna ventaja. De la misma manera toda ficha temática puede ser catalogada simultáneamente bajo uno o varios subórdenes temáticos y otro cronológico.
 
Una de las formas más completas para elaborar las fichas bibliográficas es la siguiente:
 
ejemplo 1
ejemplo 2
 
 1. Año de publicación. Es de vital importancia que el año de publicaciones se encuentre en la esquina superior derecha, pues una vez clasificada la ficha por autor, ésta debe ser catalogada en orden cronológico. El subíndice alfabético puede ser utilizado para distinguir entre distintas obras publicadas —o escritas— por el mismo autor en el mismo año. Es recomendable usar estos caracteres aun en el caso en que sólo se cuente con una obra por año.
2. Nombre del autor empezando por el apellido.
3. Título completo de la obra.
4. Lugar de publicación y editor.
5. Informaciones acerca de posibles republicaciones y otras ediciones. También se puede indicar si el libro contiene alguna importante introducción o prefacio por algún otro autor. Es práctico producir distintas fichas para las traducciones.
6. Clasificaciones temáticas (palabra(s) clave), para poder ser clasificada en un orden temático, además del de autores.
7. Fecha en que fue leído. La fecha de adquisición se puede indicar dentro del mismo artículo y/o libro.
8. Estos caracteres indican si tal fuente se encuentra en la biblioteca personal de uno (!) y si conservamos el original (o) o una copia fotostática (x).
9. Este espacio está reservado para el número del catálogo de la biblioteca, en caso de que uno tenga que relocalizar el mismo libro en distintas ocasiones.
10. Esta información nos puede indicar la procedencia original de dicha fuente bibliográfica [véase, más adelante, la descripción de la ficha de notas (ejemplo 4)].
 
Este ejemplo de ficha bibliográfica puede ser utilizado indistintamente para un libro o artículo. La diferencia esencial sería el caso del inciso 4, en donde en lugar de indicar el lugar de publicación y editor, señalaríamos el nombre de la revista donde fue publicado indicando el volumen y las páginas. Otro posible cambio sería el inciso 5, en donde en lugar —o además— de mencionar posibles reimpresiones, podríamos enumerar algunas de las obras relacionadas con este escrito. Tal vez el usuario encontraría útil el distinguir entre fichas bibliográficas que hagan referencia a fuentes primarias y secundarias. En el caso particular del que escribe estas notas no ha encontrado dicha distinción del todo práctica, pues como lo indicaba con anterioridad, es muy relativo cuando una fuente es primaria o secundaria.
 
Como también indicaba anteriormente, en lugar de duplicar la información escribiendo dos fichas distintas para ser clasificadas (una por el autor y otra temáticamente), resulta muy práctico el usar papel carbón para obtener una copia extra. En tal situación, el original puede ser clasificado por autor y la copia bajo tema. En este último caso es de vital importancia el no dejar de indicar la palabra o palabras claves —tal vez abreviadas— que nos ayuden a su clasificación. Es recomendable el que estas palabras no definan categorías demasiado generales que provoquen que nuestro sistema no resulte ser práctico. Por ejemplo,
 
ejemplo 3
 
los términos “Harvey, Malpighi, Hooke” son más específicos que el vocablo “fisiología” para caracterizar una de las obras de Wilson. En la práctica resulta benéfico tratar de ser lo más preciso posible. En este sentido también es recomendable establecer tantas subdivisiones de una categoría como sean posibles y necesarias.
 
¿Cuál es la información que se debe transcribir a una tarjeta al hacer nuestras notas? Esto depende en gran parte de cada uno; además, también está en función de la fuente que esté uno consultando y está también en relación directa con el trabajo en particular y la profundidad deseada. Siempre debemos pensar que hemos de ser lo más generosos posible con la transcripción de las indagaciones, simplemente porque nunca sabremos en qué momentos nos podrán ser de utilidad. Más vale notas de más, que de menos. Es por esto que es fundamental tratar de conservar dicha información de la mejor manera posible. A casi todo investigador le ha sucedido el que olvide sus fuentes y aun las notas. Es frecuente el preguntarnos: ¿dónde lo leí?, ¿quién lo dijo?, ¿en dónde lo dijo?, y así en adelante. Independientemente de los enunciados que contenga cada ficha, ésta debe estar de tal manera estructurada que siempre nos sea posible determinar la fuente de información original. La siguiente ficha ya no es bibliográfica, sino que contiene detalles que más tarde nos ayudarán a construir nuestra propia versión de los hechos y, más importante aún, también nos permitirán regresar a nuestras fuentes originales.
 
ejemplo 4
 
1. Estos datos son más que suficientes para indicarnos la fuente de procedencia de nuestra información. Los datos provienen del diario personal de Lady Amberley del día 16 de abril de 1871 y se encuentra ella citada en una obra de Gray. El año 1962 nos señala la fecha de publicación de su escrito y el carácter alfabético (en este caso “b”) nos dice que es su segunda obra que tenemos clasificada en dicho año. Los números latinos (en esta ocasión “302”) nos indican la página exacta. Un carácter romano (junto a la fecha entre paréntesis —en este caso “II”) nos indica el volumen preciso, si el trabajo original fue publicado en más de un volumen. Claro que en función de que nuestro sistema funcione perfectamente fue necesario haber elaborado la ficha bibliográfica de dicha obra de Gray con anterioridad.
2. La fecha del evento nos permite establecer un orden cronológico que puede —y en la mayoría de los casos resulta— ser completamente independiente del orden temático.
3. Las palabras clave —en nuestro caso particular ‘Spalding, Imprinting’— nos indican dónde será clasificada la ficha desde el punto de vista temático. Estas palabras clave pueden resultar ser demasiado generales (e. o., en el caso que estuviéramos interesados en escribir un ensayo biográfico sobre él) o muy precisas (e. o., en el caso que estuviéramos describiendo un ensayo sobre la historia de la etología o los orígenes del “Imprinting”). Es importante tratar de mantener simultáneamente ambas categorías —temáticas y cronológicas—, pues en algunas ocasiones nos interesará conocer la metamorfosis de cierto concepto en el transcurso del tiempo, pero de igual manera nos podría interesar el cómo era interpretado un concepto por un número determinado de intelectuales contemporáneos. Por ejemplo, ¿cómo formuló Darwin su concepto de ‘selección natural’ en 1859 y cómo lo hizo en 1872? ¿Existe algún cambio en su interpretación de dicho concepto entre la primera y la sexta edición de El Origen de las Especies por medio de la Selección Natural? Si mantuviéramos un orden estrictamente cronológico tendríamos que consultar todas nuestras notas sobre Darwin de 1859 hasta 1872 inclusive—, que en un principio pueden resultar ser pocas fichas, pero que en un lapso de tiempo relativamente pequeño pueden alcanzar un número extraordinario. En tal caso hubiera sido muy práctico haber mantenido una categoría especial para el concepto “selección natural”. ¿Cómo saber qué categoría va a resultar importante? Esta es una pregunta que no tiene fácil respuesta. Tal vez ahora cierta categoría resulte muy provechosa, y tal vez en tres o diez años no tenga ninguna razón de existir. Es por esto que señalábamos con anterioridad que es necesario estar trabajando constantemente en los archiveros: añadiendo, clasificando y posiblemente, reclasificando.
 
La siguiente ficha ilustra claramente una tarjeta que nos sirve para conservar un dato histórico importante así como las distintas fuentes donde es mencionado
 
Ejemplo 5
 
Resumiendo: es de vital importancia, independientemente del sistema que seleccionemos para tomar nuestras notas, que éste nos permita —de una manera precisa, práctica y concreta— recobrar, almacenar, analizar y presentar la información necesaria para llevar nuestra investigación histórica a un feliz término.
 
Sugerencias generales para producir el ensayo
 
Nuestro entrenamiento profesional —como matemáticos y científicos— está altamente basado en la elaboración de exámenes y reportes de laboratorio. En muy contadas ocasiones se nos exige escribir un ensayo, por lo que el aprendizaje de las técnicas y métodos de investigación y redacción se ven fuertemente relegadas a lo que el estudiante fue capaz de asimilar en su enseñanza preuniversitaria, a su propio potencial o intuición gramatical (si es que tiene alguna). Sin embargo, es muy probable que nuestra futura actividad profesional nos demande su conocimiento —ya se a través de la necesidad de escribir artículos de investigación y divulgación, reseñas de libros, notas de clase, reportes de trabajo, etc. Escribir un ensayo histórico para un curso universitario se puede convertir en una de las experiencias más inolvidables (léase “positivas”) o, al revés, en una de las experiencias más traumáticas y desastrosas y, por lo tanto, también indeleble. La mayor parte de los profesionistas se han visto envueltos en ambas situaciones.
 
La siguiente lista de regla, una vez más, no tiene la finalidad de describir estas técnicas y métodos de redacción y buen escribir, sino que únicamente pretende esbozar una serie de lineamientos prácticos para tratar de hacer más placentero el requerimiento, o al menos para sobrellevarlo.
 
1. Planear. Debemos siempre, ante todo, planear el ensayo. Se deben seguir ciertas etapas, como seleccionar el tema, enfoque, estilo y formato. Al iniciar nuestra investigación debemos considerar a quién va a estar dirigido nuestro ensayo. También tenemos que tomar en cuenta el conocimiento del área que estamos dando por supuesto y cómo se relaciona este problema con otros eventos cronológicamente simultáneos.
 
2. Iniciar inmediatamente. Aunque el dicho mencione que “no por mucho madrugar amanece más temprano” es necesario iniciar la lectura de las fuentes seleccionadas una vez que el ensayo ha sido asignado. De esta manera se evitará, al menos, que su realización se cruce con la preparación de los exámenes de otras materias. Si estamos acostumbrados a hacer las cosas la víspera porque trabajamos mejor “con cierta presión”, es recomendable evitar dicha práctica en este tipo de situaciones. Ni aún los más talentosos redactores pueden hacer un trabajo decente sin el tiempo suficiente.
 
3. Hacer un bosquejo preliminar. Sería absurdo pensar que una vez leídas las fuentes uno se puede sentar a escribir el ensayo directamente. Para la mayor parte de nuestros proyectos tenemos un punto de partida o una idea preconcebida de lo que vamos a encontrar. Muchas veces el proceso de investigación nos muestra que nuestra impresión era falsa, o que al menos podía conducir a malos entendidos. Por esto es necesario evaluar y discutir —con unos mismo— las posibles consecuencias de lo que uno ha leído antes de iniciar la redacción del escrito. Es recomendable hacer una lista de las ideas que queremos discutir junto con los ejemplos o citas que apoyen o le den validez a nuestras aserciones.
 
4. Escribir un manuscrito preliminar. No todos tenemos la claridad y la disciplina mental de Bertrand Russell, quién podía dictarle un libro completo a una de sus secretarias en un solo día (Bertrand Russell, Retratos de memoria y otros ensayos, Madrid, Alianza Editorial, 1976, pp. 214-218. Consúltese también: Kenneth Blackwell & Elizabeth Ramsden, Russell’s unpublished book on the theory of knowledge, Russell No. 19 (otoño 1975) pp. 3-14 & 18). El sueño ideal de todo estudiante mexicano sería pensar que el primer manuscrito que uno hiciera fuera tan bueno que después no sería necesario hacer ningún otro. Sin embargo, la realidad es muy distinta. En el primer manuscrito es recomendable jugar con las palabras, estudiar en detalle qué vocablo puede expresar más claramente lo que queremos decir. También es posible cambiar el orden de algunos de los párrafos —o de secciones completas—, analizando el mejor orden lógico de nuestros argumentos. Debemos tomar en cuenta que este primer manuscrito debe ser únicamente para nosotros. No importa qué tan manchado o parchado esté. Lo importante es que debe contener el germen de nuestras ideas.
 
5. Dejar descansar el manuscrito por un par de días. Es muy provechoso dejar descansar el manuscrito por un par de días para evitar caer en los mismos errores o círculos viciosos. Es posible, asimismo, que el simple hecho de estar pensando en el escrito nos permita tener una visión más clara de sus finalidades, méritos y defectos. También es muy conveniente pedir a una tercera persona que lea el ensayo y exprese una opinión crítico-constructiva de los diferentes elementos que lo componen. Esto no implica necesariamente que uno tengo que tomar en cuenta una y cada una de las sugerencias del afortunado lector. Pero sí nos puede señalar graves errores de composición, comprensión, análisis y hasta ¡ortografía! —entre otros, los cuales deben ser corregidos antes de su presentación final.
 
6. Impresión final. No es recomendable tratar de implementar cambios a la hora de esta obteniendo la impresión final. Tal vez el cambio de una u otra palabra no altere mayormente la esencia del ensayo. Pero aún en el caso de ser un(a) excelente mecanógrafo(a) no es aconsejable intentar cambiar partes sustanciales del ensayo a la hora de estarlo mecanografiando. Si aún no estamos satisfechos con el resultado final, volvamos al manuscrito preliminar. Aún en el caso de haber contratado los servicios de un(a) mecanógrafo(a) profesional, uno es completamente responsable de la presentación final, incluyendo todos los méritos y principalmente todos los errores.
 
7. Corregir exhaustivamente. La única manera de evitar errores es revisar y corregir, revisar y corregir… Uno tienen que revisar en numerosas ocasiones el material escrito en especial s uno ha sido el que llevó a cabo la copia final. ¡Una vez que uno tiene la certeza de que el escrito no contiene errores, habrá que revisarlo una vez más!
 
8. Hacer una fotocopia. Nunca se debe entregar un trabajo a nivel universitario sin conservar una copia fotostática del mismo. La mayoría de los maestros universitarios han perdido trabajos realizados por los alumnos y es responsabilidad del afectado el poder demostrar que el trabajo fue elaborado y cuándo se entregó. Al presentar el trabajo final, solicite a su maestro que le firme su copia (con fecha). En algunas ocasiones la copia fotostática del ensayo puede parecer más clara y limpia que el original. En dicho caso, presente la copia (si así lo autoriza el profesor).
 
     
Referencias bibliográficas

1. Kenneth O. May. Bibliography and Research Manual of the History of Mathematics. Toronto: University of Toronto Press, 1974.


     
____________________________________________________________      
Alejandro García-Diego
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
_____________________________________________________
como citar este artículo 
  [En línea]
     
R07Articulos4
  menu2 índice 07
siguiente
anterior
PDF
   
   
 Nota de los editores      
               
               

Después del movimiento estudiantil de 1968 quedó en algunos
sectores universitarios la inquietud de relacionar su actividad académica con las necesidades de sectores amplios de la población.

La entrevista que a continuación reproducimos fue sostenida en 1982 con Humberto Madrid,* profesor del Departamento de Matemáticas. En ella se reseña la experiencia que en 1973 confrontaron varios miembros de dicho departamento, en la colonia Rubén Jaramillo.

¿Podrías hablar del trabajo en la colonia Rubén Jaramillo?

Lo que voy a plantear es mi opinión personal. Es bueno que aclare esto, porque seguramente hay otras opiniones al respecto y sería interesante que éstas se tomen en cuenta en posteriores entrevistas.

Se trató del trabajo que hicimos un grupo de gente de Matemáticas, estudiantes y profesores, en una colonia popular que estaba asentada en una extensión semiurbana al sur de Cuernavaca.

En la colonia se estaba dando una serie de situaciones muy interesantes. Había una especie de gobierno popular, con una organización comunitaria en la que se pretendía que no hubiera propiedad privada y los servicios fueran administrados colectivamente, lo cual daba a la colonia un carácter sui generis. Se podría considerar que era una isla dentro del movimiento popular que prometía mucho, y donde convergieron muchas fuerzas democráticas en ese momento, en un intento por manifestarse y relacionar la actividad académica y científica con los sectores populares.


¿Cómo fue que entraron en contacto con la colonia?

Bueno, la coordinación con ellos surge de una manera muy interesante. Algunos profesores empezamos a enterarnos de la existencia de la Rubén Jaramillo a través de estudiantes de física y matemáticas que habían formado algunas brigadas que trabajaban allí domingo a domingo. Ellos nos comenzaron a platicar de las características de la colonia y de lo que se necesitaba hacer, ya que había muchas obras en construcción y requerían de mucho apoyo. También nos plantearon que se aceptaba que fuera gente a ayudarlos, pero no se permitía fácilmente la injerencia de estudiantes universitarios o grupos políticos directamente en los asuntos propios de la colonia. Lo que hacían era que la gente de fuera empezaban a trabajar en cuestiones específicas y concretas los fines de semana, por ejemplo, la edificación del hospital, la tortillería, levantar un puente que dividía a la colonia en dos; en fin, cosas de ese estilo para comenzar a conocer las actividades y permitirle su participación a otro nivel.

Fue así como nos mostramos interesados en conocer ese trabajo y empezamos a ir, pasando varios fines de semana haciendo labores muy cotidianas como adobes. Entonces sucedió que se propusieron echara andar una escuela primaria con una filosofía un poca distintiva, aunque no sabían cómo, pero pensaban en algo que estuviera relacionado con las problemas de la colonia. Para lo anterior contaban con un grupo de profesores, también invasores, y que eran normalistas. Había un gran entusiasmo al respecto, pues lo que deseaban era lograr capacitarse en algunas cuestiones donde sentían fallas, y fue en ese sentido que se planteó la posibilidad de la vinculación, es decir, tratar de dar una cierta capacitación y actualización a los profesores en algunos aspectos de Matemáticas para nivel primaria.

Lo anterior podría parecer cosa trivial pero no fue así. Lo interesante fue que, discutiendo con ellos los programas de estudio, nos dimos cuenta de que, por un lado ellos tenían la capacitación tradicional que reconocían era muy endeble, y por otro estaba el que en unos cuantos meses iba a implantarse la reforma educativa y el nuevo libro de texto gratuito contenía un nuevo planteamiento sobre la enseñanza de las Matemáticas, en el que intervenían, por ejemplo, conceptos de le teoría de conjuntos. Llegamos entonces a la conclusión de que ni el enfoque tradicional ni el nuevo eran adecuados para las finalidades que perseguía le colonia.

¿Cómo es que llegaron a la conclusión de que el enfoque moderno no servía?

No lo recuerdo bien, pero creo que la forma de introducción de los conceptos matemáticos y el lenguaje que se usaba no eran entendidos por los profesores y simplemente los veían más alejados de la realidad que el lenguaje tradicional.

Además en la colonia existía el interés de conocer las cuestiones conceptuales, pero sobre todo a través de la práctica, en particular la práctica social, como eje de la educación. Entonces el planteamiento un tanto formal de las matemáticas en el libro de texto era una línea que no servía a los intereses de la colonia. Aunado a esto la reforma educativa había sido fuertemente cuestionada, y en particular nosotros veíamos que la parte de matemáticas se había hecho sin experimentos previos ni experiencia de los autores, por lo que distaba mucho de corresponder a situaciones concretas de muchos sectores del pueblo de México.

En Matemáticas ¿qué lograron impulsar en la colonia? ¿En qué áreas trabajaron?

Una de las líneas fue el comenzar a trabajar con los profesores en las cuestiones que más les interesaban y tratar de superar algunas del deficiencias que tenían en la preparación matemática; por ejemplo, sentían que tenían problemas con los quebrados, no sólo en su manipulación sino en las implicaciones que tenían y para que servían. Es de este tipo de cosas de las que, en la Facultad de Ciencias, estamos alejados. Para nosotros los quebrados no son más que una definición de los racionales, así que tuvimos que volver un poco a su significado para saber cuál es el contenido de esta herramienta matemática. Evidentemente había allí cosas triviales como que una fracción representa un número de partes y de allí tomar algunas de ellas. Pero la cuestión iba un poco más allá, ya que veíamos la necesidad de dar una interpretación a fondo de los conceptos, un poco más de motivación, y eso ya no era tan fácil.

Hay que decir que en todo esto estudiantes y profesores llegamos a trabajar de manera coordinada. Muchas de las ideas fueron aportadas por los estudiantes, y aunque muchas eran esquemáticas fueron discutidas y retomadas y de ellas surgieron cosas muy interesantes. Recuerdo, por ejemplo, que cuando intentamos buscar una interpretación del concepto de quebrados la cosa se puso muy difícil. Estuvimos buscando en libros y lo único que encontramos fue un libro que recién estaba circulando, no recuerdo el título pero el autor era el Dr. Fregoso, quien planteaba que era imposible dar una interpretación a la división de quebrados. A nosotros nos parecía que no era así y estuvimos trabajando un tiempo con ello y logramos encontrar una interpretación que —aunque sofisticada— no dejaba de ser interesante. Desafortunadamente las cosas que escribimos en esa época se extraviaron, lo cual es una lástima.

Además del trabajo anteriormente mencionado, se planteaban varios temas de investigación que trataban cosas interesantes. En este mismo sentido se planeó una serie de pláticas relacionadas con problemas que eran importantes para la colonia, por ejemplo, estadísticas económicas. Las pláticas estaban diseñadas para que el profesor actuara como coordinador y los niños aprendieran sobre la practica algunos de los conceptos. Para nosotros éste era un campo de experimentación muy interesante. Pero todo esto se vino abajo con la represión a la colonia.

¿Qué tipo de necesidades en cuanto al trabajo a matemáticas fueron cubiertas?

Hay que tener en cuenta que el trabajo no fue muy extenso. Empezamos en julio y en septiembre fue la represión; por lo tanto hubo poca oportunidad de tocar muchos ternas. Se tenía en perspectiva, por ejemplo, trabajar con geometría, es decir, empezar a buscar enfoques alternativos a esta rama. Usar una metodología diferente a la usual dentro de la escuela primaria era uno de nuestros objetivos y veíamos muchas posibilidades de encontrar nuevos enfoques a la enseñanza de temas variados. Estábamos en una etapa de reflexión, incluso de maduración de las ideas, había muchas novedades e incursionamos en terrenos nunca pensados. Creemos que definitivamente se empezaron a dar los primeros pasos y, aunque dejamos muchas coses fuera, de haber seguido se hubieran podido hacer cosas con mayor profundidad y claridad.

Además de truncar el trabajo en matemáticas, con la represión ¿tuvo algún otro problema la gente de la Facultad?

Sí, definitivamente. La represión —el ejército intervino y tomó la colonia— rompió todo contacto, pues durante muchos años el trabajo, hasta donde yo sé, no se restableció. Sería interesante que en alguna ocasión la gente de la Facultad que se vio en problemas más fuertes debido a la represión, diera su punto de vista; no de la parte académica, sino de la parte política. Durante la toma de la colonia varios compañeros fueron detenidos, y en un incidente fuera de ésta resultó herido uno de ellos y apresados dos.

¿Tuvo problemas el sector académico?

Sí, en nuestro caso, por ir a conseguir información sobre estos compañeros estudiantes que habían sido detenidos. Llegamos dos personas a investigar su paradero y las circunstancias en que fueron apresados y fuimos detenidos por la judicial federal y llevados al Campa Militar No. 1, incomunicados y maltratados. Afortunadamente la gente de la Facultad de Ciencias respondió de inmediato y, aunque estábamos en vacaciones, hubo movilización. El director de la Facultad, el maestro Cifuentes, lo tomó de una manera muy responsable, dijo que se trataba de una misión oficial de la escuela, lo cual nosotros ya habíamos dicho a los aparatos represivos, y se movilizó, por lo que creo que el trato no fue tan crudo con nosotros, aunque todo el tiempo trataron de distorsionar nuestra actividad en la colonia e involucrar a más personas. Pero la movilización los detuvo.

Seguramente después de la represión ustedes intentaron asimilar la experiencia y plantear alguna alternativa. ¿Qué hicieron entonces?

Bueno, resulta que muchos de los estudiantes que estaban en ese grupo eran a la vez, alumnos nuestros, de mi curso de Algebra Lineal. Yo les había encomendado elaborar un trabajo final en que hicieran algún modelo donde aparecieran matrices y sistemas de secciones lineales. Entonces estuvieron buscando y observando actividades en la colonia donde tuvieran que ver las matemáticas, y un grupo de ellos, elaboró algunos trabajos interesantes. Así se comenzaron a revertir un tanto las inquietudes de la gente en el terreno tanto académico como político. Incluso intentaron buscar modelos más complejos, lo que hacía a estos trabajos “no clásicos” pero sí con un gran contenido académico.

Por otra parte, no sólo había matemáticos trabajando en la colonia; había además estudiantes de otras facultades, por ejemplo, Arquitectura, que estaban pasando por un problema interno fuerte que era la reestructuración de la carrera con una nueva visión: tratar de vincularse a las causas populares.

En general, en la UNAM había inquietud por cristalizar toda la discusión que se había dado al respecto de la vinculación de la Universidad con el pueblo. Habían participado en la colonia sectores democráticos de Medicina, gente de Economía que trabajaba en planificación y, en fin, había una gran afluencia de universitarios hacia allá.

Nosotros, durante ese periodo, nos planteamos la cuestión de vincular la ciencia con el pueblo. En particular las matemáticas, lo que parece no ser tan evidente como en otras ramas. Pero vimos que podía haber dos líneas en general: por un lado la cuestión educativa y por otro el trabajo directo como el de los arquitectos o economistas en el asesoramiento técnico.

Cuando vino la represión vimos que el camino estaba en trabajar con esos sectores. De hecho hubo intentos de ligazón con la gente de Autogobierno de Arquitectura en la redefinición de los planes de estudio o en los problemas directos de los talleres en las cuestiones matemáticas. Desafortunadamente la forma de trabajo en Arquitectura nos impidió profundizar, ya que el tiempo era muy limitado. Además no estábamos acostumbrados a enfrentarnos a la matemática aplicada y los esquemas que teníamos y nuestra información sofisticada y abstracta nos impidió entender estas cuestiones. También creo que no teníamos la capacidad de hacer grandes cosas ni de sensibilizar al departamento en incorporar a los profesores y estudiantes en estas tareas.

¿Qué repercusiones tuvo la experiencia en la colonia Rubén Jaramillo en las colonias cercanas?

Era evidente que había una gran influencia, porque siempre se veían delegaciones de otras colonias que estaban en situación más o menos semejante a la de ellos. Venía gente del norte de Veracruz, por ejemplo. Constantemente llegaban de todo el país a conocer la experiencia de la colonia e intercambiar puntos de vista. Indudablemente la organización interna, combatividad y participación en luchas con otros sectores tuvieron una gran influencia.

Y hacia la Facultad, ¿crees que hubo alguna proyección? ¿Se concretó algo al respecto?

Creo que por lo menos en algunos de los profesores y estudiantes que estuvimos trabajando allí quedó la inquietud de tratar de ver a las matemáticas muy ligadas a su repercusión social. Nos influyó en tratar de vincular la educación a otros problemas, dar una educación con otro enfoque, presentar una critica a los estudiantes sobre la cuestión ideológica que anda tras la creación y uso de la ciencia. Que la forma específica de hacer ciencia corresponde a los objetivos que se prefieran en ese momento, hacia quién va dirigida y por qué se está haciendo tal o cual trabajo. Eso tiene una gran carga ideológica que hay que comenzar a desenmascarar, y construir otro tipo de matemática.

Si bien todo lo anterior ha sido discutido en seminarios y mesas redondas, hay que empezar a hacerlo en concreto en los cursos, en el enfoque mismo de éstos, ya que ahí está el problema fundamental. Tal vez no podamos entrar a fondo en el cambio de los contenidos pero por lo menos en la forma y la búsqueda de alternativas de enseñanza y aprendizaje.

¿Quisieras concluir algo acerca de esta experiencia?

Yo siento que nuestra actividad en la colonia estaba muy influida por consideraciones acerca de transformar a la universidad en un sentido crítico, democrático y popular. En ese momento vivíamos una lucha por la democratización de la Facultad misma con la creación de los Consejos Departamentales. A través de la experiencia se siente que este tipo de consignas se manejan de una manera muy esquemática, como eslogan. A mí me parece que es, importante trabajar en la dirección planteada, pero lo difícil es hacerlo realidad y tratar de dar respuestas concretas y específicas a este tipo de cuestiones.

__________________________________________________________      
*Humberto Madrid
Profesor del Departamento de Matemáticas,
Facultad de Ciencias, UNAM.

     
       
       

como citar este artículo

     
 R07Articulos   menu2
   
   
Antonio Sarmiento      
               
               
Las simetrías en partículas elementales podrían conducirnos a la unificación de las interacciones
La teoría de la relatividad, debida principalmente a Einstein,
ha sido considerara recientemente como una mera aproximación al tratamiento de la gravitación. La razón para ello estriba en la incompatibilidad que existe entre dicha teoría y el otro gran logro de la física de nuestro siglo: la mecánica cuántica. Los intentos para encontrar una descripción teórica que unifique ambas teorías, se han visto frustrados durante décadas por problemas conceptuales desanimantes e intrincadas dificultades técnicas.

Sin embargo, recientemente ha surgido un esquema alentador conocido con el nombre de supergravedad, que intenta describir el más familiar de los campos, el campo gravitacional, como una componente más de una red muy elaborada de fuerzas y campos.

Un sentimiento algo común entre los físicos de nuestros días es el de creer que nos encontramos en vísperas de dos sucesos sensacionales: el descubrimiento de dos bloques fundamentales, que unidos de varias formas, originan las partículas subatómicas y el descubrimiento de una nueva superfuerza que unifique todas las fuerzas conocidas de la naturaleza en un solo mecanismo responsable de la unión entre los bloques fundamentales. Si contásemos con una teoría de tales fenómenos, tendríamos una explicación total sobre la manera en que está estructurado el universo físico y sobre cuál es su funcionamiento, —la culminación de la ciencia fundamental de acuerdo a algunos científicos.
Un intrigante arreglo de fragmentos brota cuando las partículas nucleares chocan entre sí a enormes energías, estos fragmentos se desintegran en formas más estables después de fracciones de tiempo increíblemente diminutas, mucho menores que un segundo. Al analizar cuidadosamente dichos fragmentos se descubren docenas de especies distintas de partículas que contrastan con las pocas formas estables de que está compuesta la materia ordinaria. La tarea requerida es la de organizar estas diversas especies en un patrón significativo y entender las relaciones entre ellas. ¿Cuál es su función? ¿Por qué necesita la naturaleza tantas especies?

Las partículas subnucleares interaccionan de formas complejas pero, afortunadamente, las fuerzas involucradas en dichas interacciones pueden organizarse en cuatro tipos básicos que, en orden de poder relativo creciente, son: gravitacionales, nucleares débiles, electromagnéticas y nucleares fueres (Ver Tabla).

Las fuerzas gravitacionales y electromagnéticas son familiares en la vida diaria mientras que el campo de acción de las fuerzas nucleares se restringe a las dimensiones subatómicas: la interacción fuerte mantiene a los núcleos unidos y la interacción débil controla procesos como la emisión de electrones por núcleos radioactivos (decaimiento beta). En principio, estas cuatro fuerzas deberían explicar la estructura interna y la organización de toda la materia. Uno de los avances más excitantes de la década pasada fue el desarrollo de esquemas que parecen combinar las fuerzas nucleares con el electromagnetismo (Teorías de Gran Unificación), esto significa que en lugar de las cuatro fuerzas tradicionales tendremos que analizar sólo dos tipos de fuerzas: la fuerza nucleo-electromagnética y la fuerza gravitacional. Pero, ¿acaso no resulta intrigante que la gravedad quede aislada de esta manera?

Quizá la gravedad, la primer fuerza que se modeló matemáticamente y sin embargo la más misteriosa de la naturaleza, no pueda unificarse con las demás sino sólo a través de una superfuerza —una simple interacción básica que pueda describir todos los procesos conocidos.

 
 Figura 1. Cuatro fuerzas básicas regulan todas las interacciones conocidas entre las partículas materiales. A pesar de sus diferencias en intensidad y rango de acción, las cuatro fuerzas describen mediante teorías de igual forma matemáticas; las teorías de normal local. En teoría cuántica de campo la fuerza entre dos partículas se manifiesta a través del intercambio de una tercer partículas llamada virtual. La masa de esta partícula virtual determina el rango de acción de la fuerza. Las partículas virtuales sin masa, como el fotón y el gravitón originan fuerzas con un rango de acción infinito.

El confirmar qué tan correctas son estas ideas adquiere una importancia vital para el conocimiento de las condiciones imperantes en el universo desde su origen, condiciones que nos permiten intentar una descripción de su evolución. De acuerdo a la representación cosmológica aceptada hoy en día, poco después de la Gran Explosión la temperatura del universo era lo suficientemente alta como para pensar en la existencia de un solo tipo de fuerza. Al expandirse el universo con el transcurrir del tiempo y disminuir la temperatura, todas las fuerzas conocidas, empezando por la gravedad se fueron desacoplando una a una y adquirieron el caracter individual que exhiben en el presente. Este proceso puede verse de manera análoga a la forma en que ocurren los cambios de fase gas  líquido  sólido al disminuir la temperatura. De manera que, validez de por medio, mientras no logremos someter a la gravitación a los esquemas unificadores, no podremos empezar a formarnos una idea de las condiciones existentes en el universo antes de que la gravedad se desacoplara de las demás fuerzas conocidas. El papel de las diferentes fuerzas en la evolución del universo constituye un tema que escapa a la intención original de este trabajo y que, consecuentemente, no será tratado más ampliamente.

UNIFICACION Y SIMETRIA

La ambiciosa tarea de combinar todas las interacciones está siendo desarrollada por un ejército de teóricos que utilizan técnicas fascinantes. Un concepto central en el programa de unificación es el de simetría, cualidad que observamos en la naturaleza desde los copos de nieve hasta las estructura de la Vía Láctea. La simetría, concepto que ha jugado un papel importante en las normas decorativas de muchas culturas, es la cualidad de algunos objetos que, en pocas palabras, les permite mantener su forma o su diseño bajo ciertos movimientos.

 
 Figura 2. Las simetrías de la naturaleza determinan las propiedades de las fuerzas en las teorías de norma. La forma de un copo de nieve permanece invariante al girar el copo 60°. En física se trabaja con simetrías no geométricas; la invariancia de las fuerzas entre un conjunto de partículas cargadas cuando las polaridades de todas ellas se invierten, se conoce como simetría de carga. La simetría de espín isotópico es la invariancia de las interacciones fuertes bajo el intercambio de protones y neutrones, ambas partículas son dos estados alternativos de una sola super partícula y las transiciones entre los estados se pueden imaginar como el ajuste de la orientación de un indicador en un espacio interno. A las simetrías de esta última clase, donde la transformación es una rotación interna o un corrimiento en la fase, se les conoce como simetrías de normas.

Las simetrías geométricas como las que caracterizan formas simples, círculos o cuadrados, sobresalen al verlas. Existen también otras simetrías, de naturaleza no geométrica y por ello no tan obvias, que resultan mucho más útiles: las simetrías entre frío y caliente, entre las cargas eléctricas positiva y negativa, entre los polos magnéticos norte y sur, —simetrías abstractas cuya función esencial es la de proporcionar una relación simple entre entidades físicamente distintas, conceptos que constituyen un lenguaje unificado para la descripción de cosas diferentes mediante el uso de un solo esquema. Recientemente se han descubierto simetrías muy sutiles en los nichos más profundos de la materia y se las ha utilizado en la construcción de una descripción de las partículas y fuerzas fundamentales con la que se ha logrado cierta simplicidad y orden en el estudio de las prolíficas especies subnucleares. En la física, lo que permanece invariante no es un dibujo o un objeto, es el esquema matemático de la teoría que nos permiten la descripción de las partículas y de las fuerzas que rigen sus interacciones.

 
 Figura 3. Simetrías locales y globales. Consideramos un globo perfectamente esférico marcado con un sistema de coordenadas que nos permiten identificar todos los puntos en la superficie. Al girar el globo sobre un eje, la forma permanece invariante y la simetría correspondiente es global pues las posiciones de todos los puntos en la superficie cambian por el mismo desplazamiento angular. La simetría local requiere que el globo mantenga su forma aun si los puntos en la superficie se mueven independientemente. Nótese que la deformación de la superficie que resulta de dicho movimiento, introduce fuerzas entre los puntos. Se piensa que cada una de las cuatro fuerzas en la naturaleza se originan al requerir que alguna ley de la naturaleza permanezca invariante bajo transformación de simetría local.

Existen dos tipos de simetría, las simetrías que resultan de la aplicación de una transformación uniforme a todos los constituyentes de un objeto (globales) y aquellas en las que la transformación que las origina es distinto para cada una de las partículas del objeto (locales). Si bien, una simetría global donde las transformación es la misma para todos los puntos de un cuerpo, puede parecer un concepto más amplio, las simetrías locales en donde cada punto se transforma independientemente, imponen exigencias más estrictas en las teorías y revelan uniones más profundas en la naturaleza. Un ejemplo debido a Freedman y Van Nieuwenhuizen aclara esta afirmación. Un globo esférico al que se gira cierto ángulo alrededor de un eje que pase por su centro, preserva su forma esférica y como todos los puntos de su superficie se han transformado de la misma manera (han rotado un mismo ángulo), se tiene entonces una simetría global. Sin embargo, moviendo independientemente cada uno de los puntos en la superficie del globo de manera que permanezcan sobre dicha superficie, es decir, que sus distancias al centro de la esfera permanezcan fijas para que la forma esférica se mantenga, estamos originando una simetría local. En este caso, la superficie del globo se arrugará en algunas regiones y se estirará en otras dando origen a fuerzas que tratarán de resistir a la superficie a su estado original. Estas fuerzas aparecen de una manera idéntica cuando una teoría física posee una simetría local: el paso de una simetría global a otra local puede usarse para describir el origen de las fuerzas gravitacionales y electromagnéticas.

Existen razones para sospechar que las demás fuerzas surgen también de simetrías locales pues mediante la aplicación de simetrías abstractas a las partículas subatómicas se ha logrado el reconocimiento de ciertos patrones que no son de manera alguna obvios. Un ejemplo sencillo es el del protón y el neutrón, los constituyentes de todos los núcleos atómicos: superficialmente se trata de dos partículas distintas —el protón está cargado eléctricamente mientras que el neutrón no sólo no tiene carga sino que es ligeramente más pesado; sin embargo, en muchos procesos nucleares ambas partículas se comportan de manera idéntica y la carga del protón actúa únicamente como una etiqueta y no como un atributo físico adicional. Es posible entonces considerar a ambos, neutrón y protón, como dos estados del mismo objeto básico y pensarlos relacionados por una simetría abstracta similar a aquella que existe entre polo norte y polo sur.

De esta manera se ha logrado agrupar a legiones entras de especies subnucleares en familias, representando cada familia esencialmente un solo tipo de objeto que posee varias facetas distintas. Se necesitan simetrías mucho más complejas, que involucren muchas componentes, para identificar estas agrupaciones más elaboradas; aun así, la técnica ha rendido altos dividendos al extender nuestra comprensión del mundo subnuclear.

Desde que fueron reconocidas como tales, las partículas subatómicas se habían dividido en dos grupos completamente distintos: los fermiones y los bosones. Las partículas como los electrones poseen una propiedad crucial que afecta drásticamente su comportamiento colectivo: dos electrones idénticos, i. e. dos electrones con las mismas características cuánticas (incluyendo la orientación), no pueden moverse en la misma órbita alrededor de un único átomo. Esta exclusividad, formulada como un principio de la física por Wolfgang Pauli, opera en forma de repulsión: cuando se intenta aglutinar electrones, se manifiesta una poderosa resistencia a ello.

La tendencia de los electrones a evitarse entre ellos y buscar la soledad es la responsable de la estructura difusa de los átomos, obliga a los electrones a apilarse alrededor del núcleo en órbitas progresivamente más alejadas, tal y como se acumulan aeronaves sobre un aeropuerto en espera de pista para aterrizar.

Las partículas que obedecen el principio de exclusión de Pauli se conocen por el nombre colectivo de fermiones (en honor de Enrico Fermi quien sentó las bases de su comportamiento estadístico); en este grupo se encuentran también los protones y los neutrones. Una característica de estos fermiones es que se encuentran girando de una manera similar a como la Tierra gira sobre su propio eje y que además, dicho movimiento permanece siempre constante —una unidad fundamental fija llamada espín. Usualmente, al espín del electrón se le asigna el valor 1/2.

 
 Figura 4. La supersimetría relaciona partículas cuyos espines son adyacentes, i.e. difieren por 1/2 de aquí que cualquier fermión y bosón cuyos espines son adyacentes se consideran como manifestaciones alternativas de una sola “superpartícula” con un indicador (flecha) en una espacio auxiliar.

Existen también otras partículas que no giran sobre su propio eje, no obedecen al principio de exclusión y pueden ser aglutinadas sin resistencia; los mesones son un ejemplo de tales partículas. Su comportamiento colectivo es muy distinto del de los fermiones y se les conoce con el nombre de bosones (en honor de Satyendra Bose por razones similares al nombre de los fermiones). Algunas otras partículas como los fotones, tienen también espín pero este es el doble del de los electrones; en general, las partículas con múltiplos pares de espín (valores enteros) son también bosones mientras que aquellas partículas con múltiplos impares de espín (valores semienteros) son fermiones.

La cantidad de espín presente en cada partícula es crucial para el tipo de matemáticas utilizadas en su descripción: los bosones muestran ciertas simetrías que son muy distintas de las simetrías que muestran los fermiones, razón por la cual se les había considerado como dos grupos distintos y ajenos. No obstante, a principios de los años 70 un número de físicos teóricos descubrieron independientemente una simetría matemática sutil que relaciona a los dos grupos que hasta entonces se consideraban dispares. Tal y como una reflexión en el espejo cambia a una mano derecha en izquierda, una clase de reflexión abstracta cambia a un fermión en un bosón. Esta poderosa simetría se conoce hoy día con el nombre de supersimetría.

La operación de supersimetría, al igual que las otras simetrías abstractas, es únicamente un aparato conceptual, no es posible cambiar real o físicamente a un fermión en bosón, como tampoco lo es el cambiar un protón en un neutrón. Lo que se logra mediante el concepto de supersimetría es la construcción de un lenguaje matemático unificado que describirá el comportamiento de estos dos diferentes tipos de partículas usando un solo esquema.

UNIFICACION E INTERACCION

El concepto de supersimetría constituye una herramienta que podría capacitarnos para unificar a la gravedad con las demás fuerzas de la naturaleza y simultáneamente descubrir la superfamilia final que contendría a todas las partículas subatómicas, un logro doble que resolvería de una buena vez el problema de la constitución del mundo material. La clave para lograr tal ambición se encuentra en el hecho de que en el dominio subatómico las partículas actúan como portadoras las fuerzas.

 
Figura 5. El concepto de campo, una o varias cantidades definidas en cada punto del espacio-tiempo, puede representarse en teoría cuántica de campo por medio de las partículas virtuales. Para el caso de un campo escalar, que se define por una sola cantidad en cada punto (cuya intensidad es proporcional al área de los discos de la figura), se pueden pensar en una partícula virtual con una sola orientación o espín cero. Las tres componentes (una magnitud y dos ángulos) de una campo vectorial en el espacio tridimensional se pueden representar mediante una partícula virtual con tres posibles orientaciones o espín uno. 

Dos partículas interaccionan mediante el intercambio de partículas mensajeras de forma análoga a dos jugadores de tenis que interaccionan mediante el intercambio de pelotas. Las fuerzas fundamentales son entonces inseparables de la naturaleza de las partículas materiales mismas; se encuentran en un esquema de agrupación que incluya a las partículas mensajeras de todas las fuerzas en la naturaleza, entonces la simetría asociada con dicho esquema proveerá una descripción unificada de todas las fuerzas.

Para poder incorporar a la gravedad en el esquema unificador será entonces necesario describir a la fuerza gravitacional en términos del intercambio de partículas mensajeras; si bien no encontramos en la vida diaria partículas de fuerza gravitacional, no partículas de fuerza electromagnética, en el dominio atómico se vuelve manifiesta la naturaleza de dichas fuerzas. La fuerza electromagnética muestra su comportamiento corpuscular a través del fotón, la interacción fuerte lo hace a través de mesones , la interacción débil mediante bosones vectoriales intermedios y, de la misma manera, la fuerza gravitacional se asocia con una nueva clase de partícula: el gravitón (ver Tabla). Esta partícula, todavía no detectada pero requerida por los esquemas actuales que intentan representar a la física como un todo unitario, jugaría en la gravitación el mismo papel que el fotón juega en el electromagnetismo, que los mesones  juegan en la interacción fuerte y que los bosones vectoriales juegan en la interacción débil.

Con la ayuda de las matemáticas podemos explorar las propiedades de estos aún no detectados gravitones. Al hacerlo encontramos que los gravitones deberían ser bosones, poseer un espín de cuatro veces la unidad, carecer de masa, y que deberían viajar a la misma velocidad que los fotones, la velocidad de la luz. De hecho, se puede demostrar que el intercambio de bosones con valores enteros impares de espín origina fuerzas repulsivas entre las partículas. De aquí que el hecho de que el gravitón deba tener el doble del espín que el fotón, sirva para explicar la diferencia entre los dos tipos de interacción: dos cargas del mismo signo se repelen mutuamente en electromagnetismo pues interactúan a través de partículas cuyo espín tiene el valor 1, mientras que dos cuerpos con masa (del único signo conocido) se atraen al interactuar gravitacionalmente pues intercambian partículas con valor 2 para el espín. También el hecho de que el gravitón deba carecer de masa explica el rango de acción de la atracción gravitacional, ya que se puede probar que las fuerzas de largo alcance provienen del intercambio de partículas sin masa, mientras que las de corto alcance se originan del intercambio de partículas con masa. Pero ¿a qué familia deberán pertenecer los gravitones? ¿Podrán relacionarse con otras partículas a través de una simetría abstracta de la misma manera que los neutrones están relacionados con los protones? Es aquí donde interviene el concepto de supersimetría; se han encontrado varios esquemas que combinan al gravitón con otras partículas y que precisamente se distinguen por el hecho de requerir que ambos, fermiones y bosones, pertenezcan a esta nueva supersimetría. Mediante la transformación de supersimetría podemos asociarle a cada fermión un bosón de espín contiguo, es decir, la operación transforma a un fermión con espín J en un bosón cuyo espín puede tener uno de dos valores: J + 1/2 o J – 1/2. Además, al pedir que la supersimetría global se extienda a invariancia local, aparece de manera natural una nueva fuerza que deberá representarse mediante partículas mensajeras cuyo espín deberá tener un valor que diferirá del espín del gravitón en 1/2. De esta manera, un fermión llamada gravitino debería introducirse para jugar el papel de la contraparte del gravitón y redondear la teoría. El gravitino debería tener la poco usual propiedad de poseer un espín de tres veces la unidad y su descubrimiento representaría un poderoso apoyo en favor de las ideas mencionadas.

Este esquema teórico recibe el nombre de supergravedad y el reto central al que se enfrenta es el de identificar la simetría abstracta particular que utiliza la naturaleza para unificar al gravitón con todas las otras partículas. Las matemáticas utilizadas permiten varias posibles elecciones, pero ¿cuál, si existe, es la simetría correcta?

La elección más promisoria requiere de la existencia de ocho gravitinos, veintiocho partículas con espín doble, cincuenta y seis con espín unitario y no menos de setenta partículas sin espín. ¿Pueden unificarse todos estos nuevos miembros de la familia del gravitón con todos los otros fragmentos de materia que se han descubierto? En particular, ¿caben en la nueva familia el fotón y los mensajeros de las fuerzas nucleares?

 
 Figura 6. El repetir una transformación de supersimetría como la indicada (fermión  bosón  fermión) mueve a la partícula de un punto en el espacio a otro distinto. Si la supersimetría es local, el desplazamiento puede ser diferente para cada punto del espacio. Esta relación entre supersimetría y la estructura del espacio-tiempo da origen a la fuerza gravitacional en teoría cuántica de campo.

Un análisis superficial sugiere que esta particular versión de supergravedad es sólo parcialmente correcta. De acuerdo al pensamiento actual, la superfamilia no es lo suficientemente grande como para acomodar todos los esperados bloques constituyentes de la materia, bloques cuya detección no se ha logrado aún para todos ellos pero cuya aparición se considera sólo una cuestión de tiempo. Esto último se debe a los grandes éxitos logrados recientemente en la detección de las partículas mensajeras involucradas en la teoría que unifica las interacciones débiles y las electromagnéticas (las 3 partículas mensajeras llamadas bosones vectoriales intermedios fueron descubiertas en 1983 y comunicadas mediante artículos que firman 137 autores).

 
 Figura 7. Historia sobre las teorías sobre las interacciones de la naturaleza. Supergravedad es una teoría desarrollada en la segunda mirad de la década de los setenta, que describe la gravitación dentro de una teoría cuántica de campo. La teoría de supergravedad no ha sido aún confrontada con resultados experimentales.

PARTICULARIDADES DEL ESQUEMA TEORICO

Mientras esperamos que el difícil y penoso trabajo de llevar a la teoría a un contacto mayor con el experimento empiece a dar algunos frutos, podemos continuar colectando evidencia que apoye o vuelva inaceptable la idea de supergravedad. (La espera puede resultar larga pues las energía involucradas en el siguiente paso, las teorías de Gran Unificación que no contemplan incluir a la gravitación, sino sólo a la interacción nuclear fuerte, son del orden de 1013 veces mayores que la capacidad disponible actualmente en el supersincrotón más poderoso).

Uno de tales segmentos de evidencia involucra a los gravitinos. Intentos previos para introducir el concepto de partículas con tres unidades de espín habían encontrado serios problemas. Cálculos elementales indicaban que las fuerzas entre ellos podían viajar más rápido que la luz contraviniendo la teoría especial de la relatividad. En las teorías actuales de supergravedad no se encuentra ese indeseable problema.

Otro signo alentador en el frente técnico está relacionado con una enfermedad que plaga todo el trabajo teórico moderno en procesos subatómicos: antes de poder hacer alguna predicción las teorías deben sobrepasar un enorme obstáculo, el hecho de que en todos los procesos investigados (excepto los simples), los cálculos divergen dando infinitos, es decir, respuestas sin sentido. Algunos físicos, mediante sagaces manipulaciones matemáticas, han diseñado técnicas que en algunos casos, pero no siempre, evitan la aparición de estas divergencias. La experiencia de la última década sugiere que, mientras mayor sea el grado de simetría abstracta en la teoría, mayor será la facilidad para evitar las divergencias destructivas.

Un ejemplo clásico lo constituye la interacción nuclear débil, interacción que al estudiarse de manera aislada no puede entenderse debido a que su descripción matemática se encuentra contaminada de inevitables divergencias. Sin embargo, al final de la década de los 60 y de manera un tanto independiente, Abdus Salam y Steven Weinbger, lograr unificar la fuerza nuclear débil con la fuerza electromagnética, esta última mucho más simétrica que la primera. Con el grado adicional de simetría, la teoría que describe la combinada fuerza electromagnético débil queda libre de divergencias. El decaimiento débil de núcleos atómicos involucra el cambio de neutrones en protones (o viceversa) con la creación de un electrón y un antineutrino (o sus antipartículas) que balancean el cambio de carga eléctrica. La interacción se realiza a través de partículas mensajeras, los mencionados bosones vectoriales intermedios cargados denotado por W+ / W dependiendo del signo de la carga. Existen también otras interacciones en la teoría incorporadas por Sheldon Glashow que explican el cambio de protones en protones, electrones en electrones, etc., y que se conocen con el nombre de Corrientes Neutras; éstas se llevan a cabo mediante el intercambio de un bosón vectorial intermedio neutro denotado por Z. Todos los bosones vectoriales intermedios son extremadamente inestables y decaen casi inmediatamente.

En forma similar al caso de la interacción débil, al estudiar la gravedad de manera aislada brotan divergencias que sólo han permitido la realización de muy pocos cálculos de interés; nadie ha encontrado hasta ahora la manera de evitar dichas divergencias. Se espera que, con la simetría extra que posee supergravedad, se repita el éxito de la teoría de Salam-Weinberg. Parece prematuro tomar una decisión a este respecto. Mencionaremos sin embargo que varios cálculos irrealizables por las divergencias presentes en la gravedad aislada han sido realizados con éxito dentro de supergravedad, proporcionando resultados finitos.

EPILOGO

En la relatividad general la atracción gravitacional se deriva de las propiedades geométricas del espacio-tiempo, mientras que en la teoría cuántica las fuerzas se originan mediante el intercambio de partículas mensajeras. Existen, pues, dos formas distintas de intentar la unificación de las dos teorías. Una es describir a la relatividad general con el lenguaje cuántico de campos y pensar a la interacción gravitacional en términos de partículas, la teoría expuesta en las líneas precedentes y llamada supergravedad. La otra sería pensar a ambas teorías en términos geométricos, el conceptualizar superespacios con propiedades que nos dijesen cómo se realizan las interacciones. Pocos intentos se han hecho en este campo y consecuentemente la literatura sobre el tema es comparativamente escasa.

Hasta hoy día la supergravedad es una tarea tenuemente percibida —un audaz intento de resolver de un solo golpe muchos de los problemas más importantes de la física fundamental moderna. Si resulta exitoso el intento, cosa que sólo con el tiempo sabremos, ¿significará esto que los físicos habrán terminado con su tarea y ya no tendrá qué hacer? Este punto de vista, en el que la teoría sería considerada como un vivo reflejo de la realidad, conduce a preguntas fuera de la intención original de este trabajo y difiere fuertemente de la experiencia previa. Con sólo un vistazo encontramos que la historia sugiere lo contrario: los grandes avances en nuestra comprensión del universo vienen usualmente acompañados de inmensas extensiones en el horizonte conceptual y por el surgimiento de nuevos tipos de problemas que reemplazan con creces a los viejos problemas resueltos. Más que llegar a convertirse en el fin del camino, la supergravedad bien podría significar el acceso a nuevos, mucho más ricos campos científicos.

       
     
AGRADECIMIENTOS
Se agradece a Alberto García la adaptación de las figuras.
* Investigador del Instituto de Astronomía, UNAM.
     
Referencias PARA LECTURAS COMPLEMENTARIAS

Sobre supergravedad

1. D. Z. Freedman y P. Van Nieuwenhuizen, Supergravity and the unification of the laws of Physics, Scientific American, February 1978, 126-143. Reimpreso en Investigación Científica, en español.
2. G. Hooft, Gauge Theories of the Forces between Elementary Particles, Scientific American, June 1980, 104-138.
3. S. Weinberg, Unified Theories of Elementary Particle Interaction, Scientific American, July 1974, 50-59.
4. S. Glashow, Quarks with color and flavor, Scientific American, Octobre 1975, 38-50.
5. S. Deser and B. Zumino, Consistent Supergravity, Physics Letters 62 B, 335-337, 1976.
6. D. Z. Freedman, P. Van Nieuwenhuizen and S. Ferrar, Progress toward a theory of supergravity, Physical Review D, 13, 3214-3218m 1976.
7. M. T. Grisaru, P. Van Nieuwenhuizen and J. A. M. Vermaseren, One-Loop renormalizability of pure supergravity and of Maxwell-Einstein theory in extended supergravity, Physical Review Letters, 37, 1662-1666, 1976.
8. J. Wess and J. Bagger, Supersimmetry and Supergravity, Princeton Unifersity Press, New Jersey, USAN, 1983.

Sobre unificación de electromagnetismo e interacción nuclear débil

1. E. Fermi, Zeitschrift für Physik, 88, 161, 1934.
2. S. Weinberg, Physical Review Letters, 19, 1264, 1967.
3. S. Weinberg, Lectures on Elementary Particles and Quantum Field Theory, S. Deser, M. Grisaru and H. Pendelton eds, MIT Press, Cambridge, Mass., 1970.
4. A. Salam, Weak and electromagnetic interactions, in Elementary Particle Physics, N. Svartholm ed., Almqvist and Wiskells, Stockholm, 1968, p. 367.
5. S. Glashow, Nuclear Physics 22, 579, 1961.

Sobre el descubrimiento de los bosones vectoriales intermedios

1. Electroweak interference confirmed, Physics today, August 1982, 19-21.
2. PP colisions yield intermediate bosons at 80 GeV, as predicted, Physics today, April 1983, 17-20.
3. Stalking the W particle, Sky and Telescope, May 1983, 406-407.
4. Proton Decay not seen at predicted rate, Physics today, September 1983, 20.
5. Discovery of the Z0 at CERN also yields anomalous events, Physics today, November 1983, 17-19.
6. Z0 particle discovered, Sky and Telescope, December 1983, 503-504.
7. G. Arnison et al, Physics Letters, 126B, 398 y 129B, 273, 1983.
8. P. Bagnania et al., Physcis Letters, 129B 130, 1983.

Sobre Gravedad

1. J. Schwarts and M. McGuinness, Einstein for Beginners, Writers ad Readers Pub. Coop., London, 1979.
2. A, Sarmiento G., Gravitación, Ciencias No. 5., Enero-Marzo 1984, 16-23.
3. S. Weinberg, Gravitation and Cosmology, J. Wiley & Sons, Inc., N. Y., 1972.
4. D. M. Greenberger and A. W. Overhauser, The Role of Gravity in Quantum Theory, Cientific American, May 1980, 66.

Sobre simetría y teoría de grupos

1. A. B. Wolbarst, Simmetry and Quantum Systems, Van Nostrand Reinhold Co., N. Y., 1977.
2. K. Moriyasu, An Elementary Primer for Gauge Theory, World Scientific Pub. Co., 1984.

     
____________________________________________________________      
Antonio Sarmiento
Investigador del Instituto de Astronomía
Universidad Nacional Autónoma de México.
     
_____________________________________________________
como citar este artículo 
 
[En línea]
     
del herbario             menu2
            R07B02
 
Las chinampas
Jaime Jiménez Ramírez
   
   
     
                     

Las chinampas son islotes construidos artificialmente en ciénegas
o aguas de poca profundidad, donde se cultiva desde hace 2000 años maíz, fr
ijol, calabaza, chile, tomate, cempaxóchitl, etc. El nombre proviene de chinámitl “seto o cerco de cañas, cercado hecho de palos o varas entretejidos” (Molina).

La construcción del islote partía de la acumulación del césped o atlapálacatl, que no era otra cosa que una densa capa de varias especies de tule (Thypha spp.) y de lirios de agua (Ninphae spp.). A dicha acumulación se agregaba cieno del fondo del lago o tierra de chinampas viejas que finalmente se consolidaba plantando alrededor del montículo estacas de ‘ahuejote’ (Salix bondplandiana).

Una vez que las estacas arraigaban, los ahuejotes retenían los bordes y la materia orgánica quedaba desintegrada, la chinampa podía ser utilizada.

El sistema de cultive de la chinampa es una forma muy refinada de horticultura que requiere la siembra en almácigo, trasplantes, protección de las plantas tanto a las heladas como al sol excesivo, el riego manual y la fertilización de la tierra usando plantas acuáticas y cieno del fondo de los canales.

En el manejo de la chinampa nada queda al azar. El lodo y las plantas incorporadas como fertilizantes renuevan constantemente el suelo de manera que no constituyen un factor limitante para el desarrollo de los cultivos. La germinación en almácigos permite el transporte de las plántulas en el momento mas conveniente, la protección ("techos") contra factores climáticos y el riego permiten obtener cosechas óptimas.

Los rendimientos de maíz alcanzan las 4 toneladas por hectárea, comparables a los sistemas agrícolas modernos con fertilizantes, riego y pesticidas. Además el manejo tradicional de las chinampas no contamina ni erosiona el suelo; es un sistema que respeta las reglas ecológicas de equilibrio.

La decadencia del sistema de producción chinampero empieza cuando sus fuentes acuíferas son entubadas para el uso de la sedienta ciudad de México. El nivel del agua baja, las chinampas quedan expuestas al sol y el proceso de abandono comienza. Lo que antes fue un centro de alta producción es convertido poco a poco en zona urbana, donde el agua sucia y contaminada limita el desarrollo de la flora y de la fauna.

  articulos

referencias bibliográficas

Rojas, T. P (ed.) 1983. La agricultura chinampera, Compilación histórica. Colección de Cuadernos Universitarios, Serie Agronomía No. 7. UACH. Dirección de Difusión Cultural Texcoco, Méx.

     
_____________________________________________________________
     

Jaime Jiménez Ramírez
Facultad de Ciencias, Universidad Nacional Autónoma de México

     
_____________________________________________________________
     
como citar este artículo
 [En línea]
     

 

 

 

R07Articulos2   menu2
   
   
Marcial Bonilla
     
               
               

Algunas anomalías del agua pueden explicarse mejor recurriendo a su estructura molecular

     
El agua es sin duda el líquido más común sobre la superficie
de la Tierra; sin embargo no es el más simple de estudiar. En efecto, esta sustancia ha motivado la publicación de un número mayor de artículos y análisis teóricos que cualquier otra. Es por esto que cuando se presenta un artículo más acerca de un tema que tiene  alrededor de 200 años de ser estudiado, surge la pregunta ¿qué novedad puede decirse de un tema tan viejo?

En principio podría esperarse que un líquido de composición química tan simple (H2O) y de tal importancia biológica e industrial debería estar completamente caracterizado, por lo menos desde el punto de vista físico-químico. Tal simplicidad del agua, como veremos más adelante, es sólo aparente.

Propiedades anomalas del agua

El agua es una sustancia que presenta una serie de anomalías únicas que la hacen un compuesto muy especial. [C. Austen Angell (1982)]. En el aspecto químico se puede comportar como un ácido fuerte capaz de disolver el oro y el platino. En el aspecto físico ciertas propiedades del agua han llamado la atención de los científicos y constituyen campos reconocidos de investigación contemporánea. Tal es el caso del agua “virtuosa” que se obtiene por depósito de moléculas de agua en fase de vapor sobre un metal frío y que constituye un tema que ocupa a un gran número de científicos actualmente.

Algunas anomalías del agua a temperaturas entre 0 y 100°C pueden explicarse mejor recurriendo a su estructura molecular. Como es el caso de la anomalía de la densidad: el agua presenta una densidad menor en el estado cristalino que en el estado líquido. Efectivamente, su se compara el agua con otros dos líquidos “vecinos”, el H2O2 y el H4N2, que tienen entre ellos temperaturas de ebullición y de cristalización semejantes, son hidruros de oxígeno en un caso y en otro, de su vecino más cercano, el nitrógeno se encuentra que el cristal del agua, el hielo, es el único que flota en el líquido, es decir, el único que presenta una densidad menor en estado sólido. Esto no se puede explicar fácilmente, ya que teniendo los 3 compuestos enlaces de hidrógeno, es únicamente el agua la que aumenta su volumen en el estado sólido.

Otra anomalía del agua es debida a la variación de la densidad con la temperatura. En un líquido normal sucede que la densidad disminuye con la temperatura; sin embargo en el agua la densidad es máxima a los 4°C. De todos los líquidos conocidos sólo el InSb y otros dos más raros presentan esta anomalía. La explicación reside en la estructura molecular del agua y en un fenómeno llamado contracción vibracional.

En la mayor parte de los líquidos, la viscosidad aumenta con la presión. El agua, sin embargo, es una excepción pues su viscosidad disminuye mientras la temperatura y la presión sean menores que 50°C y 1000 atmósferas, respectivamente.

Existen algunas propiedades del agua que por ser muy comunes a veces se olvidan pero que producen efectos importantes en los fenómenos naturales. Este es el caso de la propiedad del agua para absorber calor sin cambiar mucho su temperatura. El agua tiene una capacidad calorífica muy grande comparada con otros líquidos: por ejemplo, la capacidad calorífica del agua es 3 veces mayor que la de la gasolina y más de 2 veces mayor que la del alcohol etílico.

El gran poder solvente del agua para sales ionizadas es otra de estas propiedades. Esto se debe a la constante dieléctrica del agua. A temperatura ambiente esta constante vale 80 para el agua y 5 para la gasolina, que no puede disolver ninguna sal.

Eléctricamente el agua es un buen aislante en estado puro, pero cuando contiene sales en solución se convierte en un conductor eléctrico excelente. Sin embargo el agua pura, bajo ciertas condiciones, puede convertirse en mejor conductor que cualquier solución salina.
 
Estado metaestables del agua

Los conocimientos en este campo son muy recientes, debido a que se requieren técnicas muy sofisticadas para estudiar muestras muy pequeñas o muy puras. La discusión científica se remonta, sin embargo, varios siglos atrás. En efecto, desde el siglo XVIII se tiene información de dos estados metaestables del agua: el agua “supercaliente” y el agua “superfría”.2

Agua supercaliente. Ciertos experimentos recientes [R. E. Apfel (1972)] han conseguido estudiar la evolución de una pequeña gota de agua en una columna de aceite de silicona sujeta a un gradiente de temperatura y a una presión constante de una atmósfera. La gota permanece líquida hasta una temperatura de 280°C cuando desaparece tras una breve explosión. (Cuando un líquido se sobrecalienta (supercalienta), es decir, permanece líquido más allá de su temperatura normal de ebullición, ocurre que libera la energía acumulada por medio de una explosión al convertirse en vapor). Esto representa un problema serio para los ingenieros, especialmente los ingenieros nucleares.

Agua superfría. Aunque los experimentos iniciales se limitaban a una mera descripción de fenómenos y no eran reproducibles, actualmente, sin embargo, el estudio del agua superfría y el estado vitroso constituye un nuevo campo de investigación reconocido. Cuando ciertas soluciones salinas son sometidas a muy bajas temperaturas permanecen líquidas hasta una temperatura en la que ocurre la transición vitrosa. Las temperaturas de esta transición depende de la concentración de sales en la solución.

Uno de los aspectos más estudiados del agua es su estructura. Ello se debe, entre otros aspectos, a su importancia en los procesos biológicos. El agua se encuentra abundantemente en los organismos vivos y desempeña un papel importante en los procesos biológicos tales como el paso de ciertos compuestos a través de membranas. Saber cómo se estructura el agua en torno a ciertas moléculas nos proporciona una información básica para el estudio de los mecanismo biológicos.

Estructura del agua

La estructura del agua ha sido objeto de profundo interés desde hace mucho tiempo. Sin embargo no fue sino hasta finales del siglo XIX que se tuvo la primera referencia en la literatura científica. Fue Roentgen (1892) quien primero visualizó la estructura del agua como una extensión de la estructura cristalina del hielo. En efecto, él supuso que al derretirse el hielo, una parte forma un fluido en el cual el restante flota. La fracción de “hielez” del agua depende de los cambios de presión y temperatura. (Esta representación es un prototipo de los llamados “modelos de mezcla” del agua, que suponen la coexistencia de más de una especie de moléculas de agua).

Configuración molecular

Es necesario tener en cuenta la distribución de cargas en la molécula de agua para entender las anomalías de este líquido. Una molécula de agua está formada por un átomo de oxígeno al que se unen dos átomos de hidrógeno por medio de enlaces covalentes simples.

Para visualizar mejor la estructura del agua a nivel molecular veamos dos moléculas que son muy semejantes a ella: el metano (CH4) y el amoníaco (NH3). Los átomos de C, N y O pertenecen a un mismo renglón de la tabla periódica y requieren de 4, 3 y 2 electrones, respectivamente, para cerrar su capa externa (es decir, tratan de conseguir 4, 3 y 2 electrones, respectivamente para cerrar la capa externa con 8 electrones y de esta manea poder ser estables, como los gases raros). En el metano los cuatro libres del carbono están apareados con hidrógenos. La geometría de esta molécula tiene la forma de un tetraedro centrado en el carbono.
 
 Figura 1. Molécula de Metano (CH4).

Es diferente el caso del amoníaco y del agua. Para estas moléculas el equilibrio químico se obtiene mediante tres y dos átomos de hidrógeno, respectivamente, unidos al átomo central por medio del mismo número de pares de electrones compartidos. La estructura tetraédrica está parcialmente presente en estas moléculas, con la particularidad de que los pares de electrones no unidos por enlaces covalente forman dobletes libres. La distribución de cargas en las moléculas de agua debe tenerse en cuenta, pues su comportamiento anómalo sólo puede ser explicado mediante esta distribución.

Se puede considerar que una molécula de agua tiene dos cargas positivas y dos cargas negativas repartidas en los vértices de un tetraedro centrado en el oxígeno. Las cargas positivas provienen de los dos átomos de hidrógeno que “donaron” su electrón al oxígeno y compensan esta pérdida por un carácter positivo. Las cargas negativas provienen de dos pares de electrones libres.
 
Figura 2. a) Molécula de amoníaco (NH3). b) Molécula de agua (H2O) (– significa pares de electrones libres y + exceso de carga positiva).

La asociación de moléculas de agua entre ellas mismas es consecuencia de esta distribución de carga. En efecto, la energía electrostática se minimiza de esta manera y consecuentemente la agrupación es favorecida mediante la asociación de un centro de carga positivo de una molécula con otro negativo, perteneciente a otra molécula y viceversa. Esta asociación se llama enlace de hidrógeno o puente de hidrógeno O … H. De esta forma cada molécula de agua se encuentra ligada a otras cuatro moléculas por medio de sus centros de carga. Esto tiene como consecuencia una geometría muy abierta que es la responsable de que el hielo flote en el agua. En otras palabras, el hielo presenta una estructura más abierta que el agua y es la causante de la disminución de la densidad. El agua presenta una estructura más irregular y hace que las distancias de los primeros y segundos vecinos se acorten, provocando un aumento de la densidad.
 
 Figura 3. Cristal de Hielo.

Una representación de la estructura del agua, en relación con la estructura del hielo, podría visualizarse “filmando” a una velocidad de 10 E + 13 cuadros por segundo para evitar el efecto de las vibraciones moleculares. Tales fotografías mostrarían que los anillos de seis átomos de hielo se degradan en anillos de 5, 6 y 7 átomos en el agua (ver Figura 4).

Esta deformación fue sugerida inicialmente por Bernal y Fowler en 1933, y desde entonces esta imagen ha estado presente en varios modelos publicados de la estructura del agua. El modelo de Bernal describe la transición del hielo a agua en términos de una deformación de los puentes de hidrógeno que permanecen sin romperse. El grado de distorsión de los enlaces es el parámetro sensible a los cambios de temperatura y presión. Este tipo de modelos que suponen la existencia de una sola clase de moléculas son conocidos como “modelos uniformistas”. En contraposición a los llamados “modelos de mezcla”, que suponen la coexistencia de dos o más tipos de moléculas de agua y cuyo prototipo podría ser el llamado modelo de Roetgen, citado anteriormente.
 
Figura 4. Agua de acuerdo al modelo de Bernal.

Algunos modelos para el agua

El carácter único del agua como líquido y como solvente es manifestado por el considerable número de modelos que han aparecido a través de los años. A medida que se tienen más datos y conocimientos sobre el agua, algunos de esos modelos que no están de acuerdo con ellos, son desechados y permanecen sólo como de interés histórico. Esta revisión no pretende ser exhaustiva, sino intenta centrarse en los modelos más importantes del agua. Una revisión de los modelos antiguos, la han hecho H. M. Chadwell (1927). Otra revisión más reciente es la de Kavanu (1964), Franks (1973), asimismo publicó un excelente libro acerca del agua.

a) Punto de la red vacante

En este modelo [Forslind (1952, 1953)] la fase líquida es considerada como un sistema esencialmente cristalino, muy relacionado a una red ligeramente expandida e idealizada de hielo-I (ver Figura 5). El modelo supone una estructura abierta con las moléculas en una coordinación tetraédrica suficientemente larga para acomodar moléculas libres, no asociadas, sin perturbar considerablemente el orden estructural. El modelo es capaz de predecir, cuando la temperatura se aumenta, cómo una molécula que ocupa una posición en la red puede pasar a ocupar una posición en la cavidad.

Las características de este modelo se pueden resumir de la siguiente manera: 1) Permite que las moléculas cambien de posiciones. 2) Da oportunidad para que las moléculas ocupen posiciones intersticiales y 3) Permite que los defectos de la red se difundan a través de ésta. También explica el aumento de la densidad del agua en términos de estos fenómenos.

b) Modelo del cúmulo titilante

El modelo del cúmulo titilante de H. S. Frank y W. Y. Wen (1957), postula que la formación de puentes de hidrógeno en agua líquida es un fenómeno cooperativo. La existencia de un par de átomos unidos por puentes de hidrógeno promueve la tendencia de cada átomo para enlazar, por medio de puentes de hidrógeno, otro vecino y así sucesivamente. Las moléculas de agua enlazadas por puentes de hidrógeno son susceptibles de formar más puente de hidrógeno con otras moléculas que, a su vez, proporcionan una estabilidad adicional al sistema enlazado existente, dando al proceso un elemento de retroalimentación positiva.

El resultado neto del fenómeno cooperativo de formación de enlaces de hidrógeno es que cuando un puente de hidrógeno se forma, hay una tendencia a que varios más se formen, mientras que si uno se rompe, un grupo entero tiende a romperse. De acuerdo con lo anterior se producen “cúmulos titilantes” de corta vida (tiempos de relajación de 10e–10 a 10e–11s), de extensión espacial variable que consisten de moléculas fuertemente enlazadas.

Se acepta que la estabilización por puentes de hidrógeno para moléculas en el interior del cúmulo es mayor que para las de la superficie. Estos cúmulos están mezclados y alternan funciones con moléculas no-enlazadas, que forman una o dos capas entre los cúmulos y constituyen el resto del sistema. La formación y rompimiento de los cúmulos se explica mediante las fluctuaciones de energía local que crean una “zona fría” adecuada para la formación de un cúmulo, o una “zona de fusión” que propicia su rompimiento.

El modelo del cúmulo titilante, por ejemplo, ofrece una explicación para ciertas propiedades del agua y hace posible la interpretación de los cambios estructurales hacia una mayor “hielez” inducida por solutos no-polares.

c) El modelo del agua hidratada

W. F. Claussen (1951) y L. Pauling y R. S. Marsh (1952), demostraron que las moléculas de agua pueden formar estructuras que, mientras retienen los ángulos de enlace y las distancias intermoleculares características del hielo, son más “flojas” que éste y contienen cavidades relativamente grandes. Estudios de rayos X han confirmado que las distancias y ángulos entre las moléculas de agua en los hidratos de los no-electrolitos difieren muy poco de los valores correspondientes para hielo hexagonal ordinario.

Estos hidratos cristalizan en dos estructuras. La red de uno de ellos es una unidad de estructura cúbica con una longitud lateral de 11.88 Å y contiene cavidades casi esféricas con radios de 3.95 Å y 4.3 Å. El primero está rodeado por 20 moléculas de agua en los vértices de un dodecaedro pentagonal casi regular, y el último por 24 moléculas en los vértices de un tetradecaedro, Los compuestos de esta clase, en los cuales ciertas moléculas están restringidas a ocupar las cavidades de la red (“intersticios”) formadas por otras moléculas, se llaman “clathratos”.

Linus Pauling (1959, 1960) propuso que el agua líquida posee una estructura inestable semejante a los hidratos de sal. En otras palabras, el agua es vista como un “hidrato de agua”. Narten, Danford y Levi (1967) descartaron este modelo del agua con base en resultados experimentales de difracción de rayos X y propusieron una estructura modificada de hielo-I.

 d) El modelo del enlace distorsionado

Este modelo de J. A. Pople (1951) supone que, cuando el hielo se derrite, la flexibilidad de los puentes de hidrógeno aumenta y da lugar a algunos rearreglos en la estructura del agua, sin que haya rompimiento de los puentes de hidrógeno.

La deformación de los enlaces de hidrógeno tiene como resultado la destrucción de la periodicidad a largo alcance de al red de hielo, dando lugar entonces al establecimiento de una estructura irregular de moléculas de agua, siendo casi completamente desordenada a unos pocos radios moleculares de cualquier molécula considerada como origen. De acuerdo a esto hay un aumento en el número de moléculas en la primera y segunda esfera en torno a una molécula dada.

 
 Figura 5. Hielo-I.

Las funciones de distribución radial calculadas para diferentes temperaturas coinciden con los valores experimentales.


El modelo de Narten

Narten, Dandford y Levy (1966) propusieron un modelo intersticial para el agua que por primera vez relacionaba datos experimentales en difracción de rayos X con un modelo estructural teórico.

El modelo presupone una estructura a corto alcance parecida a la de hielo-I. En efecto (ver figura 5), en la estructura modificada del hielo-I cada molécula de agua está rodeada tetraedralmente por otros átomos de oxígeno que mantienen el ángulo tetraédrico (aproximadamente 109) y forman capas de anillos de seis moléculas. Dos capas adyacentes, relacionadas por simetría de espejo, forman cavidades poliédricas con 12 vértices. Estas cavidades pueden ser ocupadas por moléculas de agua “intersticiales”.

Las moléculas de agua puede ocupar posiciones tanto de la red como de las cavidades. Sin embargo no todas las posiciones están ocupadas. Por este motivo se introducen unos factores de ocupación de la red y de la cavidad, f1 y f2, respectivamente, que permiten mantener ciertas vacantes en las posiciones de todas la malla cristalina. Esta característica es importante pues permite ajustar la densidad teórica a la densidad macroscópica observada.

Las posiciones de las moléculas del “cristal” son generadas por desplazamientos de las posiciones generales de la celda unitaria del hielo-I modificada en las tres direcciones espaciales. La celda unitaria consiste en total de doce moléculas: ocho de la red, ocupando posiciones asimétricas, y cuatro ocupando posiciones en las cavidades. Las posiciones generales son generadas mediante traslaciones de la celda unitaria dadas por el vector 1X + mY + nZ, donde 1, m y n son números enteros y X, Y, Z son los vectores de traslación de la celda unitaria en las direcciones x, y, z. Se definen asimismo pesos estadísticos para los diferentes tipos de interacciones: Red-red (r-r), red-cavidad (r-c) y cavidad-cavidad (c-c).

En un líquido las posiciones ocupadas por los átomos no son rígidas, sino que a éstas se les permite oscilar en torno a las posiciones de equilibrio. El método para introducir este efecto es mediante un parámetro en la ecuación de intensidad llamado “factor de temperatura”, que permite a las moléculas vibrar en torno a su posición de equilibrio.

Hay dos caminos posibles para calcular teóricamente la función de distribución radial del agua. Uno es a partir de la función potencial de las moléculas de agua y otro mediante el conocimiento detallado de la geometría de la estructura del agua, pues en este caso es posible generar la función de intensidad y de allí la función de distribución radial. El primer camino, sin embargo, es más difícil, pues sería necesario conocer con precisión la función potencial y esto no es posible cuando se trata de fuerzas de largo alcance, de muchos cuerpos y no centrales.

 
Figura 6. Función de intensidad del agua (4°C) calculada teóricamente.

La intensidad teórica, por otra parte, puede calcularse a partir de una estructura geométrica bien definida, que se puede deducir del conocimiento del arreglo atómico del agua en el estado sólido y de lo que se espera en el estado gaseoso. La descripción geométrica que se escoja permitirá conocer un conjunto de distancias radiales promedio rij, que hacen posible calcular la intensidad mediante la ecuación:

Entra fórmula 01.pdf

Donde el índice i es sumado sobre la unidad estequiométrica y j sobre todos los átomos de la estructura discretas de los bij son los factores de temperatura (bij = ½ variación cuadrática media en rij, entre pares atómicos). Las rij son las separaciones interatómicas promedio.

La serie de términos de id(s), que se hacen más pequeñas a medida que aumenta la distancia, podría terminarse para una distancia arbitraria máxima roij, y suponer una estructura uniforme o “continua” más allá. Finalmente esto correspondería a hacer un hoyo en un medio uniforme y sin estructura donde se insertarían las interacciones discretas.

La intensidad reducida para la distribución continua de distancias empezando en roij y extendiéndose a los límites de la muestra es:

Entra fórmula 02.pdf

Aquí los índices i y k son sumados sobre la unidad estequiométrica y 0 es la densidad macroscópica.

La curva de intensidad reducida del modelo puede calcularse como la suma de las contribuciones discreta y continua:

Entra fórmula 03.pdf

(Se puede demostrar formalmente que la intensidad total es la suma de las contribuciones discreta y continua).

Las funciones de intensidad generadas con esta expresión (previo ajuste de distancias intramoleculares y factores de temperatura) exhiben una buena concordancia con los obtenidos experimentalmente. Aun cuando esta concordancia es necesaria para que el modelo pueda sostenerse, sin embargo de ninguna manera constituye una prueba irrefutable de que sea “el modelo”. En otras palabras el modelo no es único, pues puede haber otros que, suponiendo una geometría ligeramente diferente, también sean capaces de generar la función de intensidad y la función de distribución radial. En tal caso sería necesario analizar la bondad del ajuste para cada modelo.

El modelo de Narten proporciona un marco teórico para generar modelos de estructuras moleculares de agua y soluciones acuosas mediante el cálculo de las funciones de intensidad y distribución radial y su comparación con el experimento.

Referencias bibliográficas

1. Argelli, C. La Recherche. Vol. 13 No. 113 (1982.)
2. Daiton, J. Trans Royal Soc. Vol. 41, 162 (1739).
3. Apfel, R. E., Nat. Phys. Sciencie, Vol. 63, 238 (1972).
4. Roentgen, W. K., Ann. Phys, Vol. 45, 91 (1982).
5. Bernal, J. B. Y Fowler, R. H., J. Chem Rev., Vol. 4, 375 (1927).
6. Franks, F., Water: A Comprehensive Treatise, Vols. 1 … 7, (1973), … (1982), Plenum Press, N. Y.
7. Kavanau, J. L., Water and Water Solute Interactions, Holden-Day (1964).
8. Frank, H. S. Y Wen, W. Y., Disc. Faraday Soc., Vol. 24, 133 (1957).
9. Pauling, L., Hydrogen Bonding, Pergamon Press, Londres (1959).
10. Narten, A. H., Danford, N. D., Levy, H. A., Disc. Faraday Soc., Vol. 43, 97 (1967).
11. Narten, A. H., Danford, N. D., Levy, H. A., ORNL-3397 (1966).
12. Bonilla-Marín, M. Tesis doctoral. Universidad de Londres (1983.)
     
____________________________________________________________      
Marcial Bonilla
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
_____________________________________________________
como citar este artículo 
 
[En línea]
     
R07Articulos6   menu2 índice 07
siguiente
anterior
PDF
   
   
Jack Manno      
               
               

El transbordador espacial estadounidense, o Sistema
de Transportación Espacial (STS, en inglés), es una de las inversiones más imaginativas en la historia de los compromisos políticos. En 1972, cuando se aprobó la construcción del transbordador, el programa espacial de los Estados Unidos se enfrentaba al dilema en cuanto a qué hacer y a dónde ir después de la Luna. Respecto a un sistema de transportación, a un concepto aparentemente neutro que no demandaba de sus promotores determinar lo que sería transportado y hacia qué lugar, parecía ser el mejor posible de los subsiguientes proyectos espaciales de gran envergadura. Para la NASA esta decisión significaba recibir al menos una parte de su programa para la exploración del espacio, que una vez había incluido estaciones espaciales tripuladas en órbita alrededor de la Tierra y la Luna, así como un transbordador Tierra-Luna y lograr el descenso de astronautas en Marte durante la década de 1980. Para la industria aeroespacial el transbordador representaba un nuevo cúmulo de contratos justamente cuando se tambaleaba, por la terminación del Proyecto Apolo y del sistema de misiles de los 60, la derrota en el congreso sobre el avión supersónico de transporte y, de igual modo, la carencia de presupuesto para otros proyectos que no podían iniciarse dadas las resultantes de los requerimientos financieros aplicados a la guerra de Vietnam. Para la Fuerza Aérea el transbordador constituía un paso crucial hacia la presencia militar “tripulada” en el espacio, situación que había estado anhelando por años. El transbordador era más que bien venido por la Fuerza Aérea, ya que compensaba la cancelación, por el Departamento de Defensa de Nixon, de la estación espacial militar que desde 1965 había estado desarrollándose, causando un sobregiro de su presupuesto, sin concretar fecha de lanzamiento. Al congreso, preocupado y presionado por los electores, que se mostraban inquietos debido al alto monto y cuestionable utilidad social de las actividades espaciales, los promotores del transbordador le prometieron incorrecta y engañosamente, que podrían reducirse los costos de vuelos espaciales en el futuro.

La clave del éxito para el compromiso del transbordador fue el apoyo activo de la Fuerza Aérea. Los estrategas sabían que el espacio sería explotado militarmente por completo cuando el acceso a órbitas terrestres fuera cuestión de rutina, No obstante que los militares aspiraban a tener su propio transbordador, la Fuerza Aérea encaraba la realidad presupuestaria existente a principios del 70 y acordó unirse a la NASA en el Sistema de Transportación Espacial si se le permitía realizar cambios al diseño propuesto por la NASA. El transbordador debía ser agrandado a la capacidad necesaria para transportar los pesados y complejos satélites de comunicación, navegación y radar que la Fuerza Aérea tenía en desarrollo. La Fuerza Aérea requería además que se construyera un segundo sitio de lanzamiento y que se reservaran dos transbordadores para lanzamientos militares. También necesitaba una modificación del diseño de la nave para facilitar su manejo lateral durante el retorno. Por último, el Pentágono tendría máxima prioridad en la carga del transbordador, que incluía la prerrogativa de eliminar otras cargas, a fin de cumplir con sus propios programas. Estos cambios inflaron enormemente los costos y los tiempos de desarrollo pero la Fuerza Aérea, mediante el acuerdo de rediseñar sus futuros satélites militares para ser lanzados desde el transbordador, dio a la NASA el poder de reclamar un mayor presupuesto en virtud de ser el proyecto más amplio, así como necesario para la seguridad nacional y por lo tanto quedar, ante la opinión pública, a salvo de críticas.

Nacimiento del Transbordador

Aunque a menudo se ha disfrazado de muchas cosas, incluyendo una aventura con potencial comercial inmediato, en realidad el transbordador —un vehículo diseñado para poner al alcance, de manera rutinaria, el espacio cercano a la Tierra— ha sido una de las dos máximas prioridades del programa espacial militar por 20 años. A mediados de los años 60, a medida que se acercaba el alunizaje del Apolo, tanto el comité asesor científico del presidente Johnson como el comité de ciencias del espacio de la Academia Nacional de Ciencias, se plantearon la tarea de establecer metas para el programa espacial del periodo posterior al Apolo. Estos dos grupos de civiles hicieron una amplia gama de recomendaciones que abarcaba de la exploración lunar del Apolo hasta un programa planetario gradual, consistente en lograr el descenso de astronautas en Marte y una estación espacial en órbita apta para la investigación astronómica y biomédica. Solamente una vez, y eso en referencia a conceptos de largo alcance más allá incluso del aterrizaje en Marte, se mencionó la necesidad de un transbordador espacial. Y aún así sólo cinco años después el presidente Nixon, quien en su campaña había “deplorado la falta de énfasis sobre el uso militar del espacio para la defensa de los Estados Unidos”, hizo que el transbordador fuera el único programa de vehículos espaciales que recibiera los fondos necesarios para entrar en operación durante los años 80.

En 1965 el comité del Senado sobre Ciencias Aeronáuticas y del Espacio tuvo audiencias sobre Metas Nacionales para el periodo post-Apolo. Científicos de la NASA y la comunidad académica opinaron durante tres días de audiencias. Ninguno pensó que el transbordador fuera suficientemente importante como para mencionarlo. Mientras se llevaba a cabo las audiencias, el presidente Johnson anunció el nombramiento del general Bernard Adolph Schriever para comandar el centro orbital de supervisión y mando militar del Departamento de Defensa, conocido eufemísticamente como Laboratorio Orbital Tripulado (MOL, en inglés). El general Schriever no se presentó a las audiencias pero hizo saber a través de senadores que estaban en el comité, apoyados por la Fuerza Aérea, que él pensaba que en la década de 1970 debería invertirse un esfuerzo mucho mayor en el campo de vehículos susceptibles para el retorno a la Tierra, reutilizables y maniobrables. Más tarde los miembros del comité pusieron al administrador de la NASA, Robert Seamans, a la defensiva sobre el tema de vehículos espaciales reutilizables.

“Después de hablar con el general Schriever”, aseguró Seamans al comité, “un grupo que está revisando los cohetes recuperables, está revisando nuestro programa nacional total para el desarrollo de vehículos maniobrables que puedan regresar a la Tierra”. Al día siguiente se le pidió a Harold Brown, entonces Director de Investigación e Ingeniería de Defensa (posteriormente Secretario de Defensa de Carter y más recientemente crítico de los planes de la administración Reagan para armas antisatélite), que diera una lista de sus máximas prioridades para los avances técnicos en el periodo post-Apolo. La primera prioridad, según Brown, era el desarrollo de electrónica para naves espaciales que pudieran resistir la intensa radiación en el espacio después de un encuentro nuclear; la segunda era un vehículo espacial reutilizable.

“Cabeza de playa en el espacio”

Durante los últimos veinte años el general Schriever ha estado tratando de obtener un vehículo que sirva como lo que una vez dijo George Low, administrador de la NASA, respecto al transbordador: “una cabeza de playa en el espacio”. Como jefe del comando de Sistemas de la Fuerza Aérea y más tarde como consultor (a 600 dólares por día) de “planeación de largo alcance y planeación de mercado de sistemas principales de armas” para las compañías aeroespaciales de E.U., Schriever predicó con persistencia la importancia de poseer un transbordador espacial como prerrequisito de una “Fuerza Espacial” de los E.U.

Schriever era muy joven para ser comandante de la Fuerza Aérea, cuando por primera vez ganó la administración de la élite militar-industrial de la nación, al luchar desvergonzada y exitosamente contra su jefe, el general Curtis Le May, en la competencia que se efectuaba por los misiles contra los bombarderos pesados. Años antes del Sputnik, Schriever estaba convencido que “las naciones pelearán las batallas del futuro en el espacio”. En esa época Schriever tenía el mando de la Western Development Range, donde se estaban desarrollando para la Fuerza Aérea, los primeros misiles balísticos de alcance intermedio.

El problema principal en el desarrollo de misiles atómicos era el hecho de que las primeras bombas A pesaban miles de libras. El empuje de los cohetes necesario para lanzar tales “Big Boys” era inconcebible en ese tiempo y, además, los queridos B-52 de Le May estaban emplazados en un círculo alrededor de la Unión Soviética, por completo innecesario. Pero Schriever tenía una misión. Estableció enlaces con Edward Teller y John Van Neumann que, como miembros de una comisión especial de la Fuerza Aérea sobre el bombardeo de largo alcance con cohetes, estimaron que las bombas H podrían construirse lo suficientemente compactas como para adaptarse a los conos de un misil lanzado por cohetes. La Comisión de Energía Atómica (AEC) prometió entregar las minibombas a principio de los 60, con lo que Schriever ganó el compromiso de alta prioridad y los fondos para lograr la unión de la cohetería de alta tecnología y la destrucción masiva. Como lo expresó la prensa, como “hábil comadrona trajo al mundo una familia completa de misiles”.

El Sputnik y la “Amenaza Roja en el espacio”

El lanzamiento del Sputnik I en 1957 fue tomado por los primeros militares del espacio como evidencia de la amenaza soviética. Utilizaron esta supuesta amenaza para conseguir fondos y adquirir una lista siempre creciente de exóticas estrategias y armas espaciales para vencer la “Amenaza Roja del espacio”. La competencia real, sin embargo, no era entre comunismo y capitalismo, sino entre sectores en pugna de los servicios armados de los E.U. La Fuerza Aérea inició el proyecto Lunex, consistente en un plan para establecer una base de la Fuerza Aérea, con capacidad de bombardeo de la Luna a la Tierra. El proyecto Man in Space Soonest era el nombre en clave del intento de la Fuerza Aérea para enviar un piloto al espacio con una versión avanzada del avión de pruebas lanzado por cohetes, el X-15.

La división de misiles balísticos del ejército, que contaba con los servicios de 127 científicos especialistas en cohetes que habían desarrollado para Hitler las bombas Vengeance lanzadas por cohete en la Segunda Guerra Mundial, tenían un plan secreto para el transporte de tropas a través del espacio: el proyecto Man Very High concebía el rápido envío de tropas por medio de cohetes transporte intercontinentales. Incluso la Agencia Central de Inteligencia (CIA) deseaba intensamente el uso de una nave espacial para introducir subrepticiamente agentes detrás de las líneas enemigas. Existían planes para poner bombas y bombarderos, espiar desde las bases en la Luna y un centro de comando espacial lanzado al espacio por una serie de explosiones nucleares debajo de una plataforma de lanzamiento. Parecía no haber fin a la rivalidad entre diferentes servicios por las asignaciones espaciales más “sexy”, ni a las ganancias potenciales que fluirían hacia la industria aeroespacial de los E.U.

Había otros pensadores militares más tranquilos que entendían que la utilización militar rutinaria del espacio distaba por lo menos veinte años y que las bases tecnológicas para una “Fuerza Espacial” tenían que cimentarse lenta y deliberadamente. El presidente Eisenhower, en un intento por controlar la energía post-Sputnik, creó la Administración Nacional Aeronáutica y del Espacio (NASA), encargándole el programa espacial de la nación. La investigación y el desarrollo espaciales directamente relacionados con “la defensa de la nación” se mantuvo bajo la jurisdicción del Departamento de Defensa. Esa situación escondió eficazmente el programa espacial militar detrás de la NASA y la propaganda del gobierno relativa al “uso pacífico del espacio exterior”.

En 1960 un cambio de administración llevó al presidente Kennedy a la Casa Blanca, teniendo ya como vicepresidente a Lyndon B. Johnson, de larga trayectoria en el apoyo del uso militar del espacio. Kennedy dio a Johnson poder sobre el programa espacial. La Organización de Sistemas Especiales y de Misiles de la Fuerza Aérea, bajo la dirección del general Schriever, intentó recobrar el liderazgo del programa espacial mediante una gran campaña de crítica a la NASA. Sin embargo, James Webb, el nuevo administrador de la NASA (quien había obtenido el cargo por sus conexiones con el senador Kerr, el petrolero millonario de Oklahoma, amigo de Lyndon B. Johnson y protagonista de la infamia Kerr-McGee) pudo obtener el apoyo de la máxima oficial del Departamento de Defensa al garantizarles poder de decisión sobre la elección de experimentos y objetivos espaciales de la NASA. Esta garantía se usó en el comité de planeación del proyecto Gemini, que optó por la naturaleza de sus misiones. En el comité estaban: el general Schriever y el general de la Fuerza Aérea Homer Boushey, quien estuvo anteriormente a cargo del proyecto Lumex y fue partidario del plan de bombardeo Luna-Tierra como reducto de contra-ataque garantizado.

Se establece el Comando de Sistemas de la Fuerza Aérea

En 1961 el secretario de Defensa, McNamara, dispuso que la mayor parte de la planeación, desarrollo, producción y lanzamientos espaciales, quedara bajo el comando de un nuevo departamento de la Fuerza Aérea conocido como Comando de Sistemas de la Fuerza Aérea. Nada menos que el general Schriever quedó al mando del nuevo departamento. Para cumplir esta nueva responsabilidad la Fuerza Aérea instituyó un comité de estudio encabezado por el secretario de dicho organismo, Trevor Gardner y que incluía al general Schriever, Edward Teller y Walter Dornberger, el antiguo general del Reich, que encabezó el programa de cohetes de los nazis. Este comité redactó un informe secreto que establecía las metas y prioridades de la actividad espacial futura de la Fuerza Aérea. En un informe para la Fuerza Armada de los E.U., el general Schriever, hablando por el comité, concluyo qué:

“Se requiere mayor énfasis en naves espaciales tripuladas. Debemos poder usar el espacio de manera rutinaria, cotidiana. Para desarrollar esta capacidad debemos comenzar por desarrollar la capacidad de navegar y maniobrar vehículos espaciales; la capacidad para ir al espacio y regresar en los lugares y momentos escogidos, apoyando una determinada misión; la capacidad para reunirse en el espacio y realizar el reabastecimiento de combustible o la transferencia de carga, en resumen, para transportar, usar y apoyar al hombre en el espacio”.

Todas estas características delineadas por Schriever han sido incorporadas en el diseño del transbordador y sus futuros descendientes.

Schriever fue claro sobre la función antisatélite de su vehículo espacial: “Creo que es claro”, dijo en su informe, “que debemos ser capaces de observar o inspeccionar satélites y determinar su un satélite sin identificar es hostil o no; si se determina que es hostil debemos entonces tener la capacidad de neutralizarlo”.
Walter Dornberger escribió en un artículo titulado “Utilización militar del espacio”:

“Para el hombre pensante (sic) el espacio no es sino una extensión de un campo de operaciones en la dirección vertical. No me refiero a misiles balísticos; éstos no son verdaderos vehículos espaciales, así como las balas y granadas disparadas en la atmósfera no son aeroplanos. Me refiero a naves espaciales en órbita, tripuladas y no tripuladas, maniobrables, precisas y recobrables”.

A pesar del deseo de la Fuerza Aérea sobre un programa de vehículos pilotados, el secretario McNamara no se convencía. Las pruebas de armas nucleares en el espacio habían demostrado cuán vulnerables serían los sistemas espaciales a los efectos de las explosiones nucleares en áreas extraterrestres. Debido al casi vacío del espacio, nada absorbe la radiación que librea una explosión nuclear. Ocurrirían daños graves a una nave distante a miles de kilómetros de la explosión. El espacio se haría intransitable para naves pilotadas, los astronautas recibirían dosis letales de radiación, se interrumpiría la comunicación Tierra-espacio; todo esto como resultado del hecho, relativamente sencillo, de hacer explotar armas en cualquier parte dentro del campo magnético de la Tierra. Para la Fuerza Aérea, que esperaba extender su dominio al espacio, tal vulnerabilidad de los sistemas constituía una mala noticia. Pero las particularidades de los resultados de las pruebas nucleares en el espacio se mantuvieron como máximo secreto, por lo que no se podían utilizar para acallar el clamor por una Fuerza Espacial.

Desde el Sputnik en 1957 hasta el primer vuelo de Yuri Gagarin se gastaron miles de millones de dólares sin que los intereses en competencia que estaban controlando el programa espacial de los Estados Unidos llegaran a un acuerdo: vehículos piloteados o automáticos, interplanetarios u orbitales, armados o sin armas, militares o civiles. El presidente Kennedy, observando virtualmente la mismo confusión que Eisenhower había tratado de aclarar con la NASA, concluyó que era necesario decidir sobre una meta alcanzable para el programa espacial. Poner astronautas sobre la Luna en una década era un objetivo suficientemente lejano para permitir a los Estados Unidos arrebatar el liderazgo a los soviéticos, suficientemente importante como para ganar el apoyo popular y suficientemente costoso para complacer a la industria aeroespacial. En 1961 Kennedy anunció el proyecto Apolo.

Establecido el Proyecto Apolo era claro que la NASA iba a estar involucrada en vuelos tripulados, al menos durante la siguiente década. Aún así, el Comando de Sistemas de la Fuerza Aérea de Schriever no se resignó a un papel de apoyo. Pidieron y obtuvieron poder de decisión sobre los experimentos a realizar en el programa espacial por medio del proyecto Gemini. Asimismo, siguieron argumentando a favor de una estación espacial militar tripulada. El administrador de la NASA, James Webb, aseguró a la Fuerza Aérea que la NASA podría rápidamente concluir sus nuevas y enormes instalaciones para un uso militar, si se requería. Pero Schriever estaba cada vez más impaciente por obtener un vehículo militar. Dijo a un periodista de la revista Fortune que:

“si los militares van a tener realmente una misión en el espacio, las especificaciones de su equipo serán muy distintas a las que requiere la NASA. A diferencia de ésta, los militares necesitarán la capacidad para una reacción rápida, sostenida y repetitiva. Una vez en el espacio, un piloto militar deberá poder efectuar reencuentros”.

Precursores del transbordador en la Fuerza Aérea

El demostrar la capacidad de manejo y reunión con el proyecto Gemini se convirtió cada vez en más importante para la Fuerza Aérea, a medida que sus dos proyectos de vehículos maniobrables sufrían de sobrecostos, retrasos y fallas. El proyecto de interceptación de satélites (SAINT: Satellite Intercept) era un diseño de una nave antisatélite que orbitaría con un satélite blanco, lo inspeccionaría o rastrearía y lo destruiría. El proyecto SAINT no llegó más allá de la investigación y diseño debido a la razonable decisión política del Departamento de Defensa de McNamara, que pensó que tal capacidad antisatélite sólo conduciría a una carrera antisatélite que seguramente interferiría con el apoyo cada vez mayor que se obtiene de los satélites militares para reconocimientos de rutina, comunicaciones y advertencia rápida.

Otro proyecto, Dyna-Soar, era un plan para un deslizador espacial lanzado por cohete que mostraría capacidad de volver a la Tierra.

El proyecto Dyna-Soar, el verdadero antecesor del transbordador, tuvo sus orígenes en el trabajo de científicos y técnicos alemanes expertos en cohetes durante la Segunda Guerra Mundial.  En 1944 Walter Dornberger presentó a Hitler la propuesta de un bombardero espacial. El vehículo propuesto, lanzado por cohete, pasaría por las capas más altas de la atmósfera, reentraría para soltar su carga de bombas sobre Nueva York y, planeando, descendería en el Pacífico, donde la tripulación sería rescatada por un submarino. La guerra terminó antes que este bombardero pudiera desarrollarse y probarse.

Pero Dornberger no abandonó su idea. La trajo consigo cuando vino a los Estados Unidos como consultor de la Fuerza Aérea. Uno de los primeros trabajos que escribió para la Fuera Aérea era sobre un sistema masivo de bombas nucleares en órbita, capaces de reentrar a la atmósfera bajo la orden del control de Tierra. Para dar servicio a este sistema sería necesaria una nave maniobrable y recuperable. Vendió la idea a la Bell Aviation Corporation, que inmediatamente recibió un contrato de estudio de la Fuerza Aérea. El y uno de sus colegas de la época de los cohetes alemanes Venganza, Kraft y Ehricke, se fueron a trabajar para la Bell Aviation en Buffalo. Durante diez años el proyecto Dyna-Soar avanzó a través de las etapas de presupuestos y diseño. Finalmente, se le adjuntó con el avión de pruebas lanzado por cohete, el X-15, designándosele como X-20 bajo el contrato del transbordador.

En 1963 tanto SAINT como Dyna-Soar fueron cancelados. Con los rápidamente crecientes costos del proyecto Apolo y los inicios de la guerra de Indochina, el Departamento de Defensa de McNamara estaba muy presionado y no podía justificar un programa de un vehículo espacial militar tripulado, para el que no existía una necesidad demostrada. La logística del bombardeo orbital era mucho más complicada que la de los misiles balísticos con base en tierra y, por otro lado, la vulnerabilidad de los sistemas espaciales a las explosiones y radiaciones seguía siendo un problema abierto. Con la cancelación de sus dos principales proyectos para vehículos pilotados, la Fuerza Aérea puso todas sus esperanzas y atención en el proyecto Gemini. La Fuerza Aérea y la NASA acordaron una participación conjunta, que culminó con el vuelo del Gemini 5, durante el cual los dos astronautas realizaron a bordo seis experimentos militares secretos.

El 25 de agosto de 1865 el presidente Johnson, una vez más, despertó las esperanzas de la Fuerza Aérea respecto a un programa para un vehículo espacial tripulado, al aprobar el desarrollo del Laboratorio Orbital Tripulado (MOL, por sus siglas en inglés). Aún así, el MOL nunca fue una prioridad máxima, sucumbiendo cuatro años después y habiéndose gastado 1300 millones de dólares ante el proyecto Apolo, Vietnam y el estado crítico presupuestal de la gran sociedad. En 1966 las Naciones Unidas ratificaron el Tratado de Usos Pacíficos del Espacio Exterior, que prohibía las “armas de destrucción masiva” en el espacio.

Entre los que objetaron el tratado estaba el general Schriever y Walter Dornberger. Schriever renunció a su mando y se fue a trabajar a la industria aeroespacial como consultor. En noviembre de 1966, poco después de su renuncia, dijo en una reunión del American Institute for Aeronautics and Astronautics que “lo que me hace más desdichado es la lentitud para avanzar en el programa de un vehículo espacial recuperable y maniobrable”.

Se constituye la coalición del transbordador

Debido a que el Pentágono enfocaba su investigación y desarrollo avanzados hacia las tecnología de la fuera en la jungla y la NASA estaba atada con el proyecto Apolo para un descenso en la Luna, los programas espaciales del futuro tuvieron que detenerse. Al llegar Richard Nixon a la presidencia encontró que ni la NASA ni el Pentágono tenían una visión clara de las actividades espaciales para después del Apolo. Tres años después había formado alrededor del transbordador la coalición industria-militar-NASA. El 5 de enero de 1972, el presidente Nixon anunció formalmente su aprobación del transbordador, al que llamó “un sistema de transporte totalmente nuevo diseñado para ayudar a transformar la frontera del espacio de los años 70 en un territorio familiar, fácilmente accesibles a las empresas humanas en las décadas de los 80 y 90”.

La capacidad de reutilizar y maniobrar el transbordador espacial y su aforo de carga sería la clave para la esperada familiarización de los vuelos espaciales. El transbordador sería capaz de colocar satélites con peso de hasta 30000 kg en órbitas polares militarmente útiles. La Fuerza Aérea adquirió el compromiso de desarrollar un cohete de etapas para colocar satélites de 2500 kg en órbitas geoestacionarias, es decir, en órbitas a 37000 km por encima del Ecuador, donde un satélite permanece estacionario con relación a la superficie de la Tierra al girar alrededor una vez cada 24 horas. Las capacidades del transbordador permitirían ahora alcanzar un satélite en órbita y retirarlo del espacio para su reparación. Además, el transbordador abriría la posibilidad de transportar materiales y trabajadores a sitios de construcción de estaciones espaciales donde podrían erigirse enormes plataformas en órbita; antenas como telarañas tan grandes que en la Tierra se colapsarían bajo su propio peso, estaciones satélite de propósitos múltiples con poderosos sensores, procesadores de datos y transmisores. Aun sin la capacidad para construir en el espacio, la posibilidad de lanzar desde el transbordador grandes satélites en número creciente prometía cambiar la naturaleza de los sistemas de satélites.

Anteriormente, los sistemas espaciales se mantenían tan limitados y sencillos como fuera posible, mientras que el equipo de tierra era grande, caro y complejo. Por el contrario, si se colocaran en órbita satélites poderosos, grandes y complejos, entonces el equipo de tierra podría ser pequeño, simple y capaz de ser producido en masa en forma barata. Las aplicaciones comerciales de esta inversión, conocida en el negocio espacial como inversión en complejidad, incluyen amplio acceso a las transmisiones de datos, recepción hogareña de transmisiones de TV por satélite, comunicaciones directas por satélite mediante videoteléfono e incluso radios de pulsera tipo Dick Tracy. Otras aplicaciones potenciales de las prometedoras capacidades del transbordador incluían fábricas en órbita donde sería posible tomar ventaja, para ciertos procesos industriales, de la imponderabilidad y el casi perfecto vació del espacio, satélites captadores de energía solar que transmitirían a la Tierra por microondas, espejos en órbita para la iluminación nocturna de lugares seleccionados de la Tierra, monitoreo de recursos y contaminación, así como la investigación científica global.

El disfraz de las aplicaciones comerciales

Fue al potencial de aplicaciones comerciales de la tecnología espacial a lo que los promotores del transbordador apuntaron. Las proporciones más futuristas tenían el poder de desatar la imaginación popular a la manera en que alguna vez lo había hecho la exploración del espacio exterior. Así como la “exploración pacífica del espacio” había sido el tema motivante detrás de la primera era de actividad espacial, la comercialización, industrialización y, para los más aventureros, la colonización del espacio sería ahora los temas motivantes para la era del transbordador. Pero así como los programas espaciales de la NASA de los años 60 habían servido de disfraz para el desarrollo y mejoramiento militar, la industrialización y comercialización del espacio servirían de careta a la explotación de las implicaciones militares de la inversión de complejidad y las evolucionadas comunicaciones por satélite. Los primeros usos de dispositivos de percepción remota, comandos y controles computarizados y la guerra automatizada ya se estaban dando en las selvas de Vietnam y Laos. La extrapolación de esa experiencia a un sistema mundial que pudiera, con el tiempo, controlar un campo de batalla electrónico global, tuvo que esperar los desarrollos tecnológicos espaciales de la siguiente era.

En 1969 el general Westmoreland, comandante de las fuerzas de los E.U. en el sudeste de Asia, en una reunión de la Aviación de los E.U., presentó una visión de las guerras futuras basada en su experiencia con la guerra electrónica:

“Veo campos de batalla o áreas de combato bajo constante o casi constante vigilancia de todos tipos las 24 horas. Veo campos de batalla en los que podemos destruir cualquier cosa que localicemos a través de comunicaciones instantáneas y la aplicación casi instantánea de fuego altamente letal. En resumen, veo un ejército construido alrededor de un sistema integrado de control de un área que explota la tecnología avanzada de sensores de comunicación, detección de fuego y el necesario procesamiento automático de datos”.

Cómo tal visión podría hacerse a escala global, fue explicado por el general Schriever en una entrevista en 1983. Schriever era entrevistado por este autor en sus papel de general, como consejero del presidente Reagan, y como autor del informe de transición sobre el espacio:

“Lo que quiero es un sistema de vigilancia por radar que nos permita localizar cualquier cosa que se esté moviendo, ya sea sobre o por encima de la superficie de la Tierra, Y si tuviéramos sistemas accesorios, un láser de alta energía o un arma de haz de partículas, o alguna otra cosa, junto con la capacidad de localizar y rastrear así como derribar aviones y misiles, entonces no se tendría la necesidad de atacar las ciudades, se podrían atacar las fuerzas. Uno podría inmovilizar al enemigo en tierra. ¿Qué podrían hacer?”

Desde posiciones a gran altura sobre la Tierra, o en centros de comando bien protegidos lejos de la acción, la fascinación de la invulnerabilidad es obviamente atractiva. La Agencia de Proyectos de Investigación Avanzada y Defensa planea lanzar desde el transbordador, en 1988, lo que se conoce como la Demostración de Sensores Avanzados, que entrará en un órbita geoestacionaria y, usando una diversidad de sensores, rastreará aeroplanos y misiles.

Una gran variedad de mejoras a los satélites está en desarrollo: mejoras en la óptica de cámaras para satélites espías, circuitos integrados para satélites espías, circuitos integrados de alta velocidad para lograr comando y control “instantáneo” a distancias de miles de kilómetros y estaciones retransmisoras en órbita de tierra en otros países, lo que las hace políticamente vulnerables. Conforme la estrategia militar de los E.U. se hace cada vez más dependiente de los sistemas espaciales, más atención debe prestarse a la protección de satélites y a destruir satélites rusos con armas espaciales. De esta manera, la siguiente etapa en la militarización del espacio se convertirá en una carrera armamentista en el espacio con verdades fortalezas satélite. Además, conforme los satélites se vuelven indispensables para la guerra nuclear se necesitan nuevos satélites que puedan resistir los efectos de las explosiones nucleares en el espacio.

En tanto los estrategas nucleares suponían que los satélites se necesitarían únicamente para participar en el lanzamiento de un solo contraataque masivo en respuesta a un ataque soviético, la capacidad de supervivencia más allá del primer intercambio nuclear no se consideraba importante. Pero ahora los estrategas planean guerras tardadas con posibles olas de ataques durante cierto tiempo, por lo que la supervivencia a ataques nucleares se ha convertido en prioritaria para la siguiente generación de satélites de comunicaciones, que serán lanzados desde el transbordador.

Hay tres características principales necesaria para asegurar la supervivencia de los satélites militares: 1) componentes electrónicos blindados contra los efectos electromagnéticos de las explosiones; 2) la capacidad para funcionar independientemente del control de tierra durante el lapso en que las comunicaciones Tierra-espacio queden interferidas; y, 3) fuentes de energía internas que empleen combustible nuclear en lugar de las vulnerables pilas solares. Cada uno de estos requerimientos aumenta el peso, la complejidad y los costos.

Como con cualquier nueva tecnología, el costo efectivo del transbordador depende de qué tanto se use. Conforme el número de lanzamientos del transbordador aumenta, el costo por lanzamiento disminuye. La única manera en que el transbordador tendrá un costo competitivo con el de los vehículos no recuperables es que uno de los cuatro transbordadores que forman la flotilla esté en uso más o menos una vez por semana. En el futuro cercano, en esta época de estancamiento económico, sólo los militares de los E.U. podrán tener acceso económico y político para la utilización del transbordador y un programa desarrollado en el uso del espacio cercano a la Tierra, formando una extraña coalición de industriales futuristas que buscan en los infinitos recursos del espacio la respuesta a los límites del crecimiento fanáticos de la ciencia ficción, como los que mandaron una lluvia de telegramas al presidente Ford para que rebautizara al primer transbordador como Enterprise, en honor de Viaje a las Estrellas, colonos espaciales obstinados con la sensación de estar atrapados en este planeta e incluso ciertos pacifistas que consideran que un sistema global de vigilancia por satélite garantizaría la paz e hincaría los cimientos de un gobierno mundial. La realidad política y económica es que el éxito del transbordador depende literalmente de su utilización por los militares. Como los sistemas militares están diseñados para tomar ventaja de las capacidades del transbordador, entonces se vuelven dependiente de éste. Se establece así una dinámica de retroalimentación que conduce inexorablemente a la cada vez mayor militarización del espacio.

El general Schriever hizo notar esta dinámica ya en 1967, cuando estaba promoviendo el transbordador. Se lamentó en la Asociación de Escritores de Aviación y el Espacio de que “no podemos, en realidad, justificar los altos costos de desarrollar un sistema reutilizable hasta que tengamos el número necesario de misiones espaciales y, a la vez, no podemos programas a costos razonables ninguna utilización intensa de vehículos espaciales hasta que el precio baje”.

Michel Michaud, un destacado teórico y propagandista de la industrialización futura del espacio, reconoció que los milites no sólo gastan más en investigación y desarrollo que ninguna otra institución en los E.U. —también tienen más libertad para trabajar en proyectos arriesgados cuyos beneficios pueden ser inciertos… Fue la investigación y desarrollo para los aviones militares lo que hizo que posible los jets comerciales que conocemos hoy en día… Puede ser que sólo los requerimientos militares nos permitirán salvar la barrera de costos y quitar la política espacial de las manos de la Oficina de Administración y Presupuesto.

Esta es las situación poco saludable en una economía donde los militares son el único sector capaz de inversiones planeadas de alto riesgo. Esta retroalimentación entre la investigación y desarrollo de alta tecnología y la producción de armas, debe ser confrontada por los pacifistas. Protestar contra la militarización del espacio mientras se aceptan las fantasía de colonias espaciales, vuelos espaciales masivos y una industria espacial, es inevitablemente una contradicción. Las recientes pláticas sobre la comercialización e industrialización del espacio, así como la familiarización de los vuelos espaciales, no importa qué tan bien intencionadas, terminarán sirviendo al programa espacial militar en la misma capacidad que la NASA original: un caballo de Troya que encubre la cada vez mayor militarización del espacio.

 articulos
____________________________________________________________
     

Jack Manno
Es un escritor y pacifista que reside en Syracusa, N. Y. Su libro: Armando los cielos: la agenda militar secreta para el espacio 1945-1995, fue publicado por Dodd, Mead & Co.

Traducción:
Ignacio Campos, Profesor del Departamento de Física,
Facultad de Ciencias, UNAM.

     
como citar este artículo      
You are here: Inicio Búsqueda Titulo revistas revista ciencias 7