revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
de la solapa
        menu2
índice 117
anterior
PDF
                 
Pròs Bíon: reflexiones sobre arte, ciencia y filosofía
entrada117B06  
 
 
 
María Antonia González Valerio (coord.).
Facultad de Filosofía y  Letras-UNAM. México, 2014.
 
                     
¿Cómo distinguir el arte de la ciencia? Tal pregunta
no tiene sentido sino hasta el Renacimiento (antiguamente se pudo decir que hubo tejné que producía episteme), cuando las artes “bellas” comenzaron a separarse de las artesanías y cuando surgieron las ciencias modernas con sus métodos de verificación y observación empíricos. El tema de la verdad y el estatuto espistémico será siempre fundamental. Algo se orienta del lado del ser y algo del lado del no-ser. Y poco a poco se van ganando las autonomías: arte autónomo (en esto la tercera crítica de Kant jugó un papel esencial), ciencia autónoma (la física del siglo xvii sería la punta de lanza).
Los saberes se vuelven pretendidamente autónomos —quizá, incluso, autosuficientes. Se genera la idea de unidad y, aunada a ella, la de sistematicidad y método. ¿Cómo pensar la unidad de la ciencia y también la del arte? ¿Cómo inventar una autonomía (y luego socavarla)? Así como se buscó con ahínco lo que automatiza y proporciona identidad —qué distingue un saber de otro—, se ha buscado también lo que reúne.
 
Uno de los ensambles que más mueve a la reflexión acerca de lo que reúne es el uso de la técnica y la tecnología en las artes y en las ciencias, aunque con objetivos distintos. Se ha dicho mucho que las artes han usado los desarrollos científicos para sus propias producciones. Desde las matemáticas (exempli gratia, la perspectiva) y la química (exempli gratia, los pigmentos), hasta la tecnología (exempli gratia, la fotografía). También hay que considerar la creación de máquinas en ambos terrenos. Asimismo, se ha jugado a cierta “estetización” de la ciencia porque lo que produce puede ser bello (los axiomas o la visualización de los fractales) o porque hay invención e imaginación. Los puntos en los que podríamos marcar la relación entre arte y ciencia en un posible mapa son muchísimos, y no es necesario tratar de enlistarlos aquí. Para nuestra contemporaneidad, los momentos paradigmáticos de usos tecnológicos compartidos serían, por un lado, la inserción de la técnica fotográfica y del video y, por otro, la de las computadoras. Es a tal punto paradigmático que es casi imposible pensar en el arte actual sin incluir fotografía, video y computación, con lo que se hace patente la inserción de las artes en la llamada era de la tecnociencia.
 
El modelo de las artes en los años ochentas y noventas estuvo fuertemente marcado, e incluso determinado, por aquello que se llamó “nuevos medios”, es decir, por la inclusión de las tecnologías electrónicas hasta el punto en que se convirtieron en medio y tema del arte.
 
Es posible decir, sin dubitaciones, que el uso de la tecnología es un lugar común para el arte y la ciencia, pues sin ella no pueden habérselas hoy día. Lo que habría que discutir, en todo caso, es si se trata de la misma tecnología: ¿las artes llegan después a los desarrollos tecnológicos de punta? Esta pregunta la podemos extender: ¿cuando el arte trabaja con la ciencia, siempre va a la zaga de las investigaciones y descubrimientos científicos? ¿Para qué trabajaría el arte con la ciencia, específicamente con sus temas y contenidos? ¿Es esto posible?
 
En vez de continuar por el camino de dichos cuestionamientos —que serán abordados y desbordados en las páginas de este libro— regresemos al tema de la trama y digamos que la atropellada relación entre arte y ciencia está marcada por dos puntos básicos: el estatuto epistémico, es decir, la verdad de la ciencia enfrentada a la falsedad del arte (las implicaciones y consecuencias de ello siguen siendo contundentes para nuestra actualidad), y el uso necesario de la tecnología.
 
Ahora habrá que hablar de la pericia. Lo primero será poner en cuestión el estatuto epistémico y el modelo de verdad que está detrás de éste. Lo segundo será desplazar la concordancia en el uso de la tecnología hacia la concordancia en los temas y materiales de investigación (para que se produzca discordancia en el uso de la tecnología a partir de la prosecución de un fin harto diferente). Y habrá que poner un tercer elemento: el desplazamiento desde la física, las matemáticas, la electrónica y la computación, como centros de la discusión, hacia la biología, la cual es por supuesto deudora de lo anterior, pero no reductible a enfoques físico-químicos (aunque esto es un punto álgido del debate actual).
 
Planteemos entonces la relación entre arte, ciencia y filosofía, al decir, por lo pronto, que a aquel paradigma epistémico —que tal vez comienza con la condena platónica de la poesía y que señala las artes como no-verdaderas— podemos oponer un paradigma que piensa arte, ciencia y filosofía como modelos de comprensión de lo real, los cuales, lejos de pretender asemejarse o emparentar sus métodos, entendidos éstos más griega que modernamente, afirman de modo productivo sus diferencias. Mas para ello primero tendrán que haber devenido distintos: no se trata del arte inserto en la institucionalidad del museo y del mercado, es decir, no es el arte la consciencia estética. No se trata de la ciencia que afirma conocer la verdad sin mediaciones, esto es, la que lejos de hablar de modelos o metáforas habla de lo efectiva y empíricamente real. No se trata de la filosofía que recusa la metafísica y se limita a preguntar por las ciencias segundas y sus procederes, es decir, aquella que no puede y no quiere pensarse primeramente como ontología.
 
La pericia en esta trama se encuentra marcada, entonces, por tales personajes; una filosofía que se quiere ontológica, a saber, un modelo de comprensión de lo real; un arte que se reconoce como productor del mundo, esto es, un modelo de comprensión de lo real, y una ciencia que se asume como interpretación de la complejidad que deviene, es decir, un modelo de comprensión de lo real.
 
Lo que encontraremos serán híbridos artístico-filosófico-científicos que han cruzado e imbricado sus saberes para producir “cosas” indiscernibles, pero no son indiscernibles visuales, porque el tema no está en su (in)diferenciación del objeto cotidiano, sino en tanto que son modelos e interpretaciones del mundo.
 
¿Qué importa aquí si se trata de ciencia, de arte o de filosofía? Se está produciendo algo, se está operando una peripecia en una pretendida trama que modifica los sentidos y que disloca las identificaciones. Pero no hay que precipitarse en esto, no se trata de decir que todo es hibridación, sino más bien de señalar que una de las posibilidades más contundentes de la relación entre arte, ciencia y filosofía, en los últimos quince años, ha sido la producción de hibridaciones.
 
     
(Fragmentos de la Introducción).      
 _______________________________________________      
María Antonia González Valerio
     
_________________________________________________      
 
cómo citar este artículo 
 
González Valerio, María Antonia . 2015. Pròs Bíon: reflexiones sobre arte, ciencia y filosofía Ciencias, núm. 117, julio-octubre, pp. 77-78. [En línea].
     

 

 

de la solapa
        menu2
índice 117
siguiente
anterior
PDF
                 
El arte de la aprehensión de las imágenes y el unicornio. Dos pequeñas historias acerca de la cámara fotográfica.
entrada117B05  
 
 
 
Carlos Jurado.
Universidad de Ciencias y Artes de Chiapas.
Tuxtla Gutiérrez, 2009.

 
                     
Carlos Jurado se adentró en la fotografía estenopeica
 —realizada con cámara de cartón y sin lente— desde 1973 y sobre esta disciplina dice: “… mi actividad profesional es la pintura y con el empleo de la cámara pinhole obtengo resultados que se emparentan con las formas y ambientes que habitualmente manejo. Otra de las ventajas que este proceso me proporciona, es la de elegir y fabricar mis propios formatos sin tener que ajustarme a los convencionales. Por otra parte mi trabajo no sería posible sin la utilización de materiales modernos como películas y papeles. Sin embargo procuro seguir manteniéndome como un aprendiz de alquimista, ya que la fotografía para mí, entre todas sus acepciones, es un acto puro de magia”.
 
Ante el entusiasmo que le suscitaron estas imágenes experimentales, afloró su capacidad de creador de la palabra, su talento de humorista y su bagaje de lector para crear este extraordinario texto, El arte de la aprensión de las imágenes y el unicornio, a manera de manual, como un tratado de lo que a través de los siglos sustentó el desarrollo de la cámara oscura. No es casual que Carlos Jurado haya elegido al unicornio, animal mitológico elevado hasta lo sublime durante la Edad Media, como la especie con la que se puede fabricar —a partir de su cuerno— la aguja adecuada para crear el minúsculo cíclope que iniciará la multiplicación de las imágenes por los siglos de los siglos. El unicornio ha sido símbolo de la castidad y emblema de la espada o la palabra de Dios; criatura infatigable ante los cazadores, sólo cae rendido ante una virgen. La leyenda dice también que se puede vivir mil años y que es el más noble de los animales. Carece de un perfil fijo y ofrece muchas variaciones, dándose donde hay animales de un solo cuerno, reales o fabulosos, como el pez espada, el rinoceronte, el narval o ciertos dragones míticos. Especial importancia en su iconografía occidental tienen los tapices del unicornio del siglo xv que se encuentran en el Museo Cluny de París, conocidos como la serie de La dama del unicornio donde se muestra a este fabuloso animal con una dama de recatada sensualidad con quien comparte escenas íntimas que aluden a los cinco sentidos. El unicornio tiene las características ideales para que, según el autor de este tratado, el mago Merlín atribuyera a su codiciado cuerno el poder de crear el ojo de “la caja mágica”, es decir de la cámara oscura que reproducirá las imágenes y, a la larga, será también la madre del cinematógrafo. A través de la lente, ese ojo inventado, se pueden reproducir todas las capacidades del ojo humano y más.
 
Carlos Jurado, pintor, fotógrafo y maestro, fue fundador de la Facultad de Artes Plásticas, de la Licenciatura en Fotografía y del Instituto de Artes Plásticas de la Universidad Veracruzana. Recientemente recibió el título de Doctor Honoris Causa de esta institución académica.
 
Experimentador infatigable, Carlos Jurado introdujo la cámara estenopeica como práctica creativa en México. Es legendaria su exposición de 1973 en el Instituto Francés de América Latina titulada Antifotografías con cámaras de cartón sin lentes. Esta búsqueda, como todo lo que es realmente creativo, nació de la necesidad del artista de reinventar la evolución de lo que somos y sabemos respecto a la reproducción de las imágenes. Así dio nacimiento a una creación fuera de serie en la fotografía mexicana. El deslumbramiento produjo otro fruto maravilloso, ese libro que ahora reedita la Universidad de Ciencias y Artes de Chiapas, como un homenaje en el ochenta aniversario del autor.
     
(Fragmentos de la introducción).       
 _______________________________________________      
Carlos Jurado      
_________________________________________________      
 
cómo citar este artículo 
 
Jurado, Carlos. 2015. El arte de la aprehensión de las imágenes y el unicornio, Ciencias, núm. 117, julio-octubre, pp. 76. [En línea].
     

 

 

del mar
        menu2
índice 117
siguiente
anterior
PDF
                 
Los rápidos submarinos
del Golfo de California
entrada117B03  
 
 
 
Manuel López Mariscal
y Julio Candela Pérez
 
                     
Mucha gente ha visto los rápidos en algún río o
arroyo, esas zonas en donde los ríos se hacen más someros, angostos y el agua fluye más rápido. Este aumento de la velocidad en los rápidos es una consecuencia de la conservación de masa, ya que si el río tiene un transporte o gasto (volumen por unidad de tiempo) constante, entonces el mismo volumen de agua tiene que pasar por una sección del río cuya área es más pequeña y eso hace que la velocidad aumente. La velocidad del río también puede aumentar por un incremento en la inclinación del fondo. Aunque en el Golfo de California o Mar de Cortés no hay rápidos, existen corrientes profundas pegadas al fondo que tienen un comportamiento similar al de los rápidos de un río, en donde la trayectoria de la corriente la lleva a lugares más angostos  y menos profundos y, posteriormente, a fluir a lo largo de pendientes pronunciadas.
 
La línea de costa y la batimetría (topografía del fondo marino) de la parte norte del Golfo de California, son sumamente accidentadas y complejas (figura 1). Esta zona está poblada de islas, estrechos, canales y cuencas. Canal de Ballenas es sin duda la cuenca más impresionante de esta parte del golfo, y se extiende desde la isla San Lorenzo hasta la parte norte de la isla Ángel de la Guarda (aproximadamente 170 km) alcanzando profundidades de 1 600 metros. La batimetría de las cuencas de Canal de Ballenas y de Delfín hace que sus aguas profundas por abajo de 400 metros estén aisladas del resto del golfo norte.
La mayoría de las cuencas del golfo norte están conectadas entre sí mediante zonas poco profundas y estrechas denominadas umbrales. Los umbrales son puntos silla de caballo en donde la profundidad alcanza un valor mínimo en la trayectoria de una cuenca a otra, pero a la vez también es la profundidad máxima en la dirección aproximadamente perpendicular a esa trayectoria. Algo parecido a Cerro de la Silla cerca de Monterrey, pero formando parte del fondo marino. Toda el agua profunda que pasa de la cuenca San Pedro Mártir a Canal de Ballenas tiene que pasar por el umbral San Lorenzo. Lo mismo ocurre entre las cuencas Tiburón y Delfín en donde el intercambio profundo tiene que pasar por el umbral Delfín.
 
 117B03fig01
Figura 1. Mapa de la parte norte del Golfo de California mostrando curvas de igual profundidad del fondo marino (en metros). Los rectángulos muestran la zona alrededor de los umbrales San Lorenzo y Delfín. El recuadro muestra sombreada la zona del golfo comprendida en la figura principal.
 
 
Corrientes profundas
 
La renovación del agua profunda de Canal de Ballenas y de Cuenca Delfín se da mediante corrientes que pasan por los umbrales de San Lorenzo y Delfín, en donde la corriente promedio cerca del fondo siempre va en dirección a Canal de Ballenas y a Cuenca Delfín, es decir, hacia el noroeste. Los vectores de velocidad horizontal de la figura 2 se obtuvieron con mediciones de corrientes hechas por más  de un año en ambos umbrales, utilizando instrumentos instalados muy cerca del fondo que son capaces de medir las corrientes en casi toda la columna de agua mediante ondas acústicas. Es importante mencionar que los vectores de la figura 2 representan las corrientes horizontales que son mucho mayores a las corrientes verticales en el océano. Por ello, una flecha apuntando hacia arriba en dicha figura representa la velocidad del agua hacia el norte y no la velocidad del agua hacia arriba, tal y como lo indican las flechas etiquetadas con los símbolos de norte (N) y este (E). En tales corrientes el agua en el umbral es más densa que la de la cuenca profunda y, por tanto, el agua fluye por diferencia de densidad desde el umbral hasta la parte más profunda de la cuenca a lo largo del fondo que tiene una pendiente relativamente pronunciada.
 
 117B03fig02
Figura 2. Promedio de la velocidad horizontal como función de la profundidad en los umbrales San Lorenzo (izquierda) y Delfín (derecha). El eje horizontal es la escala para la magnitud de los vectores de velocidad. La profundidad del fondo en cada caso es la línea gruesa sobre el eje inferior.
 
La figura 3 muestra una sección vertical de la densidad del agua de mar a lo largo del umbral de San Lorenzo desde Cuenca San Pedro Mártir hasta Canal de Ballenas. Estos datos se obtuvieron bajando un instrumento desde un barco en diferentes posiciones a lo largo del umbral de San Lorenzo. De hecho, las cruces en la parte superior de la figura muestran las posiciones donde se tomaron los datos. El instrumento baja desde la superficie del mar hasta el fondo y mide continuamente los parámetros necesarios para calcular la densidad del agua de mar. La densidad en el océano es ligeramente mayor a 1 000 kg/m3 y varía muy poco, generalmente menos de 1%, y a esto se debe la costumbre en oceanografía de restarle 1 000 a los valores de densidad dados en unidades de kg/m3. Por ello, las líneas de igual densidad en la figura 4 están etiquetadas entre valores que van de 22 a 27, es decir, una variación de 5 kg/m3.
 
En la figura 3 se muestra cómo la densidad justo en el fondo del umbral de San Lorenzo a 400 m de profundidad  es ligeramente mayor que la densidad que se encuentra a  1 000 m de profundidad en el fondo de Canal de Ballenas. De hecho, el campo de densidad es marcadamente diferente en ambos lados del umbral. En la cuenca San Pedro Mártir la densidad tiende a incrementarse monotónicamente con la profundidad por debajo de 400 m, pero en Canal de Ballenas la densidad tiende a mantenerse constante a lo largo del fondo desde el umbral hasta unos 1 000 m de profundidad. Lo que evidencia una corriente densa que desciende hasta grandes profundidades en Canal de Ballenas.
 
Al fluir pendiente abajo, la corriente se mezcla de manera turbulenta con el agua más ligera que está por arriba de ella misma, provocando que su densidad disminuya. En el caso del umbral San Lorenzo, la inclinación del fondo es como de 5%, lo cual es un valor alto comparado con las pendientes típicas que se encuentran en el océano. Estas pendientes altas provocan que el agua de la corriente de fondo se mezcle rápidamente corriente abajo del umbral y por ello hay una disminución significativa de la estratificación (variación vertical de la densidad) justo pasando el umbral.
 
Es importante mencionar que en las figuras 3 y 4 las inclinaciones del fondo están muy exageradas debido a las diferentes unidades en el eje vertical (metros) y en el horizontal (kilómetros). Todas las figuras que representan una parte vertical y otra horizontal del océano muestran tal distorsión en las inclinaciones del fondo, lo cual necesariamente tiene que ser así, ya que la profundidad promedio de todos los océanos es de aproximadamente cuatro kilómetros y sus extensiones horizontales son de miles o decenas de miles de kilómetros. En otras palabras, los océanos, y la atmósfera también, son capas delgadas de agua y aire cuando tomamos en cuenta que su extensión vertical es muy pequeña comparada con su extensión horizontal que se prolonga sobre toda la superficie de nuestro planeta en el caso de la atmósfera, y de más de 70% de la superficie terrestre en el caso del océano. En la figura 3, la extensión horizontal es de unos 30 km, pero aun así sigue siendo bastante mayor que la máxima profundidad de un kilómetro.
 
 117B03fig03
Figura 3. Sección de densidad a lo largo del umbral de San Lorenzo. Las curvas representan líneas de igual densidad. La flecha horizontal gruesa denota el sentido de la corriente profunda.
 
 
Las velocidades promedio más intensas de estas corrientes están cerca del fondo y son de unos 33 y 17 cm/s para los umbrales de San Lorenzo y Delfín respectivamente. Dichas velocidades no son muy altas comparadas con las  de los ríos, pero la cantidad de agua que transportan sí es considerable. Utilizando los perfiles de velocidad que aparecen en la figura 2 y las secciones transversales estimamos un transporte promedio de 80 000 y 90 000 m3/s para tales umbrales. Estos transportes juntos equivalen más  o menos a la descarga del río Amazonas, el más caudaloso del mundo. Sin embargo, dichos valores son pequeños cuando los comparamos con los transportes de las grandes corrientes, oceánicas como la corriente de Yucatán que fluye hacia el Golfo de México entre la península de Yucatán y Cuba y que transporta, en promedio, casi 24 millones de metros cúbicos por segundo.
 
El efecto fertilizador
 
El transporte de agua profunda hacia las cuencas del golfo norte tiene consecuencias importantes para la renovación de las aguas de esa zona del Golfo de California y para su gran productividad biológica. Utilizando el volumen de agua de las cuencas de Canal de Ballenas y de Cuenca Delfín, así como los transportes mencionados anteriormente, estimamos que el agua de ambas cuencas se renueva en un periodo aproximado de 150 días. Utilizando el área que éstas ocupan, también se puede estimar una velocidad vertical promedio de cinco metros por día. Aunque esta velocidad puede parecer muy baja, en realidad es una velocidad muy alta comparada con las velocidades verticales observadas en otras partes del océano. Por ejemplo, las aguas profundas de todos los océanos se renuevan por hundimiento de agua cerca de las regiones polares que posteriormente asciende en las regiones tropicales y templadas de los océanos con una velocidad vertical inferida de sólo un centímetro por día (la circulación y ascenso de las aguas profundas en las cuencas del golfo norte se muestran esquemáticamente en la figura 4).
 
117B03fig04
Figura 4. Esquema de la circulación en las cuencas de Canal de Ballenas y Delfín. Las flechas a lo largo del fondo representan el transporte de agua densa que llega hasta el fondo de las cuencas. Las flechas gruesas verticales representan el transporte que compensa la entrada de agua profunda. Los valores relativos de la densidad se muestran en la barra de grises.
 
 
Esta renovación rápida de las aguas en las cuencas del golfo norte tiene consecuencias biológicas muy importantes. El fitoplancton (algas microscópicas en suspensión que son la base de la cadena trófica o alimentaria en el mar) florece únicamente en la zona donde penetra la luz, que generalmente comprende unas cuantas decenas de metros cerca de la superficie. Sin embargo, los nutrimentos (fertilizantes naturales) que requiere el fitoplancton para crecer y reproducirse se encuentran en las aguas profundas a donde llega toda la materia orgánica que se descompone transformándose en nutrimentos. Por ello, en lugares de aguas profundas ricas en nutrimentos, cuando éstos llegan a la zona donde penetra la luz, florece el fitoplancton, que a su vez da origen a comunidades abundantes de organismos que ocupan lugares superiores en la cadena trófica. Esta situación es precisamente la que se da en la parte norte del Golfo de California, en donde la renovación rápida de las aguas en sus cuencas más profundas da origen al constante surgimiento de aguas ricas en nutrimentos que crean en la superficie una zona exuberante de vida marina, incluyendo una enorme variedad de comunidades abundantes de peces, aves y mamíferos marinos. Es entonces la constante renovación y ascenso de sus aguas lo que hace de la parte norte del golfo una de las zonas oceánicas más productivas del planeta.
 
 
 
 
Referencias bibliográficas
 
López, Manuel y Joaquín García. 2003. “Moored observations in the northern Gulf of California: A strong bottom current”, en Journal of Geophysical Research, vol. 108, pp. 30.1-30.18.
López, Manuel, Julio Candela y María L. Argote. 2006. “Why does the Ballenas Channel have the coldest sst in the Gulf of California?”, en Geophysical Research Letters, vol. 33.
López, Manuel, Julio Candela y Joaquín García. 2008. “Two overflows in the Northern Gulf of California”, en Journal of Geophysical Research, vol. 113.
Sheinbaum, Julio, Julio Candela, Antoine Badan y José Ochoa. 2002. “Flow structure and transport in the Yucatan Channel”, en Geophysical Research Letters, vol. 29, núm. 3, pp. 10.1-10.4.
Talley, Lynne D., George L. Pickard, William J. Emery y James H. Swift. 2011. Descriptive Physical Oceanography: An Introduction. Elsevier, Burlington.
 
     
 _______________________________________________      
Manuel López Mariscal y Julio Candela Pérez
Centro de Investigación Científica y de Educación
Superior de Ensenada.
     
_________________________________________________      
 
cómo citar este artículo 
 
López Mariscal, Manuel y Candela Pérez, Julio. 2015. Los rápidos submarinos del Golfo de California. Ciencias, núm. 117, julio-octubre, pp. 48-51. [En línea].
     

 

 

imago
        menu2
índice 117
siguiente
anterior
PDF
                 
Ciencia, arte y
magia de la imagen
estenopeica
entrada117B04  
 
 
 
César Carrillo Trueba
 
                     
El principio óptico de la cámara fotográfica es bien
antiguo, se halla en la llamada  camera obscura, una verdadera habitación protegida de los rayos del sol con un pequeño orificio por el que pasaba la luz, proyectando en el muro interior la imagen invertida del paisaje o el objeto que tenía enfrente. Si bien hay noticias de tal dispositivo desde varios siglos antes de nuestra era en China, una mención en la obra de Aristóteles y vastos tratados árabes, su uso comenzó a popularizarse en la Europa del Renacimiento, cuando varios pintores, entre ellos Leonardo da Vinci, se sirvieron de ella para dibujar, para apropiarse de su proyección perspectiva en el diseño de sus cuadros.
 
 117B04fig02
 
El cambio radical viene de la mano de la química, cuando el soporte en donde se forma la imagen es de material sensible, captándola y fijándola mediante un proceso ahora muy conocido. La experimentación de sus posibilidades de expresión vino a tornarla arte y la mirada del espectador se fue familiarizando con ella, dejándose conmover, sorprender, emocionar, toda una paleta  de sensaciones y pensamientos alrededor de “la foto”.
 
Es probable que la primera cámara fuese estenopeica, es decir, una simple caja con un pequeño orificio que contiene un soporte sensible que dará origen a una fotografía, ya sea por medio del revelado y la impresión o directamente sobre papel. Las fotografías que ilustran este número de Ciencias fueron hechas con este  tipo de cámaras, lo cual viene muy a cuento con los temas abordados. Curiosamente, el tamaño del orificio que debe llevar la cámara fue asunto de varias tesis y tratados, al igual que la distancia entre éste y el papel o la película y la sensibilidad de los mismos originaron otras tantas disquisiciones científicas y de orden técnico.
 
117B04fig01
 
Y mientras la óptica lidiaba con una idea de luz ondulatoria, la química resolvía sus dificultades pensando en fotones, en su impacto en los cristales de haluro de plata y la formación de la llamada imagen latente, aquello que está en el soporte sensible pero nuestros ojos no ven y que sólo la química misma puede revelar.
 
Aun así, algo hay en todo ello de la antigua alquimia, como diría el reconocido fotógrafo Carlos Jurado, quien ha sido el impulsor en México de este tipo de fotografía y ha recreado en su arte esa magia particular que poseen las imágenes estenopeicas.
 
figura1 Paul Debois
 Paul Debois, pinhole impressions 7.
figura2 Paul Debois
 Paul Debois, pinhole impressions 3 Lime tree or Tilia Tomentosa.
     
       
 _______________________________________________      
César Carrillo Trueba
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
_________________________________________________      
 
cómo citar este artículo 
 
Carrillo Trueba, César. 2015. Ciencia, arte y magia de la imagen estenopeica. Ciencias, núm. 117, julio-octubre, pp. 62-63. [En línea].
     

 

 

del cosmos
        menu2
índice 117
siguiente
anterior
PDF
                 
La química y
las moléculas
interestelares
entrada117B02  
 
 
 
Alicia Negrón, Sergio Ramos y Fernando Mosqueira
 
                     
En 1968 se detectó en el espacio una molécula
poliatómica: el amoníaco (NH3). Desde entonces, muchas otras moléculas poliatómicas se han identificado. De acuerdo con cálculos teóricos se había predicho que estas moléculas (que presentan tres o más átomos unidos entre sí) no podrían sobrevivir en el medio interestelar. Sin embargo, existe en ese medio una gran abundancia y variedad de moléculas. La más abundante y simple es la del hidrógeno (H2), y las más complejas se localizan únicamente en las regiones más densas, aunque moléculas polares como el monóxido de carbono (CO) y la especie hidroxilo (OH) están distribuidas ampliamente.
 
Antes de abordar nuestro tema, definamos el área de estudio de la química interestelar: es la parte de la química que investiga los procesos fisicoquímicos que se presentan en la síntesis, distribución y destrucción de los compuestos orgánicos encontrados en el espacio interestelar.
 
Las condiciones físicas del espacio interestelar son bastante especiales y diferentes de las que se encuentran en la Tierra. Sus principales características son: 1) baja temperatura, entre 10 y 100 K; 2) baja densidad, pues se piensa que el gas interestelar tiene una densidad promedio de unas cuantas partículas por centímetro cúbico; y 3) es un medio nada homogéneo.
 
Las moléculas mencionadas se observan en regiones conocidas como nubes interestelares, las cuales se dividen en dos tipos: las nubes difusas y las nubes densas (cuadro 1). Además, se encuentran en partículas sólidas llamadas polvo o granos.
 
Características Nube difusa Nube densa
Cantidad de polvo poco abundante
Especie dominante átomos individuales de hidrógeno y baja concentración de moléculas  hidrógeno molecular
temperatura 10-100 K 10-50 K
Fuente de energía fotodisociación flujos de alta energía de rayos cósmicos
Cuadro 1. Algunas características de las nubes difusas y densas
 
Se han utilizado tres enfoques diferentes para el estudio de las moléculas interestelares: el análisis observacional, los modelos teóricos y las simulaciones experimentales.
 
La pregunta básica que nos planteamos es: dado que se forman moléculas en el espacio interestelar, ¿cuáles son las reacciones químicas que forman y destruyen esas moléculas?
 
El mecanismo probable para la formación de moléculas incluye diversos procesos que se llevan a cabo en: 1) la fase gaseosa; 2) la superficie de los granos de polvo y; 3) los fenómenos fotoquímicos que ocurren en esos granos.
 
Generalmente se acepta que las moléculas interestelares se forman a partir de componentes simples, mediante un proceso de síntesis, en lugar de suponer que proceden de la degradación de sistemas más complicados. Tanto las reacciones en superficie como en fase gaseosa son importantes en la química interestelar. Si suponemos que las reacciones químicas en un gas serán favorables según su abundancia cósmica, predominaría entonces el hidrógeno. Los otros elementos químicos importantes, tales como el carbono, nitrógeno y oxígeno, estarán presentes aproximadamente en 0.1% con relación al hidrógeno.
 
El medio interestelar podría ser visto como un laboratorio inmenso, en donde las reacciones se llevan a cabo en una variedad de condiciones. En general, aquí las escalas de tiempo son enormes en comparación con las usadas en el laboratorio. Tales sujeciones han conducido a proponer un modelo de síntesis en las nubes densas, en donde las reacciones se inician por colisiones de los rayos cósmicos con el hidrógeno y el helio. Estos choques producen especies reactivas y cargadas positivamente que inician reacciones en cadena, produciendo las moléculas observadas.
 
Reacciones en fase gaseosa
 
Con base en consideraciones termodinámicas y cinéticas, existen algunas sujeciones para reacciones en fase gaseosa: a) se excluyen las reacciones endotérmicas debido  a las bajas temperaturas del espacio interestelar, o sea, sería muy difícil concebir reacciones químicas que requieran un aporte de energía para que se lleven a cabo; b) están restringidas a colisiones bimoleculares, esto es, que el número de moléculas participantes sea dos; y c) no se llevan a cabo las reacciones que tiene una barrera de activación alta, es decir, la energía que deben tener las moléculas para que puedan pasar de reactivos a productos (mientras más grande sea, más difícil será que ocurra). El curso de una reacción, esto es, cómo va ocurriendo la reacción química, lo que los químicos llaman el eje de coordenada de reacción, va acompañada por un máximo de energía, que es la energía de activación (figura 1). Hay varios tipos de reacciones químicas que pueden llevarse a cabo en fase gaseosa en el espacio interestelar. Una de las más importantes es la reacción del tipo ion-molécula, que a continuación se describe.
 
 117B02fig01
Figura 1. Transformación de reactivos a productos. Para que la reacción ocurra, las moléculas deben superar la energía de activación, por ello esta barrera debe ser muy baja en reacciones en las nubes interestelares.
 
Reacciones ion-molécula
 
Las colisiones ion-molécula son muy efectivas para formar moléculas nuevas. Para iniciar una reacción se necesita de la molécula y del ion. Cuando chocan un ion y una molécula neutra, la probabilidad de reacción es muy alta. Entre ellas se establece una interacción aun a distancias relativamente grandes por efecto de la polarización inducida por el ion sobre la molécula. En casi todas las condiciones astronómicas, la molécula de H2 interviene en el primer paso de la reacción. Una vez que dicha molécula está disponible, entonces la efectividad de la interacción ion-molécula dependerá de la velocidad a la cual los iones puedan producirse. La ionización puede originarse de varias maneras, ya sea a partir de radiación ultravioleta o cósmica, dependiendo del tipo de nube donde se produzcan. Por ejemplo, los rayos cósmicos —constituidos principalmente de protones energéticos— que chocan con átomos o moléculas desprenden un electrón. Mediante reacciones ion-molécula se ha podido explicar la formación de muchas moléculas interestelares. Este tipo de reacciones satisface las condiciones para que se lleven a cabo en el espacio. Por ejemplo la interacción de los rayos cósmicos con hidrógeno molecular produce iones positivos: H2 + rayos cósmicos → H2+ + e.
 
En el caso de nubes difusas, la radiación ultravioleta con longitud de onda alrededor de 100 nm puede ionizar algunos átomos, por ejemplo: C + radiación → C+ + e.
 
Una vez formados los iones C+ y H2+, éstos pueden reaccionar con otras moléculas neutras, las cuales pueden ser más complejas. Este tipo de reacciones las podemos ilustrar como sigue, en donde A+ y BC son átomos o moléculas sencillas que forman C y AB+: A+ + BC  → AB+ + C. Éste sería el tipo de reacciones donde participa el hidrógeno: H2+ + H2 H3+ + H.
 
Las especies neutras tienen una mayor afinidad por los protones, por lo que serán protonadas mediante una reacción rápida: H3+ + A  → HA+ + H2.
 
Esta reacción ocurre hasta que la especie A tenga el máximo número de protones posible de acuerdo con el átomo en cuestión. Otro ejemplo muy importante que ocurre en las nubes densas es la ionización del helio de acuerdo con la siguiente reacción: He + rayos cósmicos He+.
 
El He+ puede destruir las especies naturales más estables, vía la transferencia de carga. Un ejemplo típico es: He+ + CO  → C+ + O + He.
 
Esta reacción es importante como una fuente de C+ en las nubes densas, porque el C+ no se fotoioniza en estas regiones. Para ilustrar la formación y destrucción de una molécula compleja, tomemos el caso del agua. La secuencia de reacciones ion-molécula son las siguientes:
 
H2+ + H2  → H3+ + H
H3+ + O   → OH+ + H2
OH+ + H → OH2+ + H
OH2+ + H2 → OH3+ + H
2OH3+ + e– → H2O + H + OH + H2
H2O + iones → productos
 
Por este tipo de reacciones se puede explicar la formación de moléculas más complejas. Así, en el espacio interestelar y circunestelares se han detectado 160 moléculas.
 
Catálisis en los granos
 
Otra vía en la formación de moléculas poliatómicas es el mecanismo de catálisis heterogénea sobre la superficie del polvo interestelar. Las etapas de formación de moléculas interestelares en los granos son las siguientes: a) la adsorción de los átomos de la fase gaseosa sobre la superficie del grano; b) formación de enlaces químicos si las dos especies adsorbidas entran en contacto; y c) la molécula formada se desprende del grano. En la superficie de los granos, dos átomos A y B estarán sujetos suficiente tiempo para que ocurra una reacción. Parte de la energía liberada al formarse el producto lo absorberá el grano. A esta clase de catálisis se debe la formación del hidrógeno molecular. Una vez formada esta molécula, participará en una gran variedad de reacciones en la fase gaseosa. Sin embargo, existen algunos problemas para explicar la formación de moléculas más pesadas, ya que éstas se adsorben intensamente y no saldrían fácilmente.
 
Algunos problemas
 
El enfoque teórico para estudiar la química interestelar tiene que resolver los siguientes problemas: a) se requieren más datos acerca de las constantes de reacción de las reacciones ion-molécula y faltan muchos datos experimentales para tener los valores de varias reacciones; b) los modelos teóricos sólo consideran los elementos químicos más abundantes; c) se necesita conocer las constantes de decaimiento de radiación de moléculas excitadas para realizar cálculos; y d) se requiere hacer mejores modelos para los procesos que ocurren en la superficie de los granos.
 
En cuanto a las dificultades del enfoque experimental podemos enumerar las siguientes: a) se requiere espectroscopía de laboratorio en la fase gaseosa para expandir la capacidad de identificación de  moléculas en el espacio interestelar; b) más estudios de simulación en el laboratorio con los granos; c) determinar las constantes de reacción para las reacciones ion-molécula en la fase gaseosa; y d) son escasos los estudios de recombinación, fraccionamiento isotópico y de asociación radioactiva. Puesto que las reacciones en la superficie del grano se deben a las interacciones gas-grano y al almacenamiento de radicales libres en los mismos granos, se requiere un conocimiento más profundo de estos procesos.
 
Comentarios finales
 
Tanto las reacciones en la fase gaseosa como las catalizadas en superficie son muy importantes en la síntesis de moléculas poliatómicas en las nubes interestelares. Es por tanto importante reconocer que se lleva a cabo una intensa química en todo el cosmos. La materia orgánica formada constituye un récord molecular e isotópico de los materiales y procesos involucrados en su formación. Por otra parte, las escalas de tiempo son largas en comparación con las de laboratorio.
 
De una manera similar a como la evolución biológica implica que todos los organismos en la Tierra tienen un ancestro común, así la evolución química implica que toda la materia en nuestro sistema solar tuvo un origen común, pero se ha transformado. Las moléculas interestelares son la prueba de que las reacciones con compuestos orgánicos se están llevando a cabo en el Universo. Esta evolución cosmoquímica implica que en toda la materia se está realizando una transformación común, en donde la formación de estas moléculas participan las reacciones en la fase gaseosa y las catalizadas en los granos.
 
Agradecimientos
 
Los autores reconocen el apoyo de papiit para el proyecto IN110712-3 y de conacyt con el proyecto 168579/11.
     
 
Referencias bibliográficas
 
Duley, W. W. y D. A. Williams. 1985. Interstellar Chemistry. Academic Press, Nueva York.
Green, Sheldon. 1981. “Interstellar Chemistry: Exotic Molecules in Space”, en Annual Review of Physical Chemestry, vol. 32, pp. 103-138.
Hartquist, T. W. y D. A. Williams. 1959. The Chemically Controlled Cosmos. Cambridge University Press, Nueva York.
Watson, W. D. 1976. “Interstellar Molecule Reactions”, en Reviews of Modern Physics, vol. 48, pp. 513-552.
 
en la red
 
www.cv.nrao.edu
     
 _______________________________________________      
Alicia Negrón Mendoza, Sergio Ramos Bernal
Instituto de Ciencias Nucleares,
Universidad Nacional Autónoma de México.
 
Fernando Guillermo Mosqueira Pérez Salazar
Dirección General de Divulgación de la Ciencia,
Universidad Nacional Autónoma de México.
     
_________________________________________________      
 
cómo citar este artículo 
 
Negrón Mendoza, Alicia; Ramos Bernal, Sergio y Mosqueira Pérez Salazar, Fernando Guillermo. 2015. La química y las moléculas interesterales. Ciencias, núm. 117, julio-octubre, pp. 26-27. [En línea].
     

 

 

You are here: Inicio Búsqueda Autor revistas revista ciencias 117