revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
R08Articulos6   menu2

índice 08

siguiente

anterior

PDF

   
   
Carlos Rodríguez Ajenjo
     
               
               

Agregar algo sobre todo la que se ha dicho y escrito relativo
a la situación de salud emanada de los sismos de septiembre, que además de verídico sea original, es cosa difícil; se ha abusada en espacios periodísticos y otros medios repitiendo cifras, porcentajes de daño y otros datos que realmente poco dicen por sí solos. Es imperativo entonces, reflexionar más en forma colectiva sobre esta nueva situación de salud emergida de las sismos; situación que es necesario asumir como desconocida, inédita, en proceso de formación. A ello tratan de contribuir estas notas.

 Los sismos y sus efectos directos y colaterales, sectorialmente actualizaron viejos problemas, revivieron discusiones, significaron nuevos retos para el conocimiento. En relación con la salud (incluyo el frecuentemente olvidado campo de la “salud mental”); los sismos someten a una prueba muy dura a un modelo de atención (que no es sinónimo de salud) que había fincado, en lo curativo, su eje rector; en concepciones orgánica-biologicistas, su andamiaje explicativo; y en el acceso a servicios médicos elementales para el 100% de la población, su meta explícita.

Así, en unos cuantos días, vimos con mayor transparencia algunos de los elementos de la situación de salud, o relacionados con la salud del pueblo, ocultados hasta septiembre por una tramoya discursiva e ideológica que constituía un ejercicio de reiteración de propósitos, divorciados de los hechos cotidianos. La del sector salud es una historia subsumida en el desarrollo del capitalismo mexicano y que de alguna manera expresa sus distintos rasgos esenciales. Por ello podemos explicarnos algunos hechos observados en el sector salud con anterioridad a los sismos y que se develaron crudamente como resultado de éstos. Resumo algunos de estas rasgos:

 Centralización inevitable de servicios, concentración de recursos económicos, físicos y humanos en unas cuantas ciudades y dentro de ellas, en unas pocas zonas;1 centralización creciente del poder sectorial en una estructura vertical con una reproducción institucional de la misma y, por ende, una repartición de cuotas que excluye toda participación de los trabajadores en la orientación institucional y sectorial; descoordinación entre las diferentes instituciones integrantes del sector; abismales diferencias en cuanto a condiciones de trabajo y niveles salariales dentro de cada institución y en el sector en su conjunto; coexistencia de varios tipos de medicinas o prácticas médicas entre las cuales sobresalen aquellas incorporadas al circuito de ofertas proporcionadas por el sector: un» medicina de los pobres, barata y de mala calidad; una medicina de los menos pobres, burocratizada y deshumanizada frente a una medicina privada cada vez más cara e inalcanzable para la inmensa mayoría de la población, en pleno proceso de concentración de capitales, monopolización y transnacionalización; hipertrofia de los niveles secundario y terciario de atención, frente a un débil sector primario (indudable palanca de apoyo de los otros dos) sostenido a base de programas económicamente baratos, de mala calidad, que se aderezan con campañas esporádicas de vacunación, detección oportuna de enfermedades, orientación higiénica y prevención, incapaces de movilizar a una población considerada permanentemente como menor de edad; coexistencia de patrones de morbi-mortalidad característicos de países de gran desarrollo industrial con patrones propios de países en “vías de desarrollo”, erradicables en otros contextos económico-sociales;2 persistencia de graves problemas de salud relacionados con nutrición, mortalidad infantil,  patología laboral. En suma, un sector salud aún atomizado, pese a los últimos esfuerzos integradores; con un dispositivo primordial de corte curativo y en el cual, la “salud para todos en el año 2000” más que un slogan o un buen deseo al que se adhirió el gobierno mexicano, es un elemento que cuestiona la seriedad con la que se asume un compromiso internacional de tal magnitud, que se sabe es, prácticamente inalcanzable.

Sin embargo, es necesario aclarar que esta situación era conocida y que la mayor parte de los signas emergidos a raíz del terremoto requieren una reinterpretación. Volver a plantear algunos de los elementos identificados con anterioridad a este fenómeno, significa recuperar un espejo en el cual debe reflejarse todo intento de reconstrucción, ya que no es posible sostener las mismas viejas recetas, ni cometer los errores que en ese pasado nos enfrentaron dramáticamente al presente de los sismos o conservar el optimismo irracional de otros tiempos.

Estrictamente hablando, las condiciones generales de la salud de la población no se afectaron directamente con los sismos, más que en términos de muertos, heridos, mutilados u otro tipo de secuelas, entre las que debe destacarse especialmente aquellas derivadas de alteraciones mentales individualmente evaluadas y significativamente relacionadas con la organización familiar y social.

Sin embargo, una nueva población surgió a raíz de los sismos de septiembre, una población desconocida para el sector que, incluso, obliga a reconsiderar el concepto de normalidad que se tenía hasta el momento. Aparecen grupos de alto riesgo previamente inexistentes; la población “cubierta” por algún mecanismo de seguridad social, se modifica, crece la llamada “población abierta” y en las calles, en los parques y jardines, en albergues provisionales y oficiales, se gesta —muy probablemente— una modificación de lo que se consideraba “endémico” y se dan los nuevos rasgos de los que puede considerarse “epidémica” a partir de ese momento.

Por otro lado, si bien los servicios médicos y la oferta institucional de los mismos no debe confundirse como equivalente de la salud de una población, la destrucción tan amplia que se observó —especialmente en algunas zonas e instituciones— debe ser reflexionada más allá de la desorganización de los servicios que trajo aparejada la nueva situación y reflexionarla en función del agravamiento de los problemas previos de salud. prioritariamente en algunos grupos (niños, ancianos, gestantes).

Algunas cifras: globalmente, en términos de camas censables, el sector perdió el 39% de las camas de tercer nivel (superespecialidades) y el 22% de las camas de segundo nivel (que aglutina a medicina interna, gineco-obstetricia, pediatría y cirugía general)3 mismas que estaban concentradas prácticamente en los Hospitales Juárez, General (SSA), en el Centra Médico Nacional del IMSS, en los Hospitales 1° de Octubre e Ignacio Zaragoza del ISSSTE y en un Hospital Infantil del DDF.

Institucionalmente el daño es más diferenciable: el IMSS pierde el 7% de sus camas de 2° nivel y el 46% de sus camas de 3er. nivel (31%, de sus camas censables de 2° y 3er. nivel en el Valle de México, 11% nacional). Por su parte, la Secretaría de Salud perdió el 55% de sus camas censables de 2° nivel, 37% de sus camas censables del 3er. nivel (45 y 12.5% del Valle de México y del nacional). El ISSSTE perdió el 27% de sus camas censables del 2° nivel, exclusivamente y el DDF perdió sólo el 6% de sus camas del 2° nivel. La pérdida para el ISSSTE, es del 21% de sus camas del Valle de México y el 11% de las camas censables a nivel nacional.4

Sin embargo, esta pérdida se agrava cuando analizamos los servicios afectados ya no en cantidad de camas, sino en la calidad de los mismos, en el tipo de población que cubrían, en las necesidades que deben postergarse en materia de atención especializada. A ello habría que añadir lo que significan las pérdidas en relación con la enseñanza y la investigación.

Sin duda que los servicios que más se afectan en esta situación son los de Gineco-Obstetricia y Pediatría cuya demanda en el Valle de México es alta y su oferta ya se había alterado previamente, por la selectividad impuesta por el DIF en sus hospitales de Pediatría y Perinatología, así como el cierre del Centro Materno Infantil “Manuel Ávila Camacho” para la “población abierta”, ya que se le donó a las fuerzas armadas. A ello debemos agregar la afectación derivada de los sismos, misma que completa un cuadro en donde se eleva el riesgo (incluso de vida) para miles de personas demandantes de servicios de pediatría y gineco-obstetricia, especialmente casos de hospitalización necesaria, toda vez que se calcula que en la zona metropolitana el 80% de los partos son atendidos en el medio hospitalario y que de ellos, el 10% son considerados embarazos de alto riesgo.5

En el rubro de enseñanza, especialmente la de pregrado, en medicina y enfermería, el efecto de los sismos es importante: unos 12000 estudiantes de pregrado y unas 2000 de posgrado vieron alterada su proceso de formación al no contar con espacios clínicos para realizar labores de aprendizaje o capacitación especializada. Si bien la reorganización de este aspecto ha sido relativamente más eficaz que la reorganización de los servicios, lo cierto es que la baja calidad académica puede generalizarse.

Por su porte, la investigación médica se vio profundamente afectada por la destrucción física de varios centras hospitalarios; el IMSS concentraba el 90% de su investigación básica (que equivale en gran parte a la investigación nacional no ejercida en espacios académicos) en la Unidad de Investigaciones ubicada en el Centro Médico Nacional; la investigación clínica del misma (80% de la investigación clínica nacional de esa institución) también se concentraba en ese Centro hospitalario. De esta forma, los registros, acervos, expedientes, equipo, materiales y otras materias primas de la investigación, si no se perdieron totalmente, sí trastocan los ritmos, resultados y posibilidades de la investigación mexicana en el mediano plazo. Otras centros afectados son el Hospital General y el Juárez, de la SSA y las unidades colisionadas del ISSSTE y el DDF, donde la investigación era restringida y su participación en el conjunto de datos epidemiológicos está en entredicho.

En general, el impacto de esta destrucción en el sentido de la desorganización que acarrea en otras áreas relacionadas con la salud, no es desdeñable: en función de los sistemas de registro de morbi-mortalidad, por grupos o sectores sociales, en relación con la posposición de la aleación previamente solicitada y de programas previamente diseñados; en fin, puede afirmarse que la desorganización de los servicios de atención no se restringe al hecho de proporcionarlos o no y, en términos generales, el riesgo de profundizar la descoordinación sectorial es elevada en tales condiciones.

Finalmente, un aspecto que no siempre tocan los analistas de la salud, se refiere a la situación de los trabajadores del sector posterior a los sismos. Hay evidencias de que este parece constituir un “factor” desdeñado por las autoridades en sus proyectos de reordenación o reconstrucción sectorial como si fuese una variable totalmente independiente de otras a un elemento previamente controlado por mecanismos político-sindicales de probada eficacia.

Las cifras de trabajadores afectados con la pérdida de su centro de trabajo son importantes: 25000 en el IMSS, 2000 en el ISSSTE, 7500 en la SSA y 400 en el DDF. La inmensa mayoría de ellos estaban concentrados en grandes centros de trabajo y constituían secciones o delegaciones sindicales identificadas por ellos mismos y reconocidas legalmente por sus respectivos sindicatos.

En unas cuantos días, de acuerdo a notas periodísticas, el IMSS “reubicó” a 7000 trabajadores del CMN en provincia; en ese mismo tenor, los trabajadores del Hospital Juárez de la SSA fueron “reubicados” en otros hospitales de esa Secretaria, igual que los afectados en el ISSSTE y DDF. Sin embargo, cerca de 12000 trabajadores del IMSS “02” y “'08” no fueron recontratados por la institución y perdieran derechos acumulados y el trabajo. El caso del Hospital General merece mención aparte, ya que impulsados por la Sociedad Médica del mismo, más de 5000 trabajadores lucharan por la reapertura de su centro de trabajo (48 de los 50 edificios que la constituían no se afectaron) conservando así su empleo y la posibilidad de participar activamente en el diseño de un proyecto de reconstrucción de corte más democrático.

La manera como se ha enfrentado esta situación totalmente inédita, merece un análisis por separado. Esencialmente, en efecto, parece ser que las condiciones y características de la salud colectiva en nuestro país se vieron afectados directamente por los sismos. Sin embargo, en el conjunto de la reconstrucción los determinantes verdaderos de la salud colectiva aparecen como elementos en riesgo de verse afectados sustancialmente dado el deterioro previo en que se encontraban las condiciones de vida y de trabajo para millones de mexicanos.

Es indudable que la reconstrucción —la nacional y la sectorial— significa una excelente oportunidad para replantear cuestiones fundamentales de la vida nacional, reflexionar sobre el qué se ha hecho, qué se puede hacer y qué debiera hacerse. El liderazgo del sector salud, marcado por los signos del autoritarismo y la antidemocracia de nuestro sistema político, tiene expresiones particulares que bloquean la participación de organizaciones profesionales y populares en el diseño de ese proyecto de reconstrucción, de tal manera que se busca legitimar proyectos elaborados en la cúpula del poder y estigmatizar o descalificar intentos de participación de cientos de científicos, técnicos, trabajadores manuales y administrativos del sector que desearían participar desde su esfera de acción en un hecho que debiera ser, por definición, colectivo.

Existen cinco aspectos que, desde mi punto de vista, son fundamentales en la elaboración de un proyecto de construcción sectorial. El Dr. Soberón, al instalar el comité de Reconstrucción del Sector Salud, señaló: “más que reponer se trata de renovar”6 y s atendiendo a ello, la lógica posterior de los acontecimientos niega, en los hechos, esta intención renovadora en cinco aspectos: el financiamiento, la descentralización de los servicios, la desconcentración de los mismos, la orientación que tendrían los nuevos proyectos respecto a posibles usuarios y lo relacionado a los olvidados; otros dos aspectos de la triada clásica: servicios-enseñanza e investigación (me refiero a estas dos últimos).

El financiamiento

Se calcula que el costa inicial (no el total) de la reconstrucción sectorial implica la erogación de 52037 millones de pesos más la aportación inmediata de 9500 millones de pesos adicionales al presupuesto ejercido sectorialmente durante 1985, que sobrepasa los 750000 millones de pesos.7 Esta última partida se destinaría, exclusivamente, para programas urgentes de asistencia social (léase desvalidos, inválidos, huérfanos, etc.).

El planteamiento oficial del financiamiento de la reconstrucción, transcurre por cuatro posibles vías: donaciones del fondo Nacional de Reconstrucción, las cuales hasta el momento han aportado el equivalente al 4% de lo calculado para el inicio de la misma. Las donaciones extras, nacionales e internacionales, provenientes de instituciones altruistas, fundaciones, etcétera. Cabe señalar —que hasta el momento— el sector sólo ha recibida 300000 dólares de la Fundación Mexicana para la Salud, que a su vez había recibido esta cantidad de la Organización Panamericana de la Salud, cuyos fondos se integran de las cuotas de los países respectivos. Simbólico regreso, éste, de dineros nacionales. El tercer camino señalado por las autoridades del sector para financiar la reconstrucción redunda acerca del uso aplicado al equipo que se rescató de los hospitales y/o unidades destruidas. Parece ocioso, pues, tomar este elemento dentro de los costas cuando ya se tiene adquirido. Finalmente, la reconstrucción sectorial —señalan las autoridades en un documento elaborado “ex profeso”—8 el financiamiento de la reconstrucción echaría mano de recursos internacionales, especialmente del préstamo México-BID que incluye una cantidad destinada a reconstruir el CMN del IMSS.

Parece ser que la reconstrucción sectorial se ciñe estrictamente a los planteamientos más generales señalados por el gobierno para la misma: no introducir cambios sustanciales en la estructura económica, echar mano de la mayor porte de los recursos internacionales aún a costa de incrementar el endeudamiento, no afectar intereses creados; en síntesis una actitud gatopardiana; para que todo siga igual es necesario que toda cambie, en efecto, para en la superficie solamente.

Si se dejaran de pagar 4 días los intereses de la deuda externa u 8 días los intereses de la deuda interna, se tendría el equivalente o lo necesario para iniciar la reconstrucción sectorial, que equivale, a su vez, al 1.2 y 1.4% de los intereses que actualmente se pagan por esas conceptos. Este camino, sin embargo, está bloqueado de antemano ya que no se consideró ni como posibilidad.

Así las cosas, México debe incrementar en 1% su deuda externa por concepto de financiamiento del sector salud, tan sólo. Posiblemente esto no signifique mucho globalmente, pero reproduce una actitud de dependencia contraria a afanes “renovadores”. Más aún, se sabe que detrás de este tipo de financiamientos, siguen equipos completos de asesores, controles especiales, colaboraciones espontáneas imperialistas que imponen ritmos y concepciones y evaluaciones que posiblemente no estén acordes con un desarrollo nacional basado en criterios de beneficio y justicia social. Habría finalmente, que señalar la relación tan estrecha entre este tipo de proyectos y el apoya y protección a la industria químico-farmacéutica transnacional proveniente de los mismos países que aparecen como financiadores de la reconstrucción, y lo más grave es que todo esto significa en términos del apoyo de un modelo de atención a la salud basado en una concepción reparadora, curativista, como un tratamiento individualizado de calidades contradictorias. En resumen, el grave peligro del financiamiento de la reconstrucción por esta vía no es tanto agravar la ya de por sí pesada carga de la deuda externa, sino profundizar una dependencia tecnológica y científica nefasta para atender los verdaderos problemas de salud del pueblo mexicano, que no estriban en sólo atención médica, sino en mejoría completa de las condiciones de vida y trabajo.

Los temas de la descentralización

Los sismos volvieron a poner de moda el tema de la descentralización de la vida nacional, las instituciones, las actividades. Este macromonstruo que es la capital del país, sin duda la más gigantesca aglomeración humana de la historia, debe ser descentralizado. Las actividades del sector salud, por ende, quedan incluidas en tal proyecto.

Paradójicamente, sin embargo, se puede hablar de descentralización de actividades en muchos campos, pero en cuestión de salud no es posible hablar de ella a menos que se resuelva previamente el problema de las otros campos; es decir, la descentralización obedece a una lógica general externa al sector y no a una lógica interna, dependiente del propio sector salud. ¿Cómo descentralizar servicios conservando a la población para la cual se diseñan éstas en el mismo ámbito geopolítico?

Se ha abusado de los propósitos descentralizadores y se pasa por alto esta relación entre lo particular y lo general; no es posible sostener la posibilidad del traslado de una serie de servicios a instituciones a la periferia capitalina mientras el grueso de la población persiste en la capital.

En el caso del IMSS y del ISSSTE ya hay antecedentes de descentralización operadas bajo esquemas de regionalización y zonificación de servicios al parecer con éxito. El caso de los servicios de salud proporcionados a la población “abierta” por la SSA y el DDF es impensable si no se resuelve, realmente, la descentralización de la vida económica y administrativa de la ciudad de México. Para el caso de la población del D.F, la SSA teóricamente cubre al 30% de la población9 precisamente centralizada en el área metropolitana en el supuesto de que el resto sea cubierto por otros sistemas “abiertos” (tipo institutos o por la seguridad social o por la medicina privada).

Se habla, entonces, con demasiada ligereza de este tema en relación con la salud y las actividades de la práctica médica, más come intento de no quedar fuera del mismo que coma propósito real y viable.

La necesidad de desconcentración de servicios

Tal vez en el sector salud quedó demostrado dramáticamente con los sismos los inconvenientes de mantener concentrados los servicios en una zona reducida de la ciudad, provocando grandes y graves inconvenientes en la calidad de los mismos, en la viabilidad, en el aprovisionamiento de insumos, etc. La desconcentración, pues, aparece como una necesidad urgente que se enfrenta a toda la historia previa del sector, justamente apuntando por décadas hacia el punto apuesto, es decir, hacia la concentración de servicios. Romper esta inercia no es asunto sencillo, máxime cuando desconcentrar significa tocar intereses de todo tipo.

Un anticipo de las dificultades de la desconcentración se tuvo en el Hospital General; sin moralismos fáciles, la defensas que los trabajadores hicieron de su centro de trabajo puso en primer plano esa inercia, pero también expresó la dificultad que se tiene cuando se trata de antecedentes, derechos y beneficios adquiridos durante muchas años de manera colectiva por miles de trabajadores quienes finalmente, no son los culpables de un estilo de desarrollo que privilegió la concentración por sobre otros elementos.

Curiosamente, el proyecto de las autoridades aparece como un intento racional, eficiente, atractivo y necesario para los fines de la desconcentración; la oposición a él, sin embargo, no es por sistema, por costumbre, sino porque está elaborada pasando por alto los intereses y los derechos adquiridos por los trabajadores. ¿Qué significa para un trabajador, perteneciente a un centro de trabajo del tamaño del Hospital Juárez o General, identificado como sección sindical democrática, aparecer en un centro de trabajo distinto, con nuevos compañeros y nuevas identidades sindicales? Significa un cambio fundamental de los sistemas de trabajo y las condiciones del mismo, de la seguridad de su empleo, de la organización del procesa laboral y de su organización política. Significa un profundo trastocamiento de sus referentes y de sus identidades que no está dispuesto a perder fácilmente a cambio de un nebuloso y poco claro proyecto de desconcentración. Este es un aspecto oculto en la trama de intereses imbricada pero implícita en todo proyecto de reconstrucción que busque desconcentrar realmente los servicios.

La investigación y la educación en la salud

La oportunidad que se tiene de reunificar una tríada demasiado manoseada, de asistencia-investigación y docencia en una unidad, es inmejorable a raíz de los sismos.

La historia es larga, el crecimiento sectorial dado entre los sesentas y los setentas, significó un divorcio creciente entre estas tres actividades, de tal suerte que se llegaron a autonomizar entre sí, no existiendo en la mayoría de las instituciones de salud, una relación entre los servicios prestados, los temas o líneas de investigación realizadas y la formación del personal de diverso tipo o rango (subprofesionales, profesionistas en pre-grado, especializaciones, posgrados).

Parece no constituir motivo para incluirse en los planes sectoriales de reconstrucción la investigación y la educación; más aún, se está atendiendo exclusivamente los servicios afectados, independientemente de aquéllas.

No se vislumbra un cambio fundamental en la orientación de la medicina mexicana (por otra parte no se espera que un cambio ocurra así), sino el reforzamiento de un modelo que a la vez que desvía la atención de los problemas sociales fundamentales, se constituye en un excelente consumidor de productos, bienes, equipo, aparatos y medicamentos producidos por el nada desdeñable sub-sector de la industria químico-farmacéutica y productora de equipo y material médico.

Transitoriamente, mientras se logra definir en concreto ubicaciones y proyectos, planos y maquetas, la oferta de servicios se caracterizará por una desorganización de los mismos y por una creciente subrogación de muchos de ellos hacia la medicina privada. La población directamente afectada sin casa, trabajo o sin recursos, bien acude a estos servicios, o bien resuelve autónomamente su problema de atención. La reconstrucción, en marcha, parece no ver su situación de damnificados. La racionalidad deberé imponerse.

Finalmente, un aspecto oculto también por tantas cifras y complicaciones, se refiere a la inestable, insegura situación de trabajo de miles de trabajadores del sector, ya reubicados parcialmente o de plano cesados. Un esfuerzo reconstructor como el que se propone, también muestra posibilidades de recortar personal de racionalizar en esta forma recursos; tal situación, previsible en gran parte, encuentra una desmovilización y confusión inmersa entre los trabajadores de la salud, resultado inallanable de varias años de golpeo sistemático y de represión a sus organizaciones y dirigentes. La profundización de sistemas atomizados y la propia confusión que prevalece son ingredientes que facilitarían, indudablemente, el avance de este proyecto de reconstrucción que tal vez no es el mejor proyecto, pero se impone ya como el proyecto ¿inevitablemente?…

La investigación nacional en el campo salud parece no tener nada que ver con las necesidades de la salud de las mayorías; el propio plan sectorial10 reconoce esta desvinculación, y precisa que el 87% de los temas de investigación se refieren a aspectos muy específicos de salud, de los cuales solo el 47% se consideran problemas prioritarios. A ello debe agregarse que solo el 13% de la investigación se refiere a temas o áreas básicas. Esta situación, si bien en algunas ocasiones contrasta con lo que se observa en las instituciones de educación superior —donde se realizan investigaciones en salud— complementan un panorama de concentración geográfica y de recursos, dependencia creciente del exterior, desvinculación de temas e instituciones y graves ausencias que fueron puestas de manifiesto con los sismos y que no han sido atendidas como parte consustancial de la reconstrucción. No es posible, a partir de ahora, continuar con esa tajante separación entre actividades íntimamente relacionadas entre sí. En otras palabras, no es posible reconstruir exclusivamente un aspecto, y dejar por su lado a la enseñanza y a la investigación, cubriendo aspectos que aparecerán, así, cada vez menos relacionados con la asistencia y con los problemas de lo realidad.

¿Salud para quién y para qué?

La pregunta vuelve a ser pertinente; en qué se piensa al diseñar un proyecto de reconstrucción de los servicios de salud, cuando en el mismo aparecen nítidamente dos cuestiones cuya complementariedad no está clara: desconcentrar y racionalizar segundo y tercer nivel de atención y reforzar el primer nivel de atención.

Otra pregunta conveniente sería acerca de qué se está entendiendo por ese primer nivel de atención, ya que de su respuesta derivan acciones concretas dirigidas a sectores concretos de la población.

Al parecer se está hablando de una racionalización de la atención hospitalaria (menos superespecialistas, reforzamiento de la atención hospitalaria de segundo nivel) con un traslado de un esquema hospitalario en cercanía con la comunidad, a través de centros de salud o consultorios periféricos.

Este esquema, independientemente de sus perfecciones o imperfecciones internas (por ejemplo, al estar dirigido a una población “abierta” no define los mecanismos de “entrada” del usuario de un nivel al otro) reproduce una visión médica curativa prevaleciente en la medicina mexicana desde principios de este siglo. En efecto, nivel primario de atención significa la misma medicina hospitalaria, con el mismo enfoque, sólo que más económica; significa “curar” enfermedades, ver casos, resolver individualmente problemas de salud una vez que se presentan en calidad de “enfermedades”.

 articulos
       
Referencias bibliográficas
1. Un ejemplo proporcionado por el excelente trabajo de Ignacio Almada Bay publicado en La Jornada el 17de Nov., menciona que “el Valle de México concentró 38% de todas las camas censables de 2° y 3er. nivel, aunque ahí viva sólo el 22% de un total de 78.2 millones de mexicanos… una sola delegación, continua Almada, la Cuauhtémoc dispone de 2366 camas sensables (52%) para una población no asegurada de 250000 personas de un total de 4550 camas para todo el D.F.
2. Nos referimos al contraste entre enfermedades como las crónico-degenerativas, neoplasias, accidentes y violencias, que contrastan con la desnutrición, enfermedades infectoparasitarias y otras vinculadas con condiciones de vida altamente pauperizadas.
3. Almada, B. I., “Los daños y las nuevas urgencias”, La Jornada Semanal, Nov. 17 de 1985, p. 7.
4. Ibid, p. 8.
5. Ibid, p. 8.
6. Folleto: La reconstrucción de los servicios de salud, CNR, DF, México, 15 de octubre de 1985, p. 83.
7. Nota periodística en La Jornada, 25 de enero de 1985, p. 1.
8. Reconstrucción y reordenamiento de los servicios de salud en el Valle de México y de atención de demanda en los Edos. aledaños, México, Sector Salud, Octubre 15 de 1985.
9. II Informe de Gobierno, Miguel de la Madrid, Anexos, México, Septiembre de 1984.
10. Programa Nacional de Salud, Poder Ejecutivo, México 1983.
     
 ____________________________________________________________      
Carlos Rodríguez Ajenjo
Coordinador de la Maestría en Salud en el Trabajo.
UAM-Xochimilco

     

como citar este artículo

     
R08Articulos5   menu2

índice 08

siguiente

anterior

PDF

   
   
Luis Lara Tapia      
               
               

 El miedo y la bravura, un estudio psicológico.

 

Un análisis exhaustivo —aun desde el punto de vista exclusivamente psicológico— de los efectos causados par los sismos de los días 19 y 20 de septiembre que asolaron a la ciudad de México, sería imposible hoy, y quizá nunca podremos cuantificarlos ni concientizarlos suficientemente, aún en un futura a largo plazo.

¿Quien podrá saber a ciencia cierta los efectos psicológicos y existenciales que sufrirán aquellos huérfanos que perdieran para siempre la protección de sus padres hoy desaparecidos? ¿Quién puede aventurar una predicción sobre el futuro de quien perdió patrimonio y familia? ¿Qué investigador hará los seguimientos de casos a 10, 20 o 30 años?

Por otra lado, los análisis psicológicos son de cualquier manera múltiples y de hecho, todos ellos con derecho a ser válidos. Hay especialistas que se preocuparon preponderantemente por los efectos individuales y otros por los sociales. Quienes por la ayuda terapéutica inmediata y quienes por una ayuda sistemática a futuro lejano. Otros de manera más teórica se avocaran a las consecuencias de una salud mental colectiva y el desarrollo de procedimientos preventivos. Casi inmediatamente después de los sismos surgieron recomendaciones a maestros y familias seguramente muy sabias.

De hecho los fenómenos observados son múltiples. Estudios iniciales, todavía provisionales, muestran que los síntomas presentadas en poblaciones atendidas desde el punto de vista clínico, podrían sintetizar lo sabido por la psicopatología entera vista a los ajos de todas las escuelas psicológicas. Preponderantemente se advirtieron datos de ansiedad, depresión, síntomas histéricos, fobias y en casos afectados directamente, que pudieron sobrevivir y fueron rescatados, incluso síndromes psicóticos.

En el segunda sismo (el del día 20), conocidos ya los efectos del primero, las reacciones emocionales fueron más generalizadas en la mayor parte de la población (efecto que puede ser explicado por el condicionamiento) no obstante que la magnitud física fue mucho menor y también su duración. Tales reacciones fueron así mismo mucho más intensas y con tendencia a mantenerse. Aquí podríamos decir que existen también “réplicas psicológicas” debido a los efectos del aprendizaje. De hecho, podemos aseverar que aún hoy, para muchas personas “sigue temblando”.

Virtualmente han aparecido ya ciertos estudios. Unos como el de Brenda Ré, dirigidos al desarrollo de terapias de emergencia aplicadas a grandes grupos. Otros como el de Mireya Zapata y Betty Sanders, hacia el desarrollo de un modelo psicológico-social-comprensivo de un fenómeno no experimentado anteriormente.

Lo que parece cierto subjetivamente, son los síntomas descritos magistralmente por Ángel Trejo, de El Sol de México:

 “[…] aún para los que el golpe no fue directo o inmediato, quienes inclusive pudieron mantener cierta calma, la “réplica” del sismo empieza a hacerse presente en una sensación de soledad interna recogida del contacto con la ciudad.

En las calles, en el paisaje cosmopolitano rehecho, colmado ya de personas, hay algo más que la huella física del sismo, es la ausencia de relaciones que será difícil recuperar en breve tiempo. En esta experiencia triste hay algún grado de culpabilidad, la misma que se siente con el amor ido, ajeno o muerto, del que siempre se piensa que pudimos evitarle esa suerte […]”

En el contexto de este artículo habremos de referirnos, ante la imposibilidad de tocar toda la gama de análisis psicológico del fenómeno vivido, a dos aspectos que de algún modo nos parecen relevantes y que pueden ser seguidos a lo largo del proceso conductual observado. Ambos aspectos son fundamentalmente humanos y en cierta forma son paradójicos, ya que revelan elementos antípodas en cuanto a reacción, aún siendo ambos, normales y también adaptativos.

El primero de ellos es el miedo, corazón profundo de todos los síntomas percibidos. Esta emoción recóndita representa, no solamente una conducta normal, sino una clara conciencia de la vulnerabilidad humana. Y aquí la primera conclusión: el miedo experimentado fue una reacción normal y adaptativa a un fenómeno anormal (no por no ser natural, sino por su baja expectativa de frecuencia), dadas sus características de intensidad y duración.

El segundo aspecto, que llama cada vez más la atención de psicólogos clínicos y sociales, es el coraje, no como ira, sino como estado de ánimo vivificante, valiente, viril, como la casta en el lenguaje taurino, respuesta ante un rejón de muerte. Tal respuesta —también normal y adaptativa— esta presente aún en pacientes con neurosis severas y alta ansiedad.

Sobre el miedo —en todas las gamas que se le quiera— existe una extensa serie de estudios, tanto en experimentos con animales como en humanos, en estudios clínicos o en observaciones de campo. Los últimos 40 años han multiplicado las investigaciones en este campo y mucha experiencia existe al respecto. Curiosa y contradictoriamente poco ha sido estudiada la valentía, el coraje, en forma tal que pareciera ser nuestro interés, respecto a estos dos aspectos, desproporcionado, Uno piensa a veces si no será que estamos más interesados en los eventos mórbidos y disociantes que en los fenómenos más constructivos de la vida diaria.

 No obstante, según decía Sócrates, la valentía es “una muy noble cualidad” universalmente admirada y lo cierto es, que existen pocas referencias sistemáticas sobre tal conducta comparativamente a aquéllas respecto al miedo, aunque se trata de una conducción tan común, que podría arrojar mucha información. Los psicólogos en particular se han preocupado tanta por el miedo y la ansiedad que perecen no tener datos de la existencia de las reacciones valerosas y perseverantes frente al stress y la adversidad. En el caso que nos ocupa, y en mi personal concepto, mientras las reacciones disociativas y de miedo me parecen no solamente normales sino lógicas, las conductas valientes fueron extraordinarias, relevantes y constituyeron casi el aspecto más fascinante de las capacidades humanas bajo situaciones de impacto emocional. Un aspecto que debería reafirmarse con suficiencia es el hecho de que conductas rayanas en la heroicidad, que llamaron la atención de muchas gentes, son más frecuentes de lo que en general tiende a suponerse; quizá, por una predisposición del ser humano a desconocer sus propias potencialidades. Un elemento que incide casi siempre para prestar mayor atención a los procesos de ansiedad es el hecho que con frecuencia éstas nos afectan reflejamente y entonces procuramos reducir el efecto en nosotros mismos. Rachman1 ha estudiado cómo socialmente parecen evitarse las expresiones de miedo por la razón anotada. En tempos de guerra se procuraba desanimar en los hospitales las admisiones por miedo, arguyendo que iban en contra de una “moral de guerra”. En estudios llevados a cabo en poblaciones estudiantiles se ha encontrado que el admitir ciertos tipos de miedo en los hombres se considera como conducta socialmente indeseable. Por razones culturales en nuestra país, se ha tratado que los varones repriman —como parte de su esquema masculino— las expresiones ante dolor o miedo: “los hombres no lloran”. Tales influencias socioculturales con reiteración ocultan las actitudes de temor y algunas veces resulta difícil reconocer estas experiencias y por lo tanto predecirlas. No es raro que cuando algunas personas afirman tener miedo a cierto tipo de objetos o situaciones muestren mucho menos temor ante estímulos específicos confrontados en situaciones reales.

Los tres componentes del miedo

Por las razones expuestas, entre otras, los psicólogos han extendido el estudio del miedo más allá de simples reportes subjetivos, entendiendo éstos con la inclusión de índices de cambios fisiológicos y actitudes de conducta abierta y por tanto observable. Siempre es útil saber que el miedo existe cuando están presentes sus tres componentes principales: la experiencia subjetiva de temor asociada con cambios fisiológicos y los intentos de evitación o escape de ciertas situaciones.

Cuando estos tres componentes están conjuntados y presentes siempre, como frecuentemente ocurre, empiezan los problemas para el estudio de este fenómeno. En efecto. la gente puede experimentar miedo subjetivamente pero mantenerse en apariencia calmado y si les hicieran las pruebas fisiológicas, no presentarían las reacciones esperadas. También se han recibido reportes de miedo subjetivo que no ha intentado escapar o evitar la supuesta situación amenazante.

La existencia de estos tres componentes del miedo relacionados al hecho de no estar siempre presentes hace útil, en cualquier comunicación científica, indicar a cuál componente de miedo nos estamos refiriendo.

Durante experiencias cotidianas en general se procura, cuando la gente habla de sus temores, relacionar su información verbal con otras expresiones corporales o faciales. Desafortunadamente, en ausencia de otros datos más objetivos, la interpretación puede ser errónea. Algunas expresiones faciales pueden ser similares al esfuerzo físico simplemente. De esta manera, el valor de las expresiones corporales o faciales se limita a ciertas categorías del miedo, particularmente aquellas de alta naturaleza aguda o episódica. Los temores difusos o crónicos son mucho menos visibles. Digamos por ejemplo, que podemos observar sin dificultad signos de miedo en un pasajero ansioso durante el aterrizaje de un avión, pero podemos equivocarnos para reconocer el miedo en una persona que es muy aprensiva respecto a una enfermedad crónica.

No obstante, existen muchos tipos de miedo, algunos, como los neuróticos, han sido estudiados más ampliamente. Entre estas variedades existen divisiones que pueden ser útiles en el caso del sismo. Por ejemplo, será importante distinguir entre los temores agudos y los crónicos. Los miedos agudos son aquellos generalmente provocados por estímulos y situaciones tangibles y desaparecen casi inmediatamente después que el estimulo amenazante desaparece o es evitado (v.gr. miedo a las serpientes).

Una variedad del miedo agudo menos frecuente es la aparición brusca de pánico frente a una aparente desconocida o intangible causa. Los miedos agudos pueden durar de minutos a una hora y por lo común dejan una sensación de malestar. En el caso de los temblores se presenta inicialmente un miedo de tipo agudo que en general tiende a desaparecer minutos después del sismo en condiciones normales y en aquellas circunstancias donde no quedan efectos posteriores.

Los miedos crónicos son más complejos en su estudio pero, al igual que los agudos, pueden o no tener un estímulo tangible de provocación. El miedo a estar solo es un ejemplo de temor crónico, donde la fuente es tangible, pero existen miedos crónicos cuya naturaleza es muy difícil de especificar; la persona se siente persistentemente molesta y ansiosa por razones no identificables. Es un estado permanente de temor que ha sido mejor descrito por los novelistas que por los psicólogos.

En el caso de los sismos recientes se presentaron las dos variantes de miedo. Los miedos frente al sismo fueron tanto de carácter agudo —durante el fenómeno mismo— como de una tendencia a la cronicidad (particularmente después de que se conocieron los efectos letales) y este temor, tanto a nivel individual como a nivel colectivo, será predictible avizorar que provocará en un futuro reacciones de pánico (frente a nuevos sismos) de magnitud magnificad, independientemente del grado de peligro real, ya que existen elementos para considerar que el aprendizaje previo habrá de producir una potencialización de la respuesta.

Algunos autores han pretendido distinguir entre miedo y ansiedad. El miedo estaría referido a sentimientos de aprensión que se presentan ante peligros tangibles y reales, la ansiedad a las mismas reacciones donde es difícil identificar una fuente real de estimulación.

La incapacidad para identificar la causa —se dice— es la característica misma de la ansiedad y en las teorías psicodinámicas se asevera que dicha incapacidad es debida a que la ansiedad resulta de la represión y siendo este el hecho, entonces la causa de la ansiedad permanecerá inconsciente. No obstante que esta distinción podría tener sus aplicaciones, no será tratado en este artículo. La diferenciación entre miedos tangibles e intangibles ha sido relacionada con otra selección que para algunos clínicos ha probado ser útil y consiste en distinguir entre miedos focales y miedos difusos, comúnmente los primeros son modificables con mayor facilidad, independientemente del hecho que fueran de larga duración.

No obstante ser de poco valor práctico, algunos autores han hablado de la distinción entre miedos innatos y miedos adquiridos, lo cual constituye un tema interesante. El impacto del conductismo temprano y su énfasis en la importancia de la conducta adquirida casi desplazó la noción de que algunos miedos pudieran ser innatos. Incluso en la posible existencia de éstos en animales se aceptó de manera no concebida. Durante los últimos años, sin embargo, la ocurrencia probable de tales miedos en los seres humanos ha recibido considerable atención. Uno de los más destacados autores en este campo es M. Seligman.2

Las fluctuaciones del miedo son de algún interés, especialmente su emergencia en la temprana infancia seguida de una declinación durante la mediana y tardía. El interés radica en cuestiones de causalidad: ¿cuál es la causa de miedos infantiles?, para ser más precisos ¿por qué los miedos aparecen, declinan y desaparecen en esa edad?

Aunque es difícil dentro de los límites de este trabajo establecer una síntesis de las principales causas del miedo, es importante anotar las siguientes: a) la exposición a situaciones traumáticas, b) la repetida exposición a subtraumáticas estimulaciones sensibilizantes, c) las observaciones (directas o indirectas) de gente que expresa miedo y que transmite información induciendo miedo (como el caso del rumor). Durante un tiempo considerable las teorías sobre la adquisición del miedo estuvieron bajo el predominio de la teoría del condicionamiento que enfatiza la exposición a estimulación traumática. El reconocimiento reciente y el hecho innegable de que las miedos pueden ser adquiridos vicariamente y por transmisión directa de información, ha enriquecido nuestro conocimiento sobre este tópico.


Como quiera que sea, sabemos que la magnitud de la reacción manifestada ante un estimulo amenazante x será resultante del aprendizaje previo al confrontar la situación actual; visto de otra manera, si una persona reserva un historial de ansiedad (neurótica) y sufre un impacto de gran magnitud, responderá más intensamente que otra sana, integrada, aunque el montante situacional sea igualmente grave.

Debemos considerar empero, dada la vulnerabilidad humana, que por integrada que esté una persona ante su realidad, siempre existirá la posibilidad de un impacto cuya intensidad sea de tal envergadura que logre desintegrarla o disociarla de forma significativa.

Considerando los elementos descritos podríamos proponer una fórmula para describir la intensidad de una reacción de miedo:

Rm = Hpm X Ieta

donde Rm = Reacción de miedo = Hpm (Historia previa de miedo) X (multiplicado por) Ieta (Intensidad del estímulo traumático actual).

Suponiendo escalas teóricas de 1-10 para cada variable (Hpm) e (Ieta), un
sujeto con Hpm de 6, tendría una reacción de miedo de 60, si (Ieta) fuera 10.

Ieta podría ser hipotéticamente el grado en que una persona fue afectada por el sismo en su persona, en sus bienes, en su familia. Hpm, constituirían los datos de su aprendizaje previo.

Este modelo sería útil tomando en cuenta variedades, particularmente para el estudio de casos, en su seguimiento respecto a la evolución de una terapia eventual y para la predicción de una evolución a futuro. Habrá que considerar en la predicción, por supuesto, consecuencias y motivos de tipo social, ello es, ver si el sujeto es reforzado o no por el ambiente en cuanto a su posibilidad de disfrutar de seguridad social y salud.

Controlabilidad

Una observación general que ha servido para la sugestión del modelo anterior, se basa en el hecho de que existe una conexión funcional entre la habilidad de una persona para el control potencial de situaciones amenazantes y la historia previa de temores. Si frente a una amenaza determinada nos sentimos incapaces de controlar el posible evento, estamos sujetos a experimentar miedo. En contraste, si sentimos la seguridad de poder controlar tal situación amenazante, será mucho menos factible el experimentar temor.

El concepto de controlabilidad de una situación de amaga es importante en el tema que nos ocupa, quizá por el hecho —como lo considero personalmente— de que el origen del pánico que suscita un terremoto justo radica en su carácter incontrolable.

Desde el punta de vista psicológico, la noción de “controlabilidad” es tratada por varios autores, como en Bandura3 en su teoría sobre las bases del cambio conductual, constituyendo el toque de piedra de sus ideas, que las modificaciones de los temores son mediadas por cambios en la “auto-eficacia percibida”, la cual establece una versión elaborada del “sentido de controlabilidad”.

Esta misma noción también es importante en la teoría que tienen algunas personas sobre el carácter aprendido, al permanecer en un constante estada de tener que ser atendidas, cuidadas (helplessness). No conozco en español una palabra que pueda resumir su sentido psicológico tan amplio, aunque alude a un estado de impotencia, incapacidad y tiene implicaciones de cierto grado de fatalismo. No obstante que su teoría publicada en 1955, inicialmente fue diseñada para comprender el fenómeno de la depresión, incorporó algunas ideas sobre la génesis del temor. Sostiene que tal estado de “incapacidad” y por lo tanto, depresión, resultan de un sentimiento adquirido de futilidad “el sentimiento de impotencia (helplessness) constituye un estado psicológico que resulta frecuente cuando los eventos san incontrolables”. Para los propósitos de su teoría, Seligman expuso su idea de controlabilidad: “Cuando la probabilidad de un acontecimiento es la misma ya sea que ocurra o no una respuesta dada, el acontecimiento es independiente de esa respuesta. Cuando esto mismo es verdad para todas las respuestas voluntarias, podemos decir que tal acontecimiento es incontratable”. De aquí pasa a la postulación de que la expectativa de “incontrolabilidad” de un acontecimiento “produce miedo, durante todo el tiempo que persiste la incertidumbre de que los resultados de tal evento son incontrolables”, ello a su vez puede producir depresión.

No encuentro mejor manera de explicar los sentimientos de desamparo, temor y depresión frente a un terremoto, dada la incapacidad humana para controlarlo, lo mismo que a otros fenómenos naturales.

Ahora bien, si la gente percibe que está en posición de controlar los resultados de un evento, su temor es reducido, independientemente de que esta teoría se encuentra en proceso de desarrollo, es importante apuntar dos aspectos de su concepción: a) el sentido personal de si uno puede o no controlar una situación, es un determinante más importante para sentir o no miedo que la probabilidad objetiva de que su posibilidad de ejercer dicho control, sea real o equivocada; b) no obstante que no está explícito en la teoría, parecería que una percepción de falla de control sobre un evento dado, solamente lleva al miedo si los resultados esperados se presentan como amenazantes o aversivos, esto es, resulta muy improbable que la ausencia de control sobre un resultada deseado nos conduzca al miedo.

Lo anterior, en síntesis, puede reducirse a los siguientes conceptos: la ausencia percibida de control de una situación potencialmente aversiva generará temor; por el contrario, la adquisición de un sentimiento de dominio sobre una situación dada, producirá una reducción del temor.

Ahora bien, las experiencias repetidas de cualquiera de estos dos tipos, pueden producir efectos acumulativos. Según asienta Seligson: “Sugiero que aquello que produce autoestima y un sentido de competencia, y protege contra la depresión, es no solamente la cualidad de la experiencia, sino la percepción de que nuestras propias acciones pueden controlar la experiencia”.

El sentido de controlabilidad se refiere también y se relaciona con el carácter predecible o no de las eventos. Parece, la mayoría de las veces, que la gente prefiere los acontecimientos predictibles de aquellos que no lo son. Esto implica por supuesto, una liga lógica entre “predictibilidad” y “controlabilidad” y los dos elementos coinciden con frecuencia, independientemente del hecho de que algunas ocasiones, ocurren eventos que son predictibles y que están fuera de nuestro control (como las tormentas o huracanes).

Parece evidente que el interés invertido por las científicos para predecir los eventos, tiene como origen un ancestral deseo de aumentar su control sobre resultados potencialmente aversivos de los fenómenos naturales. La estructura de los esfuerzos para predecir científicamente los terremotos, es idéntica a la que puede mostrar un niño al investigar sobre la predictibilidad ante una situación potencialmente aversiva, particularmente cuando la situación es nueva. La información que el científico ha buscado respecto al grado de amenaza de un terremoto está relacionada con el tiempo de su ocurrencia, su probable duración, sus signos premonitorios, qué tan grande es la probabilidad de encontrar formas de prevenir su ocurrencia o al menos de reducir sus efectos nocivos si acontece. Igualmente un niño, ante una situación nueva, digamos por ejemplo, frente a un animal, investiga en busca de información, tal vez examinándolo, incrementando su expectativa de controlabilidad hasta el grado que su temor —aquel que pudiera haber tenido— desaparezca. Pero si la nueva información altera su predicción acerca de la probabilidad de que el animal reaccione aversivamente, entonces su miedo se incrementará.

Como hemos vista, el concepto de controlabilidad y la noción relacionada de predictabilidad tienen una gran posibilidad de comprender muchos aspectos del miedo.

Para los propósitos de este trabajo, el concepto de controlabilidad es utilizado con objeto de significar el sentido de una persona para sentirse si está o no en una posición para reducir la probabilidad de ocurrencia de un evento aversivo dado y/o sus consecuencias. En la mayoría de los casos, la percepción de incapacidad de control sobre el evento, llevará al miedo, por el contrario, un sentimiento de control substancial sobre el evento o su ocurrencia, particularmente si éste es aversivo, o bien, la capacidad de reducir sus resultados negativos —un sentimiento (de dominio si se quiere) de destreza, de capacidad— reducirá el miedo de manera similar, aquella conducta o información que incrementa nuestra predictibilidad contribuirá a nuestro manejo y reducción del miedo.

Extrapolando las conceptos vertidos, podría decirse que respecto a personas dueñas de un bien desarrollado sentido de capacidad, de competencia o, en el lenguaje ordinario, que han desplegado mucha confianza en sí mismos, difícilmente experimentarán temor grave en particular; de aquellos otros con un pobre sentido de sus capacidades, carentes de autoconfianza, se esperará experimenten temor con mayar asiduidad.

Otros aspectos relacionados se refieren a técnicas para la reducción o supresión de temores. Por lo común los miedos desaparecen como resultado de exposiciones repetidas, especialmente ante experiencias más suaves o de menor intensidad de la situación amenazante, en virtud a un proceso que llamamos “habituación”. De alguna manera, las “réplicas” del terremoto, cada vez menos intensas, por frecuentes, disminuyeron en alto grado el temor. De manera terapéutica, controlada, la declinación de los temores como consecuencia de la repetición puede facilitarse sobreimponiendo a la situación alarmante una respuesta incompatible como la “relajación”.

La complejidad de la relación entre la emergencia de los temores o su declinación, puede observarse a partir de que en ocasiones las repetidas exposiciones al objeto o situación evocadora de temor, puede incrementar el miedo, fenómeno al que llamamos “sensibilización” y en otras —como ya dijimos— los decrementa (habituación). Con ello parece ser que los temores pueden mantenerse en un estado de balance.

La dirección hacia el incremento o decremento de los temores frente a exposiciones repetidas, depende del tipo de exposición, la intensidad de la estimulación, el grado de alerta en las personas y otros factores. La tendencia a habituarse a una repetida estimulación constituye una característica universal y es tan importante para el modelamiento de nuestros temores como para el desarrollo de nuestra valentía, nuestro coraje.

Cuando se examina la experiencia acumulada en tiempos de guerra, la habituación puede ocurrir en escala masiva aún frente a peligrosas exposiciones y una intensa, incontrolable e impredictible estimulación. De hecho este fenómeno fue claramente observado en las siguientes horas y días después del terremoto en México, particularmente durante las operaciones de rescate, dando origen a muchas experiencias, incluso de temeridad. Habrá que estudiar incluso mucho más, la razón por la cual, el dolor compartido en forma masiva por miles de personas lo redujo, probablemente como efecto social complejo.

Hubo casos, sin embargo, en que la habituación no existió. Tales respuestas de miedo prolongado pueden considerase anormales en el sentido restringido de una indebida persistencia a pesar de las prolongadas exposiciones. Pertenecen a la conducta anormal en el sentido “clínico” del término y porque las reacciones de algunas personas pueden conceptuarse desproporcionadas e incapacitantes comparativamente al índice de habituación de la población en general, Con seguridad tiene que ver, si tales afecciones se investigan a profundidad, con aquellos factores que hemos considerado del aprendizaje previo (en este caso, quizá mórbido).

Por último, habremos de indicar que los casos de emergencia deben ser tratados como tales, por lo que seguramente aquellos inscritos en cuadros agudos pueden recibir la ayuda en base a métodos farmacológicos que han mostrado ser exitosos, principalmente los psicoterapéuticos derivados de la psicología experimental, por su capacidad para operar directamente y en forma rápida desensibilizando a los sujetos (diferentes técnicas de modificación de conducta) y otras técnicas psicoterápicas breves.

Casos más graves, requerirán, sin duda, de terapias probablemente más prolongadas.

Próximamente trataremos en marcos de mayor amplitud los aspectos más relevantes de la psicología del coraje y de la valentía, ya que mención aparte, merecen muchas personas, principalmente jóvenes, quienes frente a una amenaza común, reaccionaron haciendo posible ese fenómeno social que se llamó por algunas personas: solidaridad.

 articulos
 
     
Referencias bibliográficas
1. Esta revisión hace énfasis en el significado psicobiológico del miedo, la transmisión indirecta del mismo, la valentía humana y otros tópicos.
2. Seligman, M. Helplessness, 1975.
3. Bandura, A. Psychological Review, 84, 1977, pp. 191-215.
     
 ____________________________________________________________      
Luis Lara Tapia
Facultad de Psicología,
Universidad Nacional Autónoma de México.
     
       
como citar este artículo      
R08Articulos4   menu2
   
   
Gustavo Otto Fritz de la Orta      
               
               

Los diferentes elementos de una construcción deben tener una relación armónica entre sí y con el suelo.

 

Estuve en Alemania durante la fase de reconstrucción
posterior a la guerra, donde por razón natural se desarrollaron métodos, procedimientos y criterios para realizar una mejor construcción, cuya funcionalidad fuera más eficiente y los materiales empleados estuvieran a su máxima capacidad. Esto dio lugar a la técnica de estructuras en unión, estructuras no planas, concreto y acero preforzado y todo ello ha significado un avance extraordinario en las técnicas para construcción.

En la ingeniería se tienen varios puntos de vista que considerar, sobre todo, si se quiere hacer una estructura alta. Hay tres factores básicos que tomar en cuenta. El primero es el conocimiento del suelo. El suelo se comporta de acuerdo a leyes físico-químicas precisas, leyes que conforman la geotécnica.

Nuestra ciudad corresponde a la cuenca de México, mal llamado Valle porque no hay una corriente de agua que lo señale así; y esta característica de suelo hace que la forma de construir en la ciudad de México sea única. Tenemos arcillas muy compresibles, contenientes de una cantidad de agua muy elevada y que pueden perder parte de su volumen. Todo suelo sustentando con estas características a una estructura, sufre deformaciones mucho muy acusadas. Este primer aspecto del conocimiento del suelo ha sido en los últimos años objeto de estudio por parte de los técnicos, individuos de gran capacidad que han comprendido el comportamiento de dicho suelo. Desde luego que fuimos pioneros en el estudio del suelo mexicano, quiero citar nada más al maestro don Nabor Carrillo y al maestro Leonardo Zeevaert. El conocimiento del suelo permitió hacer cimentaciones adecuadas, como la ampliación de base; ello es cuando simplemente se hace fluir a las cargas en una zona muy amplia que sea soportable por el tipo de terreno, que particularmente en esta cuenca de México gran parte son suelos blandos, producto de la ubicación de materiales de otras zonas para llenar lo que antes era una laguna.

¿Es decir, materiales aluviales?

Los materiales aluviales son producto de un acarreo, en este caso no se ha hecho un trabajo natural, sino se han traído de otros lugares y con tales materiales fue desecado el suelo, pero sin perder esta característica de gran compresibilidad.

También hay terrenos intermedios con cierta firmeza y finalmente, los terrenos firmes, bastante más resistentes que los primeros, ya referidos anteriormente.

Entonces entramos en contacto con la segunda parte importante que es la cimentación. La cimentación es aquella estructura que, generalmente abajo del nivel del suelo, permite transmitir a las capas inferiores del subsuelo las cargas de la superestructura. Esta cimentación puede ser grandemente variada, tanto como el tipo de terreno o la estructura en sí, en nuestro país se dan las siguientes, por citar sólo algunas:

Por sustitución de volumen; es decir, se quita un volumen del suelo equivalente al peso del edificio que se va a hacer, y el estrato no se ve modificado ni estática ni estratigráficamente; utilizando pilotes, que es una técnica ya empleada por los indígenas hace mucho tiempo, quienes conociendo la poca resistencia del suelo se vieron obligados a aumentarla, sobre todo para la construcción de las grandes pirámides, cuya constitución de piedra en masa, es extraordinariamente pesada. Desde luego la técnica del uso de pilotes no es originaria de la ciudad de México. Se ha utilizado en otras zonas del país en épocas lejanas. Los pilotes servían para sustentar grandes estructuras y en la ciudad de México adquirieron una perfección notable durante la época prehispánica, casi todas las estructuras pesadas dentro del lago se erigieron con esta técnica.

El templo mayor que conocemos ahora está cimentado sobre pilotes. Pero no es el primer templo del que nos habla la historia, había ya antes un templo original, un templo quizá menos pesado que fue destruido durante una inundación. Esto hizo que se solidificara el pilote, que el suelo sufriera la solidificación proveniente del hincado del pilote, siendo capaz de soportar miles de toneladas sin hundirse.

La nueva ciudad española se sustento directamente sobre las infraestructuras de estos templos y tuvo la suerte de contar con un terreno más sólido.

¿Se puede decir que el tipo de cimentación que se hace ahora en la ciudad de México está diseñado con base en las características del suelo?

Si, fundamentalmente. Las cimentaciones serían: pilotes, que pueden dividirse en dos secciones, aquellas que trabajan por fricción entre el suelo y el pilote y los que trabajan por contacto directo entre las capas sólidas; estos son de mayor longitud.

El piloteo sólo es una pieza hincada en el terreno. Imaginemos un poste con el cual se está midiendo la resistencia del terreno por medio de golpes, los cuales hacen que el suelo se solidifique, entonces un haz de pilotes causa un aumento en la resistencia del suelo, además que trabaja por fricción. Ahora, muchas veces el pilote es tan largo que al profundizar toca de punta la capa sólida del terreno, entonces, es como si fuese una columna enorme que sustenta toda la superestructura.

Pero habíamos hablado de tres elementos básicos en construcción; el tercero es la estructura o superestructura; aquello que se desplanta del nivel del suelo hacia arriba. Esta estructura tiene que estar en armonía con la cimentación y la cimentación en armonía con el suelo. No puede haber ningún elemento de distorsión porque ello causaría la ruina.

Entonces, la estructura, además de las cargas que generalmente sustenta —y que son verticales— producto de su masa es que son atraídas hacia el centro de la tierra por la gravedad y están sujetas a solicitaciones de tipo dinámico y en nuestro caso principalmente a movimientos sísmicos. Tal actividad telúrica es de carácter volcánico y proviene de la liberación de energía al ocurrir choques en las placas del subsuelo a unos 40 o 50 km de profundidad y la onda energética que se libera después de un choque alcanza, a través de su paso por los estratos del subsuelo hacia la superficie, la costra exterior, donde puede haber una mayor a menor expulsión de esas ondas. Estas ondas al llegar a la ciudad de México que no es más que un receptáculo con agua, logran expandirse de una manera más violenta; es decir, no hay fricción que las vaya amortiguando. Es el caso de una onda dentro de un vaso de agua. Por tanto, de ahí la onda se mueve libremente y se refleja tanto en la superficie como en las paredes exteriores de este vaso, es por ello que el temblor del 19 de septiembre duró tanto tiempo. Ahora bien, existe un peligro muy grande, porque cuando se da una frecuencia particularmente constante de vibraciones, puede entrar en consonancia o resonancia con la frecuencia propia de vibración de un edificio. La frecuencia propia de vibración es un factor de la geometría, de los movimientos de inercia, de la disposición de los diversos sistemas constitutivos de la estructura y puede caracterizarse por enormes deformaciones. Estas deformaciones en un estado de consonancia o de resonancia plena conducen casi siempre a la rotura de la estructura y una ver quebrada todo se viene abajo. Puede resquebrajarse la superestructura o la infraestructura o ambas.

Estas condiciones de vibración normales de un edificio, ¿tienen que ver con: el tamaño del edificio y la forma geométrica de éste?

Sí, es decir, la geometría en general. Dentro de la geometría está el tamaño mismo, la disposición de diversos elementos constitutivos de la estructura, el momento de inercia resistente de cada material, el tipo de material empleado, etc.; en fin, son muchísimos los elementos que están influyendo de una manera directa en la característica de respuesta dinámica de la propia estructura.

Esto quiere decir que, ¿el haber extraído agua del subsuelo de la ciudad de México ha cambiado su forma estratigráfica?

Desde luego que sí, el hecho de que nuestras arcillas tengan una gran cantidad de agua ha permitido que al extraer por medio de pozos artesianos —sobre todo al final del siglo pasado y principios de este— grandes volúmenes de agua, estos no fueron recuperados por la arcilla y al perderlos ha sufrido asentamientos de volumen que se han visto reflejados en un hundimiento general de nivel en el suelo del “valle” de México.

¿Existen normas de uso del subsuelo?

Sí, y se emplean como un elemento más en el momento de la construcción.

¿Cuáles han sido las medidas tomadas para decidir si se continúa sacando agua?

Desde luego ya no debe sacarse agua; esto se prohibió durante años y entonces se vio la necesidad de traer agua fuera de la cuenca del “valle”, a un gran costo puesto que nosotros estamos a niveles muy elevados.

Los materiales de construcción que se utilizan en las cimentaciones a las que usted se refirió, ¿deben ser diferentes y acordes al lugar donde se establezca el inmueble?

Deben ser propios; esto es, han de estar en consonancia con el tipo de estructura que se va a construir.

Cuando un constructor o arquitecto van a realizar una construcción, ¿qué significa para ellos el suelo de la ciudad?

Desde luego que el tipo de suelo puede valorarse plenamente mediante una serie de análisis de laboratorio, que hace posible conocer a profundidad cuál es el subsuelo, qué características físicas, químicas y mecánicas posee y de acuerdo con ellas, se diseña la cimentación. La cimentación puede ser adecuada perfectamente a las características, primero del suelo y después de la superestructura como elemento de liga entre lo que se construye arriba y el suelo mismo, que representa una enorme estructura adicional.

Cuando se diseña un edificio ¿siempre se de tomar en cuenta el uso que se le va a dar?

Desde luego, no sólo el uso sino para qué se quiere cada una de las capas habitadas. Puede darse el caso de que exista en algunos niveles maquinaria trabajando, lo cual provoca un nuevo elemento de conocimiento y de cuidado, puesto que esta maquinaria dentro del mismo edificio puede provocar por sí misma, sin necesidad de un temblor, las condiciones de resonancia.

¿Por qué gran parte de los edificios que se cayeron por la acción del sismo, siempre se aplastaron en la parte superior?

Si analizamos la manera en que se comporta un péndulo invertido, un péndulo esta sujeto en su base quedando libre de vibrar en la parte superior, y es ahí donde se presentan las mayores deformaciones; entonces resulta lógico pensar que en algún momento —cuando la deformación se dio en lo parte superior— tal efecto hizo que las columnas no pudieran resistir rompiéndose.

En general podemos decir que el comportamiento de las estructuras sigue las leyes de la mecánica de manera más amplia, y todos los elementos estructurales, columnas, trabas, lozas, muros, etc., todas ellos en una armonía de tipo estructural, nos están dando respuestas a cada tipo de solicitación que —como dije—, son las cargas muertas provocadas por el peso propio de las piezas, las cargas vivas son las personas que la habitan y su hábitat, que está sobre cada uno de estos elementos, gravitando; y las solicitaciones de tipo dinámico que son generalmente horizontales. Si hay un empuje horizontal éste puede ser instantáneo; entonces la estructura se mueve de acuerdo con su frecuencia de vibración y llega a estabilizarse después de cierto número de segundos o períodos. Si hay, como se ha visto en este último sismo, una persistencia de una frecuencia de vibración, entonces la estructura o partes de ella puede llegar a tener enormes deformaciones y llegar a la rotura de ésta. Tal circunstancia provocó que las fallas se presentaran no sólo en la parte superior, sino que hubiera un efecto cortante en la parte inferior, tan grande, que separara, zigzagueara y trozara las columnas desde su empotramiento dentro del suelo y esto se dio a diversos niveles. Hemos tenido que sufrir una enorme pena para comprender un poco mejor el fenómeno de las estructuras sujetas a cargas dinámicas, lo que se seguramente nos permitirá construir mejor en el futuro. La observación de los daños, la observación de las características del sismo, nos posibilitará a elaborar mejores normas.

A raíz de esta experiencia, ¿qué seguridad existe por parte de los constructores al hacer edificios contra sismos mucho más fuertes que el pasado?

Está en manos de ingenieros o de aquellos que diseñan, del artífice de la construcción, darle a la estructura las características de seguridad necesarias. Se ha visto que dentro de esta cauda de construcciones dañadas hemos encontrado edificios que se han comportado perfectamente, porque fueron construidos con un criterio tal que permiten poseer una gran capacidad de seguridad en su estructura y esto se ha reflejado en el comportamiento extraordinariamente correcto de algunas estructuras.

¿Los edificios se construyen en función de evacuar rápidamente a la gente?

Todos los edificios deben poseer salidas de seguridad donde en pocos minutos pueda desalojarse a la población habitante en ese momento.

¿Tuvo alguna influencia en las ondas de propagación del sismo la construcción del metro?

Es probable, sin que pueda decirse de una manera definitiva que las paredes del metro hayan servido como espejos para reflejar las ondas antes referidas, y que por ello, porciones en donde hubiera suelos delimitados por las paredes del metro, hubiera existido una mayor persistencia de las ondas y sufriera amortiguamientos, ello hizo entonces que hubiera una situación hasta cierto punto curiosa. Lo que yo expreso no es mas que una idea mía que no ha sido corroborada por un ningún estudio, simplemente me parece que si tenemos unas paredes verticales de una profundidad de unos 12 o 15 metros pudiera haber una situación de eco en esas paredes como si fuera un espejo, una pared de frontón, y ahí pasearse una onda entre dos paredes sin que hubiera un amortiguamiento pleno. Es posible que parte de las estructuras que están muy cercanas al metro se hayan afectado de la manera que se conoce.

Cuando se realiza un peritaje ¿qué criterios se toman para decidir si un edificio puede habitarse o no?

Es muy fácil saberlo: más que de normas, se trata de un sano criterio basado en el conocimiento del perito en construcción, en México existe un cuerpo de peritos que pertenece al DDF. Los criterios que se siguen son observar, primero que nada, la estructura en sí, ver si ha sufrido deformaciones horizontales o verticales y si esto ha sucedido significa que se produjo rotura en la cimentación, una deformación en la parte sustentante que debe considerarse para emitir un juicio definitivo y saber si un edificio puede ser habitado. Es lógico que no necesite revisarse en las plantas superiores porque puede suceder que en el segundo o tercer piso o enésimo nivel no haya habido el menor daño, pero si en la parte sustentante hay daños, entonces la estructura está perdida, es por esto que una ojeada a la estructura basta para saber si puede habitarse subsecuentemente.

En general se ha tenido el criterio de desalojar los edificios en caso de duda, hasta realizar un peritaje más completo que pudiera corroborar, ratificar o rectificar el dictamen.

Entonces lo primero, ¿sería una inspección visual? ¿Un peritaje se basa principalmente en esto, o si existen dudas, suponiendo que existieran estructuras de acero qué se hace?

El acero puede visualizarse no solo exteriormente sino que puede conocerse estructuralmente por medio de rayos X, de manera que es posible observar por medio de estos aparatos a una pieza dañada.

Básicamente lo que decide un peritaje ¿es la observación de las estructuras del primer nivel?

Exactamente, pero puede suceder que una onda de tipo sinoidal haya sido la causante del desaguisado, entonces, posiblemente acontezca que no solo en la parte intermedia o en los estratos superiores ocurran rupturas, en general basta una mirada para saber si una estructura está o no en buen estado.

Otros arquitectos habían comentado que podría hacerse algo como sacar muestras de concreto ¿es posible?

Sí, existe esa posibilidad pero no es necesaria para detectar si una estructura puede ser habitada o no, eso sirve para medir la resistencia del concreto. Si el concreto en sí presenta fisuras o aplastamientos ha dejado de trabajar como una estructura completa.

¿Siempre y cuando las fisuras sean horizontales?

No necesariamente, las hay de cualquier forma; de principio si una trabe tiene fisuras horizontales, sobre todo en la parte media, nos indica que la atracción en el acero fue tan grande que hizo que dejara de trabajar plenamente parte del concreto como estructura. Es decir, la zona agrietada no está actuando ya. El efecto de esta mayor deformación del acero, puesto que éste reacciona siempre a tracción, principalmente en la parte inferior de una pieza, porque en su parte media hace que el pleno neutro, —aquella fibra donde no hay esfuerzos— suba hacia la fibra más comprimida. En este caso particular, la concreción que está recibiendo el concreto se ve sujeta a un incremento por ser más pequeña la zona en donde se está ejerciendo dicha concreción.

Esto puede hacer que una estructura falle sin que falle el acero, que yerre por aplastamiento del concreto. Puede ser en la parte media de una trabe o dentro de las zonas donde hay movimientos negativos; es decir, donde se presenta una inversión de signos y en las regiones próximas a los nudos. El nudo es un lugar concurrente de varios elementos estructurales, llámense columnas, trabes, lozas, etc., y en un instante puede verse claramente si el nudo ha resistido el empuje del momento o si no ha sido así, se observa inmediatamente la rotura del mismo. En el caso de fisuras en el nudo todos los elementos que a él confluyen están fallados. En este caso particular no se puede pensar siquiera en una reparación.

¿Y usted recomendaría que todos los edificios utilizaran pilotes como estructura de cimentación adecuada?

No necesariamente, claro que cada edificio es un ente con características propias y en ningún momento podemos generalizar, pero se ha visto que en general los pilotes, sean fijos o sean de control, han trabajado correctamente ante los embates sísmicos que recientemente hemos sufrido.

¿Podría explicar por qué los edificios de más de treinta años resistieron perfectamente y otros de construcción reciente no lo hicieron?

La respuesta está en la geometría. La geometría que tenían los edificios hace cincuenta años nos hace comprender la existencia de mayor “pesantez”, mayor “robustez” en cada uno de los elementos constitutivos y ello hizo que resistieran al sismo perfectamente.

¿La construcción que se hizo de edificios de más de cincuenta años fue mediante un cierto reglamento?

Desde luego, existen reglamentos de construcción en cada una de las ciudades de México, y este reglamento en general lo establece el gobierno de la ciudad, de manera que directamente es éste quien tiene la responsabilidad de vigilar que las edificaciones se hagan de una manera correcta desde el punto de vista estructural.

Después de estos sismos, ¿cuál debería ser el proyecto de reconstrucción?

 Es difícil decirlo, pero en el campo, especialmente de la ingeniería industrial deben tomarse en consideración esfuerzos que correspondan a deformaciones horizontales provocadas por sismos, tal vez pensando que éstos puedan ser de mayor intensidad, quizá un cambio en los coeficientes sísmicos sea una medida razonable para evitar mayores daños.

 articulos
       
____________________________________________________________
     

Gustavo Otto Fritz de la Orta
Profesor de la Universidad Nacional Autónoma de México, de la Technische Hochschule Hannover, Alemania y de la Universidad de Arlington, Texas. E.U.A.

como citar este artículo

     
R08Articulos3   menu2

índice 08

siguiente

anterior

PDF

   
   
Héctor Mayani V. y Ma. Teresa Parás      
               
               

La clave del desarrollo del embrión está, en la diferenciación celular.

 

Dentro de la gran variedad de campos que encierra la biología existe en particular una que, por su naturaleza, complejidad e implicaciones, es realmente fascinante la diferenciación celular.

 ¿Cómo es que a partir de una solo célula —óvulo fecundado o cigoto— se origina un organismo tan complejo coma un árbol, un pez o un ser humano? ¿Porqué?, si nuestras neuronas y las células de nuestra piel contienen la misma información genética en sus respectivos núcleos, son morfológica y funcionalmente tan diferentes? Cómo “sabe” una célula eritroide cuándo debe empezar a sintetizar hemoglobina y cuándo debe dejar de hacerlo? Preguntas como éstas han sido formuladas por hombres de ciencia desde há tiempo. Con los avances alcanzados hoy día en áreas como la bioquímica, biología celular y biología molecular, se ha dado respuesta a varias de ellas, sin embargo, conforme nos introducimos en este campo son más los cuestionamientos surgidos que las respuestas encontradas.

El objetivo fundamental del presente artículo no es exponer con detalle los modelos propuestos para explicar la diferenciación celular, pues ello requeriría no una, sino varios artículos. En realidad, intentamos presentar un panorama general desde nuestra muy particular punto de vista sobre este interesante tema, buscando que el presente artículo sirva, de alguna manera, a gente interesada en el estudio de la biología.

 
Etapa en el desarrollo de un hueva de rana.

Una visión histórica

Mucho antes de que el hombre supiera algo acerca de las células, y mucho menos algo acerca de las moléculas, ya estaba familiarizada con uno de los misterios más tangibles de la naturaleza: un huevo, tan sencillo en apariencia pero capaz de producir un organismo vivo, completo y perfecto en cada uno de sus detalles y de una complejidad difícil de imaginar.

Es probable que desde el momento en que el hombre colocó huevos de gallina en incubadoras artificiales (y esto nos remonta a hace varios siglos) se le ocurriese abrirlos de vez en cuando y observar así el sorprendente espectáculo de la transformación del huevo en pollito. Incluso Aristóteles describió un hecho importante: la cabeza del embrión se desarrolla más de prisa que su cola. Desde ese momento, un fenómeno que hasta entonces había sido considerado como algo muy normal y bastante común, tomó particular relevancia despertando enorme interés entre las generaciones siguientes; el hombre había descubierto que el desarrollo del polla se inicia aún antes de que éste nazca.

Poco a poco los estudias con embriones de aves fueron haciéndose más intensos y profundos, de tal forma que lo denominado como embriología descriptiva y comparativa tuvo un gran desarrollo durante los siglos XVIII y XIX. A principios del presente siglo, y sobre toda en la década de las treinta, el crecimiento embrionario además de ser analizado desde el punto de vista morfológico, empezó a estudiarse bajo las conceptos de la química, lo cual trajo consigo descubrimientos sorprendentes. Para entonces, además de los huevos de aves, se utilizaron también los de erizo de mar y anfibios (particularmente rana), lográndose así describir y caracterizar diferentes etapas dentro del desarrollo embrionario y algo aún más prodigioso, se encontraron grandes semejanzas en el desarrolla prenatal de distintas especies animales.

Toda la información que se fue obteniendo al respecto a partir de la profusión de experimentos realizados, condujo a un postulado fundamental: la clave de la embriología radica en la diferenciación celular, esto es, el secreto está en conocer de qué manera una célula se diferencia de otras y logra especializarse para llevar a cabo funciones particulares y a raíz de tal aserto muchas de las investigaciones subsiguientes ya no tomaran coma unidad de estudio a todo el embrión, sino a la propia célula, buscando hallar en ella respuestas a las preguntas planteadas mucho tiempo atrás.

Cuando se iniciaran los primeros experimentos sobre diferenciación celular, los conocimientos que se tenían sobre la morfología y fisiología de la célula eran lo suficientemente amplias como para orientar los estudios hacia conocer los posibles papeles del núcleo, el citoplasma y el medio extracelular en este proceso.

Uno de las primeros pasos consistió en encontrar un tipo celular apropiado que sirviera coma modelo o sistema experimental. Así, algunos investigadores continuaron enfocado su atención al óvulo fecundado (cigoto), mientras que otros decidieron emplear otras tipos celulares como fibroblastos, células epiteliales, musculares, hematopoyéticas, pancreáticas, etc. Incluso, más recientemente se han hecho estudios en ciertos hongos y, sorprendentemente, en algunos organismos procariontes, ya se ha considerado a la esporulación bacteriana como un sistema de diferenciación “simple”. La gran variedad de sistemas de estudio ha enriquecido enormemente el conocimiento actual sobre la diferenciación celular, pues en general los resultados obtenidos en una de ellos confirman, complementan o aclaran los obtenidos en otros.

 
A finales del siglo XIX se hicieran estudios comparativos sobre el desarrollo embriológico de diversos organismos.

 Los experimentas de Briggs, King y Gurdon en los años 50 y 60 arrojaron un importante caudal de información al respecto. Lo que estos investigadores hicieron fue trasplantar el núcleo de una célula intestinal de rana a un óvulo no fecundado de la misma, cuyo núcleo había sido previamente eliminado; una vez logrado esto, el óvulo comenzó a dividirse y desarrollarse hasta dar origen a un renacuajo normal, y éste a una rana madura. Posteriormente se realizaron experimentas similares empleando otros tipos celulares del mismo organismo como donadores de núcleos y el resultado fue muy parecido. Tales experimentos condujeron a postular que: 1) todas las células de un organismo contienen la misma información genética en sus núcleos; 2) la diferenciación y especialización celular es un problema de regulación génica y no de ganancia a pérdida de genes; 3) el citoplasma y probablemente el medio extracelular, son factores que influyen en la expresión de los genes. En consecuencia el siguiente paso fue tratar de establecer con detalle los factores y mecanismos involucrados en la regulación de la expresión génica.

La expresión génica y la diferenciación celular

 A principios del presente siglo, Dienert demostró que en la levadura, las enzimas responsables de la utilización de la lactosa son sintetizadas, sólo cuando este azúcar está presente en el medio nutritivo; es decir, la célula no gasta su energía en producir enzimas que no le son necesarias. De esta forma quedó establecida que las células de levadura poseían la capacidad de regular la producción de sus enzimas, capacidad que —se pensó— debería poseer toda célula. Sin embargo, no se pudo dar una explicación más amplia sobre el fenómeno por una razón muy sencilla: la síntesis de cualquier enzima es un proceso que involucra al material genético de la célula y en aquel entonces éste no era conocido.

Años más tarde, los trabajos de Avery, Macleod y McCarty en 1944 y de Hershey y Chase en 1952, demostraron que el material genético es el ácido desoxirribonucléico (ADN). Paralelamente, los estudios encaminados a conocer la estructura del ADN alcanzaron resultados impresionantes que culminaron con el modelo de la doble hélice propuesto por Watson y Crick en 1953. Lo anterior trajo consigo grandes avances, de tal manera que se pudo empezar a dar respuesta a la pregunta ¿cómo regula la célula la síntesis de sus enzimas?

En 1961, F. Jacob y J. Manad, utilizando como sistema de estudio a la bacteria Escherichia coli, propusieron un modelo que explicaba detalladamente el mismo fenómeno observado por Dienert años atrás, el modelo del Operón. De acuerdo a éste, el genoma bacteriano tiene dos tipos de genes: los estructurales y los reguladores. Los primeros son aquellos cuya información determina la estructura primaria de proteínas específicas; mientras que los genes reguladores son los que, de acuerdo a señales particulares, determinan que uno o varios genes es estructurales sean o no transcritos. Por ejemplo: cuando la lactosa no está en el medio, los genes estructurales de las enzimas involucradas en la degradación de dicho azúcar no son transcritos, por esta presente un represor (proteína codificada por el gen regulador). Ahora bien, cuando la lactasa si está en el medio, el represor es inactivado y los genes estructurales transcritos.

Más recientemente ha sido propuesto otro modelo para explicar la regulación génica en procariontes: el modelo de atenuación, el cual ha sida involucrado en las vías biosintéticas de enzimas que intervienen en la producción de aminoácidos como histidina y triptofano. Es importante destacar que este modelo no reemplaza al de Jacob y Monod, sino que, de acuerdo a las evidencias que se tienen, ambos mecanismos están presentes en la regulación de los genes bacterianos, aunque no necesariamente actúan sobre los mismos genes.

Los trabajas anteriores, llevados a cabo par Jacob y Monod (Operón Lac) y Ch. Yanofsky y colaboradores (modelo de atenuación) reafirmaron que: 1) efectivamente, la célula es capaz de regular la producción de los tipos y cantidades de proteínas que requiere, y 2) el ambiente extracelular tiene influencia en dicha regulación.

Ahora bien, para explicar la regulación de la expresión génica en células eucariontes (nucleadas), la empresa se presenta más difícil, pues existen grandes diferencias con respecto a las células procariontes, que hacen al genoma eucarionte; bastante más complejo. Mencionaremos a continuación algunas de ellas:

— La cantidad de ADN en células eucariontes es mayor (de 2 a 5 ordenes de magnitud) que en células procariontes.
— El genoma eucarionte se encuentra dividida en varios cromosomas, mientras que el genoma bacteriano presenta un sola cromosoma circular.
— La diploidía solamente se presenta en células eucariontes.
— En los organismos procariontes, la transcripción y traducción del ADN son procesos simultáneos, mientras que en eucariontes están separados espacial y temporalmente.
— El ADN de los eucariontes está asociada a proteínas, histonas y no histonas, que juegan papeles importantes en su arreglo espacial, su replicación y su transcripción.

Pese a todo lo anterior, no hay que perder de vista que las, mecanismos enzimáticos básicos para la replicación, transcripción y traducción del ADN en procariontes y eucariontes son muy similares.

En 1969, Britten y Davidson propusieron un modelo para explicar la regulación génica en eucariontes. Según éste, el genoma, eucarionte contiene varios “sitios sensores” que pueden reconocer a distintos agentes, como: inductores metabólicos, inductores hormona-receptor, o bien, nucleótidos reguladores. Cuando el agente inductor se une al sitio censor, provoca que un gen adyacente a este último (gen integrador) origine una molécula de ARN (activador) que puede unirse a distintos sitios llamados “receptores”, las cuales pueden estar en el mismo cromosoma o en otro. La unión de ARN activador al sitio receptor provoca que se inicie la transcripción de los genes estructurales adyacentes a éste.

 
La hematopoyesis es un caso particular de diferenciación celular bastante interesante, en el que a partir de un tipo celular determinado (denominado CF-U-L-M) tienen su origen los Linfocitos (L), Monocitos (L), Plaquetas (P), Eritrocitos (E) y Granulocitos.

Ahora bien, aunque en términos generales el modelo parece lógico, la gran cantidad de evidencias obtenidas en los últimos quince años indican que la regulación de la expresión génica en eucariontes es mucho más compleja de lo que dicho modelo sugiere.

Diversos estudios han demostrado que solo una porción de todo el ADN presente en el genoma eucarionte es expresada, ello es, existe una gran cantidad de material genética del que se desconoce su función precisa Es interesante el hecho de que al comparar la cantidad de ADN presente en el núcleo de una célula de organismos como la rana o el sapo, 15.7 X 10–9mg y 7.3 X 10–9mg respectivamente, resulta ser mayor que la presente en el núcleo de una célula de humano (6.0 X 10–9mg).

A nivel de microscopio electrónico, ha podido observarse que existen regiones de la cromatina (material intranuclear compuesto por ácidos nucleicos y proteínas) cuyo aspecto es muy denso, mientras que otras son bastante claras. Usando marcadores radiactivos se ha demostrado que las zonas densas son transcripcionalmente inactivas y se les ha denominada heterocromatina. Por su parte, las zonas claras muestran actividad de transcripción (síntesis de ARN mensajero) y constituyen la Eucromatina. La cantidad de ambas formas de cromatina en el núcleo de una célula depende del tipo celular que se trate, del estado metabólico y del grado de diferenciación.

Interactuando fuertemente con el ADN se encuentran cinco tipos de proteínas básicas denominadas histonas. Cuatro de ellas forman un complejo octamérico que se asocia a las cadenas de ADN constituyendo el Nucleosoma; el quinto tipo de histona pudiera desempeñar el papel de “seguro”, aparentemente reforzando la unión del complejo proteínico y el ADN. Aunque su papel es fundamentalmente estructural se antoja pensar que las histonas pudieran intervenir en la regulación de la expresión genética, sin embargo, no se sabe con exactitud de qué manera lo hacen.

En el núcleo celular existen, además, las no histonas, proteínas cuya variedad es mucho mayor que las histonas. Dentro de ellas se encuentran las proteínas que constituyen los complejos enzimáticos para la replicación y transcripción del ADN; existen también varios tipos de proteínas contráctiles que actúan durante la división celular. Es importante recalcar que últimamente se han encontrado bastantes más tipos de proteínas no histonas, cuyas funciones —aunque no son bien conocidas— pudieran estar implicadas en la regulación génica.

Estudios recientes realizados en distintas tipos celulares, han demostrado que la expresión de los genes en eucariontes puede verse regulada por modificaciones covalentes en los distintos componentes de la cromatina; particularmente, se ha observado que existe una relación inversa entre la metilación del ADN y la expresión génica, esto es, ciertas secuencias del genoma eucarionte cuando se encuentran metiladas no son transcritas.

La regulación de la expresión génica en eucariontes puede ocurrir también a nivel post-transcripcional es decir, una vez que ya ha sido sintetizada la molécula de ARN mensajero, pues se sabe que ésta sufre cambios antes de salir al citoplasma, como la adición de CAP en el extremo S’ y de poli A en el extremo 3’; también se ha probado que el ARNm recién sintetizado es fragmentado, quedando excluidos ciertos segmentos denominados intrones (que no serán traducidos). Incluso, la envoltura nuclear parece estar involucrada en la regulación post-transcripcional, ya que algunos estudios han confirmado que el numero de poros, por unidad de área de dicha envoltura, está en relación directa can la actividad transcripcional de la célula, y hay que recordar que es precisamente a través de esos poros por los que pasa el ARNm hacia el citoplasma para su posterior traducción.

Hasta aquí hemos mencionado únicamente algunos factores y niveles de organización estructural intranucleares involucrados en la regulación de la expresión génica; ahora es necesario recalcar que toda la actividad que se efectúa dentro del núcleo y cuya resultante es que ciertos genes se expresen y otros no, está sujeta a la presencia y acción de moléculas que provienen del medio extracelular. Dichas moléculas inductoras son generalmente proteínas producidas en células específicas y con características de cada órgano, pudiendo consumar su acción lejos del sitio donde fueron producidas. Por ejemplo, la eritropoyetina es una proteína inducida principalmente en el riñón y que desempeña su actividad en la médula ósea, regulando la diferenciación de las células eritroides.

 
¿Cómo es qué a partir de un óvulo fecundado se origina un organismo tan complejo como el ser humano?

Es evidente entonces, que la diferenciación celular resulta un proceso verdaderamente complejo, debida a los muchos y muy variados factores y mecanismos que, actuando de manera conjunta, están involucradas en él. Actualmente diversos laboratorios del mundo interesados en este problema practican investigaciones, valiéndose para su estudio de distintas líneas celulares, como: células musculares, epiteliales, nerviosas, germinales, hematopoyéticas, etc.

Aunque hablar sobre las implicaciones que tiene el estudio de la diferenciación celular podría ser tema de otro artículo, solamente quisiéramos mencionar que existen ciertas enfermedades de difícil curación en la actualidad, tales como la anemia aplástica, algunas tipos de cáncer y malformaciones ocurridas durante el desarrollo prenatal, cuyo origen se debe a alteraciones en los mecanismos de diferenciación celular.

 
El estudio de la diferenciación celular puede ser la clave para resolver problemas tan complejos, como el cáncer.
 articulos
 
     
Lecturas Recomendadas
1. Branchet, J. (1975). Introducción a la embriología molecular. H. Blume Edic. Madrid, España.
2. Fischberg. M. y Blackler. A. (1961). Cómo se especializan las células. Sci. Am. (Sept.).
3. Gurdon. J. B. (1968). Núcleos transplantados y diferenciación celular. Sci. Am. (dic.).
4. Wolpert. L. (1978) Partern formation in biological development. Sci. Am. 239 (4).
5. Jacobsen. A. G. (1966). Introductive processes in embryonic development. Science 152:25-34.
6. Felsenfeld. H. and Mehhee. J. (1952). Methylation and gene control. Nature 296:602-603
7. Balinsky. B. I .(1981). An introduction to Embriology. Sanders College Publishing, U.S.A.
8. Goldwasser. E. (1975). Erythropoietin and The differentiation of red blood cells. Fed. Proc. 34: 2285-2292.
9. Alberts. B. et. al. (l983) Molecular Biology of The Cell. Garland Publishing lnc. U. S. A.

     
       
____________________________________________________________
     

HECTOR MAYANI V. Y MA. TERESA PARAS
Departamento de Biología, Facultad de Ciencias, UNAM

como citar este artículo

     
R08Articulos2    menu2

índice 08

siguiente

anterior

PDF

Rafael Martínez Enríquez      
       

 “Contemplarás, pues, cuando del Sol los rayos se insinúan de través
por las piezas tenebrosas; verás que, en el vació, de muchos modos
muchos menudos cuerpos en la lumbre de los rayos se mezclan, y que,
como en eterna lucha, sus combates, sus pugnas publican luchantes
en bandos, y no se dan pausa movidos sin fin en concilios y desuniones
frecuentes; así puedes conjeturar, por esto, que en el magno vació

eternamente los principios giran”.


Hablamos con frecuencia de la ciencia clásica. En ocasiones

el calificativo posee un sentido bien definido. Muy frecuentemente sirve como una estrategia de oposición. Lo clásico, para sus devotos, evoca la idea de lo “anterior", lo anterior a la ruptura, lo anterior aquello que instaura nuestra ciencia. Es lo que precede a la ciencia: el gesto de rechazo a una «pseudo ciencia» antigua, ingenua, perlada de presupuestos, muy cercana al sentido común.

 El término «clásico» posee también otra cualidad: denota un estilo, y por lo tanto una cultura. Al calificar a la ciencia nos la presenta como parte integrante de un conjunto de prácticas económicas, artísticas, filosóficas, teóricas, sociales. Nos ayuda a superar las apariencias de autonomía que le confieren instituciones académicas de su tiempo. Cabe hacer, entonces, una reflexión sobre los estilos científicos y su concatenación, sobre las tensiones y los frutos que nacen de su coexistencia. No basta hacer las tereas del historiador, hay que explorar las distintas regiones que integran la ciencia contemporánea. Este estudio nos permite “medir” que tan joven es lo que llamamos “nuestra ciencia”, qué tan cercana se encuentra aún de las primeras tomas de posición que constituyeron su origen. Visto así, estudiar un estilo científico es proporcionar los medios para reconocer una doble continuidad: la de la ciencia con la cultura —en un sentido amplio— de que forma parte, y la de aquello que se oculta bajo el espectáculo de rupturas y cambios de paradigmas.


Una de las paradojas de la ciencia contemporánea consiste en la doble orientación del saber y de la investigación: por una parte, el avance del conocimiento conduce hacia una especialización cada vez más puntillosa y por tanto más específica, delimitada, limitada; por otra lado, el cuestionamiento —fomentado por la proliferación de ciertos descubrimientos— de los límites de las disciplinas tradicionales del saber orienta la investigación hacía los avatares interdisciplinarios. Especialización, interdisciplinariedad: exigencia técnica de limitación y de delimitación, exigencias epistemológicas de la subversión de los límites; imperativo paradójico en el que la contradicción constituye a la vez la necesidad y la dificultad de la investigación contemporánea. Tensión que desborda los campos de las ciencias de la naturaleza, y que llegando a reducir a las antaño lejanas ciencias humanas, las somete a un discurso nuevo: un discurso que revela lo antiguo en la moderno, lo clásico en lo contemporáneo.

 Pero leamos a Lucrecio, leamos su poema y vayamos al encuentro de su ciencia. Antes, clara está, una pequeña introducción que habla de Lucrecio del pensamiento de Michel Serres, historiador de la ciencia, filosofo y crítico.

En el siglo I a.C., en Roma, tiene lugar la creación del más grande poema filosófico en la historia de la literatura universal. Lucrecio, discípulo de Epicuro, a dos siglos de su muerte, rescata y nos deslumbra con las ideas del maestro en su poema De la naturaleza de las cosas, que traduciría el título de la obra fundamental, hoy perdida, de Epicuro, ΠΦριφνΤωξ. El epicureísmo existía en Roma desde mucho antes de Lucrecio. En 173 a.C. el senado romano expulsa a Alceo y Filinio “por haber introducido costumbres licenciosas”. Su extensión entre las multitudes despierta el desprecio de Cicerón, quien al hablar de Amafinio nos dice… «al editarse sus libros la multitud conmovida se dedicó preferentemente a su estudio, o porque era fácil de conocer o bien porque se le invitaba con los suaves atractivos del placer, o incluso porque, como nada mejor se le daba, tomaban lo que había». También Lucrecio quiere evitar que sus escritos sean rechazados por la mayoría, y por ello elige el verso, para que sea más dulce la aceptación de la doctrina de la naturaleza. Claro que esta mayoría había de estar entre las clases cultas romanas, ya que hace uso de la lengua literaria latina que se reservaba a estas minorías.

 
En griego antiguo “Theoria” significa “contemplación apasionada”. De esta práctica surge la siguiente nota de Leonardo: “Observé los ´movimientos de las hilos de agua… uno atendiendo al peso y otro al trazo de los círculos; así el agua gira en vueltas vertiginosas, ya obedece al ímpetu, ya a los efectos de incidencia y reflexión…”
Códice Hammer

La intención de Lucrecio es la misma que la del epicureísmo griego: eliminar el miedo a la vida de ultratumba y a la actuación caprichosa de los dioses en la vida de los hombres, para así conseguir en ellos la purera del corazón. Colocando a Epicuro frente a Demócrito, hace hincapié en la libertad del hombre.

En una visión cosmogónica que integra lo vivo y lo inerte. encadena al devenir de lo existente mediante las leyes de la natura. Las leyes del hado —la cadena de los hados— quedan suplantadas por las leyes naturales, dando cabida a la declinación, base de la libertad humana, ya criticada por Cicerón, esa columna de hierro que sostenía el ideal de la Roma de los Césares y para quien vivir era someterse a la “necesidad”.

 
¿Por qué en fin, a la luz da paso el cuerno y se la niega al agua? No se forma la luz, acaso, de átomos más finos que los que formas las aguas bellas?

El texto de Lucrecio se podría tomar como una obra arquitectónica. Inicia con las bases estructurales que cimentaron la idea lucreciana del hombre y el cosmos. A continuación procede a erigir el edificio, levantando las columnas físicas y filosóficas que sustentaría lo material y lo humano. Lo que para nuestros propósitos resulta relevante es su física, su matemática y el modelo que ambas configuran. Aparte de ser considerada como una presentación de física atomista, y científicamente absurda, la tradición ha mantenido a su obra sólo en un nivel metafórico, como un poema filosófico. Hoy, por el contrario, podríamos hacer una lectura en que ciertos pasajes del texto representen un verdadero tratado de física, un tratado en que las posiciones científicas, una vez reinterpretadas, podrían ser aún válidas. Ello probaría que la ciencia aplicada no surgió en el Renacimiento, como generalmente se considera, sino en tiempos remotos, los tiempos clásicos. Es un proyecto complejo; sus implicaciones rebasan tanto el “sentido verdadero” de lo dicho por Lucrecio como la “fecha de nacimiento” de la ciencia aplicada. Se trata, en un sentido profundo, de que al leer pensamientos modernos en las doctrinas antiguas encontremos los caminos que unen el mito y la historia, el texto y la real, los objetos y el lenguaje. ¿Cuál es, entonces, la ciencia oculta por las figuras “míticas” y poéticas de Lucrecio?

 
El arte de los acueductos es romano, Roma y su imperio supieron de las corrientes de agua y sus efectos.

El modelo atomista

El universo está compuesto de movimientos de átomos: en sus orígenes es un caos de materia y energía, un desplazamiento de elementos sólidos en un medio fluido. El texto del poema nos remite a dos modelos o hipótesis del caos: I) el del caos que se esparce. Es la catarata de átomos, caída libre hacia el vacío, flujo laminar de elementos paralelos los unos a los otros. II) El caos como nube. Masa desordenada, fluctuante, browniana, de disimilitudes y oposiciones, de intervalos y colisiones sucediéndose al azar.

Sea el caos. ¿Cómo surge del desorden el orden del Universo? La experiencia señala que es raro que los flujos permanezcan paralelos: siempre pasan a ser más o menos turbulentos, más o menos voraginosos. Dicho de otra manera, tanto para Lucrecio como para Demócrito, el vórtice constituye la forma primitiva de construcción de las cosas… y se plantea entonces la pregunta de la física atomista: ¿cómo surge la rotación? ¿Cómo se forman los vórtices?

La respuesta de Lucrecio: sobre un escenario de movimiento caótico, la nube o la catarata, los átomos de materia se reúnen en virtud del clinamen —desviación fortuita que Lucrecio caracteriza con los términos: nec plus quam minimum, “no más que el mínimo”. El clinamen —principio explicativo del universo— es una desviación angular infinitamente pequeña, un diferencial, una fluxión, el ángulo mínimo que induce la formación de un vórtice. El vórtice mismo, forma elemental constitutiva de las cosas, resulta ser un movimiento aleatorio de la materia, posee dirección y es capaz de mantenerse a sí mismo durante un lapso. Es decir, es susceptible de conservar su estabilidad o equilibrio pasajero. Sistema de equilibrio cuya génesis se produce, paradójicamente, mediante la desviación de puntos en equilibrio, por la declinación del clinamen. En la conceptualización atomista las estabilidades son fluidas: la estabilidad sólo es posible en un universo donde todo fluye, donde todo es radicalmente inestable. La energía es una diferencia: fluxión (en el caos-catarata) o fluctuación (para el caos-nube). Sin la desviación nada tendrá lugar: en el origen de las cosas, de la “naturaleza”, aleatoria y sin embargo sistemática, se halla la desviación hacia el equilibrio.

Este modelo de turbulencias toma en cuenta no sólo al espacio material, sino también al tiempo, con lo que resulta ser un modelo espacio-temporal. Aquí y allá, estocásticamente, surge un vértice en tanto que otro desaparece. El sistema lucreciano parece conocer lo que equivale a los dos principios fundamentales de la termodinámica moderna: la entropía, o degradación irreversible de la energía, y la invariancia de fuerzas o de energías. El vórtice obedece a la entropía, condenado a un deterioro irrevocable apoya la irreversibilidad del tiempo, sin embargo, el universo se rige por una isonomía, una permanencia: una declinación anuncia una turbulencia que nace. La invariancia es global. La física presenta un sistema no jerárquico ni deductivo, es un sistema globalmente previsible que tiene en cuenta lo localmente imprevisible: un equilibrio general en un universo estocástico.

Es así como la declinación, tradicionalmente juzgada como algo absurdo, es reinterpretada como “un descubrimiento físico formidable”; al romper la antítesis de reposo y movimiento, permite una síntesis entre estática y dinámica que resulta superior a cualquier otra lograda en la antigüedad.

Arquímedes. La clave matemáticas

Para mostrar el rigor científico del modelo lucreciano hace falta llevar a cabo su matematización. Cierto es que tal hipótesis queda excluida por la historia de la ciencia al considerar que no existió una física matemática griega. Aún así el texto de Lucrecio parece remitirnos a un cálculo diferencial, a la idea de números grandes, a todo un corpus matemático implícito en el modelo. Hace falta encontrar, al igual que hizo Arquímedes, un punto de apoyo —matemático en este caso— para elevar al sistema epicúreo al rango de modelo científico. Este punto de apoyo no será iEureka! otro que Arquímedes mismo. Escritas a un siglo de distancia, sus obras y las de Lucrecio se revelan isomorfas, enlazándose punto a punto. A la descripción fenomenológica del vórtice y de su aparición por una desviación hacia un nuevo equilibrio corresponde, en Arquímedes, una teoría matemática o aritmética de elementos, una geometría de figuras de revolución, una teoría de espirales y de tangentes a las curvas, una mecánica del equilibrio, una hidrostática. Arquímedes definió equilibrio en términos de ángulos de inclinación: “todo surge de la balanza, pero con la condición de que se incline. Los teoremas de la estética generalmente hacen del cero el ángulo de inclinación…”. La mezcla arquimediana de mecánica y geometría, que tanto escandalizó a la historia de la ciencia, surge de un principio metodológico en el cual el punto fundamental es hacer que desaparezca la desviación del sistema de su estado de equilibrio. Geometría de lo infinitesimal y lógico de la separación del equilibrio, Arquímedes, cuando sitúa al equilibrio como un caso particular de proporciones entre ángulos, da con la clave matemática de la física epicúrea.

 
Universalmente todas las cosas desean conservar su estado natural, por ello el flujo del agua busca mantener la potencia.

De la filosofía a la física

La relación Lucrecio-Arquímedes, además de poner en relieve puntos de contacto entre física y matemáticas, sugiere una analogía esencial, por su coherencia lógica y simbólica, entre la fidelidad de la descripción fenoménica y el rigor mismo de la lógica. Si la analogía Lucrecio-Arquímedes es aceptable, podría convertirse en una especie de clave de lo comprensible, una “figura” de lo inteligible que enlaza lo real y lo simbólico, los fenómenos y sus leyes, lo sensible y lo inteligible, la “naturaleza” y el lenguaje. Podría, en tanto que metáfora, convertirse en modelo generalizado de una posible forma de descifrar el mundo. Sería un principio que conjugaría lo material y lo formal.

 
Rayos solares, vórtices, círculos concéntricos, todos ellos imágenes surgidas de observar flujos naturales, se combinaron en el arte de la antigüedad.

Es así como el modelo atomista de la física podría igualmente convertirse en un modelo explicativo de la biología, de la psicología, de la historia, de la filosofía… Citando a Serres, “la biología es una física, o mejor dicho, la genética se pliega a la génesis de lo inerte”. “La metafísica es una física metafórica”… “también la fisiología y la psicología”. No es éste un reduccionismo, no se trata de someter toda disciplina a la física. Es utilizar un paradigma que surgió de la física epicúrea y que puede resultar fecundo en implicaciones metodológicas. Bajo esta óptica Lucrecio hizo que los conceptos de su ciencia no sólo razonaran, Los hizo resonar.

«Del alma… “como los cuerpos, constituida de átomos ígneos, aéreos…, es decir, gobernada por los principios que rigen al calor, y a la fluidez en general, es sede de turbulencias. Arde, se conmueve, pierde el equilibrio. Como el mar, el volcán o el horno, el mismo espacio y la misma materia producen los mismos fenómenos bajo las mismas leyes. El alma, como el mundo, forma una trama complicada. Inestable, como el mundo, se dirige al equilibrio.

La física y la psicología discurren sobre confusos mundos donde nace el desorden.

Yo mismo soy desviación, mi alma declina, mi cuerpo es un todo abierto a la deriva. Soy un vórtice, una disipación que se anula en el devenir.

Soy un vórtice en una naturaleza turbulenta. Mis ondulaciones y las del agua son las mismas… mi apaciguamiento es universal».

Así, el modelo científico resulta, al mismo tiempo, un modelo patético. El vórtice dejado a la deriva, nacido de la desviación del equilibrio, semeja la experiencia misma del pathos de la ciencia. En la lectura que Serres hace de Lucrecio, la ciencia, la poesía y la metáfora, se trenzan en un juego que intenta dar cuenta del cosmos. Pero éste es el cosmos de Lucrecio. Del nuestro ¿qué nos dice? El verdadero valor de esta síntesis radica en su capacidad de alcanzar nuestro modernidad. De ahí que se necesite retomar el texto lucreciano y partir a la búsqueda de nuevos significados.

Todo surge, en efecto, del análisis de un léxico muy preciso: turbo, turba, turbinatio, turbare. Basta entresacar este léxico entre los versos de Lucrecio y mostrar cómo todo fluye paulatinamente. La coherencia del texto es profunda, construida sobre una serie de términos que forman el índice de una ciencia ya constituida: la mecánica de fluidos. En el siglo XVII ya se sabía que la esencia del epicureísmo radicaba en los vórtices y por lo tanto en una mecánica de fluidos. Descartes y Moliere así lo señalaban… pero se había perdido en el olvido. Para reencontrar esta verdad hizo falta rehusarse a ser llevado por la evidencia, por lo más probable: el átomo es un pequeño cuerpo sólido. Y es cierto, el átomo es duro… más no es lo esencial. Si nos limitamos a esos tres elementos: átomo, vacío y declinación, entonces Cicerón tenía razón, y el epicureísmo era pura fantasía. La caída de un cuerpo en una trayectoria oblicua sería un absurdo, el clinamen no tendría sentido. La verdadero sería una mecánica de sólidos, la de la ciencia clásica y positivista, la ciencia que nos modela el orden; la estabilidad de las cosas, que las engendra y qué las mantiene. El orden no es sino el equilibrio, y las metáforas que versan sobre el orden son las de lo sólido: cresta, isla, archipiélago, cristal. Y sin embargo, de esta descripción del orden nada se puede decir sobre su producción, ni de su carácter efímero y raro.

Por el contrario, el saber contemporáneo nace de las ciencias del calor, de la termodinámica. Esta nos dice que el orden es lo improbable y el desorden lo probable, y que el primero tiende al segundo. La isla era una buena metáfora, ya que en el mar la isla es lo sólido y lo raro. El objeto de la ciencia clásica era el orden, y trataba al desorden como algo negativo: lo residual, la privación, lo imprevisible. Las ciencias del fuego sumergen lo raro en la generalidad, lo improbable en lo probable, el orden en el desorden, la isla en el mar. Bajo esta perspectiva el equilibrio es desvalorizado: si resulta ser el estado estable del sistema, también es su muerte, el estado del cual nada volverá a surgir.

 
Para Descartes, el cosmos tuvo su origen en el caos. Dios creó los elementos y les dio dos movimientos: una rotación de cada uno sobre sí mismo y una rotación de conjuntos de ellos alrededor de centros distribuidos en el universo. Los vórtices cartesianos eran muy similares a los de Anaxágoras, quien supone que el Nous había creado los vórtices.

De la naturaleza al caos

Serres “inventa” la física de Lucrecio al quitar al átomo del pedestal que ocupaba. El átomo, por sí mismo, no es el elemento de una física, es sólo el termino de un análisis de la materia. El elemento real de la física lucreciana es el llamado “turbo”. Es éste, y no el átomo, lo que se halla en el origen de la constitución de las cosas. Por la tanto, se debe partir no del átomo, sino de un gran número de átomos: de su existencia en tanto que caos, «flujo», «catarata». Cuando Lucrecio dice que en la naturaleza sólo hay átomos y vacío, lo importante es el plural: los átomos, que separados por el vacío, son el objeto interesante de la física. El reflexionar, como siempre se hace, sobre el átomo duro y pesado, no nos conduce a saber cómo se formaron las cosas; pero todo cambia cuando se hacen consideraciones sobre conjuntos de átomos. Lo que nosotras llamamos desorden, Lucrecio lo llama caos. ¿Cómo se concibe este caos? El modelo del flujo —de la catarata— se comprende a condición de que tomemos en serio las metáforas de Lucrecio: que nos visiten sin cesar las imágenes de cortinas de lluvia iluminadas por el rayo. En Lucrecio las comparaciones proveen las razones. En el Canto I los átomos son como el viento, como los olores y como la humedad, cosas que existen invisibles y que se les conoce únicamente por sus efectos. En el Canto II semejan los polvos turbulentos que uno observa en un rayo de luz solar. Los movimientos y las colisiones visibles se deben a los desplazamientos de átomos, y la comparación se apoya en una identidad de la naturaleza, una identidad que se adecua a la realidad.

 
Dios contempla el cosmos. Conforme las teogonías y las mitologías adquirieron una mayor sofisticación, fue evidente que el Ser Supremo era un creador de orden en el universo.

El modelo no resulta insólito, la mecánica de fluidos permea la obra de Lucrecio y la vida de la Roma antigua. Arquímedes Vitruvio, Frontin. El saber de los acueductos es romano. El léxico de De rerum natura es más líquido que sólido: en el Canto I surge el viento y el agua; los verbos más utilizados hablan de flujos: verter, escurrir, emanar, derramar, fluir. En el Canto II se habla de la marea alta y de la tempestad. En el Canto III el cuerpo es la morada del alma. Todos los cuerpos en el Canto IV son recipientes de donde surgen vapores, olores, colores, simulacros. Canto V: el mundo se disipa, hay diluvios, los cuerpos se disuelven y los flujos se dispersan. Canto VI: los meteoros hacen de este canto el modelo local de los precedentes. En este contexto, el clinamen, lejos de ser absurdo, resulta necesario. El clinamen es el operador de lo que los técnicos en hidráulica reconocen como inevitable en todo fenómeno donde hay flujos: la turbulencia. Esta aparece en lugares y tiempos indeterminados, aleatorios. Así se construye el modelo. En Arquímedes la inclinación ya está matematizada, es el operador que genera espirales. Inclinación, turbulencia, vórtice, todos ellos objetos de la matemática y la mecánica. En Lucrecio, los operadores físicos “simulan” los procesos reales de la constitución del mundo.

Toda cosa es un caos surcado por declives y el mundo entero es un caos colmado de senderos. El mundo es un conjunto de flujos que se propagan y entrelazan. De este telar surge la estabilidad momentánea de las cosas del mundo. Y la misma ley que conduce a la agregación conduce también a la muerte por la vía extremal. Nacimiento, muerte, lo esencial es el turbo, esa especie de espiral sin la cual los objetos, permanecerían aislados, turba. Y el ciclo se ha cerrado una vez más. Queda así manifiesta la sistematicidad del texto de Lucrecio y, por su afinidad por la obra arquimediana, queda asentada la existencia de una física matemática en los tiempos antiguos.

Del nuevo orden

¿Por qué hablar hoy en día de Lucrecio? Porque sólo ahora se le puede comprender, y sólo porque hoy tenemos la capacidad de comprender lo mismo que él había comprendido. No tomemos a Lucrecio como objeta de estudio, sino que al igual que él, tomemos el mismo objeto de estudio. Hablemos del mismo referente. ¿De qué habla la ciencia contemporánea? De las grandes magnitudes, de la aleatorio, de sistemas abiertos, de tiempo reversible/irreversible, de la desviación del equilibrio y de los vórtices; habla del orden que surge del desorden… del nacimiento de una señal desde un océano de ruido de fondo. Nuestro problema actual es el surgimiento milagroso del orden a partir del desorden… Y este es el mismo problema de Lucrecio, expresado en los mismos términos: inmenso número de átomos, desorden irreversible, desviación del equilibrio. En ambas situaciones la solución es la misma: la desviación, el vórtice, el orden momentáneo, el tiempo localmente reversible.

El camino ha sido recorrido una y otra vez: para describir un sistema se esboza un “montaje” posible y se rastrea su funcionamiento. Hablamos entonces de la estructura y de las fuerzas que en ella convergen, se distribuyen o nacen. Una topología y una energética bastan para la descripción. Así se establece la comunicación, las interferencias, la distribución y la posible “traducción”. Este lenguaje es común a varios de los discursos que encierran el saber humano de cada época y cultura. Cara a cara se nos presentan varios “escenarios”; el de la degradación, el de la reversibilidad, el de la negentropía. Su ubicuidad es manifiesta y sólo resta el develar las modalidades que adoptan. Su trama integra o por lo menos penetra nuestro cuerpo, nuestros signos, la historia, el trabajo, nuestras sociedades.

La ciencia moderna tuvo un encuentro con lo clásico. Si aceptamos la visión de Serres, de este rendez-vous surge un nuevo paradigma sobre el saber interdisciplinario. Un modelo de analogías entre las obras de Lucrecio y Arquímedes da cabida a una teoría de modelaje analógico entre diversas disciplinas. Sus ventajas son transparentes: leyes, léxicos, modelos y resultados, todos ellos serán trasladados libremente a través de distintos campos del saber, aportando nuevas concepciones y nuevas imbricaciones entre los objetos de estudio propios de cada disciplina.

El trabajo futuro de esta nueva filosofía ha sida iniciado. Como era de esperarse, su estado aún en la maraña, el caos. De pensadores como Barthes, Foucault, Serres, nace una “desviación”, un nuevo clinamen.

…has dicho algo muy bello. El orden que imagina nuestra mente es como una red, o una escalera, que se construye para llegar hasta algo. Pero después hay que arrojar la escalera, porque se descubre que, aunque haya servido carecía de sentido…
de El nombre de la Rosa.
Umberto Eco.

 
articulos
 
 ____________________________________________________________      
Rafael Martínez Enríquez
Departamento de Matemáticas,
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
       

como citar este artículo

     
R08Articulo1   menu2

índice 08

siguiente

PDF

   
   
Lourdes Esteva Peralta      
               
               
Modelos matemáticos simples, que pueden ser representados mediante
ecuaciones deterministas, tienen comportamiento caótico. ¿Podrá su estudio ayudarnos a entender fenómenos tan complejos como las turbulencias?


En el acontecer cotidiano estamos siempre en contacto con

los tres estados de la materia: sólido, líquido y gaseoso. Las dos últimas pueden presentarse en forma regular o turbulenta; así por ejemplo, debido a la velocidad alcanzada por el agua al transcurrir por los accidentes topográficos de su cauce, un río puede fluir en calma a presentar remolinos y abrupto despeñamiento de su masa líquida.

La turbulencia en un fluido está caracterizada por su movimiento irregular y desordenado, manifestándose por cambios rápidos, en apariencia incoherentes y difíciles si no es que imposibles de preveer. Estas propiedades se encuentran en la atmósfera terrestre, en muchos sistemas hidráulicos e incluso en algunas instalaciones industriales tales como los circuitos para enfriamiento de las centrales nucleares.

Comprender la turbulencia, poder predecir su aparición y calcular sus efectos son problemas que se presentan en hidrodinámica, aeronáutica, meteorología, oceanografía, astrofísica, química, etc. Podemos decir que la turbulencia es uno de los problemas cruciales de la física actual y el interés que ha despertado no es nuevo porque desde hace muchos siglos los científicos vienen investigándola; por ejemplo, Leonardo da Vinci estudió el movimiento turbulento de las aguas de un río (fig. 1) debido a que quería construir un canal que comunicara a la ciudad de Florencia con el mar.

 
 Figura 1.

Como dijimos en párrafos anteriores, la turbulencia es el movimiento desorganizado y aparentemente errático de un fluido. Esto no es una definición precisa pero se puede tomar como una primera aproximación. En los flujos turbulentos las medidas de las cantidades que describen éstos (por ejemplo, la velocidad) presentan un comportamiento caótico. ¿Qué se quiere decir con caótico?: que estas medidas no presentan en apariencia un patrón determinístico, sino que dan la impresión de ser totalmente aleatorios. Sin embargo, se ha observado que debajo de ese caos hay cierta regularidad susceptible de ser analizada, muestra de ello son los grandes remolinos que contienen a su vez remolinos más pequeños, etc...

Un camino que podemos seguir para entender el problema de la turbulencia es estudiar la manera en que ésta aparece. ¿Cómo es que la atmósfera, el océano, y algunos sistemas hidrodinámicos van perdiendo progresivamente su carácter organizado y regular y se vuelven turbulentos?

Veamos los siguientes ejemplos:

Si colocamos un cuerpo en la corriente de un fluido, por ejemplo, la columna de un puente en un río, entonces para velocidades muy bajas, el fluido discurre de manera irregular e independiente del tiempo como se muestra en la figura 2a; en este caso se dice que es un flujo laminar. A medida que aumenta la velocidad se empiezan a formar remolinos, no obstante, el movimiento sigue siendo regular e independiente del tiempo (fig. 2 b).

Cuando la velocidad se incrementa aun más, los remolinos empiezan a desplazarse con la corriente y el movimiento del fluido se vuelve dependiente del tiempo. Si medimos la velocidad de un punto que se mueve con la corriente a partir del puente, se observa un registro periódica como se muestra en la fig. 2c.

Existe un parámetro, llamado el número de Reynolds, que caracteriza los cambios en el comportamiento de la corriente y es proporcional al producto de la velocidad por la densidad del fluido. A este parámetro se le suele denotar por R. Cuando esta R aumenta a un cierto valor, se empiezan a formar remolinos más pequeños dentro de los remolinos grandes. El registro de la velocidad con respecto al tiempo es parcialmente periódico e irregular (fig. 2d). Aumentamos más R hasta llegar a un valor crítico donde el movimiento del fluido presenta un aspecto totalmente caótico, similar al de la fig. 2, entonces el registro de la velocidad se vuelve caótico también como se muestra en la fig. 2e.

 
Figura 2. Comportamiento de un flujo hidrodinámico a medida que aumentamos la velocidad.

Libchaer y Maurer (1980) realizaron un experimento en el que también observa el paso de la turbulencia: un fluido contenido en un recipiente se calienta desde la parte inferior de éste, cuando la temperatura es baja el fluido permanece estático, a temperaturas más altas se empieza a observar un flujo de líquido caliente hacia arriba y de líquido frío hacia abajo, dando lugar a la formación de dos cilindros convectivos (fig. 3). El registro de la temperatura en un punto sobre uno de estos cilindros es periódica (fig. 4a). A una cierta temperatura, los cilindros se tornan irregulares por existir una onda de fluido que se desplaza sobre ellas. El registro de la temperatura sigue siendo periódico con lapsos el doble del anterior. Subsecuentes aumentos en la temperatura producen la formación de nuevas ondas superpuestas a las anteriores y duplicación del periodo del registro de la temperatura.

   
Figura 3.   Figura 4. Registro de la temperatura contra el tiempo en el experimento de Libchaer y Maurer.

Como en el caso anterior, existe un valor crítico de la temperatura a partir del cual el movimiento del fluido es caótico y el registro de la temperatura presenta un aspecto similar al de la fig. 2e.

Estos das ejemplos muestran que al ir variando un parámetro, en el primero, el número de Reynolds y en el segundo la temperatura, se presenta una transición entre la fase laminar y la fase turbulenta.

Nos gustaría entender completamente la transición a la turbulencia en los sistemas hidrodinámicos. Desafortunadamente, a pesar de muchos años de estudio, aún no se ha encontrado una explicación satisfactoria al problema. Entre los científicos que han contribuido al estudio de este fenómeno, está Salzman, quien obtuvo un sistema de ecuaciones en derivadas parciales bastante complicado para describir el movimiento del fluido en el segundo ejemplo. Más tarde, Lorenz reduce el sistema anterior a uno de ecuaciones diferenciales ordinarios más simple:

Entra ecuación 01

En estas ecuaciones x es proporcional a la intensidad del movimiento convectivo, mientras que y es proporcional a la diferencia de temperatura entre el fluido ascendente y el descendente; la variable z es proporcional a la distorsión de la temperatura vertical; b, σ y r son parámetros.

Lorenz fijó los dos primeros parámetros e integró numéricamente las ecuaciones para diversos valores de r y obtuvo que a medida que aumentaba r el comportamiento de las trayectorias solución del sistema, cambiaba de una manera drástica: para valores pequeños de r las soluciones tienden a estabilizarse en un valor, a medida que r aumenta este comportamiento se complica a tal punto que existen soluciones que se "enrollan" alternadamente entre dos puntos fijos A y B, de tal suerte, que el número de vueltas que dan cada vez alrededor de cada punto es completamente arbitrario, dando la impresión de ser éste un proceso de carácter aleatorio (fig. 5). Las soluciones se van acercando a un conjunto, el cual se ve como superposición de laminillas horizontales (fig. 6). A este conjunto se le conoce como atractor extraño.

 
Figura 5.

Además se observa lo siguiente: aún empezando en condiciones iniciales infinitésimamente cercanas, la evolución de dos trayectorias solución es totalmente diferente. A esto se le conoce como sensibilidad con respecto a condiciones iniciales y es una característica del movimiento caótico. Entonces, si el valor del parámetro es tal que estamos en un régimen caótico, resulta imposible hacer predicciones a largo plazo, ya que cualquier error en las mediciones iniciales nos llevaría a errores cada vez mayores. Lorenz dedujo de lo anterior que las predicciones climatológicas a largo plazo son imposibles de hacer.

 

Figura 6.

La transición al caos no es privativo de los sistemas hidrodinámicos, muchos modelos matemáticos en apariencia sencillos presentan también este fenómeno:

Supongamos, por ejemplo, que estamos interesados en el crecimiento de una población de individuos que se desarrollan en un medio limitado y que tienen una estación de reproducción fija. Podemos imaginar una población de insectos que nacen durante la primavera y ponen huevos que eclosionan hasta la siguiente primavera; así cada año se tiene una nueva generación. Los datos que se observan consisten en general de información acerca del promedio de la población total de esta generación. Podemos suponer que el número de individuos Nt+i está relacionado con el numero de individuos Nt, de la generación t vía la siguiente ecuación:

Nt+1 = γNt – KN2t

El primer termino γNt se debe al crecimiento natural de la población; el segundo término KN2t representa una reducción natural de la población debido a la sobrepoblación. Si hacemos la sustitución de Nt por (r / K)Nt obtenemos la ecuación en forma normalizada:

Nt = 1 = γ Nt(1 – Nt)    (1)

donde γ representa la razón intrínseca de crecimiento. Nos gustaría saber, basados en la ecuación (1), la evolución de una población inicial N0, y cómo esta evolución se ve afectada cuando cambiamos γ. Para mantener a la población entre 0 y 1 nos limitaremos a examinar los valores de γ entre 0 y 4. La gráfica de Nt contra Nt+1 es una parábola (fig. 7).

 
Figura 7.

Para valores de γ menores que 1 la gráfica está por debajo de la recta y = x lo cual quiere decir que el número de individuos de la generación t + 1 es menor que el número de la generación t y por lo tanto cualquier población inicial tiende a disminuir año con año hasta extinguirse. La gráfica de la población, contra el tiempo tiene un aspecto como el de la fig. 8a Este comportamiento equivaldría al del flujo laminar de la fig. 2ª. La región de γ entre 1 y 3 tiene otro tipo de comportamiento también simple. Si empezamos con una población inicial N0 entre 0 y 1 ésta tenderá a un valor N* estacionario distinto de 0, el cual lo podemos encontrar resolviendo la ecuación

N = γ N (1 – N)    (2)

cuyas soluciones son N = 0 y N = 1 – 1/γ

 
Figura 8.

Las soluciones de la ecuación (2), llamadas puntos fijos o puntos de equilibrio se les puede encontrar también gráficamente viendo la intersección de la gráfica con la recta y = x como se muestra en la fig. 9.

 
Figura 9. 

Entonces para la región en la cual γ esta por debajo de 3, el comportamiento de la población es regular y fácil de comprender, el caos está lejos de aparecer (fig. 8a).

¿Que pasa cuando incrementamos γ más allá de 3?

El punto fijo N* se vuelve inestable, las poblaciones cercanas a él se alejan y empiezan a oscilar entre un valor grande N*1 y otro pequeño N*2 (fig. 8b). Una población pequeña se reproduce mucho dejando un gran numero de huevos. Pero la población al siguiente año es tan grande que, debido a los efectos de la sobrepoblación, pone menos huevos y la siguiente generación vuelve a ser menos numerosa. Así, las poblaciones en los años pares se dan grandes y en los años impares pequeñas.

A los valores N*1 y N*2 se les llama puntos periódicos de periodo 2, esto es, que si empezamos, por ejemplo, con N*1, después de dos generaciones consecutivas regresamos otra vez a N*1. En general un punto periódico de orden n es aquel que después de n iteraciones de la ecuación (1) vuelve a caer en él mismo, esto es Nt+n = Nt y n es el mínimo número para el cual pasa esto. La población sigue oscilando entre dos valores hasta el valor γ1 = 1 + √6 = 3.4496, a partir de este valor N*1 y N*2 se vuelven inestables, y aparecen 4 puntos N*1, N*2, N*3 y N*4 de periodo 4 y las poblaciones después de un tiempo oscilan alternadamente entre ellos (fig. 8c). Este comportamiento perdura hasta un valor γ2, entonces el ciclo de orden 4 se vuelve a su vez inestable y aparece uno de orden 8 que permanece estable hasta un valor γ3, a partir del cual aparece uno de orden 16 estable y así sucesivamente hay una cascada de doblamientos del periodo que nos recuerda un poco el proceso de doblamiento del periodo de la temperatura del ejemplo 2.

En la figura 10 se muestran los valores estables de la población en función del parámetro γ y los dobleces consecutivos del periodo.

Este comportamiento continua así hasta el valor γb = 3.5699 en donde aparece un ciclo de longitud infinita y todos los puntos tienden a este ciclo. Si seguimos una población inicial por mucho tiempo, esta tiende a distribuirse de una manera regular en una infinidad de bandas de longitud infinitamente pequeña cada una.

A partir de γb empiezan a aparecer puntos periódicos de orden impar hasta que para el valor γc = 3.8284 aparece el primer punto de periodo 3 y esto significa la aparición del caos como demostraron Li y Yorke en el trabajo que lleva el título “Periodo 3 implica caos”. A partir de este valor hay ciclos de todos los periodos; hay un número infinito de poblaciones iniciales cuyas trayectorias son totalmente aperiódicas, esto es, si seguimos una de estas trayectorias por mucho tiempo el patrón nunca se repite y los datos dan la impresión de ser obtenidos por medio de un proceso aleatorio.

En la figura 8c se muestra la trayectoria del punto inicial N0 = 0.707. Aparentemente la población fluctúa y toma todos los valores entre 0 y 1 y aunque Nn está determinada por N0, para n grande, el patrón que rige esta determinación se ve caótico más que determinístico. También como en el caso de las ecuaciones de Lorenz, se observa el fenómeno que caracteriza el caos: gran sensibilidad con respecto a condiciones iniciales. Para m grande, Nm depende fuertemente de la condición inicial N0, en el sentido de que otra condición inicial N0 por muy cercana que se encuentre a N0, da lugar a otra trayectoria totalmente distinta. Para entender mejor lo que se quiere decir veamos el caso γ = 4. Haciendo el cambio de variable (que sólo vale para γ = 4) Nm = (1 – cos 2θm)/2 la ec. (1) se convierte en

Entra ecuación 02

cuyas soluciones son θm + 1 = 2θm ó θm = 2mθ0

Como cos 2θm no se altera si aumentamos un entero a θm o si le cambiamos el signo, podemos considerar los valores de θm entre 0 y 1, esto es, nos olvidamos de la parte entera de θm.

Si escribimos θ0 en base binaria, por ejemplo,

Entra ecuación 03

la multiplicación por 2 es simplemente un recorrimiento del punto decimal hacia la derecha.

Entonces

Entra fórmula 04

 
Figura 10. Valores estables de la población en función al parámetro γ.

Entonces, si empezamos con θ0, θm dependerá de las cifras decimales a partir del m-ésimo lugar, lo cual implica que aún cuando θ0 y θ′0 difieran por muy poco, la diferencia entre θmθ′m va a ir aumentando cada vez más. Esto nos da una idea de la sensibilidad con respecto a las condiciones iniciales.

El hecho de que una ecuación simple y determinística como la ecuación (1) tenga un comportamiento caótico tiene varias implicaciones prácticas. Significa, por ejemplo, que las fluctuaciones aparentemente erráticas en los datos acerca de una población, no tienen porque ser debidas a errores de muestreo, ni tampoco a que el crecimiento de la población sea un proceso aleatorio que no pueda ser modelado determinísticamente, sino que este comportamiento puede derivarse de un modelo como la ecuación (1) y simplemente lo que ocurre es que ésta presenta un comportamiento caótico.

Toda lo anterior no es privativo de la ecuación (1) solamente, sino que el proceso de doblamiento del periodo y transición al caos se observa en cualquier función de la forma

Xj + 1 = γ f(xj)    (3)

donde f(0) = f(1) = 0 y f tiene un solo máximo en el intervalo 0 a 1.

El estudio de las funciones de un intervalo [a, b] en el mismo, ha cobrado gran interés en los últimos años y se han obtenido resultados realmente sorprendentes como el Teorema de Sharkoskii:

Sea f una función continua de un intervalo [a, b] en el mismo intervalo. Ordenemos los naturales del modo siguiente:

3 <5 <7 … <2.3 <2.5 <2.7 < … <22.3 <22.5 <22.7 <… <
2n.3 < 2n.5 <2n.7 < … 2m <2m–1 <2m–2 < … <22 <2 <1

Si existe un punto periódico de periodo m y m < n, entonces existe un punto periódica de periodo n.

O también las resultados de Mitchel Feigenbaum, quien demostró que algunas propiedades cuantitativas de la manera en que se da la transición al caos se observa en una gran cantidad de sistemas no lineales, en particular para las funciones continuas de un intervalo a él mismo.

El descubrimiento de Feigenbaum consiste de las siguientes observaciones de tipo cuantitativo:

1. Sea γi el valor del parámetro para el cual aparece por vez primera un ciclo de periodo 2i. Denotemos por Δi = γi + 1 – γi, entonces Δi / Δi + 1 → = 4.692… cuando i se hace muy grande. Lo sorprendente es que δ es universal, esto es, no depende de la función en particular que se tome (fig. 11a).

   
Figura 11a. La convergencia de los parámetros es universal, esto es, Δi / Δi + 1 → δ = 4.6692… Figura 11b. La escala relativa de las ramificaciones es universal, esto es, ∈i / ∈i + 1 → α = 2.5029.

2. Si denotamos por ∈i la distancia entre dos puntos vecinos de un ciclo de orden 2i (fig. 11b) entonces ∈i / ∈i + 1 → α donde α = 2.5029 para i grande, donde otra vez, α es independiente de la función.

Las características del caos, movimientos erráticos y gran sensibilidad con respecto a condiciones iniciales se han observado en ecuaciones de segundo orden no lineales con forzamiento, que son utilizadas para modelar circuitos eléctricos no lineales; en funciones de varias variables, como por ejemplo, la famosa “herradura” de Smale (fig. 12); en sistemas de ecuaciones no lineales de orden mayor de 2. En general el caos es algo que está presente en gran cantidad de sistemas dinámicos que modelan fenómenos físicos, químicos, biológicos y otros.

 
Figura 12. Herradura de Smale. El rectángulo ABCD se estira, se angosta, se dobla y se vuelve a poner encima de él como se muestra en la figura. Así A va a dar a A′, B a B′, etc … Sea f la función de R2 a R2 que lleva a cabo las transformaciones del párrafo anterior, entonces se puede demostrar que f tiene una infinidad de puntos periódicos (un punto p es periódico de orden n si fn (p) = p donde fn donde f significa iterar la función f n veces.

Debido a esto existe cada vez más interés sobre este tema y aunque se han hecho muchos avances para configurar una teoría al respecto, quedan aún muchas preguntas entre las cuales destacan aquellas que se refieren a la manera en que se origina el caos cuando se varía uno o más parámetros. Esto pertenece a la Teoría de Bifurcaciones que estudia los cambios cualitativos de un sistema dinámico cuando se varia uno o varios parámetros.

articulos
 
       
Referencias bibliográficas
1. Lesieser, M. La turbulence développée. La Recherche 139.
2. Seminario Ex-Mor. Entropía, ergodicidad y medidas invariantes. Comunicaciones Internas, Departamento de Matemáticas.
3. Pedrag Critanovic-Nordita. Universality In Chaos. 83/139.
4. Hirsch-Smale. Differential Equations, Dynamical Systems and Linear Algebra. Ed. Academic Press.
5. R. May. Simple malhematical models with very complicated dynamics. Nature 26:1. June 10, 1976.
     
 ____________________________________________________________      
Lourdes Esteva P.
Departamento de Matemáticas,
Facultad de Ciencias, Universidad Nacional Autónoma de México.

     

como citar este artículo

     
Você está aqui: Inicio Blog (2) revistas revista ciencias 8