La interdisciplina desde la teoría de los sistemas complejos |
|
|
Elke Köppen, Ricardo Mansilla y Pedro Miramontes
conoce más del autor
|
||
HTML↓ | ||
|
||
Para los jóvenes de hoy es difícil concebir un mundo sin computadoras; los procesadores de texto, los controladores de la inyección de carburante en los automóviles y la web parecen haber estado siempre aquí. Cuesta trabajo creer que hubo una época en la que no había correo electrónico o chats. La generación que presenció la migración de las computadoras de los laboratorios a las universidades y los hogares es testigo de como éstas se fueron transformando de enormes cajas que ocupaban salas enteras, con aire acondicionado y control de humedad, a las laptops o pdas que cualquier yuppie o ejecutivo lleva consigo hoy día, y que multiplican por varios factores de magnitud la capacidad de cómputo de sus ancestros. Indudablemente, la reducción del tamaño de las computadoras es posible gracias a los avances tecnológicos y a la propiedad esencial de que la capacidad de cómputo no depende de los materiales de los que está hecha la computadora.
En los años cuarentas del siglo pasado, el modelo 13 de la univac estaba construido principalmente con elementos electromecánicos como relevadores y bulbos; luego, se prescindió de las partes mecánicas y se utilizaron únicamente dispositivos eléctricos. En la siguiente generación de computadoras, en los años sesentas, los procesadores se fabricaron con compuestos de estado sólido —transistores— como base material, lo que redujo drásticamente el tamaño; hoy, las computadoras comerciales se construyen con chips de silicio. Las sorpresas —o maravillas— del futuro están más cerca de lo que pensamos; ya se ha planteado la posibilidad de hacer procesadores moleculares, basados en las propiedades de complementariedad del adn, los cuales tendrían una capacidad de cómputo en paralelo tan masiva que, en principio, sería capaz de resolver problemas combinatorios cuya solución pertenece hoy al mundo de las ilusiones. Pero las posibilidades de transformar lo imaginario en realidad no conoce límites, en un futuro lejano —pero no tanto como para que los jóvenes de ahora no tengan esperanza de atestiguarlo— habrá computadoras cuánticas cuya base será la naturaleza discreta de los estados posibles de la materia a nivel ultramicroscópico. Lo anterior merece una reflexión más profunda; si la propiedad de cómputo no depende de la naturaleza material de los dispositivos que la sustentan, entonces ¿de qué depende? Entendemos dicha propiedad como la capacidad de implementar y llevar a cabo las instrucciones de cualquier algoritmo finito —un algoritmo es una serie de instrucciones que nos dice cómo se deben de ejecutar operaciones aritméticas y lógicas secuencialmente. Toda información, en particular los algoritmos y los datos que procesarán, se puede representar en forma de cadenas binarias. En un sistema binario los números se representan como una sucesión de ceros y unos, de la misma manera que en nuestro sistema numérico decimal se usan diez dígitos. Cualquier dispositivo que pueda alternar entre dos estados —prendido-apagado, falso-verdadero, etcétera— permite hacer operaciones entre números binarios. Todo esto hace que el dígito binario —bit— sea la unidad básica de almacenamiento y transmisión de información en una computadora. En 1847, George Boole desarrolló en Inglaterra el formalismo matemático, el álgebra booleana, el cual sustenta el diseño de aparatos que reciben información como cadenas de ceros y unos, la procesan y la devuelven también como cadenas binarias. Por esto, en principio, cualquier conjunto de dispositivos que puedan conmutar entre dos estados —como los bulbos, los transistores de estado sólido, las biomoléculas y los espines de los electrones— tendrá la capacidad de cómputo. Entonces, ¿a qué área de la ciencia pertenece la computación? La respuesta es tan categórica como ambigua: a todas y ninguna. La primera computadora reconocida como tal data de 1834, la Máquina analítica del ingeniero mecánico Charles Babbage. Casi un siglo después, los ingenieros eléctricos diseñaron computadoras, como la eniac de 1943, de arquitectura totalmente electromecánica y cuya primera tarea fue hacer los cálculos para fabricar la bomba de hidrógeno. Después, se pasó a la ingeniería electrónica y, como hemos apuntado, llegará el día en que veamos ingenieros biomoleculares e ingenieros cuánticos que nos maravillarán con computadoras cada vez más pequeñas y veloces. Si hacemos a un lado los detalles de los fierros —hardware— y atendemos sólo al control y funcionamiento de las computadoras, entonces la ciencia de la computación, por derecho propio, es distinta de las tradicionales. Ha surgido una disciplina que se brinca las trancas de las demás, tiene su propia dinámica y la articula a través de un lenguaje común con las otras, la matemática. Tan es así que, en la década de los treintas, el eminente matemático inglés Alan Turing sentó las bases de la computación moderna de manera totalmente independiente de la naturaleza material de los dispositivos. En resumidas cuentas, para hacer computadoras puede que sea necesario ser ingeniero, pero para hacer computación es indispensable recurrir a la matemática, ese lenguaje universal y abstracto que el intelecto humano ha desarrollado. ¿Es esto un ejemplo de interdisciplina?, gente con diversas formaciones trabajando en un mismo problema ¿es un caso de práctica interdisciplinaria?, ¿tiene la interdisciplina un lenguaje propio diferente de las disciplinas que entran en juego? Para estar en condiciones de responder estas preguntas es necesario un viaje por la historia y otro en torno al debate contemporáneo acerca de la interdisciplina. Las disciplinas Después de casi mil años de oscurantismo en los cuales, generación tras generación, la mayoría de los habitantes del mundo que hoy llamamos occidental vivían para rendir vasallaje y pagar impuestos a sus señores locales y diezmos y primicias a los representantes terrenales de un dios vengativo y violento que todo lo ve desde los cielos, en la Europa del siglo xviii, el Siglo de las Luces, el Renacimiento tiende un puente entre la Antigüedad clásica y la edad de la razón. Hasta entonces, las supersticiones habían hallado en la ignorancia su mejor caldo de cultivo, propiciando que el poder político, anclado y confundido con el de las jerarquías religiosas, avasallara a los individuos y los sometiera a los peores excesos, sobre la base del miedo generalizado a lo sobrenatural. Mediante la violencia y el crimen cotidiano, el aparato de poder había creado un estado de terror para someter a la gente. La exaltación de la razón por encima de los dogmas en el siglo xvii y su implacable ejercicio crítico fueron un fermento subversivo cuya acción desencadenó una revolución de las conciencias y produjo el racionalismo como doctrina filosófica y como actitud ante la vida. En Francia, Denis Diderot y Jean le Rond d’Alembert encabezaron el proyecto intelectual más ambicioso de cuantos se habían concebido, La Enciclopedia. Diecisiete tomos —en su primera edición— que recogen todo el saber y las ideas de la época. En la monumental obra se hace una clasificación exhaustiva de las artes, las ciencias y los oficios. A partir de ese momento quedan establecidas las fronteras entre distintos aspectos del conocimiento y es posible hablar de disciplina con la connotación moderna, como sinónimo de campo o área de trabajo. Con el tiempo, esta noción se ha transformado y evolucionado de tal forma que en nuestros días conlleva un factor institucional, de gremios académicos —cuando no de mafias—, de intereses y de poder. Hoy, las disciplinas forman un conjunto abigarrado de ciencias y campos de conocimiento y, en torno a cada una, se aglutinan grupos de profesionales que se identifican corporativamente con ellas. No obstante, las fronteras disciplinarias son borrosas. Por ejemplo, la pregunta acerca de qué son, con precisión, la biología y la sociología, no tiene respuesta. Si tomamos al azar un ejemplar de la prestigiosa revista Science, encontraremos artículos de biología estructural computacional, de ecología del bentos marino, de evolución molecular y de biofísica de membranas celulares. ¿Se puede hablar de la existencia de la biología cuando ningún especialista en cada uno de estos temas puede discutir los últimos avances de su campo con los colegas de los otros? En una ocasión, uno de nosotros tenía urgencia de saber cuáles de los nucleótidos son purinas y cuáles pirimidinas, le preguntó al primer biólogo que encontró —que resultó ser un ecólogo de vegetación tropical— quien con gran honestidad respondió que no tenía idea de que son las purinas y las pirimidinas. Otro ejemplo, los matemáticos especialistas en teoría de sistemas dinámicos forman un grupo aparte de los que trabajan teoría de representaciones de grupos y los físicos cosmólogos no se entienden con los acústicos. El fenómeno de la especialización excesiva y la fragmentación del conocimiento parece haber convertido la intención interdisciplinaria en la búsqueda utópica o nostálgica de la unidad de las ciencias. Para muchos científicos, la ciencia interdisciplinaria es, si acaso, una metáfora. Por su parte, los funcionarios académico-administrativos usan intensamente el término, pero su propósito es mucho menos altruista, lo incorporan al discurso de reforzamiento del poder y del reparto de prebendas entre grupos influyentes de administradores de la ciencia o para reducir presupuestos con el argumento de la falta de recursos. La discusión acerca de la interdisciplina tuvo su auge en los años setentas del siglo xx y se refleja en la vasta literatura publicada después de esta fecha. En 1970, la Organización para la Cooperación y el Desarrollo Económico (ocde) convocó a un gran seminario sobre el tema y pronto muchas universidades crearon áreas o centros de estudios interdisciplinarios por excelencia, como los estudios de género, los ambientales y los regionales. Aunque han pasado tres décadas, la búsqueda de una definición única, aceptable para todos, que incluya todas las formas en que se practica, sus motivos y propósitos, y que sirva para delimitar claramente entre lo que es y lo que no es interdisciplinariedad ha resultado infructuosa. Podemos partir de una certeza, la interdisciplina no existe sin las disciplinas y tampoco se puede prescindir de los especialistas. Es más, el desarrollo de las ciencias ha estado marcado por un continuo proceso de diferenciación e integración que genera cambios constantes. Muchos campos interdisciplinarios constituyen formas de especialización que poseen el potencial de, eventualmente, convertirse en nuevas disciplinas. Asimismo, la interacción de varias disciplinas, característica común en la mayoría de las definiciones de interdisciplina, puede presentar toda una gama de posibilidades cuyos casos extremos son la multidisciplina y la transdisciplina. Si algún hipotético presidente de la República Mexicana decidiera resolver los problemas del estado de Chiapas, entonces mandaría diseñar un proyecto que contemplara mejorar los caminos, la agricultura, la educación, los servicios de salud, etcétera. Para ello se ocuparían ingenieros, médicos, agrónomos y pedagogos —o militares, para no perder el control. El proyecto global es multidisciplinario en su conjunto porque involucra la participación de trabajadores de muchas disciplinas distintas, pero cada campo mantiene su método, lenguaje y perspectivas. La multidisciplina representa una yuxtaposición de disciplinas que es meramente aditiva y no conlleva la integración ni el enriquecimiento mutuo. En cambio, en la interdisciplina la colaboración traspasa las fronteras disciplinarias y, aunque los especialistas participantes mantienen la identidad de sus ramas, existe la disposición de estudiar lo necesario de las otras con el propósito de sentar las bases para una comprensión mutua. Un médico aprende el sentido de modelar con ecuaciones diferenciales y un matemático entiende cómo se propaga una epidemia, el resultado —la epidemiología matemática— trasciende tanto la medicina como la teoría de ecuaciones diferenciales. Surgen interrogantes nuevas que no se les ocurrían a los investigadores por separado, y se crean o redefinen viejos conceptos como complejidad, caos o frustración, hasta eventualmente llegar a la creación de nuevas especialidades institucionalizadas. La interdiciplina puede considerarse como el resultado de un proceso de sinergía que requiere el concurso de las partes y propicia la emergencia de cosas nuevas. Así como en la multidisciplina los campos del saber marchan en conjunto pero sin revolverse y en la interdisciplina la colaboración permite saltar los muros que separan las disciplinas, en la transdisciplina, como su nombre lo indica, las metas son mucho más ambiciosas: la desaparición de las fronteras. Por ahora, esta propuesta es la más progresista y la más cercana de aquella unidad perdida o nunca alcanzada de las ciencias. La transdisciplina penetra el sistema entero de la ciencia y, al eliminar la fragmentación arbitraria, lleva a la búsqueda ya no de leyes particulares de la física, la biología o la sociedad, sino de leyes de la naturaleza (cuadro 1). La transdisciplina suena bien, pero en la práctica no funciona. Nadie sabe cómo hacer para que las barreras entre las disciplinas desaparezcan. Hay una extensa bibliografía de pensadores que han trabajado mucho esta propuesta pero, como suele suceder cuando los conceptos no son claros, la forma del lenguaje domina al fondo del asunto. Se elaboran complicados discursos acerca de la necesidad de un metalenguaje, una especie de esperanto intelectual, que borre las fronteras y que permita una especie de libre comercio entre las disciplinas. Lindo ¿no? Pero a un médico no le vamos a hablar de metafísica si queremos salir vivos del quirófano. El problema es que aun la gente que cotidianamente trabaja de manera interdisciplinaria, y que sería la indicada para hacer propuestas constructivas, le da pereza fundamentarla conceptual y epistemológicamente. Una cosa es ser interdisciplinario en la práctica y otra ponerse a teorizar sobre esta actividad. La asociación de interdisciplina y complejidad Frecuentemente, los términos de interdisciplina y complejidad están asociados. Pero si el primero se presta a confusión, peor sucede con lo complejo, que es una de las palabras cuyo significado en la ciencia difiere de su uso habitual en el lenguaje cotidiano —otros ejemplos serían gravedad y caos. Complejo no es sinónimo de complicado y, por lo mismo, complejidad no lo es de complicación o de dificultad. Por complejidad entendemos un estado peculiar de organización de la materia cercano a la transición orden-desorden. Cuando se habla del par dialéctico simplicidad-complejidad se debe entender que ello ocurre porque la complejidad se encuentra en algún lugar entre dos simplicidades; por ejemplo, entre el orden cristalino y el desorden azaroso. En las discusiones acerca de la complejidad, también es frecuente un uso extremadamente libre y erróneo de otros términos asociados. Tal es el caso de caos. La identificación del caos con el azar, lo aleatorio o el desorden, es incorrecta y anula su riqueza conceptual y dinámica. Justamente, en la teoría de los sistemas complejos, la existencia de un comportamiento a la vez determinista y globalmente impredecible es uno de los aspectos más asombrosos y característicos. Un sistema complejo consta de componentes individuales que interactúan y, como producto de ello, pueden modificar sus estados internos. El número de componentes es suficientemente grande para que su estudio al estilo de Newton —resolviendo una ecuación diferencial por cada grado de libertad— sea imposible, y suficientemente pequeño para que el formalismo de la mecánica estadística —donde promediar proporciona sentido al uso de variables macroscópicas— no sea válido. La interacción no es lineal y, habitualmente, ésta resulta de dinámicas antagónicas. Un sistema complejo es reconocible por su comportamiento; en él suele haber autorganización, frustración y evolución hacia la zona crítica, leyes de potencia espacio-temporales y, fundamentalmente, emergencia de patrones. La emergencia es el proceso de nacimiento de estructuras coherentes y discernibles que ocurren como resultado de la interacción de los componentes individuales de un sistema complejo. Es un comportamiento colectivo que no se puede deducir de las propiedades o rasgos de los componentes del sistema. Los fenómenos emergentes pueden ser espaciales —emergencia de formas o patrones geométricos— o temporales —de conductas o funciones nuevas. A menudo, la emergencia de patrones es el rasgo distintivo entre un sistema complejo y uno complicado. En el primero, es más importante la relación entre sus componentes que la naturaleza material de los mismos. Clases de universalidad dinámica El hecho de que sistemas de naturaleza muy distinta exhiban el mismo comportamiento, independientemente de los detalles particulares de sus componentes —como en las computadoras—, sugiere la existencia de principios organizativos que actúan en el nivel mesoscópico; esto es, entre la dinámica microscópica y la macroscópica. En el año 2000, David Pines y Robert Laughlin designaron como propiedades protegidas de la materia al resultado de estos principios organizadores, y protectorados al conjunto formado por los componentes microscópicos, los principios mesoscópicos y las propiedades universales macroscópicas —por cierto, estas nociones coinciden con la propuesta del principio esclavizador de Hermann Haken en 1978. Es posible encontrar ejemplos de protectorados en diferentes niveles de organización de la materia; desde los que mencionan Pines y Laughlin —superconductividad, superfluidez en líquidos bosónicos, etcétera— hasta algunos que trascienden el ámbito de la materia inerte para adentrarse en el mundo de lo vivo. En adelante, para acentuar el carácter emergente de las propiedades protegidas, y también con el propósito de alejarnos de una nomenclatura con un fuerte sabor imperialista —protectorado fue el nombre usado por los colonialistas europeos durante buena parte del siglo xx para disfrazar su política intervencionista—, los llamaremos clases de universalidad dinámica. Así, la capacidad de cómputo resulta ser una de tales clases. Otro ejemplo es el crecimiento fractal. Como se sabe, los fractales son objetos geométricos cuya dimensión topológica es diferente de la del espacio de dimensión mínima que los aloja —cero para un punto, uno para una curva, dos para regiones planas y tres para objetos sólidos. De manera que muchos fractales tienen dimensión fraccionaria, lo que significa que llenan más espacio que el de la unión numerable de sus componentes. Cuando una partícula de polvo se pega a otra, y una tercera se agrega a las dos orginales, y así sucesivamente, comienza a formarse un agregado ramificado, pues las ulteriores partículas que se suman tienen mayor probabilidad de hacerlo en una rama periférica que de llegar al centro del cúmulo. El cuerpo que se forma es un fractal con una dimensión que se puede calcular numéricamente con facilidad. Sucede que el objeto así formado es indistinguible de los que resultan del crecimiento de una colonia de la bacteria Bacilus subtilis en un plato de Petri, o de la migración de partículas metálicas en un medio coloidal bajo la acción de un campo eléctrico o de la inyección de un líquido en un medio también líquido pero de mayor densidad —agua en glicerina. Entonces, esto es una clase de universalidad dinámica. Lo más relevante del asunto es que el modelo matemático que describe el comportamiento de uno de los integrantes de la clase, describe por igual a los demás. En este ejemplo particular dicho modelo se llama agregación limitada por difusión. El poder epistemológico del concepto de clase de universalidad dinámica es algo que vale la pena destacar. Si se puede obtener un comportamiento macroscópico común en muchos sistemas, independientemente de sus composiciones microscópicas, entonces la descripción matemática más parsimoniosa del que sea el más sencillo de modelar, en principio, es válida para todos. De hecho, esta es la razón por la cual los modelos matemáticos existen, funcionan, y lo hacen muy bien; son el retrato de un arquetipo, de una clase de universalidad dinámica. Por consiguiente, no hay razón para extrañarse de que un modelo matemático originalmente formulado para algún problema de dinámica de poblaciones, sea también efectivo en epidemiología o para la propagación de rumores; tampoco que las herramientas de la mecánica estadística sean las mismas que las de la economía global, o que la conducta de agregados neuronales se parezca a la del comportamiento social de las especies gregarias de insectos. Complejidad y disciplinas Si los sistemas que integran una clase de universalidad dinámica son indistinguibles desde la óptica de la matemática que los describe, entonces, las barreras disciplinarias son demolidas —al menos demolibles— y es posible plantear, desde la teoría de los sistemas complejos, nuevas perspectivas para la interdisciplina. Puede ser que eventualmente los sistemas y su estudio demanden interdisciplina y que el resultado sea exitoso, pero la teoría de los sistemas complejos hace desaparecer las fronteras entre disciplinas, con lo que trasciende la interdisciplina. La discusión de inter, multi o transdisciplina pierde sentido, no sólo al ser derribados los muros entre disciplinas, sino por la emergencia de leyes y principios generales que se pueden estudiar cobijados bajo clases de universalidad dinámica. Entonces, la unidad de la ciencia se dará, naturalmente, en la medida en que sea posible identificar tales clases y el metalenguaje al que aspiran quienes proponen la transdisciplina será, desde luego, el de la matemática. Resulta ingenuo pensar que las especialidades van a desaparecer con esta propuesta —incluso no creemos que esto sea conveniente— pero a la luz de la teoría de los sistemas complejos las fronteras entre el estudio de lo vivo y lo inerte, de lo natural y lo social, desaparecen. El principio unificador es la matemática de los sistemas no lineales. |
||
Existe un rechazo injustificado de ciertos círculos académicos hacia la matemática. Se afirma, con más desconocimiento que mala fe, que ésta constituye una serie de métodos cuantitativos cuando es también una ciencia de las cualidades. Es verdad que el medir es una de las operaciones primarias para relacionar la realidad física con el mundo de abstracciones que forman el universo matemático, pero restringir los alcances de esta ciencia a la búsqueda del rigor en las mediciones corresponde a la visión positivista baconiana según la cual sólo es objeto de estudio lo que puede registrarse empíricamente —es decir, medirse.
Las grandes teorías de las ciencia se han construido sobre bases matemáticas y esto no tiene que ver con la pretensión de exactitud en las mediciones sino con las posibilidades de plantear hipótesis sobre cómo ocurre algo en la naturaleza, de construir un esquema mental imaginativo que abra la puerta a la teorización y llevar las consecuencias en el ámbito de los formalismos matemáticos.
En palabras de José Luis Gutiérrez, “matematizar una disciplina es […] penetrar los objetos de estudio con las herramientas para el pensamiento que nos proporciona la matemática, es buscar en ellos lo esencial y acotar lo cont i n g e n t e, es aprender a reconocer las relaciones estructurales o dinámicas entre sus diversos elementos paradeducir lo que no es evidente”.
El éxito de la matemática como lenguaje de la ciencia está directamente vinculado con su inagotable capacidad para descubrir pautas y estructuras donde la observación d i re c ta y la estadística —justificadora de prácticamente cualquier cosa— sólo puede acumular dato s. Es cierto que la matemática también sirve para contar y medir, pero dichas tareas no son sino una ínfima parte de la enorme riqueza que tiene como método, herramienta y lenguaje.
Colofón En la época del positivismo de los albores del siglo XX, se e m p re n d i e ron en México campañas alfabetizado ras porque se consideraba que todo individuo debería saber leer y escribir para tener acceso a la cultura y a las líneas del progreso de su tiempo, en pocas palabras, para ser un hombre de su tiempo. Ahora, en los albores del XXI, eso ya no b a s ta, es necesario que todo individuo que quiera vivir su tiempo conozca las herramientas mediante las cuales la naturaleza nos revela sus secretos, los cuales se encuentran cifrados en lenguaje matemático. principio unificador es la matemática de los sistemas no lineales.
|
||
Elke Köppen, Ricardo Mansilla
Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades, Universidad Nacional Autónoma de México. Pedro Miramontes Facultad de Ciencias, Universidad Nacional Autónoma de México. |
||
Referencias bibliográficas
Álvarez, R. 2003. Los protectorados en la naturaleza: el caso de la filotaxia. Tesis de licenciatura en física. Facultad de Ciencias, unam, México. Cocho, G. y P. Miramontes. 2000. “Patrones y procesos en la naturaleza. La importancia de los protectorados”, en Ciencias, núm. 59, pp. 12-23. Klein, Julie Thompson. 1990. Interdisciplinarity; theory, and practice. Wayne State University, Detroit. Laughlin, R. B. y D. Pines. 2000. “The theory of everything”, en Proceedings of the National Academy of Sciences usa, núm. 97, pp 28-31. Mainzer, K. 1994. Thinking in complexity. Springer-Verlag, Berlin. Stanley, E. 1999. “Scaling, universality, and normalization: three pillars of modern critical phenomena”, en Reviews of Modern Physics, núm. 71, pp. S358-S366. Ramírez, Santiago (coord.). 1999. Perspectivas en las teorías de sistemas. Siglo xxi Editores-ceiich, unam, México. _______________________________________________________________
como citar este artículo → Köppen, Elke y Mansilla Ricardo, Pedro Miramontes. (2005). La interdisciplina desde la teoría de los sistemas complejos. Ciencias 79, julio-septiembre, 4-12. [En línea]
|
||
←Regresar al índice ⁄ artículo siguiente→ |
La metafísica de lo complejo |
|
|
Juan Pablo Pardo Guerra
conoce más del autor
|
||
HTML↓ | ||
|
||
Desde hace un par de décadas, la física enfrenta una transformación no menos que formidable. En un torbellino de cambios y discusiones, esta disciplina ha visto modificada no sólo su forma de trabajo —resultado de la apropiación de un sinnúmero de nuevas tecnologías— sino, más en general, su forma de ver, interpretar y explorar la naturaleza. Esto se debe, en gran medida, al desarrollo de una nueva área de estudios, la de los sistemas complejos, que representa un conjunto de retos sin precedentes para la ciencia en general y primordialmente para la física.
Como todo gran reto, resulta poco probable que los productos del estudio de los sistemas complejos se limiten a una sola disciplina, sin derramarse a otras áreas. Dado su carácter altamente interdisciplinario, resulta inequívoco que con el paso del tiempo los logros —y fracasos— de esta nueva rama impactarán de forma significativa la manera de hacer y de relacionarse con la ciencia en su totalidad. Los sistemas complejos llegaron para quedarse y también para revolucionar.
Aunque para muchos sea relativamente fácil pensar que su estudio es una suerte de moda, algo pasajero que se disipará al cabo de algunos años, los hechos desmienten tal suposición. Existe gran cantidad de evidencia apuntando en dirección contraria; es decir, hacia la idea de que los frutos de esta nueva área formarán una parte importante del lenguaje de la física del futuro. En otras palabras, la noción finalista de que lo tradicional basta para dar lógica a la naturaleza puede ser la que esté —afortunadamente, desde mi perspectiva— en peligro de extinción. El exitoso surgimiento de áreas interdisciplinarias, por ejemplo las llamadas econofísica y sociofísica, es importante prueba de ello. Otra es el creciente número tanto de publicaciones especializadas como de artículos científicos sobre este tema; tan sólo de 1997 a 2003, el número de artículos del servidor de Los Álamos con el término complex systems pasó de 17 a 66, aunado al lanzamiento de revistas especializadas en problemas relacionados con este tipo de sistemas. Pero más allá de tendencias particulares, las crecientes demandas para la comprensión de sistemas con dinámicas enmarañadas, que en ocasiones requieren metodologías de análisis poco ortodoxas, probablemente será lo que consolide el lugar de los sistemas complejos entre la comunidad científica, pues es en este tipo de estudios donde los resultados son más prometedores y, sobre todo, más prácticos.
Lo complejo y lo complicado Antes de explorar la relevancia de los sistemas complejos es necesario entender a qué nos referimos por estas entidades. En este punto resulta esencial distinguir lo complejo de lo complicado, pues es frecuente confundir ambos conceptos.
La física desde sus inicios ha tratado con sistemas complicados. De una u otra forma, la complicación de algo no limita la posibilidad de su estudio, como lo muestra el desarrollo de la teoría cinética en el siglo xix y de la mecánica cuántica desde principios del xx. En realidad, lo complicado no es más que una forma de catalogar sistemas definidos por muchos componentes, que hacen de los cálculos una tarea interminable. Por ejemplo, al estar conformado por un gran número de parámetros microscópicos —un número que típicamente es del orden del de Avogadro—, un gas es un sistema sumamente complicado; los cálculos necesarios para encontrar su evolución precisa son, en el mejor de los casos, descomunales. Sin embargo, estudiar el comportamiento estadístico de este tipo de sistemas es relativamente inmediato, ya sea a través de la mecánica estadística o bien de la termodinámica clásica. Los físicos son, como resulta claro tras una breve revisión de un libro de texto estándar, artesanos de la aproximación, pues convierten algo sumamente complicado —un billón de billones de parámetros correspondientes a los momentos y posiciones de las partículas de un gas— en algo sumamente manejable —temperatura, presión, volumen, densidad y energía interna.
En contraste con lo complicado, los sistemas complejos tienen un comportamiento mucho más difícil de aprehender. En el año 2003, Johnson, Jefferies y Hui caracterizaron estas entidades por medio de una larga lista de propiedades, entre las que destacan la retroalimentación, la inestabilidad, muchos agentes interactuantes, adaptación, evolución y sistemas abiertos. Adicionalmente, Philip Anderson agrega la emergencia —comportamientos macroscópicos que no son lógicamente consecuentes de las leyes microscópicas— como la característica primordial de la cual surge la complejidad. Es decir, los sistemas complejos son entidades mucho más afines en términos conceptuales a una comunidad biológica que forma parte de un ecosistema que a un gas ideal en un contenedor hermético y térmicamente aislado. Los sistemas complejos son, en efecto, un nuevo paradigma para la física que sustituye a la vieja concepción de lo mecanizado, lo lineal y lo estadísticamente estacionario.
Pero, ¿cómo afectan estas cualidades la metodología de la física cuando ésta se adentra en el estudio de los sistemas complejos? Para entender esto es necesario revisar, a grosso modo, la forma en la que los físicos ven e interpretan la naturaleza.
La metafísica de lo complicado En el prefacio a la edición francesa de los Principia Philosophiae de 1644, René Descartes estableció una jerarquía que, a su parecer, define la estructura del conocimiento humano. “Toda la filosofía es […] como un árbol, donde las raíces son la metafísica, el tronco la física, y las ramas que surgen de él son todas las otras ciencias”. Después de más de tres siglos y medio de su publicación, estas palabras aún no han perdido del todo su fuerza. La obra de Thomas Kuhn y de Paul Feyerabend permiten retomar esta idea cartesiana del conocimiento y hacerla un poco más general, sobre todo actual. Si consideramos la ciencia como una actividad sustentada por una matriz social, es decir, por un conjunto de actitudes, nociones y estructuras de corte social, entonces la metafísica bien puede catalogarse como una parte íntegra de esta matriz. En terminología de Kuhn, es un componente esencial del paradigma sobre el cual se sustenta la ciencia, sea cual fuere, desde las concepciones aristotélicas hasta las interpretaciones menos inmediatas de la física cuántica al estilo de Copenhague.
La ciencia moderna, en particular la física, en gran medida depende de un conjunto de principios metafísicos, por lo que es importante identificarlos con precisión. De cierta forma, son una serie de compromisos ontológicos que han moldeado el camino de los programas de investigación científica y que forman parte de la cosmovisión de la ciencia moderna. Entenderlos representa conocer una porción probablemente pequeña pero apreciable de lo que constituye la ciencia en nuestros días.
Cabe la posibilidad de que esta metafísica no sea un conjunto pequeño de enunciados sino más bien una lista interminable. Sin embargo, y por mero pragmatismo, podemos identificar entre los elementos de esta lista a cuatro principios rectores que describen de manera aproximada los planteamientos sobre los que descansan muchas de las construcciones de la física moderna. Estos son el principio de Ockham-Newton, el de Galileo, el de los estados y el de causalidad.
El principio de Ockham-Newton, uno de los fundamentos más claros de la ciencia moderna, es el precepto de que el camino de lo simple es lo más adecuado en cualquier razonamiento. Aunque esta idea tiene sus orígenes en tiempos anteriores a los de Guillermo de Ockham (1280-1347), generalmente es atribuida a este filósofo medieval en la forma de la Navaja de Ockham. Posteriormente, Isaac Newton incorporó explícitamente una idea similar en sus reglas para filosofar, “no deben admitirse más causas de las cosas naturales que aquellas que sean verdaderas y suficientes para explicar sus fenómenos […] Por ello, en tanto sea posible, hay que asignar las mismas causas a los efectos naturales del mismo género”.
El principio de Galileo representa uno de los puntos claves en la evolución de la ciencia, la matematización de las explicaciones de los fenómenos naturales. La concreción de esto se debe en gran medida al trabajo de Galileo Galilei, quien en 1623 acuñó la famosa frase “el libro de la naturaleza […] está escrito en caracteres matemáticos”. Pasar de lo retórico a una representación matemática, estrictamente formal, fue uno de los hitos que permitieron el desarrollo de un lenguaje común para la comunidad científica, facilitando así la articulación de las actividades de investigación. Sin embargo, abrazar la matemática como el lenguaje propio de la ciencia no es algo evidente. Implica aceptar que la naturaleza tiene un lenguaje similar al de la ciencia o, en el peor de los casos, uno que puede ser traducido en términos matemáticos sin pérdidas considerables.
Si la naturaleza puede ser representada con un lenguaje matemático, es necesario saber qué es lo que se va a representar. En general, esto corresponde a los estados físicos, con los cuales se pretende describir las características de un sistema por medio de un conjunto finito de variables, lo que corresponde al principio de los estados. Por ejemplo, el estado de un gas se representa por medio del conjunto de posiciones y momentos de sus partículas, junto con la descripción de todas las interacciones que puede tener con su entorno —las fuerzas y los campos externos.
Dado un estado de un sistema físico, su evolución se determina como el efecto de una cadena causal de otros estados, el principio de causalidad. La relación se establece por un conjunto de leyes que se aplican de igual manera a todos los componentes del sistema —leyes universales. En otras palabras, una vez definido el estado de un sistema, existe un camino o, más en general, un conjunto de caminos con una estadística bien delimitada, que nos describen la evolución del sistema.
Lo complejo simplemente es diferente ¿En qué sentido son insuficientes estos cuatro principios para el análisis de los sistemas complejos? Intuitivamente, y partiendo de la idea de lo que constituye un sistema complejo, resulta medianamente claro que los principios que sustenta la física moderna son insuficientes. Basta con tomar su definición y aplicarla a un caso particular para percatarse del contraste entre la metodología tradicional de la física y las nuevas demandas a resolver. Con el fin de observar esto con mayor cuidado, tomemos uno de los casos más estudiados en los últimos años. Así, y por meras razones argumentativas, utilizaremos un mercado financiero como parámetro de comparación. Aunque no es inmediato, muchos de los argumentos utilizados para este sistema se pueden exportar a otros casos, desde la dinámica del tráfico y las transiciones de fase, hasta los estudios sobre el origen de la vida.
Los mercados financieros no son simples. La evidencia más reciente sobre su comportamiento señala que a pesar de ser entidades que se rigen por un pequeño número de reglas, muestran dinámicas que no siempre siguen patrones regulares, mucho menos patrones simples. Los trabajos de Robert Shiller revelan que no sólo son sistemas abiertos —lo que es natural, al estar inscritos en un sistema económico mayor—, sino que su comportamiento se rige fuertemente por influencias culturales, sociales y, como los llamó Alan Greenspan, conductas exuberantemente irracionales. Hasta ahora, fenómenos derivados de esta complejidad ambiental —como, por ejemplo, las caídas estrepitosas de las bolsas de valores— se han comparado con otros procesos físicos igualmente complejos, tales como las transiciones de fase. Adicionalmente, modelos evolutivos como los desarrollados por investigadores del Instituto Santa Fe parecen describir mejor la dinámica regular del mercado que los que parten de la física clásica y, hasta cierto punto, reduccionista.
Los mercados financieros no hablan matemáticas. La evidencia sobre el comportamiento de inversionistas muestra que las desviaciones de las estrategias racionales —de alguna forma, provinentes de una lógica normal— son frecuentes y de hecho constituyen una parte importante de la dinámica del sistema. Es muy probable que modelar esos comportamientos irracionales esté fuera del alcance de las técnicas tradicionales, y que se requiera utilizar otros métodos —como simulaciones computacionales y algoritmos genéticos— que aún no se han explorado plenamente, a pesar de que muchos investigadores recurren a ellos. Siguiendo la misma línea, los métodos experimentales para cuantificar y cualificar el comportamiento de inversionistas están lejos de consolidarse y demandan un gran desarrollo teórico.
No puede definirse el estado de un mercado financiero, porque al estar constituido por el comportamiento humano, sería necesario definir su estado antes que el del mercado. Desafortunadamente, nuestra comprensión de la conciencia y, en general, del comportamiento es todavía inadecuada como para poder describir el estado de un inversionista en particular. Así, una descripción por medio de estados es, en el mejor de los casos, improbable. No importa que tan cerca estemos de determinar el estado de un mercado —es decir, las acciones en mano de todos los agentes en un tiempo dado—, esa descripción no puede considerarse válida, ya que no hay nada en ella que proporcione indicios sobre el estado siguiente.
La evolución de un mercado es multifactorial. El de valores, además de verse afectado por su dinámica interna, también lo es por la información del exterior, que contribuye notablemente en las alzas o caídas de las acciones. En el mejor de los casos podemos hablar de tendencias de corto plazo, pero tratar de encontrar leyes que describan la evolución del sistema para periodos largos es sencillamente inimaginable. La retroalimentación de información, la capacidad de adaptación de los integrantes y la imposibilidad de ver lo que hay en la cabeza de cada uno de los inversionistas es una muralla que impide el avance de cualquier intento por construir una descripción causal —en el sentido de un determinismo estadístico— de los sistemas económicos en general.
Hacia una metafísica de la complejidad ¿Cómo podemos ampliar nuestra visión del mundo para dar cabida al estudio de los sistemas complejos? Es claro que muchas de las ideas que heredamos de la física, tal como las conocemos, aún tienen un valor indiscutible. Sin embargo, otras requieren revisarse si queremos construir una física de la complejidad. Entre las posibilidades que conviene explorar, está la navaja de Ockham generalizada.
Más allá de viajar por los caminos más sencillos —lo que esto quiera decir— la física del futuro tiene el enorme reto de generar una noción adecuada de lo que constituye la simplicidad. Las herramientas tradicionales, como la minimización de energía en sistemas mecánicos o la maximización de entropía en sistemas estadísticos, pueden no ser la descripción natural de muchos procesos, por lo cual añadir otras causas se convierte en una posibilidad valiosa. En este sentido, para evitar la proliferación de una miríada de explicaciones ad hoc —en el extremo, una para cada sistema complejo—, es necesario enfrentar de lleno los problemas teóricos planteados por la autorganización y por los fenómenos emergentes, para obtener una descripción sencilla pero medianamente general de los mismos.
Otro enorme reto es la construcción de una definición adecuada de complejidad. En la actualidad, existen un gran número de formas de percibir la complejidad, desde la entropía simbólica de Shannon hasta la complejidad efectiva de Gell-Man. Cada una responde a distintas necesidades —de la búsqueda de predictibilidad a la de estructura. Por esto, el desarrollo de marcos teóricos más sólidos y extensos probablemente permitiría una mejor delimitación de las distintas ideas sobre lo que es la complejidad. Además, nos facultaría para ver la importancia de factores no estudiados tan frecuentemente, como es el caso de la estructura informacional en sistemas económicos —sistemas complejos—, o en general, lo que hace al todo más que la suma de sus partes.
|
||
No es fuera de lo ordinario encont ra rse con sistemas complejos para los cuales las soluciones analíticas sencillamente no existen. Una parte importante del cambio de paradigma de lo tradicional hacia una física de lo complejo será el apro p i a rse de nueva s t e cnologías como herramientas de análisis. Por ejemplo, simulaciones computacionales de muchos agentes, algoritmos genéticos, autómatas celulares y similares.
Para finalizar
La articulación de una nueva visión del mundo nunca es algo trivial. En todos los casos re q u i e re ingenio, perspicacia y, sobre todo, un momento en la historia que se preste para una revolución. Ingenio y perspicacia tenemos en todo el mundo. Y el momento , en mi opinión, lo estamos viviendo. Los problemas de nuestros días no son los mismos que los que enfrentaban los científicos hace cuatro siglos y que sirvieron de cuna para el desarrollo de la ciencia tal y como la conocemos.
En la actualidad, las nuevas agendas políticas basadas en los ideales de d e s a r rollo sustenta b l e, participación comunitaria, pluralidad y diálogo int e rc u l t u ral nos demandan genera r n u e vos paradigmas coherentes con los problemas que enfre n tan nuestra s sociedades ya de por sí polariza d a s.
E n t re estos para d i g m a s, una ciencia de la complejidad es un impera t i vo , aunque ello implique ponerle un ro st ro enteramente distinto al actual. Sin e m b a rgo, el desarrollo de esta ciencia no es algo inmediato. Re q u i e re que nos formulemos pre g u n tas sumamente profundas sobre el mundo a construir. ¿Qué es lo que deseamos? ¿Cómo queremos obtenerlo? ¿Para quiénes es el futuro?
Las respuestas a éstas y otras muchas pre g u n tas deben servir de base p a ra una física de lo complejo. Así como Copérnico le quitó al ser humano el centro del unive rso, lo complejo debe quitarnos la idea de una y sólo una ve rdad, de una y sólo una to talidad. Y así como los árboles crecen del suelo, a nueva ciencia de lo complejo debe comenzar desde la metafísica por los c u e s t i o n a m i e n tos más básicos sobre la natura l e za, poniendo en el banquillo del acusado al reduccionismo, que hoy muestra ser más un lastre que una c o n veniencia meto d o l ó g i c a .
El futuro se muestra brillante y complejo. Es momento de apre c i a r el panorama, de ver el bosque, y de c o m e n zar la edificación de las ra í c e s de lo que podrá conve r t i rse en un frondoso elemento del conocimiento h u m a n o .
|
||
Juan Pablo Pardo Guerra
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
|
||
Referencias bibliográficas:
Johnson, N., P. Jefferies y P. K. Hui. 2003. Financial market complexity. Oxford University Press, Oxford.
Anderson, P. 1994. Physics: the opening to complexity, en www.santafe.edu
Kuhn, T. 1999. La estructura de las revoluciones científicas. Fondo de Cultura Económica, México.
Feyerabend, P. 2000. Tratado contra el método. Tecnos, Madrid.
Heidegger, M. 2001. Hitos. Alianza Editorial, Madrid.
Newton, I. 2002. Principios matemáticos de la filosofía natural. Alianza Editorial, Madrid.
Shiller, R. 2002. Exuberancia irracional. Océano, Madrid.
_______________________________________________________________
como citar este artículo → Pardo Guerra, Juan Pablo. (2005). La metafísica de lo complejo. Ciencias 79, julio-septiembre, 18-24. [En línea]
|
||
←Regresar al índice ⁄ artículo siguiente→ |
La especificidad inmunológica, historia, escenarios, metáforas y fantasmas |
|
|
Tania Romo González, Enrique Vargas Madrazo y Carlos Larralde
conoce más del autor
|
||
HTML↓ | ||
El espíritu humano no refleja el mundo
sino que lo traduce a través del lenguaje.
|
|
|
El avance de la ciencia ha contribuido a mostrar que las cosas y la capacidad de percibirlas, de expresarlas lingüísticamente y de reaccionar emocionalmente ante ellas cambian con el tiempo. Esto debilita los supuestos de universalidad e inmutabilidad de la verdad científica, al socavar la creencia de que existe un mundo independiente de la percepción que puede conocerse mediante el método científico, como lo postula la dualidad cartesiana sujeto-objeto. Esta última promovió la utilización irreflexiva de metáforas en la ciencia, las cuales no son igualmente válidas para lo actualmente percibido. Esto provocó errores en la concepción de los vocablos y conceptos al dar la impresión de que son asuntos resueltos. Con ello se desestima que el conocimiento no es producto de una observación o percepción dual sujeto-objeto, sino que depende fuertemente de la constante relación entre el ser y su conocer. La confusión entre objeto-proceso y lenguaje, así como la accidentada reconstrucción de conceptos, podría conducir a teorías anquilosadas, anquilosantes e inapropiadas en el tiempo, dogmas que atrapan o inmovilizan la dualidad sujeto-objeto.
En diversas ramas de las ciencias hay numerosos ejemplos de estos problemas epistemológicos. Tal es el caso de la especificidad, propiedad adscrita a la materia, de enorme importancia para diversas ciencias. En muchas disciplinas biológicas se usa con gran soltura, asumiéndose como establecida y de causa plenamente conocida. En inmunología se utilizan varias metáforas sobre su funcionalidad, particularmente en la teoría referente a la interacción de actores. En los escenarios de la inmunología y de otros fenómenos biológicos, numerosas corrientes de pensamiento o paradigmas han incidido en el establecimiento de la especificidad, pero las dificultades para definirla provienen de que se trata de un problema epistemológico, y no solamente de uno observacional. Un gran número de fenómenos biológicos suceden tras la reacción de asociación de dos moléculas: un receptor y un ligando. Las propiedades de esa reacción suelen estudiarse en el contexto de la ley de acción de masas, “a temperatura y presión constante la velocidad de una reacción es proporcional al producto de las concentraciones de los reactivos”. Algunos ejemplos de estas reacciones son enzima-sustrato, antígeno-anticuerpo, hormona-receptor, neurotransmisor-receptor y hemoglobina-oxígeno. Todas demandan cierta especificidad entre los reactantes involucrados; es decir, que la reacción ocurra entre un tipo y número limitado de los distintos reactantes posibles presentes en el entorno. La especificidad de la reacción limita la operatividad y la conectividad de cada molécula ante un conjunto de opciones enormemente diverso. Por tanto, es la clave de la fisiología ordenada, la vida saludable y su reproducción, lo cual parece implicar que sus violaciones conducen a la enfermedad y la extinción. Algunos ligandos pueden tener un amplio rango de especificidades; por ejemplo, ser a la vez sustrato, antígeno, hormona y neurotransmisor. Pero su identidad funcional depende de con quién se asocia —enzimas, anticuerpos, receptores de membrana, etcétera. No así los receptores, cuya funcionalidad es más estrecha; por lo general, los anticuerpos no son enzimas, ni operadores de redes neuronales. Entonces, la especificidad no depende sólo de alguna de las moléculas reactantes, sino también de la conectividad de éstas con el entorno. Los orígenes del término En biología, la especificidad surge de un esfuerzo por ordenar los seres vivos en grupos —especies— que comparten un alto número de características fenotípicas —ahora genotípicas—, las cuales los distingue del resto. La posición biofilosófica respecto al grado de distinción entre los grupos o conjuntos de organismos conduce a dos grandes paradigmas o paisajes mentales: el discreto, donde se define a especies aisladas rígidamente entre sí; y el continuo, que define un solo conglomerado de individuos con núcleos de similitud o diversidad de límites evanescentes, designado con el término de biomasa. Según lo anterior, la especificidad se refiere a atributos que son directamente dependientes de lo material que reside en el objeto y describe la exclusividad de un grupo limitado de individuos. Mientras que en el primer paisaje mental, la especificidad es más bien una propiedad de las cosas y lo específico un adjetivo que se aplica a una cosa o conjunto de cosas y denota su grado de exclusividad. De acuerdo con esto, en el paisaje continuo no cabe la especificidad. Desde que Linneo propuso su primera clasificación de las plantas, los términos especie y especificidad han sido objeto de enorme debate. Lamarck cuestiona a Linneo, afirmando que la división de la biomasa en clases, órdenes, familias y géneros son artefactos o dispositivos introducidos por los humanos por la conveniencia de simplificar para entender. La biomasa, según el lamarckismo o neolamarckismo, es realmente un continuo donde las barreras intraorganísmicas carecen de rigidez y el ambiente desempeña un papel central en la evolución de los organismos. Sin embargo, a pesar de la fascinante intuición de Lamarck, fueron el darwinismo y el neodarwinismo, con su selección natural de las especies, los que históricamente llegaron a dominar la teoría de la evolución. Esto tuvo un gran impacto en el establecimiento y arraigo de los términos especie y especificidad, ya que no sólo se aplican libremente en disciplinas particulares, sino también en distintos niveles de organización al construir lógicas de interrelaciones sobre la base de estos conceptos. Por ejemplo, la afirmación de que las especies difieren en grados de organización y están en constante competencia y conflicto provocó la ubicación de los microrganismos en una categoría inferior y potencialmente dañina. Esta postura fue adoptada en los trabajos de Koch, en la asociación específica de los microrganismos con la enfermedad, y posteriormente por la inmunología, donde el sistema inmune es visto como un instrumento de defensa de los vertebrados contra seres inferiores. Paisaje muy distinto del pensamiento de Lynn Margulis y su teoría simbiótica, en la cual no existen organismos superiores e inferiores, pues todos los seres vivos son igualmente evolucionados, y donde los límites artificiales para definir especie son fuertemente cuestionados. La generación del conocimiento no es lineal como se piensa, los vicios, virtudes y creencias culturales de antaño con frecuencia son arrastrados e integrados bajo la innovación que homogeniza. Las distinciones rígidas de los microrganismos en especies se colaron a la medicina sugiriendo una relación específica y unívoca entre los agentes causales y las distintas enfermedades. Para la infectología esto significa que los microrganismos pasan a la categoría de enemigos y se justifica su destrucción por poderosos y letales principios antibióticos. Sólo con los más recientes avances de la genética molecular a través de la secuenciación de genomas, el darwinismo ha perdido fuerza y las ideas de Lamarck empiezan a revalorarse, aunque aún son vistas con sospecha por la ciencia normal. Por ejemplo, algunos hallazgos recientes establecen parentescos antes insospechados entre bacterias y virus, fortaleciendo el planteamiento de teorías como la de Gaia —término acuñado por James Lovelock. Gaia corresponde a la totalidad de los organismos vivos, de su medio atmosférico y del terreno de nuestro planeta, el cual presenta numerosos atributos de macrorganismo complejo interdependiente. Esta compleja integración global es el resultado de la interacción simbiótica y coevolutiva de los escenarios de adaptación de las formas vivas que lo integran. En este esquema coevolutivo de Gaia los movimientos de un organismo deforman los escenarios de adaptación de otros. El ambiente desempeña el papel de agente perturbante, pero al mismo tiempo es perturbado. Los cambios estructurales en los organismos individuales no están determinados ni instruidos exclusivamente por el medio, sino que se trata de una compleja red interactiva en donde la historia evolutiva —o deriva natural— es producto de mutuos cambios estructurales entre el ser vivo y el medio, desencadenados por agentes perturbantes y determinados por la estructura de lo perturbado. Esta visión está muy alejada del paisaje mental construido por el neo-darwinismo, en el que el material genético —adn y arn— es el único capaz de controlar, codificar y heredar la información esencial del organismo vivo, y el ambiente sólo opera como conformador de los límites y detalles del organismo. La visión compleja de la vida propone que la información reside en la dinámica —epigénesis— del metabolismo y funcionamiento de la célula, del organismo en su totalidad y, más aún, en sus relaciones con su medio y, en general, con el entorno planetario. En este planeta simbiótico, las bacterias y virus —y todo ser viviente— son protagonistas de la vida y de la evolución y no sólo agentes causales de enfermedad o máquinas biológicas de producción de alimentos y fármacos para los humanos. En inmunología, la inclinación hacia la validación conduce a la construcción del concepto de especificidad como la capacidad de discernimiento inmunológico entre distintos antígenos. Esta propiedad le confiere a los vertebrados la capacidad de distinguir entre lo propio y lo ajeno, lo peligroso y lo inocuo, o entre individuos y especies. En el otro límite, la teoría de Gaia y otras teorías particulares, como la de la red inmune, cuestionan la interpretación de la especificidad inmunológica entendida como un armamento exclusivamente de defensa contra invasores peligrosos. Desde la visión sistémica se vislumbra al sistema inmune como un agente interlocutor no necesariamente belicoso entre las partes que constituyen un organismo, y entre organismos y ambiente. Así, se construye una visión muy distinta de la fisiología inmunológica, que coordina los intereses individuales con los globales de los seres vivos. Visión alternativa a la representada por las metáforas militares entre naciones hostiles, en la que los invasores de un organismo son vistos como una amenaza a la vida o a la identidad y son atacados por armamentos moleculares o celulares. Lo anterior muestra que el conocimiento está atado espacio-temporalmente a un contexto histórico, que la aceptación y dominio de los conceptos de especie y especificidad en biología se estableció también en inmunología. Ello hizo posible adoptar las metáforas sociales propio-ajeno y peligroso-inocuo como la función inmunológica, instrumentada por familias de moléculas —antígenos-anticuerpos, antígenos-mhc, receptores de células T— cuya interacción conduce a procesos biológicos subsecuentes de aceptación-extrañamiento o salud-enfermedad. Bajo este esquema, los isoantígenos representan las cédulas de identidad única y los aloantígenos el pasaporte de los ciudadanos de un país, mientras que los anticuerpos corresponden a los padrones de registro individual o ciudadano. Un ovillo de metáforas seductoramente congruentes con sus orígenes darwinianos de especiación y al mismo tiempo suspicazmente antropomórficas. El arquetipo molecular La especificidad inmunológica aparece en varios niveles de organización biológica —molecular, celular, individual y poblacional—, pero la tradición reduccionista asume que en el nivel molecular radican todas las otras que se manifiestan en los otros escenarios —la especificidad de las vacunas, de las metodologías de diagnóstico, de la comunicación celular, etcétera. A partir de la especificidad de la interacción de las moléculas del antígeno y el anticuerpo se han construido las teorías imperantes que explican el origen y naturaleza de la diversidad y funcionamiento del sistema inmune. Por las facilidades técnicas que ofrece, las propiedades conocidas de la reacción antígeno-anticuerpo se han convertido en el arquetipo de las reacciones entre receptores y ligandos en otros escenarios fisiológicos. La visión de Koch, que implicaba una relación uno a uno o específica entre el microrganismo y la enfermedad infecciosa, fue traspasada al contexto de los anticuerpos y los antígenos. En ese marco, Ehrlich propone su famosa metáfora de la llave-cerradura, la que aparea un tipo de anticuerpo para cada tipo de antígeno. Gruber polemiza contra la visión de la especificidad de Koch y de Ehrlich; su postura fue heredada por Landsteiner, su estudiante, quien propone una visión más simple en la que los diversos anticuerpos no son predestinadamente específicos, sino que todos —o al menos muchos— reaccionan con distinta afinidad a diversos antígenos, siguiendo reglas dictadas por la composición de su estructura química. No obstante, sus paisajes mentales no son discretos y excluyentes de forma absoluta, por lo que paralelamente a sus discrepancias, estos y otros autores compartían una visión exclusivamente química y aislacionista de la interacción antígeno-anticuerpo. Después, Pauling propondría que los anticuerpos se acomodan con el antígeno que confrontan, el cual le sirve además de molde o instructor para su configuración espacial. Las contribuciones realizadas por Landsteiner y Pauling para el entendimiento de las bases bioquímicas de la especificidad resultaron trascendentales, pero al mismo tiempo profundamente controvertibles. Por una parte, complejizó el requisito químico de la especificidad al agregarle requerimientos geométricos de complementariedad en las moléculas reactantes, lo cual permite una cercanía entre grupos químicos para que la interacción sea energéticamente significativa. Por otra parte, la propuesta de Landsteiner y Pauling empujaba hacia una visión flexible y maleable de los requerimientos de unión con el antígeno, perspectiva aceptada sólo durante unos años, para luego ser violentamente rechazada y ridiculizada. El rechazo se basó en que aparentemente violaba el principio fundamental del plegamiento de las proteínas e implicaba que con un solo gen de inmunoglobulina se podía resolver todo el problema de la diversidad de especificidades del sistema inmune. Numerosas evidencias que contradecían estas afirmaciones aparecieron en los años sesentas y setentas. En nuestra opinión, la tragedia que implicó el rechazo de la hipótesis instruccionista es que arrastró en su descrédito no sólo la visión de que era el antígeno el que guiaba el anticuerpo en la construcción de su especificidad, sino también una visión flexible y contextual del fenómeno de la especificidad. La metáfora de la llave y la cerradura En el nivel molecular, la especificidad es un concepto sumamente contradictorio. Por una parte genera un ánimo de seguridad en las personas que lo usan porque parece estar sólidamente fundamentado en evidencia estructural bioquímica, la cual postula un modelo llave-cerradura rígido. Por otro lado, es un concepto vago, sin definición, que se explica a través de metáforas. Fred Karush, uno de los pocos inmunólogos interesados en la historia de su disciplina, afirma que las metáforas “son vehículos para la formulación de los conceptos más básicos […] se asocian con experiencias humanas de naturaleza biológica y cultural en otro contexto o escenario […] nombran o caracterizan un fenómeno o idea nueva por medio de referencias a conceptos con los que ya se está familiarizado, provocando la sensación de entenderla con explicaciones de otra”. Actualmente, la metáfora de la llave-cerradura impera en la especificidad inmunológica a nivel molecular, porque en el paisaje mental de la inmunoquímica, la visión en los últimos cien años siempre se refiere a una complementariedad molecular química y geométrica entre antígeno y anticuerpo. La disputa básica respecto de si la llave-cerradura es rígida o ajustable no cuestiona las entrañas de la visión aislacionista-mecanicista que deposita toda la información relevante para la especificidad en la estructura de las moléculas interactuantes. Por otra parte, en relación con el origen de los anticuerpos —las cerraduras— históricamente han existido dos versiones predominantes: la cerradura es prehecha, según Ehrlich, o es hecha al instante, según propuso Pauling en el modelo instruccionista. El primero propone que las estructuras moleculares complementarias del antígeno y del anticuerpo existen sin necesidad de la presencia del otro en su elaboración, su única restricción es que las moléculas interactuantes tengan un choque eficiente. Landsteiner agrega a esta visión el que la reacción específica depende de la composición química de las regiones moleculares interactuantes. En contraste, los instruccionistas imaginan que el antígeno dirige la formación y plegamiento del anticuerpo, como si fuera un molde, durante la confrontación antígeno-anticuerpo en cierto espacio-tiempo. En sus últimos años, Landsteiner se suma a la visión intruccionista. Para ambas versiones, la estabilidad de la unión antígeno-anticuerpo se mantiene por la suma de fuerzas relativamente débiles, donde los puentes de hidrógeno, las fuerzas electrostáticas y la interacción hidrofóbica son predominantes. Actualmente, la versión de complementariedad química de Landsteiner, integrada y enriquecida con la hipótesis geométrica —la analogía de la llave-cerradura prehecha de Ehrlich—, constituye la visión con la que mejor se explica la especificidad. La introducción de la química a la biología favoreció a Landsteiner; luego, la de la difracción de rayos X y la resultante visualización de las estructuras cristalográficas fuera de su contexto natural, apoyaron fuertemente la visión aislacionista de la metáfora llave-cerradura de Ehrlich. La asociación de la diversidad funcional de los anticuerpos con la diversidad genética de las inmunoglobulinas terminaría por fortalecer la teoría determinista de Ehrlich y desechar la instruccionista. Quizás una mezcla de características químicas y espaciales en los reactantes en interacción flexible con el entorno ofrezcan acercamientos más amplios a la fenomenología inmunológica. Tan ecuánime propuesta aún no es bienvenida en los fragores de las disputas sobre la especificidad inmunológica, y menos aún si implica amplios márgenes de plasticidad y codeterminación en la molécula del anticuerpo durante la reacción con el antígeno. Es evidente que las concepciones de científicos de épocas anteriores, que generaron las bases de la inmunología, son ajustadas para embonar según los paisajes mentales de épocas modernas. En ocasiones estas transfusiones de metáforas entre épocas ocurren sin conciencia de ello, lo que puede generar una transformación interpretativa que asume hechos que tal vez no existieron en absoluto, fantasmas. La metáfora llave-cerradura tiene tal encanto intuitivo que se investiga poco sobre ella, manteniéndose casi incólume tras ser propuesta al final del siglo xix y principios del xx. Aparece y discurre en multitud de textos como cosa sabida, confiable, fundamento incuestionable en los debates, no obstante las dificultades en su definición formal, en su medición y en la gran cantidad de evidencias que a lo largo del siglo xx existieron acerca de su implícita plasticidad ante lo circunstante. La metáfora llave-cerradura transita por nuestras mentes libre de sospechas, despreocupada de sus carencias y tortuosidades metafóricas y de los tropezones al paso, tales como la intrigante analogía de la llave-maestra del conserje —anticuerpo multiespecífico— o la de las ganzúas de los pillos —un antígeno acomodaticio para cualquier anticuerpo. Además, se generaliza a otros escenarios y a otros niveles de organización biológica en cuyo acontecer se supone subyace alguna llave y alguna cerradura, como en ciertos fármacos, hormonas, endorfinas, neurotransmisores, etcétera, cuyos efectos se explican postulando la existencia de receptores no siempre buscados y demostrados, y rara vez formalmente estudiados en cuanto a su especificidad. Su universalidad es indiscutible, se le encuentra sin mayor dificultad en todos lados, desde los rompecabezas de los niños, los tornillos y las tuercas, los enchufes electrónicos y muchos otros artefactos de nuestra industria, hasta en la estructura de los ácidos nucleicos y su consecuente genética. Quizás es la materialización de una fisiología del conocer, del entender y del pensar históricamente determinados, e implica una visión anquilosada sobre la naturaleza de la naturaleza, donde siempre imperan imágenes pareadas, disyuntivas y antitéticas: a toda acción, una reacción; a cada cosa una anticosa; a una cavidad, una protuberancia. En la era de la biología molecular, la hipótesis química de la especificidad cedió terreno ante la geométrica, después ambas se unieron triunfantes bajo la égida de la metáfora llave-cerradura. Probablemente las dos visiones puedan fertilizar y nutrir la aparición de nuevos paisajes mentales en áreas de indagación remotas o cercanas a la reacción antígeno-anticuerpo. Por ejemplo, podría proponerse que la estructura del agua en que se encuentran solubilizados los antígenos y los anticuerpos fuese la protagonista primordial de la especificidad de su unión, y no sólo la naturaleza química o geométrica de los reactantes. Los principales codeterminantes de la estructura del agua serían las moléculas mayoritarias —fuerza iónica, albúmina, lipoproteínas, etcétera—, las que inclinarían al antígeno a reaccionar con el anticuerpo y no tanto sus estructuras moleculares. El peligro de aceptar la metáfora llave-cerradura sin más estriba en que desalienta la consideración de otras posibilidades e inhibe la exploración más profunda en la codeterminación compleja, así como en las consecuencias de una visión sistémica e integrativa de este proceso. El panorama rígido que dio origen a la clasificación de las especies —nivel macro— y, por tanto, a la rigidez en el concepto de especificidad inmunológica —nivel micro—, comienza a desmoronarse con la pérdida de sus fronteras. Pues ¿qué sería lo propio y lo extraño en un continuo de individuos y dentro de una dinámica coevolutiva entre superficies de adaptación? Reconstruyendo la especificidad Para Kuhn el proceso que genera una revolución científica conlleva reemplazar conocimientos distintos e incompatibles; con lo cual se pierden aportaciones valiosas en el curso del cambio de paisajes mentales. Otro factor que contribuye a la extinción disyuntiva de paisajes mentales bajo la búsqueda de verdades únicas es la dualidad cartesiana de separación del sujeto con el objeto, que nos coloca en la creencia de que los conceptos y explicaciones son entidades independientes de personas y momentos históricos, de escenarios experimentales y campos cognoscitivos. Los problemas en la conceptualización y construcción de los conocimientos, indican que la recuperación del sentido biológico de la especificidad sólo será posible si se construye dentro de un marco sistémico y contextual. Es decir, deberíamos preguntarnos por el sentido biológico-cognoscitivo del proceso de reconocer un mensaje multidimensional antigénico, y cómo a través de una trama de enorme complejidad —parámetros determinantes, algunos de los cuales nunca llegaremos a conocer— el sistema inmune y el organismo construyen y dan sentido evolutivo y ontológico a su respuesta específica. Para tal fin se propone que la reacción antígeno-anticuerpo y sus propiedades de especificidad y extensión ocurren y son dependientes cuando menos de: variables intrínsecas a las moléculas de antígeno y de anticuerpo; variables extrínsecas asociadas al entorno y al espacio-tiempo en que ocurre la confrontación; y factores contingentes que están codeterminados tanto por lo que ocurre entre el antígeno y el anticuerpo, como por las respuestas del entorno a esa interacción. A mediados del siglo xx Pauling estremeció los modelos simplistas al encontrar heterogeneidad termodinámica en cada reacción. Como esto ocurre aun con antígenos monovalentes ultrasencillos química y estructuralmente en comparación con los complejos antígenos naturales, no puede dejar de concluirse, desde un escenario determinístico inflexible, que los anticuerpos que participan en una misma reacción no son intrínsecamente iguales. La riqueza de este hallazgo no fue comprendida cabalmente en su tiempo, pero señala que los anticuerpos no son mono-específicos, ni aun los monoclonales, sino que tienen capacidad de reaccionar con un enorme espectro de moléculas, aunque con distinta afinidad. No es difícil imaginar que la especificidad también puede ser función del alosterismo, propiedad de las proteínas complejas que implicaría interacciones inter e intra-moleculares durante el transcurso de la reacción antígeno-anticuerpo. Estas interacciones pueden modificar la tendencia intrínseca hacia la unión —cooperatividad positiva— o la desunión —cooperatividad negativa— de los reactantes. Una suerte de contorsiones moleculares que no sólo ajustan en distintos grados las superficies y resultados de la reacción, sino que pueden organizar el surgimiento de reacciones ausentes en las moléculas originales. Este asunto, antes despreciado, ahora es trivializado —cambios conformacionales— en casi todo fenómeno cuyo estudio se plantee desde la teoría general de receptores. La compresión molecular también puede afectar la especificidad de diferentes tipos de reacciones, ya que según la teoría de la exclusión del volumen, en un ambiente comprimido, la actividad de cada especie molecular, diluida o concentrada, está en función de la composición total del medio. Por ejemplo, si la concentración del trasfondo molecular se incrementa, la magnitud del efecto de compresión puede ser tan grande que el primer sitio pierde la preferencia por el ligando que antes reconocía y la adquiere por otro. Pero no sólo la densidad molecular del entorno está involucrada en la especificidad y cooperatividad, otros factores contribuyen a modificar la energía de interacción molecular. La especificidad y extensión de la reacción pueden alterarse no sólo de acuerdo con su concentración sino también con el tamaño de las moléculas circunstantes del entorno. Por ejemplo, las pequeñas moléculas del plasma —pequeñas proteínas, péptidos, carbohidratos, iones, etcétera— coparticipan con la reacción antígeno-anticuerpo estableciendo equilibrios fugaces pero frecuentes con los grupos más activos en el exterior de las moléculas de antígeno y anticuerpo. Estas interacciones también ocurren con el agua, lo que logra perturbar la reacción hasta alterar su especificidad y extensión. La temperatura, el pH, la fuerza iónica y la concentración de sales alteran la reacción al cambiar la distribución de las cargas y romper el equilibrio de la solución de las moléculas involucradas, lo cual también podría cambiar su conformación. El calcio y otros iones aumentan o disminuyen en varios ordenes de magnitud la precipitación del complejo antígeno-anticuerpo, ya que pueden estabilizarlo por medio de la quelación de las cadenas polipeptídicas o favoreciendo pequeños pero efectivos cambios conformacionales. Algunos estudios cristalográficos han revelado también que el agua juega un papel central en la interacción, porque sus moléculas pueden mejorar el ajuste de la complementariedad en y alrededor de la interfase del antígeno y el anticuerpo. En general, en biología se asigna al agua un papel meramente pasivo como solvente universal, se asume que es el sustrato donde tienen lugar las reacciones químicas de la vida. No obstante, las cosas no son tan sencillas. De entrada, existen diferentes tipos de agua en la célula: agua ligada, agua de hidratación, agua vecinal y agua libre. Aun admitiendo como correcta la estimación de que aproximadamente 95% del agua celular no está ligada, ésta no es un medio fluido —no viscoso— que rellena los espacios que dejan libres las estructuras celulares. Al contrario, parece que el agua contribuye decisivamente a la organización estructural de las moléculas y de la célula viva. Detallados estudios muestran que es capaz de formar agregados ordenados transitorios que se mantienen unidos mediante enlaces cooperativos intermoleculares. Estas unidades básicas interaccionan activamente con las macromoléculas, contribuyendo a su propio ensamblaje y organización. Diversas evidencias indican que la organización del agua predetermina las dimensiones geométricas adecuadas para el funcionamiento de las macromoléculas de la célula viva, como las dimensiones de las membranas biológicas, de los dominios de las proteínas y de los ácidos nucleícos, que responden a dichos requerimientos geométricos. Adicionalmente, el agua contribuye activamente al anclado transitorio de proteínas solubles a la red del citoesqueleto, posibilitando la aparición del fenómeno de la canalización metabólica en el ámbito de la bioquímica vectorial. Además del efecto directo del agua en la interacción, del espacio, el tiempo y la causalidad, a todo fenómeno de la biología debe añadírsele la memoria. Según Davenas y colaboradores, y después Benveniste, el agua es capaz de retener la memoria de las cosas una vez disueltas en ella, permitiendo que las moléculas puedan comunicarse unas con otras al intercambiar información sin necesidad de contacto físico. Entonces, no sólo las moléculas y átomos presentes perturban la especificidad, sino también las vibraciones o espectros electromagnéticos que fluyen y se conservan a través del agua. Es claro que para los químicos, físicos e inmunólogos de la época de oro de la reacción antígeno-anticuerpo —entre 1900 y 1970—, no escapaba la posible participación en la reacción de las variables extrínsecas mencionadas. Ahora parece evidente que de forma global subvaluaron la magnitud de sus efectos conjuntos. Quizás sea oportuno construir un marco teórico más completo y flexible que incorpore la complejidad multimodal de la especificidad, a fin de entender mejor la reacción clave de la inmunología en el nivel molecular. Finalmente, Greenspan y Cooper proponen otro sentido de la especificidad, basado en observaciones de que el grado de afinidad del anticuerpo por el antígeno —y viceversa— no necesariamente se relaciona de forma directa con la magnitud del efecto biológico. Es decir, puede haber unión sin efecto biológico. Por lo que la especificidad inmunobiológica puede divergir de la inmuno-química. Ya que este efecto se ha definido como producto de la “localización, dosis y tiempo de exposición”, no es posible generar una segunda señal —la cual es producida por el efecto biológico—, si la unión de los reactantes inmunológicos no se efectúa dentro del tejido linfoide, o sin la concentración o tiempo necesarios para dispararla. En resumen, la especificidad no existe por sí misma, es creada en el momento en que un receptor se une a un ligando y no a otro. Y no sólo incluye al par antígeno-anticuerpo, sino que es producto del entorno, en cierto tiempo-espacio, y conectada a algún evento biológico discernible. Tal como lo proponía Van Regenmortel, es un fenómeno relacional. Hacia una epistemología integrativa La búsqueda de certezas representa una parte esencial del edificio del conocimiento en la modernidad y el anhelo cartesiano, encontrar un universo mecánico y una mente racional objetiva y aséptica que embonen complementariamente. La imagen baconiana de un científico compungiendo y estresando a la natura para que le revele sus secretos cierra la pinza del dualismo. Esta promesa permitiría revelar una descripción cada vez más certera de la realidad. Pero, ¿cómo es que la ciencia o, más bien, el ser humano conoce? La moderna síntesis de saberes y las recientes crisis epistemológicas, por ejemplo, en física —el paradigma cuántico, las ciencias del caos— o en biología —el campo epigenético, la complejidad ecológica—, conduce a plantearse la inaplazable cuestión de conocer el conocer. La objetividad y el mecanismo comienzan a desvanecerse ante las evidencias de las ciencias cognitivas. Empezamos a percibir que el dualismo cartesiano y la objetividad científica, al operar en solitario y fuera de un diálogo entre saberes, son quimeras paralizantes del saber. El Universo es una extensa e inatrapable complejidad que requiere enfoques sistémicos y contextuales. Las certezas absolutas terminan por encerrarnos en cárceles de parálisis mental, donde tenemos que vaciar la naturaleza de la complejidad de sus interacciones y de su carácter sistémico para llenarla de restricciones y ajustarla así a un modelo de relojería que promete la predictibilidad y la certeza. El proceso reduccionista significaba asegurar que el sistema inmune actuaría a través de agentes moleculares específicos, los anticuerpos o mecanismos de discriminación, que son conceptualizados conteniendo la especificidad como algo autónomo e invariante. Esto puede fabricarse sólo cuando el contexto biológico de la reacción es vaciado de contenido vivo, sistémico y energético; es decir, de su codeterminación estructural. El aislamiento del proceso de reconocimiento molecular de su entorno permite construir un ámbito de conceptualización y experimentación que poco tiene que ver con su accionar en el sistema inmune y, en general, en un ambiente no aséptico. Así, al construir el concepto mecanicista y secularizado, y a partir de éste el experimento, se ratifica la posibilidad de medir y ver un objeto mecánico y predecible para condiciones vaciadas de significado. Esta confusión está ligada a la antigua disputa filosófica entre sustancia y proceso. La visión reduccionista ha insistido en concebir a la realidad como sustancia, donde sus cualidades residen exclusivamente en la estructura material, negando el ámbito transitorio y dinámico —el campo de lo relacional—, que de igual manera determina las propiedades del sistema. El receptor no reconoce en el vacío, sino que múltiples determinantes —como la membrana celular, el efecto de la densidad de epítopes, la concentración de receptores, el paquete de moléculas accesorias al receptor, la compleja trama de interacciones supracelulares, etcétera— le confieren sentido al reconocimiento. Como ahora sabemos, las constantes de afinidad o las concentraciones de antígenos muy elevadas inhiben el desencadenamiento de algunas respuestas del sistema inmunológico. Ningún reconocimiento, aun el de un anticuerpo de ingeniería, obedece a leyes deterministas. Por lo que la certeza y el mecanismo de relojería que nos propone la visión estática y aislada del reconocimiento molecular comienza a desmoronarse. El sistema y sus propiedades relevantes y fundamentales desaparecen al ser disecado y vaciado de su integridad operacional. El movimiento y la relación en síntesis dialéctica son elementos centrales del sistema, tal como lo visualizaron Berthalanffy y Goethe. El proceso en su conjunto sintetiza y proporciona valor semántico a la interacción antígeno-anticuerpo, lo que permite brindar una apropiada —cualidad transitoria y contextual— respuesta biológica. Por tanto, puede decirse que al menos deberíamos preguntarnos ¿cuál es la especificidad de una reacción antígeno-anticuerpo en un contexto serológico y del organismo, y para una historia y ambiente particular? El contexto y el sistema inmunológico Esta perspectiva visualiza la especificidad como una propiedad dinámica y contextual de los procesos biológicos de discernimiento en un ámbito relacional y complejo. Aquí, hemos sugerido que lo específico sólo cobra sentido al colocarlo en un espacio-tiempo particular. En consecuencia, los procesos vinculados serán de igual forma fenómenos relacionales y emergentes, ya que la especificidad inmunológica ha sido ubicada históricamente en el centro del funcionamiento del sistema. En la actualidad, el modelo imperante respecto al sistema inmunológico se basa en la teoría de la selección clonal de Burneo, que esencialmente implica que el sistema inmune funciona basado en una dinámica de selección clonal darwiniana de linfocitos, donde las clonas, con sus respectivos receptores que poseen la combinación de mayor especificidad y afinidad por el antígeno, son seleccionadas y estimuladas. A partir de esta dinámica fundamental de selección adaptativa, el ejército de clonas en combate montarán, en combinación con la maquinaria molecular, celular y tisular complementaria del sistema, una respuesta inmune destructiva en contra del agente patógeno. Dentro de esta lógica, los procesos fundamentales del sistema —como la regulación, la tolerancia, la memoria, etcétera— dependerán de su control sobre las clonas específicas y sus receptores. El modelo de selección se complementa con la afirmación de que el sistema inmunológico funciona discriminando entre lo propio y lo no propio, tolerándose lo primero y atacándose lo extraño. Sin embargo, actualmente y a pesar de la fastuosa y sobrecogedora disponibilidad de miles de datos y descripciones sobre centenas de moléculas, subpoblaciones celulares o arreglos tisulares del sistema inmunológico, persisten enormes lagunas de entendimiento respecto a sus procesos globales. Bajo el modelo militarista y represivo de clonas que poseen reactividad no deseada es imposible explicar fenómenos que señalan un sistema con enorme plasticidad y esencialmente cognitivo, donde el contexto en que ocurre la infección es tan importante como el agente infeccioso. Los trabajos realizados por Jerne y sus colaboradores durante los pasados treinta años en torno a la hipótesis de la red inmunológica, evidencian que diversas propiedades fundamentales del sistema inmune —como la memoria y la tolerancia—, son fenómenos supraclonales que no dependen de los detalles moleculares invariantes de los receptores específicos. Por ejemplo, la memoria inmunológica no es una consecuencia de la interacción exclusiva del antígeno y el anticuerpo, ni mucho menos reside en unas cuantas células. La autoinmunidad no es un defecto en los anticuerpos secretados por las células B o por presencia de células autorreactivas, puesto que de forma natural existen estas poblaciones en los organismos sanos. Lo mismo puede decirse de las infecciones; no se trata de una batalla en la que existe un vencedor y un vencido. La dicotomía entre fuera y dentro —entre lo propio y lo no propio— es artificial. Existen numerosas evidencias que indican que el sistema inmune opera para una sobrevivencia continua que responde a lo interno y a lo externo, asegurando la armonía funcional del cuerpo. La discriminación de lo propio y de lo extraño es una propiedad sistémica relativa a lo supraclonal. Todo lo anterior reitera la necesidad de abandonar los mapas mentales rígidos y deterministas y redireccionarse hacia otros que incluyan propiedades cognoscitivas dinámicas y complejas. “Complejidad no es una palabra solución, es una palabra problema”. |
||
Tania Romo González, Enrique Vargas Madrazo
Instituto de Investigaciones Biológicas,
Universidad Veracruzana.
Carlos Larralde
Instituto de Investigaciones Biomédicas,
Universidad Nacional Autónoma de México.
|
||
Referencias bibliográficas:
Berman, Morris. 1985. El Reencantamiento del mundo. Cuatro Vientos, Chile.
Capra, Fritjof. 1998. La trama de la vida: una nueva perspectiva de los sistemas vivos. Anagrama, Barcelona.
Durand, Gilbert. 1999. Ciencia del hombre y tradición: el nuevo espíritu antropológico. Orientalia, Barcelona.
Foucault, Michael. 1979. Saber y verdad. Colección Genealogía del poder, Ediciones La Piqueta, Madrid.
Greenspan, N. S. 2001. “Affinity, complementarity, cooperativity, and specificity in antibody recognition”, en Curr. Top Microbiol Immunol., núm. 260, pp. 65-85.
Kaivarainen, A. 2003. “New hierarchic theory of water and its role in biosystems. The quantum Psi problem”, en The Journal of Non-Locality and Remote Mental Interactions, núm. 2, p. 1.
Krishnamurti, Jiddu. 1997. Las relaciones humanas. Planeta, España.
Landsteiner, Karl. 1945. The specificity of serological reactions. Dover Publications, Nueva York.
Larralde, Carlos. 1980. Molecules, cells and parasites in immunology. Academic Press, pp. 191-214.
Latour, Bruno y Steve Woolgar. 1979. Laboratory life: the social construction of scientific facts. Sage Publications, Londres.
Lewin, K. 1931. “The conflict between Aristotelian and Galilean modes of thought”, en J Gen Psychol., núm. 5, pp. 141-177.
Margulis, Lynn. 1998. Symbiotic planet. Basic Books, Nueva York.
Morin, Edgar. 1983. El Método 2. La vida de la vida. Cátedra, Madrid.
Nasr, Seyyed Hossein. 1982. Hombre y naturaleza: la crisis espiritual del hombre moderno. Ediciones Herder.
Wilber, Ken. 1999. La conciencia sin fronteras. Kairos, Barcelona.
_______________________________________________________________
como citar este artículo → Romo González, Tania, Vargas Madrazo Enrique y Larralde Carlos. (2005). La especificidad inmunológica, historia, escenarios, metáforas y fantasmas. Ciencias 79, julio-septiembre, 38-51. [En línea]
|
||
←Regresar al índice ⁄ artículo siguiente→ |
La evolución biológica como sistema autorganizado, dinámicas no lineales y sistemas biológicos |
|
|
Rodrigo Méndez Alonzo
conoce más del autor
|
||
HTML↓ | ||
|
||
En 1887, para conmemorar su cumpleaños 60, el rey Óscar II de Suecia estableció un premio de 2 500 coronas para quien demostrara que el sistema solar es estable. El matemático francés H. Poincaré señaló que un sistema que considera el movimiento de dos cuerpos es fácilmente predecible, pero conforme aumenta el número de cuerpos también lo hace la dificultad en la predicción, por tanto, un cuerpo influido por nueve planetas era virtualmente imposible de predecir. Para contestar la pregunta, Poincaré diseño nuevas técnicas en matemáticas como el espacio de fases, que es la representación gráfica de la solución de una ecuación diferencial —un espacio matemático conformado por las variables que describen la dinámica del proceso.
En el mismo año Stephen A. Forbes consideró que, partiendo del impredecible resultado de la competencia entre las especies que ocupan un pequeño volumen de agua, se llega al orden imperante en la escala de todo un lago, sosteniendo que la selección natural es la fuerza que mantiene ese orden sin poder explicar lo que conduce al caos aparente en la microescala. En esto seguía la idea de Darwin, para quien la principal causa que produce la multitud de formas de vida es la fuerza de la selección natural, motor de las trasformaciones de las especies en un mundo cambiante.
En las primeras décadas del siglo xx, el matemático Vito Volterra utilizó la técnica elaborada por Poincaré para explicar el planteamiento realizado por su yerno sobre las fluctuaciones en los volúmenes de pesca durante los años de la Primera Guerra Mundial, y en 1926, simultáneamente con Alfred Lotka, Volterra inventó las ecuaciones sobre competencia, y en una carta a la revista Nature se observa el uso del espacio de fases para contestar una pregunta ecológica. Desde entonces, la utilización de las isoclinas derivadas de la cuenca de atracción del espacio de fases y de las ecuaciones de Volterra se han aplicado profusamente en ecología de poblaciones.
La trayectoria de un péndulo puede representarse como un sistema disipativo —aquel que no conserva su propia energía, también llamado hamiltoniano— donde se grafica la posición contra el impulso —que es el producto de la velocidad por la masa— en el espacio de fases. Debido a la pérdida de energía por fricción el péndulo tenderá a detenerse en un punto, independientemente de la energía con la que inicie su trayectoria; a ese punto se le conoce como atractor puntual. Si imaginamos el péndulo libre de fricción, su trayectoria será infinita, y en el espacio de fases quedará representada como un ciclo. A este tipo de atractor se le conoce como atractor de ciclo límite. A la región en el espacio de fases cuya tendencia sea llegar al atractor se le conoce como cuenca de atracción. En 1967 Edward Lorenz, al estudiar el flujo de gases en la atmósfera, encontró un atractor con estructura fractal, por lo cual nunca se repite la misma trayectoria. A este atractor se le llamó atractor extraño. Los fenómenos caóticos deterministas por lo regular presentan este tipo de atractores.
En 1974 Robert M. May señaló que incluso ecuaciones más sencillas que las de Lotka-Volterra tienen un comportamiento muy complejo. Para probarlo, iteró la ecuación logística desarrollada en el siglo xix por Pierre-August Verholst y percibió, al graficar la tasa de crecimiento r contra la población p, que a partir de una r de aproximadamente 3.57 y menor que 4 se llegaba a un comportamiento de bifurcación que progresivamente conducía a una región estrecha donde la cantidad de posibles resultados era infinita, pero bajo determinadas cantidades de r se llegaba a ventanas donde era posible predecir el resultado. Esto es, May descubrió un caos determinista, también llamado complejidad. Con r menor que 4 se alcanza un estado donde es imposible predecir en cualquier escala, esto es, un comportamiento estocástico.
Caos proviene del griego, equivale a abismo o desorden. En realidad la mejor definición de caos determinista es una alta sensibilidad a las condiciones iniciales en un fenómeno donde se puede demostrar que hay acotamiento; esto es, uno con un atractor donde, por la imposibilidad de conocer todas las condiciones iniciales, se llega a una divergencia en la trayectoria, que no sea susceptible de predicción a largo plazo (un fenómeno es caótico si el exponente de Lyapunov tiene valores positivos). La diferencia entre éstos y los fenómenos estocásticos es que los caóticos son deterministas y susceptibles de predicción a corto plazo, mientras que los segundos son imposibles de predecir en cualquier tiempo, por tanto su atractor será de la misma dimensión que el espacio de fases.
La aportación de May impactó las ciencias físicas, donde los comportamientos caóticos en ecuaciones de ecología de poblaciones se conjugaron con los problemas de matemáticos como Mandelbrot y Ruelle, y de químicos como Prygogine, para impulsar una revolución científica que derribó el determinismo, conformado la ciencia del caos o teoría del caos. Posteriormente se descubrió que gran cantidad de fenómenos y estructuras de la naturaleza tienen comportamiento caótico. Sin embargo, en ecología se consideraba que los sistemas no lineales y los comportamientos caóticos no eran más que una posibilidad teórica, o incluso un comportamiento matemático sin aplicación real en sistemas ecológicos. Pero, tras el descubrimiento de May, Michael Gilpin demostró que las ecuaciones de Lotka y Volterra tenían en el espacio de fases un atractor fractal, con lo que se podía concluir que poseían, al igual que la ecuación logística, un comportamiento caótico. Los atractores fractales en el espacio de fases fueron encontrados teóricamente y como explosiones demográficas en plagas de Thrips imaginis y en las fluctuaciones demográficas del lince. También se pensaba que los comportamientos caóticos sólo podían producirse a partir de perturbación humana, pues al reducirse las poblaciones hasta densidades cercanas a la extinción sólo podían tener crecimiento, lo cual llevaría a una continua retroalimentación positiva que podría implicar comportamientos caóticos —o sea la imposibilidad de predecir el resultado del crecimiento poblacional—, pero sólo bajo sistemas modificados, lo que querría decir que los sistemas naturales serían anticaóticos.
En la actualidad, se considera que el caos se presenta en muchos fenómenos ecológicos, como en el ensamblaje de las comunidades. Se ha observado en una comunidad de fitoplancton que al presentarse oscilaciones caóticas, el número de especies supera lo esperado por la teoría de la exclusión competitiva, al menos teóricamente. También se encontró que es posible sostener hasta nueve especies por tres recursos limitantes, con lo que puede explicarse la llamada paradoja del fitoplancton; además se demostró que el resultado de dicha competencia es impredecible por contener en el espacio de fases un atractor fractal.
Autosimilitud en los fenómenos biológicos Una consecuencia de los sistemas no lineales, derivada de las ecuaciones en potencia, es la autosimilitud a diferentes escalas. A fines del siglo xix fueron descubiertas ciertas figuras que contradecían la geometría euclidiana, que no correspondían ni a una línea, un punto, una superficie o un volumen, sino que parecían ser intermedios a estas dimensiones. Poincaré las llamo monstruosidades y para tratar de explicarlas inventó la rama de las matemáticas conocida como topología, donde el punto tiene dimensión igual a cero, la línea a uno, la superficie a dos […] pero hay figuras cuya dimensión es intermedia, como la dimensión de Hausdorff. Las mostruosidades fueron olvidadas hasta 1975, cuando Benoit Mandelbrot las denominó fractales; a partir de ese momento la geometría fractal empezó a considerarse casi ubicua en los fenómenos naturales.
La palabra fractal proviene del latín fractus que significa irregular. Neologismo inventado por Benoit Mandelbrot, quien, al estudiar las diversas mediciones de la costa de la Gran Bretaña, demostró que la longitud podía llegar hasta un infinito teórico. Esto se debe a que la longitud de la costa depende de la unidad de medición, ya que mientras más fina sea más larga será la costa, pues se requerirán más pasos para medir el objeto, y por la forma de la costa se incluirán cada vez más irregularidades, lo que coincide con la foma de los fractales, rugosa y autosimilar. Estas figuras ocupan un intermedio entre las euclidianas y las geométricamente caóticas, que son rugosas pero no presentan ningún patrón de regularidad. Su dimensión topológica es fraccionaria, y en sistemas biológicos tienden a ocupar prácticamente toda la dimensión anterior con el mínimo de llenado en la siguiente, lo cual es claro cuando se piensa en el sistema circulatorio de mamíferos, pues puede irrigar todo el cuerpo —tendencia a una superficie infinita— ocupando 5% del volumen total.
Los fractales pueden utilizarse con provecho en ecología por su característica autosímil en distintas escalas —claro que en los sistemas naturales la escala se ve limitada por la estructura física. Las aplicaciones de los fractales en ecología y evolución se observan en la medición del hábitat, donde a mayores escalas pueden encontrarse más especies por unidad de volumen; en la estructura de muchas formas como hojas y vasos sanguíneos; en la manera como están agrupadas las especies en géneros, pues podría decirse que los árboles filogenéticos siguen una estructura fractal; en las estadísticas de extinción, donde se percibe un patrón autosimilar entre las cinco grandes extinciones de la historia, su recuperación y periodos de estasis. Puede decirse que toda la alometría sigue una estructura fractal derivada de las ecuaciones en potencia. Esto se debe a que en la naturaleza se producen fenómenos de autorganización que conducen a la estructura anidada típica de los fractales, incluso podría esperarse que este comportamiento sea tan ubicuo que permitiría llegar a una teoría unificada de los sistemas biológicos.
Caos, microevolución y macroevolución Para probar que en pequeñas escalas evolutivas también se presentan comportamientos caóticos se han usado diferentes modelos que implican series de tiempo menos largas que las utilizadas para macroevolución. Así, se ha probado la presencia de fluctuaciones caóticas en la frecuencia genotípica —proporción de un genotipo, que es el conjunto de la información genética que porta un individuo, en una población— en casos donde la adecuación del heterocigoto —que representa la proporción de la contribución de un individuo que porta un gen o alelo dominante de un progenitor y uno recesivo del otro a las siguientes generaciones— es la media de la adecuación de los homocigotos —individuos cuya constitución genética consiste en el mismo alelo, dominante o recesivo, para un carácter hereditario—, y donde los heterocigotos tendrían un efecto destructivo sobre los homocigotos y sobre ellos mismos, aunque en el último caso más ligero. Si a este comportamiento se asocia una baja adecuación promedio y una alta fecundidad se obtiene una fluctuación caótica, lo que puede probarse para organismos como Tribolium. Este resultado comprobó que, en genética de poblaciones, incluso en los modelos sencillos de densodependencia, que depende de su densidad, se pueden observar comportamientos complejos. En este caso la selección natural implica la aparición de caos. Las otras fuerzas de la evolución también pueden llevar a fluctuaciones caóticas, como los mutatores —cepas altamente mutables de algunas bacterias como Escherichia coli— en entornos fluctuantes. Las cepas más susceptibles de mutación se adaptan en ambientes más fluctuantes, las menos mutables tienen mayor adecuación en ambientes estables, y en ambientes intermedios mutan cíclicamente. Sin embargo, en un medio donde los cambios sean muy variables —estocásticos o caóticos— las cepas más exitosas serán las que muten en forma compleja, caótica. Este tipo de fluctuación podría permitir una pronta adaptación a los continuos cambios ambientales. El estudio de estrategias evolutivamente estables, producto de la competencia entre fenotipos convergentes en un estado de mayor adecuación para toda una población, el cual es consecuencia de la búsqueda de cada individuo por aumentar la suya, también proporciona resultados interesantes. Por ejemplo, se demostró que la tasa de supervivencia y el reclutamiento pueden llevar a un compromiso (trade-off) entre semelparidad —organismos que se reproducen sólo una vez; el nombre proviene de Sémele, amante de Zeus que murió al ver al Dios en todo su esplendor— e iteroparidad —organismos que se reproducen más de una vez. Cuando la dinámica de la población es densodependiente se presentan tres posibles resultados: un equilibrio estable, donde la estrategia evolutiva sería semelparidad; un escenario donde el equilibrio estable mantenga la semelparidad y también haya dinámica no lineal con iteroparidad como estrategia evolutiva; y un estado donde ambas estrategias sean mutuamente invasivas, entonces no existiría equilibrio, por lo que podría presentarse una fluctuación caótica. En escalas microevolutivas, el caos puede ser adaptativo, como en el caso de los mutatores, manteniendo a las cepas más exitosas en los ambientes más variables, y además puede servir como mecanismo estabilizador. Aunque en pequeña escala las oscilaciones caóticas pueden conducir a extinciones locales, en un contexto global el caos evitaría las extinciones —por ejemplo, de una metapoblación— mediante asincronías locales probablemente debidas a las condiciones iniciales. Esto implica que en el espacio global el caos sería un mecanismo estabilizador que propicia la permanencia.
En el contexto macroevolutivo también se percibe la presencia de dinámicas no lineales, como la autosimilitud en las estadísticas de extinción del registro fósil, indicio de una estructura fractal, que se presenta a diferentes escalas temporales y sugiere regularidad en el registro de extinciones. Por esto, se ha propuesto que causas extrínsecas e intrínsecas a la biología de las especies pueden influir en la extinción regular de géneros y que los ciclos de extinción se repiten cada 26 millones de años. La inspección en el registro de extinciones de los tiempos medios de vida de diferentes géneros y de la distribución de frecuencias en ese registro indica que en tiempos geológicos la extinción se ajusta a una función de potencia decreciente. Esto puede implicar que existe una respuesta no lineal de la biósfera a perturbaciones como, por ejemplo, los meteoritos. Las causas de las extinciones pueden deberse a una multitud de factores, incluyendo uno intrínseco, que sería la dinámica no lineal de la biósfera, actuando como consecuencia de perturbaciones externas o internas. Otro patrón macroevolutivo que puede considerarse no lineal es el de abundancia de los taxa. Al considerar la agrupación de especies por género y de taxa, en el más inclusivo se produce una serie de bifurcaciones que se ajustan muy bien con el proceso de bifurcación matemática conocido como Galton-Watson, una construcción fractal probabilística dependiente de factores estocásticos, más que de un proceso de criticalidad autorganizada.
Los sistemas dinámicos tienden a evolucionar hacia estados lejanos al equilibrio crítico. Se ha propuesto que este mecanismo puede ser la criticalidad autorganizada; es decir, cuando sistemas complejos lejanos del equilibrio evolucionan espontáneamente hacia un estado crítico donde se producen avalanchas periódicas de actividad. Es como cuando se acumula arena en una superficie, al principio se tiene una acumulación sin cambios, luego comienzan a surgir pequeñas avalanchas que posteriormente pueden llevar a varias de mayor magnitud y periódicas. Se ha considerado que cuando un genotipo muta y aumenta su adecuación, baja instantáneamente la de otros genotipos, lo que llevaría a que sean favorecidas las mutaciones de los otros para aumentar su adecuación, resultando una coevolución, que sería una avalancha de coevolución en un tiempo relativamente breve.
La escala más amplia a la que se ha propuesto un sistema evolutivo es la de Gaia, teoría que propone que a escala planetaria hay un sistema cibernético autorganizado y abierto a la materia y la energía, que tiene como límite superior la exósfera y como inferior la corteza susceptible a la acción de la intemperie; es decir, sus límites abarcan tanto la zona influida por la vida, como la que a su vez la influye. Este sistema posee amplios mecanismos de retroalimentación espacial y temporal, ya que la vida ha moldeado las características del planeta, diferenciándolo de los otros del sistema solar, como Venus o Marte, consolidando un sistema estable con cambios en formas pero relativamente constante en el tiempo. Sus principales postulados es que la vida afecta el ambiente, de donde toma energía libre para disminuir su propia entropía, liberando a su vez productos de desecho ricos en entropía. Simultáneamente, la vida se ve limitada por el ambiente que puede definir la habitabilidad de un sitio. Los organismos vivos tienen como propiedades el crecimiento y la reproducción, y se determinan los genotipos dominantes por selección natural. Se puede considerar que Gaia es un sistema adaptativo complejo. Complejo viene del griego Pleko que significa entretejido. La teoría de la complejidad, que busca los orígenes de la organización, puede considerarse una extensión de la cibernética. Un problema complejo no puede entenderse mediante el conocimiento de las partes, debido a que posee propiedades únicas no explicadas a partir de sus componentes. La complejidad es percibida como un subconjunto de los sistemas dinámicos, y a su vez se subdivide en sistemas ordenados, críticos y caóticos. Los sistemas complejos adaptativos constan de tres elementos, diversidad e individualidad de componentes, interacción entre los componentes y un proceso autónomo de selección, basado en la interacción que permite la perpetuación. De estos elementos se desprenden propiedades como adaptación continua, ausencia de control global, organización jerárquica, novedad perpetua y dinámicas lejanas al equilibrio. Como la segunda ley de la termodinámica prohibe la autorganización resultante de las propiedades emergentes de los sistemas complejos adaptativos, éstos son disipativos.
Así, Gaia posee propiedades emergentes en función de la diversidad e individualidad de componentes interactuantes bajo un proceso autónomo —selección natural. Es un sistema complejo pues está lejano al equilibrio, es regenerativo y presenta una jerarquía en sus partes. Se podría considerar que es adaptativo porque sus partes han llevado a flujos geológicos, bioquímicos y físicos que se modifican con el tiempo. Si se revisa la historia de la Tierra se puede observar que ha transitado a un período con una alta productividad y biodiversidad, el cual se ha mantenido más o menos estable desde el tránsito de una atmósfera reductiva a una oxidativa.
Consideraciones finales El resultado de la evolución es la biodiversidad y ambos sistemas son complejos. La actual interacción de los componentes de la biodiversidad se puede estudiar mediante herramientas como las redes complejas, que están sujetas a comportamientos dinámicos. De esta manera se trata de comprender las redes tróficas y las cadenas metabólicas. Para estudiar la evolución se ha propuesto un modelo que demuestra que un sistema ecológico sencillo, a lo largo del tiempo, puede desencadenar fluctuaciones en la frecuencia de extinciones que se ajustan muy bien con el equilibrio puntuado. En un paisaje adaptativo donde ninguna especie adquiere un máximo de adecuación, una que mute y alcance mayor adecuación a costa de las otras interactuantes desencadenará una explosión de cambios hasta llegar a un período de estasis. Esta idea implica que un modelo no lineal puede explicar bien la teoría del equilibrio puntuado de Niles Eldredge y Stephen Jay Gould. En este caso, el puntualismo sería visto como un comportamiento esperado de la dinámica no lineal de una función de potencia, que se ajusta a la cadena de radiaciones adaptativas y a la de extinciones.
|
||
Dado que el modelo contempla ambas posibilidades, pueden esperarse extinciones de gran magnitud cada determinado tiempo, lo que c o r respondería a los ciclos de 26 millones de años pro p u e stos por Sepkoski. Las extinciones y otros procesos macro-e vo l u t i vos pueden pre s e n ta rse sin necesidad de invo c a r causas distintas a la dinámica propia de la evolución.
¿Es la evolución un sistema fractal? Es posible que los p rocesos micro e vo l u t i vos estén regidos por leyes deterministas no lineales, y que también los macro e vo l u t i vo s sean consecuencia de la dinámica no lineal. La idea de p ro t e ctorados sugiere que los procesos regidos por dinámicas no lineales en sistemas muy distintos, pueden presentar el mismo resultado estructural o el mismo tipo de fluctuación en el tiempo. Es posible que se presente un protectorado en los patrones evolutivos; sin embargo, se ha demostrado que muchos procesos en evolución son lin e a l e s, como la selección natural. El hecho de que se presenten comportamientos que no tienen ninguna relación con la no-linealidad no implica que se descarte este modelo de estudio, al contrario, puede enriquecer al modelo.
No es posible llegar a un total entendimiento de la naturaleza ya que desconocemos las condiciones iniciales decasi todos los fenómenos.
La aparición de la vida y su incre m e n to en complejidad estructural no es un proceso surgido entre un mar deposibilidades, en palabras de Cocho y Miramontes, es necesario separar lo posible de lo viable. Actualmente muchos pensadores proponen que la aparición de la vida y su posterior evolución es un proceso necesario dadas las condiciones de un planeta como la Tierra, y que es un proceso que, de repetirse las mismas condiciones, volvería a s u c e d e r, con entidades distinta s, pero con vida. Estas ideas s u g i e ren que los sistemas auto rg a n i zados no son pro d u c to s estocásticos sino necesarios, lo que indica que el caos determinista está profundamente asociado con la aparición de la vida y la evolución.
A r t u ro Rosenblueth, un ferviente determinista, planteaba con mucha razón que la ciencia es un modelo de la n a t uraleza y como tal está limitado. El mejor modelo simplemente será el que explique mejor los fenómenos, pero nunca podrá ser tan exa c to como para reconstruir la re a l idad, en el momento que se pueda reconstruir, la ciencia ya no será necesaria, como sucede en el cuento El arte de la carto g ra f í ade J. L. Borg e s. Entonces hay que ex p l o rar los sistemas no lineales como modelos simplificados de la naturaleza, pero tal vez más explicativos que los lineales.
|
||
Rodrigo Méndez Alonzo
Instituto de Ecología, A. C. |
||
Referencias bibliográficas:
Forbes, S. A. 1887. “The lake as a microcosm”, en Foundations of Ecology. Classic Papers with Commentaries, L. A. Real y J. H. Brown (eds.), University of Chicago Press, Chicago. Volterra, V. 1926. “Fluctuations in the Abundance of a Species considered Mathematically”, en Foundations of Ecology. Classic Papers with Commentaries, L. A. Real y J. H. Brown (eds.), University of Chicago Press, Chicago. May, R. M. 1974. “Biological populations with non- overlapping generations: stable points, stable cycles and chaos”, en Foundations of Ecology. Classic Papers with Commentaries, L. A. Real y J. H. Brown (eds.), University of Chicago Press, Chicago. Gilpin, M. 1975. “Limit cycles in competition communities”, en Am. Nat., vol. 109, núm. 965, pp. 51-60. Schaffer, W. M. y M. Kot. 1985. “Do strange attractors govern ecological systems?”, en Bioscience, vol. 35, núm. 6, pp. 342-350. Schaffer, W. M. 1985. “Order and chaos in ecological systems”, en Ecology, vol. 66, núm. 1, pp. 93-106. Berryman, A. A. y J. A. Millstein. 1989. “Are ecological systems chaotic- and if not why not?”, en tree, vol. 4, núm. 1, pp. 26-28. Huisman, J. y F. J. Weissing. 1999. “Biodiversity of plankton by species oscillations and chaos”, en Nature, núm. 402, pp. 407-410. Sugihara, G. y R. M. May. 1990. “Applications of fractals in ecology”, en tree, vol. 5, núm. 3, pp. 79-86. Talanquer, V. 2002. Fractus, fracta, fractal. fractales, de laberintos y espejos. Fondo de Cultura Económica, México. Brown, J. H., V. K. Gupta, B. Li, B. T. Miller, C. Restrepo y G. B. West. 2002. “The fractal nature of nature: power laws, ecological complexity and biodiversity”, en Phil. Trans. R. Soc. Lond. B., núm. 357, pp. 619-626. Altenberg, L. 1991. “Chaos from linear frecuency dependent selection”, en Am. Nat., núm. 138, pp. 51-68. Travis, J. M. J. y E. R. Travis. 2002. “Mutator dynamics in fluctuating environments”, en Proc. R. Soc. Lond. B., núm. 269, pp. 591-597. Nash, J. 1950. “Equilibrium points in N-person games”, en pnas, núm. 36, pp. 48-49. Ferrière, R. y G. A. Fox. 1995. “Chaos and evolution”, en tree, vol. 10, núm. 12, pp. 480-485. Bascompte, J. y R. V. Solé. 1995. “Rethinking complexity: modelling spatiotemporal dynamics in ecology”, en tree, vol. 10, núm. 9, pp. 361-366. Chu, J. y C. Adami. 1999. “A simple explanation for taxon abundance patterns”, en pnas, vol. 96, núm. 26, pp. 15 017-15 019. Lenton, T. M. y M. van Oijen. 2002. “Gaia as a complex adaptive system”, en Phil. Trans. R. Soc. Lond. B., núm. 357, pp. 683-695. Strogatz, S. H. 2001. “Exploring complex networks”, en Nature, núm. 410, pp. 268-276. Sneppen, K., P. Bak, H. Flyvbjerg, y M. H. Jensen. 1995. “Evolution as a self-organized critical phenomenon”, en pnas, núm. 92, pp. 5 209-5 213. _______________________________________________________________
como citar este artículo → Méndez Alonzo, Rodrigo. (2005). La evolución biológica como sistema autorganizado, dinámicas no lineales y sistemas biológicos. Ciencias 79, julio-septiembre, 26-34. [En línea]
|
||
←Regresar al índice ⁄ artículo siguiente→ |
Reduccionismo y biología en la era postgenómica |
|
|
Edna Suárez Díaz
conoce más del autor
|
||
HTML↓ | ||
|
||
Coloquialmente, el término reduccionista se utiliza de manera peyorativa, denotando no sólo simplismo sino una fuerte carga ideológica. En biología, con frecuencia se utiliza de manera confusa, junto con una de las ideas más polémicas en la ciencia, el determinismo —sobre todo el genético. A pesar de ello, la mayoría de los científicos adoptan algún tipo de compromiso reduccionista para llevar a cabo sus investigaciones.
El reduccionismo tiene una interesante historia en la filosofía de la ciencia, sus raíces se encuentran en la concepción mecanicista defendida por Descartes en la primera mitad de siglo xvii. Aunque hay diferentes maneras de caracterizarlo, el mecanicismo generalmente asume que el comportamiento de un objeto, en particular de una máquina, está determinado por leyes mecánicas que actúan sobre sus partes, constituidas por materia inerte. Describir las partes que conforman una máquina es el primer requisito en la comprensión de su funcionamiento; así, si queremos saber cómo funciona un reloj estudiamos las partes y mecanismos que determinan el movimiento de sus agujas. Según Descartes, este modelo sirve para estudiar y explicar el comportamiento de los seres vivos, y alrededor de 1648 pretendió utilizarlo en su estudio del problema de la generación —reproducción—, esto es, el desarrollo del feto. La intención cartesiana desató una gran polémica con los vitalistas, quienes no creían que se pudiera eliminar de las explicaciones biológicas la intervención de una fuerza material o divina que organice la materia. El debate, que tuvo repercusiones hasta bien entrado el siglo xix, es muy importante en la historia de la ciencia porque promovió una mayor precisión en la definición del carácter de las explicaciones e investigaciones científicas.
En la primera mitad del siglo xx, la filosofía de la ciencia estuvo dominada por el positivismo lógico o neopositivismo, escuela que considera fundamental comprender la estructura lógica de las teorías, y que sostiene que el conocimiento científico se encuentra contenido exclusivamente en las teorías acabadas de la ciencia. La reducción era entendida como una relación en la que unas teorías o dominios del conocimiento podían ser reducidos o explicados por otros de carácter más general; por ejemplo, la reducción de la biología a la física. Gracias a este concepto, se contaría con teorías cada vez más inclusivas y generales de los fenómenos naturales. Además, la reducción era importante porque estaba ligada con el ideal de la unidad de la ciencia, el cual era más que nada un movimiento cultural, como señaló John Dewey. El proyecto clave de los neopositivistas, la enciclopedia de la ciencia unificada, fue impulsado con la esperanza de que una visión científica e internacional del mundo conjuraría las concepciones nacionalistas y racistas —que eventualmente desembocaron en el nazismo y el fascismo—, contra las cuales estos filósofos se enfrentaban a muerte. “Ícono, marca de verdad o canto de sirena, la unificación ha representado mucho más que un objetivo puramente científico o simbólico”, afirmó el historiador de la física, Peter Galison.
El trabajo de los positivistas lógicos y de sus sucesores es tan amplio que ahora se considera que el reduccionismo es en realidad una familia de problemas y modelos. Una clasificación muy utilizada de éstos es la planteada en 1962 por el biólogo Ernst Mayr, quien sostiene que el término reduccionismo se utiliza al menos en tres sentidos: el constitutivo, el explicativo y el teórico. El primero no es problemático para los científicos del siglo xx pues se refiere al hecho de que la composición material de los organismos es la misma que la de la materia inorgánica. El segundo trata sobre la explicación de un todo en términos de sus partes, acepción relacionada con el uso de la metáfora cartesiana del reloj. El tercero aborda la relación que permite la deducción y explicación de una teoría por otra de mayor generalidad, es decir, el modelo desarrollado por los neopositivistas.
De acuerdo con el modelo clásico de reducción teórica, publicado por Ernst Nagel en 1961, las teorías consisten en sistematizaciones de observaciones —leyes o regularidades— legitimadas gracias a procedimientos experimentales o de observación —si bien esta legitimación no tiene que ser directa. Para Nagel, una teoría B se reduce a una A cuando lo que dice la primera sobre lo que es observable puede deducirse —lógicamente— de la segunda. Para que esto ocurra deben cumplirse dos condiciones: que la explicación de una teoría por otra se realice por medio de una relación deductiva —lo que implica asumir que las explicaciones son nomológico-deductivas, es decir, a partir de leyes generales o universales deducir casos particulares—; y que existan relaciones de identidad entre los términos a los que se refiere cada una de las teorías —A y B. Resulta claro que la derivación de una teoría por otra sólo es posible si la relación entre los términos de ambas es transparente. Nagel se percató de las dificultades de establecer dicha relación —es casi imposible que los términos de dos teorías diferentes, como las de Newton y Einstein, tengan una relación uno a uno—, por lo que propuso la formulación de leyes o principios puente que permitieran conectar los términos de ambas teorías.
Sin embargo, incluso un ejemplo tan socorrido como el de la reducción de la ley de Galileo de la caída libre de los cuerpos sobre la superficie de la Tierra, a la ley de la gravitación universal de Newton, es problemática cuando se trata de entender de acuerdo al modelo de Nagel. Diversas investigaciones —iniciadas con un artículo publicado en 1962 por Feyerabend— mostraron muchas dificultades con ese proyecto, concluyendo que en este particular ejemplo sólo podía llevarse a cabo una reducción aproximada. En biología, el trabajo de filósofos como Keneth Schaffner, David Hull y William Wimsatt fue muy importante; en la década de los setentas demostraron que era imposible cumplir con las condiciones del modelo de Nagel. Hull, en el marco de una larga discusión acerca de si la genética clásica podía reducirse a la biología molecular, fue de los primeros en sostener que en la última las explicaciones recurren a mecanismos responsables de determinados fenómenos y no existen lo que propiamente se llaman leyes en la tradición empirista; esto es, relaciones entre fenómenos descritas por enunciados de aplicación universal. También mostró que no existe manera de traducir los términos y conceptos de la genética clásica a los de la biología molecular. Incluso en el caso de querer reducir teorías que aparentemente se refieren al mismo dominio de fenómenos, el modelo de Nagel no se cumple. Debido a la acumulación de argumentos de este tipo en los últimos treinta años podemos afirmar que actualmente el reduccionismo teórico está de capa caída en la biología.
Mientras tanto, Stuart Kauffman y William Wimsatt desarrollaron modelos que tenían mayor cercanía con los problemas y soluciones del quehacer de los biólogos; lo cual coincide con la sustitución de la física por la biología, como modelo de la filosofía de la ciencia. En los nuevos modelos, una explicación reduccionista involucra reglas y mecanismos empíricos que, con frecuencia, no forman parte de ninguna teoría explícita. Así, se reconoce que el reduccionismo tiene que ver con mecanismos y su alcance explicativo en diferentes niveles de organización. Además, la atención se centra en explicaciones cuyo objetivo es modelar los organismos como sistemas en los que la interacción de partes es sumamente compleja. El énfasis en el estudio de la relación entre mecanismos particulares —y los niveles de organización que esto requiere— y en aspectos ontológicos de la relación entre el todo y las partes en casos específicos plantea problemas concretos que desplazan a los típicos ejemplos de la filosofía neopositivista, permitiendo reflexionar de manera concreta en el tipo de explicaciones que construyen los biólogos en áreas como la biología del desarrollo, la genética, la evolución y la biología molecular. Esto ha sido especialmente propicio para abordar los temas apremiantes que surgen como resultado del avance de la biología molecular.
Explicación versus estrategia William Wimsatt y otros de sus colegas señalan que podemos hablar de reduccionismo en dos grandes sentidos: como una forma de explicación o como una estrategia —o heurística— de investigación. Según Wimsatt, la clasificación de Mayr se refiere sólo al primer tipo. Esta distinción, a partir de un enfoque funcional, permite hablar con mayor precisión de las actividades y productos de los científicos, en particular de aquellos involucrados con explicaciones genéticas. Wimsatt sostiene que “en un universo en el que el reduccionismo es una buena estrategia, las propiedades de las entidades de nivel superior son explicadas mejor en términos de las propiedades e interrelaciones de las entidades de nivel inferior”. Es decir, a diferencia de la tradición neopositivista, él y sus seguidores, incluyendo a Lewontin, consideran que los niveles de organización son entidades reales. Ello explica, según estos autores, los éxitos de las estrategias reduccionistas a lo largo de la historia de la ciencia moderna y el por qué, pese a declaraciones en contrario, la mayoría de los científicos las adoptan como su forma de hacer investigación. Sin embargo, lo anterior no significa que debamos hacer una apología de las explicaciones reduccionistas. Las estrategias de investigación de los científicos —o como las llama Wimsatt, las heurísticas— sistemáticamente introducen sesgos en su investigación. Por ello, la reduccionista introducirá un tipo de sesgos que son inevitables en la percepción y explicación de los fenómenos; lo que puede hacerse al respecto es tener clara conciencia de cuáles son tales sesgos. Además, podemos lidiar con ellos si reconocemos que existen estrategias distintas, las cuales nos permiten contrastar y detectar lo que está mal de nuestras explicaciones reduccionistas. Pero en la ciencia en cierto sentido el reduccionismo es inevitable; es una estrategia entre otras, pero una muy eficiente debido a la estructura de la materia y del mundo.
Por su parte, el determinismo, en el caso de la genética, establece que un tipo de entidades individuales, los genes, son los elementos centrales o privilegiados en la explicación de un fenómeno en un nivel superior de complejidad; posteriormente los responsabiliza como única causa de ese fenómeno. Éste es uno de los sesgos más peligrosos introducidos en la investigación biológica por el uso de estrategias reduccionistas, las cuales sistemáticamente —en genética y biología molecular— enfocan sus baterías hacia la detección de las partes —los genes— de un mecanismo. Sin embargo, debemos subrayar que determinismo y reduccionismo no son sinónimos. Puede haber reduccionismo —es decir, explicaciones de fenómenos que apelan a mecanismos, o reconocimiento de que es importante describir la interrelación de las partes de un organismo—, sin que necesariamente haya determinismo. En cambio, lo contrario no se cumple. Richard Lewontin y muchos otros autores, incluido el recién fallecido Stephen Jay Gould en su libro The mismeasure of man, han documentado ampliamente las funestas consecuencias del determinismo biológico y, en particular, del genético, el cual ha dejado su marca no sólo al fomentar concepciones racistas y sexistas del ser humano, sino al impactar en cuestiones tan concretas como las políticas de inmigración, educativas y otras en diferentes lugares y momentos. Por supuesto, el determinismo también tiene una larga historia en la filosofía y en la ciencia. Por ejemplo, al inicio del siglo xx, el determinismo biológico estuvo íntimamente ligado a la discusión registrada en psicología, antropología y otras ciencias sociales acerca de si los rasgos biológicos de una persona —o de una raza— determinaban su comportamiento social o si, por el contrario, éste se debía a influencias de tipo cultural o social.
Problemas y retos para el futuro El desarrollo de la ingeniería genética y, más en general, de la biotecnología, genera grandes expectativas, pero también atrae la atención de los críticos al reduccionismo y al determinismo genético. Avances en las técnicas de diagnóstico genético y de reproducción asistida, en el desarrollo de fármacos que alteran el comportamiento, así como en la investigación de temas tan distintos como la terapia génica o las células troncales, todos ellos en el marco de una biología que completó la primera fase del Proyecto Genoma Humano, inducen a pensar que numerosos problemas tanto médicos como de orden social podrán tener una pronta y eficaz solución. Sin embargo, la historia de la ciencia ha mostrado que difícilmente la solución a los problemas de la humanidad puede tener un carácter “exclusivamente” científico. Vale la pena detenerse en las comillas ya que la ciencia es uno de los productos de nuestra cultura y, en ese sentido, no es claro que podamos delimitar las soluciones propiamente científicas de aquellas que incluyen otros aspectos. En efecto, las formas en que explicamos el mundo se encuentran cargadas de numerosas expectativas y valores. Lewontin señaló, por ejemplo, que dentro de los supuestos básicos que tienen un efecto profundo sobre las formas de explicación destacan el individualismo, la perspectiva reduccionista y una clara distinción entre causas y efectos que es característica de la ciencia moderna y, en particular, del reduccionismo explicativo. En esa concepción el “mundo es partido en dominios autónomos independientes, lo interno y lo externo; lo que en el caso de la biología desemboca en una perspectiva que percibe los organismos como individuos determinados por factores —o causas— internos, los genes”. Lewontin también indica que en nuestra cultura se prefieren las explicaciones que simplifican los procesos sobre las que reconocen que los fenómenos son “complicados, inciertos y desordenados, sin una regla simple o fuerza que explique el pasado y prediga el futuro”. Así, uno de los mayores males atribuibles a las heurísticas reduccionistas es precisamente su afán de simplificar, en aras de una supuesta visión científica, fenómenos complejos que requieren el análisis y la intervención de numerosas perspectivas, tanto a nivel explicativo como al de las respuestas o soluciones que se proponen. El panorama se complica cuando le añadimos el elemento del determinismo genético a nuestras explicaciones.
La ingeniería genética Casi es un lugar común la creencia de que las posibilidades de manipulación, aislamiento, caracterización y modificación de genes por medio de la ingeniería genética se potenciarán a partir de los logros del Proyecto Genoma Humano. Sin embargo, las historias que presentan estos desarrollos como cadena de eventos científicos y tecnológicos que modifican tanto la investigación biológica, como las políticas gubernamentales y los intereses de la industria, refuerzan la impresión de que las tendencias en la ingeniería genética tendrán consecuencias inevitables en muchos aspectos de nuestras vidas. Aunque existen distintas formas de contar la historia, puede decirse que la ingeniería genética inicia su desarrollo a partir de la década de los setentas, con las llamadas técnicas del adn recombinante. Los experimentos realizados en 1972 por David Jackson, Robert Symons y Paul Berg, en la Universidad de Stanford, se consideran un parteaguas en la historia de las posibilidades de manipulación genética. Estos científicos obtuvieron por primera vez una molécula de adn que contenía genes de organismos provenientes de diferentes especies biológicas y que podía replicarse numerosas veces en una bacteria. El impacto fue notable. De inmediato se anticiparon aplicaciones industriales, por ejemplo la producción de drogas como la insulina humana y la manipulación de especies de importancia en la agricultura. Influyentes publicaciones como Fortune, el San Francisco Chronicle y el New York Times pronto incluyeron artículos en los que las promesas de la ingeniería genética eran retratadas simultáneamente con su potencial comercial. La mayoría de las corporaciones farmacéuticas tardaron varios años en reaccionar, pero algunas lo hicieron con prontitud. Por ejemplo, en 1967 la empresa suiza Hoffman-LaRoche fundó en New Jersey el primer instituto dedicado a explorar las posibles aplicaciones de lo que posteriormente se llamaría ingeniería genética, y en 1971 se creo en Berkeley, California, la firma Cetus Corporation, primera dedicada expresamente a explotar los avances de la biología molecular.
Treinta años después, el panorama ciertamente ha cambiado. Por un lado, el desarrollo exponencial de las técnicas y herramientas de la ingeniería genética provoca que actualmente sea una parte común del quehacer cotidiano de cualquier estudiante de posgrado en un laboratorio de biología molecular. Además, la industria biotecnológica es una realidad y numerosas empresas de este tipo cotizan en las bolsas de valores e invierten en universidades de todo el mundo. En las industrias farmacéuticas y agrícolas, muchos organismos han sido modificados genéticamente para producir sustancias que se adquieren con relativa facilidad, como la insulina humana o el interferón gamma. Gracias a las grandes sumas invertidas en el Proyecto Genoma Humano, ahora los centros de adn son unidades —difícilmente se les puede llamar laboratorios, en el sentido tradicional del término— equipadas con robots, máquinas de secuenciación automática de genes y computadoras que analizan las grandes cantidades de información que se producen.
A pesar de ello, las posibilidades de intervención o manipulación del genoma humano no han cambiado mucho respecto al panorama de hace treinta años. Si acaso, conocemos con mucha mayor precisión la complejidad de los sistemas genéticos de los organismos, lo que significa que sabemos más acerca de la estructura del genoma, de los procesos que regulan la expresión de la información en muchos genes, de la manera en que los genes y otros factores de la célula —o del medio externo— influyen en diferentes momentos de la vida de un organismo, y de los mecanismos con que los seres vivos cuentan para amortiguar cambios en su genoma. Así, la posibilidad técnica de alterar el genoma de un organismo se encuentra, por un lado, cada vez más cerca, pero por otro, cada vez sabemos con mayor detalle lo difícil que será llevarlo a cabo sin generar efectos indeseables en el organismo y en su contexto. En el caso de los seres humanos, junto con los aspectos médicos se debe considerar los retos de orden familiar y social que harán posible —o impedirán— el acceso a este tipo de tecnología médica, así como las cuestiones de tipo ético que son urgentes de resolver; por ejemplo, el derecho de alterar el genoma de generaciones futuras de seres humanos.
El filósofo Philip Kitcher realizó un esfuerzo por revelar las falacias que se esconden en una visión ingenua, que si bien rechaza abiertamente el determinismo biológico, continúa atribuyendo directamente a los genes caracteres complejos. Su crítica se dirige contra la expectativa de contar con explicaciones y soluciones simples a problemas que tienen causas, desarrollo y consecuencias muy diversas. Por ejemplo, distingue dentro de las enfermedades genéticas, las que pueden enfrentarse mediante una terapia relativamente sencilla, las que actualmente sólo podemos paliar en sus consecuencias, y las que causan un deterioro inevitable y grandes dosis de sufrimiento para el enfermo y sus familiares.
Incluso en las enfermedades del primer tipo, como la fenilcetonuria, diagnosticada al momento del nacimiento gracias a un estudio que se aplica regularmente a los recién nacidos y cuya solución radica en un simple cambio de dieta durante la infancia hasta la adolescencia, el panorama no es tan simple como lo sostiene la versión determinista genética. Por ejemplo, los primeros años de diagnóstico de la enfermedad estuvieron plagados de errores —falsos positivos—, con graves consecuencias. Proporcionar la dieta de un fenilcetonúrico a un niño normal genera tanto retardo mental como la dieta normal en un niño enfermo; a la fecha se desconoce cuántos niños fueron afectados por este tipo de error. Asimismo, como las niñas con esta enfermedad rara vez se reproducían, nadie previó que una enferma sin seguir la dieta especial —la que le fue retirada en la adolescencia—, al estar embarazada ocasionaría gravísimos transtornos de desarrollo mental a su bebé. Incluso hoy, cuando los diagnósticos falsos han disminuido, persiste una gran cantidad de problemas que no son estrictamente genéticos. Diversos estudios revelan la existencia de numerosos factores que complican la vida del enfermo, como lo costoso e insatisfactorio de la dieta, la ausencia de apoyo comunitario y familiar, la falta de comprensión del problema, etcétera. Especialmente durante la adolescencia perturba la vida social a tal grado que padres e hijos deben sujetarse a una gran disciplina. Estos factores —falta de conocimiento, carencia de apoyo social y económico— explican que rara vez se cumplan las expectativas médicas y que muchos fenilcetonúricos padezcan al menos algunas de las consecuencias de su enfermedad.
Más complicado es el caso de enfermedades como el mal de Huntington, utilizado con frecuencia para ilustrar los beneficios de la biotecnología. Es una enfermedad que se desarrolla en hombres y mujeres, caracterizada por un grave deterioro neuronal que es física y mentalmente doloroso para el paciente y agonizante para quienes lo rodean. A diferencia de otras enfermedades genéticas, se trata de un carácter dominante; es decir, basta con que el padre o la madre hayan transmitido el gen para que la enfermedad se desarrolle. Cada hijo o hija de un portador tiene cincuenta por ciento de probabilidades de heredar la condición —recuérdese que los gametos o células reproductoras llevan sólo la mitad de la información hereditaria del resto de las células— y si alguno la hereda, con seguridad desarrollará el mal. Pero, dado que la enfermedad se manifiesta tardíamente en la vida del portador —generalmente entre los 30 y 50 años de edad—, es muy probable que éste ya haya tenido hijos y no pueda hacer nada para evitar su transmisión. Claramente, es un caso en el que un diagnóstico genético temprano parece tener grandes ventajas. Hasta los años ochentas no había manera de diagnosticar con antelación a los portadores. En la última década y media esta situación cambió y se detectó al gen responsable, se le mapeó y secuenció. Por supuesto, producto de una estrategia de investigación reduccionista, sostenida por grandes equipos de investigación y financiada para obtener resultados. En teoría, pareciera que aun en casos en donde no fuera posible hacer nada, contar con la información correcta redundaría en mejores condiciones para que los individuos tomen sus decisiones. Sin embargo, desde la aparición en el mercado de la prueba para diagnosticar el mal de Huntington, pocas personas se han sometido a ella. Muchos pueden sospechar desde la adolescencia que son portadores, pero aun así prefieren evitar la confirmación de tan malas noticias. Contar con dicha información puede ser devastador y alterar profundamente los planes de vida si no existe un sistema social que provea el apoyo y la asesoría psicológica y económica necesaria. A esto debemos añadir que, a la fecha, el mal de Huntington no puede ser curado; ni por la medicina tradicional ni por ningún tipo de intervención o ingeniería genética, y las probabilidades de que ello ocurra son remotas dado nuestro escaso conocimiento del sistema nervioso y de la manera como los productos del gen defectuoso interaccionan con otras partes del organismo para producir la enfermedad. Por ello, Kitcher concluye que pensar que la terapia génica consiste en un sólo tipo de respuesta a situaciones tan diversas como las de la fenilcetonuria y el mal de Huntington es no solo incorrecto, sino que responde a una expectativa simplista y entusiasta promovida mayoritariamente en los medios de comunicación masiva por los grandes intereses económicos en juego.
El Proyecto Genoma Humano Otro ejemplo de los límites del determinismo genético y de los alcances de las estrategias de investigación reduccionistas es el Proyecto Genoma Humano, oficializado en 1991 en los Estados Unidos y, tiempo después, transformado en un esfuerzo multinacional desarrollado sobre todo en Europa y Norteamérica. En abril de 2003, un consorcio privado y grupos de investigación pública liderados por la agencia gubernamental de los Estados Unidos, el National Human Genome Research Institute, anunciaron la obtención del primer borrador de la secuencia del genoma humano. Tiempo atrás, en febrero de 1988, un Comité del Consejo Nacional de Ciencia —brazo de la National Academy of Sciences—, recomendó, además de un gasto de 200 millones de dólares anuales a lo largo de quince años, que el trabajo de mapeo genético y secuenciación fuera llevado a cabo no sólo en la especie humana sino en otros organismos, lo que aceleraría la obtención de resultados mediante la comparación de sus secuencias, y que se destinara dinero al desarrollo de tecnologías de secuenciación automática y de análisis computacional de la gran cantidad de datos que se esperaban obtener. En los tempranos días del proyecto, numerosas voces, tanto de científicos como de reconocidos filósofos de la biología, evidenciaron que contar con una larga secuencia de letras era un objetivo inútil; conocer su significado o sintaxis es algo muy distinto. Pero asignar funciones biológicas a segmentos de adn es prácticamente imposible sin otras secuencias con las cuales establecer comparaciones, es peor que buscar una aguja en un pajar. Para establecer funciones es necesario encontrar similitudes en las secuencias del genoma humano y de otras especies de las que se pueda conocer más fácilmente, o ya se conozcan, las posibles funciones. A su vez, esto es factible solamente con programas de cómputo adecuados y mayor capacidad en las computadoras. Es por ello que, gracias al impulso tecnológico del Proyecto Genoma Humano, actualmente se conocen cerca de 200 genomas completos de organismos como bacterias, hongos, animales y plantas, lo que elevó la capacidad de asignar funciones a secuencias concretas. Anotar un genoma es la expresión que se usa para la actividad de establecer hipótesis sobre la posible función de una secuencia, gracias a su similitud con otra de otros organismos en los cuales se ha establecido previamente dicha función directa o indirectamente. Pero anotar el genoma humano no es solamente establecer similitudes con otros genomas; hace falta probar que, en efecto, dicha secuencia codifica para la función —la proteína— que se ha postulado, por lo que es necesario hacer bioquímica y biología molecular tradicionales: aislar el gen, amplificarlo, expresarlo, medir o probar la actividad de su producto —la proteína. Aun en ese caso, la información genética es de escasa utilidad si se desconocen sus mecanismos de regulación, la manera cómo interactúa el producto de esa secuencia con otros productos celulares y la información de tipo clínico o ambiental tan diversa que puede incluir cosas como los hábitos o el contexto psicológico. Así, ahora resultan fundamentales las bases de datos inteligentes, la posibilidad de correlacionar datos de orígenes muy diversos permitirá contrarrestar la simple idea determinista de que los genes codifican características complejas, y tomar en cuenta numerosos factores involucrados en su expresión al momento de plantear soluciones comprometidas con la calidad de vida.
Conclusiones
Resulta absurdo negar los avances de la genética, la ingeniería genética o la bioinformática; asimismo sería irresponsable negar la posibilidad de que estos avances puedan contribuir eventualmente a mejorar la condición humana. No en vano las asociaciones de familiares de personas que padecen algún tipo de enfermedad genética se encuentran entre los más feroces defensores de la inversión en biotecnología. Tales avances son una realidad, en buena parte, a raíz de los logros de una investigación científica guiada por estrategias o heurísticas reduccionistas, cuya aplicación ha resultado en multitud de explicaciones reduccionistas o mecanicistas de los organismos; pero hay dos maneras de lidiar con ese tipo de respuestas. Seguir el camino de creer que son suficientes y que no requerimos ningún factor adicional a los genes para dar cuenta de las características de los organismos de manera satisfactoria, lo que conduce al determinismo genético. O reconocer que esas explicaciones son resultado de nuestras particulares maneras de acceder a los fenómenos naturales y que, en ese sentido, conllevan los sesgos de los caminos que hemos elegido para estudiarlos. Con esto se admite que los genes no tienen por qué ser el factor explicativo privilegiado, lo que no cierra la puerta a otras estrategias y explicaciones que pueden enriquecer tanto nuestra comprensión como el tipo de soluciones que podemos proporcionar a los diferentes problemas que enfrentamos. Este camino es el del pluralismo explicativo, generalmente animado por la convicción de que hace falta mucho más que atribuirle responsabilidad a un gen para encontrar la solución a un problema.
La elección de un camino u otro no es una cuestión meramente científica. Involucra valores, intereses y compromisos. Para un científico puede resultar satisfactorio creer que cuenta con una solución simple y omnipotente, y que ello dota a su ciencia de un mayor estatus epistémico y social. En cambio, para otros es perentorio asumir la responsabilidad de reconocer que, para que la ingeniería genética y todas sus promesas funcionen, se requieren enormes avances en todas las esferas de la vida de las personas: educativa, política, social, familiar y económica.
|
||
Edna Suárez Díaz
Facultad de Ciencias,
Universidad Nacional Autónoma México.
|
||
Referencias bibliográficas:
Ayer, A. J. 1959. El positivismo lógico. Fondo de Cultura Económica, México.
Hull, D. L. y M. Ruse (eds). 1998. The philosophy of biology. Oxford University Press.
Kitcher, P. 1997. The lives to come. Simon and Schuster, Nueva York. Existe versión en español, Las vidas por venir. Instituto de Investigaciones Filosóficas, unam, 2000.
Lewontin, R. C. 2000. It ain’t necessarily so. New York Review Books, Nueva York.
Martínez, S. F. y A. Barahona (eds.). 1998. Historia y explicación en biología. Fondo de Cultura Económica, unam. México.
_______________________________________________________________
como citar este artículo → Suárez Díaz, Edna. (2005). Reduccionismo y biología en la era postgenómica. Ciencias 79, julio-septiembre, 54-64. [En línea]
|
||
←Regresar al índice ⁄ artículo siguiente→ |