De las secuencias de nucleótidos a la biología de sistemas |
|
|
Fox Keller, Evelyn
conoce más del autor
|
||
HTML↓ | ||
|
||
Actualmente, estamos presenciando cambios profundos en la dirección de la investigación científica —especialmente en biología—, que transforman nuestras preguntas, comprensión y expectativas. Como historiador del presente uno enfrenta toda clase de problemas, pero quizá el más serio, especialmente en tiempos tan agitados, es que la historia puede ir mucho más rápido de lo que un académico —al menos uno como yo— puede describirla.
Hace dos años y medio publiqué un libro llamado El siglo del gen. Era un intento por “mapear” una trayectoria del concepto desde la época del redescubrimiento de las leyes de Mendel, en 1900, hasta la secuenciación del genoma humano cien años después. Como tal era tanto una celebración a la productividad del concepto a través del siglo, como un argumento algo apasionado sobre la necesidad de continuar en lo que he llamado el siglo más allá del gen. Estuve de acuerdo con William Gelbart, un biólogo molecular de la universidad de Harvard, que escribió: “a diferencia de los cromosomas, los genes no son objetos físicos, sino conceptos que han adquirido un gran bagaje histórico durante las últimas décadas”, y “hemos llegado al punto donde el uso del término gen […] puede de hecho ser una limitante a nuestro entendimiento”. Algunos colegas suyos consideraron mi libro como “anti-genético”, lo que fue un error. Mi punto era que si el siglo xx se consideraba el siglo del gen, el XXI, con toda probabilidad, sería el siglo de la genética o de los sistemas genéticos. La diferencia es importante: la genética es el estudio del procesamiento del ácido desoxirribonucleico (dna) en la construcción de un fenotipo; mientras que los genes son las entidades que históricamente se asumen como las partículas de la herencia. La primera se refiere a las interacciones bioquímicas detrás de la construcción de los organismos; los genes, a un esquema conceptual hipotético, cuyo principal bagaje histórico data de su visión como unidades básicas —átomos— de la vida. Pero, ¿qué es un gen? El hecho es que los biólogos moleculares emplean un gran número de definiciones y que requieren toda esa variedad. En una son segmentos de dna que pasan intactos de generación en generación. Pero, ¿cuáles segmentos?, ¿los que codifican para proteínas?, ¿o deben ser incluidos los que lo hacen para cadenas de ácido ribonucleico (rna), que son cruciales para la regulación, pero nunca traducidos a proteínas? En otra definición un gen es la secuencia que codifica para una proteína particular —secuencia que, para los organismos superiores, existe sólo como un rna mensajero (m-rna), después de haber sido procesado. Sólo al separar los segmentos unidos del dna original y después del corte y unión de regiones codificantes —splicing—, una molécula puede corresponder a la proteína que se construirá, molécula que puede decirse existía como una entidad cromosómica sólo en potencia. Aún más problemáticas son aquellas proteínas construidas a partir de transcritos de m-rna y que han sido específicamente modificadas en ciertos estadios de desarrollo —por ejemplo, debido a la inserción de varios nucleótidos. Para ellas no hay secuencia correspondiente que pueda encontrarse en el dna, aun después de la separación y el corte. Así, cuando preguntamos cuántos genes componen el genoma humano, la respuesta varía de acuerdo con la definición empleada, quizás hasta en dos o tres órdenes de magnitud. Dadas las dificultades para el conteo de genes, Snyder y Gerstein hacen una interesante propuesta: “finalmente, podría ser mejor definir una lista de partes moleculares basadas en dominios de proteínas funcionales […] más que en los genes por sí solos”. Por otro lado, al contrario de lo que ocurre con el gen, sabemos lo que es el dna —podemos deletrear su secuencia y observar su notable estabilidad en el curso de varias generaciones. Pero la lección más importante que hemos aprendido es que el significado de cualquier secuencia de dna es relativo, ya que para la comprensión del desarrollo o la enfermedad, lo que realmente cuenta son los patrones de la expresión genética, controlados por un complejo y vasto aparato regulador que no pueden predecirse a partir del conocimiento de una sola secuencia. El siglo del gen La historia de la genética comenzó con grandes expectativas acerca de los poderes explicativos que tendría una unidad particular y material de la herencia. La estructura de ésta era la que daría cuenta de la estabilidad intergeneracional, de cómo los caracteres individuales —o fenotipos— se producían y de cómo la trayectoria del desarrollo individual era guiada con artística exquisitez y habilidad. Claro, mucho dependía de lo que esta entidad era y una porción significativa del esfuerzo científico en la primera mitad del siglo fue dedicada a la búsqueda de su naturaleza material, la cual culminó con el anuncio de Watson y Crick sobre la estructura del dna y, sorprendentemente, con los triunfos de la temprana biología molecular. Todos los supuestos con los que inició el siglo, que eran poco menos que ignorancia y esperanza, parecían haberse reivindicando completamente. Pasado medio siglo, todas las dudas remanentes acerca de la realidad material del gen se alejaron. Además, parecía que la fuente de estabilidad intergeneracional recaía en la estructura de ese material, ya que el proceso por el que la doble hélice se replicaba —con la simple complementariedad de bases— parecía suficiente para explicar la asombrosa fidelidad con que las características se transmiten a través de muchas generaciones sin modificación. Quizá, aún más notablemente, la secuencia de nucleótidos —basada en una moda que era reminiscencia de un programa de cómputo— parecía englobar no sólo la información genética especificando todas las proteínas que una célula —u organismo— necesitaría, sino también un programa —el genético— que guiaría el futuro desarrollo de todo el organismo. Con la identificación del dna como el material genético, y una secuencia específica de nucleótidos como el gen, esta entidad largamente hipotetizada estaba en camino de convertirse en el concepto fundacional capaz de unificar toda la biología. Como todos sabemos, el progreso que siguió a estos tempranos descubrimientos fue espectacular, y después de los setentas y el descubrimiento del dna recombinante se ha acelerado el ritmo con el que se acumula nueva información y nuevas técnicas. Sin embargo, el progreso de los recientes veinticinco años, la era postrecombinante, tiene por sí mismo una historia distinta de aquélla de la primera era, los primeros tiempos de gloria de la biología molecular. En particular, los asombrosos avances en genética molecular que han trabajado firmemente en disminuir la confianza que los primeros arquitectos de la genética habían construido, y que los inicios de la biología molecular parecían tan dramáticamente reivindicar. Por lo tanto, después de un siglo de genética, otra vez somos incapaces de definir lo que es un gen o lo que hace. Es un momento raro y maravilloso cuando el éxito nos enseña a ser humildes, y éste, creo yo, es precisamente el momento en que nos encontrábamos a fines del siglo xx. En efecto, bien puede ser que de todos los beneficios que la genómica nos ha traído, la humildad sea la que a largo plazo pueda probar su más grande contribución. Por casi cincuenta años, nos tranquilizamos creyendo que al descubrir las bases de la información genética, habríamos encontrado el secreto de la vida; confiábamos que con decodificar el mensaje del dna, entenderíamos el programa que hace a un organismo ser lo que es, que en la secuencia de nucleótidos hallaríamos la explicación de la vida. Y nos maravillaba cuán simple parecía ser esa explicación. Hoy nos sorprendemos no por la simplicidad de los secretos de la vida, sino por su complejidad. Asombrosamente, la genómica estructural nos ha dado las herramientas que necesitábamos para confrontar nuestra propia arrogancia, herramientas que pueden mostrRNAos los límites de la visión con que comenzamos. Así, la evidencia acumulada durante el último cuarto de siglo nos muestra que, desde el inicio, al gen se le ha pedido soportar una inmensa carga. Una sola entidad fue tomada como el garante de la estabilidad intergeneracional, el factor responsable de las características individuales y, al mismo tiempo, el agente responsable de dirigir el desarrollo del organismo. Nuevas clases de datos, reunidos durante las últimas décadas, han refrescado drásticamente nuestra comprensión del papel que desempeñan los genes en los procesos celulares y de los organismos, y aparentemente el peso de la carga que se le asigna excede lo que, razonablemente, puede esperarse de una sola entidad y, por lo tanto, lo apropiado es que sea distribuida entre los distintos actores en el juego de la vida. Aun tomando cargas por separado, pareciera que la evolución las ha distribuido entre una variedad de jugadores. Así, por ejemplo, hemos aprendido que la estructura del dna no es capaz de garantizar su propia fidelidad de una generación a otra, necesita de la ayuda de una compleja maquinaria de edición, corrección y reparación. La estabilidad intergeneracional es resultado de un complejo proceso dinámico, y la capacidad para tal proceso es en sí un logro evolutivo complejo. Aún más sorpresivamente estamos comenzando a entender que tales mecanismos no sólo mantienen fidelidad, sino que desempeñan un papel activo en establecer sus límites, al disparar otros mecanismos que activamente generan variabilidad genética bajo situaciones de estrés. También tenemos que revisar nuestras nociones acerca de lo que un gen hace. No sólo se ha complicado enormemente nuestra visión de “un gen, una característica”, sino también la más reciente de “un gen, una enzima”. Por mucho tiempo se ha sabido que la tasa de síntesis de proteínas requiere regulación celular, pero ahora resulta evidente que la clase de proteínas que se sintetiza aún es producto, en parte, del tipo y estado de la célula en que el dna se encuentra. En organismos superiores la secuencia de dna no se traduce automáticamente en una de aminoácidos; no lo hace por sí misma, lo que es suficiente para decirnos qué proteínas se producirán en determinada célula o en qué etapa de desarrollo. Esta función también está distribuida entre los muchos actores involucrados en la regulación postranscripcional, tal como sucede con la fidelidad. Todas las proteínas y las moléculas de rna que participan en tal regulación de orden superior necesitan ser sintetizadas y, por ello, en cierto sentido, deben estar codificadas en el dna; indudablemente, el estar atentos a esta necesidad presupone un programa genético dirigiendo los procesos. Pero esto nos lleva de regreso al problema de quién fue primero, el huevo o la gallina. Y hablando de ello, nuestra experiencia con la clonación nos ha mostrado la crítica necesidad de reprogramar apropiadamente el dna si deseamos producir un organismo viable, lo que claramente nos hace repensar nuestros supuestos sobre un programa inscrito en el dna. Lo que necesitamos, y me parece que urgentemente, es un concepto más dinámico de un programa distribuido, en donde dna, rna y los componentes de las proteínas funcionen alternativamente como instrucciones y como datos. Finalmente, algunos descubrimientos recientes, fuera de todo el paradigma genético, nos regresan a la preocupación central de muchos embriólogos de principios del siglo xx. Éste no es un problema de estabilidad genética, sino de estabilidad del desarrollo; la robustez conspicua de los procesos de desarrollo y su capacidad para mantenerse independientemente de las vicisitudes ambientales, celulares y aun genéticas. ¿Puede el lenguaje de la genética ser revisado para enfrentar tales efectos o necesita ser apoyado con diferentes conceptos y términos? Por ejemplo, los ingenieros han desarrollado un paquete de conceptos para el diseño de sistemas, como los aeroplanos o las computadoras, en que la confianza es el primer y más importante criterio. Como tal, su acercamiento puede decirse que es directamente complementario al de la genética. El propósito de los ingenieros es mantener un seguimiento de los sistemas; el de los genetistas, tradicionalmente, criticar esos seguimientos en forma que puedan observarse fácilmente; es decir, en primera instancia es la apariencia de los efectos fenotípicos observables de las mutaciones lo que ha llevado, históricamente, a los genetistas a la identificación y caracterización de los genes. Por definición, tal enfoque no es válido para el estudio de la robustez, y yo he sugerido que los genetistas podrían tomar prestados algunos conceptos y términos desarrollados en el estudio de la estabilidad dinámica de la ingeniería de sistemas para agrandar sus propias herramientas conceptuales. Del genoma a la biología de sistemas En el Proyecto Genoma Humano, donde nació la idea de secuenciarlo, un nuevo programa se está desarrollando. Se le ha denominado Devolver los genomas al programa de la vida. “Desde el establecimiento de las secuencias enteras del genoma, la aspiración de la biología es construir un nuevo entendimiento, completo y profundo, de los complejos sistemas vivos […] El actual paradigma en biología —descrito como del gen solitario, reduccionista o lineal— probablemente no sea exitoso por sí mismo […] En lugar de ello, la investigación tenderá a acercarse al enfoque de sistemas […] El nuevo paradigma crece a partir de los nuevos avances en la instrumentación para las biociencias, la mejora en la rapidez de cómputo y la capacidad de modelado, así como del creciente interés de científicos de la física y la informática en los problemas biológicos y el reconocimiento de que se necesitan nuevos acercamientos para que la biología alcance su objetivo completo, el de mejorar el bienestar humano”. Ahora, este programa no sólo está buscando juntar todo otra vez, sino también darle vida. Como ellos mismos escriben, “conocer las funciones de todos los genes en el genoma, por sí mismo no llevará a entender los procesos de los organismos vivos”. En alguna parte, a lo largo del camino, se ha entendido que el genoma, de hecho, no está vivo, que esa vitalidad, tal como hace tiempo nos recordó Linus Pauling, no reside en las moléculas, sino en las relaciones entre ellas; así, los artífices del nuevo programa escriben, “necesitamos entender lo que las partes hacen en su relación unas con otras”. En pocas palabras, lo que necesitamos es una biología de sistemas. Hace dos meses, en un tono similar, el Massachussets Institute of Technology (mit) tuvo su conferencia anual sobre la nueva Iniciativa en Sistemas Biológicos y Computacionales. Su misión: establecer los fundamentos para tratar las entidades biológicas como sistemas vivientes complejos y no como una amalgama de moléculas individuales. En el discurso inaugural, el presidente Charles M. Vest dijo, “hasta ahora los biólogos han aprendido más y más sobre la detallada estructura y las funciones de los componentes moleculares de la vida, pero no hemos entendido aún cómo los componentes individuales están entrelazados para controlar la fisiología. Ahora estamos en una posición en que empezamos la búsqueda para entender nuestras máquinas moleculares y circuitos celulares, cómo las partes se conectan y cómo operan. En una tercera transformación revolucionaria, la biología se convertirá en una ciencia de sistemas”. Hay una amplia sensación de que la fase reduccionista de la investigación genética ha terminado. Steven Brenner habla a nombre de muchos cuando dice que “secuenciar el genoma humano representa una culminación, de formas […] de reduccionismo químico, y ahora necesitamos movernos y continuar”. Pero también, al completarse la primera fase del proyecto, hay cierto grado de decepción. El genoma humano ha sido secuenciado, pero nos ha fallado en explicar quiénes somos. Como el nuevo programa lo describe, “ahora tenemos las listas de partes para estos organismos, y podemos ver que conocer las partes, e incluso sus funciones, no es suficiente”. Pero el proyecto del genoma humano y la genética molecular nos han dado más que una lista de partes durante las últimas décadas; quizá más importantes han sido las nuevas herramientas para ir más allá de las partes individuales, algunas de las cuales permiten probar la complejidad de la dinámica celular. La primera consecuencia de estos avances tecnológicos fue un enorme caudal de datos. Sydney Brenner lo planteó hace algunos años, “parece no haber límite en la cantidad de información que podemos acumular y, hoy, al fin del milenio, enfrentamos el reto de saber qué vamos a hacer con toda esa información”. Pero hay otro efecto, entre más sabemos acerca de cómo trabajan las partes juntas, de la extraordinaria complejidad y versatilidad de la regulación genética, y de la variedad de mecanismos epigenéticos de la herencia, más confusa nos parece la situación, y más urgente es la necesidad de encontrar nuevas herramientas de análisis y nuevas formas de expresRNAos al respecto. Brenner argumenta que “la tarea intelectual primordial es la de construir un marco teórico apropiado para la biología”. Yo añadiría que un objetivo igualmente obligado es idear un marco lingüístico más apropiado, que nos lleve más allá de la formación de un todo con base en las partes y comenzar a acomodar la construcción histórica de las partes y los todos, que es un tema central de la biología evolutiva. Gracias a los extraordinarios desarrollos técnicos que hemos visto en años recientes, ha comenzado a ser posible explorar las interacciones dinámicas que no sólo unen partes en un todo, sino que igualmente revelan las formas en que esas interacciones constituyen las partes en sí mismas. Por ello, los genetistas están encontrando nuevas formas de pensar acerca de las funciones biológicas, buscando las pistas para cada función particular, no tanto en los genes, ni en la estructura de dna, sino en las redes de comunicación de las cuales el dna es una parte. Mientras todos estos esfuerzos siguen su proceso, las secuencias de dna permanecen como un recurso absolutamente crítico, tanto para el investigador como para la célula; estamos comenzando a ver un cambio en la búsqueda de la función biológica hacia los procesos celulares de crecimiento y adaptación, y a los cruces entre todos los actores de la orquesta celular. Uno podría decir que la comunicación se ha convertido en la nueva palabra clave conforme los científicos del reduccionismo biológico empiezan a descubrir los poderes de la sociabilidad. Por supuesto, para que este cambio se dé, los investigadores también necesitan tener confianza en que hay una ruta alternativa, y ésta proviene de los avances técnicos en computación, especialmente de la unión de herramientas computacionales con las técnicas de análisis molecular —por ejemplo, los chips genéticos—, así como de la proximidad con el análisis computacional que ha surgido en años recientes para manejar grandes cantidades de datos complejos. En relación con qué significa un sistema y qué es la biología de sistemas, me parece que aún es un asunto por definir. El término en sí mismo nos lleva a Von Bertalanffy, a los años treintas, cuando escribió con una modestia poco característica: “la noción de un sistema puede ser vista en términos autoconscientes y genéricos para explicar la dinámica de relación de los componentes”. Hoy, sin embargo, los partidarios de la biología de sistemas tienen más elementos con qué trabajar y, de acuerdo con ello, son menos modestos. En el mit Vest esbozó grandes esperanzas en su discurso. “Esperamos que la habilidad para entender mejor y predecir las acciones de los sistemas biológicos complejos lleve a nuevos avances en el diseño de medicamentos, el diagnóstico de enfermedades, computadoras biológicamente inspiradas, salud ambiental y defensa nacional”. Otro ejemplo es lo dicho por Leroy Hood, fundador del área de sistemas biológicos y de cómputo en Seattle: “a diferencia de la biología tradicional que ha examinado proteínas y genes aislados, la de sistemas estudia simultáneamente la interacción compleja de muchos niveles de información biológica, dna genómico, m-rna, proteínas, proteínas funcionales, rutas y redes informacionales, para entender cómo trabajan unidas. Otra descripción de esta área sostiene que “la biología de sistemas es un nuevo campo que busca entender los sistemas biológicos a nivel de sistemas […] ese nivel esencialmente requiere entender la estructura del sistema, su comportamiento, su control y diseño”. En otras palabras, como se usa actualmente, la biología de sistemas es un concepto muy plástico y multifacético, abarca una gran variedad de temas y es prometedor en un amplio espectro de resultados. Es como un canto de las sirenas que escuchan los científicos de distintas disciplinas en donde la biología experimental ha tenido tradicionalmente poco uso —como la ingeniería, las ciencias computacionales, la física y las matemáticas. Por lo tanto, un poco es una reminiscencia de los seis personajes de Pirandello en busca de un autor. Podemos estar seguros que las habilidades de los científicos computacionales, matemáticos y físicos no habían sido demandadas en la biología como ahora. Pero hay algo nuevo en esta reencRNAación de una biología matemática o computacional. Quizá por primera vez en la historia son los biólogos quienes están estableciendo los términos de esta petición; lo que piden es que se les ayude a integrar y dar un sentido funcional a los datos que han resultado en los últimos tiempos en la materia. ¿Una red teórica apropiada? De dónde puede provenir y cómo debería ser la red teórica a la que se refiere Sydney Brenner son interrogantes que nos llevan a la disciplina que históricamente ha sido el árbitro en la teoría de las ciencias naturales: la física. Para muchos científicos las palabras teoría y física son sinónimo. Por lo tanto, no es sorprendente que el pasado verano, en las afueras de Aspen, Colorado, varias docenas de físicos teóricos con interés en biología se reunieran para celebrar, y aquí tomo una nota de la revista Nature, “el creciente sentimiento de que sus opiniones serían cruciales para cosechar los frutos de la era biológica postgenómica”. Y no sólo en Aspen, sino en todo el país, y aún más en el mundo, continuamente los físicos y matemáticos voltean hacia las ciencias de la vida en busca de nuevos campos para trabajar, en lo que un reportero llamó la “bioenvidia”. Algunos dicen que los físicos están buscando formas para recobrar su gloria perdida, otros sugieren un objetivo más pragmático, que es en la biología donde está ahora el dinero o la acción intelectual y científica. Si el siglo pasado perteneció a los físicos, el nuevo, frecuentemente se dice, pertenecerá a la biología. Los observadores también hacen notar que el movimiento de la física a la biología no es tan simple, hay un vacío cultural entre las disciplinas que debe llenarse. Biólogos y físicos tienen distintos objetivos y tradiciones, buscan respuestas a preguntas diferentes, y quizá incluso buscan distintas clases de respuestas. Por ello, en la primera parte de la historia fue difícil que físicos y matemáticos voltearan hacia la biología en busca de nuevos problemas y campos que cultivar, y el testimonio de tales empeños es de alguna manera desesperanzador —por lo menos desde la perspectiva de tender puentes entre las dos culturas, ya que los biólogos han mostrado poco interés en los esfuerzos anteriores por matematizar o “teorizar” su disciplina; es más, típicamente habían mostrado cierta indignación. Aparentemente este ya no es el caso; hoy existen en todos lados colaboraciones entre biólogos experimentales, físicos y matemáticos. Durante los últimos años, tanto la National Science Foundation como el National Institute of Health han lanzado un buen número de iniciativas organizadas específicamente para encontrar el potencial de la investigación matemática y computacional en biología. Desde 1983, la proporción de financiamiento para investigación matemática y computacional que aporta la División Biológica de la National Science Foundation se ha incrementado cincuenta veces. Por lo tanto, las quejas más frecuentes que se escuchan en la actualidad son acerca de la falta de información para los interesados, más que de una carencia de fondos. El incremento en recursos se refleja en un crecimiento correspondiente en la tasa de publicación y en la elaboración de nuevos programas en biología matemática y computacional. A diferencia de sus precursores, muchos de éstos están situados en departamentos de biología experimental más que en los de matemática y ciencias de la computación. Además, aquellos que provienen de las ciencias matemáticas no sólo colaboran con biólogos experimentales, sino que frecuentemente se convierten en biólogos. Por el contrario, los biólogos ya no necesitan trasladar sus datos a otras personas, gracias al surgimiento de una cultura computacional y al desarrollo de programas más amigables, con técnicas de análisis matemático que no exigen entrenamiento exhaustivo. Ahora pueden construir —por sí mismos o como participantes activos— sus propios modelos teóricos y matemáticos. El efecto real es el inicio de una cultura enteramente nueva que es al mismo tiempo teórica y experimental, dando lugar a lo que Dearden y Akam llaman “una mezcla de biólogos matemáticos tan familiarizados con ecuaciones diferenciales como con las limitaciones de datos experimentales desarreglados”. Pero si como algunos dicen ahora, “una nueva biología matemática está emergiendo”, no llega sólo con nuevas capacidades, sino con nuevos valores epistemológicos, dando lugar a una disciplina que tiene muy poco parecido con los anteriores esfuerzos de las matemáticas y la física para hacer por la biología lo que la matemática hizo por la física, una ciencia teórica. Esto promete mucho más que una reivindicación de fallas pasadas; por ejemplo, la transformación de los métodos, objetivos y el sustrato epistemológico de esfuerzos anteriores. Déjenme, brevemente, delinear lo que veo como las características clave de esta transformación. Primero, los esfuerzos más exitosos en modelación sugieren la necesidad de repensar el significado de palabras como esencial y fundamental; no es más la esencia de un proceso que debe verse en leyes simples o abstractas, sino la desordenada especificidad de adaptaciones particulares que han cobrado existencia por medio de un proceso azaroso de evolución. Con demasiada frecuencia las particularidades accidentales de la estructura biológica —como la del dna— son lo fundamental, por ejemplo en el sentido de que fueron construidas sobre un piso base y allí se han enraizado profundamente. Si los físicos han sido de mucha ayuda al forjar una red teóricamente apropiada, necesitarán repensar algunos de sus más básicos supuestos. Sólo como un ejemplo cito aquí algunas notas de la literatura reciente: “la biología hoy está donde la física estaba al comienzo del siglo xx”, o “se enfrenta con muchos hechos que necesitan explicación”, o “la física nos da un entendimiento más profundo; puede ofrecer a la biología explicaciones fundamentales”. El hecho es que la biología nos lleva a una muy seria “torcedura ajustable” de todos nuestros supuestos tradicionales acerca de lo que cuenta como profundo o fundamental, como una explicación o más aún, como progreso. Los sistemas biológicos son, como sabemos, extraordinariamente complejos; pero otra vez, por la evolución son complejos en formas de alguna manera distintas a lo que en física se entiende como sistemas complejos; es decir, que siempre e inevitablemente son jerárquicos. De acuerdo con ello, las nociones de emergencia, enraizadas en la dinámica no-lineal de sistemas uniformes —gases, fluidos o redes—, no son adecuadas para este propósito. Hiroaki Kitano dice que lo que es diferente para la realidad de los sistemas biológicos es que “aquí grandes cantidades de grupos de elementos funcionalmente diversos, y frecuentemente multifuncionales, interactúan selectiva y no linealmente para producir comportamientos más bien coherentes que complejos”. El punto central es que la no-homogeneidad y el orden particular de los sistemas biológicos son esenciales para su funcionamiento y, por lo tanto, no pueden ser ignorados; lo contrario puede conducir exactamente a la clase de irrelevancia biológica que históricamente ha sido el destino de tantos modelos matemáticos en biología. Dado el carácter de la complejidad biológica, los modelos útiles de los sistemas biológicos tienden a no ser matemáticos en el sentido usual, más frecuentemente son computacionales. Éstos no son pasos hacia una teoría final, sino que son la teoría. O para ponerlo de otra manera, la biología teórica no será formulada en unas cuantas ecuaciones diferenciales, sino más bien en un desarreglado complejo de algoritmos, amplios sistemas de ecuaciones diferenciales, análisis estadísticos y simulaciones. Tales modelos sólo pueden ser exitosamente formulados en una relación muy íntima de ida y vuelta con la experimentación. De hecho, algunas veces pienso que el mejor uso del término modelo en biología es como un verbo. Finalmente, las diferencias entre puro y aplicado, entre teórico y práctico, que son tan básicas en nuestra visión contemporánea de la física, también deben cambiar; y esto es, en gran medida, consecuencia de la tecnología que ha permitido recolectar tantos datos. Las técnicas de dna recombinante han hecho posible intervenir en la dinámica interna de desarrollo, han transformado los marcadores genéticos en herramientas para efectuar formas específicas de cambio. Abreviando, la tecnología que ha pavimentado el camino para una biología teórica ha convertido también, y simultáneamente, la ingeniería genética en una realidad y, como tal, en un negocio. La biología se ha vuelto una ciencia práctica en la misma medida en que tiende a teorizarse, por lo tanto, ambos términos son difíciles de disociar.
Claramente, el modelo tradicional matemático o físico teórico invocado, no sólo en el pasado sino por muchos autores contemporáneos, no es aplicable en su concepción original y no es apropiado. El asunto es qué se puede salvar del modelo. El segundo y, en muchas formas, más prometedor candidato para una nueva red teórica que me gustaría discutir viene de la ciencia computacional, de nuestro antiguo romance con la imagen de concebir al organismo como una computadora y a la biología como una ciencia digital. Y digo que es más prometedor precisamente porque la computación nos ha ofrecido ricas herramientas para pensar sobre los sistemas interactivos, herramientas y metáforas que nos acercan a la complejidad de los sistemas biológicos mucho más que los modelos tradicionales de la física teórica. Pero seguramente hay un serio error en sobrevalorar los aspectos digitales del procesamiento genético y pasar por alto la naturaleza fundamentalmente análoga de la química que le subyace. Aquí también tenemos que aprender una lección de la historia. Como científicos, nuestra forma de pensar sobre fenómenos que no entendemos es, y siempre ha sido pero no necesariamente debe ser, igualar lo no familiar con lo familiar. Así, la imagen del organismo como una máquina nos regresa a la antigua teorización acerca de la naturaleza de la vida; lo único que ha cambiado es lo que concebimos como una máquina. El diseñar a partir de poleas, hidrobombas, relojes, máquinas de vapor, etcétera, es una muestra de extraordinaria ingenuidad para construir máquinas aún más versátiles e inspiradas. Igualar al organismo con estas máquinas fue interesante en el pasado, hacerlo a partir de nuestras más recientes máquinas puede ser instructivo también. Pero sería poco razonable suponer que se nos ha agotado la ingenuidad, que no seguiremos construyendo máquinas parecidas a la vida. De hecho, nuestros mejores científicos en computación han aportado su habilidad para hacerlo y, otra vez, están buscando su inspiración en la biología. Así que tomemos los términos y las imágenes de la computación para ayudRNAos a pensar acerca de las propiedades sistémicas de las células y los organismos, pero no debemos olvidar que estos sistemas biológicos todavía tienen algunos trucos que enseñar a los ingenieros. Mucha gente argumenta que la biología de sistemas debe acercarse más a las ingenierías que a las ciencias físicas. Pero nuestros ingenieros aún tienen que construir un sistema que sea autodiseñado y autogenerado, que podríamos llamar vivo. No digo que un objetivo así sea imposible, sólo que nuestras actuales computadoras, los más recientes aviones y los más sofisticados sistemas de internet, no están listos para tal objetivo. ¿Qué se requerirá para devolver el genoma a la vida? No lo sé, pero si hablamos de probabilidades yo pondría atención en los límites de la ingeniería de diseño y la genómica. Y entonces preguntaría a nuestros más avanzados científicos en ingeniería: ¿hemos invertido suficiente tiempo para dar vida a estos sistemas?, ¿hemos tomado en cuenta suficientemente su dinámica temporal?, ¿hemos puesto atención al tiempo de mantenimiento de nuestro sistema regulador?, ¿es suficiente pensar en los genes como apagados y prendidos o deben los genetistas, como sus colegas en neurociencias, comenzar a examinar el tiempo preciso de encendido y apagado de los interruptores, relativamente uno con respecto al otro, y a la dinámica temporal del proceso global en la célula? Creo que yo apostaría por ello como el siguiente paso. Estas sólo son conjeturas, pero difícilmente existe otra pregunta para la que la biología molecular postgenómica requiera nuevos métodos de análisis y nuevas bases conceptuales. Llámesele biología de sistemas si se quiere; lo que es exactamente creo que tendremos que descubrirlo. |
||
Evelyn Fox Keller
Massachussets Institute of Technology.
|
||
Nota
Fragmento de una conferencia presentada en Valencia, España, en julio de 2003.
Traducción Patricia Magaña R.
_______________________________________________________________
como citar este artículo → Fox Keller, Evelyn. (2005). De las secuencias de nucleótidos a la biología de sistemas. Ciencias 77, enero-marzo, 4-15. [En línea]
|
||