Biogeografía y darwinismo social |
En este texto, el Dr. Bowler trata de responder la pregunta ¿hasta qué punto la ciencia se ve influenciada por los valores culturales, políticos e ideológicos del entorno en el que surge? Para ello, explora las formas en que las primeras generaciones de biogeógrafos han tratado de explicar, por medio de metáforas, el origen y la evolución de la vida.
|
|
Peter Bowler
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
El tema de biogeografía y darwinismo social es, en mi opinión, una reflexión sobre un asunto de sumo interés para la historia de la ciencia, ya que tiene que ver con una pregunta: ¿hasta qué grado la ciencia interactúa con su entorno, en este caso, con los valores culturales, políticos e ideológicos? Mi actual trabajo sobre la ciencia popular está centrado en la pregunta de qué tan informada está la gente común sobre la ciencia y hasta qué grado los mismos científicos tratan de controlar la forma en que se disemina la información científica hacia el resto de la sociedad. Sin embargo, mi interés aquí va en el sentido opuesto, esto es, explorar hasta qué grado la propia ciencia refleja los valores sociales y hasta dónde hay una interacción directa de la forma en la que los científicos buscan describir el mundo natural y la forma en que la sociedad dentro de la cual viven percibe algunas de sus actividades.
El tema del darwinismo social es uno de los tópicos más debatidos en la historia de la ciencia. Cuando era estudiante de historia de la ciencia en la Universidad de Cambridge, hace ya más años de los que quisiera mencionar, originalmente me dedicaba a las ciencias físicas, pero como podrán ver, hice carrera en la historia de las ciencias biológicas. La razón fue que uno de los mejores maestros en Cambridge era un personaje llamado Robert Young, quien era marxista y estaba muy interesado en la interacción del darwinismo y el pensamiento social conocido como darwinismo social. Por mucho, era el conferencista más brillante; me volví historiador de la teoría de la evolución básicamente por su influencia, y en ese sentido fue el darwinismo social el que me condujo hasta donde ahora estoy. Como marxista, Robert Young estuvo muy preocupado por un debate que persistió durante largo tiempo sobre los orígenes de la teoría de la selección natural de Darwin y la búsqueda por vincularla con los valores políticos del capitalismo del siglo XIX. El capitalismo, el sistema de la libre empresa, depende de las ideas del individualismo y de la sociedad como un agregado de individuos esencialmente en competencia, donde cada persona trata de tener éxito a expensas, hasta cierto grado, de otros miembros de la sociedad. En el nivel de los individuos, la sociedad es esencialmente competitiva y desde los tiempos de Marx y Engels se ha resaltado que la teoría de la selección natural de Darwin parece reflejar una imagen muy similar en los reinos animal y vegetal, con cada especie constituida por poblaciones de individuos que compiten entre sí. El resultado de la competencia es que los más aptos sobreviven y se reproducen mientras que los menos adaptados son desplazados y mueren, de modo que el mundo natural se ha edificado sobre el sistema de competencia del capitalismo del siglo XIX. Así, no sorprende que al construir la imaginería y las metáforas del capitalismo dentro de la biología, Darwin proporcionó los medios con los cuales se justificaron quienes pretendían defender y promover el capitalismo, diciendo: “bien, Darwin ha mostrado que es así como funciona el mundo natural; la lucha y la competencia son parte integral de la propia naturaleza; por tanto, es natural que los asuntos humanos deban seguir el mismo patrón esencial; de ahí que el sistema capitalista sea natural e inevitable, porque es así como opera la naturaleza”.
Por supuesto, para quienes criticaban esta postura, incluido mi mentor Robert Young y, en el siglo anterior, Marx y Engels, tal razonamiento muestra la circularidad de todo este asunto; primero se importa la política hacia la ciencia y después se usa la ciencia para justificar la política. Es claramente un argumento circular. Para quienes usaron este enfoque con el fin de criticar el darwinismo, la implicación es que existe algo sospechoso en el darwinismo como ciencia; que es una mala ciencia porque importa las metáforas y los modelos del capitalismo. Éste es el argumento que han usado tradicionalmente aquellos que creen que el darwinismo representa una dirección errónea hacia la cual se ha dirigido la biología. No hablaré aquí de esa clase de darwinismo, sino acerca de la relación entre darwinismo y biogeografía, y de una generación posterior de darwinistas sociales que se basaron, no sólo en la competencia individual del sistema capitalista, sino en la competencia nacional y racial, que fue la ideología del imperialismo de fines del siglo xix, cuando las naciones europeas conquistaban el mundo, sometiendo a los pueblos de distintas regiones a su control político, en algunos casos esclavizándolos y exterminándolos, utilizando el lenguaje del imperialismo para proyectar la imagen de especies animales y vegetales que se extendieron por todo el mundo y, en algunos casos, ya habían desplazado y exterminado formas tempranas que existían en el territorio conquistado.
Es un caso de importación del lenguaje político y de metáforas hacia la ciencia que se usa para justificar la ideología misma, pero ahora no se tata de competencia individual al interior de una población, sino de competencia entre poblaciones, entre naciones, entre razas y, en el modelo biológico, entre especies. El problema esencial es saber cómo funciona esa interacción y si debe considerarse mala ciencia la que emplea metáforas políticas o ideológicas para construir sus propios modelos. Se necesita pensar con mucho cuidado en esa idea de mala ciencia, de ciencia políticamente corrupta, políticamente contaminada, ya que de hecho, muchas teorías científicas obtienen modelos, metáforas e inspiración de fuentes externas, como la política, la religión y el mundo del arte; existen muchas fuentes de inspiración, y si se desecha cada teoría científica que use algún elemento de inspiración externa en la forma en que representa la naturaleza y se le considera como mala ciencia, me temo que entonces no quedará mucha buena ciencia, si es que quedara alguna. Así que tenemos que ser muy cuidadosos para saber de dónde vienen las metáforas; esto es particularmente importante en la escena política, cuando se usan las metáforas para justificar el sistema. No estoy sugiriendo que tomemos una actitud relajada frente a este asunto, sino que debemos estar muy atentos sobre la forma en que la ciencia puede reflejar los valores sociales y ser así usada para defender ideologías particulares. Pero la idea de que si esto ocurre es razón suficiente para considerarla mala ciencia resulta problemática, porque si las metáforas realmente funcionan cuando se les pone a prueba en la naturaleza, me temo que tendremos que vivir aceptando el hecho de que funcionan bien, de que entonces sirven para hacer buena ciencia, incluso si no nos hace felices conocer la fuente de la cual provienen. La ciencia y la expansión imperial Ahora, tratemos de ver la interacción de la ciencia y el imperialismo en las postrimerías del siglo XIX. Iniciaré con una breve mención de la relación práctica de la ciencia con el imperialismo; en particular, la recopilación de información sobre la distribución de animales y plantas por todo el mundo. Un buen ejemplo es Charles Darwin a bordo del Beagle. ¿Por qué un barco de la marina británica pasó cinco años cartografiando la línea de costa de Sudamérica? En sentido estricto, este caso no es imperialismo, porque los británicos no colonizaron directamente Sudamérica. Sin embargo, Gran Bretaña tenía una gran cantidad de comercio con esta región y el objetivo del Beagle fue asegurar que el comercio fluyera libremente, proporcionándoles a los barcos mejores mapas de las aguas que rodeaban las costas suramericanas. De modo que el Darwin del Beagle es en esencia parte del proyecto imperial, de la forma en que Gran Bretaña se las arreglaba para extender su control y su influencia alrededor del mundo, incluso en áreas donde no tenía colonias. Hubo muchos otros viajes con el mismo tipo de propósitos prácticos de controlar y manipular el mundo para los fines de la conquista imperial. Todos hemos oído sobre el viaje del Bounty, del capitán Bligh y del amotinamiento. Lo que hacía el Bounty era transportar el fruto del árbol del pan desde Tahití hasta las Antillas para alimentar a los esclavos de las plantaciones de caña de azúcar. Esa vez, por supuesto, no llegó debido al motín; todos recordamos a Marlon Brando en la famosa película sobre ese episodio, pero lo que frecuentemente se olvida es que el capitán Bligh fue reivindicado a su regreso a Inglaterra, que volvió a transportar el fruto del árbol del pan a las Antillas y como el proyecto para alimentar a los esclavos no funcionó, el barco se dedicó a colectar plantas y animales para propósitos prácticos del imperio. En el siglo XIX se fundaron varios jardines botánicos, el Kew Garden, en Londres, se convirtió en un centro de recopilación de información sobre las plantas de todo el mundo y particularmente del imperio, pero también en un centro para analizar la adaptación de las plantas europeas a los países extranjeros, donde podían usarse como cultivos comerciales, así como para llevar plantas de los nuevos territorios al imperio. De igual manera, el Jardin des Plantes sirvió como centro para la ciencia imperial francesa. Así, el caucho de Sudamérica se llevó al Sudeste de Asia, donde se convirtió en la base de toda una nueva industria, y como éste, hay muchos otros casos. La fundación de jardines botánicos en la India, Sudáfrica y Australia sirvió para fines similares, permitiendo la aclimatación de plantas que interesaban a las metrópolis. La obtención de información para crear el cuerpo de conocimientos sobre el cual funcionó la biogeografía del siglo XIX fue posible gracias a la expansión del imperio y al papel práctico de la ciencia, de modo que no es ningún accidente que la ciencia y el imperio se hayan hermanado en ese siglo. El asunto aquí es el uso que hicieron los científicos de la información obtenida mediante este proceso de expansión imperial, y el punto que quiero desarrollar es que el intento por explicar la distribución de animales y plantas por todo el mundo utilizó estas metáforas del imperialismo, de la conquista, la exterminación, la lucha y el conflicto. Esto representa una nueva forma de darwinismo social, basada en la lucha entre los imperios y las naciones, empleada para modelar la lucha entre las especies cuando querían ocupar más territorios en el mundo. Las regiones biogeográficas A mediados del siglo XIX los europeos habían obtenido la información que requerían para dividir el mundo en provincias botánicas. El mapa que en esta página mostramos es producto de los intentos por dividir el mundo en regiones biogeográficas. Se caracteriza por la unión de Norteamérica y Eurasia en una sola región holártica; Sudamérica es la región Neotropical, el sur de África la Etiópica, la Oriental incluye la India y el Sureste de Asia, y la región Australiana en el extremo sur. Una división del mundo de acuerdo con sus habitantes animales y vegetales básicos. Se ha sugerido que está hecha con base en la división del continente europeo en naciones. Los límites que se dibujan entre regiones son exactamente análogos a los que marcan la división entre Francia, Alemania y España, por lo que he dicho que es un modelo estático basado sobre límites políticos estáticos, aunque por supuesto, los límites pueden cambiar debido a que las naciones van a la guerra y se conquistan territorios unas a otras, lo cual lleva a intentar explicar las regiones en que está dividido el mundo, tal como podemos ver en este mapa, en términos de migración y evolución, de la expansión de poblaciones desde centros de origen hasta nuevos territorios que las especies invadían y ocupaban. Janet Browne, quien escribió una importante biografía de Darwin, subrayó el uso del lenguaje de conquista y exterminación en el trabajo del autor de la teoría de la selección natural y de su colega botánico Joseph Dalton Hooker. Éste es el enfoque que quiero seguir y parte del cual lo he expresado en mi libro Life’s Esplendid Drama. Gran parte de este proyecto no despegó directamente del trabajo de Darwin, sino del de su colega Alfred Russel Wallace, mejor conocido como codescubridor de la selección natural; aunque personalmente no me tomo muy en serio esta historia. De cualquier forma, Wallace es un científico de primer nivel. En 1876 publicó un libro en dos volúmenes, La Distribución Geográfica de los Animales, en el cual trató de explicar ese patrón de distribución en términos del origen de las especies y su dispersión hacia nuevas regiones del mundo, y el lenguaje que empleó fue el mismo que el usado por Darwin y Hooker, aludiendo explícitamente a términos de migración y conquista. Lo que quiero resaltar aquí es que puede usarse un lenguaje diferente al del imperialismo, uno menos cargado políticamente, para describir el proceso mediante el cual una especie se origina en un lugar y después se expande para ocupar un territorio en otro. Se puede hablar de migración o emigración, que no necesariamente implican conquista y exterminio. Ni siquiera es ineludible pensar que las especies tienen algún tipo de imperativo para extenderse hacia nuevos territorios. Algunos biólogos pensaban que las especies estaban completamente a gusto en el lugar donde fueron creadas o donde evolucionaron y que no se moverían de allí a menos que fueran forzadas por presiones ambientales. Pero la gran mayoría de los biogeógrafos de finales del siglo xix suponía que las especies tenían una tendencia natural a expandir el territorio que ocupaban. Una noción derivada del principio malthusiano de expansión de la población, la cual siempre tiende a extender cada vez más su suministro disponible de comida, y ello implica que las poblaciones tratarán de procurarse nuevos territorios, provocando lo que De Candolle llamó “la guerra de la naturaleza”, una lucha competitiva entre las especies en la cual una buscará adentrarse en el territorio de sus vecinos, y si puede, ocuparlo con éxito, conduciendo a sus habitantes originarios a la extinción. Aquí cito al propio Wallace: “Los animales se multiplican tan rápidamente que podemos considerar que continuamente tratan de extender su área de distribución y, de esta forma, cualquier nueva porción de tierra que haya emergido del océano, inmediatamente se ve poblada por una multitud de habitantes que compiten entre sí, siendo los mejor adaptados los que tendrán éxito para retener sus posesiones”. Un lenguaje similar se encuentra en un atlas de zoogeografía publicado por la Royal Geographical Society en 1911, en donde se cita: “En la permanente lucha por la supremacía, la tendencia natural de cualquier especie que sea exitosa es extenderse sobre un área cada vez más amplia, luchando para expandir su territorio”. Este proceso de expansión es descrito en un lenguaje imperialista de invasión y conquista, incluso tal vez de colonización y exterminación. En biogeografía hubo quienes se resistieron y trataron de encontrar otras formas de explicación, pero en general fueron una minoría. La migración norteña A principios del siglo xx este modelo se hizo muy común. En 1914, el paleontólogo canadiense-americano William Diller Matthew afirmaba que ocurrieron grandes invasiones de los animales norteños hacia Sudamérica cuando el Istmo de Panamá se elevó, lo que permitió que tales animales, usando sus propias palabras, barrieran con todos los grupos nativos, en un flujo de colonización y exterminio que provenía del norte, un proceso de oleadas sucesivas. En otro libro llamado La Invención del Progreso he descrito los paralelismos entre las metáforas del surgimiento de los grupos animales en evolución, el de los dinosaurios, y el del Imperio Romano y de otros grandes imperios de la historia humana. Se trata de una suposición de que cada grupo exitoso, sea de animales o de naciones imperialistas, después de expandirse y conquistar nuevos territorios, decae y retrocede gradualmente conforme el siguiente poder imperial lo empuja y lo desplaza, de modo que en este modelo está la noción de olas de expansión. Una de las ideas más poderosas de este modelo es que la fuente real de todos los nuevos grupos exitosos de animales y de plantas en el curso de la evolución es la región holártica, como se muestra en el mapa de la página anterior. Norteamérica y, especialmente, Eurasia se muestran como los centros más activos de la evolución progresiva, desde los cuales migran olas de tipos cada vez mejores hacia Sudamérica, África y a través de Asia hasta Australia. La mejor forma de ilustrar este concepto es el trabajo de W. D. Matthew, quien usó una proyección centrada en el Polo Norte, alrededor de la cual están las grandes masas de tierra emergida. Creía que el norte, donde el clima es más severo, estimulante y desafiante, suministraba la mayoría de grupos animales superiores, pues allí se crían las especies exitosas que tienen que luchar contra el frío y la escasez de alimentos. Esta lucha contra un ambiente severo lleva a la evolución a ser cada vez más progresiva. Mientras tanto, las regiones sureñas, que están en la periferia, tienen condiciones ambientales menos severas, y aunque ciertamente allí ocurre un proceso de evolución, no es progresiva, sino que simplemente produce adaptación local. El recinto real del progreso es el norte, donde evolucionan las especies exitosas, expandiéndose hacia la periferia, en todas las direcciones que pueden. Así, desde Norteamérica presionan el sur, Sudamérica; las de Eurasia presionan África, India, el sureste de Asia y finalmente Australia, de modo que tenemos una serie de grupos migrantes descendiendo hacia el hemisferio sur desde el centro de evolución progresiva localizado en el norte. Así, Climate and Evolution de Matthew promovió esta imagen de la poderosa casa septentrional de la evolución, de la misma forma en que Darwin lo hizo del poder norteño de evolución, desde donde las especies se expanden sucesivamente hacia el sur. Pues bien, esto conduce a un modelo de distribución de plantas y animales en el cual las regiones sureñas, Sudamérica, África y particularmente Australia, son consideradas como áreas donde las formas de vida más primitivas evolucionaron durante largo tiempo en el pasado, quedando al margen al ser empujadas hacia la periferia por las especies más exitosas que evolucionaban en el centro. De esta forma, lo que se espera es tener animales y plantas más avanzados en el norte y formas más antiguas en la lejana periferia. Los mundos perdidos En ese entonces, Australia fue ampliamente identificada como la fuente de animales primitivos. El ornitorrinco y otros mamíferos primitivos que posiblemente se originaron en el Mesozoico, quedaron allí como relictos, en un área aislada, protegidos hasta cierto grado por el agua de la invasión de los tipos superiores provenientes del norte. Así surge la imagen de que en las partes periféricas del mundo sobreviven remanentes de las formas más primitivas de vida. Son los mundos perdidos. Seguramente algunos recordarán la famosa historia de Sir Arthur Conan Doyle de El mundo perdido, precisamente publicada en esta época, en 1912. Se trata de unos exploradores británicos que fueron a descubrir una tierra en Sudamérica, donde por un accidente de la geología sobrevivían aún ciertas formas de vida antigua. Hallaron dinosaurios y hombres de la edad de piedra, así como una amplia variedad de especies de periodos geológicos remotos. Es un cuento inverosimil aunque es una historia maravillosa que resume la noción de que en las regiones remotas del sur pueden encontrarse relictos de la evolución pasada, relegados y preservados hasta el presente. Australia fue identificada como el relicto más obvio de formas sobrevivientes del Mesozoico. Recientemente descubrí otra versión de esta historia. En un libro sobre la exploración del Polo Sur, en particular, el famoso viaje del capitán Scott, explorador británico que llegó allí en 1911 y encontró que lo había derrotado el explorador noruego Amundsen, así como el pasaje de la muerte de Scott y su equipo al regresar hacia su campamento base. Los británicos lo consideraron como una especie de triunfo irónico, porque al menos Scott y su equipo fueron buenos científicos y no simples exploradores; muchos no saben que al morir llevaban cincuenta kilogramos de material geológico, lo cual refleja una dedicación hacia la ciencia tan grande que no abandonaron sus colecciones ni para salvar sus propias vidas. Pero esa no es la historia. Justo antes del viaje al Polo Sur, otros tres miembros de su expedición fueron a buscar, en una remota parte del continente antártico, al pingüino emperador. Querían colectar sus huevos y llevarlos para investigación embriológica. Casi mueren en el intento, pues los atrapó una tormenta de nieve y cuando regresaron al campamento base, el capitán Scott les dijo que nunca había visto a tres hombres tan cerca de la muerte como lo habían estado ellos. El líder de la expedición, un hombre con el improbable nombre de Garrard, describió este episodio en un libro llamado El peor viaje del mundo. ¿Para qué fueron a buscar huevos? Porque circulaba la teoría de que los pingüinos eran las aves más primitivas, los relictos más primigenios de las aves orillados a los límites extremos de la Tierra. Los habían desplazado de Australia al continente antártico. La idea no tiene absolutamente ningún sentido; por supuesto, los pingüinos son aves especializadas, pero la teoría fue elaborada, y era promovida por la expectativa de que se encontrarían los tipos más primitivos en el mundo perdido, en la periferia más lejana del sur, idea ampliamente extendida. Mi opinión es que esta noción de la expansión desde el norte y la conquista de tipos superiores que de ahí provienen es parte de un imaginario viejo y de metáforas usadas para describir el proceso por medio del cual el mundo es poblado por animales y plantas. Así, se importa el lenguaje del imperialismo y la conquista a la ciencia, pero también camina en sentido contrario, porque si se cree que este modelo es adecuado para animales, también puede serlo para la especie humana, y cuando se trata de describir la evolución de la última, entonces se asume la sorprendente premisa de que las razas más primitivas que sobreviven actualmente serán aquellas que están en la periferia, y las razas superiores, adivinen…, estarán en el norte. Esto, se acopla directamente con la idea de la supremacía del hombre blanco, ya que sugiere que los habitantes de otras partes del mundo son primitivos, formas tempranas de humanos empujados hacia los márgenes, quizá sobreviviendo allí por barreras biogeográficas protectoras. Por ello, en la paleoantropología de fines del siglo XIX y principios del XX, los humanos sobrevivientes más primitivos, para usar el lenguaje de ese tiempo, eran los aborígenes australianos. Como las formas primitivas de animales se encuentran en Australia, los humanos también estuvieron aislados y protegidos en ese continente, conducidos hacia el sur por la emergencia de razas superiores del norte. William Johnson Sollas, paleoantropólogo de principios del siglo XX, describió a los aborígenes de Australia como neanderthales vivientes. Relación que pronto desapareció, pues los neanderthales no se consideraban humanos, pero la idea de que los australianos son las formas humanas más primitivas permaneció. Otro famoso paleoantropólogo de ese tiempo, Sir Arthur Keith, afirmó que si quisiéramos entender por qué los humanos modernos extinguieron a los neanderthales, debíamos observar lo que ocurría en Australia, donde la gente blanca estaba exterminando a los aborígenes. La idea de conquista y exterminación de los tipos inferiores por la invasión de los tipos superiores es explícitamente usada por los blancos, que se ven a sí mismos como la raza superior, para justificar el exterminio. Así, el lenguaje del imperialismo es empleado para justificar la conducta de las naciones imperiales del mundo moderno. Y este es el fin de mi historia, que concluiré con algunos breves comentarios sobre el asunto de si creemos que el darwinismo y los modelos biogeográficos de fines del siglo XIX y principios del xx estuvieron plagados del lenguaje de una ideología política. ¿Podemos decir que fue una mala ciencia, una ciencia contaminada?, ¿tendremos que demeritar toda la teoría darwiniana como un callejón sin salida por el que los científicos han transitado guiados por sus prejuicios políticos? Las metáforas en la ciencia Muchos biólogos modernos creen que siempre han existido metáforas de modelos e interpretaciones que han desempeñado papeles válidos, inspirando a los científicos en la construcción de modelos funcionales de la naturaleza, así que creo que deberíamos ser muy cuidadosos antes de demeritar a la ciencia que usa su inspiración de modelos derivados de la política, la religión o el arte. No deberíamos ser rudos y describirla como mala ciencia porque en ese caso quedaría muy poca ciencia. Sin embargo, actualmente debemos ser extremadamente cuidadosos cuando examinamos las formas en que la gente busca usar la ciencia para justificar posiciones políticas. Si la ciencia refleja la sociedad en la que funciona, difícilmente sorprende que entonces la sociedad pueda usar a la ciencia para justificar algunos valores. Y así, sin pretender demeritar ninguna materia como mala ciencia, considero el tema que hemos esbozado como una valiosa lección que nos enseña que debemos ser extremadamente cuidadosos al examinar la forma en que la ciencia refleja la naturaleza, y particularmente la forma en que esas representaciones son descritas por la gente común, porque éstas son usadas para justificar sistemas políticos. Por ejemplo, todos podemos constatar el mal uso que actualmente se hace de la genética. Así, la historia nos proporciona una valiosa lección al advertirnos que debemos tener mucho cuidado para determinar de dónde viene la ciencia y reconocer esta circularidad que justifica un valor del sistema mediante una ciencia que en sí misma refleja ese valor del sistema. |
||
Peter Bowler
Queen’s University of Belfast,
Reino Unido.
|
||
Nota
Texto de la conferencia impartida el viernes 28 de octubre de 2005 por el Dr. Peter Bowler en el auditorio Carlos Graef de la Facultad de Ciencias, Ciudad Universitaria.
|
||
Traducción
A. Alfredo Bueno Hernández y Carlos Pérez Malváez.
|
||
Referencias bibliográficas
Bowler, P. J. 1996. Life’s splendid drama. The University of Chicago Press. Chicago y Londres.
Bowler, P. J. 1990. The invention of progress: The Victorians and the past. Blackwell. Oxford.
Matthew, W. D. 1915. “Climate and evolution”, en Ann. New York Acad. Sci., núm. 24, pp. 171-416.
|
||
Peter J. Bowler es un destacado historiador del darwinismo, tema sobre el cual ha publicado una vasta obra, tanto en libros como en revistas especializadas. Algunos de sus libros se han convertido en clásicos. Actualmente es profesor de la Queen’s University of Belfast, en el Reino Unido. Fue vicepresidente de la British Society for the History y presidente de la British Society for the History of Science.
_______________________________________________________________
como citar este artículo → Bowler, Peter. (2006). Biogeografía y darwinismo social. Ciencias 84, octubre-diciembre, 4-13. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |
Metáforas biogeográficas del imperialismo |
En este artículo se revisan las diversas explicaciones sobre los patrones biogeográficos elaboradas entre fines del siglo XIX y las primeras décadas del siglo xx, enfatizando los cambios en las metáforas empleadas por los evolucionistas para reconstruir la historia de la vida.
|
|
Alfredo Bueno y Carlos Pérez
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
En la segunda mitad del siglo XIX, los biogeógrafos tuvieron el objetivo común de elaborar una visión integrada del mundo. La fría descripción de los hechos requería ser interpretada. El conocimiento empírico disperso, producto de las travesías patrocinadas por los estados europeos, fue racionalizado por los naturalistas para redistribuirlo a sus contemporáneos en la forma concreta de mapas de regiones biogeográficas, los cuales representaban patrones, que a su vez implican causalidad.
La distribución geográfica de la vida fue una de las líneas clásicas de evidencia en los estudios de evolución. A mediados del siglo XIX, los naturalistas ingleses reconocían que la distribución geográfica de la vida era un factor clave para comprender el mundo natural. En una carta fechada en 1845 dirigida a Hooker, Darwin se refería al estudio de la distribución geográfica como “la piedra angular de las leyes de la creación”. Aunque desde inicios de ese siglo se conocían los principales patrones biogeográficos, faltaban las explicaciones. ¿Por qué había regiones con climas casi idénticos que prácticamente no compartían especies?, ¿por qué algunas áreas con condiciones físicas diferentes tenían biotas muy similares?, ¿por qué existían formas muy parecidas en áreas separadas por grandes distancias? El determinismo ecológico linneano, según el cual cada especie se dispersó desde una isla-montaña primigenia hasta encontrar las áreas que les fueran propicias, se mostraba claramente insuficiente para explicar la regionalización de la biota y las distribuciones disyuntas.
El periodo de explosivo interés que se despertó por la biogeografía entre fines del siglo xix y principios del siglo XX se ha estudiado poco. No obstante, abordar este tema conlleva un riesgo, pues sabemos que los debates sobre los continentes hundidos se volvieron fútiles a mediados del siglo XX, al confirmarse la teoría de la deriva continental. Uno de los primeros naturalistas que adoptó un enfoque histórico en la biogeografía fue Edward Forbes. En la década de 1840 intentó explicar el origen de la flora de las Islas Británicas postulando la existencia de una masa terrestre ubicada en lo que hoy es el océano Atlántico, a través de la cual las plantas migraron desde España hasta Irlanda. Darwin rechazó la existencia de esas hipotéticas uniones, al menos en un pasado geológico reciente. En los capítulos dedicados a la biogeografía de El Origen de las Especies, él defendió la hipótesis monofilética: cada especie se originaba a partir de un par de individuos en una sola localidad, desde donde se expandía hasta alcanzar su distribución actual. Resulta así que el compromiso con el principio monofilético generó la necesidad de la dispersión. Esta idea se remonta al menos a Linneo, además del obvio antecedente bíblico. En sus Fundamenta Botanica, Linneo afirmaba: El único par sexuado, de todas las especies vivientes, fue creado en el inicio de las cosas. El razonamiento era puramente lógico; si se admite que las especies crecen geométricamente, entonces cuanto más se vaya hacia el pasado más decrece el número de individuos de cada especie, hasta llegar al límite de su origen mismo, donde habría un solo par —o un solo individuo en el caso de las especies hermafroditas. Así, para alcanzar su área actual de distribución, la dispersión era indispensable, ya fuera como mera expansión de las poblaciones o bien mediante grandes saltos sobre barreras físicas en el caso de las distribuciones disyuntas, en ese tiempo llamadas anómalas.
Los extensionistas como Forbes no aceptaban que las dispersiones a gran distancia pudieran explicar las distribuciones disyuntas. Creían que las especies se habían extendido a través de puentes terrestres y continentes antiguos actualmente sumergidos. Por su parte, Darwin sostenía una postura permanentista, es decir, que los principales rasgos de la superficie terrestre habían pemanecido invariables en el pasado geológico reciente. A pesar de la férrea oposición de Darwin, el enfoque extensionista se sostuvo como una influyente corriente en las últimas décadas del siglo XIX. Joseph Dalton Hooker, amigo y admirador de Darwin, fue uno de sus principales proponentes. Sustentado en una amplia experiencia de campo, Hooker concluyó que las dispersiones a gran distancia no eran una causa suficiente para explicar los patrones biogeográficos de las floras sureñas. Con base en la evidencia florística propuso la hipótesis de que todos los componentes de las floras del hemisferio sur habían estado una vez unidos en un gran continente austral. Un destacado ornitólogo inglés, Philip Lutley Sclater, le respondió. En su célebre trabajo On the general distribution of the members of the class Aves, presentado en 1857 ante la Linnean Society of London y publicado el año siguiente, propuso “las divisiones ontológicas más fundamentales y naturales de la superficie terrestre”. Cada una de sus seis regiones representaba un área de creación particular. Su sistema fue la base del esquema que propondría Alfred Russel Wallace en 1876, en su clásica obra The Geographical Distribution of Animals. Sin embargo, Wallace no aceptó la explicación teista de Sclater. Rectificando sus primeras ideas extensionistas, terminó explicando la composición de cada región biogeográfica mediante migración y divergencia, añadiendo la idea de que los nuevos grupos se originaban en un centro norteño de evolución progresiva. En 1886, Andrew Murray negó explícitamente que las poblaciones tuvieran cualquier tendencia automática hacia la expansión. Creía que las provincias biogeográficas se mantenían por cierto instinto individual que hacía que cada criatura se mantuviera en el mismo lugar donde se había originado. Los animales sólo se movían forzados por los cambios geológicos. El rechazo a este concepto de inercia de Murray, así como la aceptación de la presión malthusiana, algo que ha sido señalado por Bowler fueron en parte el éxito de la visión darwiniana del mundo. Al final del siglo XIX, la idea de que la población de cualquier especie tendía a crecer era aceptada incluso por naturalistas que rechazaban la teoría de la selección natural como mecanismo evolutivo. La literatura biogeográfica estuvo dominada por metáforas propias de una era en la cual los estados occidentales buscaban deliberadamente dominar el resto del mundo. Las especies surgían y se extinguían guiadas por la urgencia de conquistar y dominar nuevos territorios. Entendida la dispersión en un sentido laxo, no sólo como dispersión por saltos sino también como expansión, tanto los biogeógrafos extensionistas como sus rivales antipuentistas eran dispersionistas. Ambos compartían la idea de que las especies se originaban en una sola localidad y tenían una tendencia natural a expandirse. Por ello, el centro de la discusión fue determinar cuáles eran las áreas donde aparecían las innovaciones evolutivas. Los antidarwinistas cuestionaron la tesis monofilética. La expresión más clara del enfoque de evolución independiente provino de Angelo Heilprin, quien sostenía que la misma especie podía evolucionar no sólo en distintas áreas, sino también en diferentes épocas geológicas. El renombrado mastozoólogo Richard Lydekker aceptaba que los caballos habían evolucionado en ambos lados del Atlántico. Karl von Zittel arguyó que las similitudes entre las faunas del Eoceno de Norteamérica y de Europa se explicaban por una evolución paralela y no por migración. Es significativo que Croizat, fundador de la escuela moderna antidispersionista, también recurrió al paralelismo para crear un modelo antidarwinista de la historia de la vida, el cual rechaza la búsqueda de centros de origen. Pero la implicación era grave para el darwinismo, si las especies no se originaban sólo en un área puntual, sino que podían evolucionar independientemente en más de una localidad, el fundamento de todo el programa darwinista se derrumbaba. Perdía todo sentido trazar las migraciones y se volvía imposible distinguir entre los efectos de la evolución paralela y la dispersión. Así, enfatizar el poder de la dispersión se convirtió en una necesidad urgente para Darwin. Los evolucionistas de fines del siglo XIX y principios del xx concluyeron que el debate sólo podía zanjarse con una mejor taxonomía y con correlaciones estratigráficas más precisas. Para trazar las migraciones pasadas se requería establecer con certeza cuáles estratos se habían depositado al mismo tiempo en Europa y en América, tarea a la cual se abocaron coordinadamente una serie de paleontólogos europeos y norteamericanos durante los últimos años del siglo XIX. En la segunda década del siglo XX, la idea popularizada por Wallace fue revivida por William D. Matthew. Los grandes continentes norteños, Eurasia y Norteamérica, constituían las áreas de evolución progresiva. Sin embargo, permanecía latente la hipótesis rival de Hooker sobre la existencia de un gran continente sureño, la cual implicaba que el sur también habría sido un importante centro de evolución. El debate sobre la importancia relativa del norte y el sur como centros evolutivos estuvo ligado a la discusión sobre la existencia de continentes desaparecidos. Darwin y Wallace primero, y Matthew después, afirmaron que, al menos en el Terciario, los rasgos de los continentes y océanos no habían sufrido cambios importantes y negaron la posibilidad de que el lecho profundo del océano hubiera quedado expuesto. La escuela rival de geología, encabezada por Eduard Suess, sostenía que había ocurrido una subsidencia constante en ciertas áreas de la corteza de la Tierra a lo largo de su historia y por tanto, podían haber existido grandes continentes en donde actualmente hay océanos profundos. Quienes apoyaban la permanencia de continentes y océanos sólo podían explicar las distribuciones disyuntas mediante dispersiones accidentales a grandes saltos. En cambio, los extensionistas creían que todos esos casos anómalos podían explicarse por expansión a través de tierra emergida. Cada parte podía acusar a su rival de soñar hipótesis acomodaticias. Siempre era posible postular conexiones hipotéticas o migraciones accidentales entre dos áreas cualesquiera de la superficie terrestre. En 1882, Angelo Heilprin propuso que Norteamérica y Eurasia debían unirse en una sola región a la que denominó Holártica. Aunque Wallace se opuso, finalmente el concepto de región holártica fue la base sobre la que Matthew propuso su modelo dispersionista. Los mundos perdidos La creencia popular de que en ciertas áreas del mundo se habían preservado formas características de etapas anteriores de la historia de la vida fue otro ingrediente del modelo dispersionista. Las formas evolutivamente inferiores eran desplazadas hacia el sur por los nuevos grupos. Australia era el caso paradigmático. Muchos científicos creían que los organismos de este continente —incluidos sus habitantes humanos— eran primitivos y por tanto incapaces de competir con los invasores europeos. Sin embargo, los hechos pronto desvanecieron las esperanzas. Desde 1862, el naturalista australiano Frederick M’Coy había protestado contra la creencia casi universal del carácter primitivo de la biota de Australia. Los datos geológicos revelaban que Australia había estado bajo el mar durante gran parte del Terciario. Cualesquiera que hubieran sido sus habitantes antiguos, habrían sido destruidos, y el continente tendría que haber sido repoblado en tiempos relativamente modernos. A pesar de los argumentos de M’Coy, la expedición pionera de Murray en 1866 reforzó la mayoría de los prejuicios tradicionales. Murray creía en el enfriamiento gradual de la Tierra y en la existencia de grandes masas terrestres sureñas desde el Mesozoico. Australia había preservado formas de vida del Eoceno hasta la actualidad. Esta idea de refugios que protegían a sus habitantes de la invasión de formas más avanzadas fue parte importante de la teoría que desarrollaría Matthew. Los orígenes norteños La teoría de las invasiones norteñas apareció en las discusiones paleontológicas y después se popularizó hasta convertirse en una poderosa aunque controversial herramienta explicativa. Es obvia su afinidad con la ideología de que los europeos estaban destinados a gobernar el mundo. En 1865, Oswald Herr, paleobotánico de Zurich, notó que las plantas del Mioceno de Europa eran equivalentes a las de los trópicos modernos. A finales de ese siglo, la evidencia de que había habido climas fríos desde el Paleozoico puso en entredicho la teoría de Suess sobre el enfriamiento continuo. Más que un enfriamiento progresivo, ocurrieron fluctuaciones cíclicas entre climas templados y severos. Entonces se volvió popular asociar los episodios de evolución progresiva con los periodos de climas severos. La mejor versión de las oleadas sucesivas de migración que barrían a sus predecesores hasta los márgenes meridionales terrestres fue articulada por Matthew en su Climate and Evolution de 1915, quien fue tanto el paleontólogo de vertebrados más importante como el zoogeógrafo teórico más influyente de su tiempo. Con base en la evidencia paleontológica disponible, sostuvo que los vertebrados se habían originado en los climas rigurosos de las áreas del norte y después se dispersaron en oleadas sucesivas para llenar los nichos de las tierras sureñas. A través de George Gaylor Simpson, las ideas de Matthew sobre la evolución y el clima se mantuvieron como la explicación estándar en biogeografía, hasta que ocurrió la revolución de la tectónica de placas en la década de 1960. Matthew hizo una sólida defensa de la permanencia de los continentes con base en la diferente naturaleza de las rocas continentales y las del lecho marino. Al igual que Darwin y Wallace, recurrió al transporte accidental para explicar anomalías ocasionales. La suposición común de que el área actual de distribución de un grupo fue alguna vez su hogar ancestral era exactamente lo opuesto a la verdad, según Matthew. Como muchos de sus contemporáneos, creía que Asia central era la cuna evolutiva de la humanidad y que la raza blanca era el último y el más alto producto de la evolución. La alternativa más simple a la tesis de los orígenes norteños fue la teoría bipolar, la cual proponía que los continentes sureños también fueron centros de evolución importantes. El descubrimiento de reptiles semejantes a mamíferos sugirió que habían ocurrido episodios evolutivos relevantes en el sur de África durante el Paleozoico. En 1876, W. T. Blanford sostuvo que la fauna de la India tenía un origen africano más que asiático. Se propuso que África había sido un gran centro de evolución independiente desde el cual derivaron antílopes, jirafas, elefantes e hipopótamos. Sudamérica era el hogar de una fauna única de edentados que surgieron durante su aislamiento en el Terciario. Después de su reconexión con Norteamérica a través del istmo de Panamá ocurrió un intercambio en ambos sentidos y algunos de los tipos sureños se dispersaron exitosamente hacia el norte. La radiación desde Sudamérica no fue de ningún modo un fracaso evolutivo. A principios del siglo XX, los paleobotánicos disponían de una evidencia más sólida de la que tenía Hooker sobre la existencia de una flora continua en el hemisferio sur a fines del Paleozoico. Se habían hallado semillas fósiles del helecho Glossopteris en Sudamérica, África, Australia e incluso en la misma Antártida. Muchos aceptaban que estas uniones habían existido hasta el Mesozoico, pero la pregunta crucial era si habían perdurado hasta principios del Terciario. Alfred Lothar Wegener rechazó la idea de que la tierra emergida y las cuencas oceánicas profundas fueran intercambiables. Reintepretó la evidencia de las relaciones intercontinentales en términos de su propia teoría, concluyendo que la unión fue directa y no mediante puentes. La deriva continental proporcionaba la mejor explicación para la distribución disyunta de la flora de Glossoopteris y de Mesosauridae en Sudamérica y África. La escuela de los puentes terrestres se defendió vigorosamente de los ataques tanto de Matthew como de Wegener. En América, uno de los líderes puentistas, opositores a Wegener, era Charles Schuchert, quien extendió las hipótesis puentistas hasta el Cenozoico, entrando en conflicto directo con Matthew. En una nota póstuma de la edición de 1939 de Climate and Evolution, Matthew admitió que si se encontrara un mecanismo geofísicamente plausible para la hipótesis de Wegener, se resolverían los casos de distribuciones anómalas en el Paleozoico y Mesozoico. La progresión lineal encubierta Las metáforas que emplearon los naturalistas de fines del siglo XIX y principios del XX para describir la historia de la vida reflejaron sus sentimientos sobre la naturaleza humana y la sociedad. Particularmente, en la discusión biogeográfica se usó un lenguaje que mostraba las aspiraciones colonialistas de los estados europeos. Aunque es común que los científicos no admitan que sus ideas están influidas por conceptos derivados de otras áreas de la cultura humana, es evidente que muchos biólogos emplearon metáforas provenientes de asuntos humanos. Tal prurito parece excesivo, pues de hecho se han usado metáforas no sólo en la biología, sino en todas las áreas del conocimiento humano. Lo extraordinario sería que las hipótesis biogeográficas de esa época fueran ajenas a la ideología imperialista prevaleciente. Si las metáforas resultan heurísticas, su uso se justifica. Lo lamentable sería que se retuvieran modelos malos por razones ideológicas; aunque, como señala Bowler, siempre es polémico decidir cuáles son los modelos malos. Es innegable que los debates biogeográficos efectuados alrededor de 1900 estuvieron influídos por factores externos, aunque no habría que caer en la burda simplificación de creer que toda la empresa no fue más que una pura imposición de metáforas sociales a la naturaleza. Bowler ha hecho notar que en los debates sobre la historia de la vida participaron naturalistas que no estaban comprometidos con un mecanismo evolutivo particular. Sin embargo, compartían el uso de conceptos tales como progreso, lucha y conquista. Varios de los científicos que empleaban este lenguaje no creían que la selección natural fuera el mecanismo del cambio evolutivo e incluso algunos eran oponentes activos del seleccionismo. Así, en esa misma época, muy pocos evolucionistas podían tolerar la idea de que la especie humana no fuera superior a todas las demás en varios sentidos importantes, a pesar de que el modelo de evolución progresiva lineal estaba ya desacreditado. De cualquier forma, el antropocentrismo resurgió en una versión más sutil, si bien varias ramas principales del árbol de la vida habían progresado hacia niveles superiores de complejidad, la nuestra avanzó más que cualquier otra. En su versión simplificada, esta idea se representó mediante un árbol de la vida con un tronco principal que conducía a la especie humana, mientras que todas las demás formas de vida se ubicaban en ramas laterales que al separarse del tronco principal cesaban de progresar. Los evolucionistas modernos rechazan frontalmente la idea de que existan ramas que hayan cambiado tan lentamente que puedan emplearse para ilustrar estadios tempranos de la evolución. Sin embargo, desde Haeckel hasta principios del siglo XX, la tentación de usar formas vivientes como representantes de los estadios tempranos de la evolución fue muy grande, especialmente en el caso de la evolución humana. El gran énfasis que los paleontólogos del siglo XX, como Matthew y Henry F. Osborn, proporcionaron a las especializaciones divergentes representó un rompimiento importante con la tradición establecida en tiempos de Haeckel. En lugar de tratar la evolución en secuencia lineal, los biólogos resaltaron deliberadamente la diversidad de la vida en cada periodo geológico. El enfoque de Osborn sobre la divergencia fue el fundamento para concebir a las razas humanas como especies distintas, lo cual resultaba particularmente adecuado para establecer el carácter único de la raza blanca. A las condiciones ambientales se les asignó un papel fundamental en la evolución. El ambiente físico era esencialmente cambiante y las poblaciones luchaban contra los desafíos que éste les imponía. Según la intensidad de los cambios, las migraciones ocurrían lentamente o con celeridad. De ahí que el progreso fuera más rápido en un ambiente severo y sujeto a rápidas fluctuaciones. Los habitantes de ambientes más estimulantes tendrían mayores probabilidades de progresar. Por el contrario, los ambientes constantes podían conducir a la degeneración —los parásitos eran el caso paradigmático. El estímulo ambiental resultaba un arma de dos filos. El prominente darwiniano de Oxford, E. Ray Lankester creía firmemente que la civilización humana comenzó a degenerar cuando dejó de enfrentarse a nuevos desafíos. E. William MacBride, destacado lamarckista y discípulo de Sedwick, propuso la teoría de que los invertebrados eran vertebrados que habían degenerado por su poco estimulante hábito de arrastrarse sobre el lecho marino. Convencido eugenecista, MacBride también planteó limitar la reproducción de los irlandeses, porque los consideraba inferiores en virtud de haber evolucionado en ambientes menos estimulantes. En los inicios del siglo XX, los paleontólogos enfatizaron la idea de que el poder activo de los ambientes cambiantes constituyen el verdadero detonador de los cambios en la vida animal. La historia de la vida ya no se entendía en términos de fuerzas progresivas que surgían del interior de los organismos. Creció la convicción de que el carácter episódico de la evolución reflejaba el de la historia física de la Tierra. Esta idea concordaba con el rechazo de Darwin a cualquier noción de una tendencia interna de los organismos hacia la perfección y con su idea de que la evolución era esencialmente una respuesta al ambiente, que incluía a otras especies en el mismo proceso. Los lamarckistas también consideraron al estímulo ambiental como el factor clave del progreso. Los evolucionistas, darwinianos o no, terminaron por aceptar que a las principales innovaciones le seguían un proceso de perfeccionamiento y refinación que generaba las diversas especializaciones dentro de cada clase. Un corolario de esta idea era la impredecibilidad de la evolución, pues si estaba condicionada por cambios ambientales azarosos entonces era impredecible. Si bien para la mayoría de los darwinistas modernos el azar es parte integral de su visión del mundo, al principio esta idea encontró una gran resistencia. El reemplazo de las civilizaciones Para explicar la historia de la vida, otra imagen a la que se recurrió con frecuencia fue la del surgimiento y la caída de los grandes imperios de la historia humana. El modelo cíclico de la historia, con su sucesión de razas y civilizaciones dominantes, fue un elemento central de la historiografía conservadora del siglo XIX. Algunas de las versiones del darwinismo se adaptaron para responder a las demandas de un imperialismo nuevo y más materialista, que requería mantener las divisiones y rivalidades entre los grupos humanos. Muchos científicos británicos sabían que su trabajo era parte de la empresa imperial. Jugaron su papel en la apropiación de las áreas vírgenes del mundo por parte de los estados europeos. Los grandes museos de historia natural, las universidades, los zoológicos y los jardines botánicos de las principales ciudades del mundo occidental, simbolizaron la participación de la ciencia en el uso y el control del mundo natural. Esta política imperialista también permitió adquirir una precisión sin precedente en los datos biogeográficos y geológicos de áreas remotas. Así, las metáforas del imperialismo no surgieron simplemente de modelos transplantados de la historia humana hacia la biología, sino también de nueva evidencia empírica. Con el ciclo de juventud, madurez y muerte de los individuos se hizo la analogía entre el surgimiento y la caída de los grupos biológicos, tornándose común la noción de que cada era geológica se caracterizaba por la dominancia de ciertos grupos, como la famosa edad de los reptiles. La historia de la vida podía dividirse en varias épocas discretas, concepción que estaba en consonancia con una filosofía más general que afirmaba el carácter cíclico y discontinuo de la naturaleza. El interés por conocer las causas del origen, declinación y extinción de los principales grupos promovió un modelo de la historia de la vida análogo al usado para describir el surgimiento y la caída de los grandes imperios de la civilización humana. Apareció la propuesta de que cada nuevo grupo estaba dotado de cierta cantidad de energía evolutiva, la cual iba gastando gradualmente hasta finalmente agotarla, idea que adoptaron los paleontólogos alemanes durante la era nazi. Entre ellos, Othenio Abel pensaba que el periodo de declinación estaba marcado por un aumento en el número de individuos degenerados. La adaptabilidad se volvía eventualmente tan rígida que producía resultados dañinos. Había una causa interna de declinamiento inserta en cada grupo desde su origen y ninguno podía escapar a sus consecuencias. Aunque la teoría del sobredesarrollo como resultado de la ortogénesis mantuvo cierta popularidad, los evolucionistas se fueron apartando de esta interpretación, adoptando un enfoque cada vez más darwiniano. La causa del ascenso y la caída era la competencia que ejercían los nuevos grupos incesantemente generados por la evolución. La declinación de un grupo estaba íntimamente ligado al surgimiento de otro. La historia de la vida podía explicarse como una permanente lucha por la supremacía, con especies exitosas que tendían de manera natural a expandirse en un área cada vez mayor, y con consecuencias a menudo desastrosas para los habitantes de las áreas invadidas. El éxito inicial conducía inevitablemente a la sobreespecialización y finalmente a la extinción. La metáfora de la invasión se volvió un lugar común en las descripciones paleontológicas y biogeográficas de alrededor de 1900. En su discusión sobre Sudamérica, Matthew narraba cómo la gran invasión de los animales norteños había barrido todos los grupos de animales de pezuña y todos los carnívoros marsupiales. La expansión de los blancos europeos en América y Australia, con el subsiguiente exterminio de los pueblos aborígenes quedaba así explicada no por la codicia de los estados europeos, sino como consecuencia de una ley natural. Conclusiones Bowler sostiene que hubo un cambio en las metáforas usadas para ilustrar la historia de la vida. La declinación de la morfología condujo al desuso del modelo lineal de evolución, mientras que el desarrollo de la paleontología y de la biogeografía histórica promovió la articulación de nuevas metáforas imperialistas. Al inicio del siglo XX, los evolucionistas percibieron la historia de la evolución de una forma claramente diferente de como la concebían los de la primera generación. Según la historiografía darwinista tradicional, la teoría sintética surgió a partir de la asimilación de la genética de poblaciones a la teoría darwinista. En su clásico Tempo and Mode in Evolution de 1944, Simpson afirmó que el nuevo desarrollo de la teoría genética de la selección natural sirvió para quitar toda la paja de las explicaciones evolucionistas. Sin embargo, el análisis de Bowler apunta hacia una opinión muy diferente. La interpretación convencional de la teoría sintética ignora una serie de desarrollos en la investigación filogenética que sentaron las bases para una forma de pensamiento darwiniano más moderna. Los filogenetistas de inicios del siglo xx desarrollaron la importante idea de que la selección natural podía ser, después de todo, la explicación más efectiva sobre cómo operaba la evolución. Su influencia es innegable, pese a que no se involucraron en la síntesis de la genética y el darwinismo. Pero la conclusión más importante de Bowler es la afirmación de que el darwinismo incluye algo más que una simple lealtad a la teoría de la selección. El darwinismo moderno mantiene ciertas ideas claves que fueron desarrolladas explícita o implícitamente por el mismo Darwin y luego ignoradas por muchos biólogos de la generación posterior. La investigación filogenética contribuyó a la articulación de estas concepciones generales en forma completamente independiente del surgimiento de la nueva teoría genética de la selección, y en ella participaron incluso evolucionistas no seleccionistas. Esta revaloración de la historia muestra que gran parte del evolucionismo de fines del siglo xix tomó un rumbo más desarrollista que darwiniano. Los primeros evolucionistas adoptaron un enfoque que presentaba la vida como un proceso, en buena medida, predeterminado y dirigido casi inevitablemente hacia el surgimiento de la humanidad. Sin embargo, este enfoque pasó por alto una de las ideas cruciales de Darwin, según la cual la evolución era guiada por las respuestas de los organismos a los cambios perennes del ambiente, lo que la hace un proceso divergente y esencialmente impredecible. Los filogenetistas de principios del siglo xx reincorporaron este aspecto, contribuyendo así a la articulación de la visión darwiniana moderna del mundo. Las metáforas cambiaron según esta nueva concepción, proporcionando imágenes de conquista geográfica y de eliminación de tipos inferiores. Se despertó un creciente interés por conocer posibles detonantes ambientales de novedades evolutivas. Sin embargo, permanecieron viejas ideas arropadas sutilmente. La aceptación, por parte de la mayoría de los evolucionistas del siglo xx, de que los mamíferos no pudieron dominar la Tierra hasta la eliminación de los reptiles, denota el aprecio por el viejo y simple progresionismo, aun cuando se admite que la evolución tenía un curso imprevisible. En Estados Unidos, una nueva generación de paleontólogos encabezados por Matthew se deshizo de los grilletes del viejo enfoque no darwiniano, y contribuyeron, en buena medida, a la derrota de gran parte de la vieja concepción antiseleccionista. Bowler señala que la visión darwiniana de la naturaleza, más allá de su apego a la selección natural, representa un desafío mucho más básico al viejo pensamiento desarrollista del mundo, pues niega metas predeterminadas y fuerzas internas que dirijan la evolución. Si bien es claro que la principal fuente de la síntesis moderna no provino de la investigación filogenética, ello no invalida el argumento de Bowler, a saber, que el camino hacia una aceptación más amplia de la síntesis fue pavimentado por desarrollos que ocurrieron en la paleontología y la biogeografía durante las primeras décadas del siglo XX, cuando se concibió la historia de la vida de una forma significativamente diferente a la que tuvieron los evolucionistas de las décadas de 1870 y 1880. Las nuevas preguntas fueron importantes para crear un clima de opinión propicio que desmantelara los últimos vestigios de las teorías lamarckistas y ortogenetistas. Así, el desarrollo continuo de la investigación filogenética, entendida en su sentido amplio como la reconstrucción del espléndido drama de la vida, desde 1860 hasta 1940, representó un factor significativo en la consolidación de la revolución darwiniana. |
||
Antonio Alfredo Bueno Hernández
Carlos Pérez Malváez Facultad de Estudios Superiores Zaragoza, Universidad Nacional Autónoma de México. |
||
Referencias bibliográficas
Bowler, P. J. 1985. El eclipse del darwinismo. Teorías evolucionistas antidarwinistas en las décadas en torno a 1900. Editorial Labor, Barcelona.
Bowler, P. J. 1990. The invention of progress: The Victorians and the past. Blackwell. Oxford.
Bowler, P. J. 1996. Life’s splendid drama. The University of Chicago Press. Chicago y Londres.
Browne, J. 1995. Charles Darwin. Voyaging. Volume i of a biography. Pimilco, Londres.
Browne, J. 2002. Charles Darwin. The power of place. Volume II of a biography. Princenton University Press, Princenton y Oxford.
Camerini, J. R. 1993. “Evolution, biogeography, and maps. An early history of Wallace’s line”, en Isis, núm. 84, pp. 700-727.
Fichman, M. 1977. “Wallace: Zoogeography and the problem of land bridges”, en Journal of the History of Biology, vol. 10, núm. 1, pp. 45-63.
Richardson, R. A. 1981. “Biogeography and the genesis of Darwin’s ideas on transmutation”, en Journal of the History of Biology, vol. 14, núm. 1, pp. 1-41.
|
||
Antonio Alfredo Bueno Hernández obtuvo el doctorado en la Facultad de Ciencias de la unam. Actualmente es profesor de carrera titular del Museo de Zoología de la fes Zaragoza y responsable de un proyecto sobre los modelos de biogeografía histórica que se desarrollaron en torno al darwinismo.
Carlos Pérez Malváez obtuvo la Maestría en Ciencias en la Facultad de Ciencias de la unam. Actualmente es profesor de carrera Asociado C de tiempo completo en la fes Zaragoza. Recibió el premio José Antonio Alzate 2004 en la categoría mejor artículo de divulgación.
_______________________________________________________________
como citar este artículo → Bueno Hernández, Alfredo y Pérez Malváez, Carlos. (2006). Metáforas biogeográficas del imperialismo. Ciencias 84, octubre-diciembre, 14-24. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |
Incertidumbre y errores en las elecciones de julio de 2006 |
En este documento se analiza la base de datos del prep, y la de los Cómputos Distritales para estimar la magnitud de los errores esperados durante el conteo de los votos y se concluye que es mucho mayor que la diferencia final de votos entre Felipe Calderón y Andrés Manuel López Obrador.
|
|
W. Luis Mochán
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
Todo proceso de medición lleva asociado una incertidumbre. Por ejemplo, es imposible distinguir dos objetos microscópicos, separados por una distancia menor a unas cuantas décimas de millonésima de metro, si para ello empleamos un microscopio óptico convencional, sin importar su calidad o perfección. Esto es consecuencia del límite de resolución que enunció Ernst Abbe en 1873 y está basado en características fundamentales de la luz, del movimiento ondulatorio y sus propiedades matemáticas. Las limitaciones fundamentales de algunos procesos de medición fueron reconocidas por Heisenberg, quien enunció en 1927 su ahora famoso principio de incertidumbre.
A diferencia de otros procesos de medición, el proceso de contar puede realizarse en forma esencialmente exacta. Sin embargo, para conseguirlo se requiere una ausencia total de errores. En un proceso tan complicado como una elección federal, en cuyo conteo intervienen cientos de miles o quizás millones de actores, ciudadanos ordinarios en su mayor parte, es prácticamente imposible que no se cometan errores. Los funcionarios mejor capacitados y más honestos cometen ocasionalmente errores. Por lo tanto, es importante tener elementos que permitan evaluar los errores para acotar su importancia. Si el monto de los errores acumulados fuese significativamente menor que la diferencia entre el número de votos obtenido por los contendientes, simplemente podríamos ignorarlos. Pero si fuera similar o si sobrepasaran dicha diferencia, resolverlo sería una tarea imposible sin un recuento más cuidadoso en el que se identifiquen y eliminen las fuentes de error en la medida de lo posible. De acuerdo con la sentencia sup-jin-212-2006-Inc2, y otras emitidas por el Tribunal Electoral del Poder Judicial de la Federación (tepjf), el día 5 de agosto de 2006: “Tener certeza sobre la totalidad de los votos emitidos y el sentido de ellos adquiere relevancia en las elecciones democráticas para determinar al candidato electo, porque tanto los partidos contendientes como la sociedad en su conjunto, tienen mayor interés sobre la certidumbre de que el cómputo de los votos se llevó a cabo adecuadamente, y que en verdad la decisión mayoritaria es la que se advierte en un primer momento o si las posibilidades de error en el cómputo de varias casillas pudieran llevar, luego de una verificación o recuento, en los términos previstos en la ley, a un resultado diferente”.
Afortunadamente, entre los datos electorales que recopila el Instituto Federal Electoral (ife), y que los pone disponibles a la ciudadanía, existen muchos que son redundantes; es decir, no son independientes entre sí, por lo que deben obedecer a una serie de constricciones, a pesar de ser obtenidos por separado. Por ejemplo, consideremos el número total de votos en una urna; éste puede obtenerse sumando los votos que recibió cada candidato, los que recibieron los candidatos no registrados y los votos anulados. También se obtiene contando el numero de boletas depositadas en la urna. Otra forma de obtenerlo consiste en contar cuántos votantes se registraron, ya que cada uno de ellos debió, en principio, depositar una boleta en cada urna. El número de ciudadanos que votaron resulta del número de sellos que los funcionarios de casilla deben estampar sobre la lista nominal para cada ciudadano que vota. Los tres métodos deberían arrojar el mismo resultado. En algunas ocasiones excepcionales podría esperarse que no lo hicieran; quizás un elector se llevó su boleta, por lo que el número de boletas es menor al número de sellos; o bien, el elector puede equivocarse y depositar su boleta en la urna equivocada, en cuyo caso en una urna sobrarían y en otra cercana faltarían votos. Incluso, no es impensable que el elector confunda las urnas de su casilla con las de una contigua. Otra fuente de error es una suma mal realizada o una captura de datos incorrecta. No es inconcebible que hubiera otras fuentes de error, incluyendo manipulaciones dolosas de boletas, paquetes, actas y datos. En las mismas sentencias, el tepjf señaló: “La comparación de todos esos elementos sirve de control o candado para verificar la correspondencia del número de votos”.
La existencia de redundancia es indispensable para juzgar los resultados de una elección. En otros campos de la actividad humana la empleamos cotidianamente. Por ejemplo, nuestra expresión facial y nuestro tono de voz suele mostrar alegría cuando damos una noticia particularmente buena o tristeza cuando comunicamos una mala. Si nuestro tono de voz o expresión facial fuera inconsistente con el mensaje que comunicamos, la persona con quien hablamos sospecharía que ha habido un malentendido e intentaría aclararlo. En forma similar, la comunicación entre dos computadoras requiere redundancia para poder detectar y corregir errores que inevitablemente induce el ruido electromagnético en algunas transacciones. Para evaluar la existencia y la magnitud de los posibles errores en un recuento, las actas de la elección contienen campos redundantes, los cuales deben ser llenados por los funcionarios de casilla y posteriormente capturados en los centros de acopio y transmisión de datos. El entrenamiento que reciben los funcionarios pretende capacitarlos para llenar estos campos, además de los campos usuales sobre los votos recibidos por cada partido, alianza o coalición.
El análisis de algunos de los errores evidentes que se desprenden de la información puesta a disposición del público por el ife, permite sostener que los errores esperados en los resultados de la elección son mucho mayores que el máximo error tolerable en una elección tan cerrada. Por lo tanto, es indispensable volver a realizar un conteo de los votos de manera tal que disminuya significativamente el error esperado. De otro modo, no se cumpliría el requisito legal ni técnico de certeza. Recordemos que el tepjf, en las sentencias mencionadas, se basó en la definición que proporciona Guillermo Cabanellas en el Diccionario enciclopédico de derecho usual, que dice: “La certeza es la clara, segura y firme convicción de la verdad; la ausencia de duda sobre un hecho o cosa”. La noche de la elección La noche de la elección, el ife proporcionó los resultados parciales del Programa de Resultados Electorales Preliminares (prep) a través de páginas web instaladas en varios servidores de cómputo. Mediante un pequeño programa, acumulé copias de las páginas publicadas en el sitio http://www.elecciones2006.unam.mx/prep2006/index contenido.html y las guardé en mi computadora. Alfonso Baqueiro hizo un programa similar y me envió copias de las páginas capturadas (ambos juegos de páginas están disponibles en http://em.fis.unam.mx/public/mochan/elecciones/prep y http://em.fis.unam.mx/public/mochan/elecciones/prep1). Los datos obtenidos de estas páginas fueron empleados en la fase inicial de un análisis de la elección presidencial, el cual puede consultarse en http://em.fis.unam.mx/public/mochan/elecciones/. Aquí voy a referirme únicamente a los errores evidentes que observé al analizar el número de votos por acta que en promedio obtuvo cada partido. Este número se consiguió de la siguiente manera: primero, con una serie de programas simples, extraje los datos relevantes del código html de cada una de las páginas capturadas; después, armé un archivo con todos los datos ordenados de acuerdo con el número total de actas procesadas (http://em.fis.unam.mx/public/mochan/elecciones/diferenciasporcasilla.dat); finalmente, para cada dos registros consecutivos, resté los votos acumulados por cada candidato y dividí el resultado entre la diferencia del total de casillas procesadas. |
||
Además del comportamiento de la votación recibida por cada candidato y de ciertas peculiaridades que requieren ser explicadas (http://em.fis.unam.mx/public/mochan/elecciones/), aparece una serie de errores evidentes cerca del final de la votación, cuando se han procesado cerca de 128 000 casillas. La gráfica muestra una serie de oscilaciones violentas de magnitud tan grande que se salen de la escala de la figura, alcanzando valores mayores a 6 000, y por otro lado, tomando valores negativos menores a –1 000. Estos resultados, evidentemente erróneos, fueron consecuencia de una manipulación en el reporte de resultados del prep como se muestra a continuación. En el cuadro 1 se ilustran algunos de los datos obtenidos el día 3 de julio, directamente de las páginas web que reportaron los resultados del prep al término de la elección (http://www.elecciones2006.unam.mx/prep2006/index contenido.html). | ||
|
||
De acuerdo con los primeros dos renglones de dicha tabla, en cada una de las tres actas recibidas después del acta número 127 710, Felipe Calderón (fc) obtuvo en promedio 1 825 votos, Roberto Madrazo (rm) 6 657 votos y Andrés Manuel López Obrador (amlo) 1 216 votos. Similarmente, los renglones tercero y cuarto muestran que en las ocho actas recibidas después de haber procesado 127 724 casillas, fc recibió un promedio de 605 votos negativos, rm 2 416 y amlo 501 votos negativos. Estos números, así como otros no mostrados por la tabla, son absurdos. Sin embargo, su explicación es sencilla. Observando la última columna, la cual muestra la hora en la que se preparó cada reporte, notamos que los renglones de la tabla no están ordenados cronológicamente. Por ejemplo, a las 12:39 se habían procesado 127 772 casillas y una hora después, a las 13:50, se habían procesado 127 713 casillas; es decir, se eliminaron del reporte no menos de 59 casillas procesadas con anterioridad. En la figura 2 se muestran los reportes del prep correspondientes. Aparentemente, este error está relacionado con la eliminación de los votos provenientes del extranjero, los cuales regresaron más tarde, generando otra serie de errores. Aun corrigiendo las actas mediante la incorporación de los votos del extranjero (Rici Lake, http://em.fis.unam.mx/public/mochan/elecciones/archivos/msg00494.html), quedan errores en el reporte de los datos.
|
||
Figura 2. Reporte del prep en tiempo real.
|
||
Es importante hacer notar que las anomalías señaladas en esta sección son errores en el reporte del prep, no en la captura de los datos. Por lo tanto, no tienen una incidencia directa en los resultados de la elección. De hecho, podría considerarse que estos errores son inofensivos. Cometer errores es humano, así como admitirlos, corregirlos y explicarlos, hubiera sido una muestra de decencia. Sin embargo, en vez de ello, se ha realizado una intensa campaña de propaganda con el propósito de sembrar, a fuerza de repetición, la noción de que todos los aspectos del proceso electoral fueron impecables y perfectos. Ante esto, es importante enfatizar que: 1) el reporte del prep presentó errores obvios como los aquí documentados; 2) dichos errores muestran la capacidad de funcionarios del ife de interferir con el funcionamiento de las computadoras que elaboraron esos reportes, añadiendo, eliminando y modificando datos; 3) el sistema de cómputo del ife, o al menos la parte encargada de reportar los resultados del prep, no es robusto y su funcionamiento puede ser interferido; y 4) la ausencia de una explicación de estas anomalías y la enorme campaña de propaganda pretendiendo inducir la noción de un proceso perfecto no puede más que generar una actitud de desconfianza en cuanto a las otras etapas del proceso electoral.
La base de datos del prep Unos días después de la elección, el ife liberó una serie de bases de datos donde se reportan los resultados del prep, las cuales estuvieron disponibles en diversos sitios de la red. Inicialmente, utilicé una tomada de http://prep2006.grc.com.mx/extraccion-servlets/presidente.txt, donde parece ya no estar accesible. Sin embargo, en http:// em.fis.unam.mx/public/mochan/elecciones/fullprep.txt monté una copia. Versiones posteriores y más completas —por ejemplo, con campos adicionales— de las mismas bases de datos están disponibles en http://www.ife.org.mx/documentos/proceso 2005-2006/prep2006/bd prep2006/bd prep2006.htm, a través del sitio oficial del ife (http://www.ife.org.mx/). De un análisis de la base de datos de las actas contabilizadas en el prep para la elección presidencial (http://www.ife.org.mx/documentos/proceso 2005-2006/prep2006/bd prep2006/bd prep2006.htm), se desprende que:
1. Contiene 117 287 registros. 2. Están ausentes 13 201 registros necesarios para completar las 130 488 casillas instaladas —excluyendo las correspondientes al voto en el extranjero— y otros 300 registros para incluir los resultados del voto en el extranjero. Existen muchos motivos para explicar estas ausencias, el principal es la detección de inconsistencias que impidió contabilizar dichas actas en el prep. 3. Entre los registros que sí están presentes en la base de datos, hay 24 148 incompletos. En estos, hay 31 302 campos numéricos que se dejaron vacíos. En el cuadro 2 se muestran los campos ausentes y el número de veces que quedaron vacíos.
|
||
4. Los campos ausentes en los registros correspondientes a las actas que sí fueron contabilizadas en el prep son aquellos que aparentemente no afectan directamente el resultado de la elección, porque no se referían a la votación obtenida por ninguno de los candidatos registrados. Las actas con campos ausentes que sí afectaban directamente el resultado de la elección fueron registradas en otras bases de datos. Sin embargo, es indispensable enfatizar que los campos ausentes en las actas que sí fueron contabilizadas en el prep son precisamente aquellos que proveen la redundancia necesaria para permitir verificar si hubo o no errores o irregularidades en la casilla correspondiente. En ausencia de dichos campos es imposible aplicar las pruebas de consistencia diseñadas para identificar errores o manipulaciones en los resultados electorales. De esa manera, no hay forma de saber si los campos que sí están presentes en dichas actas son correctos, son erróneos o son fabricados.
5. Por lo tanto, hay 24 148 registros que corresponden a 21% de las actas contabilizadas en el prep y 18% del total de actas de la elección presidencial donde no se pueden aplicar las diversas pruebas de consistencia.
6. En 8 153 de ellos —6% del total— es imposible saber si el número de boletas depositadas en la urna es mayor o menor al número de boletas recibidas menos el número de boletas sobrantes. Por lo tanto, no podemos saber si en las casillas correspondientes hubo ciudadanos que —ilegalmente— se llevaron boletas que debían haber depositado en las urnas, o si hubo boletas sustraídas o añadidas de manera irregular. 7. En 19 497 registros —15% del total— es imposible saber si el número de votos contabilizados corresponde al número de ciudadanos que votaron, pues falta este último dato o falta el número de votos anulados o para candidatos no registrados, por lo cual el número total de votos es incierto. 8. En 9 862 registros —8% del total— es imposible saber si el número de boletas depositadas en la urna corresponde al número de ciudadanos que votaron, pues algunos de los campos correspondientes están ausentes.
9. En 22 147 registros —19% del total— es imposible saber si el número de votos contabilizados corresponde al número de boletas depositadas en la urna, pues falta este último dato o igual para el número de votos anulados y para candidatos no registrados. 10. En algunos registros es imposible aplicar más de una de las pruebas previas. Es por ello que la suma de registros —8 153 + 19 497 + 9 862 + 22 147 = 59 659— con diversos tipos de campos ausentes supera al total de registros —24 148— incompletos. 11. De los 109 134 registros donde sí se puede comparar el número de boletas depositadas en la urna con el número de boletas recibidas y el número de boletas sobrantes, hay 17 465 (16%) en los cuales el número de boletas depositadas es mayor en 788 077 a la resta del número de boletas recibidas menos el número de boletas sobrantes. Es decir, en promedio sobran 45 boletas en cada una de estas urnas. También hay 32 758 registros (30%) donde el número de boletas depositadas es menor en 716 489 a la resta del número de boletas recibidas menos el número de boletas sobrantes. Es decir, en promedio faltan 22 boletas en cada una de estas urnas. En total hay 50 223 casillas (46%) con este tipo de error, el cual involucra 1 504 566 boletas. Restando las boletas que faltan de las boletas que sobran, obtenemos un exceso neto de 71 588 boletas. 12. De los 97 790 registros donde sí se puede comparar el número de votos contabilizados con el número de ciudadanos que votaron, hay 22 419 registros (23%) en los que el número de votos supera en 719 857 al número de ciudadanos que votaron. Es decir, en promedio sobran 32 votos en cada una de estas casillas. También hay 22 391 registros (23%) en los cuales el número de votos contabilizados es menor en 1 043 907 al número de ciudadanos que votaron. Es decir, en promedio faltan 47 votos en cada una de estas casillas. En total hay 44 810 registros (46%) con este tipo de error, el cual involucra 1 763 764 votos. Restando los votos que faltan de los votos que sobran obtenemos una deficiencia de 324 050 votos.13. De los 107 425 registros donde sí es posible saber si el número de boletas depositadas en la urna corresponde al número de ciudadanos que votaron, hay 17 681 (16%) en las que el número de boletas supera en 876 422 el número de ciudadanos que votaron. Es decir, en promedio sobran 50 boletas depositadas en cada urna. También hay 26 342 registros (25%) en los que el número de boletas depositadas es menor en 1 474 589 al número de ciudadanos que votaron. Es decir, en promedio faltan 56 boletas en cada urna. En total, hay 44 023 registros (41%) con este tipo de inconsistencia, la cual involucra 2 351 011 boletas. Restando las boletas que faltan de las que sobran obtenemos una deficiencia de 589 167 boletas.
14. De los 95 140 registros en los que sí se puede comparar el número total de votos contabilizados con el número de boletas depositadas en las urnas, hay 17 889 (19%) en los cuales el numero total de votos es superior en 457 415 al número de boletas depositadas. Es decir, en promedio hubo 26 votos contabilizados por casilla que no corresponden a boletas depositadas en la urna. También hay 9 357 registros (10%) en los que el número total de votos es inferior en 230 927 al número de boletas depositadas. Es decir, en promedio hubo 25 boletas depositadas que no fueron contabilizadas por cada una de estas casillas. En total, hay 27 256 registros (29%) que muestran este tipo de inconsistencia, la cual involucra 688 342 votos. Restando los votos faltantes de los sobrantes obtenemos un exceso de 226 448 votos por arriba del número de boletas depositadas. Estos resultados están resumidos en el cuadro 3. Como puede apreciarse, todas las inconsistencias verificables involucran cientos de miles o incluso millones de boletas. |
||
Existen algunas explicaciones tentativas para algunas de estas inconsistencias, las cuales es indispensable evaluar. Por ejemplo, no es inconcebible que un número importante de ciudadanos se hubiera equivocado en aquellas secciones que contenían casillas contiguas, además de una básica, depositando su boleta en la urna que no le correspondía. Este error, aparentemente inofensivo —lo que sobraría en una casilla faltaría en la vecina— es fácil de eliminar de la cuenta de inconsistencias si se realizan las pruebas anteriores no de manera individual, casilla por casilla, sino de forma agregada, sección por sección. Así, la confusión se eliminaría al sumar los datos de, digamos, una casilla básica con los de sus casillas contiguas. Si quedan errores, sería necesario encontrar explicaciones alternativas.
En la base de datos de las actas que fueron procesadas y contabilizadas en el prep hay datos de 59 084 secciones. Apliqué las pruebas anteriores para aquellas secciones cuyos registros contenían información suficiente. Es decir, si un registro de una sección no es verificable, considero toda la sección como no verificable. Por lo tanto, los siguientes datos se refieren a un número ligeramente menor de casillas que los datos previos. De las 51 538 secciones en las que se puede comparar el número de boletas depositadas en las urnas con el número de boletas recibidas y el número de boletas sobrantes, hay 8 299 (16%) en las cuales el número de boletas depositadas supera en 632 682 a la resta del número de boletas recibidas menos el número de boletas sobrantes. Es decir, en promedio sobran 76 boletas en las urnas de cada una de estas secciones. También hay 19 117 secciones (37%) en donde el número de boletas depositadas es menor en 580 875 a la resta del número de boletas recibidas menos el número de boletas sobrantes. Es decir, en promedio faltó depositar 30 boletas en las urnas por cada una de estas secciones. En total, hay 27 416 secciones (53%) con este tipo de error, el cual involucra 1 213 557 boletas. Restando las boletas que faltan de las boletas que sobran, obtenemos un exceso neto de 51 807 boletas depositadas en las urnas.
De las 42 093 secciones en las cuales se puede comparar el número total de votos contabilizados con el número de ciudadanos que votaron, hay 11 209 (27%) en las que los votos supera en 517 866 el número de ciudadanos que votaron. Es decir, en promedio sobran 46 votos en cada una de estas secciones. También hay 11 289 secciones (27%) en las que el número de votos contabilizados es menor en 761 954 al número de ciudadanos que votaron. Es decir, en promedio faltan 67 votos en cada una de estas secciones. En total, hay 22 498 secciones (53%) con este tipo de error, el cual involucra 1 279 820 votos. Restando los votos que faltan de los que sobran obtenemos una deficiencia de 244 088 votos. De las 50 035 secciones en las que es posible confirmar si el número de boletas depositadas en la urna corresponde al número de ciudadanos que votaron, hay 9 312 (19%) en las que el número de boletas supera en 685 298 el número de votantes. Es decir, en promedio sobran 74 boletas depositadas en las urnas de cada una de estas secciones. También hay 15 838 secciones (32%) en las cuales el numero de boletas depositadas es menor en 1 213 921 al número de ciudadanos que votaron. Es decir, en promedio faltan 77 boletas depositadas en las urnas que conforman cada sección. En total hay 25 150 secciones (50%) con este tipo de inconsistencia, la cual involucra 1 899 219 boletas. Restando las boletas que faltan de las que sobran obtenemos una deficiencia de 528 623 boletas. De las 40 057 secciones en las que se puede comparar el número total de votos con el número de boletas depositadas en las urnas, hay 11 039 (28%) en las que el número de votos contabilizados supera en 345 112 el número de boletas depositadas. Es decir, en promedio hay 31 votos contabilizados por cada sección sin que correspondan a ninguna boleta depositada en las urnas correspondientes. También hay 5 508 secciones (14%) en las que número de boletas depositadas supera en 156 094 al número total de votos. Es decir, en promedio hubo 28 boletas depositadas que no fueron contabilizadas en cada una de estas secciones. En total, hay 16 547 secciones (41%) que muestran este tipo de inconsistencia, la cual involucra 501 206 votos. Restando los votos faltantes de los sobrantes obtenemos que el número de votos contabilizados supera en 189 018 al número de boletas depositadas en las urnas. Los resultados anteriores están resumidos en el cuadro 4, y muestra que, aun agregando los datos por secciones, los errores e inconsistencias persisten, disminuyen marginalmente su tamaño, pero continúan involucrando cientos de miles e incluso millones de boletas, votos, votantes. |
||
Debo enfatizar que los datos presentados arriba son cotas inferiores al número de inconsistencias, pues hubo numerosos registros y secciones en las que no se pudieron aplicar las pruebas.
Existen muchas otras anomalías en las bases de datos del prep, como 127 registros de casillas no especiales en los cuales el total de ciudadanos que votaron (total_ciudadanos_votaron) supera en más de 10 a la lista nominal. Otro tipo de errores se pone de manifiesto al observar la hora de recepción en los Centros de acopio y transmisión de datos (cedat), que arroja datos de 68 casillas recibidas el día anterior de la elección y 1 278 casillas recibidas el día de la elección pero antes del cierre. Estos y muchos otros errores y anomalías en el prep están descritos en http://em.fis.unam.mx/public/mochan/elecciones/ y en http://analisis.elecciones2006.unam.mx/index.php, así como en los trabajos ahí referidos. Los Cómputos Distritales El miércoles 5 de julio del 2006, se iniciaron las sesiones de los Cómputos Distritales (cd) en cada uno de los 300 Consejos Distritales. El 13 de julio conseguí las bases de datos del mismo publicadas por el ife en http://www.ife.org.mx/documentos/computos2006/bd computos06.htm. Desgraciadamente, dichas bases no contienen los campos redundantes que permitirían verificar la consistencia de los datos que contienen. Por ejemplo, no mencionan el número de boletas depositadas en las urnas —que era el campo llamado num_boletas_depositadas en las bases de datos del prep—, número de boletas recibidas —num_boletas_recibidas—, número de boletas sobrantes —num_boletas_sobrantes—, ni el número de ciudadanos registrados como votantes —total_ciudadanos_votaron. Por lo tanto, es imposible verificar si las inconsistencias descritas en la sección anterior fueron corregidas durante el recuento. Sin embargo, puede hacerse un análisis somero del contenido de la base de datos y de su comparación con la del prep.
A pesar de que los cd no tienen las fuertes constricciones de tiempo impuestas sobre el prep, y que en ellos deben eliminarse todas las ambigüedades, su resultado no es impecable, como muestra el hecho de haber 311 registros con campos en blanco —tipo _acta, paquete_entregado y casilla_instalada.
Otra muestra de descuido son los 20 registros —14 de Oaxaca, 2 del Estado de México, 2 de Guerrero, 1 de Baja California y 1 de Hidalgo— en los que el total de votos por presidente fue nulo: no hubo votos por ningún partido, alianza o coalición, no hubo votos por ningún candidato independiente y no hubo votos anulados.
La base de datos de los cd para la elección de presidente contiene 13 501 actas que no se habían contabilizado en el prep. Los resultados en estas actas son notablemente distintos de los resultados globales —por ejemplo, el pan baja a 31.02%, la apm sube a 30.86% y la cpbt permanece casi invariante con 35.59% de los votos.
Los registros que están presentes tanto en la base de datos de los cd como en la del prep difieren únicamente en 4 151 registros. De entre estos registros, sólo hay 1 243 en donde se modifica el número de votos obtenido por el pan, 1 278 en los que se modificaron resultados para la apm y 1 458 que afectaron a la cpbt. Un análisis estadístico (http://em.fis.unam.mx/public/mochan/elecciones/) de los cambios que afectaron a cada partido muestra que son incompatibles —probabilidad menor a 10–17— con la hipótesis de una simple corrección de errores accidentales sin sesgo. De acuerdo con el ife, sólo se abrieron 2 873 paquetes durante los cd. Es insólito que, con tantas inconsistencias en la base de datos del prep, su revisión al preparar la base de datos de los cd afectara tan pocos registros. Como se eliminó la redundancia que permitiría revisar la existencia de inconsistencias, no hay más remedio que dar por hecho que las inconsistencias en los cd son del mismo orden de magnitud que la que hubo en el prep; es decir, hay decenas de miles de casillas, más de 50% del total, en donde existen inconsistencias que involucran millones de votos. Conclusiones Este trabajo muestra que hubo errores y manipulación en el sistema de cómputo encargado de reportar los resultados del prep en tiempo real durante la noche de la elección y al día siguiente. También muestra que hay un gran número de inconsistencias en las actas del prep, tal y como fueron reportadas en las bases de datos hechas públicas por el ife. Con frecuencia, el número de boletas depositadas en las urnas no fue consistente con el número de boletas sobrantes; el número de boletas recibidas y el número de votos no coincidió con el número de ciudadanos que votaron, el número de boletas depositadas difirió del número de ciudadanos que votaron o del número de votos contabilizados. Cada tipo de error abarca decenas de miles de casillas e involucra cientos de miles y, en ocasiones, millones de votos. La magnitud de los errores, distribuidos en aproximadamente la mitad de las más de 130 000 casillas, supera varias veces la diferencia entre el número de votos obtenido por el pan y por la cpbt.
Es probable que muchas de las inconsistencias tengan su origen en simples errores humanos cometidos sin dolo. Una explicación sobre la cual se ha especulado consiste en la confusión de algunos ciudadanos ante la cercanía de las casillas básicas y contiguas de la misma sección. Como parte de este trabajo verifiqué que dicha confusión pudo producir parte de las inconsistencias, pero que es insuficiente para explicar su magnitud, la cual no decrece significativamente al agregar datos por sección. Otros errores pudieron originarse en simples confusiones de los funcionarios electorales al momento de llenar las actas. Probablemente el proceso fue complicado y la capacitación insuficiente. Por ejemplo, hay alrededor de 1 000 registros donde coinciden las boletas sobrantes con las recibidas y alrededor de 600 donde coinciden las depositadas con las recibidas. Seguramente, los funcionarios de esas casillas no supieron diferenciar los campos correspondientes de las actas. De nuevo, este tipo de confusiones no logra explicar la magnitud de los errores. Por otro lado, no deben descartarse a priori otras explicaciones menos inocentes. Las fallas evidentes en el prep debieron corregirse de oficio durante los Cómputos Distritales. Sin embargo, el número de paquetes electorales revisados en los cd y el número de actas en las que se registraron cambios es mucho menor al número de inconsistencias del prep, evidencia de que la mayor parte de ellas no fueron corregidas. Desgraciadamente, las bases de datos de los cd no contienen los campos redundantes que permitirían verificar esta afirmación. En resumen, he presentado errores e inconsistencias evidentes en varias de las etapas de la elección presidencial de julio de 2006. El análisis ha dejado de lado las anomalías en los resultados electorales, en su comportamiento estadístico y en la evolución temporal de su captura durante el prep y durante los Cómputos Distritales, los cuales son temas relativamente controversiales que requieren cierto grado de interpretación. Muchos de los análisis relacionados con dichos aspectos pueden hallarse en http://em.fis.unam.mx/public/mochan/elecciones/ y http://analisis.elecciones2006.unam.mx/index.php. En cambio, los resultados aquí presentados pueden considerarse como simples datos duros. Independientemente de su origen, los errores e inconsistencias hallados son tan grandes que mientras no se eliminen, impedirán designar con certeza un ganador de la contienda electoral. Ante una medición que resultó no tener la suficiente resolución, no veo otra alternativa más que realizar otra medición, esta vez más fina. Es indispensable realizar un recuento total para poder resolver la elección. |
||
W. Luis Mochán
Centro de Ciencias Físicas,
Universidad Nacional Autónoma de México.
|
||
Nota
Este texto fue publicado en Internet el 27 de agosto de 2006 en el sitio http://em.fis.unam.mx/public/mochan/elecciones/paperMochan.pdf
|
||
W. Luis Mochán Backal es Doctor en Ciencias (Física) de la Facultad de Ciencias, unam. Actualmente es investigador titular C Catedrático ii-unam, profesor de la Facultad de Ciencias de la Universidad Autónoma del Estado de Morelos y Nivel III del sni.
_______________________________________________________________
como citar este artículo → Mochán, W. Luis. (2006). Incertidumbre y errores en las elecciones de 2006. Ciencias 84, octubre-diciembre, 38-49. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |
Elecciones del 2006, un análisis del conteo rápido |
En este espacio presentamos de manera breve algunos elementos del conteo rápido del 2006, pero sobre todo, los valores estimados obtenidos la noche de la elección y una serie de figuras que ilustran gráficamente algunos aspectos de los resultados numéricos obtenidos.
|
|
Guillermina Eslava
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
|
|
|
Para estimar los resultados electorales se han realizado numerosos y muy diversos ejercicios estadísticos, desde encuestas preelectorales, hasta encuestas de salida, conteos rápidos y encuestas postelectorales. En general, están basados en muestras probabilísticas y producen estimaciones en distintos tiempos y con diferentes grados de incertidumbre, que son inherentes a cualquier valor estimado partiendo de una muestra probabilística. También conllevan la incertidumbre propia de la calidad del proceso de recolección y procesamiento de la información.
Las encuestas preelectorales toman la información de votantes potenciales, generalmente ciudadanos que dicen tener credencial para votar. Además de estimar los porcentajes de votación en favor de los distintos partidos, candidatos o fuerzas contendientes, obtienen información adicional que permite a los diversos partidos construir un perfil del votante potencial, así como aquella de interés para quien planea las campañas preelectorales y de publicidad. Los resultados difundidos tienen cierto tiempo de desfase respecto al tiempo en que se recolecta, pues se pone a disposición del público una vez que la información fue levantada, filtrada y procesada. La metodología es variada, no sólo en cuanto al diseño muestral usado, que depende de la forma en que se construye, y del tamaño y la distribución de la muestra, sino también en cuanto a los métodos de recolección en el campo y los métodos de estimación. Un tipo particular de encuestas preelectorales son las telefónicas, las cuales proporcionan resultados que reflejan la opinión de sólo una parte de la población, si consideramos que la penetración del teléfono en el país es de aproximadamente 37%, y va de acuerdo con las estimaciones de la muestra asociada al Censo General de Población y Vivienda 2000 de 12% en el estado de Chiapas a 67% en el Distrito Federal. Las encuestas de salida toman la información de votantes consumados; esto es, se selecciona una muestra, en principio probabilística, de personas que han votado, las cuales son entrevistadas al salir de la casilla. La muestra probabilística la conforman las casillas donde se realizan las entrevistas. Estas encuestas producen estimaciones durante el día de la elección en diversos cortes hasta terminar al momento del cierre de casillas, a las 18 horas del tiempo local. Los conteos rápidos se realizan la misma noche de la elección y toman la información del resultado de la casilla reportado, sea en la hoja de operaciones de cómputo o en el acta de escrutinio y cómputo aprobada por los funcionarios de casilla. Al igual que en el caso anterior, las casillas seleccionadas donde se recoge la información constituyen una muestra probabilística. El producto de un conteo rápido generalmente estima el resultado final de los cómputos distritales del 5 de julio, hasta antes de considerar imputaciones y ajustes finales realizados y aprobados por el Tribunal Electoral del Poder Judicial de la Federación (tepjf). Finalmente, las encuestas postelectorales son un ejercicio que se realiza después de la elección y que recoge la información de ciudadanos para dar estimaciones y perfiles de los votantes consumados, y de los no votantes, de acuerdo con su opinión o inclinación hacia los distintos partidos. Todos estos ejercicios, basados en muestras probabilísticas, se realizan en diversos niveles: municipal, distrital, estatal y nacional. Algunos son difundidos en los medios de comunicación y otros son empleados para monitoreo interno de los partidos o grupos de interés.
Existen otros dos ejercicios que no están basados en muestras, sino que se enfocan al registro de los resultados por casilla para el total de las casillas, son el Programa de resultados electorales preliminares (prep) y los cómputos distritales. El prep registra, de forma electrónica y secuencial, los resultados de cada casilla electoral tomando el dato que aparece en la hoja de escrutinio y cómputo destinada específicamente al programa, y entregada por el funcionario de casilla en la oficina de cómputo del distrito que le corresponde. Inicia el registro de la información el día de la elección al cierre de las casillas y ofrece resultados desde las 20 horas del tiempo del centro del país. Sin embargo, el resultado oficial se basa en los cómputos distritales de todas las actas de casilla realizados el 5 de julio en cada uno de los 300 distritos electorales. Finalmente, las cifras reportadas por estos cómputos sufren cambios o ajustes derivados de las impugnaciones, correcciones o cancelaciones aprobadas por el tepjf. Así, puede decirse que el resultado de los cómputos distritales de actas, iniciados el 5 de julio y reportados el día 6, también aproximan el resultado final oficial emitido por el tepjf. La fuente de información en este cómputo oficial es el acta de escrutinio y cómputo de cada casilla electoral. Los ejercicios de conteo rápido para estimar, la noche de la elección, los porcentajes de votos en favor de cada partido contendiente, y por lo tanto del candidato ganador, son realizados con cierta regularidad, en los niveles nacional, estatal, distrital y municipal, por instituciones gubernamentales, no gubernamentales, empresas privadas y medios de comunicación.
Para las elecciones presidenciales de 2006 se efectuaron varios conteos rápidos, algunos públicos y otros no, con una diversidad de estrategias en cuanto al diseño muestral y al tamaño de muestra. Este tipo de ejercicios inició en 1994 para las elecciones presidenciales con la intención de ofrecer resultados casi inmediatos a la sociedad. En ese año, fueron comisionadas por las autoridades federales tres empresas independientes para realizar tres conteos rápidos, y los resultados no se presentaron al público. En las elecciones federales de 2000, nuevamente fueron comisionadas tres empresas independientes; pero esa vez se les encomendó recolectar la información en las casillas electorales correspondientes a tres muestras independientes y un comité técnico se encargó de procesar la información y obtener los valores estimados de los porcentajes de votación en favor de cada partido o coalición; en aquella ocasión, los resultados fueron difundidos por el ife la misma noche de la elección. En 2006, por primera vez el ife realiza un conteo rápido de forma independiente y autónoma; todo el proceso lo realizó personal interno bajo la coordinación de un Comité técnico asesor para los conteos rápidos (ctacr), el cual se encargó de diseñar la muestra y de procesar la información recabada la noche de la elección. A pesar de que se obtuvieron estimaciones puntuales de los porcentajes, dos de los intervalos de confiabilidad asociados no se separaron por más de 0.006, margen acordado para poder proporcionar los resultados la misma noche. Por esta razón no se difundieron las cifras estimadas, sino solamente el aviso de que estadísticamente no era posible distinguir con un alto grado de confiabilidad a un candidato ganador. Las estimaciones se hicieron públicas el día 3 de julio en conferencia de prensa. |
||
donde ˆPA es la estimación de PA; PA es la proporción de votos en favor de un partido o coalición A; δ es la cota del error y α es un valor entre 0 y 1 que determina el nivel de confianza o el grado de incertidumbre de la estimación. El error depende directamente de la variabilidad de la característica de interés que pretende medirse en las unidades poblacionales, e inversamente del tamaño de la muestra.
Para determinar el diseño y la estimación de la cota al error, se hizo uso de los resultados por casilla registrados en el prep de las elecciones presidenciales del año 2000 —estos valores estimados aparecen en el cuadro 4. En la figura 1 se presentan gráficamente la información del prep 2000 y el desarrollo de las estimaciones clásicas del conteo rápido del mismo año. Por su parte, las principales características del conteo rápido de 2006 son las siguientes: un marco muestral de 130 500 casillas contenidas en 300 distritos electorales y listadas en el padrón electoral; el diseño muestral es un muestreo estratificado simple de casillas; el tamaño y la distribución de muestra fue de 7 636 casillas en 481 estratos; el criterio de estratificación fue distrito y tipo de sección —urbana, no urbana—; la información en el campo fue recopilada por capacitadores asistentes electorales del ife; la unidad de observación fue la hoja de operaciones de cómputo de la casilla; la transmisión telefónica se efectuó hacia un centro de acopio distrital y luego, en forma electrónica, hacia una central de cómputo, donde se realizó el procesamiento, el análisis y la producción de las estimaciones. Fue un proceso largo, complejo y un trabajo de equipo coordinado. La información inicial viaja y se procesa para llegar hasta la conformación de una estimación final; en forma esquemática puede verse como sigue: voto → urna → conteo de votos → hoja de operaciones de cómputo → oficina distrital vía telefónica → oficina central vía electrónica → computadoras personales → procesamiento de la información y generación de estimadores → análisis de consistencia y cotejo de resultados para alcanzar una conclusión → comunicación de resultados.
El conteo rápido, por ser de carácter institucional y cuyos resultados serían la base de un comunicado difundido a la ciudadanía la misma noche de la elección, estuvo sujeto a acuerdos previos y a restricciones como guardar la confidencialidad de la muestra; realizar estimaciones por intervalos de cuando menos una confiabilidad de 95%; que para identificar un partido o coalición ganadora, los intervalos asociados a los porcentajes estimados de votos para los partidos mayoritarios deberán distar en al menos 0.6% (0.006); el ejercicio se realizaría entre las 18 y las 22:30 o 24 horas; y respetar el formato de comunicación de resultados aprobado por los consejeros electorales y los representantes de los partidos. Los resultados numéricos
Las estimaciones presentadas se obtuvieron con tres métodos: el clásico, el bayesiano y el robusto. El cálculo se realizó con base en la información recibida en la remesa de las 22:15 horas, donde se tenía resultados de 7 263 casillas distribuidas en 480 estratos y en los 32 estados —estos datos se presentan en el cuadro 1, que además muestra los resultados procesados a partir de la base de datos de los cómputos distritales, que esta disponible en forma electrónica en el portal del ife. |
||
En las figuras 2 y 3 se ofrecen las gráficas que ilustran la evolución de las estimaciones para llegar hasta las estimaciones presentados en el cuadro 1. En la figura 4 se presenta la evolución del registro secuencial de resultados en el prep. Queremos comentar que los valores observados en las gráficas 2 y 3 correspondientes a horas tempranas, no pueden considerarse como estimaciones específicas, básicamente por insuficiencia de la muestra. Sin embargo, el historial de las estimaciones para llegar al resultado reportado sirve de guía para tomar decisiones sobre la suficiencia de la muestra y la estabilidad en las estimaciones.
|
||
La riqueza del conteo rápido 2006
El diseño muestral del conteo rápido, incluyendo el tamaño de la muestra, permitió generar estimaciones estadísticamente confiables para subpoblaciones de interés. Por ejemplo, para la subpoblación contenida en los 28 distritos con alta presencia indígena, y para cada una de las cinco circunscripciones. La primera circunscripción corresponde a Baja California, Baja California Sur, Chihuahua, Durango, Jalisco, Nayarit, Sinaloa y Sonora; la segunda, Aguascalientes, Coahuila, Guanajuato, Nuevo León, Querétaro, San Luis Potosí, Tamaulipas y Zacatecas; la tercera, Campeche, Chiapas, Oaxaca, Quintana Roo, Tabasco, Veracruz y Yucatán; la cuarta, el Distrito Federal, Guerrero, Morelos, Puebla y Tlaxcala; y la quinta, Colima, Hidalgo, Estado México y Michoacán. El diseño muestral usado fue un diseño autoponderado, con ajustes ligeros para evitar estratos muy pequeños, lo cual hace que la información sea robusta cuando se emplean distintas técnicas de estimación, además, el tamaño y la distribución de la muestra fue lo suficientemente grande para poder obtener estimaciones en niveles más desagregados de la población. En los cuadros 2 y 3 se presenta información desagregada con estimaciones generadas bajo el método clásico.
En el cuadro 2 puede observarse las estimaciones generadas en el nivel de circunscripción, junto con los valores de los cómputos distritales del 5 de julio —esto se muestra gráficamente en la figura 5, mientras que en el cuadro 3 se presentan las estimaciones puntuales y por intervalo para la subpoblación conformada por los 28 distritos electorales con alta presencia de población indígena, y para su complemento contenido en los 272 distritos restantes.
Finalmente, aunque quizá sólo de interés metodológico, en el cuadro 4 presentamos los errores esperados aproximados, éstos son valores estimados en base con los resultados por casilla reportados en el prep de 2000, y son aproximados porque existió una redistritación entre 2000 y 2006, por lo que el marco muestral o padrón electoral de 2000 difiere del correspondiente a 2006. Estos errores los contrastamos con los errores estimados observados el día de la elección, basados en la muestra del conteo rápido de 2006. Por último, una vez pasada la elección, y haciendo uso de los resultados por casillas de los cómputos distritales, se evalúa el error esperado, considerando el diseño muestral usado en el conteo rápido de 2006.
Comentarios En general, la realización del conteo rápido resultó exitoso y generó estimaciones muy cercanas a las reportadas con base en los registros del conteo distrital de actas, como puede constatarse al comparar los valores estimados con los valores reportados.
Es de esperarse que además del error de estimación del conteo rápido, que se acota desde el diseño bajo una medida de probabilidad y no de certeza, existen discrepancias respecto al resultado final oficial emitido por el tefpj, pues en esta instancia ocurren modificaciones al resultado emitido por los conteos distritales, las cuales son producto, como ya se señaló, de las modificaciones derivadas de impugnaciones, anulaciones o correcciones en los resultados de las actas.
Por otro lado, es un ejercicio estadístico que enriquece las formas de registro y de estimación para elecciones futuras, dejando constancia de un procedimiento con resultados obtenidos tanto de forma global como desagregada y que, junto con los registros electrónicos del prep y de los conteos distritales, son de gran utilidad, no sólo para la academia, sino también para la ciudadanía interesada en ello, y desde luego para las instituciones encargadas de conducir las elecciones en cualquier nivel en el país.
|
||
Guillermina Eslava
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
|
||
Agradecimientos
Todo este trabajo es parte, como ya lo indiqué, del proceso preparado y generado por el ctacr, su coordinador y personal del ife, a quienes expreso mi gratitud por la colaboración de equipo para la obtención de resultados. El Comité técnico asesor para los conteos rápidos estuvo conformado como sigue: Act. M. Cervera Flores (ip), Dra. G. Eslava Gómez (fc), Dr. R. Hernández Cid (itam), Dr. I. Méndez Ramírez (iimas), Dr. M. Mendoza Ramírez (itam); y fue coordinado por el Dr. A. Alonso y Coria (ife). Agradezco también al Dr. R. Mena Chávez (iimas), quien elaboró el programa de cómputo usado la noche de la elección para la generación de una de las tres estimaciones clásicas. Las gráficas presentadas en este trabajo fueron elaboradas por Gonzalo Pérez de la Cruz, pasante de actuaría de la Facultad de Ciencias, a quien agradezco su atenta colaboración. Finalmente agradezco al Dr. Ramón Peralta y Fabi, director de esta Facultad, por el apoyo durante el semestre que participe en el ctacr y la invitación para escribir este trabajo.
|
||
Guillermina Eslava Gómez es Actuaria y Maestra en estadísticas por la unam, y Doctora en estadística por la Universidad de Oxford, Inglaterra. Actualmente es Profesora de Tiempo Completo de la Facultad de Ciencias, unam.
_______________________________________________________________
como citar este artículo → Eslava, Guillermina. (2006). Las elecciones de 2006, un análisis del conteo rápido. Ciencias 84, octubre-diciembre, 30-37. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |
Un número y una sucesión que han hecho historia |
En este artículo se presentan algunas de las múltiples relaciones que tiene la sucesión de Fibonacci con diversos fenómenos. Entre ellas, se describe el vínculo que tiene esta sucesión con la razón aúrea.
|
|
Radmila Bulajich
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
Estrechamente vinculada con el arte, las ciencias y las matemáticas, la sucesión de Fibonacci ha intrigado a los matemáticos durante siglos; en parte, por su tendencia a presentarse en los lugares más imprevistos. A principios del siglo XIII, Leonardo de Pisa, mejor conocido como Leonardo Fibonacci, planteó en su libro Liber Abaci un problema que se hizo famoso por las diversas relaciones que se han encontrado, no sólo con las matemáticas, sino con múltiples fenómenos. El problema es el siguiente: un hombre pone en una jaula una pareja de conejos bebés. ¿Cuántas parejas pueden reproducirse en un año si suponemos que cada mes, cada pareja engendra una nueva pareja, la cual después del segundo mes se vuelve reproductiva?
La solución al problema es relativamente sencilla. Después del primer mes, la primera pareja crece, entonces tendremos una pareja madura. Después del segundo mes, ésta engendra una nueva pareja, por lo que tendremos dos parejas. Después del tercer mes, la primera pareja engendra otra y la pareja de conejos bebés madura, tenemos 3 parejas. Después del cuarto mes, cada una de las parejas maduras engendra otra y la pareja bebé madura, es decir, habrá 5 parejas. Si continuamos este proceso, después del quinto mes tendremos 8 parejas, después del sexto 13 parejas, etcétera. Esto puede verse claramente en la figura 1, donde las parejas maduras están representadas por los conejos grandes y las inmaduras por los pequeños.
Observemos que si contamos el número de parejas de conejos adultos, el de conejos bebés, así como el número total de parejas de conejos cada mes, todos van aumentando de la misma forma: 1, 1, 2, 3, 5, 8, 13,…
En la segunda mitad del siglo xix, la sucesión 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233,…, en la cual cada término es igual a la suma de los dos anteriores —empezando con el tercer elemento— fue denominada por el matemático francés Edouard Lucas, la sucesión de Fibonacci y representa la primera sucesión recursiva —llamada así porque los términos sucesivos se encuentran a partir de relaciones con los términos anteriores— que se conoció en Europa. Es decir, si denotamos por Fn al n-ésimo término de la sucesión tenemos que:
|
||
Para que quede únicamente determinada es preciso proporcionar los dos números iniciales. Es decir, para tener la sucesión de Fibonacci, tenemos que definir que: | ||
|
||
Ralph Waldo Emerson, en su libro The Natural History of Intellect, menciona que “la sucesión de Fibonacci se encuentra en una gran variedad de fenómenos no relacionados entre sí”, razón por la cual se volvió tan famosa. Un ejemplo es la óptica de los rayos de luz, un fenómeno que nada tiene que ver con los conejos. Supongamos que tenemos dos placas de vidrio con distintos índices de refracción, pegados cara con cara como se muestra en la figura 2. | ||
|
||
Si lanzamos un rayo de luz, en principio se refleja internamente en cuatro superficies reflejantes antes de emerger. Más específicamente, puede pasar sin reflejarse en absoluto o pueden tener una, dos o tres reflexiones internas, antes de emerger. Potencialmente, puede presentar un número infinito de reflexiones antes de emerger —todas son trayectorias permitidas por las leyes de la óptica. Ahora bien, contemos las formas en que se pueden reflejar los rayos, para un número dado de reflexiones del rayo de luz, antes de emerger. Es 1 si no hay reflexión, 2 si permitimos una reflexión, 3 si son dos reflexiones, 5 si hay tres reflexiones, 8 trayectorias si permitimos cuatro reflexiones, etcétera. El número de trayectorias es 1, 2, 3, 5, 8, 13,… y forma una sucesión de Fibonacci (figura 3). | ||
Consideremos ahora un problema totalmente distinto. Un niño quiere subir una escalera. El número máximo de escalones que puede subir al mismo tiempo es dos; es decir, puede subir uno o dos escalones a la vez. Si tenemos n escalones en total, ¿de cuántas formas distintas (Cn) puede subir los escalones?
Si hay únicamente un escalón, claramente sólo hay una forma. Si hay dos escalones, los puede subir de dos formas: un escalón a la vez o los dos juntos. Si hay tres escalones, entonces el número de formas en que puede subirlos es tres:
|
||
|
||
Si hay cuatro escalones, el número de formas aumenta a C4 = 5 y son:
|
||
si hay cinco escalones, el número de formas aumenta a C5=8 y son:
|
||
Encontramos que el número de posibilidades crece como:
|
||
|
||
Un problema similar es el siguiente: se tiene un edificio con 30 pisos y se quiere pintar cada piso de azul o de blanco, con la condición de que no haya dos pisos juntos pintados de azul. Hay que encontrar todas las formas posibles de pintar todos los pisos del edificio. La solución es análoga al problema anterior.
Finalmente, examinemos el árbol genealógico de un zángano —el macho de las abejas. Los huevos de las abejas obreras que no se fertilizan se convierten en zánganos; es decir, los zánganos no tienen padre, únicamente madre. Los huevos de las abejas reinas son fertilizados por los zánganos y se convierten en abejas hembras —sea obreras o reinas. Por lo tanto, los zánganos tienen un pariente —la madre— y dos abuelos —los parientes de la madre—, tres bisabuelos —los padres de la abuela y la madre del abuelo—, cinco tatarabuelos —dos por cada bisabuela y uno por el bisabuelo— y así sucesivamente. El número de parientes en el árbol genealógico de un zángano varía como una sucesión de Fibonacci 1, 1, 2, 3, 5, 8,…, como se muestra en la figura 4.
|
||
|
||
La Razón aúrea
El número aúreo, también conocido como razón aúrea, divina proporción o número de oro, fue descubierto en la Antigüedad como relación o proporción entre partes de un cuerpo o entre cuerpos. Aparece en Los Elementos de Euclides en varios lugares. La primera definición de esta razón se encuentra, en relación con la proporción de áreas de polígonos, en el Libro II; la segunda definición, en relación a la proporción de segmentos, está en el Libro VI. Especialmente, Euclides usa la razón aúrea en la construcción del pentagrama en el Libro IV, y la del icosaedro y el dodecaedro en el Libro XIII.
Veamos una construcción simple para entender la definición que proporciona Euclides de la razón aúrea.
En la siguiente figura, la recta AB se divide por un punto C, de tal forma que
|
||
|
||
Si suponemos que el segmento original mide x + 1 y AC = x, podemos traducir la ecuación anterior como: | ||
|
||
Resolviendo la ecuación, tenemos que
|
||
|
||
El primer número se conoce como la razón aúrea y es
|
||
|
||
que denotaremos como ϕ. Observemos que el inverso de este número es:
|
||
|
||
y el cuadrado es:
|
||
Es decir, el inverso se obtiene restándole 1 y el cuadrado sumándole 1. Tenemos además que ϕ es un número irracional.
¿Cómo esta división de la línea está relacionada con el pentágono? Recordemos que en cualquier polígono regular la suma de los ángulos interiores está dada por 180º(n–2), donde n es el número de lados. Por tanto, cada ángulo de un polígono mide 540/5=108º. Supongamos que dibujamos dos diagonales adyacentes en un pentágono, formando tres triángulos isósceles (figura 5).
|
||
|
||
Los ángulos iguales en la base del triángulo interior miden 72º. Si bisecamos uno de estos ángulos obtenemos un triángulo menor BCD.
Los triángulos ABC y BCD son semejantes, luego:
|
||
|
||
pero DB=BC=AD, luego:
|
||
|
||
además AB=AC, entonces:
|
||
|
||
Esto es, D divide el segmento AC en la razón aúrea; también tenemos, que:
|
||
|
||
es decir, en el pentágono regular la razón entre una diagonal y un lado es ϕ.
Si ahora dibujamos todas las diagonales del pentágono obtenemos un pentagrama (figura 6).
|
||
|
||
Observemos que se forma nuevamente un pentágono regular más chico, donde podemos nuevamente formar un pentagrama y así sucesivamente hasta el infinito. Ahora, también formamos un pentagrama si extendemos los lados del pentágono original y unimos las cinco puntas, es decir, se forma nuevamente un pentágono regular y así podemos continuar hasta el infinito.
Utilizando la semejanza de triángulos podemos observar que la razón entre los lados marcados en la figura también es la razón aúrea, esto es:
|
||
|
||
Veamos ahora, algunas propiedades algebraicas de la razón aúrea. Supongamos que queremos determinar el valor de: | ||
|
||
entonces, elevando al cuadrado la ecuación tenemos que:
|
||
|
||
es decir, x2 =1+x, que es precisamente la razón aúrea. Observemos también que podemos definir la razón aúrea mediante una fracción continua, es decir: | ||
|
||
esto lo podemos escribir como:
|
||
|
||
que nuevamente nos define la razón aúrea.
¿Qué relación hay entre esto y la sucesión de Fibonacci? Como vimos, la sucesión de Fibonacci está formada por los números: 1, 1, 2, 3, 5, 8, 13, 21,34, 55, 89, 144,…, consideremos la razón de los números sucesivos, calculados hasta el sexto decimal:
|
||
|
||
vemos que convergen a la razón aúrea, es decir:
|
||
|
||
se aproxima a ϕ cuando n se hace suficientemente grande. Esta propiedad fue descubierta en 1611 por el famoso astrónomo alemán Johannes Kepler, pero pasaron más de cien años antes de que la relación entre los números de Fibonacci y la razón aúrea fuera demostrada por el matemático escocés Robert Simson.
Por otra parte, hay un gran número de hechos curiosos que pueden deducirse a partir de distintas relaciones con los números de Fibonacci. Veamos algunas de ellas.
Cuadrando rectángulos. Si sumamos un número impar de productos de números sucesivos de Fibonacci, como por ejemplo:
|
||
|
||
obtenemos el cuadrado del último número de Fibonacci que se utilizó:
|
||
|
||
Esta propiedad puede representarse geométricamente de manera muy bonita. Consideremos rectángulos cuyos lados miden dos números de Fibonacci consecutivos, es decir, un cuadrado de 1×1, un rectángulo de 1×2, uno de 3×5 y así sucesivamente. Los acomodamos como se muestra en la figura 7 y vemos que se forma un cuadrado de lado 21.
Divisibilidad entre 11. Si sumamos los primeros diez números de Fibonacci obtenemos un número divisible entre 11, es decir: |
||
|
||
Lo mismo es cierto al considerar cualesquiera diez números consecutivos de dicha sucesión. Además, la suma de diez números consecutivos de Fibonacci es siempre igual a once veces el séptimo número que aparece en la suma de los diez números consecutivos, por ejemplo: | ||
|
||
Periodicidad en los números de Fibonacci. Los números de Fibonacci se hacen muy grandes rápidamente, ya que siempre añadimos dos para formar el tercero. Por ejemplo, el quinto número de Fibonacci es 5 mientras el número 125 es 59 425 114 757 512 643 212 875 125. Pero, ¿cómo podemos calcular los números de Fibonacci sin conocer los anteriores? En el siglo xix, el matemático francés Jacques Phillipe Marie Binet redescubrió una fórmula, que aparentemente ya sabían desde el siglo anterior Leonard Euler y Abraham de Moivre, la cual permite conocer cualquier número de Fibonacci (Fn) si sabemos su lugar en la secuencia, y sin haber calculado todos los anteriores. Esta fórmula esta relacionada con la razón aúrea: | ||
|
||
A primera vista, es desconcertante; ya que ni siquiera es obvio que si sustituimos varios valores de n nos dará un entero. Como ya sabemos que los números de Fibonacci están íntimamente relacionados con la razón de oro, tal vez sea menos sorpresiva, pues el primer término simplemente es la razón aúrea elevada a la potencia n, es decir, ϕn y el segundo es (1/ϕ)n. Para valores grandes de n, el segundo término tiende a cero y entonces el n-ésimo número de Fibonacci se acerca mucho: | ||
|
||
Por ejemplo, el décimo número de Fibonacci se aproxima a:
|
||
|
||
y precisamente es 55.
|
||
Veamos ahora las propiedades de periodicidad. El segundo número de Fibonacci es 1 y el número 62 es 4 052 739 537 881, que termina en 1; el número que está en el lugar 122 es 14 028 366 653 498 915 298 923 761, que también termina en 1. De hecho, puede verse que la terminación en 1 se presenta cada 60 números de Fibonacci. Similarmente, el número que está en el lugar 14 es 377 y el número que ocupa el lugar 74 es 1 304 969 544 928 657, que también termina en 7, y así sucesivamente. Esta propiedad fue descubierta por el matemático francés J. Louis Lagrange en 1774.
Los últimos dos dígitos, si pensamos en la sucesión como 01, 01, 02, 03, 05, 08, 13, 21,…, se repiten en la secuencia cada 300 números, es decir, con periodicidad 300 y los últimos tres dígitos con periodicidad de 1 500. En 1963, Stephen P. Geller usó una computadora para mostrar que los últimos cuatro dígitos se repiten con una periodicidad de 15 000, los últimos cinco con periodicidad de 150 000 y los últimos seis con una periodicidad de 1 500 000. No continuó porque su computadora no pudo calcular más números. Geller comentó en dicha ocasión que “no parece haber ninguna manera de adivinar el próximo periodo, pero tal vez haciendo un nuevo programa para la máquina que permita iniciar la secuencia en cualquier punto, recortará el tiempo necesario de trabajo y se puedan calcular más números”. Poco tiempo después, el matemático israelí Dov Jarden probó rigurosamente que para cualquier número de Fibonacci de tres o más dígitos la periodicidad está relacionada con el número de dígitos que queremos que sean iguales, es decir, la periodicidad será 15×10n–1, donde n es el número de dígitos que queremos que se repitan —por ejemplo, para tener periodicidad de siete dígitos, tenemos que ésta será cada 15×106 números.
Los números de Fibonacci y las ternas Pitagóricas. Las ternas Pitagóricas son tripletas de números que forman los catetos de un triángulo rectángulo y su hipotenusa; es decir, los números a, b y c forman una terna Pitagórica si:
|
||
|
||
Por ejemplo, una terna está formada por los números 3, 4, 5, ya que 32+42=52. Veamos cómo están relacionadas estas ternas con los números de Fibonacci. Si tomamos cuatro números de Fibonacci consecutivos cualesquiera, el producto de los dos números en los extremos, dos veces el producto de los números centrales y la suma de los cuadrados de los números centrales, nos dan los tres lados de un triángulo de Pitágoras. Esta propiedad fue descubierta por el matemático Charles Raine. Por ejemplo, si tomamos los números 1, 2, 3, 5, entonces 1×5=5, 2×2×3=12 y la suma de los cuadrados 22+32=13, nos da la tripleta Pitagórica 5, 12, 13 (52+122=132). Pero esto no es todo, en este caso se observa además que 13 es un número de Fibonacci.
La fórmula de Jean Dominique Cassini. En 1680, el astrónomo Jean Dominique Cassini, jugando con los números de Fibonacci, descubre una identidad interesante que ha sido la base de una de las paradojas geométricas favoritas de Lewis Carroll. Si consideramos la matriz:
|
||
|
||
multiplicando a A por sí misma, tenemos:
|
||
|
||
repitiendo la operación, tenemos:
|
||
|
||
en general, tenemos que:
|
||
donde Fi son los números de Fibonacci. Considerando que el determinante de una matriz de 2×2 se define como: | ||
|
||
tomamos ahora el determinante de An+1; tenemos que:
|
||
|
||
Ahora bien, como los determinantes tienen la propiedad de que det(A·B)=detA·detB, tenemos que: | ||
|
||
que es la conocida fórmula de Cassini.
|
||
Veamos ahora la paradoja geométrica relacionada con esta fórmula. Consideremos un cuadrado de lado 8 y dividámoslo en cuadrados de lado uno, como se muestra en la figura 8.
|
||
|
||
Recortemos el cuadrado original por las líneas marcadas y reacomodamos los pedazos para formar un rectángulo de lados F7=13 y F5=5, como se muestra en la figura 9. | ||
|
||
El cuadrado tiene un área de 8×8=64 unidades, mientras que el rectángulo tiene un área de 5×13=65 unidades, es decir, F7F5–F26=–1. De hecho, la fórmula de Cassini nos dice que ganamos o perdemos un cuadradito dependiendo de si n es par o impar. La pregunta sería, ¿dónde está el cuadradito que tiene de más el rectángulo?
La realidad es que los bordes de los trozos 1, 2, 3 y 4 no coinciden a lo largo de la diagonal pq, sino que forman el paralelogramo psqr que se muestra, de una forma exagerada, en la figura 10. En realidad, este paralelogramo tiene área 1.
|
||
|
||
El ángulo spr es tan pequeño que nunca se llega a percibir el paralelogramo, a menos que se recorten y se coloquen los trozos con mucho cuidado. En realidad, es muy fácil ver, utilizando trigonometría, que el ángulo spr es verdaderamente pequeño.
Los números de Fibonacci, la razón aúrea y los fractales. A lo largo de la historia, una de las pasiones comunes de los artistas y los matemáticos ha sido el problema de cómo cubrir el plano con polígonos regulares o cómo llenar el espacio con poliedros regulares.
Los cuadrados, los triángulos equiláteros y los hexágonos se pueden juntar de manera muy sencilla para cubrir el plano, es decir, teselar el plano. Si uno quiere obtener un patrón que se repita en intervalos regulares —esto se conoce como teselación periódica—, utilizando los polígonos mencionados es muy sencillo, como se muestra en los polígonos de la figura 11.
|
||
|
||
Como se observa en las figuras, si rotamos un cuadrado 90º, éste permanece igual, es decir, si lo rotamos cuatro veces cubrimos un área del plano sin dejar huecos. Análogamente, los triángulos equiláteros tienen simetría si los rotamos una tercera parte de un círculo, es decir, 120º, y si fijamos uno de los vértices del triángulo y lo rotamos seis veces cubrimos una región del plano. De la misma forma, esto sucede para los hexágonos.
Teselaciones periódicas pueden generarse con figuras más complicadas; sin embargo, los pentágonos no pueden utilizarse para cubrir el plano. Como se expuso en la construcción de pentágonos y pentagramas, los ángulos del pentágono miden 108º. Si hacemos que coincidan tres vértices de tres pentágonos, la suma de sus ángulos es 324º; es decir, quedará un hueco y nunca podrá cubrirse una región del plano. R. Penrose y J. H. Conway demostraron que el plano se puede cubrir con algunas figuras de forma no periódica. Los trabajos de teselación de Penrose se generalizaron a tres dimensiones. Así como puede cubrirse el plano con polígonos, podemos llenar el espacio con bloques. Robert Ammann descubrió algunas figuras geométricas para llenar el espacio y, proporcionando algunas reglas de cómo pegar las caras, logró construir patrones no periódicos en el espacio. Las teselaciones de Penrose y de Ammann habrían permanecido en el área de matemáticas recreativas si no es por un descubrimiento realizado en 1984. En ese año, unos científicos israelíes encontraron que hay algunos cristales de manganeso de aluminio que tienen configuraciones no periódicas. En realidad, esto fue una gran sorpresa para los físicos y los cristalógrafos que por décadas estuvieron convencidos de que los cristales o son periódicos o altamente desordenados, es decir, completamente amorfos. Por ejemplo, un átomo de sal tiene una forma cúbica perfecta, la cual forma estructuras periódicas, mientras que en el vidrio los átomos están completamente desordenados. Antes de este descubrimiento, muy pocos sospechaban que existía otro estado de la materia que comparte aspectos importantes con los cristales o con las sustancias amorfas. A esta nueva clase de cristales se les conoce como cuasi cristales.
El modelo de Steinhardt-Jeong de cuasicristales tiene una propiedad interesante que produce efectos ordenados de largo alcance partiendo de las interacciones de los vecinos, sin que esto nos lleve a estructuras periódicas como los cristales. Sorprendentemente, podemos encontrar esta propiedad en los números de Fibonacci. Consideremos el siguiente algoritmo para generar la sucesión conocida como sucesión aúrea. Comenzamos con el número 1, y reemplazamos el 1 por el 10. De aquí en adelante, reemplazamos los 1 por 10 y el 0 por 1. Así, obtenemos: |
||
|
||
y así sucesivamente. Claramente, empezamos aquí con una regla de corto alcance —es decir, transformamos el 0 en 1 y el 1 en 10— y obtenemos una sucesión no periódica. Notemos que el número de unos y de ceros en cada paso forma una sucesión de Fibonacci. Conforme la sucesión se hace más larga, se puede observar que, la razón entre el número de unos y de ceros se aproxima además a la razón aúrea. Más aún, si en esta sucesión de unos y de ceros reemplazamos los ceros por una pareja de conejos bebés y los unos por una pareja de conejos adultos, entonces obtenemos la sucesión de conejos con la que iniciamos, finalizando así nuestro breve recorrido por uno de los problemas más fascinantes en la historia de las matemáticas. | ||
Radmila Bulajich,
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
|
||
Referencias bibliográficas
Vorobyov, N. N. 1973. Los números de Fibonacci. Ed. Limusa.
Lang, S. 1990. Introducción al Álgebra Lineal. Addison Wesley Iberoamericana.
Livio, M. 2002. The Golden Ratio. Broadway Books.
Collingwood, S.D. 1961. Diversions and Disgressions of Lewis Carroll. Dover.
|
||
Radmila Bulajich Manfrino cursó la licenciatura en Matemáticas en la Facultad de Ciencias de la unam. Posteriormente, realizó estudios de posgrado en Inglaterra y en México. Desde 1978 es profesora de tiempo completo en la Facultad de Ciencias, unam. Es miembro del Sistema Nacional de Investigadores.
_______________________________________________________________
como citar este artículo → Bulajich, Radmila. (2006). Una sucesión y un número que han hecho historia. Ciencias 84, octubre-diciembre, 52-62. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |