revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
1 12
     
Biogeografía y darwinismo social
En este texto, el Dr. Bowler trata de responder la pregunta ¿hasta qué punto la ciencia se ve influenciada por los valores culturales, políticos e ideológicos del entorno en el que surge? Para ello, explora las formas en que las primeras generaciones de biogeógrafos han tratado de explicar, por medio de metáforas, el origen y la evolución de la vida.
Peter Bowler
conoce más del autor
 
     
HTML ↓  PDF Regresar al índiceartículo siguiente
     
     
 
El tema de biogeografía y darwinismo social es, en mi opi­nión, una reflexión sobre un asunto de sumo interés para la historia de la ciencia, ya que tiene que ver con una pre­gunta: ¿hasta qué grado la ciencia interactúa con su en­torno, en este caso, con los valores culturales, políticos e ideoló­gi­cos? Mi actual trabajo sobre la ciencia popular está cen­trado en la pregunta de qué tan informada está la gente común sobre la ciencia y hasta qué grado los mismos científicos tratan de controlar la forma en que se disemina la informa­ción científica hacia el resto de la sociedad. Sin em­bargo, mi interés aquí va en el sentido opuesto, esto es, explorar hasta qué grado la propia ciencia refleja los valores sociales y hasta dónde hay una interacción directa de la forma en la que los científicos buscan describir el mundo natural y la forma en que la sociedad dentro de la cual viven per­cibe algunas de sus activi­dades.

El tema del darwinismo social es uno de los tópicos más de­batidos en la historia de la ciencia. Cuando era estu­dian­te de historia de la ciencia en la Universidad de Cam­bridge, hace ya más años de los que quisiera mencionar, original­men­te me dedicaba a las ciencias físicas, pero como podrán ver, hice carrera en la historia de las ciencias biológicas. La razón fue que uno de los mejores maestros en Cam­bridge era un personaje llamado Robert Young, quien era mar­xista y estaba muy interesado en la interacción del dar­wi­nis­mo y el pensamiento social conocido como darwinismo so­cial. Por mucho, era el conferencista más brillante; me vol­ví his­toriador de la teoría de la evolución básicamente por su in­fluencia, y en ese sentido fue el darwinismo so­cial el que me condujo hasta donde ahora estoy.

Como marxista, Robert Young estuvo muy preocupado por un debate que persistió durante largo tiempo sobre los orígenes de la teoría de la selección natural de Darwin y la búsqueda por vincularla con los valores políticos del ca­pitalismo del siglo XIX.
 
El capitalismo, el sistema de la libre empresa, depende de las ideas del individualismo y de la sociedad como un agre­gado de individuos esencialmente en competencia, don­de cada persona trata de tener éxito a expensas, hasta cier­to grado, de otros miembros de la sociedad. En el nivel de los individuos, la sociedad es esencialmente competitiva y desde los tiempos de Marx y Engels se ha resaltado que la teoría de la selección natural de Darwin parece re­fle­jar una imagen muy similar en los reinos animal y vege­tal, con cada especie constituida por poblaciones de in­divi­duos que com­piten entre sí. El resultado de la competencia es que los más aptos sobreviven y se reproducen mientras que los me­nos adaptados son desplazados y mueren, de modo que el mundo natural se ha edificado sobre el sis­tema de competencia del capitalismo del siglo XIX. Así, no sor­prende que al cons­truir la imaginería y las metáforas del capitalismo dentro de la biología, Darwin proporcionó los medios con los cua­les se justificaron quienes pretendían defender y promover el capitalismo, diciendo: “bien, Darwin ha mostrado que es así como funciona el mundo natural; la lucha y la competencia son parte integral de la propia naturaleza; por tan­to, es natural que los asuntos hu­manos deban seguir el mismo patrón esencial; de ahí que el sistema capitalista sea natu­ral e inevitable, porque es así como opera la naturaleza”.

Por supuesto, para quienes criticaban esta postura, in­clui­do mi mentor Robert Young y, en el siglo anterior, Marx y Engels, tal razonamiento muestra la circularidad de todo este asunto; primero se importa la política hacia la ciencia y después se usa la ciencia para justificar la política. Es cla­ramente un argumento circular.

Para quienes usaron este enfoque con el fin de criticar el darwinismo, la implicación es que existe algo sospechoso en el darwinismo como ciencia; que es una mala ciencia porque importa las metáforas y los modelos del capitalismo. Éste es el argumento que han usado tradicionalmente aquellos que creen que el darwinismo representa una dirección errónea hacia la cual se ha dirigido la biología.
 
No hablaré aquí de esa clase de darwinismo, sino acerca de la relación entre darwinismo y biogeografía, y de una ge­neración posterior de darwinistas sociales que se basaron, no sólo en la competencia individual del sistema capi­ta­lis­ta, sino en la competencia nacional y racial, que fue la ideología del imperialismo de fines del siglo xix, cuando las naciones europeas conquistaban el mundo, sometiendo a los pueblos de distintas regiones a su control político, en al­gunos casos esclavizándolos y exterminándolos, utili­zan­do el lenguaje del imperialismo para proyectar la ima­gen de es­pecies animales y vegetales que se extendieron por todo el mundo y, en algunos casos, ya habían despla­zado y ex­terminado formas tempranas que existían en el territorio conquistado.

Es un caso de importación del lenguaje político y de me­táforas hacia la ciencia que se usa para justificar la ideo­lo­gía misma, pero ahora no se tata de competencia indivi­dual al interior de una población, sino de competencia en­tre poblaciones, entre naciones, entre razas y, en el mo­delo biológico, entre especies. El problema esencial es saber cómo funciona esa interacción y si debe considerarse mala ciencia la que emplea metáforas políticas o ideológicas para construir sus propios modelos. Se necesita pensar con mu­cho cuidado en esa idea de mala ciencia, de ciencia políti­ca­­men­te corrupta, políticamente contaminada, ya que de hecho, muchas teorías científicas obtienen modelos, metá­foras e inspiración de fuentes externas, como la política, la re­li­gión y el mundo del arte; existen muchas fuentes de ins­pira­ción, y si se desecha cada teoría científica que use al­gún ele­mento de inspiración externa en la forma en que repre­senta la na­turaleza y se le considera como mala cien­cia, me temo que entonces no quedará mucha buena ciencia, si es que queda­ra alguna. Así que tenemos que ser muy cuidadosos para sa­ber de dónde vienen las metáforas; esto es particular­men­te importante en la escena política, cuando se usan las metá­foras para justificar el sistema. No estoy su­giriendo que to­memos una actitud relajada frente a este asunto, sino que de­bemos estar muy atentos sobre la forma en que la ciencia puede reflejar los valores sociales y ser así usada para de­fen­der ideologías particulares. Pero la idea de que si esto ocu­rre es razón suficiente para considerarla mala ciencia resulta problemática, porque si las metáforas realmente fun­cionan cuando se les pone a prueba en la naturaleza, me temo que tendremos que vivir aceptando el hecho de que funcionan bien, de que entonces sirven para hacer buena ciencia, incluso si no nos hace felices conocer la fuente de la cual provienen.

La ciencia y la expansión imperial

Ahora, tratemos de ver la interacción de la ciencia y el im­perialismo en las postrimerías del siglo XIX. Iniciaré con una breve mención de la relación práctica de la ciencia con el imperialismo; en particular, la recopilación de información sobre la distribución de animales y plantas por todo el mun­do. Un buen ejemplo es Charles Darwin a bordo del Beagle. ¿Por qué un barco de la marina británica pasó cinco años car­tografiando la línea de costa de Sudamérica? En sentido estricto, este caso no es imperialismo, porque los británicos no colonizaron directamente Sudamérica. Sin embargo, Gran Bretaña tenía una gran cantidad de comercio con esta re­gión y el objetivo del Beagle fue asegurar que el comercio fluyera libremente, proporcionándoles a los barcos me­jo­res mapas de las aguas que rodeaban las costas suramericanas. De modo que el Darwin del Beagle es en esencia parte del pro­yecto imperial, de la forma en que Gran Bretaña se las arreglaba para extender su control y su influencia alrededor del mundo, incluso en áreas donde no tenía colonias. Hubo muchos otros viajes con el mismo tipo de propósitos prácticos de controlar y manipular el mundo para los fines de la conquista imperial. Todos hemos oído sobre el viaje del Bounty, del capitán Bligh y del amotinamiento. Lo que hacía el Bounty era transportar el fruto del árbol del pan desde Tahití hasta las Antillas para alimentar a los esclavos de las plantaciones de caña de azúcar. Esa vez, por supuesto, no llegó debido al motín; todos recordamos a Marlon Brando en la famosa película sobre ese episodio, pero lo que fre­cuentemente se olvida es que el capitán Bligh fue reivindicado a su regreso a Inglaterra, que volvió a transportar el fruto del árbol del pan a las Antillas y como el proyecto para alimentar a los esclavos no funcionó, el barco se dedicó a colectar plantas y animales para propósitos prácticos del imperio.

En el siglo XIX se fundaron varios jardines botánicos, el Kew Garden, en Londres, se convirtió en un centro de re­co­pilación de información sobre las plantas de todo el mun­do y particularmente del imperio, pero también en un cen­tro para analizar la adaptación de las plantas europeas a los paí­ses extranjeros, donde podían usarse como cultivos co­merciales, así como para llevar plantas de los nue­vos terri­torios al imperio. De igual manera, el Jardin des Plantes sir­vió como centro para la ciencia imperial francesa. Así, el caucho de Sudamérica se llevó al Sud­es­te de Asia, donde se convirtió en la base de toda una nue­va in­dus­tria, y como éste, hay muchos otros casos. La fun­da­ción de jardines botánicos en la India, Su­dáfrica y Australia ­sirvió para fines similares, permitiendo la aclimatación de plantas que interesaban a las metrópolis. La ob­tención de in­for­mación para crear el cuerpo de conocimientos sobre el cual funcionó la biogeografía del siglo XIX fue posible gracias a la expansión del imperio y al papel prác­tico de la ciencia, de modo que no es ningún acciden­te que la ciencia y el im­perio se hayan hermanado en ese siglo.

El asunto aquí es el uso que hicieron los científicos de la información obtenida mediante este proceso de expansión imperial, y el punto que quiero desarrollar es que el intento por explicar la distribución de animales y plantas por todo el mundo utilizó estas metáforas del imperialismo, de la conquista, la exterminación, la lucha y el conflicto. Esto representa una nueva forma de darwinismo social, ba­sada en la lucha entre los imperios y las naciones, em­pleada para modelar la lucha entre las especies cuando querían ocu­par más territorios en el mundo.

Las regiones biogeográficas

A mediados del siglo XIX los europeos habían obtenido la in­formación que requerían para dividir el mundo en provincias botánicas. El mapa que en esta página mostramos es producto de los intentos por dividir el mundo en regiones biogeográficas. Se caracteriza por la unión de Norte­amé­rica y Eurasia en una sola región holártica; Sudamérica es la re­gión Neotropical, el sur de África la Etiópica, la Oriental incluye la India y el Sureste de Asia, y la región Austra­liana en el extremo sur. Una división del mundo de acuerdo con sus habitantes animales y vegetales básicos. Se ha su­ge­rido que está hecha con base en la división del conti­nen­te euro­peo en naciones. Los límites que se dibujan en­tre re­giones son exactamente análogos a los que marcan la di­visión en­tre Francia, Alemania y España, por lo que he di­cho que es un modelo estático basado sobre límites políticos estáti­cos, aunque por supuesto, los límites pueden cambiar debido a que las naciones van a la guerra y se conquistan te­rri­torios unas a otras, lo cual lleva a intentar explicar las re­gio­nes en que está dividido el mundo, tal como podemos ver en este mapa, en términos de migración y evolución, de la expansión de poblaciones desde centros de origen has­ta nuevos territorios que las especies invadían y ocupaban. Janet Browne, quien escribió una importante biografía de Darwin, subrayó el uso del lenguaje de conquista y exter­mi­nación en el trabajo del autor de la teoría de la selección na­tural y de su colega botánico Joseph Dalton Hooker. Éste es el enfoque que quiero seguir y parte del cual lo he ex­pre­sado en mi libro Life’s Esplendid Drama.

Gran parte de este proyecto no despegó directamente del trabajo de Darwin, sino del de su colega Alfred Russel Wa­llace, mejor conocido como codescubridor de la selección natural; aunque personalmente no me tomo muy en serio esta historia. De cualquier forma, Wallace es un científico de primer nivel. En 1876 publicó un libro en dos vo­lúmenes, La Distribución Geográfica de los Animales, en el cual trató de explicar ese patrón de distribución en términos del origen de las especies y su dispersión hacia nuevas re­giones del mundo, y el lenguaje que empleó fue el mismo que el usado por Darwin y Hooker, aludiendo explícita­men­te a términos de migración y conquista. Lo que ­quiero re­saltar aquí es que puede usarse un lenguaje diferente al del imperialismo, uno menos cargado políticamente, para des­­cribir el proceso mediante el cual una especie se origina en un lugar y después se expande para ocupar un territorio en otro. Se puede hablar de migración o emigración, que no necesariamente implican conquista y exterminio. Ni siquie­ra es ineludible pensar que las especies tienen algún tipo de imperativo para extenderse hacia nuevos territorios. Al­gunos biólogos pensaban que las especies estaban comple­tamente a gusto en el lugar donde fueron creadas o donde evolucionaron y que no se moverían de allí a menos que fue­ran forzadas por presiones ambientales. Pero la gran ma­yoría de los biogeógrafos de finales del siglo xix suponía que las especies tenían una tendencia natural a expandir el territorio que ocupaban. Una noción derivada del princi­pio malthusiano de expansión de la población, la cual siem­pre tiende a extender cada vez más su suministro disponible de comida, y ello implica que las poblaciones tratarán de procurarse nuevos territorios, provocando lo que De Can­dolle llamó “la guerra de la naturaleza”, una lucha compe­titiva entre las especies en la cual una buscará adentrarse en el territorio de sus vecinos, y si puede, ocuparlo con éxi­to, conduciendo a sus habitantes originarios a la extinción.

Aquí cito al propio Wallace: “Los animales se multiplican tan rápidamente que podemos considerar que continuamen­te tratan de extender su área de distribución y, de esta for­ma, cualquier nueva porción de tierra que haya emergido del océano, inmediatamente se ve poblada por una multi­tud de habitantes que compiten entre sí, siendo los mejor adaptados los que tendrán éxito para retener sus posesiones”. Un lenguaje similar se encuentra en un atlas de zoo­geo­grafía publicado por la Royal Geographical Society en 1911, en donde se cita: “En la permanente lucha por la su­premacía, la tendencia natural de cualquier especie que sea exitosa es extenderse sobre un área cada vez más amplia, lu­chando para expandir su territorio”. Este proceso de expan­sión es descrito en un lenguaje imperialista de invasión y conquista, incluso tal vez de colonización y exterminación. En biogeografía hubo quienes se resistieron y trataron de en­contrar otras formas de explicación, pero en general fue­ron una minoría.

La migración norteña

A principios del siglo xx este modelo se hizo muy común. En 1914, el paleontólogo canadiense-americano William Di­ller Matthew afirmaba que ocurrieron grandes invasiones de los animales norteños hacia Sudamérica cuando el Istmo de Panamá se elevó, lo que permitió que tales animales, usando sus propias palabras, barrieran con todos los grupos nativos, en un flujo de colonización y exterminio que provenía del norte, un proceso de oleadas sucesivas.

En otro libro llamado La Invención del Progreso he descri­to los paralelismos entre las metáforas del surgimiento de los grupos animales en evolución, el de los dinosaurios, y el del Imperio Romano y de otros grandes imperios de la historia humana. Se trata de una suposición de que cada gru­po exitoso, sea de animales o de naciones imperialistas, después de expandirse y conquistar nuevos territorios, de­cae y retrocede gradualmente conforme el siguiente poder imperial lo empuja y lo desplaza, de modo que en este mo­delo está la noción de olas de expansión.

Una de las ideas más poderosas de este modelo es que la fuente real de todos los nuevos grupos exitosos de ani­ma­les y de plantas en el curso de la evolución es la región ho­lártica, como se muestra en el mapa de la página anterior. Norteamérica y, especialmente, Eurasia se muestran como los centros más activos de la evolución progresiva, desde los cuales migran olas de tipos cada vez mejores ha­cia Sudamérica, África y a través de Asia hasta Australia. La mejor forma de ilustrar este concepto es el trabajo de W. D. Matthew, quien usó una proyección centrada en el Polo Norte, alrededor de la cual están las grandes masas de tierra emergida. Creía que el norte, donde el clima es más severo, estimulante y desafiante, suministraba la mayoría de grupos animales superiores, pues allí se crían las especies exitosas que tienen que luchar contra el frío y la esca­sez de alimentos. Esta lucha contra un ambiente severo lle­va a la evolución a ser cada vez más progresiva.

Mientras tanto, las regiones sureñas, que están en la pe­riferia, tienen condiciones ambientales menos severas, y aunque ciertamente allí ocurre un proceso de evolución, no es progresiva, sino que simplemente produce adaptación lo­cal. El recinto real del progreso es el norte, donde evolu­cio­nan las especies exitosas, expandiéndose hacia la periferia, en todas las direcciones que pueden. Así, desde Norte­amé­rica presionan el sur, Sudamérica; las de Eurasia presionan África, India, el sureste de Asia y finalmente Australia, de modo que tenemos una serie de grupos migrantes descendiendo hacia el hemisferio sur desde el centro de evolución progresiva localizado en el norte.

Así, Climate and Evolution de Matthew promovió esta ima­gen de la poderosa casa septentrional de la evolución, de la misma forma en que Darwin lo hizo del poder norte­ño de evolución, desde donde las especies se expanden suce­sivamente hacia el sur.

Pues bien, esto conduce a un modelo de distribución de plantas y animales en el cual las regiones sureñas, Sud­amé­rica, África y particularmente Australia, son considera­das como áreas donde las formas de vida más primitivas evolucionaron durante largo tiempo en el pasado, quedan­do al margen al ser empujadas hacia la periferia por las es­pe­cies más exitosas que evolucionaban en el centro. De esta forma, lo que se espera es tener animales y plantas más avanzados en el norte y formas más antiguas en la lejana periferia.
Los mundos perdidos

En ese entonces, Australia fue ampliamente identificada como la fuente de animales primitivos. El ornitorrinco y otros mamíferos primitivos que posiblemente se originaron en el Mesozoico, quedaron allí como relictos, en un área ais­lada, protegidos hasta cierto grado por el agua de la in­vasión de los tipos superiores provenientes del norte. Así sur­ge la imagen de que en las partes periféricas del mundo sobreviven remanentes de las formas más primitivas de vida. Son los mundos perdidos. Seguramente algunos recor­darán la famosa historia de Sir Arthur Conan Doyle de El mundo perdido, precisamente publicada en esta época, en 1912. Se trata de unos exploradores británicos que fueron a descubrir una tierra en Sudamérica, donde por un accidente de la geología sobrevivían aún ciertas formas de vida antigua. Hallaron dinosaurios y hombres de la edad de pie­dra, así como una amplia variedad de especies de periodos geológicos remotos. Es un cuento inverosimil aunque es una historia maravillosa que resume la noción de que en las regiones remotas del sur pueden encontrarse relictos de la evolución pasada, relegados y preservados hasta el pre­sen­te. Australia fue identificada como el relicto más obvio de formas sobrevivientes del Mesozoico.

Recientemente descubrí otra versión de esta historia. En un libro sobre la exploración del Polo Sur, en particular, el famoso viaje del capitán Scott, explorador británico que llegó allí en 1911 y encontró que lo había derrotado el ex­plo­rador noruego Amundsen, así como el pasaje de la muer­te de Scott y su equipo al regresar hacia su campamento base.

Los británicos lo consideraron como una especie de triun­fo irónico, porque al menos Scott y su equipo fueron buenos científicos y no simples exploradores; muchos no saben que al morir llevaban cincuenta kilogramos de mate­rial geológico, lo cual refleja una dedicación hacia la cien­cia tan grande que no abandonaron sus colecciones ni para sal­var sus propias vidas.

Pero esa no es la historia. Justo antes del viaje al Polo Sur, otros tres miembros de su expedición fueron a buscar, en una remota parte del continente antártico, al pingüino em­perador. Querían colectar sus huevos y llevarlos para investigación embriológica. Casi mueren en el intento, pues los atrapó una tormenta de nieve y cuando regresaron al cam­pamento base, el capitán Scott les dijo que nunca había visto a tres hombres tan cerca de la muerte como lo habían estado ellos. El líder de la expedición, un hombre con el im­probable nombre de Garrard, describió este episodio en un libro llamado El peor viaje del mundo.

¿Para qué fueron a buscar huevos? Porque circulaba la teoría de que los pingüinos eran las aves más primitivas, los relictos más primigenios de las aves orillados a los límites extremos de la Tierra. Los habían desplazado de Australia al continente antártico. La idea no tiene absolutamente nin­gún sentido; por supuesto, los pingüinos son aves especia­lizadas, pero la teoría fue elaborada, y era promovida por la expectativa de que se encontrarían los tipos más primiti­vos en el mundo perdido, en la periferia más lejana del sur, idea ampliamente extendida. Mi opinión es que esta noción de la expansión desde el norte y la conquista de tipos su­pe­riores que de ahí provienen es parte de un imaginario vie­jo y de metáforas usadas para describir el proceso por medio del cual el mundo es poblado por animales y plantas.

Así, se importa el lenguaje del imperialismo y la conquis­ta a la ciencia, pero también camina en sentido contrario, porque si se cree que este modelo es adecuado para anima­les, también puede serlo para la especie humana, y cuando se trata de describir la evolución de la última, entonces se asume la sorprendente premisa de que las razas más primi­tivas que sobreviven actualmente serán aquellas que están en la periferia, y las razas superiores, adivinen…, estarán en el norte. Esto, se acopla directamente con la idea de la su­premacía del hombre blanco, ya que sugiere que los habitantes de otras partes del mundo son primitivos, formas tempranas de humanos empujados hacia los márgenes, qui­zá sobreviviendo allí por barreras biogeográficas protecto­ras. Por ello, en la paleoantropología de fines del siglo XIX y principios del XX, los humanos sobrevivientes más primi­tivos, para usar el lenguaje de ese tiempo, eran los aboríge­nes australianos. Como las formas primitivas de animales se encuentran en Australia, los humanos también estuvie­ron aislados y protegidos en ese continente, conducidos ha­cia el sur por la emergencia de razas superiores del norte. William John­son Sollas, paleoantropólogo de principios del siglo XX, describió a los aborígenes de Australia como nean­der­thales vivientes. Relación que pronto desapareció, pues los neanderthales no se consideraban humanos, pero la idea de que los australianos son las formas humanas más primi­tivas perma­neció.

Otro famoso paleoantropólogo de ese tiempo, Sir Arthur Keith, afirmó que si quisiéramos entender por qué los hu­manos modernos extinguieron a los neanderthales, debíamos observar lo que ocurría en Australia, donde la gente blan­ca estaba exterminando a los aborígenes. La idea de con­quista y exterminación de los tipos inferiores por la invasión de los tipos superiores es explícitamente usada por los blan­cos, que se ven a sí mismos como la raza superior, para jus­tificar el exterminio.

Así, el lenguaje del imperialismo es empleado para justificar la conducta de las naciones imperiales del mundo mo­derno. Y este es el fin de mi historia, que concluiré con algunos breves comentarios sobre el asunto de si creemos que el darwinismo y los modelos biogeográficos de fines del siglo XIX y principios del xx estuvieron plagados del lengua­je de una ideología política.
¿Podemos decir que fue una mala ciencia, una ciencia con­taminada?, ¿tendremos que demeritar toda la teoría dar­winiana como un callejón sin salida por el que los científi­cos han transitado guiados por sus prejuicios políticos?

Las metáforas en la ciencia

Muchos biólogos modernos creen que siempre han existi­do metáforas de modelos e interpretaciones que han de­sem­peñado papeles válidos, inspirando a los científicos en la construcción de modelos funcionales de la naturaleza, así que creo que deberíamos ser muy cuidadosos antes de deme­ritar a la ciencia que usa su inspiración de modelos deri­va­dos de la política, la religión o el arte. No deberíamos ser rudos y describirla como mala ciencia porque en ese caso quedaría muy poca ciencia. Sin embargo, actualmente de­bemos ser extremadamente cuidadosos cuando examinamos las formas en que la gente busca usar la ciencia para justificar posiciones políticas. Si la ciencia refleja la sociedad en la que funciona, difícilmente sorprende que entonces la sociedad pueda usar a la ciencia para justificar algu­nos va­lores. Y así, sin pretender demeritar ninguna materia como mala ciencia, considero el tema que hemos esbo­za­do como una valiosa lección que nos enseña que debemos ser extremadamente cuidadosos al examinar la forma en que la ciencia refleja la naturaleza, y particularmente la for­ma en que esas representaciones son descritas por la gen­te común, porque éstas son usadas para justificar sistemas políticos. Por ejemplo, todos podemos constatar el mal uso que actualmente se hace de la genética. Así, la historia nos proporciona una valiosa lección al advertirnos que debemos tener mucho cuidado para determinar de dónde viene la ciencia y reconocer esta circularidad que justifica un va­lor del sistema mediante una ciencia que en sí misma re­fleja ese valor del sistema.
Peter Bowler
Queen’s University of Belfast,
Reino Unido.
Nota
 
Texto de la conferencia impartida el viernes 28 de octubre de 2005 por el Dr. Peter Bowler en el auditorio Carlos Graef de la Facultad de Ciencias, Ciudad Universitaria.
Traducción
 
A. Alfredo Bueno Hernández y Carlos Pérez Malváez.
Referencias bibliográficas
 
Bowler, P. J. 1996. Life’s splendid drama. The University of Chicago Press. Chicago y Londres.
Bowler, P. J. 1990. The invention of progress: The Victorians and the past. Blackwell. Oxford.
Matthew, W. D. 1915. “Climate and evolution”, en Ann. New York Acad. Sci., núm. 24, pp. 171-416.
Peter J. Bowler es un destacado historiador del darwinismo, tema sobre el cual ha publicado una vasta obra, tanto en libros como en revistas especializadas. Algunos de sus libros se han convertido en clásicos. Actualmente es profesor de la Queen’s University of Belfast, en el Reino Unido. Fue vicepresidente de la British Society for the History y presidente de la British Society for the History of Science.
 _______________________________________________________________

como citar este artículo

Bowler, Peter. (2006). Biogeografía y darwinismo social. Ciencias 84, octubre-diciembre, 4-13. [En línea]
  ←Regresar al índiceartículo siguiente→
1 12
     
Metáforas biogeográficas del imperialismo
En este artículo se revisan las diversas explicaciones sobre los patrones biogeográficos elaboradas entre fines del siglo XIX y las primeras décadas del siglo xx, enfatizando los cambios en las metáforas empleadas por los evolucionistas para reconstruir la historia de la vida.
Alfredo Bueno y Carlos Pérez
conoce más del autor
 
     
HTML ↓   PDF Regresar al índiceartículo siguiente
     
     
 
En la segunda mitad del siglo XIX, los bio­geógrafos tuvieron el objetivo común de elaborar una visión integrada del mundo. La fría descripción de los hechos requería ser interpretada. El co­nocimiento empírico disperso, pro­ducto de las travesías patrocinadas por los estados europeos, fue racionalizado por los naturalistas para redistribuirlo a sus contemporáneos en la forma concreta de mapas de regiones biogeo­gráficas, los cuales representaban patro­nes, que a su vez implican causalidad.
 
La distribución geográfica de la vi­da fue una de las líneas clásicas de evi­den­cia en los estudios de evolución. A me­diados del siglo XIX, los naturalistas in­gleses reconocían que la distribución geográfica de la vida era un factor clave para comprender el mundo natu­ral. En una carta fechada en 1845 dirigida a Hooker, Darwin se refería al estudio de la distribución geográfica como “la piedra angular de las leyes de la creación”. Aunque desde inicios de ese si­glo se conocían los principales patrones bio­geográficos, faltaban las explicacio­nes. ¿Por qué había regiones con climas ca­si idénticos que prácticamente no com­partían especies?, ¿por qué al­gu­nas áreas con condiciones físicas di­fe­ren­tes tenían biotas muy similares?, ¿por qué existían formas muy parecidas en áreas separadas por grandes distancias? El determinismo ecológico linnea­no, según el cual cada especie se disper­só desde una isla-montaña primigenia hasta encontrar las áreas que les fueran propicias, se mostraba claramente insuficiente para explicar la regionalización de la biota y las distribuciones disyuntas.

El periodo de explosivo interés que se despertó por la biogeografía entre fi­nes del siglo xix y principios del siglo XX se ha estudiado poco. No obstan­te, abordar este tema conlleva un ries­go, pues sabemos que los debates sobre los continentes hundidos se volvieron fútiles a mediados del siglo XX, al confir­marse la teoría de la deriva continental.
 
Uno de los primeros naturalistas que adoptó un enfoque histórico en la biogeografía fue Edward Forbes. En la década de 1840 intentó explicar el ori­gen de la flora de las Islas Británicas postulando la existencia de una masa terrestre ubicada en lo que hoy es el océano Atlántico, a través de la cual las plantas migraron desde España hasta Irlanda. Darwin rechazó la existencia de esas hipotéticas uniones, al menos en un pasado geológico reciente. En los capítulos dedicados a la biogeografía de El Origen de las Especies, él defen­dió la hipótesis monofilética: cada es­pecie se originaba a partir de un par de individuos en una sola localidad, desde donde se expandía hasta alcanzar su distribución actual. Resulta así que el compromiso con el principio mono­filético generó la necesidad de la dispersión. Esta idea se remonta al menos a Linneo, además del obvio anteceden­te bíblico. En sus Fundamenta Botanica, Linneo afirmaba: El único par se­xuado, de todas las especies vivientes, fue creado en el inicio de las cosas. El razonamiento era puramente lógico; si se admite que las especies crecen geo­métricamente, entonces cuanto más se vaya hacia el pasado más decrece el número de individuos de cada especie, hasta llegar al límite de su origen mismo, donde habría un solo par —o un solo individuo en el caso de las especies hermafroditas. Así, para alcanzar su área actual de distribución, la disper­sión era indispensable, ya fuera como mera expansión de las poblaciones o bien mediante grandes saltos sobre ba­rreras físicas en el caso de las distribu­cio­nes disyuntas, en ese tiempo llama­das anómalas.

Los extensionistas como Forbes no aceptaban que las dispersiones a gran distancia pudieran explicar las distribuciones disyuntas. Creían que las es­pecies se habían extendido a través de puentes terrestres y continentes antiguos actualmente sumergidos. Por su parte, Darwin sostenía una postura per­manentista, es decir, que los prin­cipa­les rasgos de la superficie terrestre ha­bían pemanecido invariables en el pasado geológico reciente.

A pesar de la férrea oposición de Dar­win, el enfoque extensionista se sos­tuvo como una influyente corriente en las últimas décadas del siglo XIX. Jo­seph Dalton Hooker, amigo y admirador de Darwin, fue uno de sus principales proponentes. Sustentado en una amplia experiencia de campo, Hoo­ker concluyó que las dispersiones a gran distancia no eran una causa suficiente para explicar los patrones biogeográficos de las floras sureñas. Con base en la evidencia florística propuso la hipó­tesis de que todos los componentes de las floras del hemisferio sur habían es­tado una vez unidos en un gran continente austral.

Un destacado ornitólogo inglés, Phi­lip Lutley Sclater, le respondió. En su cé­lebre trabajo On the general distribution of the members of the class Aves, pre­sentado en 1857 ante la Linnean So­ciety of London y publicado el año si­guiente, propuso “las divisiones ontológicas más fundamentales y naturales de la superficie terrestre”. Cada una de sus seis regiones representaba un área de creación particular. Su sistema fue la base del esquema que propondría Alfred Russel Wallace en 1876, en su clá­sica obra The Geographical Distribu­tion of Animals. Sin embargo, Wallace no aceptó la explicación teista de Scla­ter. Rectificando sus primeras ideas ex­tensionistas, terminó explicando la composición de cada región biogeográ­fica mediante migración y divergencia, añadiendo la idea de que los nuevos grupos se originaban en un centro norteño de evolución progresiva.

En 1886, Andrew Murray negó ex­plí­citamente que las poblaciones tuvieran cualquier tendencia automática hacia la expansión. Creía que las pro­vin­cias biogeográficas se mantenían por cierto instinto individual que hacía que cada criatura se mantuviera en el mismo lugar donde se había origina­do. Los animales sólo se movían forzados por los cambios geológicos. El rechazo a este concepto de inercia de Murray, así como la aceptación de la presión mal­thusiana, algo que ha sido señalado por Bowler fueron en parte el éxito de la visión dar­winiana del mundo.

Al final del siglo XIX, la idea de que la población de cualquier especie tendía a crecer era aceptada incluso por na­turalistas que rechazaban la teoría de la selección natural como mecanis­mo evolutivo. La literatura biogeográfi­ca estuvo dominada por metáforas pro­pias de una era en la cual los estados occidentales buscaban deliberadamen­te dominar el resto del mundo. Las es­pecies surgían y se extinguían guiadas por la urgencia de conquistar y dominar nuevos territorios. Entendida la dis­persión en un sentido laxo, no sólo como dispersión por saltos sino también como expansión, tanto los biogeó­grafos extensionistas como sus rivales antipuentistas eran dispersionistas. Am­bos compartían la idea de que las especies se originaban en una sola lo­calidad y tenían una tendencia natural a expandirse. Por ello, el centro de la discusión fue determinar cuáles eran las áreas donde aparecían las innovaciones evolutivas.

Los antidarwinistas cuestionaron la tesis monofilética. La expresión más clara del enfoque de evolución inde­pen­diente provino de Angelo Heilprin, quien sostenía que la misma especie podía evolucionar no sólo en distintas áreas, sino también en diferentes épo­cas geológicas. El renombrado mastozoólogo Richard Lydekker aceptaba que los caballos habían evolucionado en ambos lados del Atlántico. Karl von Zittel arguyó que las similitudes entre las faunas del Eoceno de Norte­amé­ri­ca y de Europa se explicaban por una evolución paralela y no por migración. Es significativo que Croizat, fundador de la escuela moderna antidispersionista, también recurrió al paralelismo para crear un modelo antidarwinista de la historia de la vida, el cual rechaza la búsqueda de centros de origen. Pe­ro la implicación era grave para el dar­winismo, si las especies no se origina­ban sólo en un área puntual, sino que podían evolucionar independiente­mente en más de una localidad, el fun­­da­mento de todo el programa dar­wi­nis­ta se derrumbaba. Perdía todo sentido trazar las migraciones y se volvía imposible distinguir entre los efectos de la evolución paralela y la dispersión. Así, enfatizar el poder de la dispersión se convirtió en una necesidad urgente para Darwin.

Los evolucionistas de fines del siglo XIX y principios del xx concluyeron que el debate sólo podía zanjarse con una mejor taxonomía y con co­rre­la­cio­nes estratigráficas más precisas. Para trazar las migraciones pasadas se re­que­ría establecer con certeza cuáles estra­tos se habían depositado al mismo tiem­po en Europa y en América, tarea a la cual se abocaron coordinadamente una serie de paleontólogos europeos y norteamericanos durante los últimos años del siglo XIX.

En la segunda década del siglo XX, la idea popularizada por Wallace fue re­vivida por William D. Matthew. Los grandes continentes norteños, Eurasia y Norteamérica, constituían las áreas de evolución progresiva. Sin embargo, permanecía latente la hipótesis rival de Hooker sobre la existencia de un gran continente sureño, la cual implicaba que el sur también habría sido un im­por­tante centro de evolución.

El debate sobre la importancia relativa del norte y el sur como centros evolutivos estuvo ligado a la discusión sobre la existencia de continentes de­sa­parecidos. Darwin y Wallace primero, y Matthew después, afirmaron que, al menos en el Terciario, los rasgos de los continentes y océanos no habían sufrido cambios importantes y negaron la posibilidad de que el lecho profundo del océano hubiera quedado expuesto. La escuela rival de geología, encabeza­da por Eduard Suess, sostenía que ha­bía ocurrido una subsidencia constante en ciertas áreas de la corteza de la Tie­rra a lo largo de su historia y por tanto, podían haber existido grandes continen­tes en donde actualmente hay océanos profundos.

Quienes apoyaban la permanencia de continentes y océanos sólo po­dían explicar las distribuciones dis­yun­tas mediante dispersiones accidentales a grandes saltos. En cambio, los exten­sio­nistas creían que todos esos casos anó­malos podían explicarse por expan­sión a través de tierra emergida. Cada parte podía acusar a su rival de soñar hipóte­sis acomodaticias. Siempre era posible postular conexiones hipotéticas o migraciones accidentales entre dos áreas cualesquiera de la superficie te­rrestre.

En 1882, Angelo Heilprin propuso que Norte­américa y Eurasia debían unir­se en una sola región a la que de­no­minó Holártica. Aunque Wallace se opu­so, finalmente el concepto de región ho­lártica fue la base sobre la que Matthew propuso su modelo dispersionista.

Los mundos perdidos

La creencia popular de que en ciertas áreas del mundo se habían preservado formas características de etapas an­teriores de la historia de la vida fue otro ingrediente del modelo dispersionista. Las formas evolutivamente inferio­res eran desplazadas hacia el sur por los nue­vos grupos. Australia era el ca­so pa­radigmático. Muchos científicos creían que los organismos de este con­tinente —incluidos sus habitantes hu­ma­nos— eran primitivos y por tanto in­capaces de competir con los invaso­res europeos. Sin embargo, los hechos pronto desvanecieron las esperanzas. Desde 1862, el naturalista australiano Frederick M’Coy había protestado con­tra la creencia casi universal del ca­rác­ter pri­mitivo de la biota de Australia. Los da­tos geológicos revelaban que Aus­tralia había estado bajo el mar du­ran­te gran parte del Terciario. Cuales­quiera que hu­bieran sido sus habitan­tes antiguos, habrían sido destruidos, y el continen­te tendría que haber si­do repoblado en tiempos relativamente modernos.

A pesar de los argumentos de M’Coy, la expedición pionera de Murray en 1866 reforzó la mayoría de los prejuicios tradicionales. Murray creía en el enfriamiento gradual de la Tierra y en la existencia de grandes masas te­rrestres sureñas desde el Mesozoico. Australia había preservado formas de vi­da del Eoceno hasta la actualidad. Es­ta idea de refugios que protegían a sus habitantes de la invasión de formas más avanzadas fue parte importante de la teoría que desarrollaría Matthew.

Los orígenes norteños

La teoría de las invasiones norteñas apa­reció en las discusiones paleonto­ló­gi­cas y después se popularizó hasta con­vertirse en una poderosa aunque con­tro­versial herramienta explicativa. Es obvia su afinidad con la ideología de que los europeos estaban destinados a gobernar el mundo. En 1865, Os­wald Herr, paleobotánico de Zurich, notó que las plantas del Mioceno de Europa eran equivalentes a las de los trópi­cos modernos. A finales de ese siglo, la evi­dencia de que había habido climas fríos desde el Paleozoico puso en en­tre­di­cho la teoría de Suess sobre el en­fria­miento continuo. Más que un en­fria­miento progresivo, ocurrieron fluc­tuaciones cíclicas entre climas templados y severos. Entonces se volvió po­pular asociar los episodios de evolu­ción progresiva con los periodos de cli­mas severos.

La mejor versión de las oleadas su­cesivas de migración que barrían a sus predecesores hasta los márgenes meridionales terrestres fue articulada por Matthew en su Climate and Evolution de 1915, quien fue tanto el paleontó­lo­go de vertebrados más importante co­mo el zoogeógrafo teórico más in­flu­yen­te de su tiempo. Con base en la evidencia paleontológica disponible, sostuvo que los vertebrados se habían originado en los climas rigurosos de las áreas del norte y después se dispersaron en oleadas sucesivas para llenar los nichos de las tierras sureñas. A tra­vés de George Gaylor Simpson, las ideas de Matthew sobre la evolución y el clima se mantuvieron como la explicación es­tándar en biogeografía, hasta que ocu­rrió la revolución de la tectónica de pla­cas en la década de 1960.

Matthew hizo una sólida defensa de la permanencia de los continentes con base en la diferente naturaleza de las rocas continentales y las del lecho marino. Al igual que Darwin y Wallace, recurrió al transporte accidental para explicar anomalías ocasionales. La su­posición común de que el área actual de distribución de un grupo fue alguna vez su hogar ancestral era exactamen­te lo opuesto a la verdad, según Mat­thew. Como muchos de sus contempo­ráneos, creía que Asia central era la cu­na evolutiva de la humanidad y que la raza blanca era el último y el más al­to producto de la evolución.

La alternativa más simple a la tesis de los orígenes norteños fue la teo­ría bipolar, la cual proponía que los conti­nentes sureños también fueron centros de evolución importantes. El des­cubrimiento de reptiles semejantes a mamíferos sugirió que habían ocurrido episodios evolutivos relevantes en el sur de África durante el Paleozoico. En 1876, W. T. Blanford sostuvo que la fauna de la India tenía un origen africano más que asiático. Se propuso que África había sido un gran centro de evo­lución independiente desde el cual de­rivaron antílopes, jirafas, elefantes e hipopótamos.

Sudamérica era el hogar de una fau­na única de edentados que surgieron du­rante su aislamiento en el Terciario. Después de su reconexión con Norte­amé­rica a través del istmo de Panamá ocurrió un intercambio en ambos sen­ti­dos y algunos de los tipos sureños se dispersaron exitosamente hacia el nor­te. La radiación desde Sudamérica no fue de ningún modo un fracaso evolutivo.

A principios del siglo XX, los paleo­botánicos disponían de una evidencia más sólida de la que tenía Hooker sobre la existencia de una flora continua en el hemisferio sur a fines del Paleo­zoi­co. Se habían hallado semillas fó­siles del helecho Glossopteris en Sud­amé­ri­ca, África, Australia e incluso en la mis­ma Antártida. Muchos aceptaban que estas uniones habían existido hasta el Mesozoico, pero la pregunta crucial era si habían perdurado hasta principios del Terciario.

Alfred Lothar Wegener rechazó la idea de que la tierra emergida y las cuen­cas oceánicas profundas fueran intercambiables. Reintepretó la eviden­cia de las relaciones intercontinentales en términos de su propia teoría, conclu­yendo que la unión fue directa y no me­diante puentes. La deriva continen­tal proporcionaba la mejor explicación para la distribución disyunta de la flora de Glossoopteris y de Mesosauridae en Sudamérica y África.

La escuela de los puentes terrestres se defendió vigorosamente de los ataques tanto de Matthew como de We­ge­ner. En América, uno de los líderes puen­tistas, opositores a Wegener, era Charles Schuchert, quien extendió las hipótesis puentistas hasta el Ceno­zoi­co, entrando en conflicto directo con Mat­thew. En una nota póstuma de la edición de 1939 de Climate and Evolution, Matthew admitió que si se encon­tra­ra un mecanismo geofísicamente plau­si­ble para la hipótesis de Wegener, se re­solverían los casos de distribucio­nes anómalas en el Paleozoico y Me­so­zoico.

La progresión lineal encubierta

Las metáforas que emplearon los naturalistas de fines del siglo XIX y principios del XX para describir la historia de la vida reflejaron sus sentimientos sobre la naturaleza humana y la socie­dad. Particularmente, en la discusión bio­geográfica se usó un lenguaje que mostraba las aspiraciones colonialistas de los estados europeos.

Aunque es común que los cientí­ficos no admitan que sus ideas están in­fluidas por conceptos derivados de otras áreas de la cultura humana, es evi­dente que muchos biólogos emplea­ron metáforas provenientes de asun­tos hu­manos. Tal prurito parece excesivo, pues de hecho se han usado metáforas no sólo en la biología, sino en todas las áreas del conocimiento humano. Lo ex­traordinario sería que las hipóte­sis biogeográficas de esa época fueran ajenas a la ideología imperialista prevaleciente.

Si las metáforas resultan heurísticas, su uso se justifica. Lo lamentable sería que se retuvieran modelos malos por razones ideológicas; aunque, co­mo señala Bowler, siempre es polémi­co de­cidir cuáles son los modelos ma­los. Es innegable que los debates biogeográficos efectuados alrededor de 1900 es­tuvieron influídos por factores externos, aunque no habría que caer en la burda simplificación de creer que to­da la empresa no fue más que una pura imposición de metáforas sociales a la naturaleza.

Bowler ha hecho notar que en los debates sobre la historia de la vida par­ticiparon naturalistas que no estaban comprometidos con un mecanismo evo­lutivo particular. Sin embargo, com­partían el uso de conceptos tales como progreso, lucha y conquista. Varios de los científicos que empleaban este len­guaje no creían que la selección natu­ral fuera el mecanismo del cambio evo­lutivo e incluso algunos eran oponentes activos del seleccionismo.

Así, en esa misma época, muy pocos evolucionistas podían tolerar la idea de que la especie humana no fue­ra superior a todas las demás en varios sentidos importantes, a pesar de que el modelo de evolución progresiva li­neal estaba ya desacreditado. De cual­quier forma, el antropocentrismo resurgió en una versión más sutil, si bien varias ramas principales del árbol de la vida habían progresado hacia niveles superiores de complejidad, la nues­tra avanzó más que cualquier otra. En su versión simplificada, esta idea se re­presentó mediante un árbol de la vida con un tronco principal que conducía a la especie humana, mientras que to­das las demás formas de vida se ubicaban en ramas laterales que al separarse del tronco principal cesaban de progresar.

Los evolucionistas modernos re­cha­zan frontalmente la idea de que exis­tan ramas que hayan cambiado tan len­ta­mente que puedan emplearse para ilus­trar estadios tempranos de la evolución. Sin embargo, desde Haeckel hasta prin­cipios del siglo XX, la tentación de usar formas vivientes como representantes de los estadios tempranos de la evo­lución fue muy grande, especialmente en el caso de la evolución humana.

El gran énfasis que los paleontólo­gos del siglo XX, como Matthew y Hen­ry F. Osborn, proporcionaron a las es­pecializaciones divergentes representó un rompimiento importante con la tra­dición establecida en tiempos de Hae­ckel. En lugar de tratar la evolución en secuencia lineal, los biólogos resaltaron deliberadamente la diversidad de la vida en cada periodo geológico. El en­foque de Osborn sobre la divergencia fue el fundamento para concebir a las razas humanas como especies distintas, lo cual resultaba particularmen­te adecuado para establecer el carácter único de la raza blanca.

A las condiciones ambientales se les asignó un papel fundamental en la evolución. El ambiente físico era esen­cialmente cambiante y las poblaciones luchaban contra los desafíos que éste les imponía. Según la intensidad de los cambios, las migraciones ocurrían lentamente o con celeridad. De ahí que el progreso fuera más rápido en un ambiente severo y sujeto a rápi­das fluctuaciones. Los habitantes de ambientes más estimulantes tendrían mayores probabilidades de progresar. Por el contrario, los ambientes constan­tes podían conducir a la degeneración —los parásitos eran el caso paradigmá­tico. El estímulo ambiental resul­taba un arma de dos filos. El prominente dar­winiano de Oxford, E. Ray Lankester creía firmemente que la civilización humana comenzó a degenerar cuan­do dejó de enfrentarse a nuevos desafíos. E. William MacBride, destaca­do la­mar­ckista y discípulo de Sedwick, propuso la teoría de que los invertebrados eran vertebrados que habían degenerado por su poco estimulante hábito de arras­trarse sobre el lecho marino. Convencido eugenecista, Mac­Bride también planteó limitar la reproducción de los irlandeses, porque los consideraba in­fe­riores en virtud de haber evoluciona­do en ambientes menos estimu­lantes.

En los inicios del siglo XX, los pa­leon­tólogos enfatizaron la idea de que el poder activo de los ambientes cambiantes constituyen el verdadero deto­na­dor de los cambios en la vida ani­mal. La historia de la vida ya no se entendía en términos de fuerzas progresivas que surgían del interior de los organis­mos. Creció la con­vicción de que el ca­rácter episó­dico de la evolución reflejaba el de la his­toria física de la Tie­rra. Esta idea concordaba con el recha­zo de Darwin a cualquier noción de una tendencia interna de los organismos hacia la per­fección y con su idea de que la evolución era esencialmente una respuesta al ambiente, que incluía a otras especies en el mismo proceso. Los lamar­ckistas también consideraron al estímu­lo ambiental como el fac­tor clave del progreso. Los evolucionis­tas, darwi­nia­nos o no, terminaron por aceptar que a las principales innovaciones le seguían un proceso de per­fec­cionamien­to y refinación que gene­raba las diver­sas especializaciones dentro de cada clase.

Un corolario de esta idea era la im­pre­decibilidad de la evolución, pues si estaba condicionada por cambios ambientales azarosos entonces era impre­decible. Si bien para la mayoría de los darwinistas modernos el azar es parte integral de su visión del mundo, al prin­cipio esta idea encontró una gran resis­tencia.

El reemplazo de las civilizaciones

Para explicar la historia de la vida, otra imagen a la que se recurrió con fre­cuen­cia fue la del surgimiento y la caí­da de los grandes imperios de la historia hu­mana. El modelo cíclico de la historia, con su sucesión de razas y ci­vilizaciones dominantes, fue un ele­men­to cen­tral de la historiografía con­ser­vadora del siglo XIX. Algunas de las versiones del darwinismo se adaptaron para responder a las demandas de un imperialismo nuevo y más materialista, que requería mantener las di­visiones y rivalidades entre los grupos humanos.

Muchos científicos británicos sabían que su trabajo era parte de la em­presa imperial. Jugaron su papel en la apropiación de las áreas vírgenes del mundo por parte de los estados europeos. Los grandes museos de historia natural, las universidades, los zoológi­cos y los jardines botánicos de las prin­ci­pales ciudades del mundo occidental, simbolizaron la participación de la ciencia en el uso y el control del mun­do natural. Esta política imperialista tam­bién permitió adquirir una precisión sin precedente en los datos bio­geo­gráficos y geológicos de áreas re­mo­tas. Así, las metáforas del imperialismo no surgieron simplemente de modelos trans­plantados de la historia humana hacia la biología, sino también de nue­va evidencia empírica.

Con el ciclo de juventud, madurez y muerte de los individuos se hizo la ana­logía entre el surgimiento y la caída de los grupos biológicos, tornán­do­se común la noción de que cada era geo­lógica se caracterizaba por la domi­nancia de ciertos grupos, como la famosa edad de los reptiles. La historia de la vida podía dividirse en varias épo­cas discretas, concepción que estaba en consonancia con una filosofía más general que afirmaba el carácter cí­cli­co y discontinuo de la naturaleza. El in­terés por conocer las causas del origen, declinación y extinción de los prin­cipales grupos promovió un modelo de la historia de la vida análogo al usado para describir el surgimiento y la caída de los grandes imperios de la civilización humana.

Apareció la propuesta de que cada nuevo grupo estaba dotado de cierta can­tidad de energía evolutiva, la cual iba gastando gradualmente hasta final­mente agotarla, idea que adoptaron los paleontólogos alemanes durante la era nazi. Entre ellos, Othenio Abel pensa­ba que el periodo de de­clinación ­estaba marcado por un au­mento en el nú­me­ro de individuos de­generados. La adap­tabilidad se volvía eventualmente tan rígida que producía resultados dañinos. Había una cau­sa interna de decli­namiento inser­ta en cada grupo des­de su origen y nin­guno podía escapar a sus consecuencias.

Aunque la teoría del sobredesarro­llo como resultado de la ortogénesis man­tuvo cierta popularidad, los evolu­cionistas se fueron apartando de esta interpretación, adoptando un enfoque cada vez más darwiniano. La causa del ascenso y la caída era la competencia que ejercían los nuevos grupos incesan­temente generados por la evolución. La declinación de un grupo es­taba ín­ti­mamente ligado al surgimiento de otro. La historia de la vida podía expli­car­se como una permanente lucha por la supremacía, con especies exitosas que tendían de manera natural a ex­pan­dirse en un área cada vez mayor, y con consecuencias a me­nudo desas­tro­sas para los habitantes de las áreas invadidas. El éxito inicial conducía in­evi­tablemente a la sobreespecialización y finalmente a la extinción.

La metáfora de la invasión se volvió un lugar común en las descripciones paleontológicas y biogeográficas de alrededor de 1900. En su discusión sobre Sudamérica, Matthew narraba có­mo la gran invasión de los animales norteños había barrido todos los grupos de animales de pezuña y todos los carnívoros marsupiales. La expansión de los blancos europeos en América y Australia, con el subsiguiente extermi­nio de los pueblos aborígenes que­da­ba así explicada no por la codicia de los es­tados europeos, sino como con­se­cuen­cia de una ley natural.

Conclusiones

Bowler sostiene que hubo un cambio en las metáforas usadas para ilustrar la historia de la vida. La declinación de la morfología condujo al desuso del modelo lineal de evolución, mientras que el desarrollo de la paleontología y de la biogeografía histórica promovió la articulación de nuevas metáforas im­perialistas. Al inicio del siglo XX, los evo­lucionistas percibieron la historia de la evolución de una forma claramen­te diferente de como la concebían los de la primera generación.

Según la historiografía darwinista tradicional, la teoría sintética surgió a partir de la asimilación de la gené­tica de poblaciones a la teoría dar­wi­nis­ta. En su clásico Tempo and Mode in Evo­lution de 1944, Simpson afirmó que el nuevo desarrollo de la teoría genética de la selección natural sirvió para qui­tar toda la paja de las explicaciones evo­lucionistas. Sin embargo, el análisis de Bowler apunta hacia una opinión muy diferente. La interpretación convencio­nal de la teoría sintética ignora una se­rie de desarrollos en la investigación filogenética que sentaron las bases pa­ra una forma de pensamiento darwi­nia­no más moderna. Los filogenetistas de inicios del siglo xx desarrollaron la importante idea de que la selección na­tural podía ser, después de todo, la ex­plicación más efectiva sobre cómo ope­raba la evolución. Su influencia es innegable, pese a que no se involucra­ron en la síntesis de la genética y el dar­winismo. Pero la conclusión más im­portante de Bowler es la afirmación de que el darwinismo incluye algo más que una simple lealtad a la teoría de la selección. El darwinismo moderno mantiene ciertas ideas claves que fue­ron desarrolladas explícita o implícita­mente por el mismo Dar­win y luego ignoradas por muchos biólogos de la generación posterior. La investigación filogenética contribuyó a la articulación de estas concepciones generales en forma completamente independien­te del surgimiento de la nueva teoría ge­nética de la selección, y en ella participaron incluso evolucionistas no se­leccionistas.

Esta revaloración de la historia mues­tra que gran parte del evolucio­nis­mo de fines del siglo xix tomó un rum­bo más desarrollista que dar­wi­nia­no. Los primeros evolucionistas adop­ta­ron un enfoque que presentaba la vida como un proceso, en buena medi­da, predeterminado y dirigido casi in­evitablemente hacia el surgimiento de la humanidad. Sin embargo, este enfo­que pasó por alto una de las ideas cru­cia­les de Darwin, según la cual la evo­lu­ción era guiada por las respuestas de los organismos a los cambios perennes del ambiente, lo que la hace un pro­ce­so divergente y esencialmente im­pre­de­cible. Los filogenetistas de principios del siglo xx reincorporaron este aspecto, contribuyendo así a la articu­lación de la visión darwiniana moderna del mundo.

Las metáforas cambiaron según esta nueva concepción, pro­por­cio­nan­do imágenes de conquista geo­grá­fica y de eliminación de tipos in­feriores. Se despertó un creciente in­terés por conocer posibles detonantes ambientales de novedades evolutivas. Sin embargo, permanecieron viejas ideas arro­padas sutilmente. La acep­ta­ción, por parte de la mayoría de los evo­lucionistas del siglo xx, de que los ma­míferos no pudieron dominar la Tierra hasta la elimi­nación de los repti­les, denota el apre­cio por el viejo y sim­ple progresio­nismo, aun cuando se ad­mite que la evo­lución tenía un curso imprevi­sible.

En Estados Unidos, una nueva gene­ración de paleontólogos encabe­za­dos por Matthew se deshizo de los gri­lle­tes del viejo enfoque no dar­winiano, y con­tribuyeron, en buena medida, a la de­rro­ta de gran parte de la vieja con­cep­ción antiseleccionista. Bowler se­ña­la que la visión darwiniana de la na­tura­le­za, más allá de su apego a la selección natural, representa un desafío mu­cho más básico al viejo pensamiento desa­rrollista del mundo, pues niega metas predeterminadas y fuerzas internas que dirijan la evolución.

Si bien es claro que la principal fuen­te de la síntesis moderna no provino de la investigación filogenética, ello no invalida el argumento de Bow­ler, a saber, que el camino hacia una acep­tación más amplia de la síntesis fue pavimentado por desarrollos que ocurrieron en la paleontología y la bio­geografía durante las primeras décadas del siglo XX, cuando se concibió la historia de la vida de una forma signi­ficativamente diferente a la que tuvie­ron los evolucionistas de las décadas de 1870 y 1880. Las nuevas preguntas fue­ron importantes para crear un clima de opinión propicio que desmantelara los últimos vestigios de las teorías lamarckistas y ortogenetistas.

Así, el desarrollo continuo de la in­vestigación filogenética, entendida en su sentido amplio como la reconstruc­ción del espléndido drama de la vida, desde 1860 hasta 1940, representó un factor significativo en la consolidación de la revolución darwiniana.
Antonio Alfredo Bueno Hernández
Carlos Pérez Malváez
Facultad de Estudios Superiores Zaragoza,
Universidad Nacional Autónoma de México.
Referencias bibliográficas
 
Bowler, P. J. 1985. El eclipse del darwinismo. Teorías evo­lucionistas antidarwinistas en las décadas en tor­no a 1900. Editorial Labor, Barcelona.
Bowler, P. J. 1990. The invention of progress: The Victorians and the past. Blackwell. Oxford.
Bowler, P. J. 1996. Life’s splendid drama. The Uni­versity of Chicago Press. Chicago y Londres.
Browne, J. 1995. Charles Darwin. Voyaging. Vo­lume i of a biography. Pimilco, Londres.
Browne, J. 2002. Charles Darwin. The power of place. Volume II of a biography. Princenton University Press, Princenton y Oxford.
Camerini, J. R. 1993. “Evolution, biogeography, and maps. An early history of Wallace’s line”, en Isis, núm. 84, pp. 700-727.
Fichman, M. 1977. “Wallace: Zoogeography and the problem of land bridges”, en Journal of the History of Biology, vol. 10, núm. 1, pp. 45-63.
Richardson, R. A. 1981. “Biogeography and the ge­nesis of Darwin’s ideas on transmutation”, en Journal of the History of Biology, vol. 14, núm. 1, pp. 1-41.
Antonio Alfredo Bueno Hernández obtuvo el doctorado en la Facultad de Ciencias de la unam. Actualmente es profesor de carrera titular del Museo de Zoología de la fes Zaragoza y responsable de un proyecto sobre los modelos de biogeografía histórica que se desarrollaron en torno al darwinismo.
Carlos Pérez Malváez obtuvo la Maestría en Ciencias en la Facultad de Ciencias de la unam. Actualmente es profesor de carrera Asociado C de tiempo completo en la fes Zaragoza. Recibió el premio José Antonio Alzate 2004 en la categoría mejor artículo de divulgación.
_______________________________________________________________

 

como citar este artículo

Bueno Hernández, Alfredo y Pérez Malváez, Carlos. (2006). Metáforas biogeográficas del imperialismo. Ciencias 84, octubre-diciembre, 14-24. [En línea]
 
  ←Regresar al índiceartículo siguiente→
1 12
     
Incertidumbre y errores en las elecciones de julio de 2006
En este documento se analiza la base de datos del prep, y la de los Cómputos Distritales para estimar la magnitud de los errores esperados durante el conteo de los votos y se concluye que es mucho mayor que la diferencia final de votos entre Felipe Calderón y Andrés Manuel López Obrador.
W. Luis Mochán
conoce más del autor
 
     
HTML ↓  PDF Regresar al índiceartículo siguiente
     
     
 
Todo proceso de medición lleva aso­cia­do una incertidumbre. Por ejemplo, es imposible distinguir dos objetos mi­cros­cópicos, separados por una distan­cia menor a unas cuantas décimas de millonésima de metro, si para ello em­pleamos un microscopio óptico con­ven­cional, sin importar su calidad o per­fección. Esto es consecuencia del lí­mite de resolución que enunció ­Ernst Abbe en 1873 y está basado en carac­terísticas fundamentales de la luz, del mo­vimiento ondulatorio y sus propie­dades matemáticas. Las limitaciones fundamentales de algunos procesos de medición fueron reconocidas por Hei­sen­berg, quien enunció en 1927 su aho­ra famoso principio de incerti­dumbre.
 
A diferencia de otros procesos de me­dición, el proceso de contar pue­de rea­lizarse en forma esencialmen­te exac­ta. Sin embargo, para conseguir­lo se requiere una ausencia total de erro­res. En un proceso tan complica­do co­mo una elección federal, en cuyo con­teo intervienen cientos de miles o quizás millones de actores, ciudadanos ordinarios en su mayor parte, es prác­ticamente imposible que no se co­me­tan errores. Los funcionarios mejor ca­pacitados y más honestos cometen oca­sionalmente errores. Por lo tanto, es importante tener elementos que per­mitan evaluar los errores para aco­tar su importancia. Si el monto de los erro­res acumulados fuese significati­va­men­te menor que la diferencia entre el nú­me­ro de votos obtenido por los con­ten­dien­tes, simplemente podríamos igno­rar­los. Pero si fuera similar o si sobrepasaran dicha diferencia, re­sol­verlo sería una tarea imposible sin un recuento más cuidadoso en el que se iden­tifiquen y eliminen las fuentes de error en la medida de lo posible. De acuerdo con la sentencia sup-jin-212-2006-Inc2, y otras emitidas por el Tribunal Electoral del Poder Judicial de la Federación (tepjf), el día 5 de agosto de 2006: “Tener certeza sobre la to­ta­li­dad de los votos emitidos y el sentido de ellos adquiere relevancia en las elecciones democráticas para determi­nar al candidato electo, porque tanto los partidos contendientes como la so­ciedad en su conjunto, tienen mayor interés sobre la certidumbre de que el cómputo de los votos se llevó a cabo adecuadamente, y que en verdad la de­cisión mayoritaria es la que se advierte en un primer momento o si las po­si­bilidades de error en el cómputo de varias casillas pudieran llevar, luego de una verificación o recuento, en los términos previstos en la ley, a un resul­tado diferente”.
 
Afortunadamente, entre los datos electorales que recopila el Instituto Fe­deral Electoral (ife), y que los pone dis­ponibles a la ciudadanía, existen muchos que son redundantes; es decir, no son independientes entre sí, por lo que deben obedecer a una serie de constric­ciones, a pesar de ser obtenidos por se­parado. Por ejemplo, consideremos el número total de votos en una urna; éste puede obtenerse sumando los vo­tos que recibió cada candidato, los que recibieron los candidatos no registrados y los votos anulados. También se obtiene contando el numero de boletas depositadas en la urna. Otra forma de obtenerlo consiste en contar cuántos votantes se registraron, ya que cada uno de ellos debió, en principio, depo­si­tar una boleta en cada urna. El núme­ro de ciudadanos que votaron resulta del número de sellos que los funciona­rios de casilla deben estampar sobre la lista nominal para cada ciudadano que vota. Los tres métodos deberían arro­jar el mismo resultado. En algunas ocasiones excepcionales podría esperarse que no lo hicieran; quizás un elec­tor se llevó su boleta, por lo que el nú­mero de boletas es menor al número de sellos; o bien, el elector puede equi­vocarse y depositar su boleta en la ur­na equivocada, en cuyo caso en una ur­na sobrarían y en otra cercana falta­rían votos. Incluso, no es impensable que el elector confunda las urnas de su casilla con las de una contigua. Otra fuen­te de error es una suma mal reali­zada o una captura de datos incorrecta. No es inconcebible que hubiera otras fuentes de error, incluyendo manipulaciones dolosas de boletas, paquetes, actas y datos. En las mismas sentencias, el tepjf señaló: “La comparación de todos esos elementos sirve de control o candado para verificar la corres­pon­dencia del número de votos”.

La existencia de redundancia es in­dispensable para juzgar los resultados de una elección. En otros campos de la actividad humana la empleamos co­tidianamente. Por ejemplo, nuestra expresión facial y nuestro tono de voz suele mostrar alegría cuando damos una noticia particularmente buena o tristeza cuando comunicamos una ma­la. Si nuestro tono de voz o expresión facial fuera inconsistente con el mensaje que comunicamos, la persona con quien hablamos sospecharía que ha habido un malentendido e intentaría aclararlo. En forma similar, la comuni­cación entre dos computadoras requie­re redundancia para poder detectar y corregir errores que inevitablemente induce el ruido electromagnético en algunas transacciones.
 
Para evaluar la existencia y la mag­nitud de los posibles errores en un re­cuento, las actas de la elección contie­nen campos redundantes, los cuales deben ser llenados por los funcionarios de casilla y posteriormente captu­rados en los centros de acopio y trans­misión de datos. El entrenamiento que reciben los funcionarios pretende capa­citarlos para llenar estos campos, ade­más de los campos usuales sobre los votos recibidos por cada partido, alian­za o coalición.

El análisis de algunos de los errores evidentes que se desprenden de la in­for­mación puesta a disposición del pú­blico por el ife, permite sostener que los errores esperados en los resul­ta­dos de la elección son mucho mayo­res que el máximo error tolerable en una elec­ción tan cerrada. Por lo tanto, es indis­pen­sable volver a realizar un conteo de los votos de manera tal que disminuya significativamente el error esperado. De otro modo, no se cumpli­ría el re­qui­sito legal ni técnico de certeza. Re­cor­de­mos que el tepjf, en las sen­tencias men­cionadas, se basó en la definición que proporciona Guiller­mo Cabanellas en el Diccionario enciclopédico de derecho usual, que dice: “La certeza es la cla­ra, segura y firme convicción de la verdad; la ausencia de duda sobre un hecho o cosa”.

La noche de la elección

La noche de la elección, el ife pro­por­cio­nó los resultados parciales del Programa de Resultados Electorales Pre­limi­na­res (prep) a través de páginas web instaladas en varios servidores de cómpu­to. Mediante un pequeño programa, acumulé copias de las páginas publicadas en el sitio http://www.elec­ciones2006.unam.mx/prep2006/index contenido.html y las guardé en mi computadora. Alfonso Baqueiro hizo un programa similar y me envió copias de las páginas capturadas (ambos juegos de páginas están disponibles en http://em.fis.unam.mx/public/mo­chan/elecciones/prep y http://em.fis.unam.mx/public/mochan/elecciones/prep1).

Los datos obtenidos de estas páginas fueron empleados en la fase inicial de un análisis de la elección pre­si­den­cial, el cual puede consultarse en http://em.fis.unam.mx/public/mochan/elecciones/. Aquí voy a referirme únicamente a los errores evidentes que observé al analizar el número de votos por acta que en promedio ob­tuvo cada partido. Este número se con­siguió de la siguiente manera: pri­mero, con una serie de programas simples, extraje los datos relevantes del código html de cada una de las páginas captu­radas; después, armé un archivo con to­dos los datos ordenados de acuerdo con el número total de actas procesadas (http://em.fis.unam.mx/public/mochan/elecciones/diferenciasporcasilla.dat); finalmente, para cada dos registros consecutivos, resté los votos acumulados por cada candidato y divi­dí el resultado entre la diferencia del total de casillas procesadas.
 
En la figura 1 se muestran los resultados.
FIG1
Además del comportamiento de la votación recibida por cada can­didato y de ciertas peculiaridades que requieren ser explicadas (http://em.fis.unam.mx/public/mochan/elec­cio­nes/), aparece una serie de errores evi­dentes cerca del final de la vota­ción, cuando se han procesado cerca de 128 000 casillas. La gráfica muestra una serie de oscilaciones violentas de magnitud tan grande que se salen de la escala de la figura, alcanzando valores mayores a 6 000, y por otro lado, toman­do valores negativos menores a –1 000. Estos resultados, evidentemente erró­neos, fueron consecuencia de una ma­nipulación en el reporte de resultados del prep como se muestra a continuación. En el cuadro 1 se ilustran algunos de los datos obtenidos el día 3 de julio, directamente de las páginas web que reportaron los resultados del prep al término de la elección (http://www.elecciones2006.unam.mx/prep2006/index contenido.html).
FIG2
De acuerdo con los primeros dos renglones de di­cha ta­bla, en cada una de las tres actas re­cibidas después del acta número 127 710, Felipe Calderón (fc) obtuvo en promedio 1 825 votos, Roberto Ma­dra­zo (rm) 6 657 votos y Andrés Manuel Ló­pez Obrador (amlo) 1 216 votos. Si­milarmente, los renglones tercero y cuar­to muestran que en las ocho actas recibidas después de haber procesado 127 724 casillas, fc recibió un promedio de 605 votos negativos, rm 2 416 y amlo 501 votos negativos. Estos núme­ros, así como otros no mostrados por la tabla, son absurdos. Sin embargo, su explicación es sencilla. Observando la última columna, la cual muestra la ho­ra en la que se preparó cada reporte, no­tamos que los renglones de la ta­bla no están ordenados cronológicamen­te. Por ejemplo, a las 12:39 se ha­bían pro­cesado 127 772 casillas y una hora des­pués, a las 13:50, se habían procesado 127 713 casillas; es decir, se elimi­na­ron del reporte no menos de 59 ca­si­llas procesadas con anterioridad. En la figu­ra 2 se muestran los reportes del prep correspondientes. Aparentemen­te, es­te error está relacionado con la eli­mi­na­ción de los votos provenientes del ex­tranjero, los cuales regresaron más tarde, generando otra serie de errores. Aun corrigiendo las actas me­dian­te la incorporación de los votos del extranjero (Rici Lake, http://em.fis.unam.mx/public/mochan/elecciones/archivos/msg00494.html), quedan erro­res en el reporte de los datos.
FIG3
Figura 2. Reporte del prep en tiempo real.

Es importante hacer notar que las ano­malías señaladas en esta sección son errores en el reporte del prep, no en la captura de los datos. Por lo tanto, no tienen una incidencia directa en los resultados de la elección. De hecho, po­dría considerarse que estos erro­res son inofensivos. Cometer errores es hu­mano, así como admitirlos, co­rre­gir­los y explicarlos, hubiera sido una mues­tra de decencia. Sin embargo, en vez de ello, se ha realizado una in­ten­sa campaña de propaganda con el pro­pó­si­to de sembrar, a fuerza de repetición, la noción de que todos los aspectos del proceso electoral fueron impecables y perfectos. Ante esto, es importante en­fa­tizar que: 1) el reporte del prep pre­sen­tó errores obvios como los aquí do­­cumentados; 2) dichos errores muestran la capacidad de funcionarios del ife de interferir con el funcionamiento de las computadoras que elaboraron esos reportes, añadiendo, eliminando y modificando datos; 3) el sistema de cómputo del ife, o al menos la parte en­cargada de reportar los resultados del prep, no es robusto y su funciona­mien­to puede ser interferido; y 4) la ausencia de una explicación de estas anomalías y la enorme campaña de pro­paganda pretendiendo inducir la noción de un proceso perfecto no pue­de más que generar una actitud de des­confianza en cuanto a las otras etapas del proceso electoral.

La base de datos del prep
Unos días después de la elección, el ife liberó una serie de bases de datos don­de se reportan los resultados del prep, las cuales estuvieron disponibles en di­versos sitios de la red. Inicialmen­te, uti­licé una tomada de http://prep2006.grc.com.mx/extraccion-serv­lets/presidente.txt, donde parece ya no estar accesible. Sin embargo, en http:// em.fis.unam.mx/public/mochan/elec­ciones/fullprep.txt monté una co­pia. Ver­siones posteriores y más com­ple­tas —por ejemplo, con campos adi­cio­na­les— de las mismas bases de datos es­tán disponibles en http://www.ife.org.mx/documentos/proceso 2005-2006/prep2006/bd prep2006/bd prep2006.htm, a través del sitio oficial del ife (http://www.ife.org.mx/). De un análi­sis de la base de datos de las actas con­tabilizadas en el prep para la elección presidencial (http://www.ife.org.mx/documentos/proceso 2005-2006/prep2006/bd prep2006/bd prep2006.htm), se desprende que:

1. Contiene 117 287 registros.

2. Están ausentes 13 201 registros ne­cesarios para completar las 130 488 casillas instaladas —excluyendo las co­rrespondientes al voto en el extranjero— y otros 300 registros para incluir los resultados del voto en el extranjero. Existen muchos motivos para expli­car estas ausencias, el principal es la detec­ción de inconsistencias que impidió con­tabilizar dichas actas en el prep.
 
3. Entre los registros que sí están pre­sentes en la base de datos, hay 24 148 incompletos. En estos, hay 31 302 campos numéricos que se dejaron vacíos. En el cuadro 2 se muestran los campos ausentes y el número de veces que quedaron vacíos.
FIG4
4. Los campos ausentes en los re­gis­tros correspondientes a las actas que sí fueron contabilizadas en el prep son aque­llos que aparentemente no afec­tan directamente el resultado de la elec­ción, porque no se referían a la vo­tación obtenida por ninguno de los can­di­da­tos registrados. Las actas con cam­pos au­sentes que sí afectaban directa­mente el resultado de la elección fueron re­gis­tradas en otras bases de datos. Sin em­bar­go, es indispensable enfatizar que los campos ausentes en las actas que sí fueron contabilizadas en el prep son pre­cisamente aquellos que proveen la re­dundancia necesaria para permitir verificar si hubo o no errores o irregu­la­ridades en la casilla correspondiente. En ausencia de dichos campos es im­po­sible aplicar las pruebas de consistencia diseñadas para identificar errores o manipulaciones en los resultados elec­torales. De esa manera, no hay forma de saber si los campos que sí están pre­sentes en dichas actas son correctos, son erróneos o son fabricados.
 
5. Por lo tanto, hay 24 148 registros que corresponden a 21% de las actas con­tabilizadas en el prep y 18% del to­tal de actas de la elección presidencial donde no se pueden aplicar las diversas pruebas de consistencia.

6. En 8 153 de ellos —6% del total— es imposible saber si el número de bo­letas depositadas en la urna es mayor o menor al número de boletas recibidas menos el número de boletas so­bran­tes. Por lo tanto, no podemos sa­ber si en las casillas correspondientes hubo ciu­dadanos que —ilegalmente— se lle­varon boletas que debían haber deposi­tado en las urnas, o si hubo boletas sus­traídas o añadidas de manera irregular.

7. En 19 497 registros —15% del to­tal— es imposible saber si el número de votos contabilizados corresponde al número de ciudadanos que votaron, pues falta este último dato o falta el nú­mero de votos anulados o para candida­tos no registrados, por lo cual el núme­ro total de votos es incierto.
 
8. En 9 862 registros —8% del total— es imposible saber si el número de boletas depositadas en la urna corresponde al número de ciudadanos que votaron, pues algunos de los campos correspondientes están ausentes.

9. En 22 147 registros —19% del to­tal— es imposible saber si el número de votos contabilizados corresponde al número de boletas depositadas en la ur­na, pues falta este último dato o igual para el nú­mero de votos anulados y pa­ra candi­datos no registrados.

10. En algunos registros es imposi­ble aplicar más de una de las pruebas pre­vias. Es por ello que la suma de re­­gis­tros —8 153 + 19 497 + 9 862 + 22 147 = 59 659— con diversos tipos de campos ausentes supera al total de registros —24 148— incompletos.

11. De los 109 134 registros donde sí se puede comparar el número de bo­letas depositadas en la urna con el nú­mero de boletas recibidas y el nú­mero de boletas sobrantes, hay 17 465 (16%) en los cuales el número de boletas de­positadas es mayor en 788 077 a la res­ta del número de boletas recibidas me­nos el número de boletas sobrantes. Es decir, en promedio sobran 45 bo­letas en cada una de estas urnas. También hay 32 758 registros (30%) donde el nú­mero de boletas depositadas es menor en 716 489 a la resta del número de bo­letas recibidas menos el número de bo­letas sobrantes. Es decir, en promedio faltan 22 boletas en cada una de es­tas urnas. En total hay 50 223 casillas (46%) con este tipo de error, el cual involucra 1 504 566 boletas. Restando las boletas que faltan de las boletas que sobran, obtenemos un exceso neto de 71 588 boletas.
 
12. De los 97 790 registros donde sí se puede comparar el número de vo­tos contabilizados con el número de ciu­da­danos que votaron, hay 22 419 re­­gis­tros (23%) en los que el número de vo­tos su­pera en 719 857 al número de ciu­da­danos que votaron. Es decir, en promedio sobran 32 votos en cada una de estas casillas. También hay 22 391 registros (23%) en los cuales el núme­ro de votos contabilizados es menor en 1 043 907 al número de ciudadanos que votaron. Es decir, en promedio fal­tan 47 votos en cada una de estas casillas. En total hay 44 810 registros (46%) con este tipo de error, el cual involucra 1 763 764 votos. Restando los votos que faltan de los votos que sobran obtenemos una deficiencia de 324 050 votos.13. De los 107 425 registros donde sí es posible saber si el número de bo­le­tas depositadas en la urna co­rres­pon­de al número de ciudadanos que vo­taron, hay 17 681 (16%) en las que el nú­mero de boletas supera en 876 422 el número de ciudadanos que votaron. Es decir, en promedio sobran 50 boletas de­posi­tadas en cada urna. También hay 26 342 registros (25%) en los que el número de boletas depositadas es menor en 1 474 589 al número de ciudadanos que votaron. Es decir, en pro­medio faltan 56 boletas en cada urna. En total, hay 44 023 registros (41%) con este tipo de inconsistencia, la cual in­volucra 2 351 011 boletas. Restando las boletas que faltan de las que sobran obtenemos una deficiencia de 589 167 ­boletas.

14. De los 95 140 registros en los que sí se puede comparar el número total de votos contabilizados con el nú­mero de boletas depositadas en las ur­nas, hay 17 889 (19%) en los cuales el numero total de votos es superior en 457 415 al número de boletas depositadas. Es decir, en promedio hubo 26 vo­tos contabilizados por casilla que no corresponden a boletas depositadas en la urna. También hay 9 357 registros (10%) en los que el número total de vo­tos es inferior en 230 927 al número de boletas depositadas. Es decir, en pro­medio hubo 25 boletas depositadas que no fueron contabilizadas por cada una de estas casillas. En total, hay 27 256 re­gistros (29%) que muestran este ti­po de inconsistencia, la cual involucra 688 342 votos. Restando los votos faltantes de los sobrantes obtenemos un exceso de 226 448 votos por arriba del número de boletas depositadas.

Estos resultados están resumidos en el cuadro 3. Como puede apreciarse, todas las inconsistencias verificables involucran cientos de miles o in­cluso millones de boletas.
FIG5
Existen algunas explicaciones ten­ta­tivas para algunas de estas in­con­sis­ten­cias, las cuales es indispensable eva­luar. Por ejemplo, no es inconcebible que un número importante de ciudada­nos se hubiera equivocado en aquellas secciones que contenían casillas contiguas, además de una básica, depositando su boleta en la urna que no le co­rrespondía. Este error, aparentemen­te inofensivo —lo que sobraría en una casilla faltaría en la vecina— es fácil de eliminar de la cuenta de inconsistencias si se realizan las pruebas ante­rio­res no de manera individual, casilla por casilla, sino de forma agregada, sec­ción por sección. Así, la confusión se eliminaría al sumar los datos de, diga­mos, una casilla básica con los de sus casillas contiguas. Si quedan errores, sería necesario encontrar explicaciones alternativas.

En la base de datos de las actas que fueron procesadas y contabilizadas en el prep hay datos de 59 084 secciones. Apliqué las pruebas anteriores pa­ra aquellas secciones cuyos registros con­tenían información suficiente. Es decir, si un registro de una sección no es verificable, considero toda la sección como no verificable. Por lo tanto, los si­guientes datos se refieren a un núme­ro ligeramente menor de casillas que los datos ­previos.
 
De las 51 538 secciones en las que se puede comparar el número de bole­tas depositadas en las urnas con el nú­mero de boletas recibidas y el número de boletas sobrantes, hay 8 299 (16%) en las cuales el número de boletas de­positadas supera en 632 682 a la resta del número de boletas recibidas menos el número de boletas sobrantes. Es de­cir, en promedio sobran 76 boletas en las urnas de cada una de estas secciones. También hay 19 117 secciones (37%) en donde el número de bo­letas depositadas es menor en 580 875 a la resta del número de boletas recibi­das menos el número de boletas so­bran­tes. Es decir, en promedio faltó de­po­sitar 30 boletas en las urnas por cada una de estas secciones. En total, hay 27 416 sec­ciones (53%) con este tipo de error, el cual involucra 1 213 557 boletas. Restan­do las boletas que faltan de las boletas que sobran, obtenemos un exceso ne­to de 51 807 boletas depositadas en las urnas.

De las 42 093 secciones en las cua­les se puede comparar el número total de votos contabilizados con el número de ciudadanos que votaron, hay 11 209 (27%) en las que los vo­tos supera en 517 866 el número de ciudadanos que votaron. Es decir, en pro­medio sobran 46 votos en cada una de estas sec­ciones. También hay 11 289 secciones (27%) en las que el núme­ro de vo­tos contabilizados es menor en 761 954 al número de ciudadanos que vo­ta­ron. Es decir, en promedio faltan 67 votos en cada una de estas secciones. En to­tal, hay 22 498 secciones (53%) con es­te tipo de error, el cual involucra 1 279 820 votos. Restando los votos que faltan de los que sobran obtenemos una deficiencia de 244 088 votos.

De las 50 035 secciones en las que es posible confirmar si el número de bo­letas depositadas en la urna corres­pon­de al número de ciudadanos que vo­taron, hay 9 312 (19%) en las que el número de boletas supera en 685 298 el número de votantes. Es decir, en pro­medio sobran 74 boletas depositadas en las urnas de cada una de estas sec­cio­nes. También hay 15 838 secciones (32%) en las cuales el numero de bole­tas depositadas es menor en 1 213 921 al número de ciudadanos que votaron. Es decir, en promedio faltan 77 boletas depositadas en las urnas que conforman cada sección. En total hay 25 150 secciones (50%) con este tipo de incon­sistencia, la cual involucra 1 899 219 bo­letas. Restando las boletas que faltan de las que sobran obtenemos una defi­ciencia de 528 623 boletas.

De las 40 057 secciones en las que se puede comparar el número total de votos con el número de boletas depositadas en las urnas, hay 11 039 (28%) en las que el número de votos contabilizados supera en 345 112 el número de boletas depositadas. Es decir, en pro­medio hay 31 votos contabilizados por cada sección sin que correspondan a ninguna boleta depositada en las urnas correspondientes. También hay 5 508 secciones (14%) en las que número de boletas depositadas supera en 156 094 al número total de votos. Es decir, en pro­medio hubo 28 boletas depositadas que no fueron contabilizadas en ca­da una de estas secciones. En total, hay 16 547 secciones (41%) que muestran es­te tipo de inconsistencia, la cual in­vo­lucra 501 206 votos. Restando los vo­tos faltantes de los sobrantes obtene­mos que el número de votos contabili­zados supera en 189 018 al número de boletas depositadas en las urnas.

Los resultados anteriores están re­su­midos en el cuadro 4, y muestra que, aun agregando los datos por secciones, los errores e inconsistencias per­sis­ten, disminuyen marginalmente su ta­ma­ño, pero continúan involucrando cientos de miles e incluso millones de boletas, votos, votantes.
FIG6
Debo enfatizar que los datos presentados arriba son co­tas inferiores al número de inconsis­tencias, pues hubo numerosos regis­tros y secciones en las que no se pudie­ron aplicar las pruebas.

Existen muchas otras anomalías en las bases de datos del prep, como 127 re­gistros de casillas no especiales en los cuales el total de ciudadanos que vo­taron (total_ciudadanos_votaron) supera en más de 10 a la lista nominal. Otro tipo de errores se pone de manifiesto al observar la hora de recepción en los Centros de acopio y transmisión de datos (cedat), que arroja datos de 68 casillas recibidas el día anterior de la elección y 1 278 casillas recibidas el día de la elección pero antes del cierre. Es­tos y muchos otros errores y anomalías en el prep están descritos en http://em.fis.unam.mx/public/mochan/elecciones/ y en http://analisis.elec­cio­nes2006.unam.mx/index.php, así co­mo en los trabajos ahí referidos.

Los Cómputos Distritales

El miércoles 5 de julio del 2006, se ini­ciaron las sesiones de los Cómputos Distritales (cd) en cada uno de los 300 Consejos Distritales. El 13 de julio con­seguí las bases de datos del mismo pu­blicadas por el ife en http://www.ife.org.mx/documentos/computos2006/bd computos06.htm. Desgraciadamen­te, dichas bases no contienen los cam­pos redundantes que permitirían verificar la consistencia de los datos que contienen. Por ejemplo, no mencionan el número de boletas depositadas en las urnas —que era el campo llama­do num_boletas_depositadas en las ba­ses de datos del prep—, número de bo­letas recibidas —num_boletas_recibidas—, número de boletas sobrantes —num_boletas_sobrantes—, ni el número de ciudadanos registrados como votantes —total_ciudadanos_votaron. Por lo tanto, es imposible verificar si las in­con­sistencias descritas en la sección anterior fueron corregidas durante el recuento. Sin embargo, puede hacerse un análisis somero del contenido de la base de datos y de su comparación con la del prep.
 
A pesar de que los cd no tienen las fuertes constricciones de tiempo impuestas sobre el prep, y que en ellos deben eliminarse todas las ambigüeda­des, su resultado no es impecable, co­mo muestra el hecho de haber 311 re­gistros con campos en blanco —tipo _acta, paquete_entregado y casilla_instalada.
 
Otra muestra de descuido son los 20 registros —14 de Oaxaca, 2 del Esta­do de México, 2 de Guerrero, 1 de Ba­ja California y 1 de Hidalgo— en los que el total de votos por presidente fue nulo: no hubo votos por ningún partido, alianza o coalición, no hubo votos por ningún candidato independiente y no hubo votos anulados.
 
La base de datos de los cd para la elec­ción de presidente contiene 13 501 actas que no se habían contabilizado en el prep. Los resultados en estas actas son notablemente distintos de los resultados globales —por ejemplo, el pan baja a 31.02%, la apm sube a 30.86% y la cpbt permanece casi invariante con 35.59% de los ­votos.

Los registros que están presentes tanto en la base de datos de los cd co­mo en la del prep difieren únicamente en 4 151 registros.

De entre estos registros, sólo hay 1 243 en donde se modifica el número de votos obtenido por el pan, 1 278 en los que se modificaron resultados pa­ra la apm y 1 458 que afectaron a la cpbt. Un análisis estadístico (http://em.fis.unam.mx/public/mochan/elecciones/) de los cambios que afectaron a ca­da partido muestra que son incompa­tibles —probabilidad menor a 10–17— con la hipótesis de una simple corrección de errores accidentales sin sesgo.

De acuerdo con el ife, sólo se abrie­ron 2 873 paquetes durante los cd. Es in­sólito que, con tantas inconsistencias en la base de datos del prep, su revisión al preparar la base de datos de los cd afectara tan pocos registros. Como se eliminó la redundancia que permitiría revisar la existencia de inconsistencias, no hay más remedio que dar por hecho que las inconsistencias en los cd son del mismo orden de magni­tud que la que hubo en el prep; es de­cir, hay decenas de miles de casillas, más de 50% del total, en donde existen inconsistencias que involucran millones de votos.

Conclusiones

Este trabajo muestra que hubo errores y manipulación en el sistema de cómpu­to encargado de reportar los re­sultados del prep en tiempo real durante la noche de la elección y al día siguiente.
También muestra que hay un gran nú­mero de inconsistencias en las actas del prep, tal y como fueron reporta­das en las bases de datos hechas pú­bli­cas por el ife. Con frecuencia, el número de boletas depositadas en las urnas no fue consistente con el núme­ro de boletas sobrantes; el número de boletas recibidas y el número de votos no coin­cidió con el número de ciu­da­danos que votaron, el número de bo­letas deposi­tadas difirió del número de ciudadanos que votaron o del nú­mero de votos con­tabilizados. Cada tipo de error abarca decenas de miles de casi­llas e involucra cientos de miles y, en ocasiones, millones de votos. La magnitud de los errores, distribuidos en aproximadamente la mitad de las más de 130 000 casillas, supera varias veces la diferencia entre el número de votos obtenido por el pan y por la cpbt.

Es probable que muchas de las inconsistencias tengan su origen en sim­ples errores humanos cometidos sin dolo. Una explicación sobre la cual se ha especulado consiste en la confusión de algunos ciudadanos ante la cercanía de las casillas básicas y contiguas de la misma sección. Como parte de es­te trabajo verifiqué que dicha confu­sión pudo producir parte de las incon­sis­tencias, pero que es insuficiente pa­ra explicar su magnitud, la cual no de­crece significativamente al agregar datos por sección.

Otros errores pudieron originarse en simples confusiones de los fun­cio­na­rios electorales al momento de llenar las actas. Probablemente el proce­so fue complicado y la capacitación insufi­cien­te. Por ejemplo, hay alrededor de 1 000 registros donde coinciden las bo­le­tas sobrantes con las recibidas y al­re­de­dor de 600 donde coinciden las de­po­si­ta­das con las recibidas. Seguramente, los funcionarios de esas casillas no supieron diferenciar los campos correspondientes de las actas. De nuevo, este tipo de confusiones no lo­gra explicar la magnitud de los errores. Por otro lado, no deben descartarse a priori otras explicaciones menos inocentes.
Las fallas evidentes en el prep de­bie­ron corregirse de oficio durante los Cómputos Distritales. Sin embargo, el número de paquetes electorales revisados en los cd y el número de actas en las que se registraron cambios es mu­cho menor al número de inconsistencias del prep, evidencia de que la ma­yor parte de ellas no fueron corregidas. Desgraciadamente, las bases de datos de los cd no contienen los campos redundantes que permitirían verificar esta afirmación.

En resumen, he presentado errores e inconsistencias evidentes en va­rias de las etapas de la elección presidencial de julio de 2006. El análisis ha de­jado de lado las anomalías en los resul­tados electorales, en su comporta­miento estadístico y en la evolución tem­poral de su captura durante el prep y durante los Cómputos Distritales, los cuales son temas relativamente con­troversiales que requieren cierto grado de interpretación.

Muchos de los análisis relacionados con dichos aspec­tos pueden hallar­se en http://em.fis.unam.mx/public/mo­chan/elecciones/ y http://analisis.elec­ciones2006.unam.mx/index.php. En cambio, los re­sultados aquí pre­sen­ta­dos pueden considerarse co­mo simples datos ­duros.

Independientemente de su origen, los errores e inconsistencias hallados son tan grandes que mientras no se eli­minen, impedirán designar con cer­teza un ganador de la contienda electoral. Ante una medición que resultó no tener la suficiente resolución, no veo otra alternativa más que realizar otra medición, esta vez más fina. Es indispensable realizar un recuento to­tal para poder resolver la elección.
W. Luis Mochán
Centro de Ciencias Físicas,
Universidad Nacional Autónoma de México.
Nota
Este texto fue publicado en Internet el 27 de agosto de 2006 en el sitio http://em.fis.unam.mx/public/mochan/elecciones/paperMochan.pdf
W. Luis Mochán Backal es Doctor en Ciencias (Física) de la Facultad de Ciencias, unam. Actualmente es investigador titular C Catedrático ii-unam, profesor de la Facultad de Ciencias de la Universidad Autónoma del Estado de Morelos y Nivel III del sni.
_______________________________________________________________

 

como citar este artículo

Mochán, W. Luis. (2006). Incertidumbre y errores en las elecciones de 2006. Ciencias 84, octubre-diciembre, 38-49. [En línea]
  ←Regresar al índiceartículo siguiente→
1 12
     
Elecciones del 2006, un análisis del conteo rápido
En este espacio presentamos de manera breve algunos elementos del conteo rápido del 2006, pero sobre todo, los valores estimados obtenidos la noche de la elección y una serie de figuras que ilustran gráficamente algunos aspectos de los resultados numéricos obtenidos.
Guillermina Eslava
conoce más del autor
 
     
HTML ↓ PDF Regresar al índiceartículo siguiente
     
 
 
 
 
Para estimar los resultados electorales se han realizado nu­merosos y muy diversos ejercicios estadísticos, desde en­cuestas preelectorales, hasta encuestas de salida, conteos rápidos y encuestas postelectorales. En general, están basados en muestras probabilísticas y producen estimaciones en distintos tiempos y con diferentes grados de incertidumbre, que son inherentes a cualquier valor estimado partiendo de una muestra probabilística. También conllevan la incertidumbre propia de la calidad del proceso de recolección y procesamiento de la información.

Las encuestas preelectorales toman la información de vo­tantes potenciales, generalmente ciudadanos que dicen te­ner credencial para votar. Además de estimar los porcenta­jes de votación en favor de los distintos partidos, candida­tos o fuerzas contendientes, obtienen información adi­cio­nal que permite a los diversos partidos construir un perfil del votante potencial, así como aquella de interés para quien planea las campañas preelectorales y de publicidad. Los resultados difundidos tienen cierto tiempo de des­fase respecto al tiempo en que se recolecta, pues se pone a disposición del público una vez que la información fue levantada, filtrada y procesada. La metodología es va­riada, no sólo en cuanto al diseño muestral usado, que depende de la forma en que se construye, y del tamaño y la distribución de la muestra, sino también en cuanto a los métodos de recolección en el campo y los métodos de estimación.

Un tipo particular de encuestas preelectorales son las telefónicas, las cuales proporcionan resultados que reflejan la opinión de sólo una parte de la población, si consideramos que la penetración del teléfono en el país es de aproximadamente 37%, y va de acuerdo con las estimacio­nes de la muestra asociada al Censo General de Población y Vivienda 2000 de 12% en el estado de Chiapas a 67% en el Distrito Federal.

Las encuestas de salida toman la información de votan­tes consumados; esto es, se selecciona una muestra, en prin­cipio probabilística, de personas que han votado, las cuales son entrevistadas al salir de la casilla. La muestra probabilística la conforman las casillas donde se realizan las entrevistas. Estas encuestas producen estimaciones du­rante el día de la elección en diversos cortes hasta terminar al momento del cierre de casillas, a las 18 horas del tiempo local.
Los conteos rápidos se realizan la misma noche de la elec­ción y toman la información del resultado de la casilla reportado, sea en la hoja de operaciones de cómputo o en el acta de escrutinio y cómputo aprobada por los funciona­rios de casilla. Al igual que en el caso anterior, las casillas seleccionadas donde se recoge la información constituyen una muestra probabilística. El producto de un conteo rápi­do generalmente estima el resultado final de los cómputos distritales del 5 de julio, hasta antes de considerar imputa­ciones y ajustes finales realizados y aprobados por el Tribu­nal Electoral del Poder Judicial de la Federación (tepjf).

Finalmente, las encuestas postelectorales son un ejercicio que se realiza después de la elección y que recoge la información de ciudadanos para dar estimaciones y perfiles de los votantes consumados, y de los no votantes, de acuerdo con su opinión o inclinación hacia los distintos partidos.
 
Todos estos ejercicios, basados en muestras probabilísticas, se realizan en diversos niveles: municipal, distrital, estatal y nacional. Algunos son difundidos en los medios de comunicación y otros son empleados para monitoreo interno de los partidos o grupos de interés.

Existen otros dos ejercicios que no están basados en muestras, sino que se enfocan al registro de los resultados por casilla para el total de las casillas, son el Programa de resultados electorales preliminares (prep) y los cómputos distritales.

El prep registra, de forma electrónica y secuencial, los resultados de cada casilla electoral tomando el dato que apa­rece en la hoja de escrutinio y cómputo destinada específicamente al programa, y entregada por el funcionario de casilla en la oficina de cómputo del distrito que le corres­ponde. Inicia el registro de la información el día de la elec­ción al cierre de las casillas y ofrece resultados desde las 20 horas del tiempo del centro del país.

Sin embargo, el resultado oficial se basa en los cómpu­tos distritales de todas las actas de casilla realizados el 5 de julio en cada uno de los 300 distritos electorales. Finalmen­te, las cifras reportadas por estos cómputos sufren cambios o ajustes derivados de las impugnaciones, correcciones o can­celaciones aprobadas por el tepjf. Así, puede decirse que el resultado de los cómputos distritales de actas, inicia­dos el 5 de julio y reportados el día 6, también aproximan el resultado final oficial emitido por el tepjf. La fuente de información en este cómputo oficial es el acta de escrutinio y cómputo de cada casilla electoral.
 
Los ejercicios de conteo rápido para estimar, la noche de la elección, los porcentajes de votos en favor de cada par­tido contendiente, y por lo tanto del candidato ganador, son realizados con cierta regularidad, en los niveles nacio­nal, estatal, distrital y municipal, por instituciones guberna­mentales, no gubernamentales, empresas privadas y medios de comunicación.

Para las elecciones presidenciales de 2006 se efectuaron va­rios conteos rápidos, algunos públicos y otros no, con una diversidad de estrategias en cuanto al diseño muestral y al tamaño de muestra. Este tipo de ejercicios inició en 1994 para las elecciones presidenciales con la intención de ofre­cer resultados casi inmediatos a la sociedad. En ese año, fue­ron comisionadas por las autoridades federales tres em­presas independientes para realizar tres conteos rápidos, y los resultados no se presentaron al pú­blico. En las elec­ciones federales de 2000, nuevamente fue­ron comisio­nadas tres empresas independientes; pero esa vez se les en­comendó recolectar la información en las ca­sillas electo­rales correspondientes a tres muestras independientes y un comité técnico se encargó de procesar la información y obtener los valores estimados de los porcen­tajes de vota­ción en favor de cada partido o coalición; en aque­lla ocasión, los resultados fueron difundidos por el ife la misma noche de la elección. En 2006, por primera vez el ife realiza un conteo rápido de forma independiente y autónoma; todo el proceso lo realizó personal interno bajo la coordinación de un Comité técnico asesor para los con­teos rápi­dos (ctacr), el cual se encargó de diseñar la mues­tra y de pro­cesar la información recabada la noche de la elec­ción. A pesar de que se obtuvieron estimaciones puntuales de los porcentajes, dos de los intervalos de confiabi­lidad aso­cia­dos no se separaron por más de 0.006, margen acor­dado para poder proporcionar los resultados la misma noche. Por esta razón no se difundieron las cifras estimadas, sino solamente el aviso de que estadísticamente no era posible distinguir con un alto grado de confiabilidad a un candida­to ganador. Las estimaciones se hicieron públicas el día 3 de julio en conferencia de prensa.
 
Desde el punto de vista metodológico, el conteo rápido es un ejercicio que, basado en una muestra probabilística de resultados de casillas electorales, estima el porcentaje de vo­tos en favor de cada uno de los partidos o coaliciones con­tendientes. Esta estimación lleva asociada un error acotado en términos probabilísticos.
A
donde ˆPA es la estimación de PA; PA es la proporción de vo­tos en favor de un partido o coalición A; δ es la cota del error y α es un valor entre 0 y 1 que determina el nivel de confianza o el grado de incertidumbre de la estimación. El error depende directamente de la variabilidad de la ca­racte­rís­ti­ca de interés que pretende medirse en las unidades pobla­cionales, e inversamente del tamaño de la ­muestra.

Para determinar el diseño y la estimación de la cota al error, se hizo uso de los resultados por casilla registrados en el prep de las elecciones presidenciales del año 2000 —es­tos valores estimados aparecen en el cuadro 4. En la figura 1 se presentan gráficamente la información del prep 2000 y el desarrollo de las estimaciones clásicas del conteo rápido del mismo año.

Por su parte, las principales características del conteo rápido de 2006 son las siguientes: un marco muestral de 130 500 casillas contenidas en 300 distritos electorales y listadas en el padrón electoral; el diseño muestral es un muestreo estratificado simple de casillas; el tamaño y la distribución de muestra fue de 7 636 casillas en 481 estratos; el criterio de estratificación fue distrito y tipo de sección —urbana, no urbana—; la información en el campo fue recopilada por capacitadores asistentes electorales del ife; la unidad de observación fue la hoja de operaciones de cómputo de la casilla; la transmisión telefónica se efectuó hacia un centro de acopio distrital y luego, en forma electrónica, hacia una central de cómputo, donde se realizó el procesamiento, el análisis y la producción de las es­timaciones.
 
Fue un proceso largo, complejo y un trabajo de equipo coordinado. La información inicial viaja y se procesa para lle­gar hasta la conformación de una estimación final; en for­ma esquemática puede verse como sigue: voto → urna → con­teo de votos → hoja de operaciones de cómputo → ofi­cina distrital vía telefónica → oficina central vía elec­tró­nica → computadoras personales → procesamiento de la in­formación y generación de estimadores → análisis de con­sistencia y cotejo de resultados para alcanzar una conclusión → comunicación de resultados.

El conteo rápido, por ser de carácter institucional y cu­yos resultados serían la base de un comunicado difundido a la ciudadanía la misma noche de la elección, estuvo sujeto a acuerdos previos y a restricciones como guardar la confidencialidad de la muestra; realizar estimaciones por intervalos de cuando menos una confiabilidad de 95%; que para identificar un partido o coalición ganadora, los intervalos asociados a los porcentajes estimados de votos para los partidos mayoritarios deberán distar en al menos 0.6% (0.006); el ejercicio se realizaría entre las 18 y las 22:30 o 24 horas; y respetar el formato de comunicación de resultados aprobado por los consejeros electorales y los representantes de los partidos.

Los resultados numéricos

Las estimaciones presentadas se obtuvieron con tres méto­dos: el clásico, el bayesiano y el robusto. El cálculo se rea­lizó con base en la información recibida en la remesa de las 22:15 horas, donde se tenía resultados de 7 263 casillas dis­tribuidas en 480 estratos y en los 32 estados —estos ­datos se presentan en el cuadro 1, que además muestra los re­sul­tados procesados a partir de la base de datos de los cómpu­tos distritales, que esta disponible en forma electrónica en el portal del ife.
X
En las figuras 2 y 3 se ofrecen las gráficas que ilustran la evolución de las estimaciones para llegar hasta las esti­ma­ciones presentados en el cuadro 1. En la figura 4 se presen­ta la evolución del registro secuencial de resultados en el prep. Queremos comentar que los valores observados en las gráficas 2 y 3 correspondientes a horas tempranas, no pueden considerarse como estimaciones específicas, bási­camente por insuficiencia de la muestra. Sin embargo, el historial de las estimaciones para llegar al resultado repor­tado sirve de guía para tomar decisiones sobre la suficiencia de la muestra y la estabilidad en las estimaciones.
Y
La riqueza del conteo rápido 2006

El diseño muestral del conteo rápido, incluyendo el ta­ma­ño de la muestra, permitió generar estimaciones estadís­ti­ca­mente confiables para subpoblaciones de interés. Por ejem­plo, para la subpoblación contenida en los 28 distritos con alta presencia indígena, y para cada una de las cin­­co cir­cuns­cripciones. La primera circunscripción corres­ponde a Baja California, Baja California Sur, Chihuahua, Du­ran­go, Jalis­co, Nayarit, Sinaloa y Sonora; la segunda, Aguas­ca­­lientes, Coahuila, Guanajuato, Nuevo León, Querétaro, San Luis Potosí, Tamaulipas y Zacatecas; la tercera, Campeche, Chiapas, Oaxaca, Quintana Roo, Tabasco, Veracruz y Yuca­tán; la cuarta, el Distrito Federal, Guerrero, Morelos, Pue­bla y Tlaxcala; y la quinta, Colima, Hidalgo, Estado Mé­xico y Michoacán. El diseño muestral usado fue un diseño autopon­derado, con ajustes ligeros para evitar estratos muy pe­queños, lo cual hace que la información sea ro­busta cuando se emplean distintas técnicas de estimación, además, el tamaño y la distribución de la muestra fue lo suficientemente grande para poder obtener estimaciones en niveles más desagregados de la población. En los cuadros 2 y 3 se presenta información desagregada con estimaciones gene­radas bajo el método clásico.
 
En el cuadro 2 puede observarse las estimaciones gene­radas en el nivel de circunscripción, junto con los valores de los cómputos distritales del 5 de julio —esto se muestra gráficamente en la figura 5, mientras que en el cuadro 3 se presentan las estimaciones puntuales y por intervalo para la subpoblación conformada por los 28 distritos electorales con alta presencia de población indígena, y para su complemento contenido en los 272 distritos restantes.
 
Finalmente, aunque quizá sólo de interés metodoló­gico, en el cuadro 4 presentamos los errores esperados apro­xi­ma­dos, éstos son valores estimados en base con los resul­ta­dos por casilla reportados en el prep de 2000, y son aproximados porque existió una redistritación entre 2000 y 2006, por lo que el marco muestral o padrón electoral de 2000 difiere del correspondiente a 2006. Estos errores los contras­tamos con los errores estimados observados el día de la elec­ción, basados en la muestra del conteo rápido de 2006. Por último, una vez pasada la elección, y haciendo uso de los resultados por casillas de los cómputos distritales, se eva­lúa el error esperado, considerando el diseño muestral usado en el conteo rápido de 2006.

Comentarios


En general, la realización del conteo rápido resultó exi­toso y generó estimaciones muy cercanas a las reportadas con base en los registros del conteo distrital de actas, como pue­de constatarse al comparar los valores estimados con los valores reportados.
 
Es de esperarse que además del error de estimación del conteo rápido, que se acota desde el diseño bajo una medi­da de probabilidad y no de certeza, existen discrepancias respecto al resultado final oficial emitido por el tefpj, pues en esta instancia ocurren modificaciones al resultado emitido por los conteos distritales, las cuales son producto, como ya se señaló, de las modificaciones derivadas de im­pugnaciones, anulaciones o correcciones en los resultados de las actas.
 
Por otro lado, es un ejercicio estadístico que enriquece las formas de registro y de estimación para elecciones fu­turas, dejando constancia de un procedimiento con resultados obtenidos tanto de forma global como desagregada y que, junto con los registros electrónicos del prep y de los conteos distritales, son de gran utilidad, no sólo para la aca­demia, sino también para la ciudadanía interesada en ello, y desde luego para las instituciones encargadas de conducir las elecciones en cualquier nivel en el país.
Guillermina Eslava
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Agradecimientos
 
Todo este trabajo es parte, como ya lo indiqué, del proceso preparado y generado por el ctacr, su coordinador y personal del ife, a quienes expreso mi gratitud por la colaboración de equipo para la obtención de resultados. El Comité técnico asesor para los conteos rápidos estuvo conformado como sigue: Act. M. Cervera Flores (ip), Dra. G. Eslava Gómez (fc), Dr. R. Hernández Cid (itam), Dr. I. Méndez Ramírez (iimas), Dr. M. Mendoza Ramírez (itam); y fue coordinado por el Dr. A. Alonso y Co­ria (ife). Agradezco también al Dr. R. Mena Chávez (iimas), quien elaboró el programa de cómputo usado la noche de la elección para la generación de una de las tres estimaciones clásicas. Las gráficas presentadas en este trabajo fueron elaboradas por Gonzalo Pérez de la Cruz, pasante de actuaría de la Facultad de Ciencias, a quien agradezco su atenta colaboración. Finalmente agradezco al Dr. Ramón Peralta y Fabi, director de esta Facultad, por el apoyo durante el semestre que partici­pe en el ctacr y la invitación para escribir este tra­bajo.
Guillermina Eslava Gómez es Actuaria y Maestra en estadísticas por la unam, y Doctora en estadística por la Universidad de Oxford, Inglaterra. Actualmente es Profesora de Tiempo Completo de la Facultad de Ciencias, unam.
 _______________________________________________________________

como citar este artículo

Eslava, Guillermina. (2006). Las elecciones de 2006, un análisis del conteo rápido. Ciencias 84, octubre-diciembre, 30-37. [En línea]
  ←Regresar al índiceartículo siguiente→
1 12
     
Un número y una sucesión que han hecho historia
En este artículo se presentan algunas de las múltiples relaciones que tiene la sucesión de Fibonacci con diversos fenómenos. Entre ellas, se describe el vínculo que tiene esta sucesión con la razón aúrea.
Radmila Bulajich
conoce más del autor
 
     
HTML ↓ PDF Regresar al índiceartículo siguiente
     
     
Estrechamente vinculada con el arte, las ciencias y las matemáticas, la sucesión de Fibonacci ha intrigado a los mate­máticos durante siglos; en parte, por su tendencia a presentarse en los lugares más imprevistos. A principios del siglo XIII, Leonardo de Pisa, mejor conocido como Leonar­do Fibonacci, planteó en su libro Liber Abaci un problema que se hizo famoso por las diversas relaciones que se han encontrado, no sólo con las matemáticas, sino con múltiples fenómenos. El problema es el siguiente: un hombre pone en una jaula una pareja de conejos bebés. ¿Cuántas pa­rejas pueden reproducirse en un año si suponemos que cada mes, cada pareja engendra una nueva pareja, la cual después del segundo mes se vuelve reproductiva?
 
La solución al problema es relativamente sencilla. Des­pués del primer mes, la primera pareja crece, entonces ten­dremos una pareja madura. Después del segundo mes, ésta engendra una nueva pareja, por lo que tendremos dos pa­rejas. Después del tercer mes, la primera pareja engendra otra y la pareja de conejos bebés madura, tenemos 3 pa­rejas. Después del cuarto mes, cada una de las parejas maduras engendra otra y la pareja bebé madura, es decir, habrá 5 parejas. Si continuamos este proceso, después del quinto mes tendremos 8 parejas, después del sexto 13 pa­rejas, etcétera. Esto puede verse claramente en la figura 1, donde las parejas maduras están representadas por los co­nejos grandes y las inmaduras por los pequeños.
 
Observemos que si contamos el número de parejas de conejos adultos, el de conejos bebés, así como el número total de parejas de conejos cada mes, todos van aumentando de la misma forma: 1, 1, 2, 3, 5, 8, 13,…
 
En la segunda mitad del siglo xix, la sucesión 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233,…, en la cual cada término es igual a la suma de los dos anteriores —empezando con el tercer elemento— fue denominada por el matemático francés Edouard Lucas, la sucesión de Fibonacci y representa la primera sucesión recursiva —llamada así porque los términos sucesivos se encuentran a partir de relaciones con los términos anteriores— que se conoció en Europa. Es decir, si denotamos por Fn al n-ésimo término de la sucesión tenemos que:
fig1
Para que quede únicamente determinada es preciso pro­porcionar los dos números iniciales. Es decir, para tener la sucesión de Fibonacci, tenemos que definir que:
A
Ralph Waldo Emerson, en su libro The Natural History of Intellect, menciona que “la sucesión de Fibonacci se en­cuentra en una gran variedad de fenómenos no relacionados entre sí”, razón por la cual se volvió tan famosa. Un ejemplo es la óptica de los rayos de luz, un fenómeno que nada tiene que ver con los conejos. Supongamos que tene­mos dos placas de vidrio con distintos índices de refracción, pegados cara con cara como se muestra en la fi­gura 2.
fig2
Si lanzamos un rayo de luz, en principio se refleja in­ternamente en cuatro superficies reflejantes antes de emer­ger. Más específicamente, puede pasar sin reflejar­se en absoluto o pueden tener una, dos o tres reflexiones in­ter­nas, antes de emerger. Potencialmente, puede presentar un número infinito de reflexiones antes de emerger —todas son trayectorias permitidas por las leyes de la óptica. Ahora bien, contemos las formas en que se pue­den reflejar los rayos, para un número dado de reflexiones del rayo de luz, antes de emerger. Es 1 si no hay reflexión, 2 si permiti­mos una reflexión, 3 si son dos reflexiones, 5 si hay tres re­fle­xiones, 8 trayectorias si permitimos cuatro reflexiones, et­cétera. El número de trayectorias es 1, 2, 3, 5, 8, 13,… y for­ma una sucesión de Fibonacci (figura 3).
fig3
Consideremos ahora un problema totalmente distinto. Un niño quiere subir una escalera. El número máximo de es­calones que puede subir al mismo tiempo es dos; es de­cir, puede subir uno o dos escalones a la vez. Si tenemos n es­calones en total, ¿de cuántas formas distintas (Cn) puede subir los escalones?
 
Si hay únicamente un escalón, claramente sólo hay una forma. Si hay dos escalones, los puede subir de dos for­mas: un escalón a la vez o los dos juntos. Si hay tres escalones, entonces el número de formas en que puede subirlos es tres:
B1
Si hay cuatro escalones, el número de formas aumenta a C4 = 5 y son:
B2
si hay cinco escalones, el número de formas aumenta a C5=8 y son:
C1
Encontramos que el número de posibilidades crece como:
C2
Un problema similar es el siguiente: se tiene un edificio con 30 pisos y se quiere pintar cada piso de azul o de blan­co, con la condición de que no haya dos pisos juntos pin­tados de azul. Hay que encontrar todas las formas posi­bles de pintar todos los pisos del edificio. La solución es aná­loga al problema anterior.
 
Finalmente, examinemos el árbol genealógico de un zán­gano —el macho de las abejas. Los huevos de las abejas obreras que no se fertilizan se convierten en zánganos; es decir, los zánganos no tienen padre, únicamente madre. Los huevos de las abejas reinas son fertilizados por los zánganos y se convierten en abejas hembras —sea obreras o reinas. Por lo tanto, los zánganos tienen un pariente —la madre— y dos abuelos —los parientes de la madre—, tres bi­sabuelos —los padres de la abuela y la madre del abuelo—, cinco tatarabuelos —dos por cada bisabuela y uno por el bisabuelo— y así sucesivamente. El número de parientes en el árbol genealógico de un zángano varía como una sucesión de Fibonacci 1, 1, 2, 3, 5, 8,…, como se muestra en la figura 4.
fig4
La Razón aúrea

El número aúreo, también conocido como razón aúrea, di­vina proporción o número de oro, fue descubierto en la Antigüedad como relación o proporción entre partes de un cuerpo o entre cuerpos. Aparece en Los Elementos de Eucli­des en varios lugares. La primera definición de esta razón se encuentra, en relación con la proporción de áreas de po­lígonos, en el Libro II; la segunda definición, en relación a la proporción de segmentos, está en el Libro VI. Especial­mente, Euclides usa la razón aúrea en la construcción del pentagrama en el Libro IV, y la del icosaedro y el dode­cae­dro en el Libro XIII.
 
Veamos una construcción simple para entender la definición que proporciona Euclides de la razón aúrea.
 
En la siguiente figura, la recta AB se divide por un pun­to C, de tal forma que
D
Si suponemos que el segmento original mide x + 1 y AC = x, podemos traducir la ecuación anterior como:
E1
Resolviendo la ecuación, tenemos que
E2
El primer número se conoce como la razón aúrea y es
E3
que denotaremos como ϕ. Observemos que el inverso de este número es:
E4
y el cuadrado es:
E5
Es decir, el inverso se obtiene restándole 1 y el cua­dra­do sumándole 1. Tenemos además que ϕ es un número irra­cional.
 
¿Cómo esta división de la línea está relacionada con el pentágono? Recordemos que en cualquier polígono regular la suma de los ángulos interiores está dada por 180º(n–2), donde n es el número de lados. Por tanto, cada ángulo de un polígono mide 540/5=108º. Supongamos que dibujamos dos diagonales adyacentes en un pentágono, formando tres triángulos isósceles (figura 5).
fig5
Los ángulos iguales en la base del triángulo interior miden 72º. Si bisecamos uno de estos ángulos obtenemos un triángulo menor BCD.
Los triángulos ABC y BCD son semejantes, luego:
F1
 
pero DB=BC=AD, luego:
F2
además AB=AC, entonces:
F3
Esto es, D divide el segmento AC en la razón aúrea; también tenemos, que:
G
es decir, en el pentágono regular la razón entre una diago­nal y un lado es ϕ.
Si ahora dibujamos todas las diagonales del pentágono obtenemos un pentagrama (figura 6).
fig6
Observemos que se for­ma nuevamente un pentágono regular más chico, donde podemos nuevamente formar un pentagrama y así suce­sivamente hasta el infinito. Ahora, también formamos un pentagrama si extendemos los lados del pentágono ori­gi­nal y unimos las cinco puntas, es decir, se forma nuevamen­te un pentágono regular y así podemos continuar hasta el infinito.
 
Utilizando la semejanza de triángulos podemos observar que la razón entre los lados marcados en la figura tam­bién es la razón aúrea, esto es:
H
Veamos ahora, algunas propiedades algebraicas de la ra­zón aúrea. Supongamos que queremos determinar el va­lor de:
I
entonces, elevando al cuadrado la ecuación tenemos que:
J
es decir, x2 =1+x, que es precisamente la razón aúrea. Ob­servemos también que podemos definir la razón aúrea me­diante una fracción continua, es decir:
K
esto lo podemos escribir como:
L
que nuevamente nos define la razón aúrea.
 
¿Qué relación hay entre esto y la sucesión de Fibonacci? Como vimos, la sucesión de Fibonacci está formada por los números: 1, 1, 2, 3, 5, 8, 13, 21,34, 55, 89, 144,…, consideremos la razón de los números sucesivos, calculados hasta el sexto decimal:
M
vemos que convergen a la razón aúrea, es decir:
N
se aproxima a ϕ cuando n se hace suficientemente grande. Esta propiedad fue descubierta en 1611 por el famoso astrónomo alemán Johannes Kepler, pero pasaron más de cien años antes de que la relación entre los números de Fi­bo­nacci y la razón aúrea fuera demostrada por el matemático escocés Robert Simson.
 
Por otra parte, hay un gran número de hechos curiosos que pueden deducirse a partir de distintas relaciones con los números de Fibonacci. Veamos algunas de ellas.

Cuadrando rectángulos. Si sumamos un número impar de productos de números sucesivos de Fibonacci, como por ejemplo:
O
obtenemos el cuadrado del último número de Fibonacci que se utilizó:
P
Esta propiedad puede representarse geométricamente de manera muy bonita. Consideremos rectángulos cuyos la­dos miden dos números de Fibonacci consecutivos, es de­cir, un cuadrado de 1×1, un rectángulo de 1×2, uno de 3×5 y así sucesivamente. Los acomodamos como se mues­tra en la figura 7 y vemos que se forma un cuadrado de lado 21.

Divisibilidad entre 11. Si sumamos los primeros diez números de Fibonacci obtenemos un número divisible entre 11, es decir:
Q
Lo mismo es cierto al considerar cualesquiera diez números consecutivos de dicha sucesión. Además, la suma de diez números consecutivos de Fibonacci es siempre igual a once veces el séptimo número que aparece en la suma de los diez números consecutivos, por ejemplo:
R
Periodicidad en los números de Fibonacci. Los números de Fi­bonacci se hacen muy grandes rápidamente, ya que siem­pre añadimos dos para formar el tercero. Por ejemplo, el quinto número de Fibonacci es 5 mientras el número 125 es 59 425 114 757 512 643 212 875 125. Pero, ¿cómo po­demos calcular los números de Fibonacci sin conocer los anteriores? En el siglo xix, el matemático francés Jacques Phillipe Marie Binet redescubrió una fórmula, que aparentemente ya sabían desde el siglo anterior Leonard Euler y Abraham de Moivre, la cual permite conocer cualquier nú­mero de Fibonacci (Fn) si sabemos su lugar en la se­cuencia, y sin haber calculado todos los anteriores. Esta fórmula esta relacionada con la razón aúrea:
S
A primera vista, es desconcertante; ya que ni siquiera es obvio que si sustituimos varios valores de n nos dará un entero. Como ya sabemos que los números de Fibonacci están íntimamente relacionados con la razón de oro, tal vez sea menos sorpresiva, pues el primer término simplemente es la razón aúrea elevada a la potencia n, es decir, ϕn y el segundo es (1/ϕ)n. Para valores grandes de n, el se­gundo término tiende a cero y entonces el n-ésimo número de Fibonacci se acerca mucho:
T1
Por ejemplo, el décimo número de Fibonacci se apro­xima a:
T2
y precisamente es 55.
Veamos ahora las propiedades de periodicidad. El segun­do número de Fibonacci es 1 y el número 62 es 4 052 739 537 881, que termina en 1; el número que está en el lugar 122 es 14 028 366 653 498 915 298 923 761, que también termina en 1. De hecho, puede verse que la termina­ción en 1 se presenta cada 60 números de Fibonacci. Simi­lar­mente, el número que está en el lugar 14 es 377 y el número que ocupa el lugar 74 es 1 304 969 544 928 657, que también termina en 7, y así sucesivamente. Esta propiedad fue descubierta por el matemático francés J. Louis La­grange en 1774.
 
Los últimos dos dígitos, si pensamos en la sucesión como 01, 01, 02, 03, 05, 08, 13, 21,…, se repiten en la secuen­cia cada 300 números, es decir, con periodicidad 300 y los últimos tres dígitos con periodicidad de 1 500. En 1963, Stephen P. Geller usó una computadora para mostrar que los últimos cuatro dígitos se repiten con una periodicidad de 15 000, los últimos cinco con periodicidad de 150 000 y los últimos seis con una periodicidad de 1 500 000. No continuó porque su computadora no pudo calcular más núme­ros. Geller comentó en dicha ocasión que “no parece haber ninguna manera de adivinar el próximo periodo, pero tal vez haciendo un nuevo programa para la máquina que permita iniciar la secuencia en cualquier punto, recortará el tiempo necesario de trabajo y se puedan calcular más números”. Poco tiempo después, el matemático israelí Dov Jarden probó rigurosamente que para cualquier número de Fibonacci de tres o más dígitos la periodicidad está re­la­cionada con el número de dígitos que queremos que sean iguales, es decir, la periodicidad será 15×10n–1, donde n es el número de dígitos que queremos que se repitan —por ejemplo, para tener periodicidad de siete dígitos, te­nemos que ésta será cada 15×106 números.
 
Los números de Fibonacci y las ternas Pitagóricas. Las ternas Pitagóricas son tripletas de números que forman los catetos de un triángulo rectángulo y su hipotenusa; es decir, los números a, b y c forman una terna Pitagórica si:
U
Por ejemplo, una terna está formada por los números 3, 4, 5, ya que 32+42=52. Veamos cómo están relaciona­das es­tas ternas con los números de Fibonacci. Si tomamos cua­tro números de Fibonacci consecutivos cualesquiera, el pro­ducto de los dos números en los extremos, dos veces el produc­to de los números centrales y la suma de los cuadra­dos de los números centrales, nos dan los tres lados de un triángulo de Pitágoras. Esta propiedad fue descu­bierta por el matemático Charles Raine. Por ejemplo, si tomamos los núme­ros 1, 2, 3, 5, entonces 1×5=5, 2×2×3=12 y la suma de los cuadrados 22+32=13, nos da la tripleta Pitagó­rica 5, 12, 13 (52+122=132). Pero esto no es todo, en este caso se observa además que 13 es un número de Fibo­nacci.

La fórmula de Jean Dominique Cassini. En 1680, el astrónomo Jean Dominique Cassini, jugando con los números de Fibonacci, descubre una identidad interesante que ha sido la base de una de las paradojas geométricas favoritas de Lewis Carroll. Si consideramos la matriz:
V1
multiplicando a A por sí misma, tenemos:
V2
repitiendo la operación, tenemos:
V3
en general, tenemos que:
V4
donde Fi son los números de Fibonacci. Considerando que el determinante de una matriz de 2×2 se define como:
W1
tomamos ahora el determinante de An+1; tenemos que:
W2
Ahora bien, como los determinantes tienen la propiedad de que det(A·B)=detA·detB, tenemos que:
W3
que es la conocida fórmula de Cassini.
Veamos ahora la paradoja geométrica relacionada con esta fórmula. Consideremos un cuadrado de lado 8 y dividámoslo en cuadrados de lado uno, como se muestra en la figura 8.
fig8
Recortemos el cuadrado original por las líneas mar­ca­das y reacomodamos los pedazos para formar un rectángu­lo de lados F7=13 y F5=5, como se muestra en la fi­gura 9.
fig9
El cuadrado tiene un área de 8×8=64 uni­dades, mientras que el rectángulo tiene un área de 5×13=65 unidades, es de­cir, F7F5–F26=–1. De hecho, la fórmu­la de Cassini nos dice que ganamos o perdemos un cuadradito dependiendo de si n es par o impar. La pre­gunta se­ría, ¿dónde está el cua­dra­dito que tiene de más el rectángulo?
 
La realidad es que los bordes de los trozos 1, 2, 3 y 4 no coinciden a lo largo de la diagonal pq, sino que forman el paralelogramo psqr que se muestra, de una forma exagerada, en la figura 10. En realidad, este paralelogramo tiene área 1.
fig10
El ángulo spr es tan pequeño que nunca se llega a per­cibir el paralelogramo, a menos que se recorten y se colo­quen los trozos con mucho cuidado. En realidad, es muy fácil ver, utilizando trigonometría, que el ángulo spr es verda­deramente pequeño.

Los números de Fibonacci, la razón aúrea y los fractales. A lo lar­go de la historia, una de las pasiones comunes de los ar­tistas y los matemáticos ha sido el problema de cómo cu­brir el plano con polígonos regulares o cómo llenar el espacio con poliedros regulares.
 
Los cuadrados, los triángulos equiláteros y los hexágonos se pueden juntar de manera muy sencilla para cubrir el plano, es decir, teselar el plano. Si uno quiere obtener un patrón que se repita en intervalos regulares —esto se co­noce como teselación periódica—, utilizando los polígo­nos men­cionados es muy sencillo, como se muestra en los polígonos de la figura 11.
fig11
Como se observa en las figuras, si rotamos un cuadrado 90º, éste permanece igual, es decir, si lo rotamos cuatro ve­ces cubrimos un área del plano sin dejar huecos. Análoga­mente, los triángulos equiláteros tienen simetría si los ro­tamos una tercera parte de un círculo, es decir, 120º, y si fijamos uno de los vértices del triángulo y lo rotamos seis veces cubrimos una región del plano. De la misma forma, esto sucede para los hexágonos.

Teselaciones periódicas pueden generarse con figuras más complicadas; sin embargo, los pentágonos no pueden utilizarse para cubrir el plano. Como se expuso en la construcción de pentágonos y pentagramas, los ángulos del pen­tágono miden 108º. Si hacemos que coincidan tres vértices de tres pentágonos, la suma de sus ángulos es 324º; es decir, quedará un hueco y nunca podrá cubrirse una región del plano.

R. Penrose y J. H. Conway demostraron que el plano se puede cubrir con algunas figuras de forma no periódica. Los trabajos de teselación de Penrose se generalizaron a tres di­mensiones. Así como puede cubrirse el plano con po­lí­go­nos, podemos llenar el espacio con bloques. Robert Ammann descubrió algunas figuras geométricas para llenar el espacio y, proporcionando algunas reglas de cómo pegar las caras, logró construir patrones no periódicos en el es­pacio.
 
Las teselaciones de Penrose y de Ammann habrían permanecido en el área de matemáticas recreativas si no es por un descubrimiento realizado en 1984. En ese año, unos científicos israelíes encontraron que hay algunos cristales de manganeso de aluminio que tienen configura­ciones no periódicas. En realidad, esto fue una gran sorpresa para los físicos y los cristalógrafos que por décadas estuvieron convencidos de que los cristales o son periódicos o altamente desordenados, es decir, completamente amorfos. Por ejemplo, un átomo de sal tiene una forma cúbica perfecta, la cual forma estructuras periódicas, mien­tras que en el vidrio los átomos están completamente desordenados. Antes de este descubrimiento, muy pocos sospechaban que existía otro estado de la materia que comparte aspectos importantes con los cristales o con las sustancias amorfas. A esta nueva clase de cristales se les conoce como cuasi cristales.

El modelo de Steinhardt-Jeong de cuasicristales tiene una propiedad interesante que produce efectos ordenados de largo alcance partiendo de las interacciones de los vecinos, sin que esto nos lleve a estructuras periódicas como los cristales. Sorprendentemente, podemos encontrar esta propiedad en los números de Fibonacci. Consideremos el siguiente algoritmo para generar la sucesión conocida como sucesión aúrea. Comenzamos con el número 1, y reemplazamos el 1 por el 10. De aquí en adelante, reemplazamos los 1 por 10 y el 0 por 1. Así, obtenemos:
X
y así sucesivamente. Claramente, empezamos aquí con una regla de corto alcance —es decir, transformamos el 0 en 1 y el 1 en 10— y obtenemos una sucesión no periódica. Notemos que el número de unos y de ceros en cada paso forma una sucesión de Fibonacci. Conforme la sucesión se hace más larga, se puede observar que, la razón entre el número de unos y de ceros se aproxima además a la ra­zón aúrea. Más aún, si en esta sucesión de unos y de ceros reemplazamos los ceros por una pareja de conejos bebés y los unos por una pareja de conejos adultos, entonces ob­tenemos la sucesión de conejos con la que iniciamos, finalizando así nuestro breve recorrido por uno de los problemas más fascinantes en la historia de las ma­te­máticas.
Radmila Bulajich,
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Referencias bibliográficas
 
Vorobyov, N. N. 1973. Los números de Fibonacci. Ed. Limusa.
Lang, S. 1990. Introducción al Álgebra Lineal. Addison Wesley Iberoamericana.
Livio, M. 2002. The Golden Ratio. Broadway Books.
Collingwood, S.D. 1961. Diversions and Disgressions of Lewis Carroll. Dover.
Radmila Bulajich Manfrino cursó la licenciatura en Matemáticas en la Facultad de Ciencias de la unam. Posteriormente, realizó estudios de posgrado en Inglaterra y en México. Desde 1978 es profesora de tiempo completo en la Facultad de Ciencias, unam. Es miembro del Sistema Nacional de Investigadores.
_______________________________________________________________

 

como citar este artículo

Bulajich, Radmila. (2006). Una sucesión y un número que han hecho historia. Ciencias 84, octubre-diciembre, 52-62. [En línea]
  ←Regresar al índiceartículo siguiente→
You are here: Inicio Búsqueda Número revistas revista ciencias 84