revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
R02Articulos2   menu2
PDF
   
   
Rosaura Ruiz Gutiérrez
     
               
               
En 1859 Darwin publica El origen de las especies por
medio de la selección natural; o la preservación de las razas favorecidas en la lucha por la existencia. Este libro rompe con la filosofía de la “economía natural” según la cual cada organismo ocupa un lugar en la naturaleza para el que fue especialmente creado, y el cual no puede abandonar; naturaleza que, por otro lado, es regulada por la “policía natural” (Linneo) que preserva la proporción requerida de especie sin riesgo de aniquilamiento de ninguna según esta concepción. El equilibrio está asegurado por relaciones de depredación ya que en ésta no se contemplan relaciones de competencia. Esta idea se encuentra unida a otra, a saber, de la idea de omnipresencia como resultado de la perfección de la adaptación, puesto que cualquier organismo con alguna traba natural sería eliminado en la medida en que tales anomalías harían disminuir las posibilidades de adaptación. De ahí que las especies no cambien; las transformaciones, las salidas del tipo son rechazadas por la naturaleza, eliminadas por la “policía natural”. Así persisten las especies, no hay evolución.
 
Darwin por el contrario, no cree en la perfección, tampoco en la omnipresencia de la adaptación. Para él existen diferencias individuales en cualquier población, de modo que entre los que sobreviven en la lucha por la existencia unos están mejor adaptados que otros, por ello, la evolución puede llevar al mejoramiento de la adaptación.
Además, dice Darwin, “todo ser orgánico procrea en proporción tan elevada que, sí no se diera la destrucción de sus individuos, el globo terráqueo estaría cubierto por la descendencia de una sola pareja. Por esta razón, produciéndose más individuos que los que pueden sobrevivir, ha de ocurrir en cada caso una lucha por la vida”.1
 
Puesto que existen variaciones que hacen que ciertos organismos estén mejor adaptados que otros, y en tanto no todos pueden sobrevivir (por falta de espacio, alimentos, etcétera), es necesario hacer una selección que favorezca a los mejor adaptados. “He denominado este principio —escribió Darwin—, por el cual toda variación, no importa lo ligera que aparezca, se conserva si es de utilidad a los individuos, el principio de la Selección Natural”.2
 
La selección natural no es simplemente un proceso de eliminación azarosa; se trata de una selección de individuos portadores de variaciones que los favorecen en la lucha por la existencia. A diferencia de los sobrevivientes de la lucha por la existencia del Malthus, teoría que no lleva implícito el mejoramiento de la población.3 Sino solamente el equilibrio entre las poblaciones, la selección natural de Darwin fundamenta la idea de la supervivencia del más apto. Esta concepción fue trasladada a la esfera social por los socialdarwinistas,4 en contra de quienes Engels, en una carta a Piotr Lavrov, comenta: “Toda doctrina darwinista de la lucha por la existencia, no es más que la transposición pura y simple, desde el terreno social al de la naturaleza viva, de la doctrina de Hobbes: bellum omnium contra omnes (la guerra de todos contra todos) y de la tesis de la competencia tan del gusto de los economistas burgueses, asociada con la teoría malthusiana de la población. Después de haber realizado este truco de prestidigitación… sobre todo por lo que se refiere a la doctrina de Malthus, se trasladan esas mismas teorías, esta vez de la naturaleza orgánica a la historia humana, pretendiendo entonces que se ha hecho la prueba de su validez en cuanto a leyes eternas de la sociedad humana”.5
 
Es decir, Darwin, aparentemente toma de doctrinas sociales la idea de la lucha por la vida y, a su vez, los socialdarwinistas retoman la idea ya más desarrollada de sobrevivencia del más apto con el fin de otorgar una justificación pretendidamente científica a la existencia de clases sociales en el capitalismo y, desde luego, para intentar demostrar en el siglo XIX la “necesidad” y la “justeza” de la actividad colonizadora que los países imperialistas impusieron a los países actualmente conocidos con el rubro genérico de Tercer Mundo. “Bien entendido el evolucionismo del siglo XIX —citamos a Canguilhem— no se resume en la ideología spenceriana, esta ideología ha matizado más o menos durablemente las investigaciones de los lingüistas y etnólogos y ha cargado en el sentido durable el concepto de primitivo y, con ello, ha dado buena conciencia a los pueblos colonizadores. La ideología evolucionista funciona como autojustificación, de los intereses de un tipo de sociedad, la sociedad industrial en conflicto con la sociedad tradicional por una parte, y con la reivindicación social por otra, ideología antiteleológica por un lado, antisocial por otro”.6
 
El concepto de la selección natural
 
De acuerdo con el concepto darwiniano de selección natural, los más aptos resultan aquellos que por ser de alguna manera superiores tienen más posibilidades de apoderarse de la riqueza dispuesta por la naturaleza. Era de esperarse que apologistas del laisser faire, como Galton y Spencer, afirmaran, a partir de esa idea, que los individuos ocupan posiciones de poder o riqueza en la sociedad a través de un proceso de selección natural que favorece la habilidad mental y lo industrioso del individuo. De ser correcta esta extrapolación del mundo natural a la realidad social, entonces se verificaría que tras un periodo en que la selección natural hubiera orientado la evolución humana en un sentido en que, actualmente o dentro de un cierto tiempo, todos los seres humanos formaríamos parte del grupo favorecido “naturalmente”, es decir, de la burguesía. Es obvio que no es así, algo falló, o bien los socialdarwinistas han estado siempre equivocados.
 
Según los socialdarwinistas más importantes (Mayr, Simpson, Dobzhansky, Huxley, etc.) lo que falta es la definición de selección natural, o más bien, la del más apto, puesto que, sostiene Mayr, no puede decirse simplemente que el más apto es el que sobrevive, puesto que a la pregunta ¿cuál sobrevive?, tiene que responderse: el más apto, y, si preguntamos ¿cuál es el más apto?, se responde: el que sobrevive, esto representa una tautología.7
 
Actualmente y desde distintas perspectivas ideológicas, se definen como más aptos, los individuos que dejan una mayor descendencia: sus genes, por tanto, estarán mejor representados en las siguientes generaciones.
 
El anterior, que es un argumento estrictamente biológico, al ser extrapolado sin más a las poblaciones humanas conduce a visiones distorsionadas de la realidad, como ésta, que sostiene que a los individuos con mayor aptitud darwiniana, es decir los que tienen mayor número de descendientes son los menos dotados intelectualmente. Existen abundantes pruebas, que sostienen teóricos como Mayr, de que en la mayoría de las comunidades las personas cuyas profesiones exigen suma inteligencia, procrean por término medio, familias de menor tamaño y a una edad más avanzada que personas cuyas profesiones no tienen tales exigencias (por ejemplo obreros no calificados).8 “Aunque ésta todavía no la nieguen los identicistas, el peso de las pruebas disponibles apoya completamente la conclusión de que los mejor dotados intelectualmente contribuyen menos, y en verdad mucho menos, al acervo de genes de la siguiente generación que el término medio”.9 A juicio de este autor, cuando se observa la rapidez con que los individuos y las sociedades pueden degradarse no se puede evitar pensar que el hombre necesita recorrer un largo camino en la ruta del perfeccionamiento; sin embargo, no hay ninguna prueba de perfeccionamiento biológico en los últimos 30,000 años.10 Al contrario, dice Huxley, “la naturaleza genética del hombre ha degenerado y todavía lo sigue haciendo”. Por otra parte, opinaba Huxley, se encuentra el hecho de que la civilización industrial moderna favorece la discriminación diferencial de genes relacionados con la inteligencia. Parece ahora descontando que, tanto en la Rusia comunista como en la mayoría de los países capitalistas, las personas con elevada inteligencia por término medio se reproducen en menor medida que las menos inteligentes; y que parte de esta diferencia (en inteligencia) está determinada genéticamente. Las diferencias ligeras pueden multiplicarse rápidamente y producir efectos mayores. “Si este proceso continúa, los resultados serán sumamente graves”,11 sentenciaba Huxley.
 
He aquí, dice alarmado Mayr, “otro ejemplo de que la selección natural es incapaz de discriminar entre el éxito en la reproducción como tal y el éxito en la reproducción debido a la posesión de características que beneficien la adaptación de la especie como un todo”.12 Grave incapacidad de la selección natural el no advertir que los hombres mejor dotadas son, desgraciadamente, los que tienen menor aptitud darwiniana.
 
Lo que esto significa para los neodarwinistas es que la selección natural favorece a los individuos inferiores, a los que no han logrado, debida a su inferioridad genética, el éxito social, es decir, obreros, campesinos, etc., en general el proletariado, y puesto que esa inferioridad está determinada genéticamente “la naturaleza humana está degenerando” concluye Huxley; “el aumento del tamaño del cerebro se ha detenido”, agrega Mayr,13 “la inteligencia, va disminuyendo”, afirma Simpson;14 ¡qué horror!, dicen todos al tiempo que recomiendan tomar urgentes medidas eugenésicas, argumentando que al igual que los criadores de animales que han logrado mejorar en su beneficio algunas especies, el hombre puede dirigir su evolución favoreciendo la reproducción de los mejor dotados que, por cierto, agrega Mayr, no sólo son superiores intelectualmente sino que sobrepasan al promedio de la población en salud mental y física, de hecho, agrega, son muy superiores.15
 
En vista de que medidas tan eficaces y rápidas como un posible banco de esperma pueden ser psicológicamente poco factible.16 Mayr por su parte sugiere “que una persona con un buen registro de resultados en ciertas áreas del pensamiento humano posee una combinación de genes preferibles a la de una persona cuyas obras sean menos espectaculares” por la tanto, concluye, debe favorecerse la reproducción de las primeras, gravándolas con menos impuestos, por ejemplo, ya que, “la persona superior está gravada de diversos modos, por impuestos y otros medios que le hacen más difícil mantener una familia numerosa. Son muchas las reglas administrativas y leyes del gobierno, que van en contra de los miembros mejor dotados de la comunidad.17
 
La humanidad, agradecida por la oportunidad de mejorar, de aumentar su inteligencia, etcétera, debe premiar la mayor producción de los mejor dotados para que sus genes, o tal vez deberíamos decir supergenes, tengan representación en las siguientes generaciones.
 
Todos estos planteamientos neodarwinistas, neofuncionalistas y neofascistas están basadas, fundamentalmente, en dos concepciones falsas: 1) la excesiva importancia que se atribuye a la herencia como factor decisivo en la generación de habilidades humanas que hacen posible y en cierta forma aseguran el éxito social; y 2) que las clases sociales están formadas por individuos de habilidades semejantes, de coeficientes de inteligencia similares de manera que, afirma Dobzhansky, no hay clases sociales sino “agrupaciones de habilidades”.
 
La heredabilidad de las habilidades humanas y el coeficiente intelectual
 
Según Dozhansky, padre de la genética moderna, “el coeficiente intelectual (CI) es tan heredable como la estatura humana. Su heredabilidad es muy superior a la reproducción del maíz, según el genetista, la heredabilidad de la inteligencia es de un 81%, cifra que apoya la idea de que la producción de caracteres intelectuales en el genoma sería mucho más importante que el medio ambiente.18 Sin embargo, Mayr dice que “aunque la genética posee, en parte, bases estadísticas, no tiene alcance para nuestra argumentación que la heredabilidad sea de un 25% o de un 75%.19
 
Luego de argumentar sobre genes, inteligencia, distintos tipos de habilidades, etc., Dobzhansky se lanza en contra de algunos descubrimientos de la Genética moderna que contradicen el principio de que los genes no actúan separadamente ya que la mayoría de ellos son pleyotrópicos y que la mayoría de los caracteres son poligenéticos. En suma, en el genoma, los genes no actúan separadamente sino que el genotipo interaccionan todos los genes para producir el fenotipo.
 
Waddington introduce el término epigenotipo para destacar, que efectivamente, en el genotipo cada gene no actúa en forma aislada. El epigenotipo vendría a ser entonces un sistema de relaciones causales que rige la embriogénesis desde el instante mismo en que el cigoto es fecundado y las sucesivas etapas de desarrollo, hasta convertirse en un adulto completamente desarrollado.20
 
Por otra parte, sabemos que para la producción de cualquier carácter fenotípico es tan importante el medio como el genotipo, no obstante, en el caso de las funciones cognoscitivas, es el medio un factor determinante. En este sentido argumenta Piaget “la epigénesis de las funciones cognoscitivas supone, como cualquier otra, una colaboración cada vez más estrecha entre los factores del medio y el genoma, los primeros de los cuales aumentan en importancia a medida que se va creciendo… el proceso epigenético que conduce a la construcción de las operaciones intelectuales es comparable, de manera muy estrecha, a la epigénesis embriológica y a la formación orgánica de los fenotipos. Sin duda, el papel que corresponde al medio es mucho más considerable, puesto que, precisamente, los conocimientos tienen como función esencial captar el medio”.21 En otras palabras, para el desarrollo de cualquier carácter es determinante el papel del medio, pero en el caso de los caracteres que hacen posible el conocimiento del medio, el papel de éste es aún más importante.
 
La idea de la sobreimportancia de la herencia plantea un retorno a la preformación, idea que suscita varias dudas, pues, citamos a Barthelemy Madaule, “parece difícil concebir con el ADN el programa hereditario para siempre; hay algo que choca, a la manera de los homúnculos preformados para siempre, parece difícil admitir que el ADN esté al abrigo de toda modificación venida del citoplasma y, realmente, si es difícil concebir al hombre como si estuviese preformado en el genotipo de una bacteria, no lo es menos interpretar cómo, ontogenéticamente, están contenidos de antemano, en las etapas iniciales de segmentación, las grandes etapas de determinación e inducción y sobre todo, de reintegración funcional final de los órganos diferenciados.22
 
Piaget por su lado, se muestra partidario de la idea de que en el desarrollo de las operaciones lógico-matemáticas elementales en el niño, el medio juega un papel importante. Esta es, las sucesivas etapas por las que atraviesa la ontogénesis de la inteligencia no necesariamente se manifiestan a edades fijas en todos los niños, sino que son aceleradas o retardadas según las condiciones de ejercicio o de experiencia adquiridas, lo que supone individualmente factores que dependen del medio y no del genotipo. Esto no significa que se deje de considerar la importancia de los factores genéticos, al contrario el hecho de que algunos caracteres hayan pasado a formar parte del acervo genético de la humanidad como un todo (y no) de una clase social, corrobora la validez de conceptos como mutación, selección natural, o asimilación genética. Igual que todos los hombres tienen la capacidad de caminar erectos y de hablar, y otros caracteres adquiridos, todos tienen la capacidad de aprender música o matemáticas; el que unos lo logren y otros no, depende del medio en el que se desarrollen.
 
Para los neodarwinistas la evolución se basa en dos mecanismos: el de variación (las mutaciones genéticas) y el de la selección natural que preserva las mutaciones favorables para sus portadores; tesis que niega la posibilidad de que el organismo incorpore a su genoma las variaciones adquiridas en la interacción del individuo con el medio. Esta corriente evolucionista otorga, pues, importancia determinante y exclusiva a las estructuras internas del organismo, en la medida que concibe al sistema genético aislado del soma, por un lado, del que sería sin embargo parte orgánica, y del medio, por otro, con el que no mantendría contacto; un sistema más bien fijo, capaz únicamente de cambios azarosos y acumulativos que a través del tiempo y favorecidos por la selección natural se conservan en la especie, lo que les permite a su vez sobrevivir.
 
De lo anterior se desprende que para producir las aptitudes o habilidades que se consideran importantes en nuestra sociedad es imprescindible la interacción entre el genoma y el medio. En la adquisición de este tipo de caracteres el factor ambiental es determinante. Sirva de ilustración un ejemplo: un individuo que se desarrolle en un medio ambiente favorable, es decir, con buena alimentación, vivienda adecuada, libros, familia con cierto nivel cultural, etcétera, tiene amplias posibilidades de desarrollo intelectual puesto que no existe, prácticamente, ningún impedimento que la obligue a compartir su actividad intelectual con otro tipo de actividades (trabajo asalariado) para poder sobrevivir y que frustre su desarrollo intelectual. Ciertamente no es el caso de la mayoría de la población que habita los países capitalistas dependientes como México, donde los hijos de los obreros y campesinos difícilmente llegan a concluir sus estudios de primaria, ya que es indispensable que a edades muy tempranas los hijos se incorporen a la producción del ingreso familiar, que proporciona apenas una vida de carencias, en la que, necesariamente, la preocupación primaria es cómo sobrevivir, sin dejar lugar a otro tipo de necesidades culturales o intelectuales puesto que como dice Marx, “tal y como los individuos manifiesten su vida, así son”. Lo que son coincide, por consiguiente, con la producción tanto con lo que producen como con el modo como producen.
 
Lo que los individuos son, depende, por tanto, de las condiciones materiales de su producción.23 Los hombres son los productores de sus representaciones, de sus ideas, etcétera, pero los hombres reales actuales tal y como se hallan condicionados por un determinado desarrollo de sus fuerzas productivas, y por el intercambio que a él corresponde, hasta llegar a sus formaciones más amplias. La conciencia no puede ser nunca otra cosa que el ser consciente, y el ser de los hombres es un proceso de vida real y si en toda la ideología de los hombres y sus relaciones aparecen invertidos como en una cámara oscura, este fenómeno responde a su proceso histórico de vida, como la inversión de los objetos al proyectarse sobre la retina corresponde a su proceso de vida directamente física”.24 “No es la conciencia la que determina la vida, sino la vida la que determina la conciencia”.25
 
Los neodarwinistas sufren del fenómeno de inversión ideológica cuando hacen aparecer las capacidades intelectuales de los hombres como las determinantes de su posición en la estructura social. Aún más, ellos no admiten la existencia de clases sociales, a cambio proponen “agrupaciones de habilidades”.
 
Por eso Marx define los instrumentos de producción, por cuya constitución y utilización los hombres se diferencian esencialmente de los animales, como “órganos corporales prolongados” (El capital, tomo I). Como los animales, también los hombres pueden adaptarse a su ambiente; “el hombre cerebral, la inteligencia humana, es suficientemente consistente como para constituir una época regular de la historia de la Tierra. La especie humana, incluidas sus máquinas, productos químicos, fuerzas organizativas. ¿Por qué estas cosas no deberían incluirse en ella como los dientes en el oso, puesto que sirven a la misma finalidad y sólo funcionan mejor? Es en esta época el dernier cri de la adaptación. (Horkhermer y Adorno).26
 
Neodarwinismo y clases sociales
 
Dobzhansky, representante del neodarwinismo, tras admitir que el coeficiente intelectual es heredable, sostiene que “las clases sociales no sólo son grupos sociales económicos sino, también, grupos reproductivos separados en mayor grado de otras poblaciones”. Si ello es así, este autor se pregunta ¿en que medida el nivel socioeconómico es función de la constitución genética?, y argumenta:
 
Las sociedades abiertas (como la de los blancos en Estados Unidos) permiten e incluso fomentan la movilidad social entre las clases. La gente pasa a formar parte de otra clase de acuerdo a sus capacidades y merecimientos. A este principio, Dobzhansky lo denomina “meritocracia” y precisa: “la clase no se determina por el nacimiento, sino por las cualidades personales”. La movilidad social se debe a que genes de diferentes habilidades se encuentran en todas las clases sociales pero con diferentes frecuencias en cada una de ellas.27 Lo mismo ocurre entre los individuos de una clase; el hecho de que los genes para las características tales como un CI mayor o menor, vista aguda, o aptitud para la música, sean más corrientes en la clase de casta A que en la B, no significa que todas las personas de la A y ningún individuo de la B los poseen. No se trata entonces de una cuestión de todo o nada sino de las diferencias en las frecuencias de los genes.28 De lo anterior, Dobzhansky define que, si por azar aparece un individuo con genes de aptitud musical entre la clase obrera, la movilidad social en las “sociedades abiertas” garantizan que este obrero o hijo de obrero llegue a ser un gran músico ya que, apunta el genetista, “la situación socioeconómica de una persona se establece en función de los propios méritos y capacidades”. Como se imaginará, en una meritocracia, las aptitudes intelectuales y los resultados académicos se encuentran entre los determinantes más importantes de la movilidad social, a cuyo servicio se encuentran las escuelas y universidades, en calidad de peldaños para el ascenso socio­económico. En la medida en que los resultados obtenidos están genéticamente condicionados, la movilidad social es a la vez un proceso genético y económico.29
 
Dobzhansky toma esta idea de movilidad social de Galton, quien admitía la existencia de una estructura en la cual los individuos se elevan y descienden en estatus, pero acaso no constituya más que el quimérico ideal de la sociedad burguesa.
 
Nada, pues, tan natural como los privilegios económicos por intermedio del “éxito académico”, el cual, a su vez, esté en función de las aptitudes (y del deseo decidido de ejercitarlas) y éstas se encuentran, por lo menos en parte, genéticamente determinadas. Como la educación y la posición socioeconómica coexisten en estrecha correlación, el rango social y las retribuciones materiales resultan estar genéticamente condicionadas de una forma “indirecta”; Hernstein lo expresa de modo tajante: “además de otras cosas un alto CI supone su dinero”.30 De este modo se ha llegado a que los privilegios sociales y económicos están, también determinados genéticamente.
 
Si los niños de una misma clase tienden a disminuir sus diferencias genéticas mientras que éstas aumentan respecto a otras clases es, precisamente, porque las clases sociales están formadas por individuos genéticamente parecidos que, a su vez se diferencian genéticamente de las personas de otras clases sociales.
 
Por lo tanto, concluye Dobzhansky, las clases sociales son agrupaciones de habilidades, ya que los individuos de capacidades genéticas parecidas se irán agrupando y formando propiamente una clase social.
 
Pero el alegato de Dobzhansky no se agota ahí, tiene como trasfondo la visión de una sociedad ideal, cuyos estratos o clases, se establecerían de acuerdo con los recursos de pruebas de inteligencia; razonamiento que pone al descubierto la importancia que para los ideólogos burgueses posee el concepto de inteligencia.
 
A propósito de este término, Binet31, creador de las escalas de inteligencia y pruebas de coeficiente intelectual, señala que la inteligencia se mide a través del nivel de adaptación posible de los individuos al medio ambiente. Por lo que toca a los individuos en sociedad, estos son inteligentes en la medida en que acepten los papeles sociales que se espera de ellos. Así, dice Dobzhansky, los grupos de habilidades formarán una ordenación racional de elementos armónicos cada uno con obligaciones y derechos mutuos.
 
Por otro lado, el concepto de inteligencia como elemento de la ideología dominante se ha modificado de acuerdo con los intereses de la burguesía. Del concepto de Galton y Spencer, entendido como “habilidad mental”, aunada a lo “industrioso” y a la “capacidad de trabajo” del individuo, —que en el capitalismo de libre comercio explica, para ellos, que un hombre con tales características logrará destacar en la sociedad—, se ha pasado al de Dewey en el que sólo cabe una pequeña cantidad de hombres poseedores de una capacidad intelectual superior; ellos deben ser los lideres, a decir de Dewey, mientras que aquellos con menor capacidad para la acción inteligente deben ser los seguidores, idea que rima con esa otra de Binet, según la cual la inteligencia señala la posibilidad de ajuste de roles que corresponden a un individuo en la sociedad, de acuerdo con sus aptitudes.
 
Proponer, como lo hacen los neodarwinistas, que las clases sociales deben formarse de acuerdo con los resultados de pruebas que sospechosamente miden el coeficiente intelectual, es simplemente proponer que se perpetúen los privilegios de clase. En el fondo, lo que miden estas pruebas son, los privilegios de las clases instruidas, en contra de la clase que históricamente, bajo el capitalismo, ha sido confinada a recibir una educación inferior: el proletariado.
 
Las nociones de lucha por la existencia, competencia social, supervivencia del más apto, sostenidas por los ideólogos del capitalismo de libre comercio, han sido sustituidas por la idea de la cooperación entre clases, las cuales estarán formadas por individuos con diferentes capacidades y que, por ello mismo, necesitarían unos de otros, tesis más afín a la ideología del capitalismo monopolista en donde no hay libre competencia, ni libre comercio, como consecuencia de la centralización del capital.
 
A la misma ideología sirve el planteamiento de las diferencias genéticas responsables de las distintas capacidades, a unos para trabajo pesado, a otros, pero pensar, dirigir o hacer ciencia. Todos, sin embargo, tenemos que cooperar con nuestras pobres o grandiosas aptitudes genéticas. Y, puesto que el hombre no puede cambiar las leyes naturales, no queda sino resignarse cada quien al papel que le corresponda desarrollar en la sociedad, nada de protestas inútiles que sólo suponen gasto de energía.
 
Tales razonamientos pertenecen por entero a los socialdarwinistas, quienes tratan de demostrar que todo está bien como está, no hay necesidad de cambiar nada puesto que las clases sociales son producto de la naturaleza genética humana y como tal, producto de leyes naturales. He aquí una forma en que algunos científicos se transforman en intelectuales orgánicos de la clase dominante.32
 
Durante el siglo XIX se desarrolló el positivismo, corriente filosófica cuyo fundador y padre oficial de la Sociología, Auguste Comte, hablaba ya de una física social, en la que los hechos sociales se concebían a la manera de cosas; las leyes sociales serían entonces las naturales.
 
Sostenía que para hacer ciencia, social o natural, hay que tener una actitud libre de perjuicios y presuposiciones, una actitud de imparcialidad ante los hechos o fenómenos observados; “entiendo por física social la ciencia que tiene como objeto el estudio de los fenómenos sociales, considerados con el mismo espíritu que los fenómenos astronómicos, físicos y fisiológicos, es decir, sujetos a leyes naturales invariables cuyo descubrimiento es el fin especial de sus investigaciones”.33
 
Para Durkheim, ferviente servidor de las ideas de Comte, el hecho social consiste en maneras de actuar, de pensar y de sentir que son exteriores al individuo. Es decir, el hecho social trasciende a los individuos, es un fenómeno colectivo, un estado del grupo, que se repite en los individuos porque se les impone. Para él, los fenómenos sociales siguen siendo cosas y las leyes sociales como las naturales; de aquí que sean inmodificables, lo que equivale a afirmar que la situación actual es el resultado de un proceso natural.34
 
Spencer, otro positivista, entendía a la sociedad como un sistema que presenta las mismas tendencias evolutivas que los organismos; tendencia el aumento de tamaño, a la complejidad de organización, a la diferenciación progresiva de funciones y estructuras, etcétera. Consideraba también que la evolución social es dirigida por un mecanismo idéntico al que rige la evolución biológica, a saber, la selección natural que en lo social favorece a los individuos más inteligentes y más sanos, los “más aptos” en la visión de Spencer.
 
La necesidad cada vez más urgente de la burguesía de justificarse científicamente, llevó a sus teóricos a elaborar teorías de la sociedad, concibiéndola como una entidad homogénea sin clases sociales, donde el individuo o los estratos o estatus sociales son las células de la sociedad; donde los conflictos sociales son meras enfermedades del organismo social; donde cada individuo cumple un rol necesario; y donde, finalmente, todos los hombres tienen las mismas oportunidades y por lo tanto la explotación no existe puesto que hay una completa libertad.
 
Con tales argumentos intentaron rechazar las tesis del marxismo, tesis que nos demuestra lo utópico de las consignas de la Revolución francesa (igualdad, fraternidad y libertad) mientras no exista una igualdad económica, existan clases sociales y las relaciones sociales sean relaciones de explotación.
 
Actualmente no son solamente los investigadores sociales los únicos que trasladan concepciones, categorías o tesis biológicas, para explicar y justificar la estructura de clases. Son los mismos biológos, etólogos, ecólogos y evolucionistas, que jugando su papel de intelectuales orgánicos de la burguesía y apoyados en sus descubrimientos, invaden el campo social con sus conceptos biológicistas, extrapolando los resultados que obtienen en el estudio de las poblaciones animales, a las sociedades humanas.
 
Participan, pues, en lo que Canguilhem denomina la ideología científica, la cual no se agota en una falsa conciencia, sino que contiene una ambición de ser ciencia, a imitación de algún modelo ofrecido por una ciencia ya constituida. Por otra parte, la existencia simultánea de varias ideologías científicas implica la presencia, paralela y previa, de discursos científicos en los que se intentan fundamentar.35
 
El neodarwinismo, como ideología científica, se basa en un discurso científico previo como podría ser la genética, la paleontología o la teoría sintética de la evolución; con tales discursos pretenden demostrar el derecho natural de la burguesía a dominar, como resultado de un proceso natural de selección.
 
Muchos de los etólogos, y en general, de los neodarwinistas, que gustan de hacer extrapolaciones al campo social, ignoran ciertas exigencias metodológicas propias de las ciencias sociales y que impiden extrapolar sin más el estudio del comportamiento animal a la conducta humana.
 
Cuando por ejemplo, Konrad Lorenz36 señala que la carrera espacial entre Estados Unidos y la Unión Soviética es una forma de lucha ritualizada que desvía la posibilidad de una guerra atómica, y propone que deben fomentarse las competencias deportivas, también, como un tipo de luchar ritualizada, o cuando Ardrey declara como causa fundamental de las guerras internacionales el instinto de territorialidad e iguala las fronteras entre las naciones con las marcas de orina con que los felinos y otros animales marcan su territorio,37 no podemos considerar que se mantengan fieles a las reglas del método científico experimental que ellos mismos han postulado. Esto parte de un supuesto metodológico de los diferentes dominios, sociedad y naturaleza, y en consecuencia, de las ciencias que los toman por objeto “La extensión de la mecánica, de la embriología epigenetista, de la biología transformista fuera del campo de cada una de esas ciencias no puede autorizarse”,38 sostiene Canguilhem.
 
En la actualidad, la teoría de la evolución ha sido desarrollada y modificada por varias corrientes, pero también ha dado origen a diversas interpretaciones, entre ellas al neodarwinismo que en pleno siglo XX plantea tesis similares a las del socialdarwinismo spenceriano, apoyándose en los avances de la biología moderna, en especial, de la genética, la etología y la ecología. Trasladar, sin más, los descubrimientos que estas ciencias logran en sus respectivos campos a la sociedad humana, puede parecer un caso de integración de las ciencias, pero acaso no responda más que a la explotación de una clase por otra.
     
 
Notas
 
1. Darwin, Ch., El origen de las especies, p. 117.
 
2. Idem, p. 114.
 
3. Ver Limoges 1977. La selección natural. Siglo XXI.
 
4. Destaca entre ellos Spencer por ser quien más desarrolló las analogías entre los organismos y la sociedad humana.
 
5. Engels, F., Dialéctica de la naturaleza. Grijalbo, México.
 
6. Canguilhem, G., 1977, Ideologie et rationalite. Libraire Philoso.
 
7. Mayr, E., 1969, Especies animales y evolución. Universidad de Chile.
 
8. Mayr, op. cit., p. 669.
 
9. Idem.
 
10. Idem.
 
11. Huxley, J. 1956, Evolution in action, Harper, New York.
 
12. Mayr, op. cit., p. 670.
 
13. Idem, p. 671.
 
14. Simpson, G. G., “Man’s evolutionary future”, Zool. Jahrb. (Syst) 88:124-134.
 
15. Mayr, op. cit., p. 671.
 
16. Idem.
 
17. Idem, p. 672.
 
18. Dobzhansky, T., 1969, Evolución humana. Universidad de Chile.
 
19. Mayr, op. cit., p. 669.
 
20. Waddington, 1953, Endeavor I: 18-20.
 
21. Piaget, J., 1973, Biología y conocimiento. Siglo XXI, México, p. 23.
 
22. Barthelemy Madule, M., 1973: Lamarck ou le mythe du precürseur. Sevil, París.
 
23. Marx, K., La ideología alemana. Grijalbo.
 
24. Idem.
 
25. Idem.
 
26. Citado por Schmitd en El concepto de naturaleza en Marx. Siglo XXI.
 
27. Dobzhanzky, 1973, Diversidad genética e igualdad humana. Labor, 1908, p. 33.
 
28. Idem, p. 34.
 
29. Idem, p. 48.
 
30. ldem.
 
31. González, G., “El desarrollo histórico del concepto de inteligencia”, Crítica No. I, 132-152.
 
32. Gramasci define a los intelectuales orgánicos de una clase como: “grupo social que tiene la capacidad de operar no en el nivel económico, sino en el superestructural, es decir, tienen como función la vinculación orgánica entre esos dos niveles. Los intelectuales son los funcionarios de la superestructura al servicio de la clase que representan y con la cual mantienen muy estrecha vinculación”.
 
33. Comte, Positive politics, vol. IV, Alianza Editorial.
 
34. Durkheim, E., 1973, Las reglas del método sociológico. Schapire, Uruguay.
 
35. Canguilhem, op. cit., p. 39-45.
 
36. Lorenz, K., Sobre la agresión el pretendido mal.  Siglo XXI, p. 315.
 
37. Ardrey, R. The territorial imperative.
 
38. Canguilhem, op. cit.
 
     
____________________________________________________________
     
Rosaura Ruíz Gutiérrez
Profesora del Departamento de Biología y miembro del Programa de Ciencia y Sociedad
Facultad de Ciencias, Universidad Nacional Autónoma de México.

 
cómo citar este artículo
Ruiz Gutiérrez, Rosaura. 1982. “Neodarwinismo y sociobiología”. Ciencias núm 2, julio-agosto, pp. 16-25. [En línea]
     

 

       
 
  menu2
               
  R02B06

 
Problemas y acertijos
Nota de los editores
   
   
     
                     
                   
1. Si se tira de sus extremos la tira de papel, ¿en cuántas
partes se rasgará?

2. Un barco de 21,000 toneladas viaja transportando una locomotora de 80 toneladas de Anchorage a Singapur. La máquina se halla colocada sobre una balanza de resorte. Un marinero novato observa que al final del viaje la locomotora pesa 60 kg menos y con prontitud avisa a sus superiores que alguien ha hurtado algo de la máquina. Con una risa irónica el capitán añade que la línea de flotación está ahora un metro más arriba que al inicio del viaje y por lo tanto se han hurtado el equivalente a 81,060 kg. Finalmente, el capitán para pasar un buen rato manda buscar al culpable. ¿Quién es el ladrón?

3. La figura muestra 36 casillas con otro tanto de estrellas. Hay que tachar 12 estrellas, pero de tal modo que, después de hacerlo en cada fila y cada columna quede el mismo número de estrellas sin tachar.

4. La copia a máquina de un discurso se ha encomendado a dos mecanógrafas. La más ducha podría hacer todo el trabajo en 2 horas; la de menos experiencia en 3 horas. ¿En cuánto tiempo copiarán el discurso, si el trabajo se distribuye entre las dos de modo que lo hagan en el menor tiempo posible?

5. Los gobiernos de dos países vecinos llamémosle Norte y Sur, tenían un acuerdo en virtud del cual un peso del Norte valía un peso del Sur, y viceversa. Pero un buen día el gobierno del Norte decretó que en lo sucesivo el peso del Sur no valdría en el Norte más que noventa centavos. Al día siguiente, el gobierno del Sur, por no ser menos, decretó también que en adelante el peso del Norte no valdría en el Sur más de noventa centavos.
En cierta ocasión, un joven avispado que vivía en una ciudad situada en la frontera de ambos países entró en una tienda situada en el Norte, compró una pluma de diez centavos y la pagó con un peso del Norte. Como vuelto le dieron un peso del Sur, que allí no valía más que 90 centavos. Cruzó la calle entró en una tienda situada en el Sur y compró tinta por diez centavos pagándola con el peso del Sur. Le devolvieron un peso del Norte. Cuando regresó a su casa, tenía, como al salir, un peso del Norte y además lo que había comprado y cada uno de los comerciantes tenía en su caja registradora 10 centavos más. ¿Quién había pagado, pues, la pluma y la tinta?

Pregunta sorpresa
¿Qué calienta más, un abrigo de lana o uno de algodón?

Respuestas al número anterior

1. “Por un río navega una barca de remos…”
La barca movida por la corriente se haya en reposo respecto al agua que la lleva, sentado en la barca, el barquero rema lo mismo que en las tranquilas aguas del lago, por lo que le es igual remar en cualquier dirección. Así pues, el trabajo que tendrá que hacer el remero será el mismo si quiere adelantar a la tabla flotante como si quisiera rezagarse de ella la misma distancia.

2. “Un observador está en la costa y mira con un telescopio…”
Para aclarar el problema supondremos que la barca fue vista cuando se hallaba a 600 m de distancia y que se mueve con una velocidad de 5 m/seg. Con los gemelos de tres aumentos, se verá la barca del mismo tamaño, como si estuviera a 200 m. Al cabo de un minuto se habrá aproximado 5 X 60 = 300 m. Por lo tanto para el observador con gemelos, la barca habrá recorrido 200 – 100 = 100 m, mientras que en realidad recorrió 300 m. De aquí se deduce claramente que la velocidad con que se aproxima la barca vista con gemelos no sólo no triplica, sino por el contrario, disminuye en tres veces.

El lector podrá comprobar que a ésta misma conclusión se llega con otros datos.

Así pues, la velocidad con que se aproxima la barca, observada con los gemelos, disminuye tantas veces como éstos aumentan los objetos.

3. “Un regidor de la antigüedad, quiso construir diez castillos…”
En la figura de la izquierda se ve la disposición con la cual dos castillos quedan protegidos contra una agresión desde afuera. Como se puede ver, los diez castillos están situados como imponían las condiciones del problema: cuatro en cada una de las cinco murallas rectas. La misma figura a la derecha da cuatro soluciones más a este problema.

4. “Dos veleros participan en una regata…”
El segundo velero llegó más tarde porque navegó menos tiempo a 24 km por hora que a 16 km/h.

En efecto, a 24 Km/h navegó 24/24, es decir, 1 hora, mientras que a 16 km por hora 24/16 o sea 1 1/2 hora.

Por esto en el camino de ida perdió más tiempo que el que ganó en el de vuelta.

¿De qué color es el vapor de agua?
¡Incoloro!

  articulos  
_____________________________________________________________

cómo citar este artículo
Nota de los editores 1982. “Problemas y acertijos”. Ciencias núm, julio-agosto, pp. 62-63. [En línea]
     
 
     
R02Articulos1   menu2
   
   
Rodolfo P. Martínez y Romero
     
               
               
Existen en la naturaleza cuatro tipos diferentes de interacciones entre la materia que son responsables de todos los
fenómenos físicos observados hasta ahora. Dicho de otra manera, dos trozos cualesquiera de materia sólo pueden interaccionar a lo más de cuatro formas distintas, ya que existen ciertas partículas materiales, como el neutrino, por ejemplo, que les está prohibida alguna o algunas de estas interacciones.

Este conocimiento representa en sí una de las mayores síntesis intelectuales logradas por la humanidad, y su origen podría rastrearse hasta la Grecia antigua, puesto que con sólo cuatro principios se intenta explicar toda la fenomenología hasta ahora observada. Evidentemente esto no quiere decir que todo fenómeno, por ejemplo, el estado de enamoramiento se puede explicar mediante estas cuatro interacciones, ya que van apareciendo nuevas categorías de pensamiento que no son contempladas por la física.

Ahora bien, ¿Cuáles son estas cuatro interacciones? Las dos más conocidas son la interacción gravitacional, responsable del peso de los cuerpos; y la interacción electromagnética, responsable no sólocomo podría creerse— de fenómenos eléctricos como el rayo o el funcionamiento de una computadora, sino también del comportamiento de los electrones en un átomo y por consecuencia (al menos en gran parte) del comportamiento químico y biológico. El hecho de que nos sean familiares es debido a que se trata de interacciones, que en este caso se manifiestan como “fuerzas” de largo alcance, infinito en realidad, ya que su intensidad es proporcional al inverso del cuadrado de la distancia.

Pero las otras dos son diferentes: son en primer lugar interacciones de muy corto alcance y por eso son muy poco familiares. Además, no se manifiestan simplemente como “fuerzas” sino que implican un cambio en la naturaleza de la materia que sufre tales interacciones, es decir, ¡la materia se transforma cualitativamente!

Estas interacciones son las llamadas interacción fuerte e interacción débil. La primera, como su nombre lo indica, es muy fuerte: a corta distancia equilibra la repulsión electrostática y permite mantener unidos a los protones del núcleo atómico. Estas características de la interacción fuerte son “explotadas” en la bomba atómica. La interacción restante, la débil, es mucho menos intensa que la fuerte o la electromagnética, de ahí su nombre, pero es 1035 veces más intensa que la gravitacional. El fenómeno más conocido en que interviene es probablemente la radioactividad B (emisión de un electrón por el núcleo de un átomo). Figura 1.

Sólo para la interacción electromagnética tenemos una teoría coherente, por lo que, razonablemente se trata de construir teorías para las otras tres siguiendo un enfoque similar al del electromagnetismo. Esta teoría constituye un ejemplo de lo que los físicos llaman teoría de norma1 de simetría local (en este caso teoría abeliana), y existen fuertes razones para suponer que las otras tres interacciones son tratables por teorías similares.

Las simetrías en física parecen jugar un papel importante y es sorprendente cómo el conocer las simetrías de un fenómeno físico nos permite también conocer la teoría del fenómeno. Las simetrías más familiares son las geométricas. Por ejemplo, si se gira una esfera alrededor de un eje que pasa por su centro, se obtiene una situación indistinguible de la original, sea cual sea el ángulo de rotación. Sin embargo, existen simetrías que no son de naturaleza geométrica, por ejemplo la simetría CPT (conjugación de carga, paridad e inversión en el tiempo). Si se pudiera cambiar en el universo la materia por su antimateria e invertir la marcha del tiempo, se obtendría el mismo universo que antes. Ésta es una simetría del universo. En este caso la transformación es la misma en cada punto del universo y por esto se llama global.

Otro ejemplo de simetría global lo constituye el llamado spin isotópico o isospin, que es una propiedad que concierne al protón, al neutrón y muchas otras partículas similares llamadas hadrones. Está basado en el hecho de que —excepto por la carga— el protón y el neutrón son partículas muy similares: ambas tienen interacciones fuertes, el mismo spin, prácticamente la misma masa (diferente sólo en 10%) y si uno pudiese cambiar un protón por un neutrón y viceversa. las interacciones fuertes en el núcleo del átomo prácticamente no cambiarían. Todo esto sugiere la existencia de una simetría, la simetría de isospin, que permite cambiar protones en neutrones y viceversa2 y que debe ser una simetría de la teoría de interacciones fuertes. Dicho de otra manera, las interacciones fuertes deben ser invariantes bajo transformaciones globales de isospin. Esto obliga la teoría a tomar una forma particular impuesta por esta simetría. Sin embargo, de la misma manera que la simetría de la esfera en la práctica es sólo aproximada (siempre existe algún defecto, por ejemplo una raspadura, que nos permite conocer que ha tenido lugar una rotación), también la del isospin es sólo una simetría aproximada: un neutrón no es igual a un protón y la presencia de las interacciones electromagnéticas rompe la simetría.

Regresando al electromagnetismo, éste también tiene una simetría global: es invariante frente a cambios de fase en la función de onda Ψ. Esta función Ψ (compleja) se introduce en la física moderna para describir el estado de una partícula o un campo y su módulo al cuadrado Ψ2 = ΨΨ* se interpreta como la probabilidad de que la partícula tenga determinada posición, impulso o energía, según sea el argumento de la función. Por ser compleja, la función de onda tiene dos componentes, uno real y otro imaginario; y un cambio de fase en ella puede ser visualizado como una rotación en un espacio de dos dimensiones, con un eje real y otro imaginario, donde la función de onda se representa por un punto, o aún mejor, por un vector en ese espacio. Como esta transformación no depende del punto en el espacio físico en el que se hace; se trata de una transformación global. El electromagnetismo es pues invariante bajo cambios de fase o rotaciones en el espacio arriba mencionado, es decir, que el contenido físico del electromagnetismo no depende de la fase de la función de onda. Las rotaciones en un plano son un ejemplo de transformaciones abelianas3 por ser conmutativas. En efecto, si uno realiza dos rotaciones en un plano, una seguida de otra, el resultado final es independiente del orden en que se efectúan como se ve en la figura 2.

De hecho, las rotaciones forman una estructura algebraica conocida probablemente por el lector y que los matemáticos llaman grupo.

Cuando los elementos del grupo conmutan bajo la operación definida en él, como en este caso las rotaciones conmutan bajo la operación de composición al grupo se le conoce como grupo Abeliano y los físicos lo denotan como U(1) (el “1” viene del hecho de que sólo es necesario un parámetro, el ángulo de rotación, para caracterizar una rotación en un plano). En tres dimensiones, sin embargo, el grupo de rotaciones no es Abeliano.

Teorias de norma

El campo eléctrico, tal como se define en las ecuaciones de Maxwell, es invariante bajo la adición de un potencial constante arbitrario al potencial eléctrico. La razón es que el campo eléctrico está definido en términos de diferencias en el potencial y no por el valor absoluto de éste. A esta invariancia de norma y a la adición de una constante al potencial se le conoce como cambio de norma. Por la naturaleza misma del campo eléctrico de este cambio de norma no tiene consecuencias físicas y por lo tanto no se puede medir, es pues en realidad una simetría de la teoría. De hecho esta es la razón por la cual un gato puede caminar sobre un cable sin electrocutarse.

Se puede ilustrar la diferencia entre una simetría global y una local con el ejemplo siguiente. Imaginemos un balón de hule donde las características del hule sean las mismas en cualquier punto (grosor, intensidad, etcétera). Al inflarse obtendremos un balón esférico y de hecho un campo de fuerzas de simetría esférica. Pero si el hule cambia localmente, por ejemplo en grosor, al inflarse no se obtendrá un balón esférico sino de otra forma una salchicha o un huevo, etcétera. El campo de fuerza no es ya más de simetría esférica sino que reproduce de alguna manera la estructura y simetría locales. Así las zonas de mayor espesor se encontraran menos estiradas, etc. Esta correlación entre simetría y campo de fuerzas ilustrada aquí es importantísima y es explotada sistemáticamente, como veremos más adelante en el estudio de las cuatro interacciones básicas. (Figura 4)

¿Qué sucedería si el cambio de fase en el electromagnetismo fuese local y no global; es decir, si el ángulo de rotación dependiese de la posición y cambiase de punto a punto del espacio (y posiblemente del tiempo)? Pedir que una teoría sea invariante bajo una transformación local significa pedir que la física descrita por esta teoría sea la misma después de efectuar la transformación, aunque ésta sea distinta de punto a punto.

Es posible demostrar que el electromagnetismo no es invariante bajo cambios de fases locales —transformaciones del grupo Abeliano local— a menos que se introduzca una nueva función que compense exactamente las variaciones en la teoría de manera que la nueva teoría, electromagnetismo nueva función, sea invariante. ¿Pero qué representa esta nueva función?4 Se trata del potencial electromagnético o cuadripotencial y representa la interacción entre dos partículas cargadas. Es decir, una teoría libre (sin interacción) no puede ser invariante bajo U(1) local, pero con la presencia de una interacción puede serlo. Cada vez que dos electrones interacciona, es decir, cuando se establece una fuerza entre ellos, la fase de la función de onda que los describe cambia localmente y a su vez, a cada cambio local de la fase le corresponde una interacción. El cuadripotencial mismo debe transformarse de cierta forma para poder mantener la teoría invariante. Este cambio corresponde precisamente a un cambio de norma.

Pero hay algo más: pedir que el electromagnetismo sea invariante bajo U(1) local no sólo implica la existencia de una interacción sino que la determina exactamente. Si conocemos la simetría podemos conocer la interacción que corresponde a esta simetría. Esta situación es exactamente la análoga a la del caso del globo: a una simetría dada se le puede asociar a un cierto campo de fuerzas determinado por ella. Es entonces natural aplicar este enfoque para estudiar las otras tres interacciones. Si pudiésemos conocer las simetrías de estas interacciones, entonces automáticamente podríamos conocer las interacciones mismas.

Este programa se ha llevado a cabo con éxito parcial. Empieza de hecho con las teorías de C. N. Yang y Robert L. Mills, que trabajaban juntos en el Bookhaven National Laboratory en los E.U. hacia 1954, y R. Shaw, de la Universidad de Cambridge. Actualmente a las teorías de normas con simetría local se les conoce con el nombre de teorías de Yang-Mills en honor a sus dos descubridores.

En 1967 Steven Weinberg, de la Universidad de Harvard, e independientemente en 1968 Abdus Salam del Imperial College de Londres y John C. Ward de la Universidad John Hopkins, proponen un modelo que describe los principales aspectos de las interacciones débiles y que al mismo tiempo incorpora al electromagnetismo. Este trabajo les valió a S. Weinberg y A. Salam el premio Nobel de Física de 1979.

En cierta medida se trata de una teoría de unificación de las interacciones débiles y las electromagnéticas. La simetría usada la denotan los físicos como SU(2) U(1).5 Esta simetría, o mejor dicho grupo, es en este caso no abeliana y cuenta con tres parámetros independientes más uno, el asociado al grupo U(1), que es la parte asociada al electromagnetismo.

En la teoría de los parámetros del grupo se asocian con la existencia de correspondientes partículas o cuantos da energía. En el caso del electromagnetismo el grupo de norma es U(1) un grupo abeliano con un sólo parámetro, por lo tanto, existe una partícula o “cuanto”6 asociada a ese parámetro. De acuerdo con este enfoque la interacción ocurre cuando las partículas se intercambian un cuanto. En el caso del electromagnetismo dos partículas cargadas interaccionan cuando se intercambian un fotón que es el cuanto asociado al electromagnetismo. Además, el alcance de la interacción es proporcional al inverso del cuadrado de la masa dar cuanto. En el caso del fotón la masa es cero y por lo tanto el electromagnetismo es de alcance infinito. De la misma manera, en el caso gravitacional que es una interacción de alcance infinito, el cuanto gravitacional, o “graviton” como se le ha llamado, es de masa cero. Análogamente, entre más pesado el cuanto menor es, el alcance de la interacción, como es el caso en la interacción débil.

Dentro del modelo de Winberg Salam hay tres nuevos parámetros que implican la existencia de tres partículas asociadas a ellos. Dos de estas partículas ya eran conocidas desde los tiempos de E. Fermi en los años treintas. Se trata de W+ y W–, dos de los cuantos (cargados) asociados a las interacciones débiles. Pero la teoría predice la existencia de una nueva partícula, un nuevo cuanto neutro, pesado (puesto que, la interacción débil es de muy corto alcance) y de spin cero. El descubrimiento de esta partícula en 1973 en el CERN (Centre Europeen de la Recherche Nucleaire), cerca de Ginebra, en Suiza, representa un gran triunfo de este tipo de modelos.

Rompimiento espontáneo de simetría

Sin embargo, si las teorías de norma de simetría local, (abelianas como el electromagnetismo o no abelianas como las débiles) eran conocidas desde 1954, ¿por qué necesita llegar hasta 1967 para poder proponer un modelo realista? Una de las principales razones consiste en que estos modelos sólo son compatibles con interacciones de alcance infinito, es decir, con cuantos de masa cero. Pero las interacciones débiles, por ejemplo, son de muy corto alcance y por lo tanto sus cuantos deben tener masa, muy grande de hecho. La presencia de “términos de masa” responsables de las masas de los “cuantos” (bosones de norma), rompe la simetría local y éstos no pueden, consecuentemente, aparecer en la teoría. ¿Cómo se puede entonces conciliar la simetría de la teoría con el hecho de que, en general los bosones de norma sean masivos? La respuesta fue dada hacia el final de la década de los sesentas por F. Englert y Roben H. Brout de la Universidad de Bruselas y por Peter Higgs de la Universidad de Edinburgo, con el método conocido actualmente como mecanismo de Higgs. La idea central es análoga a la de estudiar una ecuación diferencial con una cierta simetría y encontrar soluciones de ella que no tengan tal simetría. Para hacer esto se introducen nuevas funciones, llamadas “campos de Higgs”, con la extraña propiedad de que no desaparece en el vacío. Usualmente se piensa en el vacío como ausencia de materia, pero, en la física moderna es sólo un estado de la naturaleza, definido como aquel estado que minimiza la energía de todas las partículas. Esto se logra usualmente haciendo desaparecer las partículas. Por ejemplo, un conjunto de electrones tiene su mínima energía cuando no hay electrones. Pero los campos de Higgs representan partículas7 totalmente fuera de serie: hacerlas desaparecer cuesta energía y por tanto no desaparecen en el vacío. Es a través de estos campos de Higgs que pueden redefinir —de una cierta manera— las funciones asociadas los bosones de norma para que éstos adquieran masa sin romper la simetría de la teoría (los campos de Higgs tampoco rompen la simetría de la teoría). Este mecanismo de Higgs se conoce también con el misterioso nombre de “rompimiento espontáneo de simetría”. Es necesario señalar el hecho que al redefinir las funciones asociadas a los bosones de norma se están redefiniendo las soluciones, a la teoría, que al adquirir masa pierden de hecho la simetría original, más no ocurre así con la teoría misma.

Interacciones fuertes

En la actualidad se conocen dos grandes grupos de partículas. Por un lado se tienen los leptones, que son partículas de spin (giro intrínseco) semientero, sin estructura aparente, puntales y que intervienen en interacciones fuertes como por ejemplo el electrón, el muón, el tau y sus neutrinos asociados, y por otro lado están los hadrones, que son el resto de las partículas. Estos usualmente más pesados que los leptones, tienen una estructura interna y actualmente se piensa que se pueden describir en términos de partículas hipotéticas llamadas “quarks” propuestas inicialmente por Murray Gell-Mann del California Institute of Technology en 1963 y por las mismas fechas por Yucal Ne'aman de la Universidad de Tel-Aviv y George Zweig de Cal-Tech.8

Estos quarks son muy semejantes a los leptones, son puntuales de spin semientero, pero con la diferencia de que son capaces de tener interacciones fuertes. Por alguna razón no entendida completamente hasta ahora los quarks no pueden estar solos y se juntan de dos formas exclusivamente: un quarks con un antiquarks formando lo que se conoce con el nombre de mesones (el pion por ejemplo) o tres quarks formando lo que se conoce con el nombre de bariones (Figura 5).

símbolo nombre carga* spin
u
arriba 2/3 1/2
d
abajo -1/3 1/2
s
extraño -1/3 1/2
c
encanto 2/3 1/2
t
tope -1/3 1/2
b
fondo -1/3 1/2
*en unidades de la carga fundamental e

Aunque originalmente se pensaba que sólo había tres quarks, actualmente se piensa que hay seis; “arriba”, “abajo” y “extraño” son los tres primeros y “tope”, “fondo” y “encanto” los otros tres. Los nombres pueden parecer un sin sentido, pero un universalmente son aceptados y existe desgraciadamente la tendencia principalmente en los Estados Unidos de seguir esta política de asignación de nombres. (Cuadro arriba)

Cada tipo de quark se presenta en tres formas diferentes, prácticamente indistinguibles los físicos dicen que se presentan en tres “colores” diferentes, “azul”, “rojo” y “verde”. Así es el quark encanto (c), por ejemplo, se presentará como quark encanto rojo o verde, etcétera. Como a cada partícula le corresponde su antipartícula a cada quark de cierto color le corresponde su antiquark de anticolor. Así un quark rojo le corresponde un antiquark antirojo. Que al juntarse producen un sistema de quark-antiquark. Como en el caso de los mesones (denotado q de color “blanco”, ya que la propiedad que los físicos llaman rojo queda aniquilada por su anticolor el antirojo. También los bariones que son la combinación de tres quarks, son “blancos” ya que son la combinación de tres “colores” necesariamente distintos,9 es decir, rojo, azul, verde.10 El blanco en este caso se considera como “ausencia de color” (¿aunque no sería mejor, tal vez, denominarlo negro?) Esta es la razón por la cual la teoría de las interacciones fuertes se les llama “Cromodinámica cuántica", o sea el electromagnetismo moderno.

Ahora bien, las interacciones fuertes (que tienen lugar entre hadrones), pueden también ser descritas aunque parcialmente hasta ahora, por una teoría de norma. En este caso la simetría se denota por SUc(3)11 donde “c” significa color. Este grupo está caracterizado por ocho parámetros y hay por lo tanto ocho bosones de norma. Podemos comparar con el electromagnetismo, donde sólo hay uno, y comprender la complejidad de las interacciones fuertes y su reticencia a ser entendidas hasta ahora.

Estos bosones de norma son conocidos con el espantoso nombre de “gluones” (del inglés “Glue” pegamento, cola, etc.) por la propiedad que tienen las interacciones fuertes de mantener pegados, por intercambio de gluones, a los quarks. Ahora bien, las interacciones fuertes son de muy corto alcance por lo que los gluones deben ser muy pesados, aunque no tanto como para no poder ser observados cosa que no ha sucedido hasta ahora. Además existen razones para pensar que estos gluones deben ser de masa cero. ¿Qué sucede entonces?

Hay que observar que el grupo SUc(3) es no abeliano y que esto trae como consecuencia que los gluones porten también "color" a diferencia del electromagnetismo, donde el grupo de simetría U(1) es abeliano y como consecuencia el fotón carece de carga. Esto a su vez implica que cuando dos quarks interaccionan cambian de color. Por ejemplo, si un quark pasa de verde a rojo —en una interacción fuerte entra dos quarks— el gluón que interviene en la interacción “lleva” los colores “rojo” y “antiverde” de manera que este último anula al verde y el rojo “colorea” al quark dejándolo de color rojo. (Figura 6)

Hay evidencias experimentales que señalan que cuando dos quarks están juntos prácticamente interaccionan entre ellos, pero a medida que se alejan, los quarks interaccionan con una nube de sistemas q– y de pares de gluones que rodean a los quarks. Una cosa similar ocurre en el electromagnetismo, donde alrededor de cada electrón existe una nube de pares electrón positrón (anti-electrón) y fotones, cuyo efecto es enmascarar la carga del electrón. Pero en el caso de los quarks si bien los pares q– enmascaran el “color” los gluones también llevan color (a diferencia de los fotones que no llevan carga) y consecuentemente el efecto de éstos es el de incrementar el color neto de los quarks de manera que a medida que los quarks se alejan la interacción crece más y más —indefinidamente parece ser— por lo que se necesita una energía infinita para separar dos quarks. Es este mecanismo que los físicos llaman confinamiento, el responsable del comportamiento tan curioso de las interacciones débiles. Así, según la teoría, no es posible separar dos partículas que tengan “color” solamente los sistemas “blancos” pueden permanecer aislados, los demás estarán siempre ligados a otros con color. Por esto no se observan los gluones aunque sean de masa cero, y por esto aparentemente, las interacciones se manifiestan a corta distancia. En realidad se podrían manifestar a distancia infinita, pero se necesitaría una energía infinita para esto. El hecho de no existir hasta ahora una teoría realista de las interacciones fuertes que explique el confinamiento se ha convenido en una de las más grandes dificultades de la teoría de las interacciones fuertes.

Supersimetría

Las teorías de normas aquí expuestas sufren de varias dificultades intrínsecas. Las constantes físicas por ejemplo, según su valor modifican enormemente una teoría. Las teorías de norma son compatibles con los valores experimentales de las constantes físicas, pero no explican por qué éstas toman precisamente esos valores. ¿Por qué la carga del electrón es 1.602 X 10 19C? ¿Por qué la interacción fuerte es precisamente tan fuerte? ¿Por qué la masa del electrón es 9.1 X 10 31 kg? ¿Cuántos quarks hay realmente? Estas preguntas y muchas más no pueden ser resueltas por esquemas de este tipo. Tal vez sea necesario buscar nuevos tipos de simetría que engloben las aquí descritas. Tal vez sean de tipo local y se puedan poner las cuatro interacciones en una gran simetría que la unifique, formando una sola teoría.

Recientes progresos apuntan un poco en esta dirección. Las nuevas teorías son conocidas con el horrible nombre de supersimetría. Esta nueva simetría permite lo que hasta ahora no era posible: relacionar partículas de spin diferente y tratarlas de igual manera.12 La importancia de esta teoría radica en el hecho de ofrecer con unos cuantos parámetros, una descripción bastante detallada de cientos de partículas, además reconcilia aunque sea parcialmente, la teoría de la gravitación con la teoría de campos cuánticos.

Una de las predicciones más importantes de esta teoría es la inestabilidad del protón. Experimentos muy recientes (mayo de 1981) parecen confirmar esta teoría. El protón se desintegra (en un lapso de tiempo verdaderamente gigantesco) en neutrinos y ciertas partículas llamadas D.

Si este tipo de teorías permite o no una descripción y finalmente una unificación de las cuatro interacciones básicas sólo el tiempo podrá decirlo. Por el momento el estudio y comprensión de estas interacciones representa probablemente el más grande reto de la física moderna.

     
               

Notas

1. Este término fue introducido hacia 1920 por Herman Weyl cuando construía una teoría que combinase electromagnetismo y relatividad general. En la teoría había que introducir ciertos patrones de longitud y tiempo para cada punto del espacio tiempo, y Weyl los comparó a los patrones usados por los obreros mecánicos, escribiendo en alemán “Cich In vasianz” que fue primero traducido al inglés como “calibration” invariance y posteriormente como gauge invariante. En México se ha preferido usar el término “norma" (medidor, patrón, etcétera) “Eich Invarianzs”.

2. En realidad, las transformaciones de los espines son trasformaciones continuas, como la rotación de una esfera, y permiten pasar por estados (en el sentido de la mecánica cuántica) intermedios de protón y neutrón, que a veces pueden ser contemplados como protón y a veces como neutrón.

3. En honor a Niels Henrik Abel, matemático noruego que estudió este tipo de transformaciones a principio de siglo.

4. En física moderna el nombre empleado es campo y no función.

5. SU(2): grupo formado por las matrices unitarias 2 X 2 de traza nula. El símbolo o significa tensorial.

6. También conocido con el nombre de “Bosón de norma”.

7. En física moderna a cada función o más concretamente campo, se le asocia una partícula caracterizada por éste.

8. El nombre de “quark” fue propuesto por Gell—Mann a propósito de una lectura de James Joyce: Finnegan´s Wake y aunque dentro del contexto del libro no quiere decir gran cosa, en Siliza (Alemania), es un cierto tipo de queso (requesón).

9. Para los que conocen mecánica cuántica, este es un resultado el principio de exclusión de Pauli que no permite que dos fermiones idénticos ocupen el mismo estado y por esto deben poder distinguirse.

10. Cuando los tres colores básicos se mezclan en una cierta forma, por ejemplo en rueda giratoria, el efecto visual es un color blanco.

11. SU(3): matrices unitarias de traza nula 3 X 3.

12. Para aquellos que conozcan la teoría de grupos, consiste en tener bosones y fermiones, dentro de la misma representación irreductible del grupo de supersimetría.

     
____________________________________________________________
     
Rodolfo Patricio Martínez y Romero
Profesor de carrera del Departamento de Física
Facultad de Ciencias, Universidad Nacional Autónoma de México.

 
cómo citar este artículo
Martínez, Rodolfo. 1982. “Simetrías e Interacciones en Física”. Ciencias núm. 2, julio-agosto, pp. 8-15. [En línea]
     
Está aquí: Inicio Búsqueda Titulo revistas revista ciencias 2
Universidad Nacional Autónoma de México
Facultad de Ciencias
Departamento de Física, cubículos 320 y 321.
Ciudad Universitaria. México, D.F., C.P. 04510.
Télefono y Fax: +52 (01 55) 56 22 4935, 56 22 5316


Trabajo realizado con el apoyo de:
Programa UNAM-DGAPA-PAPIME número PE103509 y
UNAM-DGAPA-PAPIME número PE106212
 ISSN:0187-6376

Indice-RM

Responsable del sitio
Laura González Guerrero
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
 

Asesor técnico:
e-marketingservices.com
facebooktwitteryoutube

cclCreative Commons License
This work is licensed under a Creative Commons
Attribution-Noncommercial-Share Alike 3.0 United States License