La nueva política de
subvenciones favorable a la genética
fue impulsada por el matemático Warren Weaver, que en 1932
fue nombrado director de la División de Ciencias
Naturales del Instituto Rockefeller, cargo que ejerció
hasta 1959 y que era simultáneo a la dirección de un equipo de investigación militar. Una de las primeras
ocurrencias de Weaver nada más tomar posesión de su
puesto fue inventar el nombre de "biología molecular",
lo cual ya era una declaración de intenciones de su
concepción micromerista. En la posguerra Weaver fue quien
extrapoló la teoría
de la información más allá del
área en la que Claude Shannon la había concebido.
Junto con la cibernética, la teoría de la
información de Weaver, verdadero furor ideológico
de la posguerra, asimilaba los seres vivos a las máquinas,
los ordenadores a los "cerebros electrónicos", el huevo
(cigoto) a las antiguas cintas magnéticas de ordenador que
archivaban la memoria, al
tiempo que
divagaba sobre "inteligencia"
artificial y demás parafernalia adyacente. Si el hombre era
una máquina, las máquinas también
podían convertirse en seres humanos: "No hay una prueba
concluyente de una diferencia esencial entre el hombre y una
máquina. Para cada actividad humana podemos concebir una
contrapartida mecánica" (232).
Rockefeller y Weaver no financiaron cualquier área de
investigación en genética sino únicamente
aquellas que aplicaban técnicas
matemáticas y físicas a la
biología. Otorgaron fondos a laboratorios y
científicos que utilizaban métodos
reduccionistas, cerrando las vías a cualquier otra
línea de investigación diferente (233). A partir de
entonces muchos matemáticos y físicos se pasaron a
la genética, entre ellos Erwin Schrödinger que
escribió al respecto un libro que en
algunas ediciones tradujo bien su título:
"¿Qué es la vida? El aspecto físico de
la
célula viva". La mayor parte eran físicos que
habían trabajado en la mecánica
cuántica y, por tanto, en la fabricación de la
bomba atómica. Junto con la cibernética y la
teoría de la información, la física de
partículas fue el tercer eje sobre el que
desarrolló la genética en la posguerra. La
teoría sintética es, pues, el reverso de la bomba
atómica de modo que los propios físicos que
habían contribuido a fabricarla pasaron luego a analizar
sus efectos en el hombre.
El destino favorito de las subvenciones de Rockefeller fue el
laboratorio de
Thomas H. Morgan en Pasadena (California), que se hizo famoso por
sus moscas. El centro de gravedad de la nueva ciencia se
trasladó hasta la orilla del Pacífico y la
biología dejó de ser aquella vieja ciencia
descriptiva, adquiriendo ya un tono claramente experimental.
Generosamente becados por Rockefeller y Weaver, numerosos
genetistas de todo el mundo pasaron por los laboratorios de
Morgan en Pasadena para aprender las maravillas de la
teoría mendelista. Entre los visitantes estaba uno de los
introductores del mendelismo en España,
Antonio de Zulueta, que tradujo al castellano
algunas de las obras de Morgan. Los tentáculos de
Rockefeller y Morgan alcanzaron a China: Tan
Jiazhen, calificado como el "padre" de la genética de
aquel país, también inició sus experimentos con
moscas embotelladas en California.
Morgan respaldó la llamada teoría
cromosómica que había sido propuesta en 1903 por
Sutton y Boveri en Estados Unidos y
Alemania
respectivamente. Tuvo un éxito
fulminante porque suponía un apoyo a la ley de la
segregación de Mendel, una de
sus primeras confirmaciones empíricas. Los cromosomas
aparecen normalmente por parejas homólogas, unos
procedentes del padre y otros de la madre. Se estableció
un paralelismo entre cromosomas y factores génicos: el
factor dominante se alojaba en uno de los cromosomas y el
recesivo en el homólogo suyo. Como los cromosomas, los
genes también aparecían por pares. Fue como una
repentina visualización de lo que hasta entonces no
había sido más que una hipótesis nebulosa.
Como suele ocurrir con algunos descubrimientos, la
teoría cromosómica fue víctima de sí
misma y condujo a sostener que los determinantes hereditarios se
alojaban exclusivamente en aquellos filamentos del núcleo.
Los cromosomas, sostiene Morgan, "son las últimas unidades
alrededor de las cuales se concentra todo el proceso de la
transmisión de los caracteres hereditarios" (234). En
ellos se conserva el monopolio de
la herencia; el
citoplasma celular (el cuerpo) no desempeña ninguna
función
reproductiva. A partir de entonces los mendelistas dieron un
sentido físico y espacial a los genes, presentados como
los eslabones de las cadenas de cromosomas. Un gen es un "lugar"
o una posición dentro de un cromosoma, empleando en
ocasiones la expresión latina loci como
sinónimo y llegando a elaborar "mapas" con su
distribución. De esta manera concretaban en
los cromosomas el plasma germinal de Weismann así como los
enigmáticos factores de Mendel. Vistos al microscopio los
cromosomas aparecían, además, segmentados en
diferentes tonalidades de color, cada una
de las cuales bien podía ser un gen; parecía como
una especie de collar en el que las perlas (genes) se anudaban
una detrás de la otra.
La teoría cromosómica de Sutton,
Boveri y Morgan era errónea en su misma génesis
porque ya se conocía con anterioridad la herencia
citoplasmática, descubierta en la variegación
vegetal por Correns en 1908. Es una teoría errónea
en cuanto que, como la mayor parte de los postulados de la
teoría sintética, es unilateral y otorga un
valor absoluto
a fenómenos biológicos que sólo son
parciales y limitados. A diferencia de la teoría
cromosómica de Sutton, Boveri y Morgan, que concede la
exclusiva de la dotación hereditaria al núcleo de
la célula, la
herencia citoplasmática no habló nunca de
exclusividad, es decir, de que la herencia sólo se
encuentre en el citoplasma, sino que ambos, núcleo y
citoplasma, participan en la transmisión hereditaria. La
herencia citoplasmática demuestra la falsedad de los
siguientes postulados fundamentales de la teoría
sintética:
a) el citoplasma forma parte del "cuerpo" de la
célula, por lo que no existe esa separación
estricta entre plasma y cuerpo de la que hablaba Weismann b) no
se rige por el código
genético de los cromosomas nucleares c) contradice las
leyes de
Mendel (235) d) su origen no está en los progenitores sino
en virus, es decir,
en factores ambientales exógenos
La herencia citoplasmática presenta un
carácter muy diferente del modo en que
habitualmente argumenta la genética mendeliana. Demuestra
que estamos conectados a ambos progenitores exclusivamente
mediante los cromosomas, mientras que a nuestras madres a
través de los cromosomas y el citoplasma. El ADN
cromosómico es diferente entre padres e hijos, mientras
que el citoplasmático es idéntico entre la madre y
todos los hijos. Este último se agota en los hijos, que no
lo transfieren a su descendencia, mientras que continúa en
las hijas.
Como consecuencia de ello, la herencia citoplasmática
fue marginada en los medios
académicos oficiales. Al principio ocupaba muy poco
espacio en los libros de
genética, unas pocas páginas en el último
capítulo; se hablaba de ella casi de forma vergonzante,
como si se tratara de un fenómeno residual. Aún en
la actualidad la
clonación se presenta como una duplicación
exacta de un organismo, cuando se trata sólo del
trasplante del núcleo, es decir, que no se realiza sobre
todo el genoma y, por lo tanto, nunca puede ser
idéntica.
El error de la teoría cromosómica conduce a
descubrir el error de los "mapas" génicos. El primer golpe
a la cartografía génica llegó
también pronto, en 1944, cuando el canadiense Oswald T.
Avery (1877-1955) descubrió que el "lugar" de los genes no
estaba exactamente en los cromosomas sino sólo en el ADN.
Un descubrimiento tan importante nunca mereció la
recompensa del Premio Nobel. El segundo llegó casi al
mismo tiempo con el descubrimiento de los "genes móviles"
o transposones por Barbara McClintock (1902-1992): si se
podían dibujar "mapas" de genes, en ellos también
se debían modificar las fronteras continuamente. Aunque la
transgénesis es hoy conocida por la desconfianza que
suscita su manipulación artificial en animales y
plantas, los
seres vivos modifican su genoma continuamente y se intercambian
entre sí secuencias de ADN. La transgénesis no
sólo se produce dentro de los cromosomas de una misma
célula sino de unos seres vivos a otros. Desde 1948 se
sabe que existe ADN extracelular o circulante, segregado por las
células
y que circula fuera de ellas, por ejemplo en los fluidos
corporales, la orina y el suero sanguíneo (236),
pudiéndose incorporar horizontalmente a cualquier
organismo vivo. Pero los mendelistas prefirieron saltar por
encima de McClintock, mantenerla en el ostracismo durante
décadas y seguir defendiendo sus posiciones a capa y
espada. Para no quedar en evidencia -como expondré luego-
tuvieron que darle varios quiebros a la teoría
cromosómica con su discreción
característica.
No fueron las únicas censuras trabadas por
los mendelistas sobre determinados fenómenos
genómicos que afean sus dogmas. En 1906 Edmund B.
Williamson descubrió los cromosomas B y en 1928 Randolph
estableció sus diferencias con los cromosomas A u
ordinarios. También denominados supernumerarios, son un
supuesto de aneuploidía o cambio en el
número de cromosomas, en este caso añadido al
número habitual. En los seres humanos el supuesto
más conocido es el que da lugar al síndrome de
Down, cuya causa es la existencia de un tercer cromosoma
(trisomía) en el par 21 de cromosomas ordinarios. Pues
bien, los cromosomas B tampoco responden a las leyes de Mendel ya
que no se segregan durante la división celular, por lo que
tienden a acumularse en la descendencia, especialmente en las
plantas. Estos fenómenos dan lugar a otros de tipo
también singular que poco tienen que ver con los
postulados de la teoría sintética, tales como:
— la formación de mosaicos
especialmente en plantas, es decir, de células con
distinto número de cromosomas dentro del mismo organismo
vivo — la fecundidad de los cruces entre personas con
síndrome de Down, pese a disponer de un número
diferente de cromosomas
La teoría cromosómica
también es errónea porque, como afirmó
Lysenko, conduce a excluir la posibilidad de cualquier clase de
hibridación que no sea de origen sexual, algo que Darwin y Michurin
ya habían demostrado que no era cierto con sus
experimentos de hibridación vegetativa. Pero sobre este
punto, uno de los más debatidos en 1948, también
volveré más adelante.
Uno de los descubrimientos de Morgan fue
consecuencia de su consideración del cromosoma como una
unidad y con ello demostró uno de los principales errores
derivados de las leyes de Mendel: que los genes no son
independientes sino que aparecen asociados entre sí
(linkage). Los genes interactúan, al menos
consigo mismos. Un discípulo de Morgan, Alfred Sturtevant,
también empezó a observar muy pronto el "efecto de
posición" de las distintas secuencias cromosómicas,
lo que refuerza la vinculación interna de todos ellos.
Pero Morgan se cuida de no poner de manifiesto la
contradicción de su descubrimiento y del efecto de
posición con las leyes de Mendel, que "se aplica a todos
los seres de los reinos animal y
vegetal" (237). Morgan tapaba un error colocándole otro
encima. No había otro remedio porque desde un principio
las grietas del mendelismo aparecieron al descubierto.
De la teoría cromosómica se han retenido sus
aspectos erróneos, descuidando lo que antes he
reseñado, algo verdaderamente interesante y que es,
además, lo más obvio: la noción de que, en
definitiva, lo que se hereda no son los genes sino los
cromosomas, y si en ellos -como hoy sabemos- hay tanto ADN como
proteínas, esto quiere decir que no existe
una separación absoluta entre el plasma germinal y el
cuerpo; si las proteínas son el cuerpo hay que concluir
que también heredamos el cuerpo. Esto resulta aún
más contundente habida cuenta -repito- de que en la
fecundación preexiste un óvulo
completo, que no es más que una célula con su
núcleo y su citoplasma, por lo que se obtiene la misma
conclusión: si el citoplasma del óvulo forma parte
del cuerpo, volvemos a comprobar por esta vía que
también heredamos el cuerpo.
Las conclusiones que se pueden extraer de la teoría
cromosómica no se agotan en este punto. Como
observó el belga Frans Janssens en 1909 y el propio Morgan
más tarde, en la división celular siempre se
produce un entrecruzamiento (crossing over) de
determinados fragmentos de los cromosomas homólogos. De
modo que no solamente no es cierto que recibamos los genes de
nuestros ancestros; ni siquiera recibimos sus cromosomas
íntegros sino exactamente fragmentos entremezclados de
ellos, es decir, que se produce una mezcla de los procedentes del
padre con los de la madre. Por consiguiente, la ley de
segregación de los factores establecida por Naudin y
Mendel no es absoluta sino relativa: la segregación no es
incompatible con la mezcla. La segunda de las leyes de Mendel
tampoco se mantiene incólume, incluso en el punto fuerte
al que el mendelismo se contrae: la reproducción sexual. En la herencia
coexisten tanto la continuidad como la discontinuidad, la pureza
como la mezcla y, lo que es aún más importante, se
crean nuevos cromosomas distintos de los antecedentes y, a la
vez, similares a ellos. La herencia es, pues,
simultáneamente una transmisión y una
creación; los hijos se parecen a los padres, a ambos
padres, al tiempo que son diferentes de ellos. Pero esto no es
suficiente tenerlo en cuenta sólo desde el punto de vista
generacional, es decir, de los descendientes respecto de los
ascendientes. En realidad, cada célula hereda una
información genética única y distinta de su
precedente. Como en cada organismo vivo las células se
están dividiendo, también se están renovando
constantemente. El genoma de cada organismo cambia continuamente
en cada división celular: se desarrolla con el cuerpo y no
separado de él. Un niño no tiene el mismo genoma
que sus progenitores y un adulto no tiene el mismo genoma que
cuando era niño. No existen las copias perfectas.
Para acabar, el entrecruzamiento tampoco se produce al azar
sino que obedece a múltiples influencias que tienen su
origen en el medio interno y externo (sexo, edad,
temperatura,
etc.), que son modificables (238). Ese es el significado exacto
de la herencia de los caracteres adquiridos: desde la primera
división que experimenta el óvulo fecundado, el
embrión adquiere nuevos contenidos génicos y, por
lo tanto, nuevos caracteres que no estaban presentes en la
célula originaria y que aparecen por causas internas y
externas.
Pero no fueron esas las conclusiones que obtuvo Morgan de su
descubrimiento, sino todo lo contrario: creó la
teoría de la copia perfecta, que llega hasta nuestros
días constituyendo la noción misma de gen como un
componente bioquímico capaz de crear "copias perfectas de
sí mismo" (239). Esta concepción está ligada
a la teoría de la continuidad celular: las células
se reproducen indefinidamente unas a otras y cada una de ellas es
idéntica a sus precedentes. La evolución ha desaparecido completamente; el
binomio generación y herencia se ha roto en dos pedazos
incompatibles. La herencia es un "mecanismo" de
transmisión, algo diferente de la generación; eso
significa que sólo se transmite lo que ya existe
previamente y exactamente en la misma forma en la que
preexiste.
Esta concepción es rotundamente falsa. Está
desmentida por el propio desarrollo
celular a partir de unas células
madre indiferenciadas, hasta acabar en la formación de
células especializadas. Así, las células de
la sangre tienen una
vida muy corta. La de los glóbulos rojos es de unos 120
días. En los adultos los glóbulos rojos se forman a
partir de células madre residentes en la médula
ósea y a lo largo de su proliferación llegan a
perder el núcleo, de modo que, al madurar, ni siquiera se
puede hablar de ellas como tales células. Pero
además de glóbulos rojos, en su proceso de
maduración las células madre de la sangre
también pueden elaborar otro tipo de células
distintas, como los glóbulos blancos. Por tanto, a lo
largo de sus divisiones un mismo tipo de células se
transforma en células cualitativamente distintas. A su
vez, esas células pueden seguir madurando en estirpes
aún más diferenciadas. Es el caso de un tipo
especial de glóbulos blancos, los linfocitos, que al
madurar reestructuran su genoma para ser capaces de fabricar un
número gigantesco de anticuerpos. Al mismo tiempo que se
diferencian, hay células que persisten indiferenciadas en
su condición de células madre para ser capaces de
engendrar continuamente nuevas células. Por tanto, nada
hay más lejos de la realidad que la teoría de la
copia perfecta.
El artificio positivista de Morgan es el que impide plantear
siquiera la heredabilidad de los caracteres adquiridos, lo que le
condujo a considerar que sus descubrimientos habían
acabado con el engorroso asunto del "mecanismo" de la herencia de
manera definitiva, a costa de seguir arrojando lastre por la
borda: "La explicación no pretende establecer cómo
se originan los factores [genes] o cómo influyen en el
desarrollo del embrión. Pero éstas no han sido
nunca partes integrantes de la doctrina de la herencia" (240). De
esta manera absurda es como Morgan encubría las paradojas
de la genética: sacándolas de la genética,
como cuestiones extrañas a ella. Si antes la
sicología había desaparecido escindida de la
biología, Morgan estableció otra separación
ficticia entre genética (transmisión de los
caracteres) y embriología (expresión de los
caracteres) (241), en donde esta última no tiene ninguna
relevancia para la biología evolutiva. Este tipo de
concepciones erróneas tuvieron largo aliento en la
biología moderna, de modo que sus estragos aún no
han dejado de hacerse sentir. A su vez, son consecuencia de la
ideología positivista, que se limita a
exponer el fenómeno tal y como se desarrolla delante del
observador, que se atiene a los rasgos más superficiales
del experimento. No cabe preguntar de dónde surge y
cómo evoluciona eso que observamos antes nuestros
órganos de los sentidos
(242).
La teoría cromosómica es consecuencia del
micromerismo, una de sus formas especiales, característica
de finales del siglo XIX. En 1900 el micromerismo celular de
Virchow pasaba a convertirse en el micromerismo molecular de
Sutton, Boveri y Morgan. Este último defiende con
claridad:
"El individuo no
es en sí mismo la unidad en la herencia sino que en los
gametos existen unidades menores encargadas de la
transmisión de los caracteres.
La antigua afirmación rodeada de misterio, del
individuo como unidad hereditaria ha perdido ya todo su interés"
(243).
El micromerismo le sirve para alejar un misterio… a cambio
de sustituirlo por otro: esas unidades menores de las que nada
aclara, y cuando se dejan las nociones en el limbo es
fácil confundir las unidades de la herencia con las
unidades de la vida. Naturalmente que aquella "antigua
afirmación rodeada de misterio" a la que se refería
Morgan era la de Kant; por tanto,
el misterio no estaba en Kant sino en Morgan. Con Morgan la
genética perdió irremisiblemente la idea del
"individuo como unidad" a favor de otras unidades más
pequeñas. A este respecto Morgan no tiene reparos en
identificarse como mecanicista: "Si los principios
mecánicos se aplican también al desarrollo
embrionario, el curso del desarrollo puede ser considerado
como una serie de reacciones físico químicas, y el
individuo es simplemente un término para expresar la suma
total de estas reacciones, y no habría de ser interpretado
como algo diferente de estas reacciones o como más de
ellas" (244).
Morgan no era un naturalista. Su método era
experimental; no salía de su laboratorio y sólo
miraba a través de su microscopio. Un viaje en el Beagle
le hubiera mareado. Ya no tenía sentido aludir al ambiente
porque no había otro ambiente que una botella de cristal.
Aquel ambiente creaba un mundo artificial. Morgan no cazaba
moscas sino que las criaba en cautividad, sometiéndolas a
condiciones muy distintas de las que encuentran en su hábitat
natural, por ejemplo, en la oscuridad o a bajas temperaturas. De
esa manera lograba mutaciones que cambiaban el color de sus ojos.
Pero esas mutaciones eran mórbidas, es decir,
deformaciones del organismo. Sólo una de cada cinco mil o
diez mil moscas mutantes con las que Morgan experimentaba era
viable (245). Tenían los ojos rojos y él
decía que las cruzaba con moscas de ojos blancos. Ahora
bien, no existen moscas de ojos blancos en la naturaleza
sino que las obtenía por medios artificiales. Por lo
tanto, no se pueden fundamentar las leyes de la herencia sobre el
cruce de un ejemplar sano con otro enfermo. Como bien
decía Morgan con su teoría de los genes asociados,
esas mutaciones no sólo cambian el color de los ojos a las
moscas sino que provocan otra serie de patologías en el
insecto. Una alteración mórbida es excepcional y no
puede convertirse la excepción en norma, es decir, en un
rasgo fenotípico de la misma naturaleza que los rasgos
morfológicos habituales: color del pelo, estatura,
etc.
Morgan era plenamente consciente de que las leyes que regulan
la transmisión hereditaria de la salud no son las mismas que
las de la enfermedad y la manera en que elude la crítica
es destacable por la comparación que establece:
también en física y astronomía hay experimentos antinaturales.
De nuevo el reduccionismo y el mecanicismo juegan aquí su
papel: las moscas son como los planetas y la
materia viva
es exactamente igual que la inerte. Las moscas obtenidas en el
laboratorio (sin ojos, sin patas, sin alas) son de la misma
especie que las silvestres y, en consecuencia, comparables (246).
Morgan confundía una variedad de una especie con una
especie enferma y no tuvo en cuenta aquello que dijo D"Alembert
en el "Discurso
Preliminar de la Enciclopedia": que los monstruos en
biología sirven "sobre todo para corregir la temeridad de
las proposiciones generales" (247).
Por aquellas fechas, a comienzos del siglo XX, es cuando se
establecen las primeras asociaciones entre algunas enfermedades y la constitución genética de los
pacientes. La noción de patología hereditaria
comienza a consolidarse. La primera alteración
génica conocida capaz de producir una patología, la
alcaptonuria, fue descrita por el médico británico
Archibald E. Garrod (1857-1936). La alcaptonuria es un
oscurecimiento de la orina después de ser excretada, a
causa del contacto con el aire. En 1902
Garrod publicó The incidente of alkaptonuria: A study
of chemical individuality, donde expone el origen
genético de la alcaptonuria. Amigo de Garrod, Bateson se
interesó especialmente por esta enfermedad, ya que se
detectaba con mayor frecuencia en los hijos de padres
emparentados consanguíneamente. Es más, fue Garrod
quien relacionó por vez primera a los genes con las
enzimas de una
manera característica: una mutación génica
provocaba que el organismo no fabricara en cantidad suficiente la
enzima responsable de la conversión del ácido
homogentísico en anhídrido carbónico y
agua; aunque
una parte de dicho ácido se elimina a través de la
orina, el resto se acumula en determinadas partes, provocando una
coloración negruzca (ocronosis). Se estableció
entonces la primera versión del dogma "un gen, una enzima"
que triunfaría medio siglo después. A mayor
abundancia, no se puede descuidar la metodología micromerista de Garrod,
presente en su noción de "individualidad química",
según la cual "hemos concebido la patología en
términos de célula, pero ahora empezamos a pensar
en términos de molécula". Para acabar, parece
preciso aludir al título de otra de las obras de Garrod,
escrita en 1931: The inborn factors in disease, es
decir, "Los factores innatos de la enfermedad".
El error de cruzar ejemplares enfermos con sanos ya
había sido comprobado experimentalmente en varias
ocasiones. El biólogo francés Lucien Cuenot fue uno
de los primeros que, tras el redescubrimiento, trató de
comprobar la aplicación de las leyes de Mendel a los
animales. Lo hizo con ratones albinos, pero tuvo el cuidado de
advertir que el albinismo no es un carácter sino la
ausencia de un carácter. En 1909 Ernest E. Tyzzer,
patólogo de la Universidad de
Harvard, realizó cruces entre ratones sanos con otros
denominados "japoneses valsantes", que deben su nombre al
padecimiento de una mutación recesiva. Durante dos
generaciones la descendencia fue inoculada con un tumor,
observando que la patología se desarrollaba en la primera
de ellas en todos los casos y en ninguno de la segunda, por lo
que se pensó que el fenómeno no obedecía a
las leyes de Mendel. Sin embargo, Little demostró que la
no aparición de ningún supuesto tumoral en la
segunda generación se debía al empleo de un
número escaso de ejemplares, de manera que utilizando un
volumen mayor
descubrió que aparecía en un uno por ciento
aproximadamente, porcentaje que posteriormente se afinó,
obteniendo un 1"6 por ciento de tumores en la segunda
generación, cifra que variaba en función del tipo
de ratones utilizados y del tumor inoculado. El desarrollo
posterior de los experimentos comprobó que ese porcentaje
también era válido si en lugar de una enfermedad se
trasplantaban a los ratones tejidos sanos
(248) porque dependía del sistema inmune,
que es diferente para cada especie y para cada tipo de
enfermedad.
El antiguo método especulativo, decía Morgan,
trataba la evolución como un fenómeno
histórico; por el contrario, el método actual es
experimental, lo cual significa que no se puede hablar
científicamente de la evolución que hubo en el
pasado. La evolución significa que los seres vivos que hoy
existen descienden de los que hubo antes: "La evolución no
es tanto un estudio de la historia del pasado como una
investigación de lo que tiene lugar actualmente". El
reduccionismo positivista tiene ese otro componente:
también acaba con el pasado y, por si no fuera suficiente,
también con el futuro, es decir, con todas las
concepciones finalistas herederas de Kant: la ciencia
tiene que abandonar las discusiones teleológicas
dejándolas en manos de los metafísicos y filósofos; el finalismo cae fuera de la
experimentación porque depende exclusivamente del
razonamiento y de la metafísica
(249). Como no hay historia, no es necesario indagar por el
principio ni tampoco por el final. Paradójicamente la
evolución es un presente continuo, el día a
día.
Tampoco hay ya lucha por la existencia, dice Morgan: "La
evolución toma un aspecto más pacífico. Los
caracteres nuevos y ventajosos sobreviven incorporándose a
la raza, mejorando ésta y abriendo el camino a nuevas
oportunidades". Hay que insistir menos en la competencia,
continúa Morgan, "que en la aparición de nuevos
caracteres y de modificaciones de caracteres antiguos que se
incorporan a la especie, pues de éstas depende la
evolución de la descendencia". Pero no sólo habla
Morgan de "nuevos caracteres" sino incluso de nuevos factores, es
decir, de nuevos genes "que modifican caracteres",
añadiendo que "sólo los caracteres que se heredan
pueden formar parte del proceso evolutivo" (250).
Sorprendentemente esto es un reconocimiento casi abierto de la
tesis de la
heredabilidad de los caracteres adquiridos. En realidad, las
investigaciones de Morgan confirmaban la tesis
lamarckista, es decir, que al cambiar las condiciones
ambientales, las moscas mutaban el color de sus ojos y
transmitían esos caracteres a su descendencia. No hay
acción
directa del ambiente sobre el organismo; la influencia es
indirecta, es decir, el mismo tabú que antes había
frenado a Weismann. No es la única ocasión en la
que Morgan se deja caer en el lamarckismo, al que critica
implacablemente. También al tratar de explicar la
"paradoja del desarrollo" incurre en el mismo desliz. Morgan
reconoce la existencia de la paradoja y esboza sucesivamente
varias posibles explicaciones, que no son -todas ellas-
más que otras tantas versiones de la heredabilidad de los
caracteres adquiridos. Según Morgan quizá no todos
los genes entren en acción al mismo tiempo; a medida que
el embrión pasa por las sucesivas fases de desarrollo
diferentes baterías de genes se activan una después
de la otra: "En las diferentes regiones del huevo tienen lugar
reacciones distintas que comprenden diferentes baterías de
genes. A medida que las regiones se diferencian, otros genes
entran en actividad y otro cambio tiene lugar en el protoplasma,
el cual ahora reacciona nuevamente sobre el complejo de genes.
Este punto de vista presenta una posibilidad que debemos tener en
consideración".
Luego esboza otra posible explicación de la paradoja:
en lugar de suponer que todos los genes actúan siempre de
la misma manera y de suponer que los genes entran en
acción de manera sucesiva, cabe imaginar también
que el funcionamiento de los genes "sufre un cambio como
reacción a la naturaleza del protoplasma donde se
encuentran" (251). De ahí se desprende que los genes no
regulan sino que son regulados, que es el citoplasma, el cuerpo
de la célula, el que reacciona sobre los genes y los pone
en funcionamiento en función del estadio de desarrollo
alcanzado por la célula.
En otro apartado Morgan vuelve a reconocer la herencia de lo
adquirido. Hay casos -dice- en los que "queda demostrado que el
ambiente actúa directamente sobre las células
germinales por intermedio de agentes que, al penetrar en el
cuerpo, alcanzan dichas células". Pone el ejemplo de las
radiaciones. Las células germinales son especialmente
sensibles a ellas; afectan más a los cromosomas que al
citoplasma y causan esterilidad en los embriones. La debilidad y
los defectos que provocan en los organismos pueden ser
transmitidos a generaciones posteriores, aún por una
progenie que aparentemente es casi o completamente normal. Pero
este hecho evidente no se puede emplear como prueba de la
herencia lamarckiana: "No cabe duda que esos efectos nada tienen
que ver con el problema de la herencia de los caracteres
adquiridos, en el sentido que se le ha atribuido siempre a este
término". ¿Por qué? Morgan no lo explica.
Quizá la clave esté en ese enigmático
"sentido" que "siempre" se le ha atribuido
(¿quién?) a dicho término: bastaría,
pues, atribuirle otro "sentido" distinto y ya estaría
solucionada la cuestión. Pero Morgan ni siquiera se atreve
a entrar en ese galimatías lingüístico. No
obstante, se despacha a gusto con la herencia de los caracteres
adquiridos: se trata de una superstición derivada de
pueblos antiguos, teoría frágil y misteriosa, una
pesadilla de lógica
falsa sustentada en pruebas sin
consistencia ninguna.
Resulta desmoralizante -añade Morgan- perder tanto
tiempo en refutar esta teoría que "goza del favor popular"
y tiene un componente emotivo envuelto en un misterio.
Precisamente el papel de la ciencia consiste en destruir las
supersticiones perniciosas "sin tener en cuenta la
atracción que puedan ejercer sobre los individuos no
familiarizados con los métodos rigurosos exigidos por la
ciencia" (252). Ningún científico apegado a los
"métodos rigurosos de la ciencia" puede incurrir en
tamaña superchería; eso sólo es propio de
los advenedizos, aficionados y autodidactas, incapaces de
comprender las maravillas de un método tan especial que
está al alcance de muy pocos iluminados.
Es bien cierto que desde su mismo origen la noción de
herencia de los caracteres adquiridos es extraordinariamente
confusa y que una de las estrategias
implementadas para desacreditarla ha sido crear una mayor
confusión, retorcerla periódicamente para que no
quepa reconocer nunca las influencias ambientales. Un
biólogo marxista español,
Faustino Cordón, defendía el neodarwinismo de la
forma siguiente: "En el organismo, bien resguardadas de
influencias externas, se encuentran las células germinales
sobre las cuales no pueden influir "coherentemente" las
modificaciones que experimente durante su vida el cuerpo del
animal (esto es, los caracteres adquiridos no se heredan). Pero
si es inconcebible, como de hecho lo es, que el organismo adulto,
al irse modificando por su peripecia, moldee de modo coherente
con ésta sus células embrionarias, hay que deducir,
como conclusión incontrovertible, que el medio de una
especie no ha podido ajustarlas a él moldeando
directamente los cuerpos de los individuos adultos" (253). Es lo
mismo que defienden los Medawar cuando escriben: "No es
pertinente que la mutación pueda inducirse por un agente
externo, sobre todo radiaciones ionizantes, como rayos X; esto no
es pertinente porque no existe relación funcional o
adaptante entre el carácter del mutante y la naturaleza
del mutágeno que lo causó: las mutaciones no se
originan en respuesta a las necesidades del organismo y tampoco,
excepto por accidente, las satisfacen" (254). Por lo tanto, en un
caso, se exige a la herencia de los caracteres adquiridos que el
medio ejerza una influencia "coherente" y, en el otro, que sea
"adaptativa", circunstancias ambas que nunca formaron parte de la
teoría. Como proponía Morgan en este mismo asunto,
siempre es posible definir los conceptos de manera tal que sea
imposible reconocerlos bajo ninguna circunstancia, esto es, un
juego con las
cartas
marcadas de antemano. Lo que la teoría siempre sostuvo es
que el medio ejerce una influencia directa e indirecta sobre el
cuerpo y, por tanto, sobre el genoma como parte integrante del
cuerpo, así como que dicha influencia se transmite
hereditariamente.
Este argumento de los mendelistas tiene varios aspectos
subyacentes que conviene realzar explícitamente.
Así, por ejemplo, no tiene un carácter general en
cuanto que, a efectos inmunitarios, las influencias ambientales
son adaptativas: cada patógeno induce la formación
de un anticuerpo específico. Pero quizá lo
más importante es que lo que la crítica pretende es
separar artificialmente el lamarckismo del darwinismo de tal
manera que al introducir los factores ambientales y la herencia
de los caracteres adquiridos queda excluida la selección
natural. No hay ningún argumento para pensar que eso pueda
suceder de esa manera y, desde luego, Darwin se fundamentó
en todo lo contrario al combinar ambos aspectos. Efectivamente es
cierto que las influencias ambientales, como cualquier otra clase
de mutaciones, no desarrollan adaptaciones perfectas de manera
mecánica. Lo único que explican es
la variabilidad; la adaptación o inadaptación es
obra, según Darwin, del uso y desuso y de la
selección natural. Para que haya selección antes
tiene que haber una diversidad entre la cual poder elegir.
Al negar la influencia de los factores ambientales la
teoría sintética negaba la unidad del organismo con
el medio y al exigir adaptación niega la
contradicción entre ambos. Lo que la biología tiene
demostrado es que cada ser vivo forma una unidad con su
hábitat, lo cual no excluye, al mismo tiempo, la
contradicción entre ambos. Sólo en las teorías
creacionistas la adaptación aparece
instantáneamente como algo ya dado. En cualquier
teoría de la evolución la adaptación es un
proceso dilatado en el tiempo.
El francés Maurice Caullery es otro exponente del doble
rasero con el que los mendelistas abordan la herencia de los
caracteres adquiridos, tanto más significativa en cuanto
que Caullery se inició en las filas del lamarckismo. El
biólogo francés se enfrenta al problema de explicar
las enfermedades hereditarias, un ejemplo de que se hereda tanto
el plasma como el cuerpo, en este caso las patologías
corporales. Sostiene lo siguiente: "Todo lo que pasa de una
generación a la siguiente no dimana de la herencia
propiamente dicha. Algunas enfermedades, que son seguramente
transmisibles, son a menudo falsamente llamadas hereditarias,
como la sífilis
hereditaria. Se trata, en realidad, de una contaminación del germen por un agente
infeccioso, independiente del organismo mismo. Todos los hechos
de ese orden no entran en el cuadro de la herencia, incluso
cuando se presentan con una generalidad y una constancia
perfectas". El argumento no puede ser más sorprendente:
las enfermedades hereditarias no son hereditarias porque no se
transmite un plasma auténtico sino un plasma contaminado.
Pasemos por alto la validez de este argumento. Caullery lo lleva
más allá e incluye dentro de ese plasma contaminado
a toda la herencia citoplasmática, de la que llega incluso
a poner en duda su existencia. También haremos la vista
gorda ante esta segunda afirmación y, por tanto,
supondremos que si las patologías no valen como ejemplo de
herencia de los caracteres adquiridos tampoco valen como ejemplo
de herencia mendeliana. Sería la única tesis
coherente que podríamos esperar… Pero no es así
porque Caullery acaba de la siguiente manera: "Los hechos que en
el hombre revelan más claramente la herencia mendeliana
son los de orden patológico, relativos a la
transmisión de bastantes enfermedades constitucionales, o
de malformaciones" (255). Las enfermedades valen para el
mendelismo pero no valen para el lamarckismo. Con tales trucos
parece natural que no haya ninguna forma de demostrar la herencia
de los caracteres adquiridos.
La genética formalista siguió implacable a la
caza de Lamarck y los restos que quedaban de las tesis
ambientalistas. El 7 de agosto de 1926 Gladwyn K. Noble
publicó en la revista
Nature un informe
denunciando que los experimentos realizados por el biólogo
austriaco Paul Kammerer con sapos parteros criados en el agua para
demostrar la influencia sobre ellos del cambio de medio, eran
fraudulentos. El suicidio de
Kammerer pocos días después ejemplificaba la suerte
futura de este tipo de teorías. Kammerer fue arrojado al
basurero de la historia. También Mendel había
falsificado las suyas pero un fraude no se
compensa con otro (al menos en la ciencia). Por lo demás,
estaba claro que el mendelismo tenía bula pontificia y el
supuesto fraude de Kammerer pareció cometido por el
mismísimo Lamarck en persona.
En los libros de texto las
menciones a esos fraudes deberían ir acompañadas de
unas buenas comillas tipográficas porque en 2009,
volviendo a mostrar su más implacable rostro, la historia
empezó a sacar a Kammerer del pozo negro en el que le
habían introducido.
La revista Journal of Experimental Zoology
publicó un artículo del investigador chileno
Alexander Vargas en el que afirmaba que los experimentos del
austriaco no sólo no eran un fraude sino que tenemos que
considerar a Kammerer como el fundador de la epigenética
(256). Nada de esto es, en realidad, novedoso porque poco
después del suicidio de Kammerer ya se descubrió un
espécimen silvestre de sapo partero con almohadillas
nupciales, lo que demostraba que los sapos parteros tenían
el potencial para desarrollarlas. Kammerer y los lamarckistas
tenían razón, pero la razón tuvo que volver
a esperar 80 años y nunca podrá recuperar al
científico austriaco de su amargo final; deberá
conformarse con reivindicar su memoria. Era un
anticipo de lo que le esperaba a Lysenko. Al fin y al cabo
Kammerer era socialista y se aprestaba a instalarse en la URSS
cuando se pegó un tiro en la cabeza.
Kammerer no era el único lamarckista; en aquella
época, cuando Estados Unidos no había logrado
aún la hegemonía ideológica que obtuvo en
1945, era bastante frecuente encontrar biólogos que
realizaron ensayos
parecidos. A partir de 1920 el británico MacDougall
inició un concienzudo experimento que duró nada
menos que 17 años con ratones albinos para demostrar la
heredabilidad de una conducta
aprendida. MacDougall adiestró 44 generaciones de ratones
para que lograran salir de una fuente rectangular llena de agua
con dos rampas laterales simétricas, una de las cuales
estaba fuertemente iluminada y conectada a un circuito
eléctrico que lanzaba una descarga al ratón que
pretendiera escapar por ella. Sometía a cada animal a seis
inmersiones diarias a partir de su cuarta semana de vida, cesando
la operación cuando el ratón demostraba haber
averiguado la ruta de salida, diferenciando de entre las dos
rampas, aquella que le permitía huir sin recibir una
luz cegadora
ni una fuerte descarga eléctrica. La prueba terminaba
cuando salía 12 veces sin vacilar por la rampa inocua. El
número de errores se tomaba como medida del grado de
aprendizaje
adquirido y a partir del recuento MacDougall obtenía un
promedio generacional con las sucesivas estirpes. Para evitar los
efectos de la selección natural tomó la
precaución de utilizar en cada generación a la
mitad que había demostrado mayor torpeza; también
eligió otros ratones al azar para el mismo experimento y
utilizó a algunos de ellos como "testigos neutrales" y
cruzó ratones ya adiestrados con otros "testigos" para
evitar cualquier posibilidad de intervención de factores
ajenos al aprendizaje. Los resultados fueron bastante claros: el
promedio de errores descendía (aunque no de manera
uniforme), pasando de 144 en la primera generación a 9 en
la última. La conclusión de MacDougall es que
el aprendizaje
se había convertido en hereditario (257).
Morgan criticó los resultados de MacDougall, con los
"argumentos" demagógicos que acostumbraba. Naturalmente
este tipo de experimentos suscitan dudas; nunca son concluyentes
no sólo porque cambian las condiciones del experimento,
sino la estadística, la manera de deducir los
resultados cuantitativos, se presta a la desconfianza. Existen
demasiados "medios" interpuestos, demasiados factores que no
siempre se tienen en cuenta, etc. Se han intentado repetir,
aunque nunca de una manera tan exhaustiva, y los resultados no
son coincidentes.
Stockard fue otro de aquellos investigadores obsesionados por
demostrar la tesis de la herencia de los caracteres adquiridos
con experimentos de laboratorio. Hizo inhalar vapores
etílicos a sus cobayas durante seis años,
sucediéndose varias generaciones en las que observó
taras hereditarias, especialmente en los ojos e incluso en los
cromosomas (258).
El catedrático de zoología de la Sorbona,
Frédéric Houssay, sometió a gallinas a una
dieta de carne; en varias generaciones sucesivas observó
que disminuía el tamaño del hígado y la
molleja, pero a partir de la sexta generación las gallinas
morían o quedaban estériles…
El azar considerado
como una de las bellas artes
A causa del "redescubrimiento" de Mendel, en la época
de Morgan el darwinismo había sido eliminado tanto como el
lamarckismo. Con ellos había desaparecido la
evolución misma. No obstante, las evidencias
eran lo suficientemente fuertes como para forzar a los
mendelistas a intentar una conciliación de sus leyes con
la evolución. Ese es el significado de la teoría de
las mutaciones que, habitualmente, se presenta con la muletilla
de "mutaciones al azar", la esencia misma de la teoría
sintética y el denominado neodarwinismo. Las mutaciones
que explican la evolución eran saltos cualitativos,
discontinuos, que hacían aparecer nuevas especies
diferentes de las anteriores. La argumentación es de tipo
genético: lo que mutaban eran los genes y, a su vez, estas
mutaciones engendraban especies diversas. No existían
cambios graduales y, desde luego, ningún papel
desempeñaba el entorno ni nada ajeno a los genes mismos.
El azar es el dios creador de los mendelistas. Las mutaciones se
conciben como auto mutaciones génicas y, por supuesto, no
explican nada, como tampoco nada habían explicado los
cataclismos de Cuvier cien años antes o el diluvio
universal de la Biblia. La biodiversidad
se explicaba por las mutaciones pero las mutaciones carecen de
explicación porque en la teoría sintética
hablar del azar es hablar de la nada (y de todo al mismo tiempo).
En la literatura neo
darwinista el azar desempeña el papel del nóumeno
kantiano, lo incognoscible. No conozco ningún mendelista
que, después de acudir al azar como pócima
milagrosa para justificar toda clase de desaguisados, haya
definido lo que entiende por tal (259). El azar es objeto de un
debate secular
a lo largo de la historia del pensamiento
científico, pero el positivismo
quiere -pero no puede- permanecer al margen de polémicas,
por lo que recurre a una noción vulgar del azar como
casualidad o accidente. Ese recurso sistemático a una
noción vulgar del azar es una deserción de la
ciencia, la negación misma de la posibilidad de la
experimentación científica, de la capacidad para
reproducir una y otra vez los mismos fenómenos, en la
naturaleza y en el laboratorio. Como ha escrito Israel, "no
existen fenómenos aleatorios por naturaleza porque los
fenómenos físicos se rigen por el principio de
razón suficiente" (260). Añado por mi parte que lo
mismo sucede en los fenómenos biológicos.
El abuso del azar, contrapartida paradójica del
determinismo "ciego", ha reconfigurado la teoría de la
evolución para acoger sus tabúes favoritos: el
finalismo, el progreso, el perfeccionamiento o la existencia de
unos seres más desarrollados que otros. Se presta al
antilamarckismo fácil y, por tanto, al tópico: en
la evolución no se observa una línea ascendente en
dirección a ninguna parte, sino la adaptación de
cada ser vivo a sus condiciones locales. Este es otro de esos
aspectos en los que los neo darwinistas son anti darwinistas. De
nuevo la reconstrucción del pensamiento de Darwin sobre su
propio pedestal revela muchas sorpresas. En primer lugar, las
mutaciones al azar y el azar mismo son absolutamente ajenas a
Darwin, quien dejó bien claro su punto de vista
precisamente en el momento mismo de iniciar el capítulo de
"El origen de las especies" titulado "Leyes de la
variación":
Hasta aquí he hablado a veces como si las variaciones
-tan comunes y multiformes en los seres orgánicos en
domesticidad, y en menor grado en los que viven en estado de
naturaleza- fuesen debidas a la casualidad. Esto, por supuesto,
es una expresión completamente incorrecta, pero sirve para
reconocer llanamente nuestra ignorancia de la causa de cada
variación particular. Algunos autores creen que producir
diferencias individuales o variaciones ligeras de estructura es
tan función del aparato
reproductor como hacer al hijo semejante a sus padres. Pero
el hecho de que las variaciones y monstruosidades ocurran con
mucha más frecuencia en domesticidad que en estado
natural, y de que se de mayor variabilidad en las especies de
áreas extensas que en las de áreas restringidas,
llevan a la conclusión de que la variabilidad está
generalmente relacionada con las condiciones de vida a que ha
estado sometida cada especie durante varias generaciones
sucesivas (261).
En segundo lugar, el determinismo "ciego" es una
expresión ajena a Darwin pero no a Lamarck, quien
considera que la naturaleza tiene un poder limitado y ciego que
no tiene intención, ni voluntad ni objetivos
(262). De nuevo la historia de la biología aparece
completamente distorsionada en este punto, como en tantos otros,
por lo que retornamos a la polémica finalista, cuyas
raíces reaparecen en la biología por varias
esquinas distintas. Darwin es tan finalista (o tan poco
finalista) como Lamarck, por lo menos. El británico se
apoya en Von Baer y la teoría de la recapitulación
(habitualmente atribuida a Haeckel, a pesar de que también
tiene su origen en Lamarck) porque es quien "ha dado la mejor
definición que se conoce del adelanto o progreso en la
escala
orgánica, diciendo que descansa sobre la importancia de la
diferenciación y la especialización de las
distintas partes de un ser". El naturalista británico
sostuvo, pues, que existe progreso en la evolución, que se
realiza mediante "pasos lentos e ininterrumpidos", que el
progreso consiste en la complejidad (diferenciación y
especialización) y, por fin, que "el punto culminante lo
tiene el reino vertebrado en el hombre". Eso no significa
-continúa Darwin- que los seres más evolucionados
reemplacen a los predecesores o que estén en mejores
condiciones que éstos para sobrevivir: "Debemos guardarnos
mucho de considerar a los miembros ahora existentes de un
grupo de
organismos inferiores como si fueran los representantes perfectos
de sus antiguos predecesores" (263).
Es cierto que, por influencia de Aristóteles, la evolución se
interpretó no sólo de una manera direccional sino,
además, en una dirección lineal, continuamente
ascendente. Se puede exponer con mayor o menor fortuna pero la
propia palabra "evolución" se compadece muy mal con el
ciego determinismo, sea quien sea el que lo propugne. Por
ejemplo, Piaget no
quiere hablar de finalidad pero utiliza la palabra
"vección" para transmitir la misma idea direccional (264).
Los seres vivos más simples son los más antiguos y
los más complejos son los más recientes, hasta
llegar al hombre, que es donde acaban todas las clasificaciones
biológicas que se han hecho. Es cierto que este hecho ha
favorecido determinadas interpretaciones místicas o
simplemente antropomórficas, que se han dedicado a
extrapolarlo, pero la interpretación contraria que lo niega ha
redoblado sus energías. Las bacterias son
seres de una única célula; los mamíferos se componen de billones de ellas.
Las células anucleadas son anteriores a las que disponen
de núcleo. La reproducción sexual es posterior a la
vegetativa en la evolución. La evolución
experimenta retrocesos y no es unidireccional pero empezó
por las bacterias y acaba por los mamíferos (de
momento).
Las ciencias
están trufadas de conceptos de origen oscuro,
especialmente teológico. Muchos de ellos fueron
abandonados y otros, como el de "impulso" en física o
"afinidad" en química, han logrado sobrevivir porque
responden a fenómenos empíricos contrastados y han
sido definidos de manera crecientemente precisa. Así, la
noción de afinidad química también fue
discutida porque parecía introducir en la naturaleza un
componente antropomórfico: los elementos se atraían
o repudiaban lo mismo que las personas. Se observaba el
fenómeno pero no existía una expresión lo
suficientemente precisa para explicar cabalmente las razones de
ello, así que también se plantearon numerosas
discusiones al respecto. Del mismo modo, la teoría
sintética rechaza hoy infundadamente la noción de
progreso y ese rechazo se extiende a toda la teoría de la
evolución, incluida la paleontología, empleando
caricaturas grotescas, ridiculizando a Lamarck de manera grosera,
como en el caso de "La especie elegida", el reciente éxito
editorial de ventas de
Arsuaga y Martínez, dos de los investigadores de Atapuerca
(265). Posiblemente sea aún más incorrecto que la
inmunología utilice la expresión
"memoria" o que Dawkins hable de genes egoístas y
altruistas, pero su uso no levanta tantas ampollas.
El azar de los mutacionistas no sólo es ciego sino
sordo: no se sabe por qué, cómo, dónde ni
cuándo se producen. Además de no saber sus causas
(si es que tiene causas) tampoco saben sus consecuencias (son
imprevisibles). Lo único que pueden decir es que no tienen
relación con el medio externo: son un "puro accidente
químico" (266). La evolución marcha sin rumbo: "La
evolución tiene su origen en el error" (267). Las
mutaciones son errores de duplicación. Si no hubiera
errores tampoco habría evolución, que es como un
error en cadena. Esta forma extrema de determinismo es otra
extrapolación ideológica cuya pretensión es
la negación del progreso y el avance en la sociedad. La
traslación de los fenómenos biológicos a la
historia del hombre jugó una mala pasada a sus propios
autores. No sólo demostraba que era posible mejorar y
perfeccionar las lacras económicas y sociales sino que era
inevitable que eso sucediera. Para seguir sosteniendo una
imagen
biológica de las sociedades
humanas había que erradicar la idea de progreso en la
evolución de las especies. Pero el hombre como especie
biológica también ha evolucionado y sigue
evolucionando, de modo que a partir de cualquiera de sus
precedentes históricos, la especie actual es un desarrollo
gigantesco, un verdadero salto adelante respecto de cualquier
otro homínido. Esa evolución no sólo se
aprecia en un sentido físico sino desde cualquiera de los
ángulos que se pretenda adoptar, como en el caso del
propio conocimiento,
cuyo avance progresivo es espectacular. Por el contrario, el
recurso al azar y al error de los mendelistas es buena prueba de
la inconsistencia interna con que apareció la
teoría de las mutaciones, ya que contrastaba poderosamente
con otros dos componentes de la teoría
sintética:
a) el determinismo estricto que se otorgó al plasma
germinal en la configuración del cuerpo b) la
teoría de la copia perfecta (error de copia o de
transcripción del ADN)
¿Por qué el mendelismo es determinista a unos
efectos y recurre al azar a otros? Como suele suceder, no
obtenemos ninguna clase de explicaciones. Es un completo absurdo
científico que conduce al túnel del tiempo, al
pensamiento medieval. Este retroceso tiene su origen en un error:
el de considerar que en la naturaleza el error es aquel
fenómeno que aparece con una frecuencia baja mientras que
lo "normal", la "copia perfecta", emerge habitualmente. Ahora
bien, si la evolución tiene su origen en el error, lo
"normal" es precisamente el error y lo extraordinario
sería conocer un caso en el cual la reproducción
lograra obtener una "copia perfecta" del original, una criatura
idéntica a su progenitor. Cualquier manual de
pasatiempos matemáticos está repleto de ese tipo de
paradojas acerca de lo que concebimos como "normal" o
"excepcional", lo que podemos extender a todas aquellas
expresiones ligadas a lo contingente: fortuito, afortunado
(desafortunado), coincidencia, casualidad, accidente, suerte,
etc.
Todos los discursos en
torno a estas
cuestiones conducen, además, a una tautología: lo
infrecuente es aleatorio y lo aleatorio es infrecuente. La
versión extrema de ese tipo de planteamientos son los
"casos únicos", los realmente insólitos, aquellos
que sólo han aparecido una vez. Es una concepción
estética del azar que, por supuesto, nada
tiene que ver con la ciencia. No hay nada más irrepetible
que una obra de arte, el refugio
de lo exclusivo y lo inimitable, por contraste con el repudio que
provoca lo rutinario y lo monótono, aquello que se repite.
La concepción absoluta del azar, como la que expone Monod,
no es más que una concepción decorativa trasladada
a la genética.
El imaginario mendelista está edificado sobre una
noción fantástica de azar, en el que éste es
consustancial a una no menos fantástica noción de
la libertad
humana, que contrasta con el marxismo,
negador de esa misma libertad, como corresponde una
ideología dogmática. Huxley sostuvo la tesis de que
la genética soviética había repudiado el
mendelismo porque el marxismo, a su vez, como doctrina
dogmática, repudia el azar:
Es posible que detrás del pensamiento de los dirigentes
políticos e ideológicos de la U.R.S.S. exista el
sentimiento de que no hay lugar para el azar o para la
indeterminación en la ideología marxista en general
ni, en particular, en la ciencia, tal como la concibe el materialismo
dialéctico, el sentimiento de que en un sistema que
pretende la certeza no hay lugar para la probabilidad o
el accidente.
No sé si esa es o no la respuesta correcta. Para
descubrir las razones fundamentales del ataque a la teoría
de las probabilidades, sería necesario leer, digerir y
analizar todo lo que ha sido publicado en Rusia sobre el
tema, y aunque valdría la pena hacerlo, debo dejarlo para
otros (268).
Efectivamente, el biólogo británico no
tenía ni la más remota idea de lo que estaba
hablando, pero no por eso guardó silencio, como
corresponde a cualquier persona que es consciente de su falta de
información, máxime si se trata de un
científico. Pero cuando se alude a la URSS la ignorancia
importa menos, de manera que la pretensión de Huxley de
extender la crítica al mendelismo al cálculo de
probabilidades, es una auténtica aberración que
pone al desnudo su falta de honestidad
intelectual. Entre otros datos, Huxley
ignoraba que la primera obra de Marx en defensa
de la teoría del "clinamen" de los átomos de
Epicuro no es, en definitiva, más que una crítica
del estricto determinismo de Demócrito y, por
consiguiente, una defensa del papel del azar (269). Ignoraba
también que el azar fue introducido en 1933 en la matemática
moderna por el soviético Kolmogorov, junto con Jinchin
autor de los manuales
más importantes de esta disciplina en
el siglo pasado (270). Sin desarrollar la estadística, la
econometría y el cálculo de probabilidades, la
planificación socialista no hubiera sido
posible, ni tampoco fabricar cohetes balísticos
intercontinentales o satélites
espaciales.
Del azar cabe decir lo mismo que del alma y
demás conceptos teológicos introducidos en la
biología sin mayores explicaciones por la puerta trasera.
En la antigüedad clásica su presencia se imputaba a
la intervención en los fenómenos naturales de entes
inmateriales o sobrenaturales que desviaban el curso esperado de
los acontecimientos. Las situaciones indecisas se
resolvían echándolo a suertes, es decir, por
sorteo. Era una forma de que los dioses decidieran donde los
humanos no eran capaces. Así eludimos nuestra propia
responsabilidad por las decisiones erróneas
que adoptamos: hemos tenido mala suerte. No hemos previsto todas
las consecuencias posibles que se pueden derivar de nuestros
actos y a ese resultado le llamamos azar. A causa de ello, en
nuestra vida nos ayudamos de amuletos que nos traen buena suerte.
Los espíritus deciden las situaciones inciertas haciendo
que la suerte sonría a los más fieles, aquellos que
rezan o pasean en romería imágenes
sagradas para que llueva y las cosechas sean abundantes. Las
causas inexplicables se atribuyeron primero a la fortuna, que era
una diosa, y luego al azar, el reducto en el que la ciencia
jamás podrá penetrar.
A partir del siglo XVII, como en tantos otros
fenómenos, se demostró que no hay nada
incognoscible y nació el cálculo de probabilidades,
cuyo desarrollo constata que no existe una muralla infranqueable
entre los fenómenos deterministas y los aleatorios, que no
hay fenómenos absolutamente causales, por un lado, ni
fenómenos absolutamente fortuitos, por el otro: "Un
fenómeno absolutamente casual significaría algo no
necesario, algo sin fundamento, en cualquier tipo de
relación. Sin embargo, esto destruiría el
determinismo, la unidad material del mundo. Reconocer la
casualidad absoluta significa reconocer la existencia de
milagros, por cuanto éstos, precisamente, son
fenómenos que no obedecen a causas naturales" (271). El
azar absoluto (esencial lo llama Monod) es idéntico al
determinismo absoluto; el destino fatal. Más bien al
contrario, el azar se manifiesta conforme a determinadas leyes
que no son, en esencia, diferentes de las que rigen los
fenómenos causales hasta el punto de que se puede calcular
la probabilidad de que determinados acontecimientos casuales se
produzcan.
Como cualquier otra disciplina científica, el
cálculo de probabilidades nace de la práctica como
una ciencia aplicada para resolver problemas muy
concretos sobre contratos
mercantiles de aseguramiento. Lo seguro nace de lo
inseguro. En su origen fue una curiosidad que entraba en la
matemática como una disciplina menor que tomó los
juegos de azar
como campo de pruebas. Para fijar las primas en los seguros de vida
las empresas
elaboraron complejas tablas de defunción cada vez
más precisas y detalladas, es decir, que el cálculo
se basaba en una previa experiencia práctica real. El azar
no es, pues, un problema de información porque el volumen
de ésta es relativa: tanto da hablar de información
como de falta de información. No hay nada de lo que no
sepamos nada; tampoco de lo que lo sepamos todo. Cuando se dice
que el azar es una medida de nuestra ignorancia, también
se podría expresar lo mismo diciendo que el azar es una
medida de nuestro conocimiento. ¿Está la botella
medio llena o medio vacía? Por otro lado, aunque
conociéramos la mayor parte de los parámetros de la
realidad, no podríamos operar con ellos, especialmente en
biología porque la materia viva responde a leyes
más complejas que la inerte; en cada fenómeno
confluyen muchas causas, algunas de ellas de tipo subjetivo y
totalmente impredecibles. Por eso cualquier modelo
teórico constituye una simplificación deliberada de
la realidad concreta que, o bien implica una pérdida de
información, o bien introduce hipótesis irreales
(el punto a dimensional de masa finita sobre el que se apoya la
mecánica clásica) o, en definitiva, la
sustitución de unos supuestos de hecho por otros
más sencillos o más manejables (272).
La información acerca de una determinada parcela de la
realidad es siempre progresivamente creciente. De esta manera los
fenómenos meteorológicos, antes imputados al azar,
se conocen mejor porque los condicionantes que tienen
relación con la presión
atmosférica, la lluvia, la temperatura, los vientos, etc.,
están más definidos y porque hay más
información acerca de su desenvolvimiento. Si el azar
dependiera de nuestro conocimiento, la tendencia general
sería a disminuir la aplicación del cálculo
de probabilidades. A pesar de ello, los modelos
probabilísticos se aplican cada vez con mayor frecuencia a
fenómenos de lo más diverso, incluidos aquellos
considerados generalmente como de tipo determinista. De este modo
la estadística se ha convertido en una gran coartada
ideológica, en pan estadística, pasando algunos a
sostener que todo en la naturaleza es estadístico,
aleatorio. La generalización del cálculo de
probabilidades demuestra, por un lado, el enorme grado de
abstracción que ha alcanzado y, por el otro, que los
denominados fenómenos aleatorios no son sustancialmente
diferentes de los deterministas. Por consiguiente, si bien es
cierto que todo en la naturaleza es estadístico,
también es igualmente cierto que todo en la naturaleza es,
al mismo tiempo, necesario.
La metafísica positivista introduce barreras
dicotómicas donde no las hay. A pesar de tres siglos de
evolución del cálculo de probabilidades y la
estadística se sigue preguntando si el azar existe o si,
por el contrario, dios no juega a los dados. Confrontadas a los
mismos fenómenos aleatorios pero aisladas entre sí,
las ciencias parecen esquizofrénicas. Las hay
absolutamente deterministas, como la astrofísica
("mecánica celeste"), y las hay absolutamente
estocásticas, como la mecánica cuántica. A
partir de fenómenos singulares y teorías locales,
extrapolan concepciones generales, imprecisas, a las que otorgan
un carácter absoluto.
La imagen distorsionada del azar proviene de la ilusión
de pretender alcanzar un conocimiento exhaustivo de los
fenómenos, de todos los factores que conducen a la
producción de un determinado evento, lo
cual no es posible ni tampoco necesario. La ciencia no avanza por
impulsos teóricos sino prácticos. Sus pretensiones
tampoco son teóricas sino prácticas. Nace de la
práctica y tiene la práctica como destino final.
Sabemos aquello que necesitamos y en la medida en que lo
necesitamos. En un muestreo
electoral no importa a qué candidato vota cada cual, sino
el voto del conjunto. El comportamiento
de un componente aislado puede resultar aleatorio, pero el del
conjunto no lo es. Tomados de uno en uno, los seres vivos
individuales como el jugador de bacarrá, son
imprevisibles. Sin embargo, considerados en su generalidad, como
fenómenos masivos, sí son previsibles. La ciencia
puede determinar un cierto número de condicionantes, los
más importantes y los más directos, pero nunca la
totalidad de ellos. Normalmente, cuando en ciertos
fenómenos se descubre una ley determinista, tal como la
ley de la gravedad o la de Boyle-Mariotte, se dice que una o un
reducido número de causas producen siempre un cierto
efecto de manera necesaria, quedando todo lo demás como
fortuito o casual. La producción de resultados imprevistos
pone de manifiesto la complejidad de un determinado
fenómeno, la operatividad, junto a los condicionantes
inmediatos, de otros más débiles o remotos. En
ocasiones el cálculo de probabilidades sirve para poner de
manifiesto la trascendencia de esos condicionantes remotos. Como
decía Hegel, la tarea
de la ciencia consiste precisamente en aprehender la necesidad
oculta bajo la apariencia de la contingencia (273).
Para los positivistas, que no gustan de las formulaciones
filosóficas, se puede recurrir a expresar la misma
noción citando a un matemático contemporáneo
de Hegel como Laplace quien,
por otra de esas paradojas absurdas de los libros de bolsillo,
aparece como el paladín de un cierto "determinismo",
cuando se trata, en realidad, del impulsor del cálculo de
probabilidades. Laplace recuerda el principio de razón
suficiente para defender que todo acontecimiento tiene una causa.
Sin embargo, sostiene, existen acontecimientos "pequeños"
que parecen no sujetarse a las leyes de la naturaleza y cuyos
lazos con el resto del universo no
conocemos exactamente. No habría incertidumbre si
existiera una inteligencia capaz de realizar todos los
cálculos relativos al cambio de cada estado en el universo,
afirma Laplace en cita muy repetida. Pero el
conocimiento humano es sólo un pálido reflejo
de ese intelecto hipotético. No obstante, el incesante
avance del conocimiento le acerca hacia él, si bien nunca
llegará a tener su misma capacidad omnisciente. Ese
intelecto hipotético de Laplace es, pues, dinámico,
no queda restringido a un momento determinado del saber sino a su
avance incesante a lo largo de la historia del conocimiento
científico.
Del mismo modo, para Laplace la probabilidad matemática
es un concepto
dinámico, una aproximación: "En medio de las causas
variables y
desconocidas que comprendemos bajo el nombre de azar y que
convierten en incierta e irregular la marcha de los
acontecimientos, se ve nacer a medida que se multiplican, una
regularidad chocante […] Esta regularidad no es más que
el desarrollo de las posibilidades respectivas de los sucesos
simples que deben presentarse más a menudo cuanto
más probables sean […] Las relaciones de los efectos de
la naturaleza son mucho más constantes cuando esos efectos
se consideran en gran número […] La acción de
causas regulares y constantes debe prevalecer a la larga sobre la
de las causas irregulares" (274).
La introducción del azar en biología
corrió paralela a la mecánica cuántica, en
donde se produjo un fenómeno parecido al que aquí
examinamos: lo que se nos está transmitiendo y, por tanto,
lo que identificamos como mecánica cuántica, es una
interpretación singular de ella, a saber, la que
llevó a cabo la Escuela de
Copenhague. Si en genética no hay más que
mendelismo y neodarwinismo, en física no hay más
que Heisenberg, Born y Bohr. El resto son especímenes
seudocientíficos, herejes equiparables a Lysenko. La
mecánica cuántica ha vuelto a poner otra vez de
moda el azar,
como si hubiera planteado algo diferente, algo que no era
conocido hasta entonces (275). A pesar de tratarse de una
disciplina joven y aún no consolidada, se la ha tratado de
convertir en el patrón de todas las demás ciencias,
de extrapolar sus principios fuera del ámbito
específico para el que han sido concebidos. Parece que
todos los fenómenos del universo se rigen por la
mecánica cuántica, lo cual es absurdo porque desde
comienzos del siglo XX la física ha dejado de ser la
ciencia unificada de antaño, es decir, que ni siquiera la
mecánica cuántica es toda la física. A pesar
de un siglo de esfuerzos, ésta carece de unidad interna,
no existe como teoría unificada, cuyos conceptos y leyes
eran de validez general. Si la mecánica cuántica no
es extensible a todos los fenómenos físicos, con
más razón tampoco será extensible a otro
tipo de fenómenos diferentes, como los biológicos.
Por lo demás, el concepto de azar, como cualquier otro, no
se puede perfilar sólo en la mecánica
cuántica, ni en la genética, ni en la economía
política, ni en la termodinámica, ni en ninguna ciencia
concreta de manera exclusiva. Habrá que tener en cuenta
todas ellas simultáneamente y, en particular, el
cálculo de probabilidades.
En la mecánica cuántica como en genética
no hay efecto sin causa ni causa sin efecto que, por lo
demás, no son únicos, es decir, un efecto tiene
múltiples causas (y a la inversa) y las causas pueden
producir efectos contrapuestos. El principio de causalidad dimana
del principio de conservación de la materia y la
energía: los fenómenos no surgen de la nada. Si,
como también he sostenido, las causas se convierten en
efectos y los efectos en causas, del mismo modo la necesidad se
convierte en azar y el azar en necesidad. Lo que para el casino
es una ley determinista que le reporta beneficios
inexorablemente, para el jugador de bacarrá que se acomoda
en una de sus mesas es puramente aleatorio. No cabe duda de que
en los fenómenos materiales
existen las probabilidades del mismo modo que a ellas les
acompaña el cálculo de esas mismas probabilidades:
"El azar es omnipresente, pero se suprime a sí mismo al
adquirir la forma de leyes" (276). Muchos de los debates sobre el
azar se podrían eliminar teniendo en cuenta que
también los fenómenos aleatorios se rigen por
leyes, como el teorema de Bayes, que permite calcular la
probabilidad de las causas. A partir de ahí es posible
comprender que el azar y la necesidad no están separados
el uno del otro, que la intervención del azar no excluye
la necesidad, y a la inversa. El azar, pues, es el modo en que se
manifiesta la necesidad; ambos forman una unidad de
contrarios.
La comprensión del azar también ha estado
interferida por la eterna cuestión del libre
albedrío, de la libertad humana. Se concebía que
donde existía determinismo no había lugar para la
libertad. Ésta es la libertad de elección, la
capacidad de optar entre varias posibilidades diferentes,
concebida de forma omnímoda. Pero como bien saben los que
han tratado de realizar una tarea de manera aleatoria,
libérrima, el azar "puro" es tan inimitable como la obra
de arte (277). Cada vez que alguien intenta repetir un
acontecimiento aleatorio, emerge la necesidad. Nadie es capaz de
elegir números al azar, incluso entre un número
finito de ellos. Alguien que anote los números aleatorios
que se le vayan ocurriendo del 0 al 99 puede permanecer semanas
enteras escribiendo cifras y habría números que
nunca aparecerían. Por consiguiente, no todos los
números tendrían la misma posibilidad de
aparecer.
Lo mismo sucede si pedimos a un colectivo de personas que
elija números al azar: siempre habría unos que
serán elegidos con mayor frecuencia que otros. Los
números obtenidos por medios informáticos se
denominan seudo-aleatorios porque no es posible asegurar que
verdaderamente sean aleatorios. De ahí la dificultad de
las simulaciones, e incluso de algunos sondeos y muestreos: para
resultar representativos los datos se tienen que tomar al azar.
Por eso nadie puede entrar en un casino con un ordenador o una
calculadora, ni siquiera apuntar los resultados; por eso los
componentes de una ruleta cambian continuamente, como los dados o
los naipes: a largo plazo siempre surge la regularidad en medio
de lo que parece caótico. Cualquier criptógrafo
conoce los problemas de obtener números verdaderamente
aleatorios, cuya secuencia no responda a una lógica
interna entre ellos, a lo que Laplace llamaba "función
generatriz" y que hoy llamaríamos algoritmo.
De lo que queda expuesto también se deduce otra
consecuencia importante, que no siempre se tiene en cuenta: por
sí mismo un número aleatorio no existe, solo existe
dentro de un colectivo de otros números, de los cuales es
independiente (o dependiente). Los juegos de azar tienen sus
reglas de juego de tal manera que las partidas se pueden
reproducir indefinidamente. Por su parte, uno de los principios
esenciales del cálculo de probabilidades es que la suma de
las probabilidades de todos los resultados posibles tiene que ser
igual a la unidad, por lo que retornamos a la unitas
complex: la multiplicidad es tan necesaria como la unidad. A
diferencia del arte, en la ciencia no existen "casos
únicos". Es otra de las consecuencias de la ley de los
grandes números. Una de las diferencias entre la ciencia y
la ufología o la parapsicología es que éstas
versan sobre fenómenos extraños y raros, mientras
que la ciencia es rutinaria: estudia fenómenos que se
repiten. Que la teoría sintética haya convertido a
las mutaciones génicas en un "error de copia", en un
fenómeno tan insólito como los platillos volantes o
las psicofonías, es un reflejo de su falta de estatuto
científico.
Hace tiempo que los errores forman parte integrante de la
ciencia y han tenido, además, una relación directa
con el surgimiento mismo de la teoría de
probabilidades, a causa de las dificultades surgidas en la
medición de distancias astronómicas.
Además de su contribución al cálculo de
probabilidades, Laplace fue uno de los más distinguidos
impulsores del sistema métrico decimal. El azar es, pues,
una problema de medida y, por lo tanto, de la
transformación de los cambios cualitativos en cambios
cuantitativos. Aunque ninguna de las mediciones sea coincidente,
los valores
obtenidos se aproximan a un cierto punto y esas aproximaciones
son tanto mayores cuantas más mediciones se realizan. Los
errores no son erráticos sino que siguen una ley de
distribución normal o de Gauss.
Gauss mantenía correspondencia epistolar con Napp, el
prior del convento en el que ingresó Mendel. Algunas de
aquellas cartas versaban precisamente sobre estadística y
teoría de los errores, lo cual explica el fraude de Mendel
con los guisantes. Mendel expuso en forma de experimento singular
lo que no era más que un promedio, un resumen general de
la experiencia de muchos resultados distintos (pero aproximados);
presentó como un método de investigación lo
que no es más que un método de exposición. De ahí que sus
resultados fueran tan exactos. Pero en un sentido nominalista
estricto, los promedios no existen y, por consiguiente, la
probabilidad nunca aparece en la realidad. Es más, a
medida que los resultados se acumulan progresivamente, los
resultados cada vez divergen más de su probabilidad en
términos absolutos (cuantitativos). Por ejemplo, los
decimales del número p aparecen aleatoriamente y se
conocen ya 200.000 millones de ellos. Cabe esperar, pues, que
cada dígito, que tiene una probabilidad de 1/10,
aparecerá 20.000 millones de veces. No es así. El
cero supera su expectativa en más de 30.000; con la cuarta
parte de dígitos, el cero la supera en poco más de
12.000. El error, por lo tanto, se ha duplicado con creces, lo
cual significa que al llevar a cabo un experimento real, lo
más probable -casi con una seguridad
absoluta- es que la probabilidad no aparezca nunca de manera
exacta, por más que se repita el experimento. Todo lo
contrario: cuanto más se experimenta, más errores
aparecen en términos absolutos (cuantitativos). Pero el
error, como la probabilidad, no es sólo un número;
además de su componente cuantitativo el error y la
probabilidad tienen un componente cualitativo. Al transformarse
de nuevo en cualidad el error y la probabilidad ya no son un
número sino una relación entre dos números,
una proporción o, por decirlo de otra manera, una
abstracción: lo abstracto y uniforme se pone en el lugar
de lo concreto y
diverso, lo exacto en lugar de lo inexacto. Esta manera de
proceder la conocían muy bien los escolásticos
medievales, lo mismo que Mendel. La llamaron suppositio.
Transformaba lo probable en improbable. El azar se negaba a
sí mismo y se convertía en necesidad. Precisamente
un estadístico como Fisher fue quien no lo supo apreciar
en Mendel: la suppositio le parecía una pura
suplantación, es decir, poner una cosa en el lugar en el
que debía estar otra (o mejor dicho, varias).
El índice anual de inflación puede servir como
ejemplo. Es un instrumento de medida de las subidas de los
precios que
cambia de un país a otro, que difiere en la forma de
expresar las oscilaciones cuantitativas. Al mismo tiempo, la
inflación tiene un carácter general, e incluso
oficial, sancionado administrativamente, que sustituye a las
subidas de los precios concretos de cada una de las
mercancías, como si todos ellos hubieran subido en la
misma proporción. Es más: este método es tan
poderoso que autoriza a decir que todos los precios han subido un
2"3 por ciento a pesar de que ninguno haya tenido esa subida
exactamente, por lo que convierte en representativo de una
generalidad a algo que no forma parte de la misma.
La suppositio medieval resume el modo de proceder de
la ciencia, la síntesis
inherente al método de abstracción, la verdadera
médula del nominalismo de Occam, un avance magistral del
concepto mismo de ciencia con respecto a Aristóteles: "La
ciencia no versa sobre los singulares sino que está
constituida por universales que están en lugar de los
mismos singulares" (278). El cálculo de probabilidades
proporciona las herramientas
matemáticas que permiten la generalización
científica, unificando dos orientaciones fundamentales en
cualquier clase de investigación: "la que va de las
propiedades del sistema en su conjunto a las de los elementos y
la que pasa de las propiedades de los elementos a las propiedades
generales del sistema" (279). Este método contribuye, por
un lado, a poner de manifiesto las limitaciones del micromerismo
y, por el otro, la falacia empirista según la cual los
fenómenos de la realidad se presentan juntos, uno al lado
del otro o uno después del otro pero sin vínculos
internos entre ellos, conectados pero no conjuntados, que
decía Hume (280). La ciencia, según los empiristas,
no infiere reglas de tipo causal sino puras correlaciones y
coincidencias. Esto lo defienden como la esencia misma de la
estadística. Sin embargo, la estadística pone de
manifiesto tanto correlaciones como vínculos causales
objetivos entre los fenómenos, por más que no se
puedan confundir las unas con los otros. En definitiva, una
función de distribución estadística expresa
la existencia de un ordenamiento interno de los elementos del
sistema. El cálculo de probabilidades, además de un
método de cálculo es un método de
conocimiento.
El cálculo de probabilidades permite el manejo de
grandes cantidades de información que serían
imposibles sin él. Por ejemplo, el muestreo facilita el
estudio del todo en una de sus partes, realizar extrapolaciones
sobre un número muy grande de datos, conociendo
sólo una parte de ellos, empleando sólo su media y
otros conceptos matemáticos derivados, como la varianza.
Del mismo modo, el comportamiento de un juego de azar puede
parecer errático cuando se llevan disputadas unas pocas
partidas; no obstante, cuando el volumen de información
aumenta con el número de partidas disputadas, deja de
serlo y aparecen las leyes conforme a las cuales se desenvuelve.
Por eso, decía Hegel, la necesidad se abre camino en forma
de azar. Ese es el significado exacto de la ley de los grandes
números. Más de la mitad de los fenómenos
considerados aleatorios siguen una de las tres leyes de
distribución, uniforme, normal y de Poisson, y otra
tercera parte siguen a otras diez leyes de distribución.
Por ejemplo, el número de mutaciones de una
molécula de ADN después de cierta cantidad de
radiación
no se produce al azar sino que sigue una distribución de
Poisson. Como concluye un matemático: "Uno de los
fenómenos más sorprendentes de la teoría de
las probabilidades es el pequeño número de leyes a
las cuales se reduce la mayor parte de problemas que se les
plantean a los probabilistas" (281).
El azar demuestra que la naturaleza está en un
desarrollo permanente, cambia y engendra de manera incesante. En
su evolución los acontecimientos crean posibilidades
nuevas; el efecto siempre contiene algo nuevo en
comparación con la causa: "Durante el desarrollo no
sólo se realizan las posibilidades existentes en el pasado
sino que se crean posibilidades nuevas por principio, no
implícitas en los estados anteriores de la materia […]
Las nuevas posibilidades no se originan sin causa, sino como una
tendencia de los nuevos estados de la materia, antes
inexistentes" (282). El cálculo de probabilidades no es
sólo un recurso matemático, cuantitativo sino
cualitativo. Lo que determina es que:
a) de una misma acción se pueden derivar
varios resultados posibles b) es posible medir esas diferentes
posibilidades c) hay resultados cuya producción es
imposible
El preformismo en biología, lo mismo que
la predestinación luterana, son variantes del mecanicismo
que desconocen la potencialidad del desarrollo, que en la
evolución continuamente se están creando nuevas
posibilidades y nuevas potencialidades. A causa de ello, el
futuro no está escrito en el pasado; por bien que
conociéramos éste nunca podríamos vislumbrar
aquel. Los positivistas, para quienes la realidad es un presente
continuo, desconfían de las posibilidades y se atienen a
lo realmente existente, a las posibilidades ya realizadas. Pero
las posibilidades forman parte de la realidad, están en
ella, no de una manera subjetiva sino objetiva. La contingencia,
decía Hegel, es la posibilidad de otra existencia, no a
título de simple posibilidad abstracta sino como
posibilidad real, porque la posibilidad es un componente esencial
de la realidad: "Esta contingencia hay que reconocerla y no
pretender que tal cosa no puede ser sino así y no de otro
modo" (283). La ciencia explica la transformación de la
posibilidad en realidad. Su objeto no está tanto en
relatar lo que ocurrió sino en las razones por las cuales
ocurrió, aquellas que lo hicieron posible. Si, como vengo
defendiendo, de una determinada causa pueden derivarse diferentes
efectos posibles, la tarea de la ciencia consiste en precisar
-con verdadera necesidad- el conjunto de posibilidades realmente
factibles en cada caso, según determinadas circunstancias,
frente a todo aquello que resulta imposible. Los acontecimientos
reales tienen que ser posibles, pero un acontecimiento posible
puede ocurrir o puede no ocurrir.
La diferenciación de las células embrionarias
demuestra que el concepto de posibilidad no es exclusivamente
filosófico sino que tiene importantes expresiones en la
biología. Los organismos superiores tienen más
posibilidades de desarrollo que los inferiores. Las posibilidades
se realizarán siempre que se cumplan las leyes que rigen
el fenómeno, siempre que se den las condiciones precisas
para ello y, por el contrario, no se den las contra tendencias
que se le oponen. De ahí que la evolución se deba
concebir con un sentido progresivo, hacia una mayor complejidad,
hacia formas superiores de materia: de la materia inerte a la
materia viva y de ésta hacia la sociedad, la cultura y los
fenómenos singularmente humanos. De ahí que quepa
concluir que quienes realmente han introducido el azar en la
biología de una manera impecable han sido los mismos que
han concebido la evolución como un desarrollo potencial,
no lineal, entre ellos Lamarck y Lysenko. En efecto, el concepto
de potencialidad que ambos utilizan acredita dos cosas al mismo
tiempo: que su concepción de la biología no es ni
finalista ni actualista (284). Lamarck entiende la naturaleza
como "potencia" y habla
del "poder de la vida" que, sin embargo, se ve contrarrestado por
las "causas modificantes", por lo cual la progresión de
los seres vivos no puede ser ni sostenida ni regular (285). Esas
"causas modificantes" a las que alude Lamarck son, pues, el
fundamento de las regresiones en la evolución y, en
última instancia, de las extinciones, otra prueba
más de la ausencia de finalismo en la teoría
lamarckista.
En su noción vulgar, positivista, el azar excluye la
causalidad, no liga el pasado al presente, ni éste al
futuro. Por consiguiente, si el azar fuera absoluto no
habría evolución porque todo empieza de nuevo; otra
vuelta de la ruleta. Su introducción en la genética
proviene de la escisión entre la generación y la
herencia; al poner todo el énfasis en ésta
desaparece cualquier posibilidad de innovación. En este sentido el azar
desempeña el papel creador de lo nuevo en la
evolución biológica y ese es el verdadero
significado de la mutación como salto cualitativo o, como
dice René Thom, un auténtico acto de
creación a partir de la nada: "En ciencia, lo aleatorio
puro, es el proceso markoviano, donde todo vestigio del pasado se
elimina en la génesis del nuevo golpe; en cada prueba se
reitera el "big bang"
creador: lo aleatorio puro exige un hecho sin causa, es decir, un
comienzo absoluto.
Pero en la historia de nuestra representación de lo
real, no hay otro ejemplo de comienzo absoluto que el de la
Creación" (286). La teoría de las mutaciones es,
pues, un forma de creacionismo laico, un retorno bíblico
bajo nuevas apariencias.
Las mutaciones se explican sin necesidad de previos cambios
cuantitativos, graduales, evolutivos. En la herencia había
continuidad sin cambio y en la mutación había
cambio sin continuidad. Monod lo expresó de la manera
extremadamente dogmática que acostumbran los mendelistas:
"Por sí mismo el azar es la fuente de toda novedad, de
toda creación en la biosfera. El
azar puro, el azar exclusivamente, libertad absoluta pero ciega,
es la raíz misma del prodigioso edificio de la
evolución: esta noción central de la
biología moderna ya no es hoy una hipótesis entre
otras posibles o al menos concebibles. Es la única
concebible, la única compatible con los hechos de observación y de experiencia. Y nada
permite suponer (o esperar) que nuestras concepciones sobre este
punto deban o incluso puedan ser revisadas" (287). Otro punto y
final para la ciencia; también aquí no hay nada
más que aportar al respecto. La ideología siempre
intenta impedir el avance de la ciencia sustituyéndola,
necesariamente travestida de dogmatismos de esa
pretenciosidad.
Con la teoría de las mutaciones la genética
adopta un ademán matemático abstracto o, como
diría Lysenko, formal. Ya los trabajos de Mendel
presentaban -como ha quedado expuesto- un sesgo
estadístico pero fue la propia utilización de
Mendel contra Darwin la que impulsó el tratamiento
abstracto de la genética. Frente a los mendelistas como
Bateson, los biometristas siguieron defendiendo a Darwin. Los
primeros empezaron a ganar la partida, pero hacia los años
veinte los biometristas lograron imponer su concepción
estadística y se produjo la primera síntesis: ambas
concepciones no eran incompatibles; Darwin y Mendel podían
convivir. Los modelos estadísticos elaborados por los
genetistas soviéticos, dados a conocer en los
países capitalistas por Fisher, Haldane y Wright como si
fueran previos, abrieron la vía a la "genética de
poblaciones" y al tratamiento estadístico de la herencia
que facilitó la amalgama entre Mendel y Darwin. Engels ya
había puesto de manifiesto que "también los
organismos de la naturaleza tienen sus leyes de población prácticamente sin estudiar
en absoluto, pero cuyo descubrimiento será de importancia
decisiva para la teoría de la evolución de las
especies". Ahora bien, los modelos estadísticos
poblacionales se fundamentaban en dos de las claves de la
ideología burguesa en materia biológica:
micromerismo y maltusianismo, la "lucha por la existencia" y la
competencia entre los seres vivos (288), llegando algunos a
aplicar la teoría matemática de juegos a la
evolución (289).
Del mismo modo que la aplicación de la teoría de
probabilidades a la física estadística estuvo en
relación con la introducción del atomismo y, como
consecuencia de ello, la noción de "independencia", es decir, a la ausencia de
vínculos directos entre las partículas, para
introducir sus modelos estadísticos en biología los
mendelistas parten de una muestra de
sucesos independientes entre sí. El prototipo
burgués es Robin Crusoe. Los animales silvestres son como
los hombres en la sociedad: están atomizados, enfrentados
unos con otros, sin vínculos mutuos de sociabilidad, como
las moléculas de gas en un
recipiente cerrado, rebotando unas contra otras. Volterra
quería elaborar la "teoría matemática de la
lucha por la existencia" (290). No existen familias, ni
rebaños, ni enjambres, ni manadas. Aquí como en
física estadística se produce una paradoja
metodológica: mientras, por un lado, se reconoce la
existencia de interacciones entre los elementos de los sistemas
estudiados, al mismo tiempo, la matemática no admite tal
interacción (291). En biología las
relaciones sociales no son independientes, bilaterales e iguales.
Así, la abeja doméstica (Apis mellifera)
es un insecto social que vive en colmenas. Aislada, una abeja
muere al cabo de pocos días. Las sociedades
apícolas se componen de tres tipos de individuos (reina,
obreras y zánganos) que mantienen entre sí una
división de tareas y, por consiguiente, una
especialización funcional sin ninguna clase de competencia
o lucha interna entre ellas ni entre otros animales sociales o,
por lo menos, no es ése el comportamiento predominante.
Más bien al contrario, la subsistencia de la abeja
doméstica se fundamenta en la colaboración y
coordinación sinérgica de
actividades dentro y fuera de la colmena, hasta el punto de que
no se las pueden considerar como seres independientes. El
intercambio de alimento es una conducta innata en muchas especies
animales. Por ejemplo, los insectos sociales practican la
trofalaxis, es decir, la mutua entrega y recepción de
nutrientes. Si la colonia pasa hambre, pasan hambre todos sus
integrantes por igual. La abeja recolectora ofrece parte del
botín a otra obrera que lo demanda
sacando su lengua hasta
recibir una porción que rezuma de la boca de la primera.
Además, mediante la trofalaxis las abejas se traspasan
feromonas, que es una forma de comunicación y reparto social de las
tareas.
Entre las abejas domésticas el reparto de funciones alcanza
también a los dos aspectos vitales de la alimentación y la
reproducción. Las obreras se encargan de la parte
vegetativa y la reina y los zánganos de la reproductiva.
Por lo tanto, la reproducción no se verifica al azar sino
conforme a reglas bien establecidas con un fuerte carácter
endogámico. Sólo la reina es fecundada y, por lo
tanto, es la madre de toda la colonia. Su función es poner
huevos toda su vida y sólo sale de la colmena para
fecundarse. Los zánganos son los machos y proceden de
huevos sin fecundar, es decir, son clones de la reina, a la vez
que hijos, medio hermanos también de ella. Por su parte,
las obreras no son estériles, como se afirma en ocasiones,
sino que la presencia de la reina les impide desarrollar sus
órganos genitales. Mientras en la colmena hay una reina
activa, las obreras no desarrollan otras que puedan competir con
ella. Pero en cuanto empieza a envejecer o muere, las obreras
inician la construcción de celdas reales. En la
colmena la función de la reina depende de la jalea real;
mientras circula por la colmena, las obreras no buscan sucesoras.
Dicha sustancia se produce en las glándulas
cefálicas de la reina, que al lamerse el cuerpo se empapa
con ella, la cual a su vez la lamen las obreras que se encargan
de su aseo y éstas, a su vez, la transmiten a otras.
Página anterior | Volver al principio del trabajo | Página siguiente |