- Objetivos
- Desarrollo
- Justificación del
proyecto - Secuenciación
- Proyecto de diversidad del genoma
humano - Identificación de los
genes asociados a fenotipos - La era postgenómica: la
próxima revolución de la
biología - Conclusión
- Bibliografía
- Anexos
Dar a conocer el Genoma Humano como el descubrimiento
más importante para la humanidad.
OBJETIVOS ESPECIFICOS
1) Conocer y dar a conocer los avances en medicina que los
experimentos
de los genomas consigue día a día.
2) Encontrar la respuesta a porque el Genoma nos
ayudaría a explicar muchas enfermedades.
3) Conocer la forma en la cual los experimentos del
Genoma Humano encontraría las soluciones y
curas a los diferentes males que acechan nuestra
humanidad.
4) Conocer como ha sido la evolución del Genoma Humano a lo largo del
tiempo hasta
el día de hoy.
ORIGEN Y JUSTIFICACIÓN DEL
PROYECTO
El PGH es el primer gran esfuerzo coordinado
internacionalmente en la historia de la Biología. Se propone
determinar la secuencia completa (más de 3000
.106 pares de bases) del genoma humano, localizando
con exactitud (cartografía) los 100.000 genes
aproximadamente y el resto del material hereditario de nuestra
especie, responsables de las instrucciones gen éticas de
lo que somos desde el punto de vista biológico. Realmente,
lo que llamamos Proyecto Genoma
es el término genérico con el que designamos una
serie de diversas iniciativas para conocer al máximo
detalle los genomas no sólo de humanos, sino de una serie
de organismos modelo de
todos los dominios de la vida, todo lo cual se espera que
dé un impulso formidable en el
conocimiento de los procesos
biológicos (desde la escala molecular
hasta la evolutiva) y de la fisiología y patología de los seres
humanos, y que se traducirá en multitud de aplicaciones
técnicas y comerciales en ámbitos
como el diagnóstico y terapia de enfermedades,
biotecnologías, instrumental, computación, robótica,
etc.
Hacia mediados de la década de los años 80
la metodología del ADN recombinante
y sus técnicas asociadas (vectores de
clonación, enzimas de
restricción, transformación artificial de células
procariotas y eucariotas, bibliotecas de
genes, sondas moleculares, secuenciación, genética
inversa, PCR, etc.) habían alcanzado una madurez
suficiente como para que se planteara la pertinencia y viabilidad
de un proyecto coordinado de caracterización detallada
(hasta nivel de secuencia de nucleótidos) del genoma
humano y de genomas de una serie de organismos modelo.
¿Por qué cartografiar y secuenciar
genomas?
La biología pretende dar respuestas lo más
completas y detalladas posibles de los fenómenos vitales.
Al ser el ADN la molécula universal de la herencia, y
constituir la base gen ética de
la vida, la tendencia natural ha sido terminar buscando
explicaciones al nivel de ADN. Este conocimiento
molecular puede dar la clave de muchos fenómenos que hoy
entendemos a niveles menos profundos ya descritos por otras
ciencias
biológicas (fisiología, biología celular,
bioquímica, etc.).
Ha llegado un momento en que se plantea que abordar el
estudio detallado de los genomas de los organismos es mucho menos
costoso, y más interesante intelectualmente, logrando el
conocimiento detallado de la secuencia. Pero los Proyectos Genoma
no son más que un punto de arranque para nuevos
descubrimientos en las ciencias biomédicas. Con los
datos de
secuencias habrá que trabajar para dar respuestas a
cuestiones de expresión de genes, de regulación gen
ética, de interacción de las células con sus
entornos, etc.
La secuenciación de genomas de plantas y
animales
domésticos conducirá a nuevos avances en la mejora
agronómica y ganadera.
Para comprender la evolución será cada vez
más esencial el disponer de datos de secuencias. La
bioinformática permite comparar genes y genomas completos,
lo que junto con otros datos biológicos y
paleontológicos, está dando nuevas claves de la
evolución de la vida.
La principal justificación del PGH de cara a la
sociedad es la
promesa de avances importantes en Medicina. Aunque el estudio de
las enfermedades en humanos se ha venido haciendo
mayoritariamente en ausencia de su comprensión gen
ética, la disponibilidad de técnicas poderosas
anima a emprender la secuenciación sistemática, lo
que suministrará un formidable impulso sobre todo para las
enfermedades poligénicas y multifactoriales. Una de las
consecuencias más inmediatas del PGH (y que ya
experimentamos desde hace unos años) es la de disponer de
sondas y marcadores moleculares para el diagnóstico de
enfermedades gen éticas, de cáncer y de
enfermedades infecciosas. A plazos mayores. se espera que a su
vez la investigación genómica permita
diseñar nuevas generaciones de fármacos, que sean
más específicos y que tiendan a tratar las causas y
no sólo los síntomas. La terapia gen ética,
aunque aún en sus balbucientes inicios, puede aportar
soluciones a enfermedades, no sólo hereditarias, sino
cáncer y enfermedades infecciosas.
Uno de los principales objetivos es
desarrollar a corto plazo tecnologías de vanguardia. Es
decir, una de las principales justificaciones del PGH es la
necesidad de impulsar poderosas infraestructuras
tecnológicas que deben de proporcionar a las instituciones,
empresas y
países implicados un lugar de privilegio en la
investigación biomédica y en multitud de
aplicaciones industriales (diagnósticos, terapias,
instrumental de laboratorio,
robótica, hardware, software, etc.).
Origen del Proyecto Genoma
Aunque antes de los años 80 ya se había
realizado la secuenciación de genes sueltos de muchos
organismos, así como de "genomas" de entidades
subcelulares (algunos virus y
plásmidos), y aunque "flotaba" en el entorno de algunos
grupos de
investigación la idea de comprender los genomas de algunos
microorganismos, la concreción institucional del PGH
comenzó en los EEUU en 1986 cuando el Ministerio de
Energía (DOE), en un congreso en Santa Fe (NM)
planteó dedicar una buena partida presupuestaria a
secuenciar el genoma humano, como medio para afrontar
sistemáticamente la evaluación
del efecto de las radiaciones sobre el material hereditario. El
año siguiente, tras un congreso de biólogos en el
Laboratorio de Cold Spring Harbor, se unió a la idea el
Instituto Nacional de la Salud (NIH), otro organismo
público con más experiencia en biología
(pero no tanta como el DOE en la coordinación de grandes proyectos de
investigación). El posterior debate
público tuvo la habilidad de captar la imaginación
de los responsables políticos, y ofrecer el atractivo de
que no sólo el PGH era el gran emblema
tecnocientífico de finales de siglo (como lo había
sido el Proyecto Apolo en los años 60), sino que uno de
sus fines explícitos era desarrollar tecnologías de
vanguardia y conocimiento directamente aplicable (no sólo
en el campo de la biotecnología) que asegurarían la
primacía tecnológica y comercial del país en
el siglo XXI. En 1988 se publicaron informes de la
Oficina de
Evaluación Tecnológica del Congreso (OTA) y del
Consejo Nacional de Investigación (NRC), que supusieron
espaldarazos esenciales para dar luz verde a la
Iniciativa. Ese mismo año se establece la
Organización del Genoma Humano (HUGO), como entidad
destinada a la coordinación internacional, a evitar
duplicaciones de esfuerzos, ya diseminar el conocimiento. El
comienzo oficioso del PGH corresponde a 1990, y se calcula que
terminará el 2005. Sus objetivos eran elaborar en una
primera etapa mapas gen
éticos y físicos con suficiente resolución,
mientras se ponían a punto técnicas más
eficientes de secuenciación, de modo que en la fase final
se pudiera abordar la secuenciación de todo el genoma
humano. Entre los objetivos se cuentan igualmente la
caracterización y secuenciación de organismos
modelo, y la creación de infraestructura
tecnológica, entre la que destacan nuevas herramientas
de hardware y software destinadas a automatizar tareas, a
procesar la enorme cantidad de datos que se esperan, ya extraer
la máxima información biológica y
médicamente significativa.
Aunque en un principio se calculó que el PGH
.americano costaría unos 3000 millones de dólares y
duraría 15 años, tanto el coste como los plazos han
tenido que ser estimados a la baja, debido a innovaciones
tecnológicas que abaratan y acortan la
investigación. Los fondos federales estadounidenses
dedicados hasta ahora (1998) al PGH ascienden a 1.9 mil millones
de dólares (casi 300.000 millones de pesetas).
En 1993 los fondos públicos para el PGH fueron
170 millones de dólares, mientras que la industria
gastó 80 millones. Conforme pasa el tiempo, la inversión privada se está haciendo
más importante, e incluso amenaza con adelantarse a los
proyectos financiados con fondos públicos. Recientemente
(mayo de 1998), la empresa TIGR
anunció la creación de un proyecto conjunto con
Perkin-Elmer (fabricante de secuenciadores automáticos)
que podría conducir a terminar por su cuenta la secuencia
humana aun coste equivalente a la décima parte del
proyecto público y con unos plazos más
breves.
Para hacerse una idea de las ventajas del PGH con
relación a otros ámbitos tradicionales de
investigación médica, se pueden dar algunas
cifras:
El aislamiento por clonación posicional del gen
de la fibrosis quística costó $ 30 millones. Se
calcula que, de haber tenido un buen mapa como los actuales,
hubiera costado solamente $ 200.000.
El desarrollar un nuevo medicamento cuesta como
mínimo 50 millones de dólares.
El gasto sanitario total estadounidense es de 600 mil
millones de dólares.
EI NIH está gastando un 2-3% de su presupuesto al
PGH.
Introducción a los Proyectos
Genoma
Lo que a finales de 1989 era un proyecto que algunos
tachaban de loco, por lo caro, superfluo y utópico que
parecía, es ahora una realidad deseada y aceptada por
todos, que se terminará probablemente antes de lo esperado
(2005) y que costará mucho menos de lo previsto. Veamos
algunos hitos en el avance del PGH:
En 1987 se construyeron mapas genéticos de
ligamiento usando polimorfismos de tipo RFLP, con una
resolución aún baja: 10-15 cM.
El primer mapa genético de ligamiento del
Génethon (1992), que ya recurrió a
microsatélites, supuso una revolución
inmediata en el análisis de ligamiento de las enfermedades
con base genética. Su resolución media ya era de 5
cM.
La tercera versión del Génethon se
publicó en 1996, y ya contenía unos 5000 marcadores
microsatélites, separados los consecutivos una media de
0.7 cM (aprox. 700 kb), lo cual ya supera el nivel de detalle
especificado en uno de los objetivos para el primer lustro del
PGH.
En los últimos años se ha avanzado
más en los mapas físicos. En septiembre de 1995
Nature publicó un Directorio del Genoma Humano que
incluía un mapa de contigs de YACs que cubría 75%
del genoma. Hudson et al publicaron un mapa físico
preliminar del 94% del genoma, abarcado por unos 15.000
marcadores.
Un problema con los YACs es su elevado quimerismo. por
lo que hay que complementar los mapas de contigs. Es lo que hizo
el Whitehead Institute a finales de 1995, con la
publicación en Science del mapa basado en STS que
incorpora datos de híbridos de radiación
(RH).
El PGH pretendía balizar el genoma humano con
unas 30.000 STSs repartidas de modo más o menos uniforme,
de modo que cada par de STSs contiguas están separadas por
una medía de 100.000 pb. Este objetivo acaba
de cumplirse, y señala el punto de partida para la fase
final del Proyecto, ya que a partir de aquí la
secuenciación queda expedita de forma ordenada y
significativa, y los datos pueden ser correlacionados con el mapa
genético.
Una consecuencia casi inmediata de estos avances en
cartografía es que la localización, aislamiento
(por la llamada clonación del candidato posicional) y
caracterización de genes concretos relacionados con
enfermedades se acelera y simplifica, haciendo que el coste
presupuestario se abarate notablemente en comparación con
los esfuerzos tradicionales en que cada laboratorio luchaba por
separado durante largos años para lograr clonar
algún gen de interés.
Una vez completadas las dos primeras fases del PGH
(mapas físicos y gen éticos de suficiente
resolución), el presente año de 1997 va a marcar el
asentamiento de la fase clave del PGH, ya que la madurez de los
mapas obtenidos hasta ahora y los avances y bajos costes en las
tecnologías de secuenciación y procesamiento de
datos suponen que se pueda dar luz verde a la
obtención masiva de secuencias de forma sistemática
y organizada. Las secuencias van siendo puestas de modo
prácticamente inmediato a disposición de la
comunidad
investigadora por medio de varias bases de datos
entrelazadas dentro de Internet. Se espera que la
secuencia virtualmente completa del genoma humano, está
disponible antes del 2005 (se habla del año
2002).
El ritmo de acumulación de secuencias de ADN
es vertiginoso, y ya se dobla cada pocos meses. Actualmente se
estima que ya se ha secuenciado casi un 2% de genoma humano, pero
este dato no debe engañar: con las técnicas y
ritmos actuales, en los próximos años se
obtendrá una tasa de 500 Mb por año.
Los costes de secuenciación siguen bajando. En
algunos laboratorios cada par de bases de secuencia definitiva
está en 30 centavos de dólar; y se espera que
pronto baje a 10 centavos.
Ahora. el reto de la fase final del PGH es obtener
secuencias del modo más rápido. barato y preciso.
Para ello, se están diseñando métodos de
alto rendimiento, lo más automatizados
posibles.
Tras las propuestas iniciales, que partieron del
ministerio de energía de los EEUU (DOE), al que enseguida
siguieron los Institutos Nacionales de la Salud (NIH),
quedó claro que este magno proyecto no podía
consistir en la secuenciación pura y dura, sino que
habría de constar de varias etapas encadenadas, comenzando
por la elaboración de mapas gen éticos y
físicos de resolución cada vez mayor.
Además, la secuenciación habría de centrarse
en principio en las zonas de ADN más interesantes a
priori, como las regiones génicas codificadoras, dejando
para una etapa ulterior el análisis del enorme contenido
de ADN repetitivo de distintas clases que existe en el genoma.
Simultáneamente había que ir desarrollando toda una
infraestructura de técnicas instrumentales y de
análisis de la información generada (programas
informáticos potentes para gestionar las secuencias y
extraer sentido biológico de ellas, nuevos algoritmos,
redes de
ordenadores interconectados, bases de datos entrelazados,
etc.).
Cartografías genómicas
El PGH hace uso de dos tipos de cartografía para
caracterizar el genoma, aunque en última instancia los
mapas emanados de los distintos métodos han de ser
correlacionados e integrados: cartografía genética
de ligamiento, y cartografía física.
Cartografía genética de
ligamiento
La cartografía genética se basa en el
cálculo
de la frecuencia a la que se coheredan formas alternativas
(alelos) de dos loci genéticos que están ligados
formando parte de un mismo cromosoma. Hasta el advenimiento de
las técnicas moleculares, los mapas genéticos de
ligamiento en humanos eran bastante rudimentarios, ya que en su
elaboración no puede intervenir (por obvios motivos
éticos) la experimentación de laboratorio que se
usa en animales, y porque los datos habían de basarse casi
exclusivamente en la comparación de fenotipos normales y
los mutantes correspondientes a determinadas enfermedades
genéticas, y en el recurso a análisis de familias,
a ser posible con registros de
varias generaciones y con gran número de
individuos.
La revolución de la cartografía
genética de ligamiento sobrevino cuando a finales de los
años 70 se recurre al análisis molecular de zonas
de ADN no codificadoras y que son muy polimórficas:
existen varios tipos de secuencias (algunas de ellas de naturaleza
repetitiva, como los VNTR, los microsatélites, etc.),
dispersos por el genoma, cada uno de ellos con varios alelos en
el ámbito poblacional. Entre las ventajas de los
microsatélites se cuentan: contenido informativo muy alto,
con lo que los análisis estadísticos mejoran en
fiabilidad; distribución abundante y relativamente
uniforme por todo el genoma; y que se pueden ensayar
fácilmente mediante PCR. Además, estos loci
genéticos sirven en genética clínica como
marcadores útiles para localizar genes relacionados con
enfermedades. Los polimorfismos moleculares han permitido que en
la actualidad el PGH haya generado detallados mapas gen
éticos del genoma humano aun nivel de resolución en
torno a 1
centimorgan (cM) o incluso menos. Esto ya se logró en
1994, un año antes de lo previsto, y en buena parte con
resoluciones mejores (0.7 cM).
Cartografía física e integración de los mapas
Los mapas físicos tienen como objetivo
especificar distancias físicas mensurables en pares de
bases (pb) o alguno de sus múltiplos. Obviamente, el mapa
físico de mayor detalle es la propia secuencia del genoma.
Pero antes de llegar a obtenerla, hay que elaborar mapas
físicos partiendo de resoluciones bajas y avanzando hacia
las resoluciones cada vez mayores. En cierta manera, los mapas
físicos de menor resolución son los propios
cariotipos: la visualización microscópica de la
dotación cromosómica haploide humana teñida
con colorante de Giemsa nos muestra un
patrón alternante de bandas claras y oscuras, en el que
cada banda tiene una media de unos 7 millones de pares de bases.
Si bien los métodos citogenéticos tienen sus
limitaciones, no hay que olvidar que actualmente existen
novedosas herramientas de citogenética molecular (como las
sondas fluorescentes in situ o FISH, la "pintura de
cromosomas",
etc.) que permiten un mayor detalle y que, unidas a otras
técnicas aumentan el arsenal de enfoques para el estudio
de los genomas, de su dinámica y de sus alteraciones.
Los mapas físicos de mayor resolución se
suelen elaborar a partir de genotecas (bibliotecas de genes) en
las que el genoma a estudiar se encuentra fragmentado en multitud
de trozos aleatorios y desordenados, cada uno de ellos clonado
por separado en un vector adecuado: plásmido,
cósmido, cromosomas artificiales de levadura (YAC),
cromosomas artificiales de bacteria (BAC), etc.. La idea para
elaborar los mapas físicos es en cierto modo similar a la
de ensamblar un rompecabezas: consiste en ordenar los fragmentos
del genoma a base de buscar grupos de fragmentos que tienen
alguna zona en común, es decir, ir hallando conjuntos de
pares de fragmentos parcialmente solapados. Ello conduce al
concepto de
contig: un contig (o cóntigo, como algún
autor español ha
traducido) es un conjunto de fragmentos de un genoma que se han
clonado por separado, pero que son contiguos y que están
parcialmente solapados. Los actuales mapas físicos han de
recurrir pues al ensamblaje de esos fragmentos dentro de un
contig, y ulteriormente, los distintos contigs correspondientes
al mismo grupo de
ligamiento han de ser ensamblados entre sí: el objetivo
final (ideal) sería obtener un gran contig por cada
cromosoma, que describiera detalladamente la posición y
distancia física (en bases) de y entre distintos
marcadores (representados, p. ej. , por dianas para enzimas de
restricción).
La cartografía de contigs se puede realizar
buscando la "huella dactilar" común a distintos clones de
una genoteca de ADN humano. Dicha huella puede consistir en un
patrón compartido de dianas de enzimas de
restricción (que se puede indagar ayudándose de
algoritmos y programas computacionales adecuados). Las estrategias
más recientes hacen uso de ADN humano en forma de unos
20.000 trozos independientes clonados en los llamados cromosomas
artificiales de levadura (YAC, de sus iniciales inglesas), y
buscando la "huella dactilar común" entre clones a base de
la detección de determinadas secuencias repetitivas. Todo
el procedimiento
está altamente automatizado, como en el famoso laboratorio
francés del Génethon, provisto de varios robots
especializados en procesar y analizar las muestras.
El último gran hito en cuanto a
metodología de mapas físicos ha sido el desarrollo de
una especie de "marcadores físicos universales",
fácilmente generables, que permiten que los datos
obtenidos en un laboratorio sean rápidamente compartidos y
asumidos por toda la comunidad investigadora: se trata de los
llamados "lugares etiquetados por su secuencia" (STS en inglés). Consisten en trechos cortos de ADN
(de entre 100 y 1000 pb) cuya secuencia exacta se conoce y se
sabe que es única en todo el genoma. Su facilidad de uso y
su aceptación como "lenguaje
común" estriba en que una vez que un investigador descubre
una STS, cualquier otro puede obtenerla por sí mismo (ni
siquiera hace falta el envío físico de muestras),
simplemente fabricando in vitro los cebadores
correspondientes a sus extremos y amplificando la STS por
reacción en cadena de la polimerasa (PCR). Los STS definen
puntos concretos únicos del mapa físico, y
constituyen magníficos "mojones" o balizas
fácilmente detectables.
Uno de los objetivos iniciales del PGH era la
obtención de mapas físicos con unas 30.000 balizas
repartidas de modo más o menos uniforme, de modo que cada
dos marcadores consecutivos estén separados una media de
100 kb. Este objetivo se acaba de cumplir, en buena parte debido
al empleo de los
STS, que permiten elaborar mapas de contigs según el
contenido de STS de los clones solapados. Estos mapas de STS
permiten la integración de los mapas gen éticos y
físicos, hacen accesible la fase de secuenciación y
facilitan la
clonación de genes implicados en enfermedades mediante
la llamada estrategia del
candidato posicional.
Una vez que se construyen los mapas, hay que refinarlos
y purgarlos de posibles errores. Los errores suelen tener dos
fuentes
principales: algunos clones YACs son en realidad híbridos
o quimeras producidas por artefactos durante el proceso de
elaboración de la genoteca, y por lo tanto su mapa no
refleja el orden genómico auténtico; y por otro
lado, los programas de ensamblado de los mapas no son fiables al
100%. De ahí la importancia de confirmar normalizar los
datos mediante estrategias aceptadas por todos los
investigadores.
Dentro del PGH se está abordando un enfoque
paralelo y complementario consistente en secuenciar los
denominados EST (lugares etiquetados expresables). Se parte de
muestras de ARN mensajero aisladas de los distintos tipos de
células y tejidos del
cuerpo humano,
se realiza por transcripción inversa (con
reversotranscriptasa) copias de ADN, y se procede a su
secuenciación. Ello rinde versiones no genómicas,
desprovistas de las porciones intrónicas, de los distintos
genes que se expresan en los diferentes tejidos. Los datos
obtenidos se integran en "mapas funcionales" que muestran el
patrón de expresión diferencial según su
localización anatomo-histológica.
Métodos básicos de
secuenciación
- Método químico de Maxam y Gilbert
(actualmente poco usado). - Método enzimático de Sanger
(terminación de cadena, o de los
didesoxinucleótidos, ddNTP) - Secuenciación automática según
el método
de Sanger
Cada ddNTP se marca con un
colorante fluorescente diferente. Ello permite hacer la
electroforesis en el mismo callejón del gel. Las bandas de
ADN son detectadas por su fluorescencia según pasan
delante del detector. Si el detector lo hacemos mover en
horizontal, podrá leer varias secuenciaciones al mismo
tiempo. Los datos pasan aun sistema
computerizado.
Nuevos métodos de
secuenciación
Microscopías de efecto túnel (STM) y de
fuerza
atómica (AFM)
Microscopía de barrido (scanning) de
efecto túnel (STM). Una fina sonda se mantiene muy cerca
del objeto (en este caso ADN), por medio de un sistema de
control basado
en la detección de una minúscula corriente inducida
por el efecto túnel entre la punta de la sonda y el ADN.
Una técnica muy parecida es la microscopía de
fuerza atómica (AFM), en la que el control se debe a la
medida de las fuerzas de van der Waals entre la sonda y la
muestra. En cualquiera de los dos casos, la punta se mueve a lo
largo del objeto, de modo que sus desplazamientos en vertical se
miden y se registran, generando una imagen de la
superficie del objeto. Aunque se han obtenido imágenes
del esqueleto azúcar-fosfato de ADN de cadena sencilla y
de cadena doble, está por ver si se pueden "ver" las bases
nitrogenadas. Si es así, la técnica podría
secuenciar del orden de 1 Mb cada día.
Secuenciación por hibridación: chip de
hibridación
Secuenciación por hibridación en chips con
oligonucleótidos. Se basa en sintetizar distintas sondas
de oligonucleótidos, y unirlas en disposiciones ordenadas
(arrays) a una fina pastilla de nylon o vidrio. Este chip
se prueba frente aun ADN marcado fiuorescentemente, de modo que
el patrón y cantidad de fluorescencia suministra
información sobre la secuencia del ADN en cuestión.
La última generación de este enfoque es la
combinación de técnicas folitográficas (como
la de los chips de silicio para computadores) con síntesis
química en
fase sólida, que logra chips con ordenaciones de decenas e
incluso centenares de miles de oligos distintos, que pueden
usarse para identificar secuencias marcadas fluorescentemente en
cuestión de minutos, por medio de un microscopio
confocal de fluorescencia totalmente automatizado, que registra
los datos.
A modo de estudio piloto sobre sus posibilidades, la
empresa
Affimetrix ha logrado re-secuenciar por este método las 16
kb de AQN mitocondrial humano, con un dispositivo formado por
135.000 oligonucleótidos. Con la tecnología actual se
puede llegar a sintetizar en un día 400.000 oligos de 20
bases cada uno, dispuestos en un chip de 1 ,6 cm2.
Pero el objetivo final es lograr un chip con los 4 millones de
sondas necesarias para secuenciar todo el genoma humano en una
sola hibridación (!).
Estrategias de secuenciación
Secuenciación genómica
clásica
Hasta hace muy poco, la secuenciación
genómica dependía de la previa disponibilidad de
mapas físicos detallados, para que los fragmentos
secuenciados puedan ser ensamblados correctamente. Necesita
manejar una gran cantidad de datos (a título de ejemplo,
para generar 1 kb de secuencia final, hay que secuenciar 10 kb en
total), y no es totalmente automatizable.
Resumamos brevemente (recapitulando algo de lo dicho
para los mapas) cuál es la estrategia habitual para
secuenciar genomas:
El ADN genómico se corta aleatoriamente en
fragmentos, que se separan en distintas clases de tamaños,
y se insertan en distintos tipos de vectores, cada uno con una
capacidad media diferente (por ejemplo, los YACs portan insertos
entre 100 y 2000 kb, los cósmidos unas 40 kb).
Se preparan mapas físicos de baja
resolución a base de clones solapados de insertos de
YACs.
Se preparan mapas físicos de alta
resolución, preparados para la secuenciación, por
medio de la subclonación en cósmidos de fragmentos
aleatorios de insertos de YACs.
Finalmente, se escoge un conjunto de clones de
cósmidos con solapamientos mínimos, sus insertos se
rompen aleatoriamente y se subclonan en vectores para la
secuenciación (derivados del fago M13, plásmidos de
la serie pUC, etc.).
Por cada cósmido hay que secuenciar unos 800
clones de fago M13, con un tamaño medio de inserto de 400
pb, y la secuencia de 40 kb del inserto del cósmido
original se ensambla computacionalmente. Este enfoque de
secuenciación aleatoria (shotgun) obliga a
secuenciar muchas veces (unas 8 o 10) el mismo segmento de
secuencia, lo que tiene la ventaja de que asegura una mayor
fiabilidad de los datos obtenidos. Sin embargo, como ya dijimos,
presenta varios inconvenientes: hay que disponer previamente de
buenos mapas; los YACs son inestables y muchos de ellos son
quimeras, artefactos de clonación que no reflejan el orden
genómico (identificarlos y descartarlos es una tarea que
lleva tiempo y esfuerzo); y como ya sabemos, esta
metodología no se puede automatizar totalmente.
Un tema importante es tener tasas de errores lo
más bajas posibles: del orden de 0.02-0.2%.
Secuenciación de ADN complementario
(ADNc)
No es una alternativa, sino un complemento ala
secuenciación genómica. No es el gen lo que estamos
secuenciando, sino la "retrocopia" de su ARNm obtenida por
reversotranscripción, desprovisto de intrones y secuencias
reguladoras no traducidas.
Si bien la secuenciación de ADNc no nos da
información de la estructura del
gen, sí nos la puede dar sobre su expresión: en
qué tejidos se expresa, bajo qué condiciones, etc.,
lo que permite iniciar mapas funcionales del genoma
humano.
Nuevas estrategias de secuenciación
genómica
Recientemente (véase Venter et al., 1996) se ha
propuesto una estrategia de secuenciación genómica
que no depende de previos mapas físicos, y que en lugar de
YACs emplea otro tipo de vectores, los cromosomas artificiales de
bacteria (BACs), que aunque permiten insertos de entre 100 y 350
kb, tienen la gran ventaja de aceptar insertos genómicos
con gran fidelidad (sin quimerismos ni apenas reordenaciones del
material insertado). La estrategia consiste en lo
siguiente:
Se crea una genoteca humana de BACs, con un
tamaño medio de 150 kb, y una redundancia de 15 veces, de
modo que consta de unos 300.000 clones. Los clones de la genoteca
se reparten en pocillos de placas de
microtitulación.
Se secuencian unas 500 bases en cada uno de los dos
extremos del inserto de cada clon. Esto significa que las 600.000
secuencias de los extremos de los clones están repartidas
a razón de una cada 5 kb de genoma, y constituyen el 10%
de la secuencia genómica.
A estas secuencias se las denomina STCs, acrónimo
inglés de "conectores" etiquetados por su secuencia", ya
que permiten que por término medio cada clon BAC pueda ser
conectado con otros 30 (un inserto típico de 150 kb
dividido por 5 kb, estará representado en otros 30 BACs).
Las secuencias de las STCs se pondrían enseguida en
Internet, a disposición de la comunidad
investigadora.
Se toma la "huella dactilar" de cada clon BAC, con una
enzima de restricción .
Un clon BAC que actúa de semilla se secuencia por
cualquier método, y se compara con la base de datos de
STCs para identificar los clones solapados.
Se secuencian los dos clones BAC que muestren
consistencia interna entre las huellas dactilares y solapamiento
mínimo en ambos extremos con respecto al BAC
semilla.
El proceso se va reiterando a ambos lados del BAC
semilla (lo que podríamos llamar "paseo genómico
con BACs").
De esta manera, el genoma humano completo se
podría secuenciar con sólo 20.000 clones
BAC.
Aunque la estrategia es muy atractiva por su aparente
rapidez y menor costo (se estima
que en dos años 30 secuenciadores de última
generación podrían obtener esas 600.000 STCs, con
un desembolso de menos de 10 millones de dólares), tiene
varios inconvenientes, entre ellos el que obliga a mantener uno o
varios centros depositarios de las placas con los clones BACs, y
al envío de clones entre laboratorios. Dado que el PGH ha
funcionado muy bien hasta ahora de modo descentralizado, es
posible que haya reticencias en grupos que vean amenazada la
actual cuasi-democracia
investigadora. (No se puede olvidar quién hace la
propuesta: el director de uno de los centros privados más
"agresivos" en investigación genómica).
El papel de la
informática en los proyectos
genoma
La informática ha sido uno de los objetivos
esenciales del PGH, debido a la gigantesca cantidad de datos que
hay que recoger, analizar, comparar, interpretar y distribuir. La
informática aplicada a la biología presenta dos
subdisciplinas (véase Benton, 1996): la
bioinformática en sentido estricto, que se puede definir
como el trabajo de
investigación y desarrollo que se necesita como
infraestructura de información de la actual
biología; y la biología computacional, que es la
investigación dependiente de computación dedicada a
entender cuestiones biológicas básicas. El
término bioinformática, en sentido lato, comprende
estos dos grandes aspectos. Estamos ante un nuevo campo
interdisciplinario, en la interfase entre ciencias de la
computación, matemáticas y biología.
Las cuestiones de gestión
de datos que plantea el PGH suponen un auténtico
"revulsivo" para la informática. Aunque para algunas de
las tareas se puede recurrir a enfoques tradicionales, con
sólo aumentar la escala del procesamiento, para otros
problemas se
necesitan arquitecturas y programas informáticos
totalmente diferentes.
Adquisición informatizada de datos
biológicos
La adquisición de datos experimentales por
métodos digitales está espoleando a la industria a
diseñar y fabricar aparatos cada vez más
sofisticados, que mejoran y aceleran la parte más
rutinaria de la investigación. Para ello los aparatos
incorporan sistemas
computerizados de análisis y tratamiento de imagen
visible. Piénsese en los secuenciadores automáticos
de ADN o en la tecnología del chip de ADN.
El ensamblaje automático de mapas y secuencias es
otra tarea que plantea numerosos e interesantes problemas a las
ciencias de la computación, que han de hacer uso de nuevos
algoritmos y estrategias en las que tener en cuenta los posibles
errores.
Predicción de secuencias codificadoras, dominios
funcionales y otras zonas interesantes del genoma: Aunque
disponemos de programas a tal efecto (GRAIL, FASTA, etc.), se
requieren nuevos algoritmos capaces de predecir patrones
especiales de secuencia dentro de genomas completos. Se
están ensayando aproximaciones derivadas de las
redes neurales (neuromiméticas).
Construcción de árboles
filogenéticos: En principio se viene realizando a base de
comparar determinados genes entre pares de organismos, mediante
algoritmos de alineamiento de secuencia, pero habrá que
mejorar los métodos, incluyendo una adecuada
evaluación del grado de fiabilidad de los
árboles.
Bases de datos gen éticos y
moleculares
La gigantesca cantidad de datos generados en los
proyectos genoma obliga a abandonar la "Galaxia Gutenberg" a la
hora de publicar los datos: su difusión se hace por
medios
electrónicos, depositándolos en bases de datos
públicos. El ritmo de acumulación de datos es
vertiginoso, y actualmente se duplican en menos de un año.
Los biólogos del siglo XXI usarán esas bases de
datos como un recurso indispensable de su trabajo cotidiano. En
la actualidad funcionan principalmente dos tipos de bases de
datos genómicos:
El Consorcio Internacional de Bases de Datos de
Secuencias está formado por GenBank, el Banco de datos de
ADN de Japón
(DDBJ) y el del EMBL. Alberga los datos de secuencias. Las tres
bases comparten y complementan la información. En España
existe un nodo de EMBL residente en el Centro Nacional de
Biotecnología (CNB) de Madrid.
Genome Data Base (GDB) se estableció para
albergar los datos de mapas y relacionados (sondas, marcadores,
etc.).
Actualmente la base de datos bibliográfica
MEDLINE (mantenida por la NML estadounidense) está
vinculada con las bases de datos genéticos y de
secuencias. Por ejemplo, se puede hacer una búsqueda desde
MEDLINE con palabras clave de una enfermedad, lo que da acceso a
OMIM (Herecia mendeliana on-line), con referencias
bibliográficas, y de ahí se puede saltar a los
mapas genéticos, físicos y las secuencias, si
están disponibles.
En 1993, un taller recomendó profundizar en la
coordinación entre los distintos bancos
informatizados. Las diferencias en la estructura de las bases de
datos y en su nomenclatura
hacen que un investigador que trabaje con un gen o una
proteína de una especie tenga difícil acceder a la
información de genes homólogos de otras especies.
Los expertos en bioinformática están tratando de
desarrollar estándares y nombres comunes, y de establecer
vínculos entre ellos, de modo que cuando los
investigadores busquen información en una base de datos,
automáticamente la encuentren vinculada con otras bases
depositarias de otros datos. Internet y los lenguajes
informáticos dedicados al WWW pueden venir a ayudar, al
hacer fácil crear vínculos entre bases de datos
diferentes ha abierto el camino ala diseminación del
enfoque basado en "federaciones de pequeñas bases de
datos". Basta definir hipervínculos activos
(hipertexto) para vincular datos relevantes entre distintas
bases. Pero para hacer frente al diluvio de datos tales
hipervínculos tendrán que ser creados
automáticamente por el software de la base de datos. Ello
obliga a ponerse de acuerdo sobre la nomenclatura y los formatos
compatibles. El famoso lenguaje Java, creado para
Internet, parece que puede desarrollarse en una buena herramienta
para entrecruzar de modo inteligente todas las bases de datos
biológicos.
Diagnóstico molecular: detección de
mutaciones
El avance en el PGH y en los mapas y secuencias ya
disponibles impulsan la necesidad de disponer de técnicas
capaces de rastrear ADN en busca de mutaciones asociadas con
enfermedades humanas. En los próximos años se
habrá identificado la mayor parte de los genes implicados
en importantes enfermedades humanas. En las bases de datos se
están introduciendo informaciones sobre mutaciones y sus
implicaciones clínicas. Uno de los retos de la medicina
será hacer uso de esa información para mejorar el
diagnóstico y prognosis de las enfermedades.
Para detectar mutaciones en sitios previamente
determinados se han diseñado una serie de
métodos:
Hibridación de oligonucleótidos
específicos de alelos.
Amplificación específica de alelos (con o
sin PCR, o con reacción en cadena de la ligasa,
LCR)
Procedimientos que crean o destruyen sitios de
restricción.
La detección de mutaciones en lugares sin
especificar o cuando no se dispone de información de
secuencia es una tarea muy ardua, aunque se han desarrollado
algunas estrategias (rastreo de malos emparejamientos en el
genoma).
Sin embargo, lo más frecuente es la
situación en que se trata de identificar mutaciones en
múltiples sitios potenciales dentro de segmentos de ADN de
los que se conoce la secuencia normal.
Se han diseñado técnicas de tipo
"multiplex" que permiten la búsqueda de diversos tipos de
mutantes en un determinado gen.
De modo ideal, el procedimiento tendría que ser
fiable, rápido, barato, y proporcionar información
exacta sobre la posición y naturaleza de la
mutación, así como requerir poco esfuerzo, ser
automatizable y no usar reactivos peligrosos. Ninguno de los
métodos actuales cumple este criterio. La
secuenciación sería el método definitivo,
pero sigue requiriendo mucho trabajo, y los métodos
automatizados de alto rendimiento son caros. De todos modos,
debido a que hay mucho interés y dinero puesto
en el empeño, se puede casi garantizar que veremos
importantes avances en breve.
Por ejemplo, se está desarrollando un sistema que
no usa electroforesis en gel (una de las fases más
tediosas), llamado espectrometría de masas por láser de
desorción/ionización asistida por matriz
La división Applied Biosystems de Perkin Elmer ha
diseñado un análisis de hasta 32 mutaciones
diferentes de un gen por amplificación simultánea
de hasta 15 segmentos de ADN, seguida por ligado multiplex de
oligonucleótidos específicos de alelos.
La misma empresa ha creado un ensayo de
micro-PCR que puede realizar 24 ensayos de 2ml
cada uno en un chip, y cuyos resultados se pueden leer en tiempo
real por medio de la estrategia de TaqMan.
Otro de los avances más prometedores son los
"chips" de oligonucleótidos: ordenaciones de diferentes
oligos unidos a soportes semisólidos. AON marcado
fluorescentemente puede entonces hibridarse a los oligos del
chip, de modo que el patrón de hibridación se puede
analizar por scaning de fluorescencia. Como se conoce la
secuencia y posición de cada oligo en el chip, se puede
determinar la posición y posiblemente la naturaleza de
cada mutación.
Este enfoque de microchips con oligos ha sido llevado a
un avance importante por la empresa Affimetrix: usando
técnicas fotolitográficas similares a las que
emplea la fabricación de chips de silicio, se han podido
obtener chips con 64.000 diferentes sondas de
oligonucleótidos unidos a superficies planas de cristal.
En 15 minutos el dispositivo puede detectar la hibridación
de secuencias diana marcadas fluorescentemente a oligos del
chip.
Otro caso notable de nuevas perspectivas que se pueden
abrir con el diagnóstico molecular es el Proyecto de
Anatomía
Genómica del Cáncer que pretende realizar un
catálogo de todos los genes expresados en los distintos
tipos de células tumorales. Se trata del último
ejemplo de matrimonio entre
ciencia
genómica e informática, con consecuencias
trascendentales en el ámbito clínico. los
investigadores quieren determinar cómo cambia la
expresión génica conforme progresa el cáncer
y comprender cómo surgen los tumores. Se espera que se
pueda obtener un índice genético de los tumores, de
modo que el clínico no sólo dependa de
anatomía patológica convencional
(microscopía), sino que el diagnóstico,
pronóstico y tratamiento de sus pacientes se pueda asentar
en un conocimiento más adecuado a base de la
expresión génica y de las proteínas,
la idea de que se puedan identificar todos los genes alterados en
un cáncer determinado es muy atractiva. Debería
realmente suministrar información para clasificar tumores
e identificar dianas para la terapia.
"Las tres culturas" de la biología
genómica
En la biomedicina de la era genómica y
postgenómica se requiere, como se está viendo, un
alto grado de interdisciplinariedad e integración entre
distintos profesionales. Es lo que Benton (1996) ha llamado
-parafraseando a C.P. Snow- el problema de las tres culturas: los
biólogos querrán que los informáticos les
suministren soluciones a sus problemas de gestión de
datos, los matemáticos y expertos en computación
andarán detrás de problemas intelectualmente
llamativos, y los ingenieros pedirán a los dos grupos
anteriores que les suministren especificaciones bien concretadas
para que ellos puedan desarrollar su trabajo. Los distintos
expertos habrán de acostumbrarse a emplear vocabularios y
lenguajes comunes ya entender (sin minusvalorar) los problemas de
los demás. En numerosas universidades empiezan a
impartirse enseñanzas (de pregrado o postgrado) de
bioinformática y biocomputación. En muchos casos se
trata de que los estudiantes o profesionales de especialidades
tradicionales completen su formación con la parte con la
que no están familiarizados.
Por lo que respecta a los biólogos, habrán
de trabajar en entornos tremendamente ricos en
información, manejarán con soltura las bases de
datos, y extraerán conocimiento biológicamente
significativo. Los nuevos datos obligarán a elaborar
nuevas hipótesis en muchos ámbitos de las
ciencias de la vida, que sugerirán nuevos tipos de
experimentos, estableciéndose una retroalimentación fructífera entre
la biología in silico y la tradicional
biología in vtvo e in vitro. Las Ciencias
Biológicas darán un salto no sólo
cuantitativo, sino que probablemente entraremos en un nuevo
paradigma de
investigación, en el que contemplaremos los
fenómenos vitales no sólo desde un punto de vista
molecular, sino de integración entre sus diversos niveles
de complejidad.
PROYECTO
DE DIVERSIDAD DEL GENOMA HUMANO
Lucca Cavalli-Sforza, un prestigioso genético
especializado en estudio de poblaciones humanas, está
impulsando la idea de realizar una investigación destinada
a comprender la variación genética humana ya
reconstruir la historia de las poblaciones humanas en los
últimos 100.000 años de nuestra especie. Este
Proyecto de Diversidad del Genoma Humano (PDGH) implicaría
una diversidad de disciplinas (genética,
arqueología, lingüística, antropología, etc.) para dar cuenta de la
evolución reciente de la humanidad, reconstruir las
grandes migraciones de grupos, la distribución de las
poblaciones y culturas, etc. Una de las estrategias
consistirá en la toma de muestras de ADN de una serie de
poblaciones y etnias, con ulterior estudio comparativo de
polimorfismos moleculares. Se pretende estudiar muestras
correspondientes al 10% de las 5000 poblaciones
lingüísticas diferenciadas que existen, con el objeto
de ver si existen correlaciones (y en su caso, cómo se han
producido) entre la diseminación cultural y la
genética. Según sus impulsores, el PDGH
daría una rica visión de la variedad de recursos gen
éticos de nuestra especie, y junto con los datos del PGH
convencional, facilitaría la comprensión del
fundamento genético de la susceptibilidad o resistencia a
distintas enfermedades, incluidas las infecciosas, comprender
mejor el papel de la selección
y el de la deriva gen ética.
Algunos colectivos y medios de
comunicación han lanzado acusaciones de "racismo" contra
este Proyecto, pero para Cavalli-Sforza nada está
más lejos de sus propósitos. De hecho, piensa que
con él se va a llamar la atención las reclamaciones de ciertas
tribus para que se les ayude a sobrevivir y conservar sus
culturas. Ningún genético serio actual (y menos una
autoridad en
la materia como
Cavalli-Sforza) mantiene la idea de que la especie humana
esté separada en razas, ni mucho menos que de los datos
gen éticos se puedan derivar planes políticos. Un
comité ad hoc de la UNESCO está emitiendo
informes para que el PDGH se amolde a una serie de criterios
éticos y sociales. Los principales temas que se
están evaluando son:
- Consentimiento informado a los individuos y
poblaciones implicados. El PDGH contiene, según los
miembros del comité de la UNESCO, algunas de las medidas
más detalladas y sofisticadas que se hayan propuesto
nunca para obtener ese consentimiento informado. - Comercialización de los posibles resultados de
la investigación: la UNESCO recomienda que este tema
forme parte de las cláusulas del consentimiento
informado y de acuerdos de cooperación. Es decir, se
prevé que parte de los beneficios económicos
reviertan en las comunidades indígenas. Sin embargo,
este tema de la "prospección genética"
(biooprospección) requiere aún mucha
discusión para ser clarificado. El tema de las posibles
patentes sobre genes útiles que se pudieran encontrar es
delicado. La opinión personal de
Cavalli- Sforza es que no se permitan, o en todo caso, que sus
beneficios reviertan ala población donadora que permitió la
identificación del gen. - La financiación debería ser
pública y de entidades sin ánimo de lucro. No se
debe aceptar la financiación de empresas, para evitar
todo posible conflicto de
intereses.
Eugenesia y racismo. El racismo es una actitud
mental, no una consecuencia de ningún dato
biológico. Hay que tomar medidas para evitar que nadie
saque conclusiones sociales y políticas
de meros datos de polimorfismos gen éticos en las
poblaciones humanas.
En la oposición contra el PDGH ha influido
algún lamentable caso de "bioprospección" (no
relacionado con el Proyecto), que ha servido de munición a
ciertos grupos ecologistas y de apoyo a tribus. Por ejemplo el
RAFI (Fundación Internacional para el Avance de las
comunidades Rurales) ha desplegado una campaña para
divulgar "los peligros de PDGH", pidiendo que no se lleve a cabo.
Los miembros de RAFI llamaron la atención del hecho de la
concesión de patente sobre unas células resistentes
al virus HTLV-1 derivadas de la tribu Hagahai de
Papúa-Nueva Guinea.
Hay empresas farmacéuticas que están
realizando "bioprospección" en poblaciones aisladas, las
cuales presentan la ventaja de que su menor polimorfismo gen
ético puede ayudar a encontrar la explicación sobre
base de resistencias o
sensibilidades a ciertas enfermedades. Por ejemplo, se
está intentado identificar genes de sensibilidad al asma
en una pequeña población altamente
endogámica de la isla de Tristan da Cunha
Genoma modelos
Como ya apuntábamos anteriormente, habría
que hablar más bien de Proyectos Genoma (en plural), ya
que en paralelo al estudio del genoma humano están en
curso la caracterización y secuenciación de genomas
de organismos modelo, cuya comparación entre sí y
con el acervo genético humano tendrán dos notables
efectos:
Acelerarán notablemente la obtención de
importantes datos sobre la organización, función y
evolución del ADN a lo largo de toda la escala
filogenética. Se espera que la comparación de
genomas completos de los tres grandes dominios de la vida
(arqueas, bacterias y
eucariotas) nos suministrará claves para comprender
más de 3000 millones de años de evolución.
La biología (que como decía Dobzhanski, no tiene
sentido si no es a la luz de la evolucíón)
profundizará aún más su interés
filogenético.
Ayudarán a determinar la función de
numerosos genes (incluyendo humanos). Habrá numerosas
aplicaciones médicas.
Servirán para emprender nuevos enfoques dentro de
la Biotecnología y la Biología
industrial.
Hasta el momento se dispone de la secuencia completa de
al menos un representante de cada uno de los tres grandes
dominios de seres vivos, y están en marcha o en proyecto
unos 30 proyectos. (Para los proyectos de bacterias,
véase la web del
TIGR).
Eubacterias. Las siguientes eubacterias
están totalmente secuenciadas:
Mycoplasma genitalium | 0.58 | http://www.tigr.org |
Mycoplasma pneumoniae | 0.82 | http://www.zmbh.uniheidelberg.de/M_pneumoniae |
Borrelia burgdorferi (+ Plasmidos) | 0.91 (+32) | http://www.tigr.org |
Aquiles aeolicus | 1.55 | |
Helicobacter pylori | 1.67 | http://www.tigr.org |
Haemophilus influenzae | 1.83 | http://www.tigr.org |
Synechocystis | 3.57 | http://www.kazusa.or.jp/cyano/cyano.html |
Bacillus subtilis | 4.21 | http://www.pasteur.fr/Bio/SubtilList.html |
Mycobacterium tuberculosis | 4.4 | http://www.sanger.ac.uk |
Escherichia coli | 4.67 | http://www.genetics.wisc.edu:80 |
Arqueas (arqueobacterias): Los genomas concluidos son
los de Methanococcus jannaschii y Archaeoglobus fulgidus, ambos
obtenidos por el TIGR, y el de M. Thermoautotrophicum. Muy
avanzados están los de dos arqueobacterias
hipertermofílicas (Pyrobaculum aerophilum, Pyrococcus
furiosus).
Mehanococcus jannaschil | 1.67 | http://www.tigr.org |
M Thermoautotrophicum | 1.75 | http://www.genomecorp.com/htdocs/sequences |
Archaeoglobus fulgidus | 2.18 | http://www.tigr.org |
El TIGR de Craig Venter está secuenciando decenas
de microorganismos tanto procariotas como eucariotas, muchos de
ellos con importancia clínica o industrial (entre las
eubacterias: Enterococcus feacalis, Legionella pneumophila,
Mycobacterium tuberculosis,
Neisseria meningitidis, Salmonella typhimurium, Vibrio cholerae,
Deinococcus radiodurans, etc.). El creciente número de
secuencias bacterianas facilitará muchos estudios
básicos, y por lo que respecta a las patógenas,
permitirá aclarar sus mecanismos de patogenicidad y
virulencia, 10 que podrá sugerir a su vez nuevos
tratamientos.
Hacia el inicio del siglo XXI se estima que dispondremos
de las secuencias de más de 100 microorganismos. Como
siempre, el problema será cómo vamos a digerir esa
información (y quién se va a beneficiar de ella,
pero esta es otra historia que tratamos en otro sitio). Aparte de
los tradicionales (pero renovados) métodos de
biología in silico, siempre hay que volver al laboratorio
a comprobar hipótesis
experimentalmente y recabar nuevos datos. Para ello se
están diseñando nuevas estrategias. Por ejemplo, la
llamada GEMS (selección multiplex manilada
genómicamente), que consiste en medir
simúltáneamente los efectos sobre la supervivencia
de una serie de delecciones en fase en muchos genes, y bajo
diferentes condiciones ambientales; de esta manera, se puede
rastrear el patrón de pérdida o selección de
mutantes concretos..
Eucariotas
En 1996 se terminó la secuencia de la levadura de
panadería (Saccharomyces cerevisiae), y ahora se va a
emprender el de otra levadura muy diferente (Schyzosaccharomyces
pombe). El proyecto genoma de levadura, que ha costado unos 30
millones de dólares, ha sido un logro esencialmente
europeo, con André Goffeau (Universidad
Católica de Lovaina) como coordinador. Se evitó a
toda costa la duplicación de esfuerzo,
"repartiéndose" los cromosomas o regiones entre
países y laboratorios. La Unión
Europea secuenció el 55%, el Centro Sanger (UK), 17%,
la Universidad Washington en St. Louis, 15%, Universidad de
Stanford, 7%, Universidad McGi11 (Canadá), el 4%, y un
laboratorio japonés (RIKEN), el 2%.
El genoma del nematodo Caenorhabditis elegans se
terminará de secuenciar en 1998, con una
intervención esencial del Centro Sanger.
El de la mosca del vinagre (Drosophila melanogaster)
está muy avanzado
Dentro de los mamíferos está en curso igualmente
la cartografía y secuenciación del genoma del
ratón.
Y no hay que olvidar que la biología Vegetal
está muy interesada a su vez en descifrar los genomas de
especies modelo tanto monocotiledóneas (arroz, maíz) como
dicotiledóneas (de estas últimas, el modelo
más avanzado es el de Arabidopsis thaliana).
IDENTIFICACION DE LOS GENES ASOCIADOS A
FENOTIPOS
Genes de rasgos mendelianos
Clonación funcional
Cuando se tiene información bioquímica
sobre un rasgo monogénico, es posible en principio
diseñar alguna estrategia para seleccionar el gen
correspondiente de la genoteca, lo que se ha llamado
clonación funcional. Este es el caso del factor VIII de
coagulación.
Clonación posicional
La clonación funcional no siempre es posible.
Cuando, como ocurre con la gran mayoría de enfermedades
genéticas, se desconoce la base bioquímica del
rasgo, hay que recurrir a otras estrategias, a menudo laboriosas.
Como ejemplo, la clonación posicional de genes de
enfermedades: consiste en ir estrechando el cerco al gen a partir
de su localización cromosómica (genética
inversa). La clonación posicional era una estrategia ya
empleada antes del PGH:
- Se parte de una colección de pedigrís
en la que se ve la cosegregación del rasgo mutante
respecto a múltiples marcadores gen éticos
polimórficos. En humanos, lo ideal es que la
separación entre marcadores no sea mayor de 1 cM. Luego,
por paseo o salto cromosómico, se va uno acercando al
gen. - Identificación del gen mediante una serie de
técnicas
- Zoo-blots
- Islas de CpG sin metilar
- Selección de ADNc
- Atrapamiento de exones
Ejemplos de genes aislados por clonación
posicional:
- Fibrosis quístíca
- Distrofia muscular de Duchenne
- Neurofibromatosis tipo 1
- Alzheimer familiar
- Cloroidemia.
Análisis de genes candidatos
Se han aislado muchos genes por clonación
posicional, pero la mayoría de ellos sobre la base de
mutaciones de delección, translocación o
amplificaciones de trinucleótidos. La clonación
posicional a partir de mutaciones puntuales es más ardua,
y suele requerir muchos marcadores cercanos al gen y una
cartografía fina de desequilibrio de ligamiento. Por ello,
se recurre a otra estrategia: enfoque del candidato posicional:
se usa información disponible sobre función y
posición en el mapa de genes previamente aislados,
información que puede proceder de otros proyectos genoma o
de ESTs/ADNc.
Por ejemplo, una EST aleatoriamente aislada y
homóloga con una glicerol- quinasa de S.
subti¡is se cartografió en la región Xp21
humana. Tras obtener un ADNc más largo, se vio ese era el
correspondiente al gen en cuestión.
- Gen de la retinitis pigmentosa.
- Síndrome de Marfan.
- Cardiomiopatía hipertrófica
familiar - Atrofia muscular espinal y bulbar.
- Síndrome de Waandenburg
- Esclerosis lateral amiotrófica.
Este tipo de estrategia se hará cada vez
más importante conforme avance el PGH. En el futuro,
cuando se asigne un nuevo rasgo a una nueva posición
específica del mapa, será posible interrogar a las
bases de datos genómicas, y obtener para esa
porción genómica una lista de los otros genes
asignados a esa región. Las características de los genes se
compararán entonces con las características del
rasgo para encontrar el candidato más
verosímil.
En resumidas cuentas, el PGH
va a simplificar y abaratar la búsqueda de genes relativos
a enfermedades mediante estrategias de clonación
posicional.
- Predicción y análisis de genes mediante
bioinformática - Conforme avanza el PGH, se hace cada vez más
importante la predicción de genes por medio de
bioinformática: Algunos métodos: - Predicción de genes a partir de secuencias
mediante programas como el GRAIL. - Búsquedas de similitudes (BLAST,
FASTA). - Comparación con secuencias de organismos
modelo. - ESTs.
- Perfiles de secuencia y modelos de Markov
ocultos.
La bioinformática tiene ante sí un
formidable reto, dado el diluvio de datos que está cayendo
en las bases de datos. Habrá que desarrollar nuevos y
potentes algoritmos, y de aplicar buenas estrategias de ingeniería y gestión de la
información, capaces de sacar provecho a los datos e
integrarlos para darles sentido biológico, según
los programas de investigación que cada centro o grupo se
plantee.
Estudio de rasgos complejos y cuantitativos
Los rasgos complejos (poligénicos) se pueden
clasificar como rasgos discretos (medidos según un
resultado específico: diabetes, infarto
de miocardio) o como rasgos cuantitativos (medidos por una
variable continua). Son estos rasgos los que plantean más
problemas a la hora de adscribirlos a los genes correspondientes,
pero ya hay varias estrategias para estudiarlos.
Identificación de loci de rasgos
cuantitativos (QTls)
Sólo se ha vuelto posible con la llegada de los
RFLPs. Las estrategias consisten en cruzar dos razas puras que
difieran sustancialmente en un rasgo cuantitativo.
La progenie segregante se analiza tanto para el rasgo
como para una serie de marcadores. Se emplea en animales y
plantas domésticos.
Análisis de rasgos complejos en
humanos
Uno de los mayores retos del PGH será identificar
y caracterizar los genes responsables de rasgos complejos,
incluyendo las enfermedades poligénicas y
multifactoriales. Los rasgos poligénicos son
difíciles de estudiar en humanos, y evidentemente no se
puede recurrir a estudios de cruces controlados como en los
animales y plantas.
Cosegregación en estudios
familiares
Se parte de familias con individuos afectados. Los genes
de la enfermedad se pueden identificar por cosegregación
con marcadores genéticos (p. ej., microsatélites)
estrechamente ligados, que mostrarán identidad por
descendencia en los individuos afectados. Este enfoque se
está volviendo más cómodo y rápido
gracias a las técnicas de genotipado rápido
basado en fluorescencia, que permiten rastrear el genoma completo
en poco tiempo. Mediante este tipo de estrategia se han logrado
varios éxitos:
Genes responsables de mayor o menor susceptibilidad a
enfermedades infecciosas, como la malaria. Además, ello
abre nuevas vías al desarrollo de vacunas.
Genes de susceptibilidad a diabetes tipo 1 y tipo 2:
algunos han resultado ser genes del complejo HLA-DR.
También la porción 5' del mismo gen de la insulina,
y otros genes a caracterizar.
Genes relacionados con susceptibilidad a osteoporosis:
polimorfismos en genes de receptores de vitamina D. ¿Una
puerta abierta al diagnóstico y prevención de la
osteoporosis postmenopáusica?
A principios de
1997 se creó en Baltimore el Centro de
Investigación sobre Enfermedades Hereditarias (CIDR), por
acuerdo entre los NIH y la Universidad John Hopkins, y que se
dedicará especialmente al genotipado de enfermedades
complejas (diabetes, enfermedades neuropsiquiátricas,
esclerosis múltiples, etc). Este centro está dotado
de tecnologías informáticas y biológicas de
última generación, y realizará genotipado de
entre 2 y 4 millones de marcadores cada año. Pondrá
aprueba nuevas
tecnologías como genotipado basado en chips de ADN y
en espectroscopía de masas.
Métodos de rastreo de genomas
Sería ideal contar con métodos capaces de
rastrear genomas completos en busca de secuencias relacionadas
con un determinado rasgo complejo. Citemos algunos
intentos:
Rastreo genómico de malos emparejamientos
(GMS).
Rastreo por rotura enzimática de malos
emparejamientos (EMC) con resolvasas de fagos.
LA ERA
POSTGENÓMICA: LA PRÓXIMA REVOLUCIÓN DE LA
BIOLOGíA
Desde el punto de vista de la práctica de la
biología básica, el proyecto genoma está
acentuando un par de tendencias que ya se dejaban sentir en los
últimos años: por un lado la necesidad de formar
nuevos tipos de biólogos capaces de tender puentes entre
varias disciplinas, que se muevan con comodidad en un entorno de
ordenadores, autopistas de información y gigantescas bases
de datos e imágenes; y por otro lado, la
reorganización de los laboratorios e institutos de
investigación, donde interaccionen especialistas en
diversos ámbitos de las Ciencias de la Vida,
matemáticos, informáticos, químicos,
etc.
No hay que olvidar que lo que entendemos por Proyecto
Genoma consiste en principio en la obtención de
información estructural más o menos en bruto, pero
lo realmente importante empieza después (en realidad,
simultáneamente): dar sentido biológico, tanto
funcional como evolutivo a tal cúmulo de
información, es decir, extraer auténtico
conocimiento. La "orgía de datos" que se nos viene encima
habrá de ser "digerida" adecuadamente, impulsando nuevos
avances a base de sugerir nuevos enfoques, nuevos experimentos,
renovadas hipótesis de trabajo, todo ello
retroalimentándose en un "circulo virtuoso" que
abrirá las puertas de una nueva era en las Ciencias
Biológicas. Se habla por ello de una "Era
Postgenómica", en la que se irán integrando los
conocimientos acumulados en diversos "Atlas" del ser humano y de
otros seres vivos, en los que se podrán interrelacionar de
modo funcionalmente significativo diversos niveles de
comprensión de la materia viva: génico,
genómico, regulación, biología celular,
fisiología, evolución, etc. El impacto real de todo
ello no se puede prever, pero no cabe duda que el PGH sienta las
bases de un salto cualitativo y cuantitativo en nuestra
visión del mundo vivo.
En la era post-genómica habrá muchas
tareas por hacer (véase p. ej. Lander, 1996):
Identificación de las variantes alélicas
más comunes de los genes humanos. Se trata de formar una
especie de catálogo con las variantes alélicas
más frecuentes (denominadas isotipos) de los genes
humanos. Se calcula que para encontrarlas bastará
re-secuenciar las regiones codificadoras de unos 100 individuos
tomados al azar, y ello se podría llevar a cabo
rápidamente con la técnica del chip de ADN.
Correlacionando esas variantes con la incidencia de enfermedades,
se podrá dar un salto adelante para identificar genes de
susceptibilidad a numerosas enfermedades (y esto, sin recurrir a
los clásicos y complejos estudios con "sagas familiares").
Se abre un campo inmenso a lo que podríamos llamar
estudios epidemiológicos a base de genética de
poblaciones, con la ayuda de las herramientas
genómicas.
Avances en los estudios evolutivos por
comparación de genomas completos de diversos organismos.
Tendremos a nuestro alcance la comprensión de multitud de
aspectos insospechados de los más de 3000 millones de
años de evolución. Se aclararán filogenias
completas, se estudiarán familias de genes y
proteínas, viendo cómo sus miembros varían y
adquieren nuevas funciones en
distintos linajes; se aclararán mecanismos
genéticos evolutivos, etc.
Estudios de "transcriptoma", es decir, entender
cómo, cuándo y por qué se activan o se
silencian distintos juegos de
genes, en función del tipo celular, del tiempo, de los
estímulos, etc. La comprensión de los circuitos de
regulación según la fase de desarrollo del
organismo y el órgano/tejido es uno de los retos de la
fase post-genómica en la que ya estamos. Los proyectos
genoma de ciertos organismos modelo (levadura, Caenorhabditis,
mosca del vinagre, incluso ratón) prevén la
obtención de miles de mutantes, de modo que virtualmente
se disponga de razas inactivadas para cada gen concreto
(razas noqueadas genéticamente, K.O.); de ese modo se
podrán comprobar los fenotipos resultantes, a distintos
niveles, permitiendo aclarar la función genética.
Igualmente se pueden emplear técnicas de disrupción
transitoria de la función genética (como los
oligonucleótidos antisentido y las ribozimas) para
estudiar la expresión de genes no susceptibles de analizar
mediante la transgénesis inactivadora en línea
germinal.
Un ejemplo de este tipo de estudios está en un
trabajo aparecido recientemente (9 de abril de 1998) en "Nature"
(vol. 392, pp. 608-611). En él, miembro de la empresa
Lexicon Genetics describen la aplicación de un
método de mutagénesis en células madre
embrionarias (ES) de ratón, que permite obtener miles de
mutantes "marcados" con una etiqueta genética, de modo que
luego se puede identificar el gen alterado y estudiar su
función.
Estudios de "proteoma": seguimiento de la
expresión al nivel de traducción y
post-traducción en cada tipo celular, y en función
de nuevo de la fase de desarrollo y de las señales
recibidas por la célula.
Uno de los retos es automatizar y hacer más sencilla la
técnica de geles bidimensionales, y a ser posible
fusionarla con alguna técnica espectroscópica para
caracterizar los cientos o miles de proteínas de cada
muestra, e incluso las interacciones entre
proteínas.
Un atisbo de lo que puede ser esta era
post-genómica del PGH la tenemos ya con la levadura, una
vez finalizada la secuenciación de su genoma:
Tras la finalización del proyecto genoma de
levadura
Generación de mutantes de delección
específicos: Es perfectamente factible emprender la
delección sistemática de todos y cada uno de los
6000 genes. Para ello se ha diseñado una de
disrupción génica dirigida por PCR y que aprovecha
la eficiencia y
precisión del sistema de recombinación
mitótica del organismo. El método permite la
sustitución de cualquier gen de la levadura, incluyendo
las razas industriales. Se pretende obtener una biblioteca de
6000 razas de delección, una por cada ORF o gen, y en la
que cada cepa estará marcada con un
ologonucleótido, a modo de código
de barras molecular identificador.
Análisis fenotípico cuantitativo:
análisis de control metabólico (MCA) de arriba a
abajo
El transcriptoma El transcriptoma es el conjunto
de genes expresados, junto con su nivel de transcripción,
bajo un conjunto dado de condiciones. Se están poniendo a
prueba varias estrategias:
Un enfoque que se está ensayando es el
análisis en serie de la expresión génica
(SAGE). Se trataría de determinar las condiciones
fisiológicas y fases de desarrollo en las que genes y
grupos de genes concretos se expresan, y de relacionar estos
patrones de expresión con los de los genes cuyas funciones
se conocen bien.
Otros enfoques distintos son el despliegue diferencial
(differential display) y las tecnologías de
hibridación en formación ordenada
(hybridation-array). Esta ofrece buenas esperanzas de lograr un
análisis a gran escala con buenos rendimientos.
Recuérdese lo dicho sobre los microchips de
oligonucleótidos.
Lo que es cierto es que el análisis
clásico tipo Northern no sirve para esto. Se espera que
incluso termine recurriéndose al uso de paneles solapados
de oligonucleótidose en hibridación en
formación para la correlación entre transcritos
individuales y las ORF correspondientes.
También aquí será importante
agrupar los genes en unidades funcionalmente relacionadas, que es
de esperar contengan genes de función ya
conocida.
El proteoma Se trata del conjunto de
proteínas que se encuentran en una célula
bajo unas condiciones determinadas. El proteoma de levadura se
está estudiando mediante electroforesis bidimensional,
usando espectrografía de masas para identificar las
proteínas contenidas en las manchas del gel. Será
importante caracterizar proteínas de complejos proteicos,
que suministrarían un importante correlato
bioquímico de los datos in vivo.
Análisis funcionales de todo el genoma,
recurriendo a novedosas tecnologías genéticas y
bioinformáticas, incluyendo los chips de ADN.
En general, los análisis genómicos
globales funcionales suministran una clasificación
funcional más que una comprensión detallada de cada
gen. Para esto último habrá que volver a los
estudios de corte más clásico, sobre genes o grupos
de genes.
Como dice Fred Sherman, uno de los líderes del
Proyecto genoma de Levadura, tener la secuencia del genoma no es
muy diferente a tener uno de los grandes catálogos de
productos
bioquímicos comerciales que tanto usan los
biotecnólogos. Cada laboratorio dispone de ese
catálago, pero cada uno usa un conjunto limitado de sus
recursos, en función del tipo de investigación y
del problema biológico que quiera abordar. Disponer del
atlas del genoma y de las herramientas de estudio de rasgos
complejos impulsará la biología del siglo XXI de un
modo que no podemos sospechar aún.
Avances en la medicina
El PGH influirá poderosamente en la Biomedicina
de los próximos lustros: permitirá avanzar en el
conocimiento de la base de muchas enfermedades (Medicina
Molecular), y abrirá perspectivas nuevas en el
diagnótico, pronóstico y tratamiento, aunque esto
último, necesitado de mucha investigación de tipo
post- genómico, vendrá con más
retraso.
Comprensión de la base molecular de las
enfermedades
Uso de los modelos de ratones
transgénicos
Los ratones se pueden manipular en línea germinal
e inactivar de modo dirigido genes. De esta forma se han logrado
modelos de numerosas enfermedades humanas, sobre todo las que
afectan al sistema inmune y al desarrollo
embrionario. Actualmente existen unas 1000 razas de ratones
K.O. (noqueados), y obtener cada una de ellas cuesta una media de
$ 100.000 y unos 10 meses de desarrollo.
En 1997 el Instituto Merck de Investigación
Genómica anució que iba a financiar con $ 8
millones a la empresa Lexicon Genetics para crear 150 nuevas
razas de ratones K.O. usando una nueva tecnología
desarrollada por esa compañía. La Merck pretende
que las razas de ratón creadas en el proyecto queden
disponibles para los investigadores aun precio
nominal. La estrategia de Lexicon consiste en insertar un
pequeño trozo de ADN aleatoriamente en células
madre embrionarias. El ADN insertado inactiva la función
del gen donde se inserta, y junto con algunas secuencias
adyacentes transcribibles del ratón, suministra un
sitio-etiqueta único. Luego se recupera esa etiqueta, de
modo que se puede averiguar la identidad del gen
inactivado.
Durante los próximos 3 años, Lexicon
pondrá a trabajar robots de alto rendimiento para generar
unos 500.000 clones mutantes de células madre embrionarias
de ratón, cantidad suficiente para que cada gen quede
marcado e inactivado una media de 5 veces. Las células
clonadas se guardan en nitrógeno líquido. Para
final de este año se espera disponer ya de 50.000 clones.
Cualquier investigador con un gen clonado o secuenciado
podrá consultar la base de datos OmniBank para localizar
los clones que lleven una inserción inactivadora en el gen
en que trabajan. Las células de ese clon o clones se
descongelan y se usan para crear el correspondiente ratón
transgénco K.O., del .- que se estudiará el
fenotipo a nivel anatomo-histológico, fisiológico,
etc. (Volvemos a remitir al lector al artículo publicado
en "Nature" (vol 392: 608-611 [1998])con un ejemplo de
cómo esta empresa está aplicando este método
prometedor.
Desde el momento que se decidió introducir
fragmentos de (ADN) en el Genoma de un individuo que de un modo
arrojo saldos positivos para los investigadores y su
función en vivo.
El interés y preocupación de los
investigadores empezó a aumentar y transcender hacia otros
sectores de la sociedad en el decenio de 1980, al tener conciencia de la
viabilidad y factibilidad de
modificar genéticamente las células.
Entendiendo la importancia del Genoma Humano debemos
tomar en cuenta de cual pueden ser sus consecuencias en el
ámbito social, éticas, jurídicas,
etc.
Los primeros resultados ya han estimulado un debate
sobre si conviene o no patentar para uso comercial, las
secuencias de Genes Humanos y de poner la información
sobre Genética Humana a disposición, así
como corregir defectos Genéticos de forma que
podría transmitirse de generación en
generación, pero hay que destacar la relevancia que tiene
el proyecto Genoma Humano en cuanto a que traería
conocimientos y abriría nuevas puertas ala ciencia del
mañana, pero será necesario delimitar los procesos
de estudio según el derecho ala dignidad
humana.
En fin podemos decir que la realización de la
investigación del Genoma Humano, permite asumir muchas
consideraciones, entre las cuales podemos nombrar a manera de
conclusión:
_Las investigaciones
acerca del Genoma suponen un aporte importante en torno al,
futuro genético del hombre.
_El aporte de las deducciones realizadas a partir del
estudio de la cadena de ADN permitirán mejorar la calidad de
vida del hombre desde la perspectiva de la salud.
_Los estudios acerca del Genoma suponen una
relación de carácter
científico tecnológico.
_Los estudios en tomo al Genoma supondrán la
curación de enfermedades que han estado
afectando al hombre( cáncer, HIV) así como
herejías genéticas.
_Permitirá mejorar la estructura física
del hombre.
_Permitirá la escogencia de nuevos elementos y
perfiles para el hombre del
futuro.
-Enciclopedia Encarta 98
-Trabajo practico de Genoma, de Juan Andrés
Toselli en wwwv.monografias.com
-Declaraciones de la asociación medica Mundial
sobre el proyecto Genoma Humano, en
www.uma.net/s/policy/17-5-1_5.html.
-Aplicaciones de la Ingeniería
Genética en www.geocitees.com/genetica
2000.
-El Genoma Humano del Dr. Francisco Lenadro Loicano en
www.alfinal.com
-Biología I. Editorial Santillana
-Química II. Editorial Santillana.
-Diario la nación
en www.lanacion.com.ar
, Febrero-Agosto 2002
-Clarín Digital en www.clarin.com .ar ,
Febrero-Agosto 2002
Realizado por:
Maria A. Alcalá O.
Rondón, Marvelis.
Urbano, Yamilka
PTO. LA CRUZ,