Monografias.com > Uncategorized
Descargar Imprimir Comentar Ver trabajos relacionados

El medio ambiente y su destrucción (página 4)



Partes: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12

En tiempos más recientes, el control
numérico y la telequerica son dos tecnologías
importantes en el desarrollo de la robótica. El control
numérico (NC) se desarrolló para máquinas
herramienta a finales de los años 40 y principios de los
50. Como su nombre indica, el control numérico implica el
control de acciones de un máquina-herramienta por medio de
números. Está basado en el trabajo original de Jhon
Parsons, que concibió el empleo de tarjetas perforadas,
que contienen datos de posiciones, para controlar los ejes de una
máquina-herramienta.

El campo de la telequerica abarca la utilización
de un manipulador remoto controlado por un ser humano. A veces
denominado teleoperador, el operador remoto es un dispositivo
mecánico que traduce los movimientos del operador humano
en movimientos correspondientes en una posición remota. A
Goertz se le acredita el desarrollo de la telequerica. En 1948
construyó un mecanismo manipulador bilateral
maestro-esclavo en el Argonne National Laboratory. El empleo
más frecuente de los teleoperadores se encuentra en la
manipulación de sustancias radiactivas, o peligrosas para
el ser humano.  

La combinación del control numérico y la
telequerica es la base que constituye al robot modelo. Hay dos
individuos que merecen el reconocimiento de la confluencia de
éstas dos tecnologías y el personal que
podía ofrecer en las aplicaciones industriales. El primero
fue un inventor británico llamado Cyril Walter Kenward,
que solicitó una patente británica para un
dispositivo robótico en marzo de 1954.

La segunda persona citada es George C. Devol, inventor
americano, al que debe atribuirse dos invenciones que llevaron al
desarrollo de los robots hasta nuestros días. La primera
invención consistía en un dispositivo para grabar
magnéticamente señales eléctricas y
reproducirlas para controlar una máquina. La segunda
invención se denominaba Transferencia de Artículos
Programada.

Un robot industrial es un máquina programable de
uso general que tiene algunas características
antropomórficas o ¨humanoides¨. Las
características humanoides más típicas de
los robots actuales es la de sus brazos móviles, los que
se desplazarán por medio de secuencias de movimientos que
son programados para la ejecución de tareas de
utilidad.

La definición oficial de un robot industrial se
proporciona por la Robotics Industries Association (RIA),
anteriormente el Robotics Institute of América.

"Un robot industrial es un manipulador
multifuncional reprogramable diseñado para desplazar
materiales , piezas, herramientas o dispositivos especiales,
mediante movimientos variables programados para la
ejecución de una diversidad de tareas".

Se espera en un futuro no muy lejano que la
tecnología en robótica se desplace en una
dirección que sea capaz de proporcionar a éstas
máquinas un gran número de actividades industriales
y sociales.

D) LA CARRERA AERONÁUTICA Y
AEROESPACIAL.

El artista e inventor italiano, Leonardo Da Vinci
diseñó, por primera vez, un tipo de avión (o
aeroplano) en el siglo XV, pero nunca llegó a levantar el
vuelo.

Varios siglos más tarde, los hermanos
Wright fueron principalmente los creadores del avión
autopropulsado de la historia. En 1903 desarrollaron el
avión cerca de Kitty Hawk, cuyo vuelo duró
aproximadamente un minuto y recorrió más o menos 26
metros, estando presentes, en este acontecimiento
histórico 5 personas.

Durante la Primera Guerra Mundial, los aviones fueron
diseñados para la exploración, pero, cuando los
exploradores se encontraban y eran enemigos luchaban con pistolas
y ladrillos. Tras esto, pensaron en poner metralletas y el
alemán Anthony Fokker diseñó un sistema para
que no dañara las hélices y otros mecanismos.
Aviones importantes fueron: Sopwith Camel, Albatros DVa y los
Fokker alemanes y sus variantes.

Durante el periodo denominado de entreguerras las
potencias seguían mejorando sus aviones hasta crear
aviones de dos alas, cada uno a un lado del aparato. Los primeros
aviones que se crearon de este tipo fueron: FW-190, Aichi D3A
''llamados como los americanos VAL".

En la Segunda Guerra Mundial los aviones van adquiriendo
cierta relevancia. Hasta ese momento no eran lo que se puede
decir importantes,para el transcurso de una guerra, pero ahora,
conseguir la supremacia aérea fundamental. Los aviones de
ataque o cazas para abreviar, eran aviones que podían
atacar objetivos aéreos con facilidad y destruirlos. Eran
ligeros y rápidos, con metralletas incrustadas en las
alas. Los bombarderos eran usados para destruir objetivos
terrestres, tanto blindados como edificios o soldados. No
tenían metralletas para atacar a enemigos aéreos.
Eso sí, tenían metralletas que dirigían los
soldados en diferentes partes del avión para defenderse.
Eran lentos y resistentes.

A partir de principios de la década de los 50 del
siglo pasado se inició la denominada Guerra Fría.
Los americanos ayudaban, pero sin luchar ellos, a Corea del Sur y
la URSS a Corea del Norte. Durante esta guerra se usaron los
helicópteros para las misiones de reconocimiento, de
ataque, de bombardero, de transporte, pero los cazas, mejorados y
creados a propulsión para destruir objetivos más
duros y para combates aéreos muchísimo más
intensos.

Los cazas de ahora son a propulsión, con misiles
dirigidos y son poderosísimos, llegando a superar la
barrera del sonido. Además existen los denominados
"aviones invisibles" pues no son detectados por los
radares.

El avión invisible es el producto de la
combinación de varios factores antidetección y el
aprovechamiento de una debilidad de los misiles AA/IR
(antiaéreos infrarrojos).

Estos misiles en su nariz tienen un sensor IR
(infrarrojo) de ángulo estrecho (como la luz de una
linterna) en cuya área o cono de captación se puede
«ver» el objetivo. Si un avión se ubica
perpendicular al eje del misil (a un lado) el misil no lo ve y
sigue de largo. Por eso los misiles AA deben ser disparados hacia
el punto donde el radar ubicado en tierra ve el objetivo. En caso
de que el radar no logre ver el avión, no hay manera de
disparar hacia el punto donde está el avión. Lo
mismo pasa con los misiles AA del tipo FF, es decir misiles que
en su morro llevan no un sensor infrarrojo sino un minirradar, e
incluso con los combinados IR-FF.

En cuanto a los factores antidetección, para
evitar la detección infrarroja o detección
térmica, primeramente las turbinas se recubren
externamente de amianto y otros aislantes térmicos,
formando una gruesa capa entre el fuselaje de plástico del
avión y la superficie metálica del cuerpo de la
turbina. El fuselaje externo por ser de plástico
contribuye al aislamiento. La cola del avión
después de la salida o tobera de la turbina se hace un
poco más larga para disipar aún más el
chorro térmico. Esta cola se hace de doble capa con
amianto en medio de las dos capas formadas por el fuselaje
externo y la capa o cubierta interna. Para reforzar la merma de
calor, la turbina se fabrica lo más pequeña posible
y para operar a las mínimas revoluciones posibles (RPM),
de ahí la baja velocidad de los F117.

Adicionalmente desde la boca delantera de entrada de
aire frío, se hace una toma por 4 ó 6 conductos de
poco diámetro que van a la prolongación de la cola,
antes mencionada, para enfriar con aire frío el extremo
final la cola del chorro de la turbina.

Pero, a pesar de todo esto, al avión siempre
conserva un «Punto caliente» al ser visto desde
atrás o por atrás. Si desde atrás se le
dispara un AA-FF como éste trabaja respondiendo a un eco
de radar, el misil no ve el avión. Pero si desde
atrás se le dispara un AA-IR sí lo ve y da en el
blanco, y esto fue la que paso en Kosovo con el F-117
derribado.

En cuanto al método antidetección de
radar, es una combinación de varios factores, en primer
lugar, se usa un material de fibra plástica similar a la
fibra de cristal con la adicción de un derivado del
amianto, que tiene una baja reflexión de radar como
cualquier lancha con casco de fibra de vidrio. A esto se suma una
pintura que tiene una baja reflexión a las ondas del
radar. Y finalmente se agrega el diseño de superficie
diédrica, para aprovechar un principio físico que
dice que el ángulo de reflexión es igual al
ángulo de incidencia, con respecto al plano donde se hace
el rebote.

Sin embargo, los modernos micrófonos de alta
sensibilidad, amplificadores de audio de sensibilidad extrema y
altos factores de amplificación lineal, así como
los filtros de audio pasabanda (que discriminan la frecuencia
sónica a una estrecha banda sonora equivalente al sonido
del avión), permiten la detección con gran
exactitud a larga distancia. Los micrófonos, con su
reflector parabólico, son montados en
«baterías» de hasta 100 grupos como una
especie de antena Yagi direccional. Además, el sonido del
avión en el aire no se puede disfrazar e investigadores
chinos han conseguido diseñar y construir un radar de baja
frecuencia que rebota en superficies de baja reflexión a
las altas frecuencias.

En el campo de la aviación civil las innovaciones
que se vienen realizando en las últimas décadas
son, igualmente, impresionantes.

En diciembre de 2009 Air Berlin estrenó el
sistema GLS para asistir a los pilotos en el aterrizaje de
aeronaves, y mientras eso sucede en Europa, en EEUU
también avanzan en ese sentido.

La Federal Aviation Administration de ese país ha
aprobado la puesta en marcha del sistema Automatic Dependent
Surveillance-Broadcast, o ADS-B, que ofrece una
visualización mucho más detallada del espacio
aéreo, tanto desde las torres de control como desde las
propias aeronaves.

Con ADS-B será posible un nivel de seguridad
mucho mayor gracias a que los pilotos tendrán una
referencia mucho más realista y detallada de las rutas,
como así también de las dificultades que estas
presentan, gracias a la utilización de vistas de terreno y
acceso.

Air Berlin será la primera aerolínea en
incorporar el Global Position Landing System (GLS), una
tecnología de navegación satelital  de
asistencia en vuelo.

Con ella será posible realizar vuelos de
aproximación mucho más precisos y aterrizajes
más exactos, lo cual permitirá reducir costos y
aumentar significativamente la seguridad.

La Oficina Federal Alemana de Aviación (LBA) ya
ha otorgado la autorización a Air Berlin para comenzar a
utilizar el sistema GLS, lo cual convierte a la
compañía en la precursora de esta
tecnología.

La carrera espacial y la Guerra Fría,
provocó los incentivos necesarios tanto para los Estados
Unidos como para la URSS, creando y potenciando sus industrias
aeroespaciales, y en la década de 1980, condujeron al
mundo, en general, a importantes logros. El mercado aeroespacial
mundial creció de forma sostenida en los años 1980,
a pesar de que las ventas se desaceleraron en los EE.UU. a causa
del accidente del transbordador espacial que destruyó el
Challenger en 1986 y el fracaso del Delta del Titán. De
hecho, los EE.UU. decidieron, en 1991, poner fin a su dependencia
de los lanzamientos del transbordador. China y Japón
amplían, entonces, sus programas espaciales para poder
acceder a los mercados abiertos por la caída del programa
de transbordadores de EE.UU. y el incierto futuro del programa
espacial soviético como resultado de sus problemas
políticos.

En los EE.UU. los principales productores de aviones,
motores de aviones, misiles y vehículos espaciales superan
la docena. Como los vehículos son cada vez más
complejos, las empresas suelen trabajar en colaboración
sobre los productos principales. También dependen de los
proveedores especializados para muchos artículos. Decenas
de miles de pequeñas empresas fabrican piezas para los
productores primarios.

Los principales fabricantes de fuselajes de aviones,
misiles y vehículos espaciales incluyen Boeing, Fairchild
República, General Dynamics, Grumman, Hughes,
Ling-Temco-Vought, Lockhead, Martin Marietta, McDonnell Douglas,
de América del Norte de las aeronaves, y Northrop. Entre
los productores de aviones privados son la haya, Cessna y Piper.
Los fabricantes de motores incluyen Avco Lycoming, General
Electric y Pratt and Whitney. Incluyen fabricantes de
helicópteros Bell, Boeing, Hiller, Hughes, Kaman, y
Sikorsky.

El gobierno federal norteamericano es el principal
cliente de los misiles, vehículos espaciales, aeronaves y
sus componentes. Las compras gubernamentales anuales de estos
vehículos suman en total unos 23 millones de
dólares, alrededor del 54 por ciento de los productos
aeroespaciales de los EE.UU. y servicios vendidos.

Con el desvanecimiento de las hostilidades de la Guerra
Fría, las partes de la industria dedicada a la
aeronáutica militar comenzó a disminuir lentamente
en la década de 1980, pero los analistas de la industria
aseguran que la pérdida fue compensada por un saludable
crecimiento en el mercado de aviones civiles, impulsado por el
aumento de una proyección en el tráfico
aéreo, por la necesidad de reemplazar los aviones ya
envejecidos, por un aumento previsto del tráfico
aéreo, y por las nuevas regulaciones que exigen
modificaciones en las aeronaves existentes para alcanzar niveles
de menor ruido.

El programa espacial soviético lanzó el
primer satélite artificial del mundo (Sputnik 1) el 4 de
octubre de 1957. El Congreso de los Estados Unidos lo
percibió como una amenaza a la seguridad y el Presidente
Eisenhower y sus consejeros, tras varios meses de debate, tomaron
el acuerdo de fundar una nueva agencia federal que dirigiera toda
la actividad espacial no militar.

El 29 de julio de 1958 Eisenhower firmó el Acta
de fundación de la NASA, la cual empezó a funcionar
el 1 de octubre de 1958 con cuatro laboratorios y unos 8.000
empleados.

La intención de los primeros programas era poner
una nave tripulada en órbita y ello se realizó bajo
la presión de la competencia entre los EE.UU. y la URSS en
la denominada carrera espacial que se produjo durante la Guerra
Fría.

El Programa Mercury comenzó en 1958 con el
objetivo de descubrir si el hombre podía sobrevivir en el
espacio exterior. El 5 de mayo de 1961 Alan B. Shephard fue el
primer astronauta estadounidense al pilotar la nave Freedom 7 en
un vuelo suborbital de 15 minutos. John Glenn se convirtió
el 20 de febrero de 1962 en el primer estadounidense en orbitar
la Tierra, durante un vuelo de 5 horas con la nave Friendship 7,
que dio tres vueltas a la Tierra.

El 25 de mayo de 1961 el Presidente John F. Kennedy
anunció que Estados Unidos debía comprometerse a
"aterrizar a un hombre en la Luna y devolverlo sano y salvo a
la Tierra antes del final de la década
", para lo cual
se creó el Programa Apolo. El Programa Gemini fue
concebido para probar las técnicas necesarias para el
Programa Apolo, cuyas misiones eran mucho más
complejas.

Durante los ocho años de misiones preliminares la
NASA tuvo la primera pérdida de astronautas. El Apolo 1 se
incendió en la rampa de lanzamiento durante un ensayo y
sus tres astronautas murieron. La NASA, tras este accidente,
lanzó un programa de premios para mejorar la seguridad de
las misiones, el Premio Snoopy. El Programa Apolo logró su
meta con el Apolo 11, que alunizó con Neil Armstrong y
Edwin E. Aldrin en la superficie de la Luna el 20 de julio de
1969 y los devolvió a la Tierra el 24 de julio. Las
primeras palabras de Armstrong al poner el pie sobre la Luna
fueron: «Este es un pequeño paso para un hombre,
pero un gran salto para la humanidad
».

Diez hombres más formarían la lista de
astronautas en pisar la Luna cuando finalizó el programa
anticipadamente con el Apolo 17 en diciembre de 1972, cuyo
resultado fue, además de la recogida de muestras de
regolito, la instalación de equipos de estudio
superficiales ALSEP.

La NASA había ganado la carrera espacial y, en
cierto sentido, esto la dejó sin objetivos al disminuir la
atención pública capaz de garantizar los grandes
presupuestos del Congreso. Aunque la inmensa mayoría del
presupuesto de NASA se ha gastado en los vuelos tripulados, ha
habido muchas misiones no tripuladas promovidas por la agencia
espacial.

El desarrollo ya logrado por las dos potencias
espaciales tenía que producir un acercamiento entre la
Unión Soviética y los Estados Unidos. Por lo tanto,
el 17 de julio de 1975, un Apolo, se acopló a un Soyuz
soviético en la misión Apolo-Soyuz para la que hubo
que diseñar un módulo intermedio y acercar la
tecnología de las dos naciones. Aunque la Guerra
Fría duraría más años, este fue un
punto crítico en la historia de NASA y el principio de la
colaboración internacional en la exploración
espacial. Después vinieron los vuelos del transbordador a
la estación rusa Mir, vuelos de estadounidense en la Soyuz
y de rusos en el transbordador y la colaboración de ambas
naciones y otras más en la construcción de la
Estación Espacial Internacional (ISS).

El Transbordador espacial se convirtió en el
programa espacial favorito de la NASA a finales de los
años setenta y los años ochenta. Planeados tanto
los dos cohetes lanzadores como el transbordador como
reutilizables, se construyeron cuatro transbordadores. El primero
en ser lanzado fue el Columbia el 12 de abril de 1981.

Pero los vuelos del transbordador eran mucho más
costosos de lo que inicialmente estaba proyectado y,
después de que el desastre del Challenger, en 1986,
resaltó los riesgos de los vuelos espaciales, el
público recuperó el interés perdido en las
misiones espaciales.

No obstante, el transbordador se ha usado para poner en
órbita proyectos de mucha importancia como el Telescopio
Espacial Hubble (HST). El HST se creó con un presupuesto
relativamente pequeño de 2.000 millones de dólares,
pero ha continuado funcionando desde 1990 y ha maravillado a los
científicos y al público. Algunas de las
imágenes han sido legendarias, como las del denominado
Campo Profundo del Hubble. El HST es un proyecto conjunto entre
la ESA y la NASA, y su éxito ha ayudado en la mayor
colaboración entre las agencias.

En 1995 la cooperación ruso-estadounidense se
lograría de nuevo cuando comenzaron las misiones de
acoplamiento entre el transbordador y la estación espacial
Mir, en ese momento la única estación espacial
completa. Esta cooperación continúa al día
de hoy entre Rusia y Estados Unidos, los dos socios más
importantes en la construcción de la Estación
Espacial Internacional. La fuerza de su cooperación en
este proyecto fue más evidente cuando la NASA
empezó confiando en los vehículos de lanzamiento
rusos para mantener la ISS tras el desastre en 2003 del Columbia
que mantuvo en tierra la flota de los transbordadores durante
más de un año.

Costando más de cien mil millones de
dólares, ha sido a veces difícil para la NASA
justificar el proyecto ISS. La población estadounidense ha
sido históricamente difícil de impresionar con los
detalles de experimentos científicos en el espacio.
Además, no puede acomodar a tantos científicos como
había sido planeado, sobre todo, desde que el
transbordador espacial estuvo fuera de uso hasta marzo de 2005,
deteniendo la construcción de la ISS y limitando su
tripulación a una de mantenimiento de dos
personas.

Durante la mayor parte de los años 1990 la NASA
se enfrentó con una reducción de los presupuestos
anuales por parte del Congreso. Para responder a este reto, el
noveno administrador de la NASA, Daniel S. Goldin, inventó
misiones baratas bajo el lema :"más rápido,
más bueno, más barato" que le permitió a la
NASA recortar los costes mientras se emprendía una gran
variedad de programas aerospaciales. Ese método fue
criticado y llevó en 1999 a las pérdidas de las
naves gemelas Climate Orbiter y Mars Polar Lander de
exploración en Marte.

Probablemente la misión con más
éxito entre el público en los últimos
años (1997) ha sido la de la sonda Mars Pathfinder y la
Mars Global Surveyor. Los periódicos de todo el mundo
llevaron las imágenes del robot Sojourner,
desplazándose y explorando la superficie de Marte. Desde
1997 la Mars Global Surveyor estuvo orbitando Marte con gran
éxito científico. Desde 2001 el orbitador Mars
Odyssey ha estado buscando evidencia de agua en el Planeta rojo,
en el pasado o en el presente, así como pruebas de
actividad volcánica.

En 2004 una misión científicamente
más ambiciosa llevó a dos robots, Spirit y
Opportunity, a analizar las rocas en busca de agua, por lo que
aterrizaron en dos zonas de Marte diametralmente opuestas,
encontrando vestigios de un antiguo mar o lago salado.

El 14 de enero de 2004, diez días después
del aterrizaje de Spirit , el Presidente George W. Bush
anunció el futuro de la exploración espacial. La
humanidad volvería a la Luna en 2020 como paso previo a un
viaje tripulado a Marte.

El robot Spirit siempre fue el menos afortunado de los
dos aparatos gemelos que la NASA envió a explorar la
superficie de Marte. Apenas semanas después de llegar a un
cráter marciano en 2004, comenzó a transmitir
mensajes incoherentes a la Tierra. Los ingenieros temen que el
Spirit se quede sin electricidad a menos que los
científicos puedan reorientar sus celdas fotovoltaicas
hacia el Sol.

El Spirit "siempre ha sido nuestra reina del drama'',
dijo el científico en jefe Steve Squyres de la Universidad
Cornell.

En abril, de 2009, cuando el Spirit circulaba hacia
atrás por una falla en una rueda, cayó a
través del suelo endurecido como una persona que atraviesa
el hielo de un lago congelado y quedó encallado en arena
suelta. Desde entonces, los intentos para liberarlo de
allí no han avanzado mucho.

En cambio, su gemelo Opportunity le robó
protagonismo, ya que llegó a un sitio
geológicamente ideal y fue el primero en establecer que el
Planeta rojo, hoy helado y polvoriento, tuvo un pasado con
más humedad.

E) LA NANOTECNOLOGÍA.

La palabra "nanotecnología" es usada
extensivamente para definir las ciencias y técnicas que se
aplican al un nivel de nanoescala, esto es unas medidas
extremadamente pequeñas "nanos" que permiten trabajar y
manipular las estructuras moleculares y sus átomos. En
síntesis nos llevaría a la posibilidad de fabricar
materiales y máquinas a partir del reordenamiento de
átomos y moléculas. El desarrollo de esta
disciplina se produce a partir de las propuestas de Richard
Feynman (Breve cronología – historia de la
nanotecnología).

La mejor definición de Nanotecnología que
hemos encontrado es esta: La nanotecnologia es el estudio,
diseño, creación, síntesis,
manipulación y aplicación de materiales, aparatos y
sistemas funcionales a través del control de la materia a
nano escala, y la explotación de fenómenos y
propiedades de la materia a nano escala.

Cuando se manipula la materia a la escala tan
minúscula de átomos y moléculas, demuestra
fenómenos y propiedades totalmente nuevas. Por lo tanto,
científicos utilizan la nanotecnología para crear
materiales, aparatos y sistemas novedosos y poco costosos con
propiedades únicas

Nos interesa, más que su concepto, lo que
representa potencialmente dentro del conjunto de investigaciones
y aplicaciones actuales cuyo propósito es crear nuevas
estructuras y productos que tendrían un gran impacto en la
industria, la medicina etc..

Esta nuevas estructuras con precisión
atómica, tales como nanotubos de carbón, o
pequeños instrumentos para el interior del cuerpo humano
pueden introducirnos en una nueva era, tal como señala
Charles Vest (ex-presidente del MIT). Los avances
nanotecnológicos protagonizarían de esta forma la
sociedad del conocimiento con multitud de desarrollos con una
gran repercusión en su instrumentación empresarial
y social.

La nanociencia está unida en gran medida desde la
década de los 80 con Drexler y sus aportaciones a
la"nanotecnología molecular", esto es, la
construcción de nanomáquinas hechas de
átomos y que son capaces de construir ellas mismas otros
componentes moleculares. Desde entonces Eric Drexler (personal
webpage), se le considera uno de los mayores visionarios sobre
este tema. Ya en 1986, en su libro "Engines of creation"
introdujo las promesas y peligros de la manipulación
molecular.

El padre de la "nanociencia", es considerado Richard
Feynman, premio Nóbel de Física, quién en
1959 propuso fabricar productos en base a un reordenamiento de
átomos y moléculas. En 1959, el gran físico
escribió un artículo que analizaba cómo los
ordenadores trabajando con átomos individuales
podrían consumir poquísima energía y
conseguir velocidades asombrosas.

Existe un gran consenso en que la nanotecnología
nos llevará a una nueva revolución industrial en el
siglo XXI tal como anunció hace unos años, Charles
Vest (ex-presidente del MIT).

Supondrá numerosos avances para muchas industrias
y nuevos materiales con propiedades extraordinarias (desarrollar
materiales más fuertes que el acero pero con solamente el
diez por ciento de peso), nuevas aplicaciones informáticas
con componentes increíblemente más rápidos o
sensores moleculares capaces de detectar y destruir
células cancerígenas en las partes más
delicadas del cuerpo humano como el cerebro, entre otras muchas
aplicaciones.

Podemos decir que muchos progresos de la nanociencia
estarán entre los grandes avances tecnológicos que
cambiarán el mundo.

Hace unos meses, el 4 de enero de 2010, un equipo
médico, de un hospital londinense, creó una arteria
con el empleo de nanotecnología que podría ayudar a
pacientes que necesitan un injerto de arterias coronarias y de
miembros inferiores, divulgaron los científicos
londinenses.

Investigadores del Royal Free Hospital, Reino Unido,
pondrán a prueba el material que imita el pulso natural de
los vasos sanguíneos y puede transmitir los nutrientes
necesarios a los tejidos del organismo, lo cual serviría
de ayuda a miles de pacientes afectados por enfermedades
cardiovasculares.

En la actualidad, las personas con esas dolencias son
sometidas a un pypass, o el vaso sanguíneo dañado
es reemplazado por un injerto hecho a partir de plástico,
o una vena de la pierna del enfermo.

 Amador Menéndez Velázquez (Oviedo,
1969) sabe de lo que habla cuando pronostica que la
nanotecnología puede revolucionar el futuro. De eso habla
y así se titula el estudio que le valió el Premio
Europeo de Divulgación Científica en 2009,
«Una revolución en miniatura. Nanotecnología
y disciplinas convergentes». Doctor en Química e
investigador del Centro de Investigación de Nanomateriales
y Nanotecnología (CINN), se ha incorporado al Instituto
Tecnológico de Massachusetts (MIT), uno de los más
prestigiosos del mundo.

El instituto tecnológico de Massachusetts, una de
las instituciones más prestigiosas del mundo nos presenta
a continuación Las diez tecnologías avanzadas que
cambiarán el mundo (enero de 2010).

Redes de sensores sin cables (Wireless Sensor
Networks): Son redes de nano aparatos autónomos capaces de
una comunicación sin cable y suponen uno de los avances
tecnológicos más investigados en la
actualidad.

Ingeniería inyectable de tejidos
(Injectable Tissue Engineering): Consiste en sustituir a los
tradicionales trasplantes de órganos, se está a
punto de aplicar un método por el que se inyecta
articulaciones con mezclas diseñadas de polímeros,
células y estimuladores de crecimiento que solidifiquen y
formen tejidos sanos.-Nano-células solares (Nano
Solar Cells): A través de la nanotecnología se
está desarrollando un material fotovoltaico que se
extiende como el plástico o como pintura. No solo se
podrá integrar con otros materiales de la
construcción, sino que ofrece la promesa de costos de
producción baratos que permitirán que la
energía solar se convierta en una alternativa barata y
factible.

Mecatrónica (Mechatronics): Surge de la
combinación sinérgica de distintas ramas de la
ingeniería, entre las que destacan: la mecánica de
precisión, la electrónica, la informática y
los sistemas de control. Su principal propósito es el
análisis y diseño de productos y de procesos de
manufactura automatizados.

Sistemas informáticos Grid (Grid
Computing): La computación grid es una tecnología
innovadora que permite utilizar de forma coordinada todo tipo de
recursos (cómputo, almacenamiento) que no están
sujetos a un control centralizado.

Imágenes moleculares (Molecular Imaging):
A diferencia de rayos x, ultrasonido y otras técnicas
más convencionales, que aportan a los médicos
pistas anatómicas sobre el tamaño de un tumor, las
imágenes moleculares podrán ayudar a descubrir las
verdaderas causas de la enfermedad. La apariencia de una
proteína poco usual en un conjunto de células
podrá advertir de la aparición de un
cáncer.

Litografía Nano-impresión
(Nanoimprint Lithography): Simplemente a través de la
impresión de una moldura dura dentro de una materia
blanda, puede imprimir caracteres más pequeños que
10 nanometros.

Software fiable (Software Assurance): Los
ordenadores se averían, y cuando lo hacen, suele ser por
un virus informático. Para evitar tales escenarios, se
investigan herramientas que produzcan software sin
errores.

Glucomicas (Glycomics): Un campo de
investigación que pretende comprender y controlar los
miles de tipos de azúcares fabricados por el cuerpo humano
para diseñar medicinas que tendrán un impacto sobre
problemas de salud relevantes.

Criptografía Quantum (Quantum
Cryptography): La herramienta quantum cryptography, depende de la
física cuántica aplicada a dimensiones
atómicas y puede transmitir información de tal
forma que cualquier intento de descifrar o escuchar será
detectado.( Informe, MIT, tecnologías del
futuro).

SEGUNDA PARTE

La destrucción
medioambiental

1º. LOS DESASTRES
NATURALES

Es evidente que la acción antrópica
modifica, profundamente, el espacio natural, como veremos
más adelante, en el siguiente capítulo. Sin
embargo, existen algunos factores naturales que también, y
desde hace cientos de millones de años, han modificado,
muy profundamente, la superficie terrestre y marina.
Analizaré alguno de los elementos naturales más
importantes:

  • TERREMOTOS.

Un terremoto es el movimiento brusco de la Tierra,
causado por la brusca liberación de energía
acumulada durante largo tiempo. La corteza de la Tierra
está conformada por una docena de placas de,
aproximadamente, 70 Km de grosor, cada una con diferentes
características físicas y químicas. Estas
placas "tectónicas" se están acomodando en un
proceso que lleva millones de años y han ido dando la
forma que hoy conocemos a la superficie de nuestro Planeta,
originando los continentes y los océanos.

Las placas de la corteza terrestre están
sometidas a tensiones. En la zona de roce (falla), la
tensión es muy alta y, a veces, supera a la fuerza de
sujeción entre las placas. Entonces, las placas se mueven
violentamente, provocando ondulaciones y liberando una enorme
cantidad de energía. Este proceso se llama movimiento
sísmico o terremoto.

Un terremoto de gran magnitud puede afectar más
la superficie terrestre si el epifoco u origen del mismo se
encuentra a menor profundidad. La destrucción de ciudades
no depende únicamente de la magnitud del fenómeno,
sino también de la distancia a que se encuentren del
mismo, de la constitución geológica del subsuelo y
de otros factores, entre los cuales hay que destacar las
técnicas de construcción empleadas.

El estudio de los terremotos se denomina
Sismología y es una ciencia relativamente reciente. Hasta
el siglo XVIII los registros objetivos de terremotos son escasos
y no había una real comprensión del
fenómeno. De las explicaciones relacionadas con castigos
divinos o respuestas de la Tierra al mal comportamiento humano,
se pasó a explicaciones pseudocientíficas como que
eran originados por liberación del aire desde cavernas
presentes en las profundidades del Planeta.

Como todos sabemos, en nuestro Planeta se encuentran
diferentes placas tectónicas, esto es algo así como
diferentes "alfombras" que se van moviendo de manera lenta con el
transcurrir de los años; así existe cierta
fricción entre cualquiera de ellas, la cual es la que
produce los movimientos telúricos que bien pueden ser
temblores o terremotos.

El primer terremoto del que se tiene referencia
ocurrió en China en el año 1177 A.C. Existe un
Catálogo Chino de Terremotos que menciona unas docenas
más de tales fenómenos en los siglos
siguientes.

Desde el siglo XVII comienzan a aparecer numerosos
relatos sobre terremotos, pero parece ser que la mayoría
fueron distorsionados o exagerados. En Norteamérica se
documentan una importante serie de terremotos ocurridos entre
1811 y 1812 cerca de New Madrid, Missouri, destacándose
uno de magnitud estimada alrededor de los 8 grados la
mañana del 16 de diciembre de 1811. El 23 de enero y el 7
de febrero de 1812 hubo otros dos terremotos considerables en la
zona, especialmente el último mencionado, cuyas
réplicas duraron meses y fue sentido en zonas tan lejanas
como Denver y Boston. Por no estar tan pobladas entonces, las
ciudades no registraron demasiadas muertes o daños. En el
caso del estado de California se encuentran dos placas
tectónicas, la del Pacífico y la de
Norteamérica, que están a su vez separadas por la
falla de San Andrés. Esta falla es un gigantesco surco que
mide más de 1.200 kilómetros de largo y 15
kilómetros de profundidad, y que cruza de norte a sur
dicho estado. Es esta la falla que produce casi todos los
terremotos que se dan en California y a pesar que su
ubicación es a casi 100 kilómetros al noroeste de
Los Ángeles fue la responsable de el último gran
terremoto que se dio en Fort Tejón en el año de
1857. En 1906, en San Francisco, se produjeron más
de 700 víctimas y la ciudad fue arrasada por el sismo y el
incendio subsecuente en el mayor terremoto de la historia de
Estados Unidos, 250.000 personas quedaron sin hogar.

En Alaska, el 27 de marzo de 1964 se registró un
terremoto de aún mayor energía, pero por ser una
zona de poca densidad demográfica, los daños en la
población no fueron tan graves, registrándose
sólo 107 personas muertas, lo que no es tanto si se
considera que el terremoto fue sentido en un área de
500.000 millas cuadradas y arrancó los árboles de
la tierra en algunas zonas.

El último gran terremoto registrado en Europa, se
produjo, en abril de 2009, en los Abruzos, al nordeste de Roma,
de magnitud 6,3 grados en la escala de Richter y provocó
200 muertos, decenas de desaparecidos y más de 1.500
heridos, según el Ministerio del Interior de
Italia.

El terremoto tuvo su epicentro a pocos kilómetros
de L'Aquila, una ciudad amurallada situada a dos horas de Roma y
capital de la región de los Abruzos. Las ondas
sísmicas provocaron graves daños humanos y
materiales en esta ciudad y en numerosas localidades de su
provincia, como Santo Stefano di Sessanio, Villa Sant'Angelo,
Paganica, San Demetrio, Fossa y Poggio Picenze..

Además, los funcionarios de defensa civil han
estimado que el terremoto habría dejado unas 70.000
personas sin hogar. Según los medios italianos, unas
100.000 personas no tienen dónde pasar la
noche.

Ha sido el peor terremoto registrado en Italia desde
noviembre de 1980, cuando murieron en el sur del país
2.570 personas.

El martes, 12 de enero de 2010 se produjo un importante
terremoto en Haití, el país más pobre de
Latinoamérica. La intensidad del terremoto fue de 7 en la
escala de Ritcher. El Gobierno de Haití ha decretado el
Estado de Emergencia hasta fin de mes, con lo que se suspenden
varias garantías constitucionales. Seis días
después del terremoto que sembró la
destrucción en Haití ya se han enterrado 70.000
cadáveres en fosas comunes, aunque el primer ministro de
aquel país, Jean-Max Bellerive, estima que la cifra
total de fallecidos por la catástrofe podría llegar
a 200.000, informa el dirio 'El Nuevo Herald'.

Las calles situadas más cerca del mar
están atestadas de gente. "Hay cadáveres hinchados
y en descomposición por las calles, de los que sale un
líquido amarillo", aseguró Schorno. "A su alrededor
circulan las motocicletas y los coches, sin que nadie los mire
siquiera. Los más jóvenes están sacando
bloques de cemento de los edificios derrumbados. No buscan a
gente, sino chatarra. Todos piensan ahora en su propia
supervivencia", dijo.

A la sombra del edificio del Palacio Nacional, ahora en
ruinas, la sede de la policía está vacía y
su edificio medio derruido. Los agentes de policía y sus
familias, que también necesitan ayuda, están
sentados en sus coches y camionetas. "Los autobuses abarrotados
de gente exhalan nubes de humo negro. Todo el que puede se marcha
de la ciudad hacia el campo, donde puede ser más
fácil sobrevivir y quizá empezar de nuevo",
apostilló.

En los comercios del centro de la ciudad, los saqueos
continúan casi con impunidad: grupos de muchachos se
cuelan en comercios cerrados o almacenes y arrojan desde el
tejado todo tipo de mercancías a los miles de personas que
los reciben abajo. Los militares de la ONU pasan por delante sin
intervenir, mientras que la policía haitiana dispara al
aire sin éxito, según pudo comprobar Efe. Todo es
desolación y muerte en este país caribeño
que tardará años en recuperarse de esta
catástrofe.

Un seísmo dejó el miércoles, 14 de
abril de 2010, en el Tibet, "unos 400 muertos y 8.000 heridos",
según el último balance oficial comunicado por la
agencia China Nueva.

Numerosas casas se derrumbaron, las carreteras quedaron
cortadas por aludes y las telecomunicaciones estaban perturbadas
en esta región de las estribaciones del Himalaya. La
prefectura de Yushu, epicentro del seísmo, tiene unos
80.000 habitantes, según datos oficiales.

El temblor se produjo menos de un año
después del que en mayo de 2008 arrasó la provincia
de Sichuan, también aledaña al Tíbet, que
había dejado 87.000 entre muertos y
desaparecidos.

El terremoto del miércoles, 14 de abril de 2010,
se produjo a primeras horas del día y tuvo una magnitud de
6,9, según el Instituto de Geofísica de Estados
Unidos (USGS), y de 7,1 según las autoridades
chinas.

Para medir la intensidad de un terremoto se realiza a
través de un instrumento llamado sismógrafo que
registra en un papel la vibración de la Tierra producida
por el sismo. Nos informa la magnitud y la duración. Este
instrumento registra dos tipos de ondas: las superficiales, que
viajan a través de la superficie y que producen la mayor
vibración de ésta y las centrales o corporales que
viajan a través de la Tierra desde su
profundidad.

Uno de los mayores problemas para la medición de
un terremoto es la dificultad inicial para coordinar los
registros obtenidos por sismógrafos ubicados en diferentes
puntos "Red Sísmica" de modo que no es inusual que las
informaciones preliminares sean discordantes ya que fueron
basadas en informes que registraron diferentes amplitudes de
onda. Determinar el área total abarcada por el sismo puede
tardar varias horas o días de análisis del
movimiento mayor y de sus réplicas. La prontitud del
diagnóstico es de capital importancia para echar a andar
los mecanismos de ayuda en tales emergencias. A cada terremoto se
le asigna un valor de magnitud único, pero la
evaluación se realiza, cuando no hay un número
suficiente de estaciones, principalmente basada en registros que
no fueron realizados forzosamente en el epicentro sino en puntos
cercanos. De ahí que se asigne distinto valor a cada
localidad o ciudad e interpolando las cifras se consigue ubicar
el epicentro.

Una vez coordinados los datos de las distintas
estaciones, lo habitual es que no haya una diferencia asignada
mayor a 0.2 grados para un mismo punto. Esto puede ser más
difícil de efectuar si ocurren varios terremotos cercanos
en tiempo o área. Aunque cada terremoto tiene una magnitud
única, su efecto variará, grandemente, según
la distancia, la condición del terremoto, los
estándares de construcción y otros
factores.

Resulta más útil, entonces, catalogar cada
terremoto según su energía intrínseca. Esta
clasificación debe ser un número único para
cada evento, y este número no debe verse afectado por las
consecuencias causadas, que varían mucho de un lugar a
otro.

La denominada magnitud de escala Richter, representa la
energía sísmica liberada en cada terremoto y se
basa en el registro sismográfico. Es una escala que crece
en forma potencial o semilogarítmica, de manera que cada
punto de aumento puede significar un aumento de energía
diez o más veces mayor. Una magnitud 4 no es el doble de
2, sino 100 veces mayor.

Monografias.com

Los intentos de predecir cuándo y dónde se
producirán los terremotos han tenido cierto éxito
en los últimos años. En la actualidad, China,
Japón, Rusia y Estados Unidos son los países que
apoyan más estas investigaciones. En 1975,
sismólogos chinos predijeron el sismo de magnitud 7,3 de
Haicheng, y lograron evacuar a 90.000 residentes sólo dos
días antes de que destruyera el 90% de los edificios de la
ciudad. Una de las pistas que llevaron a esta predicción
fue una serie de temblores de baja intensidad, llamados sacudidas
precursoras, que empezaron a notarse cinco años antes.
Otras pistas potenciales son la inclinación o el pandeo de
las superficies de tierra y los cambios en el campo
magnético terrestre, en los niveles de agua de los pozos e
incluso en el comportamiento de los animales. También hay
un nuevo método en estudio basado en la medida del cambio
de las tensiones sobre la corteza terrestre. Basándose en
estos métodos, es posible pronosticar muchos terremotos,
aunque estas predicciones no sean siempre acertadas.

Para finalizar, veamos la magnitud y número de
víctimas causadas por los grandes terremotos durante el
siglo XX. Además, como podemos observar en estos datos, la
mayor o menor magnitud del terremoto no coincide, en muchos casos
con el número de víctimas registradas. Depende de
si se produce en una zona muy poblada, o no, con lo que, en el
primer caso, aumentaría el número de posibles
víctimas, así como la estructura y material
empleado en la construcción de las viviendas.

GRANDES TERREMOTOS DEL SIGLO XX
EN EL MUNDO

Año

Magnitud

Lugar

Víctimas

1960

9.5

Sur de Chile

5.700

1964

9.4

Alaska

131

1933

8.9

Sanriku, Japón

2.990

1906

8.9

Colombia

1.000

1950

8.7

India/Assam/Tíbet

1.530

1897

8.7

Assam, India

1.500

1906

8.6

Santiago/Valparaíso,
Chile

20.000

1905

8.6

Sangra, India

19.000

1950

8.6

Assam, India

1.526

1899

8.6

Yakutat Bay, Alaska

* Sin datos

1920

8.5

Kansu, China

180.000

1934

8.4

India/Nepal

10.700

1946

8.4

Tonankai, Japón

1.330

1923

8.3

Kwanto, Japón

100.000

1927

8.3

Xining, China

200.000

1939

8.3

Chillan, Chile

28.000

1976

8.2

Tangshan, China

240.000

1923

8.2

Kwanto, Yokohama,
Japón

143.000

1906

8.2

San Francisco,
California

700

1907

8.1

Asia central

12.000

1939

8.0

Ezrican, Turquía

23.000

1976

7.9

Tang-Shan, China

655.200

1970

7.9

Ancash, Perú

60.000

1908

7.5

Messina, Italia

29.980

  • MAREMOTOS

Los terremotos submarinos provocan movimientos del agua
del mar (maremotos o tsunamis). Los tsunamis son olas enormes con
longitudes de onda de hasta 100 kilómetros que viajan a
velocidades de 700 a 1.000 km/h. En alta mar la altura de la ola
es pequeña, sin superar el metro; pero cuando llegan a la
costa, al rodar sobre el fondo marino alcanzan alturas mucho
mayores, de hasta 30 y más metros.

El tsunami está formado por varias olas que
llegan separadas entre sí unos 15 ó 20 minutos. La
primera que llega no suele ser la más alta, sino que es
muy parecida a las normales. Después se produce un
impresionante descenso del nivel del mar seguido por la primera
ola gigantesca y a continuación por varias más. La
forma de sucederse un maremoto es la siguiente: un terremoto (del
cual una mínima parte de la potencia se traspasa al
maremoto) desnivela el agua y comienza el maremoto, en el lugar
que será devastado por el tsunami comienzan a aparecer
"microtsunamis", los cuales se adentran en la costa unos 50-100
metros, y tras una marea baja, en la que el mar se recoge varios
cientos de metros, se produce la sucesión de grandes
olas.

La falsa seguridad que suele dar el descenso del nivel
del mar ha ocasionado muchas víctimas entre las personas
que, imprudentemente, se acercan por curiosidad u otros motivos,
a la línea de costa.

España puede sufrir tsunamis
catastróficos, como quedó comprobado en el
terremoto de Lisboa en 1755. Como consecuencia de este seismo
varias grandes olas arrasaron el golfo de Cádiz causando
más de 2.000 muertos y muchos heridos.

Los países más afectados por los maremotos
han desarrollado unos extremadamente eficaces sistemas de alerta
de maremotos. La zona con mejores sistemas de alerta y planes de
evacuación es la del océano Pacífico, sobre
todo México, Perú, Japón, Ecuador, Chile y
Hawai. Hay varios institutos sismológicos que se dedican a
la medición de maremotos y a su evolución
monitorizada a través de un sistema de satélites.
El primer sistema se empleó en Hawai en la década
de los años 20, pero tras los maremotos de 1946 y 1960 que
terminaron en la destrucción de Hilo (Hawai), se innovaron
los sistemas de alerta. Los Estados Unidos de América
crearon el centro de prevención de maremotos del
Pacífico en 1949, pasando en 1965 a formar parte de una
red mundial de seguimiento y prevención de los mismos. Uno
de los proyectos para la prevención de maremotos es la
Información Consolidada de Terremotos y Maremotos (CREST
en inglés) que es usado en la costa oeste de Estados
Unidos, en Alaska y en Hawai por el United States Geological
Survery (Centro de Estudios Geológicos de Estados Unidos)
además de tres redes sísmicas
universitarias.

En diciembre de 2004 un maremoto causó más
de 150.000 muertos en el sudeste asiático. El
fortísimo temblor desató una sucesión de
maremotos con olas tipo tsunami de hasta 10 metros de altura y
dejó bajo las aguas miles de kilómetros de
tierra.Además de las 150.000 personas fallecidas,
otras miles están desaparecidas en el sudeste de Asia como
consecuencia del seísmo más intenso de los
últimos 40 años, que estremeció el domingo,
2 de enero de 2005, a Indonesia y levantó olas gigantescas
que devastaron las zonas costeras de siete países de la
región.

El movimiento sísmico que originó los
maremotos tuvo una magnitud de 9 grados en la escala abierta de
Richter, según el Instituto Geológico
norteamericano de Golden, y se produjo a las 00:58 hora GMT del
domingo, 26 de diciembre de 2004, frente a las costas de la isla
de Sumatra. El fortísimo temblor desató una
sucesión de maremotos con olas de más de 10
metros, (de las denominadas Tsunamis) de altura y
dejó bajo las aguas una superficie de miles de
kilómetros en las costas de India, Sri Lanka, Indonesia
(el país más afectado), Tailandia, Malasia,
Maldivas y Bangladesh.

Nuevas réplicas de 6 grados del seísmo del
domingo 26 se produjeron, el día 27 de enero, de
2005, en las islas de Andaman y Nicobar, en el golfo de
Bengala.

  • CORRIMIENTO DE LOS SUELOS

Los desprendimientos y los deslizamientos son
desplazamientos de masas de material de la corteza terrestre bajo
la acción de la fuerza de la gravedad. Estas
inestabilidades del terreno pueden ser de grandes dimensiones o
involucrar volúmenes menores de materiales. Las
inestabilidades del terreno pueden activarse por causas
naturales, como las meteorológicas, los terremotos y las
erupciones volcánicas, o bien pueden darse como
consecuencia de la actividad humana: explotación minera de
recursos, apertura de taludes para la construcción de
carreteras, deforestación,etc. En muchas ocasiones las
causas desencadenantes de las inestabilidades del terreno se
deben buscar en una combinación de factores naturales y
antrópicos.

Aparte de las inestabilidades gravitatorias propiamente
dichas, existen otro tipo de inestabilidades: las subsidencias y
los aludes.

  • Subsidencia: es el asentamiento de una zona
    normalmente llana que experimenta un descenso lento y
    progresivo del terreno sin que se produzca un movimiento
    horizontal. Cuando la deformación y el hundimiento son
    localizados y de dimensiones reducidas hablamos de un
    asentamiento, y si se da de manera muy rápida, de
    colapso. Los hundimientos pueden tener causas naturales
    (presencia de discontinuidades, disolución,
    oxidación, compactación, desecación,
    etc.) o por acciones antrópicas (extracción de
    recursos geológicos, humidificación excesiva de
    las arcillas, aumento de la carga, etc.). Suelen darse en
    materiales solubles en agua (calcáreas, yesos y sales)
    que se disuelven y pierden parte de su volumen (proceso de
    karstificación).

  • Aludes: se producen cuando una gran masa de
    nieve acumulada en una pendiente muy acusada se sobrecarga
    por nevadas posteriores o por cambios de temperatura que
    provocan unas discontinuidades en la estructura interna de la
    masa de nieve que generan su hundimiento. Los aludes pueden
    ser de tres tipos: de nieve reciente, de placa, de
    fusión.

Los factores condicionantes del corrimiento del suelo
son todos aquellos elementos propios del medio, y los
desencadenantes, los que provocan variaciones en las condiciones
de estabilidad y pueden romper el equilibrio de la masa de
terreno.

  • Factores condicionantes .

El tipo de material. Hay determinados tipos de rocas o
suelos que tienen mayor o menor resistencia a estar involucrados
en movimientos. Algunos ejemplos: la disolución de las
rocas a causa de la circulación de agua a través de
las grietas puede favorecer su disolución y la
creación de vacíos cada vez más grandes que
contribuirán a su colapso, ya que la capacidad de la roca
para soportar el material que tiene encima va disminuyendo, la
presencia de arcillas expansivas, la relación de los
tamaños de grano de las partículas (limo-arcilla),
la solubilidad de algunas rocas, como los yesos, las sales o las
calizas.

Presencia de agua, que favorece el corrimiento de los
terrenos saturados de agua. La adición de agua en el
terreno puede favorecer su compactación y la
formación de subsidencias.

Presencia de discontinuidades estructurales o
estratigráficas (fallas, pliegues, diáclasas,
planos de estratificación, esquistosidades), favorecen los
movimientos traslacionales en algunos casos y, en otros, el
asentamiento del terreno a lo largo de líneas de falla,
dando lugar a procesos lentos de subsidencia.

Pendiente del terreno. El grado de pendiente, la
orientación, la rugosidad y la presencia de
vegetación determinarán la estabilidad de una
vertiente.

Deslizamiento rotacional, generado en un talud en el que
no se han tenido en cuenta los factores que aseguren su
estabilidad (altura del talud y cohesión de los
materiales).

  • Factores desencadenantes

Meteorológicos. Las lluvias intensas pueden
generar movimientos de taludes o de vertientes críticas o
inestables. La relación de nieve, temperatura, viento,
precipitaciones, radiación y humedad, la formación
de aludes.

Seísmos. Pequeños terremotos pueden ser la
punta de lanza para que la estabilidad de una vertiente se rompe
o para que se de un proceso súbito de subsidencia a lo
largo de las líneas de falla.

Deforestación. La ausencia de una capa vegetal
deja al terreno desprotegido y expuesto a los agentes erosivos y
a la posibilidad de desprenderse.

Excavaciones al pie de vertiente o talud. Se pueden
producir por fuerzas naturales, como la acción de las olas
en los acantilados, o por causas antrópicas, como la
destrucción de los depósitos situados a pie de
monte.

Actividad minera. La extracción de recursos
geológicos del subsuelo puede comportar la creación
de grandes cavidades que generen el colapso de los materiales
situados encima.

Explotación de fluidos. La extracción
excesiva de fluidos atrapados en la roca (agua, petróleo o
gas) puede crear un desequilibrio en la superficie del terreno,
ya que estos actúan como un elemento de apoyo del
terreno.

Los movimientos del terreno se pueden deber a
múltiples causas entre las que podríamos destacar
las siguientes:

  • Dinámica litoral. Es el conjunto de cambios,
    en muchos casos muy activos, que se producen en la zona que
    comprende la franja costera y que pueden comportar grandes
    variaciones en la morfología litoral. La principal
    fuerza que provoca estos cambios es el movimiento de las
    grandes masas de agua por medio de las olas, las corrientes y
    las mareas. Otros fenómenos excepcionales que pueden
    provocar un efecto sobre las zonas costeras son los tsunamis
    o la variación del nivel del mar (eustatismo). El
    oleaje es el principal agente que contribuye a que se den el
    mayor número de zonas en situación de
    riesgo.

  • Las inundaciones. Se producen por cambios
    súbitos del nivel del agua superficial, de manera que
    esta rebasa su confinamiento natural y cubre una
    porción del suelo que anteriormente no estaba
    cubierta.

Se trata de un proceso natural que se da en los sistemas
fluviales de manera periódica por el deshielo de las
nieves, las lluvias intensas o las tempestades costeras, que
pueden provocar un aumento del nivel del mar por encima de la
llanura costera. Estas causas son a menudo producto de otros
procesos naturales, como los huracanes y los ciclones
acompañados de fuertes aguaceros, las erupciones
volcánicas capaces de fundir las nieves de manera
súbita, etc. Aparte de los procesos naturales, la
influencia humana es en muchos casos la causa de las
inundaciones, y en otros agudiza los efectos.

Las inundaciones constituyen la principal amenaza para
la humanidad frente al resto de las amenazas geológicas.
Todos los años millones de personas se ven afectadas, y
para muchos países devienen el proceso geológico
más destructivo.

  • Los terremotos. Son manifestaciones en la superficie
    de la Tierra, ya sea bajo el mar o en tierra firme, de la
    liberación de la energía acumulada en
    algún punto del interior de la corteza terrestre,
    donde se ha producido un movimiento vibratorio a causa de la
    fricción de las rocas. Este proceso se da como
    consecuencia de las actividades volcánica o
    tectónica.

Los movimientos tectónicos, responsables de los
terremotos, tienen lugar principalmente en las zonas de contacto
de las placas litosféricas, donde se producen los
esfuerzos de distensión-compresión y, por tanto,
donde se va acumulando una cierta presión hasta que el
punto de equilibrio se rompe. Las placas son rígidas y su
movimiento se debe a desplazamientos en la capa inmediatamente
más profunda, la astenosfera, que tiene un comportamiento
más plástico y sobre la que flota la
litosfera.

Los grandes esfuerzos en los márgenes
litosféricos producen muchas fracturas, llamadas fallas, a
lo largo de las cuales se producen repetidamente movimientos.
Cerca del 95% de la energía sísmica total se libera
en la superficie del planeta a través de grandes fallas.
También se producen muchos seísmos en las zonas de
intraplaca, como en el caso del este y el Medio Oeste de Estados
Unidos. En estos casos los terremotos están asociados a
fallas profundas situadas dentro de la misma placa
litosférica.

  • Erupciones volcánicas. El daño que
    ocasiona una explosión volcánica es similar al
    causado por derrumbes, con el problema sumado de que la lava,
    ceniza y escombros que se precipitan por la ladera son
    extremadamente calientes (más de 700 grados Celsius).
    La ceniza soplada hacia la atmósfera puede cubrir
    también grandes áreas a favor del viento lejos
    del volcán, absorber la luz del día, destruir
    plantaciones y hacer difícil la respiración. En
    el caso de una erupción explosiva, puede darse una ola
    de energía expansiva procedente del volcán y
    causar daño severo por varios kilómetros
    alrededor de la explosión.

Similar a la amenaza de un terremoto, la actividad
volcánica se riega a través de toda la
región y las grandes erupciones pueden dañar
considerablemente las áreas circundantes de un
volcán. Por lo tanto, es difícil evitar todo el
daño potencial de un terremoto durante el proceso de
planificación de un sitio. Sin embargo, la posibilidad de
daño excesivo se incrementa cuando se está
más cercano a un volcán. Hasta donde sea posible,
una urbanización debe estar lo más alejada posible
a volcanes activos. Los planes de evacuación integrales
deben ser preparados para áreas en desarrollo cercanas a
volcanes activos. En la actualidad ya existen mapas de lugares
donde se localizan volcanes históricamente activos
.

  • Hundimientos del terreno. Las áreas con fundamentos
    de ciertos tipos de rocas a base de calcio (piedra caliza,
    dolomita, marga y mármol) que también reciben
    precipitación abundante están sujetas a formar
    hundimientos. Estas rocas son susceptibles a disolverse al
    exponerse a la lluvia ácida y al agua freática.
    Las ranuras naturales en este tipo de rocas se hacen
    más anchas y se expanden con las corrientes de agua.
    Comúnmente se hacen cuevas de las rocas. Cuando
    colapsa el techo de una cueva por el sobrepeso de la roca, se
    forma un hundimiento y cualquier cosa que haya estado
    localizada sobre el hueco se viene abajo.

El examinar un mapa geológico de un lecho rocoso
puede servir para determinar si un lugar en particular tiene
fundamentos de piedra caliza calcárea. Las rocas a base de
calcio pueden ser el fundamento de grandes áreas,
razón para no construir en esa zona. Sin embargo, vale la
pena considerar que los hundimientos son relativamente raros
aún en áreas fundamentadas con rocas a base de
calcio. Los hundimientos sólo ocurren cuando el agua ha
disuelto por completo la roca subyacente convirtiéndola
casi en una gran caverna, y es cuando el techo de ésta se
vuelve débil y no soporta el material. La guía
obvia para investigar un sitio y minimizar el potencial de
daño por hundimientos es la de evitar desarrollar
urbanizaciones en áreas fundamentadas en piedra caliza,
marla, mármol o dolomita cerca de depresiones
superficiales y hundimientos conocidos.

  • LAS INUNDACIONES.

Las inundaciones son una de las catástrofes
naturales que mayor número de víctimas producen en
el mundo. Se ha calculado que en el siglo XX unas 3,2 millones de
personas han muerto por este motivo, lo que es más de la
mitad de los fallecidos por desastres naturales en el mundo en
ese periodo. En España son un grave problema social y
económico, sobre todo en la zona mediterránea y en
el Norte.

Las grandes lluvias son la causa principal de
inundaciones, pero además hay otros factores importantes.
A continuación se analizan todos estos
factores: 

  • Exceso de precipitación.- Los temporales de
    lluvias son el origen principal de las avenidas. Cuando el
    terreno no puede absorber o almacenar todo el agua que cae
    esta resbala por la superficie (escorrentía) y sube el
    nivel de los ríos. En España se registran todos
    los años precipitaciones superiores a 200 mm en un
    día, en algunas zonas, y se han registrado lluvias muy
    superiores hasta llegar a los 817 mm el 3 de noviembre de
    1987 en Oliva.

  • Fusión de las nieves. En primavera se funden
    las nieves acumuladas en invierno en las zonas de alta
    montaña y es cuando los ríos que se alimentan
    de estas aguas van más crecidos. Si en esa
    época coinciden fuertes lluvias, lo cual no es
    infrecuente, se producen inundaciones.

  • Rotura de presas. Cuando se rompe una presa toda el
    agua almacenada en el embalse es liberada bruscamente y se
    forman grandes inundaciones muy peligrosas. Casos como el de
    la presa de Tous que se rompió en España, han
    sucedido en muchos países.

  • Actividades humanas. Los efectos de las inundaciones
    se ven agravados por algunas actividades humanas. Así
    sucede:

A) Al asfaltar cada vez mayores superficies se
impermeabiliza el suelo, lo que impide que el agua se absorba por
la tierra y facilita el que con gran rapidez las aguas lleguen a
los cauces de los ríos a través de desagües y
cunetas. 

B) La tala de bosques y los cultivos que desnudan al
suelo de su cobertura vegetal facilitan la erosión, con lo
que llegan a los ríos grandes cantidades de materiales en
suspensión que agravan los efectos de la
inundación.

C) Las canalizaciones solucionan los problemas de
inundación en algunos tramos del río pero los
agravan en otros a los que el agua llega mucho más
rápidamente.

D)La ocupación de los cauces por construcciones
reduce la sección útil para evacuar el agua y
reduce la capacidad de la llanura de inundación del
río. La consecuencia es que las aguas suben a un nivel
más alto y que llega mayor cantidad de agua a los
siguientes tramos del río, porque no ha podido ser
embalsada por la llanura de inundación, provocando mayores
desbordamientos. Por otra parte el riesgo de perder la vida y de
daños personales es muy alto en las personas que viven en
esos lugares.

En 1996, se produjo una de las inundaciones más
recordadas por los daños que causó en Florencia
(Italia). Debido a lluvias torrenciales el río Arno, que
la atraviesa, aumentó su caudal y su velocidad (alrededor
de 130 km/h), salió de su cauce e inundó gran parte
de Florencia. En esta inundación no sólo hubo que
lamentar las personas que quedaron sin techo y otros daños
económicos, sino también las pérdidas que
sufrió la cultura, pues las aguas y el barro entraron a
los museos y dañaron más de un millón de
cuadros y otros objetos de arte.

En julio de 2004, las inundaciones en el sur de Asia
provocaron más de 900 muertos y decenas de miles de
damnificados, y la situación fue peor en Bangladesh, cuya
capital, Dacca, estaba parcialmente anegada y donde más de
3.500 equipos médicos han sido desplegados en el
país para luchar contra las enfermedades como la diarrea,
provocadas por la utilización de aguas
estancadas.

Estas inundaciones provocadas por el monzón y el
derretimiento de la nieve del Himalaya son un fenómeno
anual, pero en esta ocasión han sido particularmente
graves. Unas 12 millones de personas en India y 30 millones en
Bangladesh se encontraron aisladas o siniestradas y en un mes y
medio el total de muertos alcanza los 535 en India y 285 en
Bangladesh, según las autoridades.

Mientras el nivel del agua bajaba en el noreste de
India, la mitad de los 90 barrios de Dacca estaban parcial o
totalmente inundados y unas 125.000 personas se habían
refugiado en centros de acogida, según las autoridades
municipales.

  • TORNADOS, TIFONES O HURACANES.

Cuando la atmósfera por determinadas causas va
acumulando energía, por lo general en forma de calor y
humedad, en algún momento tiene que liberarla. En algunos
casos esa energía supera con holgura a la potencia de una
o varias bombas atómicas y son estos gigantescos sistemas
meteorológicos, con sus consecuencias, los encargados de
liberar esa energía. A continuación vamos a ver
qué los diferencia y qué los hace
parecidos.

Los tres términos se relacionan con procesos
atmosféricos sumamente peligrosos y destructivos. La
diferencia radica entre el primero y los otros dos. En el caso de
los tornados hablamos de una estrecha columna de aire que se
desprende de la base de las nubes más desarrolladas de
tormentas eléctricas, hasta tocar el suelo, ya sea en
tierra o sobre el mar, caso que se conoce como tromba marina. El
contacto con la superficie lo hace rotando muy violentamente en
torno a un mínimo de presión atmosférica. Es
un fenómeno muy destructivo pese a su corta vida, que no
supera unos pocos minutos, y tiene un diámetro que, en el
caso de los más destructivos no alcanza al centenar de
metros. Cabe destacar que su violencia queda reflejada por los
daños que provoca y se calcula que en el de mayor
categoría, F 5, el viento alcanza casi 500 kph. y
está asociado a la presencia de tormentas muy
severas.

El tornado es un fenómeno
meteorológico que se produce a raíz de una
rotación de aire de gran intensidad y de poca
extensión horizontal, que se prolonga desde la base
de una nube madre, conocida como Cumulunimbus. La base de
esta nube se encuentra a altitudes por debajo de los 2 Km y
se caracteriza por su gran desarrollo vertical, en donde su
tope alcanza aproximadamente los 10 Km de altura hasta la
superficie de la tierra o cerca de ella.

La nube es de color blanco o gris
claro mientras que el embudo permanece suspendido de la
nube madre, cuando éste hace contacto con la tierra
se presenta de un color gris oscuro o negro debido al polvo
y escombros que son succionados del suelo por el violento
remolino.

Estos torbellinos llamados
también chimeneas o mangas, generalmente rotan en
sentido contrario a las manecillas del reloj, en el
hemisferio Norte. En algunas ocasiones se presentan como un
cilindro, cuyo diámetro varía entre la base
de la nube y la superficie del suelo y su diámetro
inferior es aproximadamente de 1 Km alcanzando algunas
veces los 100 metros.

Para medir la intensidad de los tornados se emplea,
desde el año 2007, la denominada escala de Fujita
mejorada, que iría desde la intensidad F-0, tornado muy
débil a F-5, tornado increíble.

INTENSIDAD

MPH

KM/H

EF-0

65-85

105-137

EF-1

86-109

138-175

EF-2

110-137

176-220

EF-3

138-167

221-269

EF-4

168-199

270-320

EF-5

200-234

321-600

El 2 de marzo de 2007,un sistema de
fuertes tornados ha causado estragos en varios estados del centro
y sureste de Estados Unidos, donde provocó al menos 17
muertos, además de importantes daños materiales.
Según la CNN, las tormentas causaron la muerte de nueve
personas en Georgia, siete en Alabama y uno en Misuri. Asegura
que el tornado que afectó al sureste de Alabama
causó daños en una escuela de Secundaria, donde
mató a cinco de las siete víctimas mortales. Otras
dos de las víctimas mortales se produjeron en un hospital
de la ciudad de Americus, en Georgia, dañado por los
fuertes vientos. Las autoridades suspendieron de manera
anticipada las actividades en muchas escuelas de Alabama tras ver
la enorme nube negra que les cubría y que abarcaba
prácticamente toda la extensión del
estado.

A los otros dos vocablos sí, se los puede tomar
como sinónimos ya que se trata del mismo proceso
atmosférico que según su lugar de origen lleva el
nombre que le han dado los pobladores originarios. Huracán
en el Caribe, tifón en el caso de Asia. En este caso se
trata de sistemas meteorológicos que nacen a partir de un
pequeño núcleo de tormentas convectivas generadas
sobre los océanos y que luego se desplazan desde el Este
hacia el Oeste, siguiendo la dirección de los vientos
Alisios en las proximidades al Ecuador. En la medida en que se
produce este desplazamiento la nubosidad va ganando un gran
desarrollo, hasta que llegando a las aguas de las grandes
Antillas se separan del Ecuador, empiezan a adquirir esa
típica configuración espiralada, encontrando a su
paso aguas más cálidas como ocurre sobre el Golfo
de México, se produce la máxima
concentración de energía producto de la
evaporación del agua de mar y es en este caso cuando estos
sistemas alcanzan su máxima potencia. A diferencia de los
tornados, su diámetro puede alcanzar centenares o miles de
kilómetros, su duración puede alcanzar semanas y la
velocidad de sus vientos asociados llegar desde los 120 hasta los
250 kph aproximadamente.

Un huracán o tifón, en esencia, funciona
como una máquina de vapor, se forma y se alimenta
sólo en los mares cálidos y necesita que varias
condiciones se den en el lugar y momento preciso, por ejemplo:
agua caliente a por lo menos 27ºC, aire húmedo y una
perturbación que haga girar a los vientos.

El aire caliente, más ligero, se eleva, aspirando
la humedad del mar y creando nubes. En su camino ese aire
caliente se enfría rápidamente y libera
energía que, a su vez, calienta más aire a su
alrededor y los vientos remontan en altura y dan a las nubes un
movimiento en espiral. La presencia de una perturbación,
como vientos convergentes de distintas direcciones, succiona
más aire caliente de la superficie y los vientos comienzan
entonces a girar y la maquinaria del ciclón está en
marcha. Ya tiene, más o menos, un movimiento giratorio,
aunque bastante desorganizado. Si los vientos ascienden o
descienden muy rápido el sistema no podrá
organizarse, tal como suele ocurrir en el Atlántico Sur.
Un ciclón se llama "depresión tropical" hasta que
sus vientos máximos sostenidos (durante un minuto) lleguen
a 62 Km/h; luego se convierte en "tormenta tropical" hasta que
sus vientos lleguen a 119 Km/h, y en "huracán" de
ahí en adelante.

Partes: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter