- Teoría atómica de
Dalton - Rayos
catódicos - Rayos X
- Radioactividad
- Teoría ondulatoria de la
luz - Teoría de Max
Planck - Espectros continuos y
discontinuos - La teoría de
Bohr - Ecuación de
Rydberg - Teoría de
Broglie - La Teoría
Atómica moderna - Distribución
electrónica - Ecuación de
Schrödinger - Números
cuánticos - Bibliografía
La teoría
atómico-molecular clásica tiene por base la
teoría atómica de Dalton. Existe entre estas dos
teorías
algunas diferencias fundamentales.
Para Dalton, la partícula mas pequeña de
una sustancia era el átomo. Si
la sustancia era simple, Dalton hablaba de "átomos
simples"; por ejemplo de cloro, de hidrogeno,
etc. Si la sustancia era Compuesta, Dalton hablaba de"
átomos compuestos"; por ejemplo de agua. En
realidad, los "átomos" de Dalton, son las
partículas que nosotros Llamamos moléculas Los
siguientes postulados, son los que constituyen la teoría
atómico-molecular clásica: (1 – Toda la materia es
discreta y esta formada por partículas pequeñas,
definidas e indestructibles denominadas átomos, que son
indivisibles por los métodos
químicos ordinarios, (2 – Los átomos de un mismo
elemento son iguales y tienen las mismas propiedades; los
átomos de elementos distintos son diferentes y tienen
propiedades también diferentes (3 – Las moléculas
se forman por la unión de un numero entero de
átomos del mismo o de distintos elementos, en relaciones
numéricas simples. (1: 1; 2: 1; 3: 2; etc. )En el
siguiente ejemplo se representa la formación de una
molécula de cloro Cl2,a partir de dos átomos de
cloro: relación numérica 1:1
Para ver el gráfico seleccione la
opción "Descargar" del menú superior
En el siguiente ejemplo se representa la
formación de una molécula de oxigeno O2 y
una de hidrogeno H2 :
Para ver el gráfico seleccione la
opción "Descargar" del menú superior
En el siguiente ejemplo se representa la
formación de dos moléculas de agua, a partir de una
molécula de oxigeno y dos de hidrogeno: relación
numérica 2:1
Para ver el gráfico seleccione la
opción "Descargar" del menú superior
.( 4 – Las sustancias simples y compuestas están
constituidas por moléculas. ( 5 – Las moléculas de
una misma sustancia son iguales en todos sus aspectos y distintas
a las de otras sustancias, (6 – Las moléculas de las
sustancias simples están formadas por átomos
iguales (del mismo elemento). Cuando el numero de átomos
que forma la molécula de una sustancia simple es uno, la
molécula de esta sustancia se identifica con el
átomo del elemento correspondiente. (7 – Las
moléculas de las sustancias compuestas están
formadas por átomos de por lo menos dos elementos
diferentes. El numero de átomos de cada elemento que
interviene en la formación de una molécula de una
misma sustancia compuesta, es el mismo para todas las
moléculas de la misma sustancia.
Entre los experimentos con
electricidad
había algunos que tenían que ver con enviar
corrientes eléctricas a través de tubos de vidrio que
contienen diferentes clases de gases. Cuando
la corriente se encendía, el electrodo negativo, o
cátodo, se iluminaba con una extraña
luz verde, y
en forma similar, un punto brillante verde aparecía en la
pared opuesta del tubo. Era claro que algo estaba viajando
en línea recta a través del tubo, a partir del
cátodo; este "algo fue llamado rayo
catódico.
Alguien sugirió que los rayos catódicos
deberían ser ondas, como la
luz o los recientemente descubiertos rayos-x.
Pero las ondas, como todo el mundo sabía entonces, no
podrían llevar carga eléctrica; solamente las
partículas pueden hacer eso. Por esta razón los
resultados experimentales de Thomson lo convencieron de que los
rayos catódicos tenían que estar hechos de
partículas.
Rayos Catódicos
Son electrones de alta velocidad
emitidos por el electrodo negativo de un tubo de vacío al
ser atravesado por una corriente
eléctrica. Los rayos catódicos se generaron por
primer vez utilizando el tubo de Crookes, invento del
físico británico William Crookes. En 1895, mientras
trabajaba en investigación, el físico
alemán Wilhelm Roentgen descubrió casualmente que
los rayos catódicos que golpeaban una placa
metálica generaban rayos X. Los
rayos catódicos pueden ser desviados y enfocados por
campos magnéticos o electroestáticos. Estas
propiedades se utilizan en el microscopio
electrónico, en el osciloscopio
de rayos catódicos y en el tubo de imagen de los
receptores de televisión.
Un tubo de rayos catódicos básicamente en
un recipiente provisto de dos electrodos en el cual se ha hecho
una presión
muy baja. Cuando la presión dentro de los tubos es de
alrededor de 0.01 ó 0.001 mm Hg y los electrodos se
cuentan a una fuente de potencia aparecer
una corriente de rayos conocidos como rayos
catódicos.
Rayos X, radiación
electromagnética penetrante, con una longitud de onda
menor que la luz visible, producida bombardeando un blanco
—generalmente de volframio— con electrones de alta
velocidad. Los rayos X fueron descubiertos de forma accidental en
1895 por el físico alemán Wilhelm Conrad Roentgen
mientras estudiaba los rayos catódicos en un tubo de
descarga gaseosa de alto voltaje. A pesar de que el tubo estaba
dentro de una caja de cartón negro, Roentgen vio que una
pantalla de platinocianuro de bario, que casualmente estaba
cerca, emitía luz fluorescente siempre que funcionaba el
tubo. Tras realizar experimentos adicionales, determinó
que la fluorescencia se debía a una radiación
invisible más penetrante que la radiación
ultravioleta (Ver Luminiscencia). Roentgen llamó a los
rayos invisibles "rayos X" por su naturaleza
desconocida. Posteriormente, los rayos X fueron también
denominados rayos Roentgen en su honor.
Los rayos X son radiaciones electromagnéticas
cuya longitud de onda va desde unos 10 nm hasta 0,001 nm (1 nm o
nanómetro equivale a 10-9 m). Cuanto menor es la longitud
de onda de los rayos X, mayores son su energía y poder de
penetración. Los rayos de mayor longitud de onda, cercanos
a la banda ultravioleta del espectro electromagnético, se
conocen como rayos X blandos; los de menor longitud de onda, que
están más próximos a la zona de rayos gamma
o incluso se solapan con ésta, se denominan rayos X duros.
Los rayos X formados por una mezcla de muchas longitudes de onda
diferentes se conocen como rayos X ‘blancos’, para
diferenciarlos de los rayos X monocromáticos, que tienen
una única longitud de onda. Tanto la luz visible como los
rayos X se producen a raíz de las transiciones de los
electrones atómicos de una órbita a otra. La luz
visible corresponde a transiciones de electrones externos y los
rayos X a transiciones de electrones internos. En el caso de la
radiación de frenado o bremsstrahlung (ver más
adelante), los rayos X se producen por el frenado o
deflexión de electrones libres que atraviesan un campo
eléctrico intenso. Los rayos gamma, cuyos efectos son
similares a los de los rayos X, se producen por transiciones de
energía en el interior de núcleos excitados. Ver
Átomo; Radiactividad.
Los rayos X se producen siempre que se bombardea un
objeto material con electrones de alta velocidad. Gran parte de
la energía de los electrones se pierde en forma de
calor; el
resto produce rayos X al provocar cambios en los átomos
del blanco como resultado del impacto. Los rayos X emitidos no
pueden tener una energía mayor que la energía
cinética de los electrones que los producen. La
radiación emitida no es monocromática, sino que se
compone de una amplia gama de longitudes de onda, con un marcado
límite inferior que corresponde a la energía
máxima de los electrones empleados para el bombardeo. Este
espectro continuo se denomina a veces con el término
alemán bremsstrahlung, que significa
‘radiación de frenado’, y es independiente de
la naturaleza del blanco. Si se analizan los rayos X emitidos con
un espectrómetro de rayos X, se encuentran ciertas
líneas definidas superpuestas sobre el espectro continuo;
estas líneas, conocidas como rayos X característicos, corresponden a longitudes
de onda que dependen exclusivamente de la estructura de
los átomos del blanco. En otras palabras, un
electrón de alta velocidad que choca contra el blanco
puede hacer dos cosas: inducir la emisión de rayos X de
cualquier energía menor que su energía
cinética o provocar la emisión de rayos X de
energías determinadas, que dependen de la naturaleza de
los átomos del blanco.
El primer tubo de rayos X fue el tubo de Crookes,
llamado así en honor a su inventor, el químico y
físico británico William Crookes; se trata de una
ampolla de vidrio bajo vacío parcial con dos electrodos.
Cuando una corriente eléctrica pasa por un tubo de
Crookes, el gas residual que
contiene se ioniza, y los iones positivos golpean el
cátodo y expulsan electrones del mismo. Estos electrones,
que forman un haz de rayos catódicos, bombardean las
paredes de vidrio del tubo y producen rayos X. Estos tubos
sólo generan rayos X blandos, de baja energía. Ver
Ion; Ionización.
Un primer perfeccionamiento del tubo de rayos X fue la
introducción de un cátodo curvo para
concentrar el haz de electrones sobre un blanco de metal pesado,
llamado anticátodo o ánodo. Este tipo de tubos
genera rayos más duros, con menor longitud de onda y mayor
energía que los del tubo de Crookes original; sin embargo,
su funcionamiento es errático porque la producción de rayos X depende de la
presión del gas en el tubo.
La siguiente gran mejora la llevó a cabo en 1913
el físico estadounidense William David Coolidge. El tubo
de Coolidge tiene un vacío muy alto y contiene un
filamento calentado y un blanco. Esencialmente, es un tubo de
vacío termoiónico en el que el cátodo emite
electrones al ser calentado por una corriente auxiliar, y no al
ser golpeado por iones, como ocurría en los anteriores
tipos de tubos. Los electrones emitidos por el cátodo
calentado se aceleran mediante la aplicación de una alta
tensión entre los dos electrodos del tubo. Al aumentar la
tensión disminuye la longitud de onda mínima de la
radiación.
La mayoría de los tubos de rayos X que se emplean
en la actualidad son tubos de Coolidge modificados. Los tubos
más grandes y potentes tienen anticátodos
refrigerados por agua para impedir que se fundan por el bombardeo
de electrones. El tubo antichoque, muy utilizado, es una
modificación del tubo de Coolidge, con un mejor
aislamiento de la carcasa (mediante aceite) y cables de alimentación
conectados a tierra. Los
aparatos como el betatrón (Ver Aceleradores de
partículas) se emplean para producir rayos X muy duros, de
longitud de onda menor que la de los rayos gamma emitidos por
elementos naturalmente radiactivos.
Los rayos X afectan a una emulsión
fotográfica del mismo modo que lo hace la luz (Ver
Fotografía). La absorción de rayos X
por una sustancia depende de su densidad y masa
atómica. Cuanto menor sea la masa atómica del
material, más transparente será a los rayos X de
una longitud de onda determinada. Cuando se irradia el cuerpo humano
con rayos X, los huesos
—compuestos de elementos con mayor masa atómica que
los tejidos
circundantes— absorben la radiación con más
eficacia, por
lo que producen sombras más oscuras sobre una placa
fotográfica. En la actualidad se utiliza radiación
de neutrones para algunos tipos de radiografía, y los
resultados son casi los inversos. Los objetos que producen
sombras oscuras en una imagen de rayos X aparecen casi siempre
claros en una radiografía de neutrones
En el Electrón la sustancia espacial se desplaza
permanentemente pero en forma oscilatoria desde el PEI hacia el
PEE como si intentase vaciar el sector del infinito microcosmos
encerrado por el PEI. A la vez este movimiento
crea masa o cuerpo para el electrón. Por otro lado el PEE
del electrón propulsa una parte de la masa acumulada por
el sector ínter esférico. Dada la condición
infinitamente elástica de la sustancia espacial pudiese
pasarse toda la eternidad extrayendo sustancia desde su ultra
microscópico centro que es además infinito. Esto
hace a la vez que los electrones se repudien entre sí.
Cada uno expulsa sustancia interponiéndola delante de todo
lo que se les acerca. Esta condición facilita el carácter
errante de los mismos. La apariencia de la sustancia espacial en
el área de descompresión es lo que conocemos como
luz electrónica.
Todas las partículas están compuestas de
dos planos esféricos:
Plano Esferoidal Interno PEI: Que no es más que un
área esférica determinada en el interior de otra
esfera llamada "Plano Esferoidal externo".
Plano Esferoidal Externo PEE: Que envuelve al Plano Esferoidal
Interno
Unidad fundamental de carga eléctrica. Cualquier
carga eléctrica es un múltiplo entero de esta
cantidad. Su valor es:
e = -1,602177·10-19 C y su masa
es 9,109390·10-31 kg
Los átomos que constituyen la materia suelen ser,
generalmente, estables pero algunos de ellos se transforman
espontáneamente y emiten radiaciones que transportan
energía. Es lo que se denomina radioactividad. En la
naturaleza, la materia -ya se trate de agua, de gases, de
rocas, de
seres vivos- está formada por moléculas que son
combinaciones de átomos. Los átomos tienen un
núcleo cargado positivamente y a su alrededor se desplazan
los electrones, cargados negativamente. El átomo es
neutro. El núcleo del átomo esta formado a su vez
por protones cargados positivamente y neutrones. En ciertos
átomos, el núcleo al transformarse emite una
radiación, manifestando de esta manera la radioactividad
del átomo. Los protones y los neutrones están a su
vez formados por quarks.
Los isótopos
Todos los átomos cuyos núcleos tienen el
mismo número de protones constituyen un elemento
químico. Como tienen el mismo número de protones,
tienen el mismo número de electrones y, por consiguiente,
las mismas propiedades químicas. Cuando su número
de neutrones es diferente, reciben la denominación de
"isótopos". Cada isótopo de un elemento determinado
se designa por el número total de sus nucleones (protones
y neutrones). Por ejemplo, el uranio 238 y el uranio 235 tienen
ambos 92 electrones. Su núcleo tiene 92 protones. El
isótopo 238 tiene 146 neutrones, o sea, 3 neutrones
más que el uranio 235. Los isótopos del
hidrógeno
Las radiaciones de la radioactividad
Se distinguen tres clases de radiaciones
correspondientes a tres formas de radioactividad. La
radioactividad a se traduce por la emisión de un
núcleo de helio, denominado partícula a, que es
particularmente estable y esta formado por dos protones y dos
neutrones. La radioactividad b corresponde a la
transformación, dentro del núcleo:- Ya sea de un
neutrón en protón, radioactividad b-, caracterizada
por la emisión de un electrón e-, Ya sea de un
protón en neutrón, radioactividad b+, caracterizada
por la emisión de un antielectrón o positrón
e+ que sólo se manifiesta en núcleos radioactivos
producidos artificialmente por reacciones nucleares. La
radioactividad g contrariamente a las dos anteriores, no
está vinculada a una transmutación del
núcleo. Se traduce por la emisión, por el
núcleo, de una radiación electromagnética,
como la luz visible o los rayos X, pero más
energética. La radioactividad g puede manifestarse sola o
conjuntamente con la radioactividad a o b.
Hacia el 1800, el profesor inglés
John Dalton recogió la idea del átomo que dio el
filosofo Demócrito, si bien esta vez basándose en
métodos experimentales. Mediante el estudio de las
leyes
pondérales, concluye que:
la materia está constituida por partículas
indivisibles (átomos), todos los átomos de un mismo
elemento químico son iguales, los átomos de
elementos diferentes son también diferentes.
Modelo atómico de Thompson.-
En 1897 Joseph John Thompson realiza una serie de
experimentos y descubre el electrón. En tubos de gases a
baja presión en los que se establece una diferencia de
potencial superior a 10.000 voltios, se comprobó que
aparecían partículas con carga eléctrica
negativa a las que se llamó electrones, y demostró
que habían sido arrancados de los átomos (los
cuales eran neutros). Tal descubrimiento modificó el
modelo
atómico de Dalton, que lo consideraba indivisible.
Thompson supuso el átomo como una esfera homogénea
e indivisible cargada positivamente en la que se encuentran
incrustados los electrones.
5.1.7 Modelo atómico de
Rutherford
Posteriormente otro físico inglés, Ernest
Rutherford, realizó una serie de experimentos. Hizo
incidir sobre una lámina finísima de oro un delgado
haz de partículas cargadas positivamente de masa mucho
mayor que el electrón y dotadas de energía
cinética alta. En el choque observó distintos
comportamientos:
la mayoría atravesaban la lámina sin
desviarse algunas se desviaban muy pocas
retrocedían
Esta experiencia implicaba:
que los átomos estaban casi vacíos, pues
la mayoría de las partículas las
atravesaban
que hay una zona cargada positivamente, ya que algunas
partículas retrocedían o se desviaban. Esta zona
debe estar muy concentrada ya que es mayor el número de
desviaciones que de choques.
Esto le condujo a proponer en 1911 un nuevo modelo
atómico en el que se afirmaba que los átomos
estaban constituidos por 2 zonas bien diferenciadas:
Una de carga positiva con el 99,9% de la masa muy
concentrada y por tanto de gran densidad a la que llamó
núcleo.
Otra rodeando al núcleo a la que llamó
corteza donde estaban los electrones con carga negativa girando
alrededor del núcleo.
Sin embargo, el modelo de Rutherford presentaba
fallos:
Según la teoría clásica de electromagnetismo, una partícula
eléctrica acelerada emite energía. Y el
electrón girando el torno al
núcleo está sometido a una aceleración
centrípeta por lo que irradiaría energía,
perdería velocidad y, por fin, caería al
núcleo desestabilizando el átomo. Pero como el
átomo de hecho es estable, las cosas no pueden ocurrir
según el modelo de Rutherford.
No explicaba los espectros
Esta teoría explica las leyes de la
reflexión y la refracción , define la luz como un
movimiento ondulatorio del mismo tipo que el sonido. Como las
ondas se trasmiten en el vacío, supone que las ondas
luminosas necesitan para propagarse un medio ideal, el ETER,
presente tanto en el vacío como en los cuerpos materiales.
Esta teoría tiene una dificultad fundamental que
es precisamente la hipótesis del éter. Tenemos que
equiparar las vibraciones luminosas a las vibraciones
elásticas transversales de los sólidos, y no
transmitiendo por tanto vibraciones longitudinales. Existe, pues,
una contradicción en la naturaleza del éter, ya que
por un lado debe ser un sólido incompresible y por otro no
debe oponer resistencia al
movimiento de los cuerpos. (Nota: Las ondas transversales solo se
propagan en medios
sólidos)
Esta teoría no fue aceptada debido al gran
prestigio de Newton. Tuvo
que pasar más de un siglo para que se tomara nuevamente en
consideración la "Teoría Ondulatoria". Los
experimentos de Young (1801) sobre fenómenos de
interferencias luminosas, y los de Fresnel sobre
difracción fueron decisivos para que se tomaran en
consideración los estudios de Huygens y para la
explicación de la teoría ondulatoria.
Fue también Fresnel (1815) quien explicó
el fenómeno de la polarización transformando el
movimiento ondulatorio longitudinal, supuesto por Huygens, en
transversal. Existe, sin embargo, una objeción a esta
teoría, puesto que en el éter no se puede propagar
la luz por medio de ondas transversales, ya que éstas solo
se propagan en medios sólidos.
La teoría cuántica fue primeramente
introducida por Planck, en 1900.
Max Planck, (1858 – 1947) nacido en Kiel, Alemania el 23
de abril de 1858. Es el "padre de la cuántica". Planck
dedujo la hipótesis de la
discontinuidad de la energía y en el año de 1900
Planck descubre los cuantos y formula la teoría que lo
haría famoso, y que daría nacimiento a un campo
desconocido hasta entonces, la Mecánica Cuántica, la cual da una
nueva y muy especial forma de ver los fenómenos
físicos. Gracias a sus esfuerzos, y muy merecidamente,
Planck recibió el premio Nobel de Física en 1918. Max
Planck muere el 4 de octubre de 1947.
Planck retomó la teoría defendida hace
tiempo por
Newton, la cual en ese entonces ya no tenía validez
alguna. Newton consideraba a la luz como un haz de
corpúsculos que se propagaban en línea recta, al
aparecer la teoría ondulatoria de Huygens (1678), la
teoría de los corpúsculos de Newton se vio
destruida, pero era retomada nuevamente por Planck en
1900.
La teoría cuántica básicamente nos
dice que la luz no llega de una manera continua, sino que
está compuesta por pequeños paquetes de
energía, a los que llamamos cuantos. Estos cuantos de
energía se llaman fotones. Toda luz que nos llega
viene por pequeños paquetes, no es continua.
Los fotones son las partículas "fundamentales" de
la luz, así como los electrones son las partículas
fundamentales de la materia, esta analogía es la que
sirvió para realizar el descubrimiento del carácter
cuántico de la luz. Por esta misma analogía,
años después, de Broglie desarrolló la
teoría que formula que la materia también tiene un
carácter ondulatorio. La carga eléctrica y la
energía tienen una estructura granular (está
formada por cuantos), al igual que la materia.
La teoría cuántica ha servido para
demostrar los fenómenos que no se pudieron explicar con la
teoría ondulatoria de la luz, pero hay fenómenos
que no pueden ser explicados con la teoría
cuántica, y además hay ciertos fenómenos que
pueden ser explicados por ambas teorías. Esto nos lleva a
una duda: ¿cuál de las dos teorías es la
correcta? ¿o son correctas ambas teorías?
¿Cómo pueden asociarse las dos
teorías?
En 1900 emitió una hipótesis que
interpretaba los resultados experimentales satisfactoriamente
como los cuerpos captaban o emitían
energía.
Según Planck, la energía emitida o captada
por un cuerpo en forma de radiación
electromagnética es siempre un múltiplo de la
constante h, llamada posteriormente constante de Planck por la
frecuencia v de la radiación.
e =nhv
h=6,62 10-34 J·s, constante de
Planck
v=frecuencia de la radiación
A hv le llamó cuanto de energía. Que un
cuanto sea más energético que otro dependerá
de su frecuencia.
ESPECTROS CONTINUOS Y DISCONTINUOS
Los espectros
Es el conjunto de todas las variaciones
electromagnéticas que existen en el
universo.
Consiste en la descomposición de la
radiación que emite un cuerpo.
Espectros: Continuos y Discontinuos.
Los espectros de absorción continuos se obtienen
al intercalar el sólido entre el foco de radiación
y el prisma. Así, por ejemplo, si intercalamos un vidrio
de color azul quedan
absorbidas todas las radiaciones menos el azul.
Cuando los limites de la radiación no son
nítidos y forman una imagen continua, por ejemplo, el
espectro de la luz blanca.
Los espectros de absorción discontinuos se
producen al intercalar vapor o gas entre la fuente de
radiación y el prisma. Se observan bandas o rayas situadas
a la misma longitud de onda que los espectros de emisión
de esos vapores o gases.
Este está formado por rayas separados entre
sí, por ejemplo el espectro de emisión del sodio,
que consiste en dos líneas amarillas separadas entre
sí.
En el caso atómico, la dispersión de
electrones está dominada por un campo de largo alcance, el
coulombiano, que modifica la trayectoria de la partícula
incidente siendo poco probable una interacción más
directa con las constituyentes individuales del átomo. Es
más, aún cuando esto último ocurre, la
transferencia de energía puede verse como un proceso de dos
cuerpos interaccionando bajo la influencia del campo generado por
el resto de los electrones. Esto, que es consecuencia de la
relativamente baja densidad atómica, tiene como resultado
que la sección eficaz para procesos
elásticos domina sobre las de procesos inelásticos
como excitación, ionización y captura. En los
términos de Bohr, el átomo es un sistema
"abierto".
Las evidencias de Fermi indicaban que el caso nuclear
refleja una naturaleza muy diferente, con secciones de
reacción del orden de las elásticas o aún
mayores. Ante esto, Bohr razona que, dada la densidad nuclear, la
probabilidad
de que un neutrón atraviese un núcleo sin
interacciones directamente con uno de los constituyentes
debería ser ínfima. Además, dada la
naturaleza de corto alcance y la magnitud de la fuerza
nuclear, una vez dentro seguramente se vería obligado a
compartir su energía con el resto de los nucleones. El
fenómeno de emisión, ya sea de partículas o
de radiación gamma, se trataría entonces de un
proceso estadístico complicado de desexcitación
independiente. En este caso la probabilidad de emitir una
partícula idéntica a la incidente, lo que
sería el canal "elástico", compite con la de otros
procesos energéticamente permitidos (evidencia a)). Los
tiempos requeridos por este proceso, además, serían
tales que la probabilidad de emisión gamma no sería
tampoco despreciable (evidencia b)). En este sentido, para Bohr,
el núcleo es un sistema "cerrado" en que las reacciones
sólo se pueden llevar a cabo a través de la
formación intermedia de un sistema compuesto relativamente
estable cuyo decaimiento ocurre luego de un tiempo lo
suficientemente largo como para poder ser considerado como un
proceso dinámicamente independiente.
Bohr también hizo notar que las diferencias entre
el caso atómico y el nuclear también se
deberían reflejar en el esquema de niveles de ambos. En el
átomo, por la naturaleza del campo coulombiano, la
energía de ligadura de los diferentes electrones
varía enormemente entre aquellos que se encuentran
cercanos al núcleo y aquellos que se encuentran en la
periferia. Dado que hay pocos electrones en las partes más
externas, y están poco ligados, las excitaciones de baja
energía tienden a envolver a electrones individuales
siendo relativamente fácil liberarlos. Aun en el caso de
excitaciones de electrones más internos al espectro de
energías es bastante restringido.
Por otra parte, la idea de un "sistema compuesto", que
corresponda a la formación de un ion negativo, es poco
probable pues los niveles son escasos y, en todo caso, la
energía del electrón incidente será en
general mayor que la energía de ligadura
correspondiente.
En el caso nuclear, el fenómeno de captura
selectiva refleja algún nivel de respuesta resonante. Sin
embargo, indica Bohr, estas resonancias no deben ser vistas como
las de una partícula aislada en un pozo, ya que en ese
caso la probabilidad de que esa misma partícula escape
siempre será mayor que la de captura, en contraste con lo
observado por Fermi. Las resonancias nucleares deben ser
más complejas, de carácter colectivo. Al aumentar
la energía incidente, la creciente variedad de maneras en
que los constituyentes del núcleo pueden
repartírsela debería reflejarse en un rápido
aumento de la densidad de niveles que, sin embargo, se
mantendrían relativamente angostos dada la baja
probabilidad de concentrar suficiente energía en una sola
partícula, con capacidad como para ser emitida.
Cabe recordar que la relación entre la "anchura"
de un estado, es
decir la máxima resolución en energía a la
que se puede aspirar al observar su espectro y el tiempo promedio
que el núcleo tarda en desexcitarse, está limitado
por el principio de incertidumbre de Heisenberg: E
t = h. En otras palabras, estados "angostos"
corresponden a vidas medias largas y viceversa,
Por lo anterior, el espectro de niveles, aun a
excitaciones relativamente altas, seguiría
caracterizándose por líneas bien definidas
(evidencia c)), hasta el punto en que la probabilidad de
emisión de partículas se hiciera comparable. Esto
explicaría la ausencia de absorción selectiva para
neutrones no moderados aun cuando el espectro de gammas muestra
líneas angostas (evidencia d)), fenómeno que
sólo refleja la estabilidad del sistema compuesto. A
energías suficientemente altas, la captura radiactiva
disminuiría, dando lugar a la emisión de
partículas, con un espectro de energías que incluya
la dispersión inelástica tal como lo observó
Ehrenberg.
En cuanto a la dependencia con la energía y con
la carga del blanco de la emisión de partículas
cargadas, Bohr las explica como simples reflejos de la diferencia
entre la energía del estado y la barrera conlombiana
(evidencia e)). Estos efectos, dada la independencia
entre la formación y el decaímiento del sistema
compuesto, tendrían su equivalente en el caso de
reacciones inducidas por partículas cargadas. Salvo esta
diferencia, la dinámica de reacciones propuesta
debería ser la misma, tal como se había
observado.
Consciente del carácter puramente conceptual de
su teoría, Bohr indica al inicio de su plática las
dificultades de desarrollar una descripción detallada ya que, además
de tratarse de un problema de muchos cuerpos, aún se
desconocía la constitución misma del núcleo. A
este respecto, menciona los riesgos de
suponer la existencia dentro del núcleo de
partículas idénticas a los protones y neutrones
libres, en vista de que no hace mucho tiempo la idea de la
existencia de electrones en el núcleo, para explicar el
decaimiento beta, hubo de cambiarse por el de una creación
en el momento de la emisión. Sin embargo, descarta la
posibilidad, sugerida por el éxito
de Gamow al describir el decaímiento alfa, de la
existencia de esas partículas como tales dentro del
núcleo.
Para concluir, Bohr especula sobre lo que
ocurriría si la energía de las partículas
incidentes fuera aumentada de unos cuantos MeV, accesibles en ese
momento, a 100 y hasta 1000 MeV, prediciendo que aun a tales
energías sobreviviría su sistema compuesto,
aumentando solamente el número de partículas
emitidas hasta el punto de provocar una verdadera
explosión del núcleo.
Hacia 1939, junto con Peielrs y Placzek,
Bohr4
ya había desarrollado una primera formulación
para calcular secciones eficaces en reacciones tipo núcleo
compuesto, también llamadas fusión, en
base a la sección de colisión del sistema ("canal")
—proyectil-blanco— inicial y la probabilidad de
decaímiento a través de las diferentes
combinaciones posibles [núcleo residual-partícula
emitida] evaluadas a través de las anchuras de los estados
poblados en la región del continuo.
El razonamiento de Bohr era que la existencia de un
átomo como el hidrógeno, formado por un
protón cargado positivamente y un electrón cargado
negativamente que gira alrededor de él, sólo se
puede entender a partir de una determinada distancia
básica entre ambos que explique las dimensiones estables
del átomo (es decir, que explique por qué el
electrón no "cae" en el núcleo). Como las
consideraciones dimensiónales demuestran que esta
distancia no puede obtenerse mediante una combinación
matemática
que implique exclusivamente la carga del electrón,
e, y su masa, m, Bohr argumentó que
había que introducir en la teoría atómica
otra constante física fundamental que, combinada
adecuadamente con las constantes e y m,
proporcionara la distancia buscada. Bohr halló que la
constante de Planck, h, cumplía bien ese cometido,
y sugirió que la distancia básica venía dada
por la combinación matemática
Para ver la fórmula seleccione la
opción "Descargar" del menú superior
El valor de esta distancia es de
5,29·10-11 m, que constituye el llamado
radio de Bohr
del átomo de hidrógeno. Este valor también
se denomina radio de la primera órbita de Bohr. Bohr
utilizó un concepto
revolucionario y totalmente opuesto a la física
clásica, introducido por la teoría cuántica.
Según este concepto, existe una cantidad física
llamada acción que está cuantizada en unidades de
valor h (lo que significa que no puede haber una
acción menor que h). Bohr explicó la
estabilidad del átomo de hidrógeno asignando una
única unidad de acción a la primera de las llamadas
órbitas de Bohr. Con ello se eliminaba cualquier posible
órbita más pequeña, porque una órbita
así tendría una acción menor que h,
lo que violaría la hipótesis cuántica. A
continuación, Bohr supuso que cada órbita permitida
del electrón, a medida que se aleja del protón,
difiere de la órbita inmediatamente anterior en una
única unidad de acción h. Por tanto, la
acción de la segunda órbita debe ser 2h, la
acción de la tercera órbita 3h, y así
sucesivamente. Esto significa que la acción de la
órbita número n, donde n es un
entero, debe ser nh, y entonces se puede demostrar que el
radio de la n-ésima órbita tiene que
ser
Para ver la fórmula seleccione la
opción "Descargar" del menú superior
Por la dinámica clásica,
Bohr sabía que la energía total cinética y
potencial de una partícula que se mueve en una
órbita circular es negativa, porque la energía
potencial negativa de la órbita es mayor que su
energía cinética (que es positiva). Además,
la energía total es inversamente proporcional al radio de
la órbita. Por tanto, asignó a la energía
del electrón en la órbita n-ésima el
valor
Para ver la fórmula seleccione la
opción "Descargar" del menú superior
multiplicando la inversa del radio por
e2/2 y cambiando su signo por motivos
dimensiónales. Cuando el electrón salta de la
órbita n-ésima a la órbita
k-ésima, experimenta un cambio de
energía igual a
Para ver la fórmula seleccione la
opción "Descargar" del menú superior
o
Para ver la fórmula seleccione la
opción "Descargar" del menú superior
Este cambio aparece en la forma de un
único cuanto de energía, o fotón, emitido o
absorbido. Cuando k es mayor que n, se absorbe un
fotón; cuando k es menor que n, se emite un
fotón.
Así, se llega a la fórmula de Bohr para la
inversa de la longitud de onda del fotón emitido cuando el
electrón salta de la órbita n a la
órbita k, al igualar la fórmula anterior con
signo cambiado y la energía del fotón,
hc/λ. Esto
proporciona la ecuación
Para ver la fórmula seleccione la
opción "Descargar" del menú superior
La cantidad
Para ver la fórmula seleccione la
opción "Descargar" del menú superior
se conoce como constante de Rydberg,
R, en honor al físico sueco Robert Johannes
Rydberg. Si k se hace igual a 2, la fórmula de Bohr
es totalmente equivalente a la de Balmer, y se obtienen todas las
líneas de la serie de Balmer haciendo n igual a 3,
4, 5, y así sucesivamente. Esto significa que las
líneas de Balmer corresponden a transiciones de electrones
desde órbitas superiores hasta la segunda
órbita.
Si k se hace igual a 1 y n adopta los valores 2,
3, 4… (transiciones de los electrones a la órbita
más baja) se obtiene la llamada serie de Lyman, un
conjunto de líneas espectrales situado en el ultravioleta.
Otras series de líneas como las de Paschen, Brackett o
Pfund, situadas en el infrarrojo, se obtienen igualando k
a 3, 4 y 5, y haciendo que n adopte todos los valores
enteros superiores
Teoría de la relatividad
Teoría de la relatividad Teoría propuesta
por Einstein* en 1905 con respecto a la estructura del tiempo y
del espacio, que trasciende algunos de los conceptos y leyes de
la física clásica.
Según la teoría de la relatividad, para los objetos
que se mueven con velocidades muy próximas a la de la luz
no existe explicación de ciertos fenómenos dentro
del marco de la física clásica; los postulados de
la teoría restringida o especial de la relatividad
permiten, sin embargo, explicarlos convincentemente. Para
velocidades mucho más pequeñas que
la velocidad de la luz, la teoría de la relatividad
coincide exactamente con la física clásica
(principio de correspondencia).
La teoría de la relatividad se basa en tres
puntos:
1. La longitud de un cuerpo en movimiento disminuye en la
dirección de su desplazamiento
(contracción longitudinal).
2. El tiempo que transcurre entre dos sucesos
simultáneos no es el mismo para dos observadores en
movimiento relativo (dilatación del tiempo).
3. La masa de un cuerpo aumenta con su velocidad, de tal
forma que a la velocidad de la luz se hace infinita, motivo por
el cual esta velocidad es inalcanzable (inaccesibilidad a la
velocidad de la luz).
Postulado de la universalidad de la velocidad de la luz:
En el vacio, la luz se propaga con la velocidad universal
c=299792458 ms-1 en todos los sistemas
inerciales de referencia.
Postulado del principio de Relatividad Especial: Las
leyes de la naturaleza son
invariantes (tienen la misma forma) bajo el grupo de
transformaciones de Lorentz (L,a)
que mantienen la constancia de la velocidad de la luz en
todos los sistemas de referencia inerciales.
TEORIA DE BROGLIE
La nueva teoría
permite explicar, además, porque en un campo
eléctrico o magnético en gran escala los
electrones se comportan como corpúsculos de tipo
clásico, y lleva también a revenir fenómenos
de carter totalmente nuevo. Puesto que la onda luminosa regula la
repartición, en el espacio, de los fotones que le
están asociados; puesto que en las experiencias de
interferencia y de difracción los fotones se localizan en
el espacio, proporcionalmente a la intensidad de la onda luminosa
en cada punto, habrá que esperar que suceda algo
análogo con los corpúsculos materiales; si la
propagación de onda asociada a un flujo de
corpúsculos materiales de la misma energía da a
lugar a interferencias, los corpúsculos en cuestión
deberán repartirse en el espacio prpoporcionalmente a la
intensiadad de la onda y dar origen a manifiestaciones que la
antigua dinámica de los puntos materiales era ciertamente
incapaz de prever. La experiencia ha confirmado esta audaz
previsión de la teoría. En efecto, según la
mecánica ondulatoria, si se envía un haz paralelo
de electrones de la misma energía sobre un cristal, la
onda que dirige el movimiento de los electrones será
difundida por los centros, regularmente dispuestos, de la
red cristalina,
las onditas difundidas interferirán entre sí y
resultará la existencia del máximum de
difusión en ciertas direcciones, direcciones que se
podrán calcular fácilmente conociendo las
constantes de la red cristalina utilizada y la longitud de onda
incidente. Puesto que, en la nueva teoría, todo pasa como
si la onda dirigiera el conjunto del movimento de los
corpúsculos, los electrones difundidos porel cristal
deberán concentrarse en las direcciones de difusión
privilegiada de que acabamos de hablar. Y esta
confirmación ha sido cuantitativa porque se ha podido
verificar, con una gran precisión, la exactitud de la
fórmula fundamental de la mecánica
ondulatoria:
l =h/mv
Fórmula que da la longitud de la onda de la onda
asociada a un corpúsculo de masa m y de velocidad v por el
intermedio de la constante b de los quanta.
Así se establece sobre una sólida base
experimental la nueva mecánica ondulatoria y
cuántica. Nos ha ensenado a considerar la constante de b
de un Planck como una especie de guión entre la imagen de
los corpúsculos. Las dos imágenes
son a la vez necesarias y sus valideces respectivas se limitan
mútuamente porque la constante b tiene un valor
finito.
Quisiera hacer hincapié sobre un punto
interesante. Si la constante b tuviera un valor infinatamente
pequeno, los quanta de la luz de valor bv serían
infinatamente pequenos, y su número, en una
radiación de energía dada, sería
infinatamente grande: todo pasaría entonces como si las
radiaciones tuvieran una estructura continua y puramente
ondulatoria, que les atribuían Fresnel y sus
continuadores. Por el contrario, los corpúsculos
materiales obedecerían entonces exactamente(puede
demostarse esto con facilidad) a las leyes clásicas de la
dinámica del punto material, y no habría necesidad
ninguna de introducir ondas en la teoría de la materia.
Por lo tanto, si el valor de valor b fuera infinitamente pequeno,
en la física clásica sería rigurosamente
exacta. Por el contrario, si la constante de Planck fuera
infinitamente grande, los quanta de luz serían enormes y
su existencia saltaría a los ojos, por si decirlo, del
físico menos perspicaz, pero en este cásalos
corpúsculos materiales no seguirán jamás las
leyes de la dinámica clásica, y se vería que
en su estudio era necesario introducir desde el principio una
onda para prever los movimientos de aquellos. Ahora bien, en la
naturaleza real, la constante b no es infinitamente grande ni
infinitamente pequeña, sino que su valor es finito, pero
desde nuestro punto de vista humano parece extremadamente
pequeno, pues se expresa rn unidades de c.g.s. Para nosotros,
humanos, el caso de b infinitamente pequeno está, pues,
mucho más próximo a realizarse que el caso opuesto
que es infinitamente grande. Esta simple observación ilustra el verdadero sentido de
la evolución reciente de la física. En
efecto, ahora se comprende en seguida que la física de
ayer, a consecuencia de un examen todavía algo
superficial, se haya visto impulsada a proclamar la estructura
continua y la naturaleza ondulatoria de la luz, mientras
atribuía a la materia una estructura discontinua
constituida por corpúsculos que obedecen a las leyes
dinámicas clásicas. Han sido necesarios
experimentos de los físicos contemporáneos para
revelar la otra cara de la realidad; me refiero al aspecto
discontinuo de la luz y al aspecto ondulatorio de la
materia.
Cuando un electrón se mueve con
una rapidez v , tiene asociada una onda de longitud
l según la relación:
l =h/mv
Donde:
m es la masa del electrón en reposo ( = 9,11
× 10 – 31 [ kg ] ) y
h es la constante de Planck ( = 6,63 × 10 –
34 [ J – s ] ).
Cada sustancia del universo, las
piedras, el mar, nosotros mismos, los planetas y
hasta las estrellas más lejanas, están enteramente
formada por pequeñas partículas llamadas
átomos. Son tan pequeñas que no son posible
fotografiarlas. Para hacernos una idea de su tamaño, un
punto de esta línea puede contener dos mil millones de
átomos. Estas pequeñas partículas son
estudiadas por la química, ciencia que
surgió en la edad media y
que estudia la materia. Pero si nos adentramos en la materia nos
damos cuenta de que está formada por átomos. Para
comprender estos átomos a lo largo de la historia diferentes
científicos han enunciado una serie de teorías que
nos ayudan a comprender la complejidad de estas
partículas. Estas teorías significan el
asentamiento de la química moderna. Como ya hemos dicho
antes la química surgió en la edad media, lo que
quiere decir que ya se conocía el átomo pero no del
todo, así durante el renacimiento
esta ciencia evoluciona. Posteriormente a fines del siglo XVIII
se descubren un gran número de elementos, pero este no es
el avance más notable ya que este reside cuando Lavoisier
da una interpretación correcta al fenómeno de la
combustión. Ya en el siglo XIX se
establecen diferentes leyes de la combinación y con la
clasificación periódica de los elementos (1871) se
potencia el estudio de la constitución de los
átomos. Actualmente su objetivo es
cooperar a la interpretación de la composición,
propiedades, estructura y transformaciones del universo, pero
para hacer todo esto hemos de empezar de lo más simple y
eso son los átomos, que hoy conocemos gracias a esas
teorías enunciadas a lo largo de la historia. Estas
teorías que tanto significan para la química es lo
que vamos a estudiar en las próximas hojas de este
trabajo
La Teoría Atómica se basa en la
suposición (ratificada después por datos
experimentales) de que la materia no es continua, sino que
está formada por partículas distintas. Esta
teoría describe una parte de nuestro mundo material a la
que no es posible acceder por observación directa, y
permite explicar las propiedades de las diversas
sustancias.
El
concepto de átomo ha ido pasando por diversas
concepciones, cada una de las cuales explicó en su momento
todos los datos experimentales de que se disponía, pero
con el tiempo fue necesario modificar cada modelo para adaptarlo
a los nuevos datos. Cada modelo se apoya en los anteriores,
conservando determinados aspectos y modificando otros.
La primera aparición conocida del concepto de átomo
procede de una escuela
filosófica griega (Demócrito, Leucipo), la cual
consideraba que la sustancia esencial de cualquier objeto
debía permanecer constante, y trató de conciliar
esa idea con el hecho de que en la materia se puede observar un
cambio constante.
Sin embargo, esta primera aproximación no puede
considerarse una teoría científica, tal y como la
entendemos hoy en día, ya que le faltaba el apoyarse en
experimentos rigurosos (la idea moderna de que el conocimiento
científico debe apoyarse siempre en experimentos que
cualquiera pueda reproducir, procede del Renacimiento, con
los trabajos de Copénico, Galileo, Newton…). La primera
teoría científica sobre el átomo fue
propuesta por John Dalton a principios del
siglo XIX, y a partir de ahí se fueron proponiendo
diversos modelos.
Para llegar a la configuración electrónica
de los átomos, se debe conocer el orden que ocupan en los
diversos subniveles. Los electrones ocupan los subniveles
vacantes, en orden ascendente de sus energías, así
pues, llenarán cada subnivel antes de pasar al
siguiente.
A continuación se observará la distribución electrónica
máxima para los primeros cuatro niveles de energía.
Veamos:
Número Cuántico | Orbitas por subnivel | Número de electrones | d | |||
Principal | Nivel | Secundario | Subnivel | xc | Subnivel | Nivel |
1 | K | 0 | s | 1 | 2 | 2 |
2 | L | 0 | s | 1 | 2 | 8 |
3 | M | 0 | s | 1 | 2 | 18 |
4 | N | 0 | s | 1 | 2 | 32 |
En términos generales, se puede
decir que al describir a la configuración
electrónica, se debe tomar en cuenta que:
1. La corona, está dividida en niveles de energía
de acuerdo con su proximidad al núcleo de la siguiente
forma:
Nº de nivel | 1 | 2 | 3 | 4 | 5 | 6 | 7 |
Nivel de energía | K | L | M | N | O | P | Q |
2. Cada nivel de energía acepta un
determinado número de electrones, el cual depende del
número del nivel.
3. Cada nivel tiene un determinado número de subniveles,
identificados con las letras: s, p, d, f (Ver tabla 1). Estos
subniveles se llaman orbitales atómicos y constituyen el
espacio que habita los electrones.
4. Cada subnivel acepta un máximo de dos
electrones.
La Mecánica Cuántica (1927) engloba la
hipótesis de Louis de Broglie y el Principio de
indeterminación de Heisenberg. El carácter
ondulatorio del electrón se aplica definiendo una función de
ondas, , y utilizando una ecuación de ondas, que
matemáticamente es una ecuación diferencial de
segundo grado, es decir, una ecuación en la cual
intervienen derivadas
segundas de la función ψ:
Al resolver la ecuación diferencial, se obtiene
que la función depende de una serie de
parámetros, que se corresponden con los números
cuánticos, tal y como se han definido en el modelo de
Böhr. La ecuación sólo se cumplirá
cuando esos parámetros tomen determinados valores
permitidos (los mismos valores que se han indicado antes para el
modelo de Böhr).
El cuadrado de la función de ondas, 2,
corresponde a la probabilidad de encontrar al electrón en
una región determinada, con lo cual se está
introduciendo en el modelo el Principio de Heisenberg. Por ello,
en este modelo aparece el concepto de orbital: región del
espacio en la que hay una máxima probabilidad de encontrar
al electrón.
(No debe confundirse el concepto de orbital con el de
órbita, que corresponde al modelo de Böhr: una
órbita es una trayectoria perfectamente definida que sigue
el electrón, y por tanto es un concepto muy alejado de la
mecánica probabilística.)
En este modelo atómico, se utilizan los mismos
números cuánticos que en el modelo de Böhr y
con los mismos valores permitidos, pero cambia su significado
físico, puesto que ahora hay que utilizar el concepto de
orbital:
Números | Significado | Valores permitidos |
principal (n) | Energía total del Distancia del electrón al | 1, 2, 3…. |
secundario o azimutal | Subnivel energético en donde Forma del orbital: l = 0: orbital s l = 1: orbital p (bilobulado) l = 2: orbital d | 0, 1, 2, …, n-1 |
magnético (m) | Orientación del orbital | -l, …, 0, …, + l |
espín (s) | Sentido de giro del electrón | ± 1/2 |
Así, cada conjunto de cuatro números
cuánticos caracteriza a un electrón:
n determina el nivel energético
l determina el subnivel energético
m determina el orbital concreto
dentro de ese subnivel
s determina el electrón concreto dentro de los
que pueden alojarse en cada orbital (puede haber dos electrones
en cada orbital).
Esto se refleja en el Principio de exclusión de
Pauli (1925): en un átomo no puede haber dos electrones
que tengan los cuatro números cuánticos iguales, al
menos se tendrán que diferenciar en uno de
1.- Química / Raymond Chong
2.- Química / Mortimer, Brown – Le May,
Tim
3.- Principios de los procesos químicos /
Paúl Ander y Anthony Sonessa
Erik Alejandro Míreles
Órnelas
estudia la carrera de ing. Químico