Sea (1)
una transformación lineal (1)
. Un escalar (1) es un valor propio si
existe un vector no nulo (1) tal que(1). Cualquier vector no nulo
(1) que
satisfaga
(A.24) |
es un vector propio asociado con el valor
propio.
La definición implica que para un vector
propio (1) el
efecto de aplicarle la transformación lineal
(1) que amplificarlo
por el escalar(1). Esto implica que un vector y el
vector transformado son colineales o paralelos y por lo tanto
linealmente dependientes.
La definición
E.30 se refiere estrictamente a valores
y vectores propios por derecha, para distinguirlos de los
valores y vectores propios por izquierda, que deben
satisfacer(1).
En este texto
sólo se consideran los primeros, y por tanto se hace
referencia a ellos simplemente como valores y vectores
propios.
Teorema A.15
(1) es un
valor propio de (1)
s y sólo si satisface la ecuación
(A.25) |
donde (1)
es la matriz
identidad de
igual orden que (1)
Demostración A.15
Si(1) es
un valor propio de(1)
entonces existe un vector(1) tal que
(1)
El término (1) puede escribirse como
(1) para facilitar la
factorización de
(1)
De acuerdo con el teorema
E.13 esta ecuación tiene
solución no trivial (existe un vector
propio(1))
sí y sólo si
(1)
Como el determinante de una matriz no se afecta al
multiplicar ésta por un escalar no nulo, podemos
escribir
(1)
El teorema
E.15 brinda una posibilidad para calcular
los valores
propios de(1):
podemos construir el polinomio
característico (1) y encontrar sus raíces.
Cada raíz de (1) será un valor propio
de(1). Los
vectores propios pueden obtenerse directamente de
(E.24)
Debido a que los valores
propios resultan ser las raíces del polinomio
característico, éstos pueden ser reales o
complejos, diferentes o repetidos.
Definición A.31 Multiplicidad
La multiplicidad(1)
de un valor propio (1) es el número de veces que
éste se repite como raíz del polinomio
característico.
Ejemplo
A.30 Obtener los valores y vectores propios de la
matriz (1)
Se crea entonces un sistema de
ecuaciones con
infinitas soluciones: (1)
Se crea entonces un segundo sistema de ecuaciones con
infinitas soluciones: (1)
Ejemplo
A.31 Obtener los valores y vectores
propios de la matriz
(1) Para ver las fórmulas seleccione la
opción "Descargar" del menú superior
Consideremos una matriz n-cuadrada
arbitraria:
Para ver las
fórmulas seleccione la opción "Descargar" del
menú superior
La matriz (A – l·In),
donde In es la matriz identidad n-cuadrada y
l un escalar indeterminado, se denomina matriz
característica de A:
Para ver las
fórmulas seleccione la opción "Descargar" del
menú superior
Su determinante, det (A –
l·In) , que es un polinomio en l, recibe el
nombre de polinomio característico de A.
Asimismo, llamamos a
det (A – l·In) = 0
ecuación característica de
A.
Ejemplo 1:
Hallar la matriz característica y el
polinomio característico de la matriz
A:
Para ver las
fórmulas seleccione la opción "Descargar" del
menú superior
La matriz característica será
(A – l·In). Luego:
Para ver las
fórmulas seleccione la opción "Descargar" del
menú superior
y el polinomio característico,
Para ver las
fórmulas seleccione la opción "Descargar" del
menú superior
Así pues, el polinomio característico
es: l 2 – l + 4.
http://www.sectormatematica.cl/contenidos/policar.htm
a b a b λ 0 a –
λ
Ejemplo 2 : Si A = c d , entonces A
– λI = c d – 0
λ = c d –
λ y
p(λ) = det
( A – λ ) = (a –λ) (d –
λ) – bc = λ2 – (a + d) + (ad –
bc).
Según el teorema fundamental del álgebra,
cualquier polinomio de grado n con coeficientes reales o
complejos tiene exactamente n raíces (contando
multiplicidades). Esto significa, por ejemplo, que el polinomio
(λ – 1)5 tiene 5
raíces, todas iguales al numero 1. como cualquier valor
característico de A es una raíz de la
ecuación característica de A, concluye
que
Contando multiplicidades, toda matriz de n x n tiene
exactamente n valores característicos.
TEOREMA 2: Sea λ una
valor propio de la matriz A de n x n y sea
Eλ = { v: Av =
λv }. Entonces
Eλ es un subespacio de
Cn.
Demostración: Si Av =
λv, entonces ( A –
λI )v = 0. Así
Eλ es el espacio nulo de la
matriz A – λI. que es un
subespacio de Cn.
Algebra lineal 5ta
edición Stanley I. Grossman McGraw Hill
DIAGONALIZACION DE UNA MATRIZ N X N
Matriz diagonalizable: Una matriz n x n es
diagonolazible si existe una matriz diagonal D tal que
A es semejante a D.
Observación: Si D es una matriz
diagonal, entonces los valores propios son sus componentes en la
diagonal. Si A es semejante a D, entonces Ay
D tiene los mismos valores propios. Uniendo estos dos
hechos se observa que si A es diagonaliizable, entonces
A es semejante a una matriz diagonal cuyas componentes en
la diagonal son los valores propios de A.
El siguiente teorema establece cuando una
matriz es diagonazable.
TEOREMA 2: Una matriz A de n x n es
diagonalizable si y solo si tiene n vectores propios linealmente
independientes. En tal caso, la matriz diagonal D
semejante a A esta dada por
Para ver la fórmula seleccione la
opción "Descargar" del menú superior
donde λ1,
λ2, …..
,λn son los valore
propios de A. Si C es una matriz cuyas columnas son
vectores propios linealmente independientes de A,
entonces
D = C-1AC
(3)
Demostración Primero se supone que
A tiene n vectores propios linealmente independientes
V1, V2, …, Vn que
corresponden a los valores no propios (no necesariamente
diferentes)
λ1,
λ2, …,
λn.
Sea
C11 C12 C1n
C21 C22 C2n
V1 = , V2 = ,
…Vn =
Cn1 Cn2 Cnn
Y sea
C11 C12 …
C1n
C21 C22 …
C2n
C =
Cn1 Cn2 …
Cnm
Entonces C es invertible ya que sus columnas son
linealmente independientes. Ahora bien
A11 A12 …
A1n C11 C12 …
C1n
A21 A22 …
A2n C21 C22 …
C2n
AC =
An1 An2 … Ann
Cn1 Cn2 … Cnn
C1
Y se ve que la columna AC es A = C2i =
Av1 =
λivi. Así, AC es la
matriz cuya
Cni
columna i es
λivi
y
λ1c11
λ2c12
…
λnc1n
λ2c21
λ2c22
…
λnc2n
AC =
λ1cn1
λ2cn2
…
λncnn
pero
C11 C12 …
C1n
λ1 0
… 0
C21 C22 …
C2n 0
λ2
… 0
CD =
Cn1 Cn2 …
Cnn 0 0 …
λn
λ1c11
λ2c12
…
λnc1n
λ2c21
λ2c22
…
λnc2n
=
λ1cn1
λ2cn2
…
λncnn
Entonces
AC = CD (4)
Y como C es invertible, se pueden multiplicar
ambos lados de (4) por la izquierda por C-1 para
obtener
D = C-1 AC (5)
Esto prueba si A tiene n vectores propios
linealmente independientes, entonces A es diagonalizable.
Inversamente suponga que A es diagonalizable; esto es,
suponga que (5) se cumple para alguna matriz invertible C.
Sean v1, v2, … vn las
columnas de C. entonces AC = CD, e invirtiendo los
argumentos anteriores, se ve de inmediato que
Avi =
λivi
para i = 1, 2,…, n. Entonces v1, v2,
…, vn son los vectores propios de A y
son linealmente independientes porque C es
invertible.
Notación: para indicar que D
es la matriz diagonal con componentes diagonales
λ1,
λ2, …,
λn, se
escribirá D = diag (λ1,
λ2, …,
λn).
Corolario: Si la matriz A de n x n tiene n
valores propios diferentes, entonces A es
diagonalizable.
Observación: Si se selecciona al azar los
coeficientes reales de un polinomio de grado n entonces, con
probabilidad
1, el polinomio tendrá n raíces diferentes. No es
difícil ver, intuitivamente, por que se cumple esto. Si n
= 2, por ejemplo, entonces la ecuación
λ2 + aλ + b = 0 tiene
raνces reales si y solo si a2 = 4b —
un evento muy improbable se a y b se eligen aleatoria mente. Por
supuesto, se pueden escribir polinomios que tienen raíces
de multiplicidad algebraica mayor que 1, pero son excepcionales.
Por lo tanto, sin pretender precisión matemática, es posible decir que la
mayoría de los polinomios tienen raíces distintas.
Así, la mayoría de las matrices
tienen valores propios diferentes y como se estableció al
principio, la mayor parte de las matrices son
diagonalizables.
4 3
EJEMPLO 1: Diagonalización de una matriz 2 x
2 sea A = 3 3 .En el ejemplo 6.1.3, se
2 1
encontraron dos vectores propios linealmente
independientes v =- 3 y v2 = 1 .
2 1
Después, haciendo C = -3 1 , se encontró
que
Para ver la fórmula seleccione la
opción "Descargar" del menú superior
que es la matriz cuyas componentes en la diagonal son
los vectores propios de A.
EJEMPLO 2: Una matriz de 2 x2 con solo un vector
propio linealmente independiente
4 1
que no se puede diagonalizar Sea A = 0 4 .
En el ejemplo 6.1.9, se vio que A no tiene
dos vectores propios linealmente independientes. Suponga
que A fuera diagonalizable ( lo que
4 0
contradice el teorema 2 ). Entonces D = 0 4 y
existiría una matriz invertible C tal que
C-1
AC = D. Multiplicando esta ecuación por la
izquierda por C y por la derecha por C-1,
se
4 0 4 0 encuentra que A = CDC-1 = C 0
4 C-1 = C(4I)C-1 = 4CIC-1 =
4CC-1 = 4I = 0 4 = D.
pero A desigual a D y por lo tanto no existe tal
C.
Toda matriz cuadrada satisface su propia ecuación
característica. Es decir, si p(λ) = 0
es la ecuaciσn característica de A,
entonces p(λ) = 0 .
Demostración: Se tiene
a11 – λ
a12 … a1n
a21 a22 –
λ … a2n
p(λ) = det ( A –
λ I ) =
an1 an2 … amn
– λ
Es claro cualquier cofactor de ( A – λI )
es un polinomio en λ. Asν, la adjunta de A –
λI es una matriz de n x n en la que cada componente es un
polinomio de λ. Es decir,
p11(λ)
p12(λ) ….
p1n(λ)
p21(λ)
p22(λ) ….
p2n(λ)
adj ( A – λI ) =
pn1(λ)
pn2(λ) ….
Pnn(λ)
Esto significa que se puede expresar en adj
( A – λI ) como en un polinomio, Q(λ), en
λ cuyos coeficientes son matrices n x n. Para entender
esto, se ve lo siguiente:
-λ2 –
2λ + 1 2 λ2 –
7 λ – 4 = -1 2 λ2 +
-2 -7 λ + 1 -4
4λ2 +
5λ – 2 -3 λ2 –
λ + 3 4 -3 5 -1 -2 3
1 -1 4
Ejemplo 1: Ilustración del teorema de Caley –
Hamilton Sea A = 3 2 -1 . En el ejemplo 6.1.4, 2 1
-1
se calculo la ecuación
característica
λ3 –
2λ2 –
5λ + 6 = 0. Ahora se
calcula
6 1 1 11 -3 22
A2 = 7 0 11 , A3 = 29 4
17
3 -1 8 16 3 5
y
11 -3 22 -12 -2 -2
A3 – 2A3 + 5A + 6I = 29 4 17 + -14
0 -22
16 3 5 -6 2 -16
-5 5 -20 6 0 0 0 0 0
+ -15 -10 5 + 0 6 0 = 0 0 0
-10 -5 5 0 0 6 0 0 0
En algunas situaciones el teorema de Caley –
Hamilton es útil para calcular la inversa de una matriz.
Si existe A-1 y p(A) = 0, entonces A-1 p(A)
= 0.para ilustrar esto, si p(λ)
= λn +
an-1
λn-1 + …
+ a1λ +
a0, entonces
p(A) = An + an-1
An-1 + …+ a1A + a0I =
0
y
A-1p(A) = An-1 +
an-1An-2 + … + a2A
+ a1I + a0A-1 =
0
Asi
A-1 = 1/a0
(-An-1 -an-1An-2 – … –
a2A – a1I )
Observe que a0 es diferente de 0 porque
a0 = det A (¿Por qué?) y se supuso que A
era invertible.
1 -1 4
Ejemplo 2: Aplicación del teorema de Caley
– Hamilton para calcular A-1 Sea A = 3 2
-1
- 1 -1
Entonces p(λ) =
λ3 –
2λ2 –
5λ + 6. Aquí n = 3,
a2 = -2,a1 = -5, a0 = 6 y
A-1 = 1/6 (-A2 + 2A + 5I)
-6 -1 -1 2 -2 8 5 0 0
= 1/6 -7 0 -11 + 6 4 -2 + 0 5 0
-3 1 -8 4 2 -2 0 0 5
1 -3 7
= 1/6 -1 9 -13
1 3 -5
Observe que se calculo A-1 haciendo solo una
división y calculando solo una determinante
(al encontrar p(λ) = det ( A
– λI)). Este método en
ocasiones es muy eficiente en una computadora.
Algebra lineal 5ta
edición Stanley I. Grossman McGraw Hill
Alejandro Hernandez Manzanarez