Introducción a las Probabilidades para carreras de ingeniería (página 3)
Aproximación de Poisson a la
Binomial:
La expresión analítica de la distribución Poisson se dijo que se puede
obtener a partir del límite de la distribución
Binomial cuando n tiende a infinito. Esto sugiere que en la
práctica a partir de un valor de n
relativamente grande, el comportamiento
probabilístico de una variable Binomial se asemeja al de
una variable Poisson y en efecto así sucede.
Empíricamente se ha determinado que buenas
aproximaciones se logran cuando en una variable aleatoria
Binomial los parámetros n y p cumplen con:
n 50 y np 5
Por lo tanto:
Si X ~ b(n;p) y ocurre que n 50 y np 5;
entonces podemos tratar a X como si tuviera distribución
Poisson con = np; en símbolos X ~ P(=np).
Variables aleatorias
continuas.
Las variables
aleatorias continuas toman todos los valores
dentro de un intervalo determinado, es decir, toman valores sobre
una escala continua y
también se pueden asociar a ellas algunas funciones de
distribución.
La función de
distribución acumulada [Fx(t)] estudiada en el
caso de las variables aleatorias discretas brinda la P(X
t) y pudo ser utilizada para calcular probabilidades de
diferentes tipos por ejemplo:
P(a X b) = Fx(b) –
Fx(a)
En el caso de las variables aleatorias continuas eso
también se cumple, pero dado que ellas toman todos los
valores en un intervalo, entonces su función de
distribución acumulada será siempre continua y si
además es derivable, podemos apoyarnos en el segundo
teorema fundamental del cálculo
que plantea:
es decir, la integral definida de f(x) en (a,b) puede
hallarse mediante la diferencia de su primitiva evaluada para los
extremos del intervalo, por lo que
Siendo la primitiva la función de
distribución acumulada. A la función f(x) se le
denomina "función de densidad
probabilística"
Definición:
Dada una función f(x); ésta será
una función de densidad
probabilística si
y tiene que cumplir con dos propiedades
1. f(x) 0 para x R
2.
Si se quiere hallar Fx(t) a partir de la
función de densidad se tendría que proceder como
sigue
a partir de aquí se concluye que:
La esperanza matemática
o valor esperado en el caso de una variable aleatoria continua se
halla
y la varianza 2 = V(X) =
E(X2) – E2(X)
donde,
y la desviación típica, como ya conocemos
será la raíz cuadrada de la varianza
Distribución
Exponencial
La distribución exponencial es una de las
distribuciones de variables aleatorias continuas que se ajusta al
comportamiento de variados fenómenos aleatorios en el
campo de las ingenierías. Esta distribución
está muy asociada a la variable Poisson y basados en esa
relación se puede llegar a la expresión de su
función de densidad probabilística
Considérese una serie de eventos
sucediéndose en el tiempo de
acuerdo a una distribución Poisson con razón media
de eventos por unidad de tiempo, y en ese
fenómeno aleatorio interesa ahora analizar lo
siguiente:
¿Cuánto tiempo se debe esperar para
observar la próxima ocurrencia del evento?
Note que ya se ha estudiado ese mismo fenómeno
aleatorio, pero a través de la variable aleatoria X: "# de
veces que ocurre un suceso en un período de
duración t", la cuál sigue una distribución
Poisson, pero para dar respuesta a la pregunta anterior se
requiere definir otra variable, que puede ser denotada por Y la
cual represente "tiempo de espera entre dos ocurrencias
consecutivas del evento":
Si Y>t, ello significa que la próxima
ocurrencia del evento sucedió después de t unidades
de tiempo, lo que implica que en el lapso de 0 a t, el evento no
ocurrió; de ahí que podemos plantear
que:
Sabemos que P(Y>t) =1-P(Y t) =1-
Fy(t)
Al despejar se tiene
Fy(t) = 1- P(Y> t) =1-
e-t
y como además
entonces derivando Fy(t) respecto a t
f(y) = e-t
Distribución exponencial:
Una variable aleatoria continua cuya función de
densidad viene dada por expresión
f(y) = e-y para y
0
se dice que tiene una distribución Exponencial
con parámetro ; siendo > 0
siendo Y: tiempo entre dos ocurrencias consecutivas
Poisson
donde : # medio de ocurrencias del evento/unidad
de tiempo.
Puede demostrarse fácilmente que:
E(y)= 1/ ; V(y)= 1/2 y
(y)= 1/
La forma gráfica de la distribución
exponencial será:
De este estudio podemos concluir que, siempre que las
ocurrencias de un suceso sean Poisson, el tiempo entre
ocurrencias consecutivas será exponencial.
El cálculo de probabilidades con la
distribución Exponencial no representa ninguna dificultad,
ya que se trata de una función de densidad fácil de
integrar, no obstante, se encuentra tabulada en muchos
textos.
El cálculo de probabilidades con la
distribución exponencial resulta más conveniente
hacerlo a partir del hecho de que cualquiera sean los valores de
c y d se cumple que:
P(c < X < d)=e-c –
e-d;
A partir de esta fórmula se puede calcular la
probabilidad
de cualquier evento buscando en la tabla o con una calculadora
los valores de e-x donde se sustituye la x por
t
Ejemplo: Retomando el ejemplo de la computadora
digital visto anteriormente donde:
X: # de interrupciones de la computadora en
un intervalo de tiempo (0,t)
donde X ~ P( ) donde =0.25
interrupciones por hora
Preguntas:
a) ¿Cuál es la probabilidad de que la
computadora opere como mínimo 2h sin
interrupciones?
b) ¿Cuál es el tiempo medio entre 2
interrupciones de la computadora?
Como se explicó anteriormente siempre que las
ocurrencias (interrupciones) sean Poisson, el tiempo entre
ocurrencias será exponencial.
Y: tiempo que transcurre entre 2 interrupciones
consecutivas de la computadora.
P(Y 2)= e -2(0,25) =
0.6065
Interpretación:
Aproximadamente el 60 % de las veces, el tiempo entre
interrupciones de la computadora será de la menos 2
horas.
b) E(y)= 1/ = 1/0.25 = 4 horas
como promedio el tiempo entre interrupciones
consecutivas será 4 horas.
Ley exponencial de fiabilidad.
Una aplicación importante de la
distribución exponencial es en fiabilidad.
El concepto de
fiabilidad está asociado al tiempo de trabajo sin
fallo de un elemento, entendiendo por elemento a cualquier
dispositivo, sea simple o complejo.
Si T es una variable aleatoria que expresa "tiempo de
trabajo sin fallo en cierto elemento", se denomina función
de fiabilidad R(T), a la función que determina la
probabilidad de trabajo sin fallo del elemento, esto
es:
R(t)=P(T > t)
si sucede que T ~ E(); entonces:
R(t)=P(T > t) = e-t
y se denomina Ley Exponencial de fiabilidad donde
se interpreta como intensidad de fallos.
Propiedad característica de la ley Exponencial
de la fiabilidad.
La distribución exponencial presenta una propiedad
característica que si bien es válida para cualquier
variable Exponencial, es en su interpretación asociada a la ley
Exponencial de fiabilidad donde adquiere un significado
práctico importante.
El enunciado de esta propiedad es como sigue:
"La probabilidad de trabajo sin fallo de un elemento en
el intervalo de duración t, no depende del tiempo de
trabajo sin fallo precedente hasta el origen del intervalo de
duración t, sino depende solamente de la duración
del tiempo t" (para una intensidad de fallos)
to t
|————|————–|
0 to to+t
P(T>to+t/ T>to) =
P(T>t)
Por lo tanto: P(T>to+t/
T>to)=P(T>t)
En otras palabras, la probabilidad de que un elemento
que no ha fallado en el intervalo (0;to) de
duración to; no falle el el intervalo
(to;to+t) de duración t, sólo
depende de la duración de tiempo t
Por esta propiedad se dice también que la
distribución Exponencial no tiene memoria.
Ejemplo:
El tiempo de trabajo sin fallo de un elemento esta
distribuido según la distribución Exponencial con
una intensidad de fallos 0.011 fallos/h
a) Calcule la probabilidad de que el elemento funcione
sin fallar durante 50h.
b) Si el elemento ha trabajado sin fallar durante 100h;
cuál es la probabilidad de que trabaje 50 horas más
sin fallar.
Solución:
X: tiempo de trabajo sin fallo
X~ E( = 0.011)
a) P(X >50)= 0.5770
b)
Distribución
Normal
La distribución normal es una de las
distribuciones más importante de todas, dado por las
múltiples aplicaciones que la misma tiene. Su propio
nombre indica su extendida utilización, justificada por la
frecuencia o normalidad con la que ciertos fenómenos
tienden a parecerse en su comportamiento a esta
distribución.
Muchas variables aleatorias continuas presentan una
función de densidad cuya gráfica tiene forma de
campana.
En resumen, la importancia de la distribución
normal se debe principalmente a que hay muchas variables
asociadas a fenómenos naturales que siguen el modelo de la
normal.
– Caracteres morfológicos de individuos (personas,
animales,
plantas,…)
de una especie.
Por ejemplo: tallas, pesos, diámetros…
– Caracteres sociológicos, por ejemplo:
consciente intelectual, grado de adaptación a un
medio.
– Errores cometidos al medir ciertas magnitudes.
– Molienda diaria de un central azucarero
-Tiempo de vida de determinado componente.
-Valores estadísticos muestrales, por ejemplo: la
media.
– Otras distribuciones como la binomial o la Poisson bajo ciertas
condiciones son aproximaciones normales.
Como puede apreciarse de los ejemplos relacionados,
estas situaciones se pueden presentar en diversos campos de
la ciencia y
la técnica y como podemos concluir, no será posible
caracterizar de manera genérica a una variable Normal. De
ahí que su estudio parta directamente de su
definición.
Distribución Normal:
Sea X una variable aleatoria continua; si la
función de densidad probabilística de X viene dada
por:
–
< x <
se dice que X sigue una distribución de
probabilidad Normal
parámetros: µ y donde:
-<µ<+ y > 0
puede demostrarse que:
E(X)=µ, V(X)=² y
(X)=
Como en otras anteriores se utilizará la
notación X ~ N(µ;²) para referirse a
que una variable sigue distribución Normal con media
µ y varianza ².
Ej.: X ~ N(9;4)
entonces X sigue distribución Normal con
E(X)== 9 y V(X)=2 = 4
Representación gráfica
La forma de la función de densidad es la llamada
campana de Gauss.
Como cualquier otra función de densidad, se
cumple que y
f(x) > 0 para todo
< x <+
Observe también en la forma de la
distribución como la media está en el centro de la
misma.
De ahí se desprende la primera propiedad muy
importante de esta distribución
Ello implica que:
P(X > ) = P(X < ) = 0,5
Un planteamiento más general
será:
P(X > + a) = P(X <
-a)
Esta propiedad es muy útil para el cálculo
de probabilidades. Esa propiedad también implica que la
mediana Me = y su valor máximo lo toma en x= ,
por tanto la moda
Mo = , es decir
En esta distribución se cumple también las
siguientes identidades:
Esta propiedad conocida como Regla de las
se toma con frecuencia para ver si puede
considerarse que un conjunto de valores proviene de una población normal.
Comparación de curvas con
distribución normal y diferentes
parámetros
- Variación de 2 con
constante
Observen como cuando es pequeña los
valores de la variable alejados del E(X) (de µ) son muy
poco probables ya que la curva se hace más aguda y los
valores de X van a estar concentrados alrededor de
µ.
- Variación de con 2
constante
Observe que cuando varía la media con la varianza
constante ocurre un desplazamiento de la
distribución.
Cálculo de probabilidades.
Tipificación o
estandarización.
Al igual que en el resto de las distribuciones un
objetivo
esencial es calcular probabilidades de eventos. Para una variable
aleatoria continua se hace integrando su f(X), y para la
función normal, según la expresión que
presenta, resulta bastante trabajoso y complejo.
Por otra parte al tener esta distribución dos
parámetros los cuales pueden tomar infinitos valores
tampoco resulta práctico el uso de tablas para cada
y .
Esto se solucionó al ver que cualquier variable
aleatoria normal luego de ciertas transformaciones conduce a la
obtención de una única variable aleatoria normal a
la cual se le llamado variable aleatoria normal estándar o
tipificada.
La transformación se logra de la siguiente
forma:
La conveniencia de realizar esta transformación
estriba en que si para esta nueva variable calculamos su
media,
E(Z)= E = [ E(X)
– E() ] = (0) = 0 dado que E(X) =
V(Z) = V = V(X –
) = = 1 dado
V(X) =2
O sea, realizando el proceso de
tipificación se logra transformar cualquier variable
normal en otra con media 0 y varianza 1 y esto permite tabular
esta distribución única, la de Z
Para la cual la distribución
quedaría
para
– < Z < +
y aparecen en una tabla solamente las probabilidades
correspondientes a la normal estándar, a partir de la cual
calcularemos las probabilidades para cualquier variable aleatoria
normal haciéndole el proceso de tipificación de la
siguiente forma:
También para esta distribución hay varias
tablas que dan probabilidad de diferentes tipos de
eventos.
P ( Z t) P ( Z t) P (0 Z
t)
Un aspecto a tener en cuenta para el uso de la tablas de
la distribución normal es que se aprovecha la propiedad de
simetría.
Por ejemplo en la utilización de las tablas
que brindan probabilidades de la cola derecha
[P(X≥x)]
Ejemplo: Consideremos X ~ N(7;4).
P(X< k) = 0,1587; Hallar k
en este caso al intervalo de valores de la variable para
el cual se determinó esa probabilidad es
- a y la probabilidad que se le asocia es menor que 0,5 por lo
tanto el área bajo la curva normal que
resulta de interés
comienza en el extremo izquierdo y termina antes de la mitad de
la distribución (pues hasta la mitad seria probabilidad
0,5)
De modo que el valor equivale a un valor negativo de Z
El planteamiento para resolver esa probabilidad es
(según tabla disponible)
ya
que P(Z < – z) = P(Z > z) =
Entonces entrar a la tabla de P(X x) con 0,1587
para buscar el valor de z. Luego igualar ese valor de Z obtenido
pero con signo negativo a (k – 7)/ 2 y despejar
k
-1= -2
= k – 7 k= 5
Combinación lineal de variables
aleatorias normales.
Sean X1, X2,…,Xn; n
variables aleatorias independientes donde Xi ~ para i=1,2,…,n y
sea
Y=C1 X1 + C2
X2 +…+ CnXn donde Ci son n
constantes arbitrarias.
Entonces: Y ~
Ejemplo:
Dadas las variables X ~N(1,4); Y ~N(1,3) y V ~N(4,2)
independientes y conociendo que W =X+Y+V.
a) Determine la distribución de W
b) Calcule P(W>8)
Solución:
a) W=X+Y+V
E(W)=E(X)+E(Y)+E(V)=1+1+4=6
V(W)=V(X)+V(Y)+V(V)=4+3+2=9
entonces: W~N(6,9)
b)
P(W>8)=P(Z>8-6/3)=P(Z>0.66)=0.2546
Un caso particular de una combinación lineal de
variables Normales lo constituye la media muestral:
Sabemos que
Si Xi~N(µ; ²) identicamente
distribuidas e independientes
entonces tendremos:
=1/n
X1 + 1/nX2 + …. + 1/nXn
E()=1/nE(X1) + 1/nE(X2) + … +
1/nE(Xn)=nµ/n = µ
E()= µ
V()=1/n²V(X1) + 1/n²V(X2) +
… + 1/n²V(Xn)=n²/n² =
²/n
V()=²/n
Ejemplo:
El diámetro final de un cable eléctrico
armado está Normalmente distribuido con media 0.775 y
desviación típica de 0.010
a) Determine la media y la desviación
típica de las medias muestrales de 9
diámetros.
b) ¿Que % de las medias referidas en el inciso a)
pudieran estar por debajo de 0.772?
Solución:
a) E()=µ=0.775
V()=²/n =
=0.003
b) P(< 0.772) = P(Z< 0.0772-0.775/0.003)
= P(Z<-1) = P(Z>1) = 0.1587
Aproximadamente 16% de las medias de muestras de 9
diámetros estarán por debajo de 0.772.
Teoremas Límites y
aproximaciones.
Se presentan dos teoremas que constituyen pilares
importantes en la teoría
de las probabilidades y la estadística matemática, puesto que
constituyen los fundamentos de innumerables procedimientos y
decisiones de estas disciplinas. Dentro de estos fundamentos que
ellos sustentan se encuentran las aproximaciones entre las
distribuciones.
Ley débil de los grandes
números:
Sean X1, X2,…., Xn v.a independientes e
idénticamente distribuidas [E(Xi)=µ y
V(Xi)=²]para i=1, 2, …, n entonces si definimos
=X1+X2+..+Xn/n
se cumplirá entonces para todo >0 ( es
tan pequeño como se quiera).
lim P (|-µ|>)=0
n–>
En esta formulación de la ley de los grandes
números se concluye que la media muestral se aproxima a la
media poblacional si el número de observaciones o
tamaño de la muestra de la
cual se obtiene es muy grande.
En otra de sus versiones se concluye que la frecuencia
relativa de un evento [fr(a)] se aproxima a la probabilidad del
evento [P(a)] si el número de pruebas que se
realizan para obtenerla es muy grande.
En este teorema se sustenta en su esencia toda la
estadística ya que los métodos de
estas se basan en tomar muestras para inferir para toda la
población. La demostración de este teorema se hace
aplicando la desigualdad de Tchebyshev.
La ley de los grandes números constituye un
ejemplo que confirma la afirmación del materialismo
dialéctico sobre la relación entre la casualidad y
la necesidad, esto se manifiesta en el hecho de que si tomamos
una muestra lo suficientemente grande de una variable aleatoria
cuyo valor esperado es µ, si bien es cierto que los valores
que ella toma son aleatorios, necesariamente la media de dicha
muestra será un valor aproximadamente igual a
.
Teorema del límite central (TLC).
El teorema del límite central es quizás el
más importante teorema de las probabilidades y la
estadística desde ambos puntos de vistas, teórico y
práctico.
En términos generales el afirma que bajo un
conjunto de condiciones o restricciones ligeras
(prácticamente sin restricciones), una suma de un
número grande de variables aleatorias, tiene
aproximadamente una distribución normal; y en la
práctica cualquier variable que estudiemos puede
considerarse que sus posibles valores son resultados de
innumerables variables que las conforman.
Su formulación matemática se presenta a
continuación:
Sea X1, X2,…, Xn, n
variables aleatorias con medias y varianzas finitas y sea Sn
definida por Sn=X1+X2+…+Xn
entonces:
~ N
(0,1)
* Note que no interesa conocer la distribución de
las Xi
Caso particular:
X1, X2,…., Xn; son
independientes e idénticamente distribuidas con
E(Xi)=µ y V(Xi)=² para i=1,…..,n entonces,
si Sn =X1+X2+….+Xn se concluye
que:
~ N
(0, 1) donde V(Sn) = n 2
y más particular aún
conociendo ya que E()=µ
V()=²/n
entonces por TLC tendremos
~
N(0,1)
Ejemplo de aplicación Teorema límite
central:
Considere que latas de frutas son producidas de manera
independiente y que el peso medio y la varianza de estas son 8
oz. y 0.5 oz². respectivamente. Si estas se distribuyen en
cajas de 48 latas, ¿Cuál es la probabilidad de que
el peso de una caja sea superior a 24,5 libras?
Xi: peso de una lata de frutas
(ozs.)
E(Xi)=8
V(Xi)=0.5 para i=1,….,48
W: Peso de una caja de latas de frutas W-E(W)/
V(W) ~N(0,1)
E(W)=E(X1)+E(X2)+…..+E(X48)=48*8=384 onz
V(W)=V(X1)+V(X2)+….+V(X48)=48*0.5=24
onz²
24,5 lbs=24,5*16 onz=392 onz.
P(W>392)=P(Z>392-384/_24)=P(Z>1.63)=0.0516
Aproximación
Normal-Binomial:
Esta aproximación constituye una
aplicación práctica del TLC, si se conoce que la
variable Binomial X:"# de éxitos en n pruebas
independientes Bernoulli", se
puede expresar como una suma de n variables aleatorias
Bernoulli
X=X1+X2+….+Xn donde
Xi~ Bernoulli
además se conoce que E(X) = np V(X) =
npq
entonces aplicando el TLC
~
N(0,1)
Empíricamente se ha comprobado que buenas
aproximaciones de Normal a Binomial se logran si np>5 cuando p
1/2 ó nq>5 cuando p>1/2
Como se trata de usar una distribución de
variable aleatoria continua para calcular aproximadamente
probabilidades de una distribución de variable aleatoria
discretas, en muchas ocasiones se hace lo que se denomina
"corrección de continuidad", esta en su esencia, consiste
en sumar al límite superior 0.5 y restar al inferior 0.5
partiendo de la base de que esos valores extremos pertenezcan al
evento al cual se le haya la probabilidad.
Ejemplo:
El 4 % de los tornillos producidos por una cierta
fábrica son defectuosos. Calcule la probabilidad de una
caja con 200 tornillos escogidos aleatoriamente.
1. contenga entre 2 y 5 tornillos defectuosos (ambos
inclusive)
2. contenga exactamente 4 tornillos
defectuosos
X:# de tornillos defectuosos en una caja de 200
tornillos.
X ~ B(200;0,04)
como np=200*0.04=8>5 y p<0.5
se puede utilizar la Normal como
aproximación.
entonces X ~ N(np = 8; npq = 7.68)
1) P(2 X 5)=P(1.5 < X <
5.5)=P(1.5-8/7.68 < Z < 5.5-8/7.68
)
=P(-2.34 < Z <-0.9)
=P(Z>0.9)-P(Z>2.34)=0.1841-0.00964
=0.1745
2)
P(X=4)=P(3.5<X<4.5)=P(3.5-8/7.68<Z<4.5-8/7.68
)
=P(-1.62<Z<-1.26)
=P(Z>1.26)-P(Z>1.62)=0.1038-0.0526
=0.0512
Aproximación Normal-Poisson.
También esta aproximación constituye una
aplicación del TLC. Sabemos que la variable Poisson
expresa X: # de ocurrencias de cierto suceso en un intervalo de
duración t.
Si es relativamente grande se puede considerar al
dividir el intervalo [0;t] en n sub-intervalos iguales que en
cada uno de esos sub-intervalos hay o existe un flujo elemental
de sucesos y por tanto en cada uno de ellos se puede definir una
variable Poisson.
0 X1 X2 X3
X4 …… ………. Xn
|—-|—-|—-|—-|—-|—-|—-|—-|—–>
t
y por tanto
X = X1+X2+….+Xn y
sabemos que E(X) = = V(X)
Entonces, por el TLC:
~N(0,1)
Utilizándose también la corrección
de continuidad por las razones ya vistas en la
aproximación anterior.
El criterio del valor de grande que utilizan la
mayoría de los autores es > 10;
Ejemplo:
A un taller de mecánica arriban como promedio 100 autos
mensuales. Si los arribos de autos siguen una distribución
Poisson. Calcule la probabilidad de que en un mes arriben
más de 80 autos.
X: # de autos que arriban en un mes.
X~P( =100) como es grande considero
X~N(100;100)
P(X>80=P(X_81)=P(X>80.5
)=P(<Z>80.5-100/100)
=P(Z>-19.5/10)=P(Z>1.95)=1-P(Z>1.95)
=1-0.0256=.9744
Sistemas de dos variables aleatorias.
Clasificación.
En la práctica nos encontramos con
fenómenos aleatorios donde se hace necesario definir dos o
más variables aleatorias.
La generalización de los conceptos vistos en una
variable aleatoria al de sistema de n
variables aleatorias, no debe verse simplemente como una
cuestión de interés teórico, todo lo
contrario; en la mayoría de los problemas
prácticos que debemos resolver, interactúan
más de una variable aleatoria. Un sistema de n variables
aleatorias, se puede representar como: (X1, ….., Xn); ahora
bien, sólo los extenderemos a los sistemas de dos
variables aleatorias, el cual se denota por (X,Y)
Por ejemplo:
1. En el mantenimiento
o reparación de un equipo puede interesar el sistema
(X,Y), donde:
X: Tiempo de espera para ser reparado.
Y: Tiempo que demora la reparación.
2. En una central telefónica puede
interesar:
X: # de llamadas telefónicas que recibe la
central.
Y: # de llamadas en las que se estableció
comunicación.
De acuerdo al tipo de las variables, los sistemas se
clasifican en:
– de variables aleatorias discretas.
– de variables aleatorias continuas.
Centraremos la atención en sistemas de variables
continuas.
Función de densidad
probabilística conjunta de dos variables aleatorias (X,Y)
contínuas.
Sea (X,Y) un sistema de dos variables aleatorias
contínuas; f(x,y) será una función de
densidad probabilística conjunta del sistema (X,Y)
si:
P(a ≤ X ≤ b; c ≤ Y ≤ d) =
y cumple con las propiedades:
1. f(x,y) ≥ 0 para todo (x,y)
R²
2. =
1
Para calcular probabilidades se integra la
función de densidad conjunta:
Ejemplo:
Sea el sistema de dos v.a. contínuas: (X,Y) y
f(x,y) su función de densidad conjunta:
Calcule:
Función de densidad marginal para
variables aleatorias
continuas.
Cuando se trabaja con un sistema de dos variables
aleatorias puede surgir la necesidad de calcular probabilidades
relacionadas con una sola variable, siendo conveniente entonces,
determinar la ley de probabilidad de esa variable, lo que es
enteramente posible si se conoce la ley de probabilidad del
sistema.
Para el caso de variables aleatorias continuas se
define:
Si (X,Y) es un sistema de dos variables aleatorias
continuas y f(x,y) la función de densidad conjunta
correspondiente, entonces:
función de densidad marginal de X
función de densidad marginal de Y
Función de densidad
condicional.
También en los sistemas de dos variables
aleatorias continuas se definen las denominadas funciones
condicionales, ya que en ocasiones resulta de interés el
cálculo de probabilidades de determinados eventos de una
variable dado que la otra toma un determinado valor.
Se podrán definir, dos funciones: de X dado Y y
de Y dado X, esto es:
respectivamente
Variables aleatorias
independientes.
La noción de variable aleatoria independiente es
una de las nociones fundamentales de la teoría de las
probabilidades.
Se dice que la variable aleatoria Y es independiente de
la variable aleatoria X si la ley de probabilidad de Y no cambia,
cuando cambian los valores de X y viceversa.
Si (X,Y) es un sistema de dos variables aleatorias
contínuas y f(x,y) su función de densidad conjunta,
diremos que X y Y son variables aleatorias independientes si y
sólo si
f(x,y)=f(x) f(y) para todo (x,y)
R²
Si no se cumple lo anterior diremos que las variables X
y Y son dependientes.
Ejemplo:
Para el caso tratado anteriormente
Hallar f(x) y f(y)
de
manera similar obtendremos que f(y) = 2y
de donde 4xy=2x2y; por tanto: f(x,y)=f(x)f(y) y podemos
decir que estas variables son independientes.
Covarianza y coeficiente de
correlación.
Existen características que nos permiten
profundizar algo más en el
conocimiento del comportamiento conjunto de dos variables
aleatorias y en específico sobre la influencia que sobre
una variable aleatoria ejerce la otra.
Para ejemplificar lo que queremos decir consideren que
estamos estudiando el "desgaste que sufre una pieza dada de un
tipo de transporte
automotor", pero analizamos que sobre este pueden influir los
kilómetros recorridos por dicho transporte y por tanto
necesitaría un valor que nos características la
relación entre esas variables o cuando estudiamos la
molienda de un central azucarero y necesitamos tener información de como influye en ella los
milímetros de lluvia caída en la zona durante los
meses de zafra, etc.
Covarianza:
Al ver las propiedades del valor esperado y la varianza,
se planteó valor esperado de una suma como la suma de los
valores esperados. Para la varianza se planteó que la
varianza de una suma es la suma de las varianzas si las variables
eran independientes. Esto obedece a que la varianza de una suma
no tiene igual expresión para cualquiera sean las
variables aleatorias y basándose en el desarrollo de
la varianza de una suma se puede llegar a la expresión que
se define como covarianza.
Dadas dos variables aleatorias X y Y
V(X+Y) = E{[(X+Y)-E(X+Y)]²}
= E{[X+Y-E(X)-E(Y)]²}
Agrupando convenientemente, queda:
V(X+Y) = E{[(X-E(X))+(Y-E(Y))]²}
y ahora desarrollando el cuadrado perfecto
V(X+Y)=E{[X-E(X)]² + 2[X-E(X)][Y-E(Y)] +
[Y-E(Y)]²}
Desarrollando el valor esperado se obtiene:
V(X+Y)=E{[X-E(X)]²} + 2E{[X-E(X)][Y-E(Y)]} +
E{[Y-E(Y)]²}
El primer y tercer término de la ecuación
representan la V(X) y V(Y) respectivamente.
Por lo tanto: V(X+Y) = V(X(c) + V(Y(c) +
2E{[X-E(X)][Y-E(Y)]}
La expresión E{[X-E(X)][Y-E(Y)]} recibe el
nombre de covarianza
y se denota C(X,Y), o sea:
C(X,Y)= E{[X-E(X)][Y-E(Y)]}
Al desarrollar el producto
contenido en la expresión se obtiene:
C(X,Y) = E(XY) – E(X) E(Y)
La expresión general de la varianza de una suma
de dos variables aleatorias quedaría como:
V(X+Y) = V(X) + V(Y) + 2C(X,Y)
Del análisis de la expresión de la
covarianza se puede concluir que puede ser positiva, negativa e
incluso cero. Entonces la C(X,Y) puede tomar cualquier valor
real.
Al interpretar prácticamente la Covarianza
decimos que es una medida de la variación conjunta de dos
variables aleatorias. Al analizar esta variación conjunta
se pueden presentar 3 situaciones:
- Si para los mayores valores de una de las variables
aleatorias, la otra también toma los valores mayores con
alta probabilidad, o si para los menores valores de una de las
variables, la otra también toma sus menores valores con
probabilidad grande, entonces puede afirmarse que la
covarianza será un valor positivo
grande. - Si para los mayores valores de una de las variables
aleatorias, la otra toma sus menores valores con probabilidad
alta y viceversa, entonces la covarianza de dichas variables
será un número negativo grande. - Si para los mayores valores de una de las variables
la otra toma con igual o similar probabilidad valores
pequeños o grandes entonces la covarianza será
cero o muy cercana a cero.
Propiedades de la covarianza
1) | C(X,Y) | ≤
2) C(X,Y) = C(Y,X)
3) C(aX,bY) = ab C(X,Y)
4(r) C(X,mx+b) = mV(X)
Coeficiente de correlación
De la definición de la covarianza se deduce que
esta tiene una dimensión igual al producto de las
dimensiones de las magnitudes aleatorias X y Y.
Si X y Y están en cm, C(x,y) estará en
cm².
Esto es una deficiencia de esta característica
numérica, puesto que se dificulta la comprensión de
las covarianzas para distintos sistemas de variables
aleatorias.
Para evitar esta deficiencia se define el coeficiente de
correlación que se denota (X,Y) y se define
como:
La magnitud del coeficiente de correlación no
depende de la selección
de las unidades de las variables aleatorias. En esto reside su
ventaja con respecto a la covarianza.
(X,Y) es también una medida de la
variación conjunta de las variables aleatorias X y Y , es
una constante para cada sistema aleatorio (X,Y).
Propiedad del coeficiente de
correlación
Interpretación de un valor dado de
(X,Y):
| (X,Y)| = 1 Cuando una variable aleatoria es
una función lineal exacta de la
otra (y=mx+b)
(X,Y)=1 Si m es positiva
(X,Y)=-1 Si m es negativa
(X,Y) > 0 (cercano a 1); cuando una variable
aumenta sus valores, la otra tiende a aumentar también
(fuerte correlación lineal positiva)
(X,Y) < 0 (cercano a -1); cuando una
variable aumenta sus valores, la otra tiende a disminuir
(fuerte correlación lineal negativa)
Entonces el coeficiente de correlación brinda
información sobre el grado de relación lineal entre
las variables aleatorias.
Variables aleatorias incorrelacionadas
Si (X,Y) = 0 decimos que las variables
aleatorias X y Y están incorrelacionadas o no
correlacionadas.
(X,Y) = 0 sí y solo sí C(X,Y) =
0
si (X,Y) ≠ 0 X y Y están
correlacionadas
Propiedades de las variables aleatorias
incorrelacionadas
1. (X,Y) = 0
2. C(X,Y) = 0
3. E(XY)= E(X)E(Y)
4. V(X+Y) = V(X-Y) = V(X) + V(Y)
Relación entre las variables aleatorias
incorrelacionadas y las independientes
Si X y Y son independientes, se cumple que:
f(x,y) =f (x)f(y)
entonces E(XY) = para X y Y pero como son independientes
E(XY) =
Por lo tanto: E(XY)=E(X)E(Y); por lo que concluimos
que:
* Las variables aleatorias independientes son
también incorrelacionadas
Pero no siempre se cumple en el otro sentido es
decir:
* No todas las variables aleatorias incorrelacionadas
serán independientes
Bibliografía:
- Guerra Bustillo, Caridad y otros:
Estadística. - Hernández Simón, Luis Manuel
y otros: Probabilidades. - Freund and Millar: Probabilidad y
estadística para ingenieros. - Walpole, Ronald E; Myers, Raimond H; Myers,
Sharon L: Probabilidad y estadística para
ingenieros
Autores;
MSc. Ing..I� Hilario Rodríguez
Pérez
Profesor Auxiliar ISPJAE, Cuba.
hrodrig[arroba]ind.cujae.edu.cu
MSc. Ing. Regla Lamar Meneses
Profesor Auxiliar ISPJAE, Cuba.
Página anterior | Volver al principio del trabajo | Página siguiente |