- Métodos
numéricos - Importancia de métodos
numéricos - Cifras
significativas - Precisión y exactitud
- Incertidumbre
- Sesgo
- Definición de error
Métodos
numéricos
Son metodologías que utilizan técnicas
algebraicas y aritméticas que se realizan a partir de un
problema planteado para resolver de forma aproximada ecuaciones o
sistemas de ecuaciones complejas, que analíticamente
resultan muy difíciles de resolver, las cuales es posible
formular problemas con operaciones aritméticas.
En si es una herramienta matemática que ahora
gracias a lo avanzado de la programación (calculadoras),
ayudan a resolver problemas de iteración y
matemáticos.
Importancia de
métodos numéricos
El estudio de los métodos numéricos es muy
útil y por ende importante para quien quiera que necesite
herramientas para resolver operaciones, las cuales se saben que
pueden resultar complicadas, y por más que se dominen los
métodos tradicionales, estos muchas veces pueden no ser
suficientes, sin embargo esto no quiere decir que la
operación sea imposible de solucionar, y es ahí
donde los métodos numéricos se aplican, y facilitan
es trabajo de cierta manera. Los métodos numéricos
pueden ser aplicados para resolver procedimientos
matemáticos en: Cálculo de
derivadas, Integrales, Ecuaciones diferenciales, Operaciones
con matrices.
Cifras
significativas
Cifras significativas de un número son aquellas
que tienen significado real o aportan alguna información,
vienen determinadas por su error y son aquellas que ocupan una
posición igual o superior al orden o posición del
error.
Los números deben redondearse de forma que
contengan sólo cifras significativas. Las reglas que
emplearemos en el redondeo de números son las
siguientes:
• Si la cifra que se omite es menor que 5, se
elimina sin más.
• Si la cifra eliminada es mayor que 5, se aumenta
en una unidad la última cifra retenida.
• Si la cifra eliminada es 5, se toma como
última cifra el número par más
próximo; es decir, si la cifra retenida es par se deja, y
si es impar se toma la cifra superior.
Pero se le suelen llamar comúnmente a los
dígitos del 1 al 9 (incluidos el 1 y el 9). Por
ejemplo, cuando al pasar un número a notación
científica, se suele decir que la parte entera del
coeficiente debe ser una cifra y que además sea
significativa (no cero) por ejemplo 4,7 aquí vemos que el
4 es una cifra significativa, ya que está entre el 1 y el
9 y al momento de redondear queda 5.
Precisión
y exactitud
Precisión: se refiere a la dispersión
del conjunto de valores obtenidos de mediciones repetidas de una
magnitud. Cuanto menor es la dispersión mayor la
precisión. Una medida común de la variabilidad es
la desviación estándar de las mediciones
y la precisión se puede estimar como una función de
ella.
En si precisión es cuando un instrumento te da
siempre la misma medida ejemplo: cuando haces un experimento
varias veces, y los datos obtenidos caen dentro de un
pequeño rango de valores se dice que el método
utilizado es reproducible, es decir, que es preciso.
Exactitud: se refiere a cuán cerca del valor
real se encuentra el valor medido. En términos
estadísticos, la exactitud está relacionada con
el sesgo de una estimación. Cuanto menor es el
sesgo más exacto es una estimación.
En si exactitud se refiere a qué tan cercana
está esa medición de la realidad ejemplo: el valor
obtenido en un experimento es muy cercano al valor verdadero. Lo
que no te dice es que sea reproducible ese valor
verdadero.
Ejemplo general: si hablaras de un tiro al blanco.
preciso sería dar siempre en el mismo sitio; exacto
sería dar justo en el centro.
En métodos numéricos siempre se
implementan las dos técnicas precisión y
exactitud.
Incertidumbre
Es cuando tienes un problema y no sabes que va a pasar o
si tienes varias soluciones al problemas no sabes escoger cual
utilizar para que todo te salga bien es como una Probabilidad de
que un resultado esté fuera de la cota establecida o de un
gran margen de error sin certeza.
Sesgo
Es el alejamiento de un valor con respecto a una medida
de tendencia central (que puede ser la media) Cuando tienes
un grupo de datos, estos pueden ser representados por valores
promedio) como el promedio de calificaciones de todos los alumnos
de un examen.
Existe sesgo cuando la ocurrencia de un error no aparece
como un hecho aleatorio (al azar) advirtiéndose
que este ocurre en forma sistemática
En si es un alejamiento sistemático del valor
verdadero a calcular.
Definición
de error
Los errores numéricos se generan con el uso de
aproximaciones para representar las operaciones y cantidades
matemáticas.
Esto ocurre cuando tienes pocas interacciones, al
tener muchos el error baja, debido a que los métodos
numéricos no son exactos sino simples a aproximaciones a
un valor numérico, para que fueran exactos
necesitarías un numero de iteraciones infinitas lo cual no
es posible, además de cual es e método que vas a
utilizar. Cada uno tiene su nivel de error, y sirve para
diferentes cosas
Esto incluye errores de truncamiento que resultan de
representar aproximadamente un procedimiento matemático
exacto, y los errores de redondeo, que resultan de presentar
aproximadamente números exactos.
Para los tipos de errores, la relación entre el
resultado exacto o verdadero y el aproximado está dado
por:
Valor verdadero = valor aproximado +
error.
se encuentra que el error numérico es igual a la
diferencia entre el valor verdadero y el valor aproximado esto es
:
Ev = valor verdadero – valor
aproximado
Donde Ev se usa para redondear el valor exacto del
error. Se incluye el subíndice v par dar a entender que se
trata del "verdadero" error.
Un defecto es que muchas veces no se toma en
consideración el orden de magnitud del valor que se esta
probando . Por ejemplo, un error de un centímetro es mucho
mas significativo si se esta midiendo un remache que un puente.
Una manera de medir las magnitudes de las cantidades que se
están evaluendo es normalizar el error respecto al valor
verdadero, como en:
Error relativo fraccional = error / valor
verdadero
Donde:
Error = valor verdadero – valor
aproximado.
El error relativo también se puede multiplicar
por el 100% para expresarlo como Ev = (error verdadero/ valor
verdadero) 100; Donde Ev denota el error relativo porcentual. El
subíndice v significa la normalización del error al
valor verdadero.
Para los métodos numéricos el valor
verdadero únicamente se conocerá cuando se habla de
funciones que se pueden resolver analíticamente. Sin
embargo, en aplicaciones reales, no se conoce la respuesta
verdadera. En estos casos, normalizar el error es una alternativa
usando la mejor estimación posible del valor verdadero,
esto es a la aproximación misma, como:
Ea = (error aproximado/ valor
aproximado)100
Donde el
subíndice a significa que el error está
normalizado a un valor aproximado.Uno de los retos a que se
enfrentas los métodos numéricos es el de determinar
estimaciones del error en ausencia de conocimiento de los valores
verdaderos. El error se calcula como la diferencia entre la
aproximación previa y la actual. Por lo tanto, el error
relativo porcentual está dado por:
Ea =abs( ((aproximación actual-
aproximación previa )/ aproximación actual)
100)
Si se cumple la relación anterior,
entonces se considera que el resultado obtenido está
dentro del nivel aceptable, es decir, aun error previamente
fijado(Es):Abs(Ea) < >
ERROR POR TRUNCAMIENTO
Los errores de truncamiento son aquellos que resultan al
usar una aproximación en lugar de un procedimiento
matemático exacto.
Estos tipos de errores son evaluados con una
formulación matemática: la serie de Taylor. Taylor
es una formulación para predecir el valor de la
función en Xi+1 en términos de la función y
de sus derivadas en una vecindad del punto Xi.
EJEMPLO:
* 5,2536 (A CENTIMETRO) = 5,25.
* 9,217983 (A MILIMETRO) = 9,217.
ERROR POR REDONDEO.
Los errores de redondeo se deben a que las computadoras
solo guardan un numero finito de cifras significativas durante un
cálculo. Las computadoras realizan esta función de
maneras diferentes; esta técnica de retener solo los
primeros siete términos se llamó "truncamiento" en
el ambiente de computación. De preferencia se llamara de
corte, para distinguirlo de los errores de truncamiento. Un corte
ignora los términos restantes de la representación
decimal completa.
EJEMPLO:
* 5,2536 (A CENTIMETRO) = 5,25|3 (3 COMO ES <5) =
5,25.
* 9,217983 (A MILIMETRO) = 9,217|9 (9 COMO ES >5) =
9,218
ERROR ABSULUTO Y RELATIVO
Error absoluto. Es la diferencia entre el valor de la
medida y el valor tomado como exacto. Puede ser positivo o
negativo, según si la medida es superior al valor real o
inferior (la resta sale positiva o negativa). Tiene unidades, las
mismas que las de la medida.
FORMULA:
Ea= /Ve – Va/
Ea= Error Absoluto.
Ve= Valor Exacto.
Va= Valor aproximado.
Error relativo. Es el cociente (la división)
entre el error absoluto y el valor exacto. Si se multiplica por
100 se obtiene el tanto por ciento (%) de error. Al igual que el
error absoluto puede ser positivo o negativo (según lo sea
el error absoluto) porque puede ser por exceso o por defecto. No
tiene unidades
FORMULA:
Er = Error Relativo
Va = Valor Absoluto
Ve= valor Exacto
EJEMPLO:
Se desea medir una pared donde:
Va= 65
Ve= 70
Ea= Ve – Va = /70 – 65/ = 5 (el resultado siempre da
positivo).
ERROR NUMÉRICO TOTAL
El error numérico total es la suma de los errores
de redondeo y de truncamiento. (Los errores de truncamiento
decrecen conforme el número de cálculos aumenta,
por lo que se encara el siguiente problema:
la estrategia de disminuir un componente del error
total lleva al incremento del otro).
EJEMPLO:
Valor del error por truncamiento = 5,25.
Valor del erro por redondeo =
5,25.
Valor número total= 5.25 + 5.25=
10.5 error numérico total.
Autor:
Bachiller (es):
Prof. Edward del Corral
Rondón Ninoska
Ramírez Malvi
Mijares Luis
Método Numérico
Sección 3
REPÚBLICA BOLIVARIANA DE
VENEZUELA
MIISTERIO DEL PODER POPULAR PARA LA
EDUCACION SUPERIOR
UNIVERSIDAD NACIONAL
EXPERIMENTAL
"ROMULO GALLEGOS"
AREA DE SISTEMAS "INGENIERIA EN
INFORMATICA"
San Juan de los Morros, Octubre de
2013