metodos numericos
Short Description
Descripción: metodos...
Description
HISTORIA DE METODOS NUMERICOS En el 2000 A.C. se encentran métodos para aproximar algunas medidas en triángulos y círculos.
En 1650 A.C. el Papiro de Rhynd, explica un método para encontrar raíces de ecuaciones sencilla sin el uso de algebra.
En 250 A.C. Euclides desarrolla un método de Exhausción, para aproximar áreas, con este obtiene un valor muy aproximado de Pi
En 900 D.C. Explosión de las matemáticas árabes All-Warizmi Al-Karayi Ibrahim.
Creación de métodos algebraicos y revisión de los métodos numéricos disponibles a la época.
Inicio de los métodos algorítmicos para resolver problemas.
En 1623 Keppler utiliza una máquina para realizar cálculos de forma práctica que usó en estudios astronómicos; ésta podía realizar muchas operaciones y hasta guardar los pasos intermedios, para ser utilizados en otros cálculos.
Leibnitz se interesa por métodos desarrollados por Arquímedes y desarrolla metodologías similares con las cuales se da inicio al cálculo diferencial e integral. Diseña entre otras cosas una máquina conocida como la máquina calculadora, que permite resolver ecuaciones en diferencias y métodos de series de potencias para aproximar valores de funciones
Newton desarrolla una gran cantidad de métodos para realizar numéricamente procedimientos matemáticos. El más famoso es la interpolación polinomial, pero mucho de los métodos usados actualmente son generalizados por las ideas de él.
En 1768 motivado por el trabajo de Newton y Leibnitz, Euler desarrolla un método para encontrar soluciones aproximadas a problemas de ecuaciones diferenciales con los que se da inicio a los métodos de integración numérica.
CONCEPTO DE EXACTITUD
La exactitud se refiere a qué tan cercano está el valor calculado o medido del valor verdadero. La exactitud es una propiedad del procedimiento de medida.
Denominamos exactitud al grado de concordancia de una serie de medidas con el valor verdadero del mensurando. La exactitud es una propiedad cuantitativa ya que el ‘grado de concordancia’ se puede expresar mediante un estadístico como el error cuadrático medio (ECM):
mi−m ¿ ¿ ¿2 ¿ ∑¿ ¿ ECM= √ ¿ Error cuadrático medio.
Donde
mi
el resultado de la i-ésima medición;
m
es el valor verdadero y
n
es el número
de réplicas o medidas. La exactitud depende del método y del procedimiento de medida, por lo que habrá que poner especial interés en elegir métodos y procedimientos de medida que proporcionen los errores reducidos.
CONCEPTO DE PRECISIÓN
La precisión se refiere a qué tan cercanos se encuentran, unos de otros, diversos valores calculados o medidos. La precisión es una propiedad del procedimiento de medida.
Denominamos precisión al número de cifras significativas con que se obtiene una serie de medidas. La precisión es una propiedad cuantitativa y se expresa en función de la unidad de medida.
La precisión está asociada al concepto de resolución de la escala, entendiendo que la resolución es la menor diferencia de indicación de un dispositivo visualizador que puede percibirse de forma significativa.
Precisión y exactitud suelen estar relacionados pero son conceptos diferentes:
Ejemplo 1: Una cinta métrica puede ser muy precisa al presentar divisiones hasta milímetros, o incluso acompañarse de dispositivos para aumentar esa resolución de la escala, pero al mismo tiempo ser poco exacta si presenta un error sistemático o si la estabilidad dimensional no es suficiente. Ejemplo 2: Los agujeros en cada blanco de la figura se consideran como las predicciones con una técnica numérica; mientras que el centro del blanco representa la verdad. La inexactitud (conocida también como sesgo) se define como una desviación sistemática del valor verdadero. Por lo tanto, aunque los disparos en la figura c están más juntos que los de la figura a, los dos casos son igualmente inexactos, ya que ambos se centran en la esquina superior izquierda del blanco. La imprecisión (también llamada incertidumbre), por otro lado, se refiere a la magnitud en la dispersión de los disparos. Por consiguiente, aunque las figuras b y d son igualmente exactas (esto es, igualmente centradas respecto al blanco), la última es más precisa, pues los disparos están agrupados en forma más compacta
CONCEPTO DE ERROR Y TIPOS DE ERROR
Los errores numéricos surgen del uso de aproximaciones para representar operaciones y cantidades matemáticas exactas. Éstas incluyen los errores de truncamiento que resultan del empleo de aproximaciones como un procedimiento matemático exacto, y los errores de redondeo que se producen cuando se usan números que tienen un límite de cifras significativas para representar números exactos. Para ambos tipos de errores, la relación entre el resultado exacto, o verdadero, y el aproximado está dada por.
Valor verdadero=Valor aproximado+ error
(1)
ERROR ABSOLUTO Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida.
Reordenando la ecuación se encuentra que el error numérico es igual a la diferencia entre el valor verdadero y el valor aproximado, es decir
Et =valor verdadero – valor aproximado
Donde
Et
se usa para denotar el valor exacto del error. El subíndice
(2)
t
indica que se trata del
error “verdadero” (true). Como ya se mencionó brevemente, esto contrasta con los otros casos, donde se debe emplear una estimación “aproximada” del error
ERROR RELATIVO Es el cociente (la división) entre el error absoluto y el valor exacto. Si se multiplica por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error absoluto puede ser positivo o negativo (según lo sea el error absoluto) porque puede ser por exceso o por defecto. No tiene unidades.
Por ejemplo: Un error de un centímetro es mucho más significativo si se está midiendo un remache en lugar de un puente. Una manera de tomar en cuenta las magnitudes de las cantidades que se evalúan consiste en normalizar el error respecto al valor verdadero, es decir
Error relativo fraccional verdadero=
error verdadero valor verdadero
Donde, como ya se mencionó en la ecuación (2), error = valor verdadero – valor aproximado. El error relativo también se puede multiplicar por 100% para expresarlo como
Et =
Donde
Et
error verdadero 100 % valor verdadero
(3)
denota el error relativo porcentual verdadero.
HERRAMIENTAS COMPUTACIONALES
Excel es una hoja de cálculo producida por Microsoft Inc. Las hojas de cálculo son un tipo especial de software para matemáticas que permite al usuario ingresar y realizar cálculos en renglones y columnas de datos. Como tales, son una versión computarizada de una gran hoja de contabilidad en la que se lleva a cabo una gran cantidad de cálculos interrelacionados. Puesto que cuando se modifica un valor de la hoja, hay que actualizar todos los cálculos, las hojas de cálculo son ideales para hacer análisis del tipo.
Excel cuenta con varios recursos numéricos inter construidos como resolución de ecuaciones, ajuste de curvas y optimización. Incluye también VBA como un lenguaje de macro que sirve para hacer cálculos numéricos. Por último, tiene varias herramientas para la visualización como diagramas y gráficas tridimensionales, que son un valioso complemento para el análisis numérico
MATLAB es el principal producto de software de Mathworks, Inc., fundada por los analistas numéricos Cleve Moler y John N. Little. Como su nombre lo indica, MATLAB se desarrolló originalmente como un laboratorio para matrices ya que agrega varias funciones numéricas, cálculos simbólicos y herramientas para visualización. En consecuencia, la versión actual representa un ambiente computacional bastante amplio. MATLAB tiene diferentes funciones y operadores que permiten la adecuada realización de los métodos numéricos
CIFRAS SIGNIFICATIVAS
El concepto de cifras o dígitos significativos se ha desarrollado para designar formalmente la confiabilidad de un valor numérico. Las cifras significativas de un número son aquellas que pueden utilizarse en forma confiable. Se trata del número de dígitos que se ofrecen con certeza, más uno estimado.
Por ejemplo: El velocímetro y el odómetro de la figura muestran lecturas de hasta tres y siete cifras significativas, respectivamente. Para el velocímetro, los dos dígitos seguros son 48. Por convención al dígito estimado se le da el valor de la mitad de la escala menor de división en el instrumento de medición. Así, la lectura del velocímetro consistirá de las tres cifras significativas: 48.5. En forma similar, el odómetro dará una lectura con siete cifras significativas, 87 324.45.
Aunque, por lo común, determinar las cifras significativas de un número es un procedimiento sencillo, en algunos casos genera cierta confusión. Por ejemplo, los ceros no siempre son cifras significativas, ya que pueden usarse sólo para ubicar el punto decimal: los números 0.00001845, 0.0001845 y 0.001845 tienen cuatro cifras significativas. Asimismo, cuando se incluye ceros en números muy grandes, no queda claro cuántos son significativos.
El concepto de cifras significativas tiene dos implicaciones importantes en el estudio de los métodos numéricos. 1. Se deben desarrollar criterios para especificar qué tan confiables son dichos resultados. Una manera de hacerlo es en términos de cifras significativas. Por ejemplo, es posible afirmar que la aproximación es aceptable siempre y cuando sea correcta con cuatro cifras significativas. 2. Aunque ciertas cantidades tales como π ,e , o √7 representan cantidades específicas, no se pueden expresar exactamente con un número finito de dígitos. Por ejemplo, π =3.141592653589793238462643 … Hasta el infinito.
Como las computadoras retienen sólo un número finito de cifras significativas, tales números jamás se podrán representar con exactitud. A la omisión del resto de cifras significativas se le conoce como error de redondeo. Los errores de redondeo y el uso de cifras significativas para expresar nuestra confianza en un resultado numérico se estudiarán con mayor detalle en las siguientes secciones. Además, el concepto de cifras significativas tendrá mucha importancia en la definición de exactitud y de precisión en la siguiente sección.
INTRODUCCIÓN
Muchos de los fenómenos de la vida real son modelados matemáticamente con el fin de poder explicarse, sin embargo en la mayoría de los casos éstos no pueden ser solucionados por medio de algún método exacto y aunque algunas veces se puede lograr su solución ésta puede resultar demasiado laboriosa en términos de tiempo y recursos computacionales. Los métodos numéricos (MN) solucionan este tipo de problema mediante la búsqueda de una solución numérica aproximada y el cálculo del error asociado, el cual se espera que sea lo suficientemente pequeño y es por eso esta razón que se analizara como surgen los métodos numéricos en la historia así como las razones y uso por las cuales se aplican en la vida cotidiana, del mismo modo aprenderemos las diferencias que existen entre exactitud y precisión de manera involucrada con el error. Se estudiara los tipos de errores más comunes que existen (inherentes, por redondeo y por truncamiento).Los errores absoluto y relativo con sus respectivas formulas así como también el saber que existen herramientas computacionales para obtener soluciones de una manera más práctica y fácil de resolver.
CONCLUSIÓN
Los conceptos de los métodos numéricos expuestos en este documento se concluye que existe una gran variedad de métodos para los diferentes problemas de resolución de ecuaciones y sistemas matemáticos, según su naturaleza. Muchas veces se tiene que para un determinado problema, el método utilizado no converja, por lo que es recomendable probar con otro con características similares en busca de una aproximación a la solución de la ecuación o sistema que se busca resolver La importancia de tener conocimientos sobre las características de cada uno radica en saber cuál método aplicar a determinado problema y encontrar así la mejor aproximación a la solución buscada.
View more...
Comments