Historia de Los Metodos Numericos
Short Description
Download Historia de Los Metodos Numericos...
Description
HISTORIA DE LOS METODOS NUMERICOS Los métodos numéricos no es el estudio de un matemático en particular, su propósito es el desarrollo de métodos de métodos para la solución de diversos problemas matemáticos mediante una infinita cantidad de operaciones numéricas. La importancia de esta rama de la matemática no es el problema en particular, si no el método que se aplicara. Por ende es importante comprender en que momento de la vida cotidiana nos sirve estos métodos. En el presente trabajo se analizara como surgen estos mismos, declarar la diferencia que existe entre exactitud y precisión en relación con el error. De igual manera se comentaran los errores más comunes que existen. Así como también es importante mencionar las herramientas computaciones para la obtención de soluciones de manera fácil y práctica. Los métodos numéricos se tienen desde los siglos XIX y XX, utilizando métodos numéricos aproximados. El papiro de Rhind es el documento matemático más antiguo que se conserva, data unos 200 años a. c. originario de las civilizaciones egipcias donde aparecen más de 80 problemas resueltos que trataba de calcular montones de volúmenes y el área de una circunferencia. En babilonia ya se tenía conocimiento para calcular aproximadamente raíces cuadradas. En cambio de la antigua Grecia fueron famosos los trabajos de Arquímedes en el siglo III a. c. El Papiro de Moscú y de Rhind, escritos de 1850 y 1650 A. de C. Ambos documentos incluyen ejemplos de cálculos que implican el manejo de ecuaciones lineales con una y dos incógnitas. Es con los griegos que aparece por primera vez, en el siglo V A. de C., la matemática como una ciencia que utiliza el método deductivo como herramienta funda mental para probar que un resultado es verdadero. A finales del siglo XIX se perfila la teoría de las series infinita, Principio del siglo XVIII aparece el cálculo de diferencias finitas. Con el surgimiento de las computadores digitales a mediados del siglo XX y su continuo desarrollo, la matemática numérica ha recibido un fuerte estimulo, ya que la computadora digital ha hecho posible la aplicación práctica de bastantes métodos numéricos. En la actualidad los métodos numéricos son un medio para fortalecer la compresión de las matemáticas, porque profundizan en los temas que de otro modo resultarían complejos, esto aumenta su capacidad de entendimiento de la materia. Es importante al momento de realizar estos métodos diferenciar los que es exactitud y precisión en relación con el error, la exactitud se refiere a que tan cercano está el valor calculado o medido del valor verdadero, en cambio la precisión es que tan cercanos se encuentran los valores el uno con el otro. Los errores numéricos surgen con el uso de aproximaciones para representar valores o las cantidades en las operaciones matemáticas. Dando así a los diferentes tipos de error que se pueden surgir como: inherentes, de redondeo, por truncamiento, absoluto y relativo. Definición de métodos numéricos, su importancia y el porqué “Son técnicas mediante las cuales es posible formular problemas matemáticos De tal forma que puedan resolverse usando operaciones aritméticas”
• Los métodos numéricos se utilizan para: • Solución de sistemas de ecuaciones lineales • Solución de ecuaciones no lineales y trascendentales • Encontrar un valor por medio de tablas: interpolación • Encontrar un comportamiento (un modelo) a partir de datos ajustando Una curva: ajuste de curvas • Integración numérica de una función • Solución numérica de ecuaciones diferenciales
Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda usarse con confianza. El concepto de cifras significativas tiene dos implicaciones importantes en el estudio de los métodos numéricos. 1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe desarrollar criterios para especificar que tan precisos son los resultados obtenidos. 2.- Aunque ciertos números representan número específicos, no se pueden expresar exactamente con un número finito de cifras. Exactitud y Precisión. La exactitud se refiere a que tan cercano está el valor calculado o medido del valor verdadero. La precisión se refiere a qué tan cercano está un valor individual medido o calculado respecto a los otros. La inexactitud se define como un alejamiento sistemático de la verdad. La imprecisión, sobre el otro lado, se refiere a la magnitud del esparcimiento de los valores. Los métodos numéricos deben ser lo suficientemente exactos o sin sesgos para que cumplan los requisitos de un problema particular de ingeniería. Error.
En general, para cualquier tipo de error, la relación entre el número exact9 y el obtenido por aproximación se define como: Error = Valor real -valor estimado En ocasiones, se sabrá exactamente el valor del error, que denotaremos como Ev, o deberemos estimar un error aproximado. Ahora, para definir la magnitud del error, o que incidencia tiene en el cálculo el error detectado, podemos normalizar su valor : Ea = Error relativo (fracción) = error estimado I valor verdadero Como el valor de Ea puede ser tanto positivo como negativo, en muchos casos nos interesa saber más la magnitud del error, caso en el cual usaremos el valor absoluto de este.
Un caso muy interesante es una investigación que realiza Scarborough, en que determinó el número de cifras significativas que contiene el error como: Si reemplazamos Es en la ecuación. Obtendremos el número de cifras significativas en que es confiable el valor aproximado obtenido. Así, si queremos que nuestro cálculo tenga un error menor al criterio para dos cifras significativas, debemos obtener números que correspondan a menos de: Es=(0.5x 102–2)%=0.5% Esto nos servirá para determinar cuántos términos serán necesarios en un cálculo aproximado para tener la certeza que el error se encuentra bajo el margen especificado. EXACTITUD Y PRECISIÓN. La exactitud de una medición hace referencia a su cercanía al valor que pretende medir. La precisión está asociada al número de cifras decimales utilizadas para expresar lo medido. Un instrumento inexacto nos entrega resultados sesgados, “desplazados”; uno impreciso, resultados “ambiguos”, “difusos”. Así, por ejemplo, una pesa es exacta si nos entrega el peso correcto, sin agregarle ni quitarle. Asimismo, es más precisa en la medida que el aparato usado es capaz de detectar diferencias de peso más pequeñas. La exactitud y precisión exigibles a una medición, dependerán de los objetivos del estudio que la utiliza. La precisión de un resultado estadístico debe estar de acuerdo con la precisión de los datos originales y con las exigencias propias del proyecto que los usa. Es fácil cometer el error de responder usando más decimales que los contenidos en las mediciones iniciales, aumentando artificialmente la precisión por la propia capacidad de cálculo de los computadores.
Por otra parte, es de suma importancia cuidar que, durante el proceso de cálculo intermedio, no se pierda precisión innecesariamente. Es importante mantener el máximo posible de decimales, pues esto ayuda a controlar la aparición y propagación de errores numéricos que invaliden los resultados. Estos son errores de precisión y exactitud ajenos al proceso de medición inicial y son introducidos típicamente por los métodos numéricos usados y por la aritmética del computador que tiene una precisión finita para representar interiormente a los números. El último tema mencionado en el párrafo anterior, es un tema complejo que no se discutirá mayormente, pero es importante mencionarlo y mostrar un ejemplo ilustrativo para entender su alcance. Exactitud y precisión La precisión se refiere 1) al numero de cifras significativas que representan una cantidad 2) la extensión en las lecturas repetidas de un instrumento que mide alguna propiedad física. Por ejemplo: Cuando se hacen algunos disparos en un lugar de tiro al blanco la precisión se refiere a la magnitud del esparcimiento de las balas. La exactitud se refiere a la aproximación de un numero o de una medida al valor verdadero que se supone representa. La inexactitud (conocida como sesgo) se define como un alejamiento sistemático de la verdad. Exactitud.- Indica qué tan cercano es un valor calculado respecto al valor verdadero. Precisión.- Considerando que los métodos numéricos son técnicas iterativas, expresa qué tan cercana es una aproximación o una estimación a un valor, respecto a las aproximaciones o iteraciones anteriores del mismo. Inexactitud.- También se le conoce como sesgo. Es un alejamiento sistemático del valor verdadero a calcular.
Imprecisión.- También se le conoce como incertidumbre. Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones a un valor verdadero. Al observar las definiciones anteriores, puede determinarse que el error asociado a los métodos numéricos permite medir el grado de exactitud y precisión de los mismos.
View more...
Comments