Importancia de Los Metodos Numericos

IMPORTANCIA DE LOS METODOS NUMERICOS Un método numérico es un procedimiento mediante el cual se obtiene, casi siempre d

Views 91 Downloads 0 File size 602KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

IMPORTANCIA DE LOS METODOS NUMERICOS

Un método numérico es un procedimiento mediante el cual se obtiene, casi siempre de manera aproximada, la solución de ciertos problemas realizando cálculos puramente aritméticos y lógicos (operaciones aritméticas elementales, cálculo de funciones, consulta de una tabla de valores, cálculo preposicional, etc.). El objetivo principal del análisis numérico es encontrar soluciones “aproximadas” a problemas complejos utilizando sólo las operaciones más simples de la aritmética. Se requiere de una secuencia de operaciones algebraicas y lógicas que producen la aproximación al problema matemático. Son herramientas poderosas que se usan en la formulación de problemas complejos que requieren un conocimiento básico en matemáticas e ingeniería. Si

conocemos

bien

los

métodos

numéricos

podemos diseñar programas propios y así no comprar los softwares costosos. El análisis numérico trata de diseñar métodos para “aproximar” de una manera eficiente las soluciones de problemas expresados matemáticamente. Los métodos numéricos son adecuados para la solución de problemas comunes de ingeniería, ciencias y administración, utilizando computadoras electrónicas. En si los métodos numéricos son procedimientos lógicos que se realizan a partir de los problemas planteados matemáticamente y de manera aritmética.

BERGIS LUIS ORATO VIDAL / ING. QUIMICO/ 1 DE FEBRERO- 2018

EN EL PROCESO DE SOLUCIÓN DE PROBLEMAS POR MEDIO DE COMPUTADORAS SE REQUIEREN LOS PASOS SIGUIENTES.

- Especificación del problema. Con esto se indica que se debe identificar perfectamente el problema y sus limitaciones, las variables que intervienen y los resultados deseados. - Análisis. Es la formulación de la solución del problema denominada también algoritmo, de manera que se tenga una serie de pasos que resuelvan el problema y que sean susceptibles de ejecutarse en la computadora. - Programación. Este paso consiste en traducir el método de análisis o algoritmo de solución expresándole como una serie detallada de operaciones. - Verificación. Es la prueba exhaustiva del programa para eliminar todos los errores que tenga de manera que efectúe lo que desea los resultados de prueba se comparan con soluciones conocidas de problemas ya resueltos. - Documentación. Consiste en preparar un instructivo del programa de manera que cualquier persona pueda conocer y utilizar el programa. - Producción. Es la última etapa en la que solo se proporcionan datos de entrada del programa obteniéndose las soluciones correspondientes. (LUTHE, Rodolfo y otros Métodos Numéricos, 1980). Se necesita un conocimiento amplio de los problemas y de los campos de las matemáticas relacionados con el objeto de los métodos numéricos para computadora.

BERGIS LUIS ORATO VIDAL / ING. QUIMICO/ 1 DE FEBRERO- 2018

TIPOS DE ERROR Y SU CLASIFICACION Los errores numéricos se generan con el uso de aproximaciones para representar las operaciones y cantidades matemáticas. El error numérico es una medida del ajuste o cálculo de una magnitud con respecto al valor real o teórico que dicha magnitud tiene. Un aspecto importante de los errores numéricos es su estabilidad numérica. Dicha estabilidad se refiere a como dentro de un algoritmo de análisis numérico el error de aproximación es propagado dentro del propio algoritmo. El concepto de error es consustancial con el cálculo numérico. En todos los problemas es fundamental hacer un seguimiento de los errores cometidos a fin de poder estimar el grado de aproximación de la solución que se obtiene.

Error Absoluto Podemos distinguir dos tipos de errores que se utilizan en los cálculos: Error absoluto. Es la diferencia entre el valor de la medida y el valor tomado como exacta. Puede ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida. Error relativo Es el cociente (la división) entre el error absoluto y el valor exacto. Si se multiplica por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error absoluto puede ser positivo o negativo (según lo sea el error absoluto) porque puede ser por exceso o por defecto. No tiene unidades.

BERGIS LUIS ORATO VIDAL / ING. QUIMICO/ 1 DE FEBRERO- 2018

Errores por Redondeo Es aquel tipo de error en donde el número significativo de dígitos después del punto decimal se ajusta a un número específico provocando con ello un ajuste en el último dígito que se toma en cuenta.

Errores de Truncamiento Los errores de truncamiento tienen relación con el método de aproximación que se usará ya que generalmente frente a una serie infinita de términos, se tenderá a cortar el número de términos, introduciendo en ese momento un error, por no utilizar la serie completa (que se supone es exacta). En una iteración, se entiende como el error por no seguir iterando y seguir aproximándose a la solución. En un intervalo que se subdivide para realizar una serie de cálculos sobre él, se asocia al número de paso, resultado de dividir el intervalo "n" veces.

Error Numérico Total El error numérico total se entiende como la suma de los errores de redondeo y truncamiento introducidos en el cálculo. Pero aquí surge un gran problema. Mientras más cálculos se tengan que realizar para obtener un resultado, el error de redondeo se irá incrementando. Pero, por otro lado, el error de truncamiento se puede minimizar al incluir más términos en la ecuación, disminuir el paso o proseguir la iteración (o sea mayor número de cálculos y seguramente mayor error de redondeo).

BERGIS LUIS ORATO VIDAL / ING. QUIMICO/ 1 DE FEBRERO- 2018