Presentación Metodos Numericos Eduardo Mena
LUIS �NGEL ORDO�EZ HERN�NDEZ
Created on August 27, 2024
More creations to inspire you
QUOTE OF THE WEEK ACTIVITY - 10 WEEKS
Presentation
MASTER'S THESIS ENGLISH
Presentation
SPANISH: PARTES DE LA CASA WITH REVIEW
Presentation
PRIVATE TOUR IN SÃO PAULO
Presentation
SUMMER ZINE 2018
Presentation
RACISM AND HEALTHCARE
Presentation
FACTS IN THE TIME OF COVID-19
Presentation
Transcript
METODOS NUMERICOS.Tema 1: Introduccion a los metodos numericos.
Elaborado por: Luis Angel Ordoñez Hernandez.Semestre: #3Matricula: 231010082
wow
¡Vamos!
Indice:
- Portada..........................................................1
- Indice.............................................................2
- Introduccion..................................................3
- 1.1 Conceptos basicos: Algoritmos y aproximaciones.............................................4
- 1.2 Tipos de errores: Error absoluto, error relativo, error procentual, errores de redondeo y truncamiento.................................................5
- 1.3 Convergencia...........................................6
Los métodos numéricos son técnicas fundamentales en la programación y en la computación en general, diseñadas para resolver problemas matemáticos que no tienen soluciones exactas o que son demasiado complejos para abordarse de manera analítica. Estos métodos se utilizan para obtener aproximaciones numéricas a soluciones de ecuaciones, sistemas de ecuaciones, y otros problemas matemáticos.Estos métodos se dividen en dos grandes categorías: métodos directos y métodos iterativos. Los métodos directos, como la eliminación gaussiana para resolver sistemas de ecuaciones lineales, buscan una solución en un número finito de pasos. Por otro lado, los métodos iterativos, como el método de Newton-Raphson para encontrar raíces de ecuaciones, generan una sucesión de aproximaciones que se espera converjan hacia la solución deseada.
Íntroduccion.
Un diagrama de flujo es la representación gráfica de un algoritmo; en la primera parte hemos construido varios de ellos. Por lo que toca a las figuras que en ellos intervienen, si interpretación es la siguiente:
Diagrama de flujo:
Algoritmos numericos:
1.1 Conceptos basicos: Algoritmos y aproximaciones.
¿La noción de algoritmo aparece en numerosas y difíciles situaciones de la vida cotidiana y es manejada por una gran cantidad de personas, algunas de las cuales ni tan siquiera conocen su existencia. De manera informal, un algoritmo puede definirse como una lista de instrucciones mediante las cuales puede llevarse a cao un determinado proceso. Consideramos el siguiente ejemplo:
+ info
+ info
Se considera que las cifras significativas de un número son aquellas que tienen significado real o aportan alguna información. Las cifras no significativas aparecen como resultado de los cálculos y no tienen significado alguno. Las cifras significativas de un número vienen determinadas por su error. Son cifras significativas aquellas que ocupan una posición igual o superior al orden o posición del error. Algunos estudiantes piensan que mientras más dígitos posea su respuesta más exacto es su resultado. Nada más lejos de la realidad. La exactitud de una respuesta tiene que ver principalmente con los instrumentos que usamos para realizar nuestras mediciones. La razón es sencilla, hay instrumentos más exactos que otros. En algunos conceptos básicos de los Métodos Numéricos podemos encontrar los siguientes: - Cifra significativa: En un número con dígitos decimales, los ceros finales a la derecha del punto decimal son significativos. - Precisión: se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. - Exactitud: se refiere a cuán cerca del valor real se encuentra el valor medido. - Incertidumbre: se le conoce como Imprecisión. Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones a un valor verdadero. - Sesgo: Es un alejamiento sistemático del valor verdadero a calcular. Así como el error, de acuerdo con las formas por las cuales se produce, puede minimizarse, la ocurrencia de sesgo también puede ser neutralizada o controlada.
Aproximaciones:
- Error absoluto: El error absoluto es una medida de la diferencia entre el valor real de una magnitud y el valor obtenido en una medición. Se expresa como la diferencia positiva entre ambos valores.
- Error relativo: El error relativo es más interesante que el error absoluto en la práctica, ya que permite comparar medidas entre sí. Por ejemplo, un error de una milésima puede ser insignificante si el valor de x se mide en millones, pero muy grave si se mide en millonésimas.
- Error porcentual: El error porcentual es simplemente el error relativo expresado en por ciento (%). También es usual emplear el valor absoluto en los parámetros anteriores, en cuyo caso se denominan respectivamente error absoluto, error relativo absoluto y error porcentual absoluto.
- Errores de redondeo: También llamados errores aritméticos, son una consecuencia inevitable de trabajar en aritmética de precisión finita. Se producen cuando se usan números que tienen un límite de cifras significativas para representar números exactos.
- Truncamiento: También llamados errores algorítmicos, provienen del método numérico de aproximación. Por ejemplo, cuando se calcula el área con rectángulos, el área calculada no es igual al área encerrada por la curva en la integración definida. Esto se debe a que la imposibilidad material de calcular los infinitos términos del desarrollo exige truncarlo con un número finito de términos.
Estos errores pueden ocurrir en operaciones aritméticas, conversiones de tipo de datos, y manejo de números decimales. Es importante considerar estos errores para garantizar la precisión y exactitud de los resultados.
:.1.2 Tipos de errores: Error absoluto, error relativo, error porcentual, errores de redondeo y truncamiento.
1.3 Convergencia.
La convergencia de un método numérico se define como cuando una secuencia de soluciones de un modelo se aproxima a un valor fijo. La velocidad con la que una sucesión converge a su límite se llama orden de convergencia. Este concepto es importante porque puede hacer la diferencia entre necesitar diez o un millón de iteraciones.Por ejemplo, el método de Newton es muy rápido y eficiente porque la convergencia es de tipo cuadrático, lo que significa que el número de cifras significativas se duplica en cada iteración. Sin embargo, la convergencia depende en gran medida de la forma que adopta la función en las proximidades del punto de iteración.METODO DE NEWTON:Este método parte de una aproximación inicial x0 y obtiene una aproximación mejor, x1, dada por la fórmula: La expresión anterior puede derivarse a partir de un desarrollo en serie de Taylor. Efectivamente, sea r un cero de f y sea x una aproximación a r tal que r=x+h. Si f'' existe y es continua, por el teorema de Taylor tenemos: 0 = f(r) = f(x+h) = f(x) + hf'(x) + O(h2) en donde h=r-x. Si x está próximo a r (es decir hes pequeña), es razonable ignorar el término O(h2):0 = f(x) + hf'(x) por lo que obtenemos la siguiente expresión para h:
Conclusion:
En esta presentacion nos representa y nos da enseñanza sobre los metodos numericos, sobre los conceptos basicos como los algoritmos y aproximaciones. son herramientas esenciales en la resolución de problemas matemáticos complejos que no pueden ser abordados de manera exacta o analítica. Estos métodos permiten obtener soluciones aproximadas con un alto grado de precisión, facilitando el análisis y la resolución de ecuaciones diferenciales, integrales y otros problemas matemáticos en campos como la física, la ingeniería y las ciencias computacionales.los algoritmos y las aproximaciones en métodos numéricos son fundamentales para abordar problemas complejos en los que las soluciones exactas no son factibles. Su correcta aplicación y comprensión permiten obtener resultados prácticos y precisos, contribuyendo significativamente al avance de la ciencia y la tecnología.El análisis de errores es fundamental en la comprensión y aplicación de métodos numéricos, ya que permite evaluar la precisión y confiabilidad de las soluciones obtenidas. Los conceptos de error absoluto, error relativo, error porcentual y truncamiento son herramientas clave para cuantificar y gestionar las inexactitudes inherentes en los cálculos numéricos.