Want to make creations as awesome as this one?

Transcript

Inicio

Métodos numéricos

Conclusión de lo visto en clase y asignación de actividades extraescolares.

Exposición de tema a ver intercalado con actividades.

Acuerdos de convivencia y objetivos de aprendizaje, pase de lista.

Inicio

Desarrollo

Cierre

ÍNDICE

El alumno representara la información presentada en clase mediante un mapa mental sobre la solución de sistemas de ecuaciones, un formulario en drive y ejercicios para poder aplicar el conocimiento en ejercicios de ingeniería.

objetivo

+info

+info

3. Solución de sistemas de ecuaciones 3.1 Eliminación Gaussiana 3.2 Matriz inversa3.3 Gauss-Jordan 3.4 Regla de Crammer 3.5 Jacobi 3.6 Gauss-Seidel 3.7 Solución de problemas de ingeniería asociados con sistemas de ecuaciones

+info

+info

El objetivo es transformar el sistema en una forma más simple, conocida como forma triangular o forma escalonada, de tal manera que sea fácil resolver el sistema mediante sustitución hacia atrás. Este método también se usa para calcular determinantes y encontrar la inversa de una matriz.

Eliminación Gaussiana

+info

+info

3 y 4

1 y 2

Desventajas

Ventajas

Pasos

Ejemplos eliminación gaussiana

+info

+info

No todas las matrices tienen inversa. Una matriz es invertible (o no singular) si su determinante es distinto de cero. Si el determinante es cero, la matriz es singular y no tiene inversa, lo que significa que el sistema de ecuaciones no tiene una solución única.

matriz inversa

+info

+info

Desventajas

Ventajas

Pasos

Ejemplos Matriz inversa

+info

+info

Es una extensión del método de eliminación gaussiana que transforma una matriz no solo en una forma triangular superior, sino en la forma escalonada reducida, donde no solo se obtienen ceros debajo de los pivotes (como en el método de Gauss), sino también ceros por encima de los pivotes.

Gauss-Jordan

+info

+info

Ejemplos Gauss-Jordana

Desventajas

Ventajas

Pasos

+info

+info

Este método es aplicable únicamente para sistemas de ecuaciones cuadrados, es decir, cuando el número de ecuaciones es igual al número de incógnitas, y cuando el determinante de la matriz de coeficientes no es igual a cero (det(𝐴)≠0).

Regla de Crammer

+info

+info

Ejemplos Regla de cramer

Desventajas

Ventajas

Pasos

+info

+info

Reescribe cada ecuación en función de una sola incógnita, aislando dicha incógnita y expresándola en términos de las otras incógnitas y del vector de términos independientes. A partir de una aproximación inicial, se va iterando para mejorar las estimaciones de las incógnitas hasta que la solución converge.

jacobi

+info

+info

Ejemplos Metodo jacobi

Desventajas

Ventajas

Pasos

+info

+info

En el método de Gauss-Seidel, a diferencia de Jacobi, se utiliza la información más reciente posible. Esto significa que, cuando se calcula una nueva aproximación de una incógnita, se utiliza inmediatamente en los cálculos de las demás incógnitas dentro de la misma iteración.

Gauss-Seidel

+info

+info

Ejemplos Gauss-Seidel

Desventajas

Ventajas

Pasos

+info

+info

Instrucciones.Por cada ejercicio se lanzar un dado con el cual el equipo hara la resolucion por el metodo indicado y el resto de los equipos tiraran el dado, con el objetivo de resolverlo con los metodos faltantes. esto se realizara con los tres ejercicios.

problemas de ingeniería asociados con sistemas de ecuaciones

+info

+info

¡Conclusiones!

El método de Jacobi converge si la matriz 𝐴 es diagonalmente dominante, lo que significa que para cada fila, el valor absoluto del elemento en la diagonal principal es mayor o igual a la suma de los valores absolutos de los demás elementos de la misma fila.Si la matriz no es diagonalmente dominante, el método puede no converger o puede requerir más iteraciones para alcanzar la convergencia.

Convergencia lenta: En comparación con otros métodos iterativos como Gauss-Seidel, el método de Jacobi tiende a converger más lentamente.Requiere buenas condiciones de la matriz: Si la matriz 𝐴 no es diagonalmente dominante o está mal condicionada, el método puede no converger.

Claridad matemática: La regla de Cramer ofrece una fórmula directa y elegante para resolver sistemas lineales.Aplicabilidad a sistemas pequeños: Es fácil de aplicar para sistemas de ecuaciones con pocas incógnitas.Soluciones exactas: Si los coeficientes son números enteros o fracciones, proporciona soluciones exactas, sin necesidad de aproximaciones numéricas.

Resolver el siguiente sistema de ecuaciones.

Generalidad: Funciona para cualquier sistema con una matriz de coeficientes invertible.Uso en programación y álgebra lineal: Este método es ideal en sistemas pequeños o medianos y es fácil de implementar en programas y calculadoras.Extensión a múltiples soluciones: El método permite encontrar soluciones exactas en sistemas de ecuaciones lineales.

Solución directa: Una vez que se llega a la forma escalonada reducida, las soluciones se pueden leer directamente sin necesidad de sustitución hacia atrás. Determinación de soluciones múltiples o singulares: Si en alguna fila obtenemos todos ceros excepto en el último elemento, el sistema es inconsistente y no tiene solución. Si alguna fila es completamente cero, el sistema tiene soluciones infinitas (es dependiente). Aplicable a la inversión de matrices: Este método también puede utilizarse para encontrar la inversa de una matriz, convirtiendo la matriz original en la matriz identidad mientras se aplican las mismas operaciones a una matriz identidad.

Convergencia más rápida: Gauss-Seidel generalmente converge más rápido que el método de Jacobi, ya que utiliza los valores más recientes durante las iteraciones.Simplicidad: Es fácil de implementar y comprender.Eficiente para sistemas grandes y dispersos: Como el método solo requiere operaciones locales, es adecuado para sistemas de ecuaciones grandes donde la matriz tiene muchos ceros.

Generalidad: Funciona para cualquier sistema lineal que tenga una solución única. Método sistemático: Se sigue un procedimiento claro y definido, lo que lo hace fácil de implementar en algoritmos y software. Ampliable: Se puede aplicar a sistemas grandes con muchas ecuaciones y muchas incógnitas.

Resolver el siguiente sistema de ecuaciones.

Problemas numéricos: Puede ser sensible a errores de redondeo cuando se trabaja con números decimales o cuando hay diferencias de escala significativas entre los coeficientes. Complejidad computacional: Para sistemas muy grandes, el método puede ser computacionalmente costoso, aunque sigue siendo eficiente en comparación con otros métodos exactos.

Complejidad computacional: Aunque eficiente, para sistemas grandes puede ser más costoso computacionalmente que otros métodos, como la eliminación gaussiana con sustitución hacia atrás.Sensibilidad numérica: Al igual que otros métodos de eliminación por filas, es susceptible a errores de redondeo cuando se trabaja con números en coma flotante.

Dependencia de la convergencia: Como otros métodos iterativos, no garantiza convergencia para todos los sistemas. Si la matriz no es diagonalmente dominante o está mal condicionada, el método podría no converger.Orden de las ecuaciones: El método es sensible al orden de las ecuaciones en el sistema. A veces, reorganizar el sistema puede mejorar la convergencia.

Fácil de implementar: Es sencillo de codificar y ejecutar, lo que lo hace ideal para sistemas grandes en computadoras. Adecuado para matrices dispersas: Dado que solo se requieren operaciones locales en cada iteración, es eficiente para sistemas donde la matriz tiene muchos ceros. Paralelización: Los cálculos para cada incógnita se pueden realizar de forma independiente, lo que lo hace fácilmente paralelizable.

Complejidad computacional: El cálculo de la inversa es costoso para matrices grandes (su complejidad es del orden de 𝑂(𝑛3).Estabilidad numérica: Para sistemas grandes o mal condicionados, el uso de la matriz inversa puede llevar a errores de redondeo.No aplicable a sistemas singulares: Si la matriz de coeficientes es singular (determinante igual a cero), el método no puede ser usado, ya que la matriz no tiene inversa.

No aplicable a sistemas grandes: Para sistemas con un gran número de incógnitas, el cálculo de los determinantes se vuelve costoso computacionalmente (la complejidad es 𝑂 ( 𝑛 ! ) O(n!)). No funciona para matrices singulares: Si el determinante de la matriz de coeficientes es cero, la regla de Cramer no se puede aplicar, ya que el sistema no tiene solución única (es indeterminado o inconsistente). Limitada a matrices cuadradas: La regla de Cramer solo puede usarse en sistemas cuadrados, es decir, cuando el número de ecuaciones es igual al número de incógnitas.

La fórmula para actualizar las incógnitas es similar a la de Jacobi, pero con la diferencia de que en lugar de utilizar las soluciones de la iteración anterior, se utilizan las soluciones que se van calculando en la iteración actual. converge si la matriz 𝐴 es diagonalmente dominante, lo que significa que el valor absoluto de cada elemento de la diagonal principal debe ser mayor que la suma de los valores absolutos de los demás elementos en la misma fila.