UNAM

FES ACATLAN

Métodos Numéricos I

Profesor: CURIEL GARCIA CARLOS PEDRO

Grupo: 1355



Integrantes:

COLIN SANCHEZ DIEGO ARMANDO

MADRID GARCIA PEDRO MISAEL

MORALES JIMENEZ RODRIGO ISRAEL

RESENDIZ RODRIGUEZ JOAQUIN RACIEL



Fecha:

INTRODUCCION


Los métodos numéricos son técnicas matemáticas que permiten encontrar soluciones aproximadas a problemas matemáticos complejos, que no pueden ser resueltos de forma analítica o exacta. Se utilizan en diversos campos como la ingeniería, la física y la economía.

Aplicaciones de los Métodos Numéricos

Los métodos numéricos se aplican en muchos campos, incluyendo:

Conclusión

Los métodos numéricos son herramientas fundamentales para resolver problemas matemáticos complejos en aplicaciones del mundo real. La elección del método adecuado depende del tipo de problema, la precisión requerida y los recursos computacionales disponibles.

Solución Numérica de Ecuaciones de una Variable

Los métodos numéricos para ecuaciones de una sola variable son técnicas matemáticas que permiten aproximar las raíces de una ecuación de la forma \( f(x) = 0 \). Estas raíces son los valores de \( x \) que satisfacen la ecuación. Dado que muchas ecuaciones no pueden resolverse de manera exacta, estos métodos son esenciales para encontrar soluciones en aplicaciones prácticas.

Características Generales

  • Aproximación iterativa: Los métodos numéricos suelen comenzar con una o más suposiciones iniciales y luego refinan estas aproximaciones a través de iteraciones.
  • Requieren evaluación de la función: En cada iteración, se evalúa \( f(x) \) y, en algunos casos, su derivada o diferencias entre puntos.
  • Convergencia: La velocidad con la que un método se aproxima a la raíz depende del método utilizado y de la cercanía de las suposiciones iniciales a la raíz real.

Clasificación de los Métodos

Los métodos numéricos para ecuaciones de una variable se pueden clasificar en dos categorías principales:

  • Métodos cerrados: Trabajan en un intervalo cerrado \([a, b]\) donde \( f(a) \cdot f(b) < 0 \). Garantizan la existencia de al menos una raíz en el intervalo si la función es continua. Ejemplo: Método de Bisección.
  • Métodos abiertos: No requieren un intervalo inicial, pero dependen de una o más aproximaciones iniciales. Su convergencia depende de la calidad de estas aproximaciones. Ejemplo: Métodos de Newton y de la Secante.

Importancia

Estos métodos son fundamentales en diversos campos de la ciencia y la ingeniería, ya que permiten resolver ecuaciones que surgen en problemas como:

  • El análisis de sistemas dinámicos.
  • La optimización de recursos en economía.
  • El diseño de estructuras en ingeniería.
  • El modelado de fenómenos naturales en física y química.

Conclusión

Los métodos numéricos para ecuaciones de una variable son herramientas esenciales para resolver problemas matemáticos complejos. Aunque tienen limitaciones, su implementación computacional permite abordar problemas que serían intratables mediante métodos analíticos tradicionales.

Método de Falsa Posición

El método de falsa posición es un algoritmo para encontrar raíces de funciones continuas \( f(x) \), basado en la intersección de una línea recta con el eje \( x \). Se utiliza cuando existe un intervalo inicial \([a, b]\) donde \( f(a) \cdot f(b) < 0 \), asegurando la existencia de una raíz.

Fórmula

La aproximación de la raíz \( c \) se calcula como:

\[ c = b - \frac{f(b)(b - a)}{f(b) - f(a)} \]

Pasos

  1. Seleccionar un intervalo \([a, b]\) tal que \( f(a) \cdot f(b) < 0 \).
  2. Calcular \( c \) y evaluar \( f(c) \).
  3. Ajustar el intervalo: si \( f(c) \cdot f(a) < 0 \), reemplazar \( b \) con \( c \); de lo contrario, reemplazar \( a \) con \( c \).
  4. Repetir hasta alcanzar el error deseado.

Aplicaciones

Se utiliza en ingeniería, física y matemáticas para resolver ecuaciones no lineales, siendo más eficiente que el método de bisección en funciones casi lineales.

Ventajas

Es sencillo, garantiza convergencia y mejora la aproximación con cada iteración. Sin embargo, su convergencia puede ser lenta si la función tiene derivadas pequeñas cerca de los extremos del intervalo.

FALSA POSICIÓN

Instrucciones: Selecciona la ecuación y el intervalo para resolver con el método de Falsa Posición.

Introduce el intervalo: \(x \in \) [

,

]


Por lo tanto \(x \thickapprox \)




Método de Newton

El método de Newton, también llamado método de Newton-Raphson, es un algoritmo iterativo utilizado para encontrar aproximaciones a las raíces de funciones diferenciables \( f(x) \). Es rápido y eficiente, especialmente para funciones suaves cerca de la raíz.

Fórmula

Dado un valor inicial \( x_0 \), las aproximaciones sucesivas se calculan como:

\[ x_{n+1} = x_n - \frac{f(x_n)}{f'(x_n)} \]

Pasos

  1. Seleccionar un valor inicial \( x_0 \).
  2. Calcular \( x_{n+1} \) usando la fórmula anterior.
  3. Repetir hasta que \( |f(x_{n+1})| \) o la diferencia entre iteraciones sea menor que un umbral predefinido.

Aplicaciones

El método de Newton se utiliza ampliamente en ingeniería, física y matemáticas para resolver ecuaciones no lineales, optimización y problemas de ajuste de curvas.

Ventajas

Es rápido y, en general, converge cuadráticamente cerca de la raíz.

Limitaciones

Requiere conocer la derivada de \( f(x) \) y puede no converger si el valor inicial está lejos de la raíz o si \( f'(x) = 0 \) en algún punto del proceso.

NEWTON

Instrucciones: Selecciona la ecuación a resolver y el valor inicial:

Valor inicial:




Por lo tanto \(x \thickapprox \)





Método de la Secante

El método de la secante es un algoritmo iterativo utilizado para encontrar aproximaciones de las raíces de una función \( f(x) \). A diferencia del método de Newton, no requiere calcular derivadas, utilizando en su lugar una aproximación lineal basada en dos puntos.

Fórmula

Usando dos valores iniciales \( x_0 \) y \( x_1 \), la siguiente iteración \( x_{n+1} \) se calcula como:

\[ x_{n+1} = x_n - f(x_n) \cdot \frac{x_n - x_{n-1}}{f(x_n) - f(x_{n-1})} \]

Pasos

  1. Seleccionar dos puntos iniciales \( x_0 \) y \( x_1 \).
  2. Calcular \( x_{n+1} \) usando la fórmula.
  3. Repetir el proceso hasta que \( |f(x_{n+1})| \) sea suficientemente pequeño o la diferencia entre iteraciones sea menor a un valor tolerable.

Ventajas

  • No requiere derivadas, a diferencia del método de Newton.
  • Puede converger más rápido que otros métodos como el de bisección.

Limitaciones

  • No siempre converge si los puntos iniciales no están cerca de la raíz.
  • Falla si \( f(x_n) - f(x_{n-1}) = 0 \).

Aplicaciones

El método de la secante se usa ampliamente en ingeniería, física y matemáticas para resolver ecuaciones no lineales cuando el cálculo de derivadas no es práctico o posible.

SECANTE

Instrucciones: Selecciona la ecuación a resolver y el valor inicial:

Valor inicial:




Por lo tanto \(x \thickapprox \)





Solución de sistemas de ecuaciones lineales


Los sistemas de ecuaciones lineales son conjuntos de ecuaciones de la forma:

\[ A \mathbf{x} = \mathbf{b} \] donde:

  • \( A \) es una matriz de coeficientes (\( n \times n \)).
  • \( \mathbf{x} \) es el vector de incógnitas (\( n \times 1 \)).
  • \( \mathbf{b} \) es el vector de términos independientes (\( n \times 1 \)).

Los métodos numéricos para resolver estos sistemas son fundamentales en muchas aplicaciones prácticas donde el número de ecuaciones puede ser muy grande y los métodos analíticos son inviables.

Clasificación de los Métodos

Los métodos numéricos para sistemas de ecuaciones lineales se clasifican en:

  • Métodos directos: Encuentran la solución exacta (o con error de redondeo) en un número finito de pasos. Ejemplo: Eliminación de Gauss.
  • Métodos iterativos: Encuentran aproximaciones sucesivas a la solución. Son útiles para sistemas grandes y dispersos. Ejemplos: Método de Jacobi, Método de Gauss-Seidel.

Aplicaciones

Los métodos numéricos para sistemas de ecuaciones lineales se aplican en múltiples áreas, como:

  • Análisis estructural en ingeniería.
  • Modelado de circuitos eléctricos.
  • Simulación de fluidos en dinámica de fluidos computacional (CFD).
  • Resolución de problemas de optimización.

Conclusión

Los métodos numéricos para sistemas de ecuaciones lineales son herramientas esenciales en la resolución de problemas complejos en ciencia e ingeniería. La elección entre métodos directos e iterativos depende del tamaño del sistema, la naturaleza de la matriz \( A \) y los recursos computacionales disponibles.


Método de Gauss-Jordan

El método de Gauss-Jordan es un procedimiento algebraico utilizado para resolver sistemas de ecuaciones lineales y encontrar la inversa de una matriz. Es una extensión del método de eliminación de Gauss y convierte la matriz aumentada del sistema en su forma reducida escalonada.

Procedimiento

  1. Construir la matriz aumentada del sistema de ecuaciones.
  2. Usar operaciones elementales de fila (intercambio, multiplicación y suma/resta de filas) para convertir la matriz aumentada en una matriz identidad en el lado izquierdo.
  3. Los valores resultantes en el lado derecho corresponden a las soluciones del sistema.

Ventajas

  • Proporciona una solución directa al sistema de ecuaciones lineales.
  • También puede calcular la inversa de una matriz en un solo proceso.

Limitaciones

  • Es computacionalmente costoso para sistemas grandes.
  • La precisión puede verse afectada en caso de números muy pequeños o muy grandes.

Aplicaciones

Se utiliza en álgebra lineal aplicada, ingeniería y ciencias para resolver sistemas de ecuaciones lineales y encontrar matrices inversas en modelos matemáticos y simulaciones.

GAUSS-JORDAN

Instrucciones: Ingresa el orden de la matriz, depués oprime "Crear Mátriz" e ingresa el valor de los coeficientes. Por último presiona "Resolver".

Nota: El valor del elemento Pivote no puede ser 0.








Los resultados son:



Método de Jacobi

El método de Jacobi es un algoritmo iterativo utilizado para resolver sistemas de ecuaciones lineales de la forma \( Ax = b \). Es particularmente útil para matrices dispersas y sistemas grandes, siempre que la matriz \( A \) sea diagonalmente dominante o simétrica positiva definida.

Fórmula

La fórmula general para actualizar cada componente \( x_i^{(k+1)} \) en la \( k \)-ésima iteración es:

\[ x_i^{(k+1)} = \frac{1}{a_{ii}} \left( b_i - \sum_{j \neq i} a_{ij} x_j^{(k)} \right) \]

Pasos

  1. Inicializar un vector \( x^{(0)} \) con valores aproximados.
  2. Reemplazar cada \( x_i \) usando la fórmula iterativa.
  3. Repetir hasta que la diferencia entre iteraciones consecutivas sea menor que un valor de tolerancia predefinido.

Ventajas

  • Sencillo de implementar y adecuado para sistemas dispersos.
  • Permite paralelismo, ya que cada ecuación se resuelve de forma independiente.

Limitaciones

  • Puede no converger si la matriz no es diagonalmente dominante o simétrica positiva definida.
  • Convergencia más lenta que otros métodos, como el de Gauss-Seidel.

Aplicaciones

El método de Jacobi se usa en simulaciones numéricas, análisis de estructuras y problemas de física computacional que involucran sistemas de ecuaciones grandes y dispersos.

JACOBI

Instrucciones: Ingresa el orden de la matriz a resolver, escribe los coeficientes de cada variable y oprime resolver.

Nota: El Método garantizará convergencia a la solución cuando la matriz \(A\) tenga diagonal dominante, osea \(a_{ii}\geq a_{ij}, i\neq j, a\in A\)











Método de Gauss-Seidel

El método de Gauss-Seidel es un algoritmo iterativo para resolver sistemas de ecuaciones lineales de la forma \( Ax = b \). Es una variante del método de Jacobi que utiliza los valores actualizados de \( x \) en cada iteración para acelerar la convergencia.

Fórmula

La fórmula general para actualizar \( x_i^{(k+1)} \) es:

\[ x_i^{(k+1)} = \frac{1}{a_{ii}} \left( b_i - \sum_{j < i} a_{ij} x_j^{(k+1)} - \sum_{j > i} a_{ij} x_j^{(k)} \right) \]

Pasos

  1. Inicializar un vector \( x^{(0)} \) con valores aproximados.
  2. Actualizar \( x_i \) en cada iteración usando los valores ya calculados en la misma iteración para \( j < i \).
  3. Repetir hasta que la diferencia entre iteraciones consecutivas sea menor que un valor de tolerancia predefinido.

Ventajas

  • Convergencia más rápida que el método de Jacobi en la mayoría de los casos.
  • Requiere menos memoria, ya que los valores de \( x \) se actualizan en su lugar.

Limitaciones

  • Puede no converger si la matriz no es diagonalmente dominante o simétrica positiva definida.
  • No es tan adecuado para sistemas donde las matrices son muy grandes y dispersas.

Aplicaciones

El método de Gauss-Seidel se utiliza en simulaciones numéricas, ingeniería estructural y análisis de circuitos eléctricos, donde se necesitan aproximaciones rápidas de soluciones de sistemas lineales.

GAUSS SEIDEL

Instrucciones: Ingresa el orden de la matriz, presiona el boton "Crear Matriz" y luego oprime "Resolver"

Nota: La diagonal debe ser estrictamente dominante:

\(|a_{ii}| \geq \sum_{j \neq i}^{n}|a_{ij}|, a\in A \)











Factorización LU y sus Aplicaciones

La factorización LU (o descomposición LU) es una técnica matemática que permite descomponer una matriz cuadrada \( A \) en el producto de dos matrices:

\[ A = L \cdot U \] donde:

  • \( L \) es una matriz triangular inferior (con unos en la diagonal principal).
  • \( U \) es una matriz triangular superior.

Características

  • Es aplicable a matrices cuadradas no singulares (\( \det(A) \neq 0 \)).
  • Puede requerir pivoteo parcial o completo para garantizar estabilidad numérica.
  • Reduce el costo computacional para sistemas lineales con múltiples vectores independientes \( \mathbf{b} \).

Proceso de Factorización

La factorización LU se obtiene a través de métodos como la eliminación de Gauss:

  1. Aplicar operaciones elementales para transformar la matriz \( A \) en una matriz triangular superior \( U \).
  2. Registrar los factores multiplicativos de estas operaciones en una matriz triangular inferior \( L \).

Si se necesita mayor estabilidad numérica, se emplea pivoteo, lo que introduce una matriz de permutación \( P \):

\[ P \cdot A = L \cdot U \]

Aplicaciones

La factorización LU tiene múltiples aplicaciones en matemáticas aplicadas y ciencias de la computación:

  • Resolución de sistemas de ecuaciones lineales: Para resolver \( A \mathbf{x} = \mathbf{b} \), primero se calcula \( L \cdot U = A \), luego se resuelve:
    1. \( L \mathbf{y} = \mathbf{b} \) (sustitución progresiva).
    2. \( U \mathbf{x} = \mathbf{y} \) (sustitución regresiva).
  • Inversión de matrices: La factorización LU permite calcular la inversa de \( A \) resolviendo \( A \mathbf{x}_i = \mathbf{e}_i \), donde \( \mathbf{e}_i \) son los vectores de la base canónica.
  • Análisis numérico: Optimiza el cálculo para matrices grandes y es un paso clave en algoritmos como los de factorización QR o SVD.

Método de Doolittle

El método de Doolittle es un procedimiento utilizado para resolver sistemas de ecuaciones lineales mediante la factorización de una matriz \( A \) en el producto de dos matrices: una matriz triangular inferior \( L \) y una matriz triangular superior \( U \), es decir, \( A = LU \).

Procedimiento

  1. Reescribir la matriz \( A \) como el producto \( L \cdot U \), donde \( L \) tiene unos en la diagonal principal.
  2. Calcular las entradas de \( L \) y \( U \) de forma iterativa utilizando sustituciones hacia adelante y hacia atrás.
  3. Resolver el sistema \( Ax = b \) en dos pasos:
    • Primero, resolver \( Ly = b \) usando sustitución hacia adelante.
    • Luego, resolver \( Ux = y \) usando sustitución hacia atrás.

Ventajas

  • Permite resolver múltiples sistemas con la misma matriz \( A \) cambiando solo el vector \( b \).
  • Reduce el costo computacional al dividir el problema en pasos más simples.

Limitaciones

  • No siempre es aplicable si la matriz \( A \) es singular o no cuadrada.
  • Pierde precisión en matrices con números muy pequeños o muy grandes debido a errores de redondeo.

Aplicaciones

Se usa en álgebra lineal numérica para resolver sistemas de ecuaciones, calcular inversas de matrices y determinar determinantes de matrices grandes.

DOOLITTLE

instrucciones: Ingresa el orden del la matriz \(A\) y presiona "Crear matriz", luego ingresa el valor de los coeficientes, por último presiona "Resolver".














Método de Cholesky

El método de Cholesky es una técnica de factorización utilizada para resolver sistemas de ecuaciones lineales. Descompone una matriz simétrica y definida positiva \( A \) en el producto de una matriz triangular inferior \( L \) y su traspuesta \( L^T \), es decir, \( A = LL^T \).

Procedimiento

  1. Comprobar que la matriz \( A \) es simétrica y definida positiva.
  2. Calcular los elementos de \( L \) utilizando la fórmula: \[ l_{ii} = \sqrt{a_{ii} - \sum_{k=1}^{i-1} l_{ik}^2} \] y para \( i \neq j \): \[ l_{ij} = \frac{1}{l_{jj}} \left( a_{ij} - \sum_{k=1}^{j-1} l_{ik} l_{jk} \right). \]
  3. Resolver el sistema \( Ax = b \) mediante:
    • Sustitución hacia adelante para \( Ly = b \).
    • Sustitución hacia atrás para \( L^T x = y \).

Ventajas

  • Es más eficiente que otros métodos como Doolittle para matrices simétricas y definidas positivas.
  • Reduce el costo computacional al trabajar con la mitad de los elementos de la matriz.

Limitaciones

  • Solo es aplicable a matrices simétricas y definidas positivas.
  • Puede ser inexacto si la matriz no cumple estas propiedades.

Aplicaciones

El método de Cholesky se utiliza en optimización, álgebra lineal numérica y análisis estadístico, especialmente en problemas que involucran matrices grandes y simétricas, como las covarianzas.

CHOLESKY

Instrucciones: Ingresa el orden de la matriz, presiona "Crear Matriz" e ingresa el valor de los ceficientes. Luego oprime "Resolver".

Nota: Para poder aplicar el método será necesario que la matriz cumpla las condiciones:

  1. Simétrica: \(A^T = A\)
  2. Definida Positiva: \(\vec{x}^T A \vec{x} > 0\)













Cálculo de Valores y Vectores Propios

Los valores propios y vectores propios son conceptos fundamentales en álgebra lineal y tienen aplicaciones extensas en diversas disciplinas, como física, economía, ingeniería y ciencias de datos. Para una matriz cuadrada \( A \), un valor propio \( \lambda \) y un vector propio \( \mathbf{v} \) satisfacen la ecuación:

\[ A \mathbf{v} = \lambda \mathbf{v} \] donde:

  • \( \lambda \) es un escalar, llamado valor propio.
  • \( \mathbf{v} \) es un vector no nulo, llamado vector propio.

Cálculo de Valores Propios

Para encontrar los valores propios de una matriz \( A \), se resuelve el problema característico:

\[ \det(A - \lambda I) = 0 \] donde \( I \) es la matriz identidad. Esta ecuación genera un polinomio característico, cuyos raíces son los valores propios de \( A \).

Cálculo de Vectores Propios

Una vez que los valores propios \( \lambda \) han sido determinados, los vectores propios se calculan resolviendo el sistema lineal:

\[ (A - \lambda I) \mathbf{v} = 0 \]

Este sistema puede tener múltiples soluciones no triviales, lo que implica que los vectores propios asociados a un valor propio forman un subespacio (espacio propio).

Aplicaciones

Los valores y vectores propios tienen múltiples aplicaciones prácticas, incluyendo:

  • Dinámica de sistemas: Análisis de estabilidad y oscilaciones en sistemas físicos y económicos.
  • Reducción de dimensionalidad: Técnicas como el Análisis de Componentes Principales (PCA) utilizan valores propios para identificar las direcciones de máxima varianza en los datos.
  • Resolución de ecuaciones diferenciales: Los valores propios de operadores diferenciales lineales ayudan a determinar soluciones generales.
  • Similitud matricial: La diagonalización de matrices simplifica cálculos exponenciales y otras operaciones matriciales.

Método de la Potencia

El método de la potencia es un algoritmo iterativo utilizado para calcular el autovalor dominante y su correspondiente autovector de una matriz cuadrada \( A \).

Descripción

Dado un vector inicial no nulo \( x^{(0)} \), el método genera una sucesión de vectores mediante la iteración:

\( x^{(k+1)} = A x^{(k)} \), \( x^{(k+1)} \gets \frac{x^{(k+1)}}{\|x^{(k+1)}\|} \),

donde \( \|x\| \) es una norma (usualmente, la norma euclidiana). Esta normalización evita el crecimiento ilimitado de \( x^{(k)} \).

Convergencia

Si \( A \) tiene un autovalor dominante \( \lambda_1 \) (es decir, \( |\lambda_1| > |\lambda_i| \) para todos los \( i \neq 1 \)), el método converge a un vector paralelo al autovector asociado a \( \lambda_1 \).

Ventajas

  • Simplicidad de implementación.
  • Computacionalmente eficiente para matrices grandes y dispersas.

Limitaciones

  • No converge si \( A \) no tiene un autovalor dominante.
  • Puede ser sensible al vector inicial \( x^{(0)} \).

POTENCIA

Instrucciones: Ingresa el orden de la matriz y presiona "Crear Matriz". Luego ingesa el valor de los coeficientes y un vector inicial. El método calculará el valor propio dominante y el vector propio asociado al valor propio dominante.

















Método de la Potencia Inversa

El método de la potencia inversa es una variante del método de la potencia, utilizada para encontrar el autovalor más pequeño en magnitud de una matriz cuadrada \( A \) y su correspondiente autovector.

Descripción

Dado un vector inicial no nulo \( x^{(0)} \), el método genera una sucesión de vectores resolviendo iterativamente un sistema lineal:

\( A y^{(k)} = x^{(k)}, \quad x^{(k+1)} = \frac{y^{(k)}}{\|y^{(k)}\|} \),

donde \( \|x\| \) es una norma (usualmente, la norma euclidiana). Esto equivale a aplicar el método de la potencia a la matriz \( A^{-1} \), destacando los autovalores más cercanos a cero.

Convergencia

Si \( \mu_1 \) es el autovalor de \( A \) más pequeño en magnitud (es decir, \( |\mu_1| < |\mu_i| \) para \( i \neq 1 \)), el método converge a un vector paralelo al autovector asociado a \( \mu_1 \).

Ventajas

  • Permite calcular el autovalor más pequeño en magnitud, útil para problemas específicos.
  • Es efectivo para matrices grandes y dispersas.

Limitaciones

  • Requiere resolver un sistema lineal en cada iteración, lo que puede ser costoso computacionalmente.
  • Sensible a la elección del vector inicial \( x^{(0)} \).
  • No converge si \( A \) es singular.

Notas Adicionales

El método puede combinarse con desplazamientos espectrales para calcular autovalores cercanos a un valor dado \( \sigma \) al aplicar el método de potencia inversa a \( (A - \sigma I)^{-1} \).

POTENCIA-INVERSA

Instrucciones: Ingresa el orden de la matriz y presiona "Crear Matriz". Luego ingesa el valor de los coeficientes y un vector inicial. El método calculará el valor propio menor y el vector propio asociado al valor propio menor.

















¡¡¡Gracias por utilizar el programa!!!

Referencias:

  1. Burden, R. L., & Faires, J. D. (2011). Numerical Analysis (9th ed.). Brooks/Cole, Cengage Learning.

  2. Chapra, S. C., & Canale, R. P. (2010). Numerical Methods for Engineers (6th ed.). McGraw-Hill Education.

  3. Kincaid, D., & Cheney, W. (2002). Numerical Analysis: Mathematics of Scientific Computing (3rd ed.). Brooks/Cole.