viernes, 28 de mayo de 2010

6.8 Aplicaciones de los valores y vectores caracteristicos

Los valores y vectores característicos tienen muchas aplicaciones en la tanto en el ramo de las matemáticas como física, mencionaremos algunos temas en donde también se pueden emplear: Orbitales moleculares, Análisis factorial, Tensor de inercia, Tensor de tensión y Valores propios de un grafo, En ecuaciones lineales, matrices, etc.

A continuacion algunas de ellas

Caras propias
En procesado de imagen, las imágenes procesadas de caras pueden verse como vectores cuyas componentes son la luminancia de cada píxel. La dimensión de este espacio vectorial es el número de píxeles. Los vectores propios de la matriz de covarianza asociada a un conjunto amplio de imágenes normalizadas de rostros se llaman caras propias. Son muy útiles para expresar una imagen de un rostro como la combinación lineal de otras. Las caras propias proporcionan un medio de aplicar compresión de datos a los rostros, para propósitos de biometría.

Tensor de inercia
En mecánica, los vectores propios del momento de inercia definen los ejes principales de un cuerpo rígido. El tensor de inercia es necesario para determinar la rotación de un cuerpo rígido alrededor de su centro de masa. Los valores propios definen los momentos máximos y mínimos obtenidos mediante el círculo de Mohr.

Tensor de tensión
En mecánica de sólidos deformables, el tensor de tensión es simétrico, así que puede descomponerse en un tensor diagonal cuyos valores propios en la diagonal y los vectores propios forman una base.

CONCLUSION

los valores y vectores caracteristicos son de vital importancia en muchas ramas de la fisica y las matematicas, sus aplicaciones son muy vaiadas van desde el algebra lineal avanzada,analisis vectorial, pasando por el calculo numerico, el famoso calculo tensorial,el estudio de señales y de imagenes hasta la optica.
Con esto podríamos decir que hemos aprendido a tener un amplio criterio de la utilidad de temas ya vistos en nuestra carrera, ya que no podemos omitir las enseñanzas pasadas ya que estas nos forman las bases para comprender y analizar y poder poner en practica los temas futuros.

jueves, 27 de mayo de 2010

6.7 Teorema de Cayley-Hamilton

En álgebra lineal, el teorema de Cayley-Hamilton (que lleva los nombres de los matemáticos Arthur Cayley y William Hamilton) asegura que todo endomorfismo de un espacio vectorial de dimensión finita sobre un cuerpo cualquiera anula su propio polinomio característico.

En términos matriciales, eso significa que :

si A es una matriz cuadrada de orden n y si


es su polinomio característico (polinomio de indeterminada X), entonces al sustituir formalmente X por la matriz A en el polinomio, el resultado es la matriz nula:


El teorema de Cayley-Hamilton se aplica también a matrices cuadradas de coeficientes en un anillo conmutativo cualquiera.

Un corolario importante del teorema de Cayley-Hamilton afirma que el polinomio mínimo de una matriz dada es un divisor de su polinomio característico, y no solo eso, el polinomio mínimo tiene los mismos factores irreducibles que el polinomio característico.Toda matriz cuadrada satisface su propia ecuación característica. Es decir, si p(λ) = 0 es la ecuaciσn característica de A, entonces p(λ) = 0 .

El teorema de Cayley-Hamilton es una herramienta matematica poderosa, ya que permite
obtener con mayor facilidad el calculo de e^At con un esfuerzo mucho menor comparado con Laplace o el metodo de eigevalores, ademas funciona para calcular funciones matriciales en general.

Este teorema tiene dos familias de uso:

Permite establecer resultados teóricos, por ejemplo para calcular el polinomio característico de un endomorfismo nilpotente.
Permite también simplificaciones poderosas en el cálculo de matrices. La aproximación por polinomios mínimos es en general menos costosa que la que se hace por determinantes.
Encontramos este teorema utilizado en los artículos sobre los polinomios de endomorfismo, endomorfismos nilpotentes, y más en general en la teoría general de las matrices

Ejemplo:

Consideremos por ejemplo la matriz:

El polinomio característico se escribe


El teorema de Cayley-Hamilton afirma que:
A^2 − 5A − 2I2 = 0
y esta relación puede verificarse inmediatamente en ese caso. Además el teorema de Cayley-Hamilton permite calcular las potencias de una matriz de modo más sencillo que por un cálculo directo. Tomemos la relación anterior

A^ − 5A − 2I2 = 0
A^ = 5A + 2I2
Así, por ejemplo, para calcular A^4, podemos escribir

A^8 = (5A + 2I2)A = 5A2 + 2A = 5(5A + 2I2) + 2A = 27A + 10I2
y llegamos a

A^4 = A^83A = (27A + 10I2)A = 27A^2 + 10A = 27(5A + 2I2) + 10A
A^4 = 145A + 54I2.
Podemos utilizar también la relación polinomial inicial A2 − 5A − 2I2 = 0 para probar la inversibilidad de A y calcular su inverso. En efecto, basta con factorizar una potencia de A donde sea posible y
A(A − 5I) = 2I2

lo que demuestra que A admite como inverso



En algunas situaciones el teorema de Caley – Hamilton es útil para calcular la inversa de una matriz. Si existe A-1 y p(A) = 0, entonces A-1 p(A) = 0.para ilustrar esto, si p(λ) = λn + an-1 λn-1 + … + a1λ + a0, entonces

p(A) = An + an-1 An-1 + …+ a1A + a0I = 0

y

A-1p(A) = An-1 + an-1An-2 + … + a2A + a1I + a0A-1 = 0

Asi

A-1 = 1/a0 (-An-1 -an-1An-2 - … - a2A – a1I )

Observe que a0 es diferente de 0 porque a0 = det A (¿Por qué?) y se supuso que A era invertible.

1 −1 4

Ejemplo 2: Aplicación del teorema de Caley – Hamilton para calcular A-1 Sea A = 3 2 −1

1 −1

Entonces p(λ) = λ3 - 2λ2 - 5λ + 6. Aquí n = 3, a2 = −2,a1 = −5, a0 = 6 y A-1 = 1/6 (-A2 + 2A + 5I)

-6 −1 −1 2 −2 8 5 0 0

= 1/6 −7 0 −11 + 6 4 −2 + 0 5 0

-3 1 −8 4 2 −2 0 0 5

1 −3 7

= 1/6 −1 9 −13

1 3 −5


6.6 Formas cuadraticas

Una forma cuadrática es una aplicación del espacio vectorial E en el cuerpo K, que cumple las siguientes condiciones equivalentes: a) Existe una forma bilineal simétrica f de ExE en el cuerpo K tal que (x) = f(x,x). A f se le llama forma polar de . b) (lx) = l2x, . Además f(x,y) = ( (x + y) " (x) " (y)) / 2 es una forma bilineal simétrica definida en ExE y con valores en K. A se la llama forma cuadrática asociada a f. Cuando se dice que la forma cuadrática es real. A veces a las formas cuadráticas definidas positivas se las denomina métricas. Formas cuadráticas Una forma cuadrática en R3 es cualquier conjunto de puntos xT=(x1,x2,x3) que satisface una ecuación del tipo: xTAx=r, (1) donde A es una matriz simétrica de 3x3 a coeficientes reales y r es un número real. Vía una rotación del espacio dada por y=PTx donde yT=(y1,y2,y3) y P es una matriz unitaria de 3x3 a coeficientes reales, se puede expresar una forma cuadrática arbitraria con respecto a un vector y de manera que: yTDy=r, (2) donde D es una matriz diagonal de 3x3 a coeficientes reales. ¿Porqué siempre pueden encontrarse P y D con las propiedades requeridas? ¿Por qué P representa una rotación del espacio? Vía un re-escalamiento adicional dado por z=D'y donde zT=(z1,z2,z3) y D' es una matriz diagonal de 3x3 a coeficientes reales no-negativos, se puede expresar la última ecuación obtenida con respecto el vector z de manera que quede representada por una ecuación del tipo: zTJz=r, (3) donde J es una matriz diagonal de 3x3 que sólo puede contener en su diagonal valores que están en {"1,0,1}.

Una forma cuadrática es una aplicación del espacio vectorial E en el cuerpo K, que cumple las siguientes condiciones equivalentes:

a) Existe una forma bilineal simétrica f de ExE en el cuerpo K tal que (x)=f(x,x). A f se le llama forma polar de .

b) (lx) = l2x
Además f(x,y) = ( (x + y) " (x) " (y)) / 2 es una forma bilineal simétrica definida en ExE y con valores en K. A se la llama forma cuadrática asociada a f.

Cuando K = R
se dice que la forma cuadrática es real. A veces a las formas cuadráticas definidas positivas se las denomina métricas.

6.5 Diagonalizacion de matrices simetricas, diagonalizacion ortogonal

Dada A una matriz simétrica asociada a f, endomorfismo de Rn, se verifican las siguientes
propiedades:
Teorema 1. Sea A una matriz simétrica real de n x n. Entonces los valores característicos de A son reales.

Teorema 2. Sea A una matriz simétrica real de n x n. Si λ1 y λ2 son valores característicos distintos con correspondientes vectores característicos reales v1 y v2, entonces v1 y v2 son ortogonales.

Teorema 3.Sea A una matriz simétrica real de n x n. Resulta entonces que A tiene n vectores característicos reales ortonormales.

Obervación. Se concluye de este teorema que la multiplicidad geométrica de cada valor característico de A es igual a su multiplicidad algebraica.

El Teorema 3 nos dice que si A es simétrica entonces Rn tiene una base B = {u1, u2, ... un} que consiste de vectores característicos ortonormales de A. Sea Q la matriz cuyas columnas u1, u2, ... un. Entonces Q es una matriz ortogonal. Esto nos conduce hacia la siguiente definición.

Una matriz diremos que es ortogonal si su traspuesta coincide con su inversa.



Definicion. Matriz ortogonalmente diagonizable. Una matriz A de n x n se dice que es diagonalizable ortogonalmente si existe una matriz ortogonal Q tal que
Q'AQ = D (1)

donde D = diag(λ1, λ2, ..., λn) y λ1, λ2, ..., λn son los valores característicos de A.

Teorema 4. Sea A una matriz real de n x n. Entonces A es diagonalizable ortogonalmente si y sólo si A es simétrica.

Procedimiento para encontrar una matriz diagonalizante Q:

i. Encuentre una base para cada espacio característico de A.

ii. Encuentre una base ortonormal para cada espacio característico de A, usando el procedimiento Gram-Schmidt.

iii. Establezca a Q como la matriz cuyas columnas son los vectores característicos ortonormales obtenidos en el paso (ii).

Entre las aplicaciones de la diagonalización de matrices cuadradas se encuentra el análisis de la solución de un sistema dinámico a lo largo del tiempo. Un sistema se caracteriza por el estado de las n variables
que lo determinan y se puede representar por un vector x de Rn cuyas componentes expresan los valores de esas variables.

Ejemplo:


6.4 DIAGONALIZACION DE MATRICES, POTENCIAS Y RAICES DE MATRICES

En álgebra lineal, una matriz diagonal es una matriz cuadrada en que las entradas son todas nulas salvo en la diagonal principal, y éstas pueden ser nulas o no. Así, la matriz D = (di,j) es diagonal si:


Para estudiar una matriz suele ser conveniente expresarla de forma lo más sencilla posible. Diagonalizar una matriz A es precisamente eso: escribirla de manera simple encontrando una matriz invertible P y una diagonal D (si se puede).Diagonalizar una matriz es muy importante en el Álgebra Lineal, pues se cumple lo siguiente:

facilitando mucho el calculo de las potencias de A, dado que sieno D una matriz diagonal el calculo de su p-esima potencia es muy sencillo:


La matriz P se llama matriz de paso.

Puede que esto, al principio, no parezca más simple de lo que ya era A directamente. Sin embargo, lo es desde muchos puntos de vista. Dado que las matrices suelen usarse para representar aplicaciones lineales, la expresión anterior puede verse como un cambio de base de la aplicación representada por A; entonces, esta forma de escribirlo dice: hay una base en la que la aplicación lineal A tiene una forma muy simple (diagonal). Esto es útil, por ejemplo, para clasificar una aplicación lineal y estudiar sus propiedades. Las matrices se usan para representar otras cosas como cónicas, cuádricas o formas bilineales, y en estos casos también resulta útil esta forma de expresarlas.

La relación anterior entre las matrices A y D es importante y aparece en muchos contextos, así que tiene nombre propio:
Cuando dos matrices cuadradas A y B verifican que A = P B P-1 para cierta matriz cuadrada P (invertible, claro) decimos que A y B son semejantes.

Una matriz es diagonalizable cuando se puede diagonalizar; es decir, cuando podemos encontrar una matriz diagonal y una invertible de forma que la matriz se escriba como dijimos antes. Dicho de otra forma: una matriz es diagonalizable cuando es semejante a una matriz diagonal.Entonces, más exactamente: una matriz es diagonalizable cuando es semejante a una matriz diagonal real.

¿Cuándo y cómo podemos diagonalizar una matriz?

Si conseguimos escribir una matriz A como A = P D P-1 , entonces podemos poner también A P = P D. Si D es diagonal y nos fijamos en la columna i de esta última igualdad lo que tenemos es que A xi = λi xi (donde xi es la columna i de A y λi es el número en el lugar i de la diagonal de D). Esto nos dice que para diagonalizar una matriz nos hace falta conocer los vectores a los que les pase algo así. Estos vectores también tienen nombre:

Si un número λ y un vector no nulo x verifican la relación A x = λ x diremos queλ es un valor propio o autovalor de la matriz A y que x es un vector propio o autovector de A asociado al valor propio λ.

Es fácil ver que diagonalizar una matriz A de tamaño n×n es lo mismo que encontrar n vectores propios linealmente independientes asociados a valores propios reales, ya que entonces podemos ponerlos por columnas y conseguir así la matriz P (puedes comprobar que entonces se cumple la relación que buscamos). Entonces, para diagonalizar una matriz lo que tenemos que hacer es buscar n vectores propios suyos linealmente independientes asociados a valores propios reales.

¿Cómo encontrar valores y vectores propios de una matriz?

Es fundamental, pues, hallar los valores propios de A y los vectores propios asociados. Como un vector propio l hace que el sistema Ax = λx tenga solución x distinta de cero, la matriz de coeficientes A −λI (donde I denota la matriz identidad de orden n) debe tener determinante no nulo. Este determinante det(A−λI) es un polinomio en λ de grado n y se denomina polinomio característico de A. Por lo tanto, los valores propios de A serán los ceros del polinomio característico de A.
Observa que una matriz puede perfectamente tener valores propios imaginarios.

Por otro lado, el conjunto de vectores propios de A asociados a un mismo valor propio λ forman un subespacio vectorial de Rn que se llama subespacio propio asociado al valor propio λ, y es el núclea de la matriz A −λI. Para concluir si una matriz A es o no diagonalizable bastará pues averiguar si hay "suficientes" valores propios reales para construir D y si hay"suficientes" vectores propios linealmente independientes asociados; esta información nos la dará la dimensión de los subespacios propios y queda recogida en el siguiente resultado:

Una matriz real cuadrada de orden n es diagonalizable si y sólo si tiene n vectores propios linealmente independientes asociados a valores propios reales.

Además, el teorema espectral nos confirma un caso en el que siempre es posible diagonalizar:

Toda matriz real simétrica es diagonalizable.

En este caso,se puede conseguir además que las columnas de la matriz de paso P sean una base ortonormal y por lo tanto que P sea una matriz ortogonal.

El determinante de una matriz coincide con el de su traspuesta

Det A=Det At , es decir, o denotando cada fila con el color usual en esta unidad,

Por tanto, todas las propiedades vistas para las filas de una matriz son también ciertas para sus columnas En la escena, se presenta a la izquierda el determinante de una matriz, y a la derecha, el de su traspuesta. Si variamos los valores de a, b, c, y d, es difícil ver que ambos paralelogramos coinciden. Veremos primero, geométricamente, que coinciden cuando la matriz es triangular.

EJEMPLO, Diagonalizar una matriz" se reduce a encontrar sus vectores y valores propios. Tomemos la matriz:


veamos que es diagonalizable:

Esta matriz tiene los valores propios: λ1 = -1, λ2 = 4
Así A es una matriz 2 por 2 con 2 valores propios diferentes, entonces se dice que es diagonizable.Si queremos diagonalizar A necesitamos calcular los correspondientes vectores propios. Ellos son:


Uno podría verificar fácilmente esto mediande:


Ahora, es la matriz invertible con los vectores propios de como columnas

con inversa


Hallemos ahora la matriz diagonal, usando esta matriz P como sigue:


Realizamos el cálculo introduciendo los datos


Luego resulta que existen matrices P y D tales que

Cumpliendo P y D los requisitos pedidos al principio y por lo tanto la matriz A es diagonizable.

Potencias de una matriz diagonizable

Podemos calcular, por ejemplo, la séptima potencia de la matriz anterior:

6.3 Determinacion delos valores y vectores caracteristicos de una matriz cuadrada

Cálculo de valores propios y vectores propios

Si se quiere calcular los valores propios de una matriz dada y ésta es pequeña, se puede calcular simbólicamente usando el polinomio característico. Sin embargo, a menudo resulta imposible para matrices extensas, caso en el que se debe usar un método numérico.

Encontrando valores propios
Una herramienta importante para encontrar valores propios de matrices cuadradas es el polinomio característico: decir que λ es un valor propio de A es equivalente a decir que el sistema de ecuaciones lineales (A - λI) v = 0 (donde I es la matriz identidad) tiene una solución no nula v (un vector propio), y de esta forma es equivalente al determinante: det(A- λI) = 0
La función p(λ) = det(A - λI) es un polinomio de λ pues los determinante se definen como sumas de productos. Éste es el polinomio característico de A: los valores propios de una matriz son los ceros de su polinomio característico.
Todos los valores propios de una matriz A pueden calcularse resolviendo la ecuación pA(λ) = 0.

Si A es una matriz n×n, entonces pA tiene grado n y A tiene como máximo n valores propios.

Encontrando vectores propios
Una vez que se conocen los valores propios λ, los vectores propios se pueden hallar resolviendo el sistema de ecuaciones homogéneo
(A - λI)V = 0

Un ejemplo de matriz sin valores propios reales es la rotación de 90 grados en el sentido de las manecillas del reloj

cuyo polinomio caracteristico es -λ^2 - 1 y sus valores propios son el par de conjugados complejos i, -i. Los vectores propios asociados tampoco son reales.

Considérese la matriz:

que representa un operador lineal R³ ! R³. Si se desea computar todos los valores propios de A, se podría empezar determinando el polinomio característico







6.2 Polinomio y ecuacion caracteristica

Para calcular eigenvalores de una matriz de transformación se usa la definición de eigenvectores el
cual es:

Av = λv


El miembro derecho queda idéntico cuando lo multiplicamos por la matriz identidad:



Av = Iλv


Así la primera ecuación queda:


Av = Iλv

Entonces:

Av - Iλv = (A - Iλ)v = 0

De este modo:

A - λI = O

El determinante del primer miembro es un polinomio en términos de λ,el cual tiene el nombre de polinomio caracteristico de A, el cual es:

Det[A - λ]

Asi mismo llamamos a

Det[A - λ] = 0

ecuación característica de A, la cual nos da los eigenvalores de la matriz A.

Ejemplo:

Determinar el polinomio y la ecuacion caracteristica de la siguiente matriz:

El polinomio característico viene dado por la expresión
Det[A - Iλ]

Entonces




El polinomio caracteristico es λ^2 - λ + 4

y la ecuacion caracteristica es λ^2 - λ + 4 = 0

UNIDAD VI VALORES Y VECTORES CARACTERISTICOS

6.1 Definicion de valores y vectores caracteristicos de una matriz cuadrada

Los valores y vectores caracteristicos o propios de una matriz cuadrada se conocen tambien como eigenvalores y eigenvectores.
El abjetivo aleman eigen significa "propio" o "caracteristico".Los eigenvalores y eigenvectores son caracteristicos en el sentido de que contienen informacion importante acerca de la naturaleza de la misma. La letra griega λ(lmabda), equivale en grigo la letra L de nuestro alfabeto, se utilizan para denotar los eigenvalores porque en un tiempo tambien eran conocidos como valores latentes, se ha traducido también como inherente,o el prefijo auto-, donde se aprecia el énfasis en la importancia de los valores propios para definir la naturaleza única de una determinada transformación lineal. Las denominaciones vector y valor característicos también se utilizan habitualmente.
los vectores propios, autovectores o eigenvectores de un operador lineal son los vectores no nulos que, cuando son transformados por el operador, dan lugar a un múltiplo escalar de sí mismos, con lo que no cambian su dirección. Este escalar λ recibe el nombre valor propio, autovalor, valor característico o eigenvalor. A menudo, una transformación queda completamente determinada por sus vectores propios y valores propios. Un espacio propio, autoespacio o eigenespacio es el conjunto de vectores propios con un valor propio común.
Las transformaciones lineales del espacio —como la rotación, la reflexión, el ensanchamiento, o cualquier combinación de las anteriores; en esta lista podrían incluirse otras transformaciones— pueden interpretarse mediante el efecto que producen en los vectores. Los vectores pueden visualizarse como flechas de una cierta longitud apuntando en una dirección y sentido determinados.

Los vectores propios de las transformaciones lineales son vectores[1] que, o no se ven afectados por la transformación o se ven multiplicados por un escalar, y por tanto no varían su dirección.
El valor propio de un vector propio es el factor de escala por el que ha sido multiplicado.
Un espacio propio es un espacio formado por todos los vectores propios del mismo valor propio, además del vector nulo, que no es un vector propio.
La multiplicidad geométrica de un valor propio es la dimensión del espacio propio asociado.
El espectro de una transformación en espacios vectoriales finitos es el conjunto de todos sus valores propios.
Por ejemplo, un vector propio de una rotación en tres dimensiones es un vector situado en el eje de rotación sobre el cual se realiza la rotación. El valor propio correspondiente es 1 y el espacio propio contiene a todos los vectores paralelos al eje. Como es un espacio de una dimensión, su multiplicidad geométrica es uno. Es el único valor propio del espectro (de esta rotación) que es un número real.

Formalmente, se definen los vectores propios y valores propios de la siguiente manera: Si A: V → V es un operador lineal en un cierto espacio vectorial V, v es un vector diferente de cero en V y c es un escalar tales que
Av = cv,
entonces decimos que v es un vector propio del operador A, y su valor propio asociado es c. Observe que si v es un vector propio con el valor propio c entonces cualquier múltiplo diferente de cero de v es también un vector propio con el valor propio c. De hecho, todos los vectores propios con el valor propio asociado c junto con 0, forman un subespacio de V, el espacio propio para el valor propio c.

EJEMPLOS Y APLICACIONES DE LAS TRANSFORMACIONES LINEALES

Demostrar que la siguiente funcion es una transformacion lineal

Veamos primero que T respeta la suma.
1Sean (x,y),(x,y) cualesquiera en R^2

T((x,y)+(x',y')) = T((x+x',y+y'))
= (y+y';x+x')
= (y;x)+(y';x')
= T((x;y))+T((x';y'))

Ahora la multiplicación por escalar.
Sea (x,y) cualesquiera en R^2 y a en R

T(a(x;y)) = T((ax;ay))
= (ay;ax)
= a(y;x)
= aT((x;y))

con lo cual hemos demostrado que T es una transformación lineal


Demostrar que la siguiente funcion es una transformacion lineal
Veamos primero que T respeta la suma
Sean ax^2 + bx + c, ax^2'+ b'x + c' cualesquiera en R^2 [X]
T((ax2+bx+c)+(a'x2+b'x+c')) = T((a+a')x2+(b+b')x+(c+c'))
= ((a+a')-(b+b');2(c+c')+(b+b'))
= (a-b+a'-b';2c+b+2c'+b')
= (a-b;2c+b)+(a'-b';2c'+b')
= T(ax2+bx+c)+T(a'x2+b'x+c')

Ahora la multiplicación por escalar.
sea ax^2 + bx + c, cualesquiera en R2[X]y λ en R

T(x-ax2+bx+cx) = T(xax2+xbx+xc)
= (xa-xb;2xc+xb)
= (x(a-b);x(2c+b))
= x(a-b;2c+b)
= aT(ax2+bx+c)

con lo cual hemos demostrado que es una transformación lineal


por un ángulo Ө

Sea 0 ≤ Ө <> un ángulo medido en radianes. Queremos averiguar cual es la transformación T de R^2
en R^2 que gira cada vector U=( U1,U2) un ángulo θ para obtener un vector T(u)=(v1,v2)
En una gráfica, vemos la situación como sigue:

· Si usamos las funciones trigonométricas, tenemos que:
v1= T(u)٠cos(α+Ө) = (u)٠(cos α ٠ cos Ө - sen α ٠ sen Ө )
v2= T(u)٠sen(α+Ө) = (u)٠(sen α ٠ cos Ө - cos α ٠ sen Ө )

Distribuyendo y usando el hecho de que U1=u cos α y U2=u sen α tenemos que:
v1= U1 cos Ө - U2 sen Ө
v2= U2 cos Ө + U1 sen Ө
Por lo tanto, ya descubrimos cómo debe estar definida la transformación T:R^2 → R^2
tal que: T (U1 , U2) = (U1 cos Ө - U2senӨ,U2 cos Ө + U1 sen Ө )
Esta transformación se llama la rotación por un ángulo Ө
y es lineal, ya que:
T [(U1 , U2)+ λ(v1 , v 2)] = T (u1 + λ v1 , u2 + λ v2 ) = ((u1 + λ v1)cos Ө - (u2 + λ v2) sen Ө, (u2 + λ v2) cos Ө + (u1 + λ v1) sen Ө) = (u1 cos Ө - u2 sen Ө, u2 cos Ө + u1 sen Ө) + λ (v1cos Ө - v2 sen Ө , v2 cos Ө + v1 sen Ө) = T(u1 , u2) + λ T (v1 , v2)

Reflexión sobre el eje x
En este caso, queremos averiguar como está definida la transformación T de R^2 en R^2 que cada vector u = (u1 , u2) lo refleja sobre el eje x, para obtener un vector T (u) = ( v1 , v2)

En una gráfica, vemos la situación como sigue:

↑→

En este caso, la situación es más sencilla ya que claramente tenemos dos triángulos rectángulos que son congruentes, de donde T queda definida como sigue:
T(u1 , u2)=(u1 , - u2)
Esta transformación se llama la reflexión sobre el eje x, y es lineal, ya que:
T[(u1 , u2)+ λ (v1 , v2)] = T(u1 + λ v1 , u2 + λ v2)
=(u1 + λ v1 , - u2 - λ v2)
=(u1 , - u2) + λ (v1 , - v2)
T=(u1 , u2) + λ T (v1 , v2)
Proyección ortogonal sobre el eje x

En este caso, queremos averiguar como está definida la transformación T de R^2 en R^2 que a cada vector u=(u1 , u2) lo proyecta perpendicularmente sobre el eje x, para obtener un vector T(u)=(v1, v2)
En una gráfica, vemos la situación como sigue:
↑→
También este caso es sencillo, pues es obvio que T queda definida como sigue:
T(u1, u2) = (u1 , 0)
Esta transformación se llama la proyección sobre el eje x, y es lineal, ya que:
T[(U1 , u2) + λ (v1 , v2)] = T (u1+ λ v1 , u2 + λ v2)
=(u1 + λ v1 , O) = (u1 , O) + λ (v1 , O)
= T (u1 , u2) + λ T(v1, v2)
Este último ejemplo tiene más fondo desde el punto de vista de Álgebra Lineal. Consideremos el siguiente subespacio de R^2
W1 = {(x,0)/x Є R }
Vemos que éste no es sino el eje x (sobre quien se efectuó la proyección). Ahora bien, W1 tiene un complemento directo, a saber,
W2 = {(0,y)/y Є R }
De tal forma que cada vector (x , y) Є R^2 se escribe en forma única como suma de un vector de W1 más un vector de W2 como sigue:
(x,y) = (x,0)+(0,y)
Notamos que la proyección sobre el eje x, manda a (x,y) sobre (x,0) , el cual es precisamente el término correspondiente a W1 en la descomposición anterior.
Todo esto nos induce a definir proyecciones sobre subespacios en general como sigue:
Definición. Sea V un espacio vectorial y sea W1 c V un subespacio tal que existe W2 el complemento directo de W1 en V, es decir tal que V = W1 + W2 , de tal forma que cada vector v Є V se escribe en forma única como:
v = x + y
Con: x Є W1 y y Є W2
Definimos entonces la proyección sobre W 1 , como aquella transformación T:V→V tal que T(v) = x.
Lo primero que observamos es que esta transformación es lineal, ya que si v1=x1+y1 , v2=x2+y2 con xi Є W1 y yi Є W2 , entonces v1+ λv2=x1+y1+λ(x2+y2)=(x1+λx2)+(y1+λy2) con x1+λx2 Є W1 y y1+λy2 Є W2

Por lo tanto, de acuerdo a la definición de T, tenemos que:

T(v1+ λ v2)=x1+λ x2=T(v1+λ T(v2)
En segundo lugar, vemos que esta definición, incluye como caso especial a la de la proyección sobre el eje x. Sin embargo, vemos que no es suficiente con especificar sobre que subespacio queremos proyectar, sino también es necesario aclarar cual es el complemento directo que se estará usando, ya que un mismo subespacio puede tener distintos complementos directos. El mismo eje x, tiene el siguiente complemento directo:

W2= {(X , X) / X Є R }

En efecto, es claro que W2 es un subespacio de R^2 y W1 --- W2= (0 , 0)
Además, cada (X , Y) Є R^2 se escribe como:
(x,y) = (x-y,0) + (y,y) Є W1 --- w2
Todo esto demuestra que R^2 = W1+W2
Usando esta descomposición y la definición de proyección, tendremos que en este caso, la transformación queda dada como sigue:
T(x,y)=(x-y,0)

UNIDAD V TRANSFORMACIONES LINEALES

DEFINICION Y PROPIEDADES

Una transformación es un conjunto de operaciones que se realizan sobre un vector para convertirlo en otro vector.

Los espacios vectoriales son conjuntos con una estructura adicional, al saber, sus elementos se pueden sumar y multiplicar por escalares del campo dado, conviene utilizar funciones que preserven dicha estructura. Estas funciones se llamaran transformaciones lineales y en el presente capitulo las estudiaremos. Mas adelante mostraremos que las transformaciones lineales se pueden representar en términos de matrices, y viceversa.

Se denomina transformación lineal a toda función cuyo dominio e imagen sean espacios vectoriales y se cumplan las condiciones necesarias. Las transformaciones lineales ocurren con mucha frecuencia en el álgebra lineal y en otras ramas de las matemáticas, tienen una gran variedad de aplicaciones importantes. Las transformaciones lineales tienen gran aplicación en la física, la ingeniería y en diversas ramas de la matemática.

Definición. Sean V y W espacios vectoriales sobre el mismo campo k. Una transformación lineal de V en W, es una función que asigna a cada vector v ϵ V un vector único Tv ϵ W y que satisface, para cada u y v en V y cada escalar K,

T(u+v) = T(u) + T(v)

T(ku) = kT(u) donde k es un escalar.


Clasificación de las transformaciones lineales


Monomorfismo: Si
es inyectiva, o sea si el único elemento del núcleo es el vector nulo



Epimorfismo: Si
es sobreyectiva (exhaustiva).



Isomorfismo: Si
es biyectiva (inyectiva y exhaustiva).




Endomorfismo: Si
o sea si el dominio es igual al codominio (el espacio vectorial de salida y el de llegada son el mismo)


Automorfismo: si es endomorfismo e isomorfismo a la vez.






viernes, 26 de marzo de 2010

cont... dependencia lineal

A continuacion mas ejercios de combinacion lineal, depedencia e independencia lineal y tambien algunos video

1. Determinar si el conjunto de vectores v1 = (1, -2, 3) v2 = (5, 6, -1)
v3 = (6, 4, 2) son linealmente dependientes y reporte la solucion.

Para saber si son lineales se debe generar la siguiente ecuacion:

k1v1 + k2v2 + k3v3 = vector 0

Para resolver esto se debe plantear los vectores como si fueran las columnas de un sistema de ecuaciones de 3x3 siendo las incognitas k1,k2 y k3

2R + R1

1........5........6.............[ 0 ]
-2.......6........4.............[ 0 ]
3.......-1........2.............[ 0 ]


R2 + R3

1........5........6.............[ 0 ]
0........16.......16............[ 0 ]
0.......-16......-16............[ 0 ]

1/16R2

1........5........6.............[ 0 ]
0.......16.......16.............[ 0 ]
0........0........0.............[ 0 ]



-5R2 + R1

1........5........6.............[ 0 ]
0........1........1.............[ 0 ]
0........0........0.............[ 0 ]


1........0........1.............[ 0 ]
0........1........1.............[ 0 ]
0........0........0.............[ 0 ]


k1 + k3 = 0
k1 = -k3

k2 + k3 = 0
k2 = -k3

k3 = k3
k3 = k3

k1 [ -1 ]
k2 [ -1 ]
k3 [ 1 ]

SOLUCION: los vectores entre si son linealmente dependientes





ESPACIO VECTORIAL CON PRODUCTO INTERNO Y SUS PROPIEDADES

Sean X = ( x 1, x 2, ..., x n ), Y = ( y 1, y 2, ..., y n ) dos vectores arbitrarios de
Rn. Definimos el producto interno de X e Y así:
X, Y = å
i=1
n
x i y i. (1.2.1)
Las propiedades de (1.2.1) son:
1. X, Y = Y, X .
2. X + Z, Y = X, Y + Z, Y .
3. lX, Y = l X, Y .
Las propiedades 2. y 3. nos dicen que el producto interno es lineal en la primera variable. Por la
propiedad 1. concluimos que también lo es en la segunda variable.
Existen en la literatura matemática otras notaciones para el producto interno, por ejemplo: X.Y y se le
conoce con el nombre de producto punto. Otra notación, bastante aparatosa, es X|Y , que
aparece frecuentemente en los libros de Física.
Con esl uso del producto interno introducimos uno de los conceptos más notables en matemáticas: la
norma de un vector.
Definición (1.2.2): Sea X = ( x 1, x 2, ..., x n ) Î Rn, definimos la norma de X así:
X = X, X = å
i=1
n
x i
X = X, X = å
i=1
n

La longitud (norma) de un vector de Rn es V = (v1, v2, ..., vn ) esta dada por:

________________

||V|| =" v12 + v22 + ... + vn2 esta no puede ser negativa si el vector v = 1 este se llama vector unitario dos vectores U y V en Rn son paralelos si al vector V es múltiplo del vector U, es decir, si U = cV si c > 0 los vectores van a la misma dirección y si c < 0 van en dirección opuesta, la longitud de un múltiplo escalar se ve por la formula || cV || = | c | || V || donde | c | es el valor absoluto de c y c es un escalar.

El vector unitario de V es si V " 0 entonces U = V / ||V|| es de longitud uno y tiene la misma dirección de U+V se llama vector unitario en dirección de V este proceso se llama normalización del vector V.

La distancia entre dos puntos se llama normalización del vector V.

___________________

d =" (u1 - v1 )2+ (u2 - v2 )2 y la distancia entre dos vectores en R2 se encuentra .

___________________

d(U,V) = || U - V || =" (u1 - v1 )2+ (u2 - v2 )2 donde U = (u1 - u2 ) y V = (v1 - v2 ).

Las propiedades que cumple la distancia son:

d( U , V ) " 0.

d( U , V ) = 0 si solo si U = V.

d( U , V ) = d( V , U ).

Para encontrar el ángulo entre dos vectores distintos de cero usamos la formula:

Cos = (u1v1 + u2v2) / ||U|| ||V|| donde U = ( u1, u2 ) y V = ( v1 , v2 ) y donde u1v1 + u2v2 se denota como producto punto de dos vectores. El producto punto para Rn se denota U % V = u1v1 + u2v2 + ... + unvn las propiedades que cumple son :

U % V = V % U

U % (V + W) = U % V + U % W

c ( U % V ) = cU % V = U % cV

V % V " ||V|| 2

V % V " 0 y V % V = 0 si solo si V = 0

Donde c es un escalar y que U, V, W son vectores cualesquiera en Rn.

Desigualdad de gauchy - schawarz:

La desigualdad de Gauchy - Schwarz dice que | U % V | " || U || || V || don de | U % V | es valor absoluto de U % V donde U y V son vectores viendo esta desigualdad podemos definir el ángulo entre dos vectores en Rn así : Cos = (U % V ) / (||U|| ||V||) esta formula no define ángulos entre dos vectores, si U % V = 0 se dice que los ángulos son ortogonales.

La desigualdad del triangulo:


Dice si U y V son vectores entonces || U + V || " || U || + || V ||.

El teorema de Pitágoras:

Este dice si U y V son vectores entonces || U + V ||2 = || U || 2 + || V || 2 solo para vectores ortogonales.

Un producto punto es un producto interno Euclidiano esto es un producto interno que se puede definir en R2. para poder diferenciar el producto interior de otros posibles productos internos lo escribiremos esto será el producto general para el espacio vectorial V.

Para solucionar un producto interno se procede igual que al definir un espacio vectorial en el acho de que debe cumplir con varios axiomas para poder calificar como producto interno estos axiomas son:

Siendo U, V, W vectores en V y c cualquier escalar:

=

= + o = +

c =

" 0 y = 0 si solo si v = 0

= = 0

Para definir la norma, distancia, ángulo de dos vectores que tenga producto interno:

siendo U, V vectores en V:

______

norma = ||U|| = "

distancia entre U, V = d= || U - V ||

ángulo entre vectores U, V diferentes de 0 cos = / ( ||U|| ||V|| ) donde 0 " " .

Dos vectores con producto interno son ortogonales si = 0. El vector unitario de un vector con producto interno || U || = 1 el vector unitario en dirección de V donde U = V / || V || donde V " 0. Para ver si U y V son vectores en el espacio con producto interno deben cumplir con las propiedades de norma:

|| U || " 0.

|| U || = 0 si solo si U = 0.

|| cU || = | c | || U ||.

Y las propiedades de la distancia antes ya mencionadas.

Además cumplen con la desigualdad de Gauchy - Schawarz, desigualdad del triangulo y el teorema de Pitágoras antes yya explicadas.

Proyecciones ortogonales en espacios con producto interno:

Si U y V son vectores en el plano y V es diferente de 0 entonces este se puede proyectar ortogonalmente a U y se denota como

ProyV U = [ ( U%V ) / ( V%V ) ]V

proyU V = [ ( U%V ) / ( U%U ) ]U donde U%V y V%V son el producto punto o producto interno Euclidiano.

Para en el espacio la proyección se denota como proyv U = [ / ]V , proyv U = [ / ]U.

La proyección ortogonal y distancia:

Siendo U y V dos vectores en el espacio V con producto interno y V " 0. Entonces la distancia d ( U, proyv ) < d ( U, cV ) donde c " / .

Definición de conjuntos ortonormales y conjuntos ortogonales:

En un conjunto de vectores S de el espacio vectorial V es producto interno es ortogonal si cada vector de y seria espacio ortonormal si cada vector S es unitario.

Es ortonormal si < vi, vj > = 0 i " j y || vj || = 1 donde i = 1, 2, 3, ..., n y es ortonormal si < vi, vj > = 0 i " j donde vi, vj pertenecen al conjunto s = { v1, v2, ..., vn }

Un conjunto ortogonal es linealmente independiente si s es un conjunto de vectores diferentes de cero y que pertenecen al espacio v con producto interno.

Proceso para ortonormalizar de Gram - Schmidt:

Ver si la base tiene producto interno (como ya lo vimos).

Convertir la base a una base ortogonal.

Sea B = { v1, v2, ..., vn }

w1 = v1

w2 = v2 - proyw1 v2

wn = vn - proyw1 v3 - … - proyw(n-1) vn

B' = { w1, w2, ..., wn }

y para ortonormalizar ui = wi / ||wi|| donde I = 1, 2, ..., n.

Donde B'' = { u1, u2, ..., un } es un abase ortonormal.

Aplicación de los espacios con producto interno:

Producto cruz de dos vectores en el espacio:

Donde U = (u1, u2, ..., un )

V = (v1, v2, ..., vn )


U x V =

por el método de cofactores = i + j + k .

las propiedades del producto cruz:

U x V = V x U

c ( U x V ) = c U x V = U x c V

U x U = 0

U x ( V + W ) = ( U x V ) + ( U x W )

U x 0 = 0 x U

U ( V x W ) = ( U x V ) W

U x V son paralelos si U x V = 0.

Aproximación por mínimos cuadrados:

Siendo f y g dos funciones en x y funciones continuas en un intervalo finito [ a, b ] entonces.

I = 2 dx siendo I = 0 si ( f - g ) ! 0 esto se puede representar como :

= 2 dx siendo I = 2 dx = = || f - g || 2 esto significa que es equivalente minimizar || f - g || 2 y || f - g ||.

La aproximación de minimos cuadrados esta dada por:

g = w1 +w2 + ... + wn siendo w1 = w1 donde b = {w1, w2, w3,}

Combinacion lineal, dependencia e independencia lineal

Una combinación lineal de dos o más vectores es el vector que se obtiene al sumar esos vectores multiplicados por sendos escalares



Cualquier vector se puede poner como combinación lineal de otros que tengan distinta dirección.




Dados los vectores
calcular el vector combinación lineal

(2,1) = a(3,-2)+(1,4)
(2,1)= (3a,-2a)+ (b,4b)
(2,1)= (3a+b,-2a+4b)
2 = 3a + b
1 = -2a + 4b

a = 1/2
b = 1/2


____________________________________________________________________________________

Dependencia lineal

Varios vectores libres del plano son linealmente dependientes si existe una combinación lineal de ellos que sea igual al vector cero, sin que sean cero todos los coeficientes de la combinación lineal


Propiedades

1.Si varios vectores son linealmente dependientes, entonces al menos uno de ellos se puede expresar como combinación lineal de los otros.


Si un vector es combinación lineal de otros, entonces todos los vectores son linealmente dependientes.

2.Dos vectores del plano son linealmente dependientes si, y sólo si, son paralelos.

3.Dos vectores del plano U = (u1,u2) y V = (v1,v2)son linealmente dependientes si sus componentes son proporcionales.


Independencia lineal

Varios vectores libres son linealmente independientes si ninguno de ellos se puede expresar como combinación lineal de los otros.

a1 = a2 = ... = 0

Los vectores linealmente independientes tienen distinta dirección

EJERCICIOS:

*Estudiar la dependencia lineal de los vectores: u = (3,1) y v = (2,3)

3/2 = 1/3 3.3 # 2.1

Son linealmente dependientes

*Estudiar la dependenci lineal de los vectores u = (x - 1, 3) y v = (x + 1, 5)

x-1/3 = x+1/5 5x-5 = 3x+3

x = 4
Son linealmente dependientes para x = 4

*Estudiar la dependencia lineal de los vectores:
u = (5, 3 - x) y v = (x + 9, 3x + 1)

5/x+9 = 3-x/3x+1
15x + 5 = 3x - x^2 + 27 - 9x
x = 1
x = -22

Son linealmente dependientes para x = 1 y x = -22

jueves, 25 de marzo de 2010

UNIDAD 4 ESPACIOS VECTORIALES

Un espacio vectorial es aquel conjunto de vectores que cumple las propiedades o axiomas de la suma de vectores y la multiplicación por un escalar dichas propiedades vistas en espacios n-dimensiónales Rn o R2. Un espacio vectorial es un espacio no vacío.

En el estudio de las matemáticas o de la física, el término vector se aplica a una amplia variedad de objetos, principalmente a cantidades que representan magnitudes y dirección ya sea un fuerza, una velocidad o una distancia. El término vector también se usa para describir entidades como matrices, polinomios o funciones.

Podríamos decir que un espacio vectorial es la abstracción de las propiedades de un espacio n-dimencional , debe tomarse en cuenta que en el espacio vectorial no se especifica operaciones ni vectores entonces se puede usar cualquier vector y cualquier operación se puede sustituir la suma de vectores y la multiplicación por un escalar, pero siempre cumpliendo todos las propiedades, siempre seria un espacio vectorial.

Un espacio vectorial cumple con cuatro partes que son: un conjunto de vectores, un conjunto de escalares, y dos operaciones. Estos forman un cuerpo que es igual a las estructuras algebraicas de dos operaciones (un cuerpo). Para comprobar que determinado conjunto es un espacio vectorial es preciso definir o especificar las propiedades de suma multiplicación por un escalar como vimos anteriormente tenemos que definir el elemento que actúa como cero (0) y el negado de cada elemento.

A continuacion una definicion mas formal de lo que es un espacio vectorial

Sea V un conjunto en el cual dos operaciones, llamadas adicion y multiplicacion escalar, han sido definidas. Si u y v se encuentran en V, la suma de u y v se denota por medio de u + v y si c es un escalar, el multiplo escalar de u por c se denota como cu. Si los siguientes axiomas son validos para todo u, v y w en V y para todos los escalares c y d, entonces V se denomina espacio vectorial y sus elementos son llamados vectores.

1. u + v está en V. Cerradura bajo la adición

2. u + v = v + u. Conmutabilidad

3. u +(v + w)=(u + v)+ w. Asociatividad

4. Existe un elemento 0 en V, denominado vector cero o nulo, tal que u + 0 = u.

5. Para cada u en V, existe un elemento -u en V tal que u + (-u)= 0

6. cu esta en V. Cerradura bajo la multiplicacion escalar.

7. c(u + v)= cu + cv. Distributividad

8. (c + d)u = cu + du. Distributividad

9. c(du) = (cd)u. Asociatividad.

10. 1(u)= u. Identidad escalar

A continuacion algunos videos de la definicion de un espacio vectorial y sus propiedades








martes, 2 de marzo de 2010

ELIMINACION DE GAUSS-JORDAN

Camile Jordan:Pionero de la teoría de las matrices, es famoso por el teorema de las curvas de Jordán, el cual afirma que una curva cerrada simple (tal como la circunferencia) "divide al plano en dos regiones conexas agenas"

X1 + 3X2 + 2X3 +2X5 = 0
2X1 + 6X2 - 5X3 - 2X4 + 4X5 - 3X6=-1
5X3 + 10X4 + 15x6=5
2X1 + 6X2 + 8X4 + 4X5 +18X6=6

La matriz aumentada del sistema es
1 3 -2 0 2 0 0
2 6 -5 -2 4 -3 -1
0 0 5 10 0 15 5
2 6 0 8 4 18 6

Sumando el primer renglón multiplicado por -2 al segundo y cuarto renglón se obtienen

1 3 -2 0 2 0 0
0 0 -1 -2 0 -3 -1
0 0 5 10 0 15 5
0 0 4 8 0 18 6

Multiplicad el renglón dos por -1 y después sumando el segundo renglón por -5 al tercero y al segundo renglón multiplicador -4, al cuarto se obtiene

1 3 -2 0 2 0 0
0 0 1 2 0 0 1
0 0 0 0 0 0 0
0 0 0 0 0 2 2

Intercambiando el tercer y cuarto renglón y después multiplicando el tercer renglón de la matriz resultante por un sexto se obtiene la forma escalonada

1 3 -2 0 2 0 0
0 0 1 2 0 3 0
0 0 0 0 0 1 1/3
0 0 0 0 0 0 0

Sumando el tercer renglón multiplicado por -3 al segundo renglon y después sumando el segundo renglon de la matriz resultante multiplicado por dos al primero se obtiene la forma escalonada reducida

1 3 0 4 2 0 0
0 0 1 2 0 0 0
0 0 0 0 0 1 1/3
0 0 0 0 0 0 0

El sistema de ecuaciones correspondiente es
X1 + 3X2 + +4X4 + 5X5 =0
X3 +2X4 =0
X6=1/3
Se elimino la ultima ecuación dado que las soluciones de las ecuaciones restantes las satisfacen automanticamente
Despejando las variables principales se obtienen
X1 =-3X2 - 4X4 - 2X5
X3=-2X4
X6=-1/3

Si a X2, X4 y X5 se les asignan los valores arbitrarios R, S y T, respectivamente en conjunto de soluciones queda defino por la forma
X1=-3R - 4S - 2T
X2=R
X3=-2S
X4=S
X5=T
X6=1/3

A menudo es mas conveniente resolver un sistema de ecuaciones lineales llevando la matriz aumentada a la forma escalonada e vez de seguir adelante hasta tener la forma escalonada reducida. Cuando se aplica este ultimo método el sistema por ecuación correspondiente se puede resolver mediante una técnica conocida como sustitucion en reversa.

EXAMEN


viernes, 26 de febrero de 2010

ELIMINACION DE GAUSS

El metodo se basa en reducir la matriz en una forma sencilla para poder resolver un sistema de ecuaciones .
Para esto se debe de tener las siguientes propiedades.
1.si un renglon no consta exclusivamente de ceros entones el primer diferente de cero en el renglon es 1.
2.si hay renglones que constan exclusivamente de ceros entonces estan agrupados en la parte inferior de la matriz.
3.si los renglones J y J+1 son dos renglones sucesivos cualesquiera que no constan exclusivamente de ceros ,entonces,el primer numero diferente de cero en el renglon J+1 aparece a la derecha del primer numero diferente de cero en el renglon J.
4.-todas las columnas que contienen el primer elemento diferente de cero de algun renglon tiene ceros en toda las posiciones restantes.

Si una matriz cumple con estas propiedades se dice que esta en forma escalonada.

CARL FRIEDRICH GAUSS: se dice llamar el principe de los matematicos hizo importantes contribuciones a la teoria de los numeros , a la teoria de funciones , a la probabilidad y estadistica;descubrio un metodo para calcular las orbitas de los asteroides;fue el autor de descubrimientos basicos en la teoria del electromagnetismo y ademas invento un teelegrafo.

ejemplo:

ax+2z=0
x+3y+z=5
3y-z=0

a 0. 2 : 0
1 3. 1 : 5
0 3 -1 : 0

1 3. 1 : 5
a 0. 2 : 0
0 3 -1 : 0

1.. 3.... 1... : 5
0 -3a. 2 - a : -5a
0. 3.... -1.. : 0

1.. 3.... 1... : 5
0. 3.... -1.. : 0
0 -3a. 2 - a : -5a

1 3.. 1..... : 5
0 3. -1..... : 0
0 0 2 - 4a : -5a

1 3. 1 : 5
0 3 -1 : 0
0 0. 2 : 0

Esto corresponde al sistema x + 3y + z = 5
3y - z = 0
2z = 0, de donde z = 0, valor que introducido en la segunda ecuación sirve para obtener el valor de Y:
3y = 0 ==> y = 0, valores que introducidos en la primera ecuación sirven para obtener el valor de X:
x = 5.
La solución del sistema, si a = 0, es
x = 5, y = 0, z = 0.

A continuacion otros videos de como ejemplo del metodo de gauss


SISTEMAS DE ECUACIONES LINEALES DE 2X2

Un sistema de dos ecuaciones de primer grado con dos incógnitas o simplemente, sistema 2x2 de ecuaciones lineales, es la agrupación de dos ecuaciones de primer grado con dos incógnitas:


Metodos de solucion

1. Metodo de igualacion: consiste en despejar una incógnita en las dos ecuaciones e igualar las expresiones resultantes. Así, nos queda una ecuación con una sola incógnita. Esta se resuelve y permite averiguar dicha incógnita. Finalmente, el valor de la otra incógnita se obtiene sustituyendo el valor obtenido.
ejemplo:








sustituimos el valor de "y" en cualquiera de las expresiones del primer paso, por ejemplo en



2. Metodo de sustitucion:consiste en despejar una incógnita en una de las ecuaciones y sustituir en la otra. Así, la ecuación sustituida, que se queda con una sola incógnita, se resuelve, lo que permite averiguar esa incógnita. Finalmente, el valor de la otra incógnita se obtiene sustituyendo el valor obtenido.









sustituimos el valor de "y" en la primera ecuacion que despejamos para obtener el valor de "x"


3.Metodo de reduccion:consiste en obtener ecuaciones equivalentes a las de partida, de manera que al sumarlas, se obtenga una ecuación en la que se ha eliminado una de las incógnitas. Así, nos queda una ecuación con una sola incógnita, que se resuelve, permitiendo averiguar dicha incógnita. Finalmente, el valor de la otra incógnita se obtiene sustituyendo el valor obtenido.
Ejemplo:
Multiplicamos la primera ecuacion por 4 y la segunda por (-3)

Sumamos miembro a miembro las dos ecuaciones
12x + 8y = 28
-12x + 9y = -45
----------------
17y = -17


Sustituimos el valor de "y" en cualquiera de las dos ecuaciones, por ejemplo en la primera:



4. Metodo de determinantes o medodo de cramer: consiste en crear una matriz de 2x2 con los coeficientes de las ecuaciones y obtener delta, delta"x" y delta "y". A continuacion un video de un sistema de ecuaciones de 2x2 resuelto por determinantes