Aplicaciones de la forma escalerizada reducida

Si queremos determinar explícitamente (una base de) la imagen y el núcleo de una transformación lineal, tomando coordenadas basta determinar (una base de) la imagen y el núcleo de la matriz asociada en algún par de bases. De esta forma reducimos el problema a calcular imágenes y núcleos de matrices.

Sea A una matriz n\times k con coeficientes en un cuerpo \mathbb{K}.

Calcular el núcleo de A no es nada complicado: es resolver un sistema de ecuaciones lineal homogéneo, para lo cual podemos usar el algoritmo de escalerización (por ejemplo, determinamos la forma escalerizada y reducida). Determinar una base es entonces fácil.

Nos gustaría tener una forma explícita de determinar una base de la imagen. Cierto, las columnas de A la generan, ¿pero cómo reducir este generador a una base?

Lo que podemos hacer es tomar la forma escalerizada y reducida de A (el resultado de aplicarle a A el algoritmo de Gauss-Jordan): si le llamamos A', entonces las columnas de A que corresponden a “columnas pivot” de A' son una base de la imagen de A.

Recordatorio: llamémosle coeficiente líder (a veces se le llama “coeficiente pivot”) de una fila al primer coeficiente no nulo de la fila (de izquierda a derecha). Una matriz está en forma escalerizada reducida (“reduced row-echelon form”) si:

– Las filas nulas están al final,
– El coeficiente líder de una fila no nula está siempre estrictamente a la derecha del coeficiente líder de la fila anterior,
– Todo coeficiente líder es 1, y es el único coeficiente no nulo en su columna.

Una columna pivot una matriz escalerizada reducida es una columna que contiene algún coeficiente líder.

Por ejemplo, la siguiente matriz está en forma escalerizada reducida:

\begin{pmatrix} 1 & 0 & 2 & 0 & a \\ 0 & 1 & 3 & 0 & b \\ 0 & 0 & 0 & 1 & c \end{pmatrix}

y sus columnas pivot son la primera, segunda y cuarta.

Teorema: toda matriz es equivalente por filas a una única matriz escalerizada reducida. Esto es, podemos hacer finitas operaciones elementales por filas (i.e. multiplicar a la izquierda por matrices elementales por filas), para conseguir una matriz escalerizada reducida, y es la única que conseguimos por este método.

Reitero el método para hallar una base de la imagen de una matriz:

Teorema: Sea A una matriz con coeficientes en un cuerpo. Sea A' su forma escalerizada reducida. Las columnas de A correspondientes a columnas pivot de A' son una base de la imagen de A. En particular, el número de columnas pivot de A', o lo que es lo mismo, el número de filas no nulas de A', es el rango de A.

Por ejemplo, si las columnas 2, 3 y 5 de A' son pivot, entonces las columnas 2, 3 y 5 de A forman una base de la imagen de A.

Demostración: Las columnas pivot de A' son claramente linealmente independientes (son nulas a menos de un lugar en el que tienen un uno, y no hay dos columnas pivot iguales). Además, una columna que no es pivot solo puede tener coeficientes no nulos en filas que no son nulas, y por lo tanto está en el espacio generado por las columnas pivot (de hecho, está en el espacio generado por las columnas pivot a su izquierda). Esto prueba que las columnas pivot de A' son un conjunto linealmente independiente maximal de la imagen de A', y por lo tanto son una base de A'.

Sea ahora P una matriz invertible (producto de matrices elementales por filas) tal que PA=A'. Como P es invertible, entonces representa un isomorfismo. Restringiendo, tenemos que P representa un isomorfismo entre la imagen de A y la imagen de A'. En particular, P^{-1} lleva bases en bases, de donde se deduce el resultado. \square

Observar que tenemos que tomar las columnas de A, no las de A'. En efecto, el algoritmo de Gauss-Jordan puede alterar el espacio generado por las columnas (por ejemplo, la forma escalerizada y reducida de \begin{pmatrix} 0 \\ 1\end{pmatrix} es \begin{pmatrix} 1 \\ 0\end{pmatrix}).

La aplicación anterior nos da una manera de resolver el siguiente problema: si tenemos un conjunto de vectores S=\{v_1,\dots,v_n\}\subset \mathbb{K}^k y queremos quitar elementos de S hasta quedarnos con una base del subespacio que genera S (o sea, extraer un linealmente independiente maximal del conjunto S), podemos colgarlos en una matriz y aplicar el procedimiento dado por el teorema anterior. Si no se trata de vectores de \mathbb{K}^k, basta tomar coordenadas.

Ahora vemos un corolario acerca de la determinación de si un conjunto de vectores es o no linealmente independiente. Este es un problema sencillo, porque basta plantear el sistema de ecuaciones homogéneo y resolverlo; si es determinado, es l.i., si es indeterminado, es l.d.. Para resolver el sistema podemos aplicar el algoritmo de Gauss-Jordan y llevar la matriz de coeficientes a la forma escalerizada y reducida, y ahí es fácil. Por lo tanto el siguiente corolario en realidad no nos aporta demasiado a la hora de calcular.

Corolario: Sean \{v_1,\dots,v_n\}\subset \mathbb{K}^k vectores, sea A=(v_1 \dots v_n) \in M_{k\times n}(\mathbb{K}) y sea A' su forma escalerizada reducida. Entonces \{v_1,\dots,v_n\} son linealmente independientes si y sólo si A' tiene n filas no nulas.

Demostración: \{v_1,\dots,v_n\} son l.i. si y sólo si A tiene rango n, y ya observamos que el rango de A es el número de filas no nulas de A'. \square

De nuevo, si queremos determinar si un conjunto de vectores en un espacio vectorial cualquiera de dimensión finita es l.i., basta tomar coordenadas y aplicar el teorema.

Anuncios
Esta entrada fue publicada en álgebra lineal, Uncategorized. Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s