Algebra Lineal I. Notas Del Curso

Álgebra Lineal Semestre Enero - Mayo, 2014 Notas de Curso José Alejandro Lara Rodríguez Facultad de Matemáticas Univers

Views 105 Downloads 0 File size 2MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Álgebra Lineal Semestre Enero - Mayo, 2014 Notas de Curso

José Alejandro Lara Rodríguez Facultad de Matemáticas Universidad Autónoma de Yucatán 9 de enero de 2014

Estas notas están basadas en el libro de Álgebra Lineal de los autores J.A. Lara Rodríguez y C.J. Rubio Barrios [12]. Las notas incorporan ejemplos de cómo realizar algunos cálculos usando el software libre para matemáticas llamado Sage (www.sagemath.org) [22]. También se incluyen respuestas a ejercicios seleccionados.

ii

Índice general

Índice general

iii

Índice de figuras

vii

Notaciones frecuentemente usadas

ix

1. Sistemas de ecuaciones lineales 1.1. Ecuaciones lineales . . . . . . . . . . . . . . . . . 1.1.1. Representaciones matriciales . . . . . . . 1.1.2. Ejercicios . . . . . . . . . . . . . . . . . . 1.2. Técnicas de eliminación . . . . . . . . . . . . . . 1.2.1. Forma escalonada y el método de Gauss . 1.2.2. La forma escalonada reducida y el método 1.2.3. Ejercicios . . . . . . . . . . . . . . . . . . 1.3. Rango y consistencia . . . . . . . . . . . . . . . . 1.3.1. Ejercicios . . . . . . . . . . . . . . . . . . 1.4. Sistemas homogéneos . . . . . . . . . . . . . . . . 1.4.1. Ejercicios . . . . . . . . . . . . . . . . . . 1.5. Sistemas no homogéneos . . . . . . . . . . . . . . 1.5.1. Ejercicios . . . . . . . . . . . . . . . . . . 1.6. Cálculo de los cuatro espacios fundamentales . . 1.7. Descomposiciones LU . . . . . . . . . . . . . . . 1.7.1. Ejercicios . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

1 1 4 7 9 13 17 19 22 25 27 28 28 31 32 33 40

2. Determinantes 2.1. Existencia de una función determinante 2.1.1. Ejercicios . . . . . . . . . . . . . 2.2. Permutaciones . . . . . . . . . . . . . . 2.2.1. Ejercicios . . . . . . . . . . . . . 2.3. Unicidad de la función determinante . . 2.3.1. Ejercicios . . . . . . . . . . . . . 2.4. Determinantes y sistemas de ecuaciones 2.4.1. Ejercicios . . . . . . . . . . . . . 2.5. Cálculo de determinantes . . . . . . . . 2.5.1. Ejercicios . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

43 43 47 48 51 52 58 61 62 63 65

iii

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

ÍNDICE GENERAL

iv

2.6. Áreas y volúmenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Espacios vectoriales 3.1. Espacios vectoriales . . . . . . . . . . 3.1.1. Ejercicios . . . . . . . . . . . 3.2. Subespacios . . . . . . . . . . . . . . 3.2.1. Ejercicios . . . . . . . . . . . 3.3. Dependencia e independencia lineal . 3.3.1. Ejercicios . . . . . . . . . . . 3.4. Bases y dimensión . . . . . . . . . . 3.4.1. Ejercicios . . . . . . . . . . . 3.5. Bases y dimensión de los subespacios 3.5.1. Ejercicios . . . . . . . . . . . 3.6. Sumas directas . . . . . . . . . . . . 3.6.1. Ejercicios . . . . . . . . . . .

67 72

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . fundamentales . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

75 . 75 . 77 . 78 . 81 . 83 . 87 . 89 . 92 . 94 . 96 . 97 . 101

4. Transformaciones lineales y matrices 4.1. Transformaciones lineales . . . . . . . . . . . . . . . 4.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . 4.2. El núcleo y la imagen de una transformación lineal . 4.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . 4.3. Transformaciones lineales inyectivas y suprayectivas 4.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . 4.4. La matriz asociada a una transformación lineal . . . 4.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . 4.5. El isomorfismo entre K dim W ×dim V y L(V, W ) . . . . 4.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . 4.6. Matrices asociadas a la misma transformación lineal 4.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . 4.7. Operadores diagonalizables . . . . . . . . . . . . . . 4.7.1. Ejercicios . . . . . . . . . . . . . . . . . . . . 4.8. El espacio dual . . . . . . . . . . . . . . . . . . . . . 4.8.1. Ejercicios . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

105 105 109 111 113 114 116 117 121 124 125 125 132 134 135 136 138

A. Campos 141 A.1. Definición y propiedades básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 A.2. La característica de un campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 B. Matrices B.1. Definiciones básicas . . . . . . . . . . . . . . . . . . B.2. El espacio vectorial de las matrices . . . . . . . . . B.3. El anillo de las matrices cuadradas . . . . . . . . . B.4. La transpuesta de una matriz . . . . . . . . . . . . B.5. Multiplicación de matrices en bloques . . . . . . . B.6. La traza de una matriz . . . . . . . . . . . . . . . . B.7. Matrices elementales . . . . . . . . . . . . . . . . . B.8. Método de eliminación de Gauss . . . . . . . . . . B.9. Método de eliminación de Gauss-Jordan . . . . . . B.10.Algoritmo de Gauss-Jordan para calcular la inversa B.11.Ejercicios . . . . . . . . . . . . . . . . . . . . . . . C. Soluciones a ejercicios seleccionados

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

145 145 149 151 154 159 161 162 169 172 173 174 179

ÍNDICE GENERAL

v

Bibliografía

185

Índice alfabético

187

vi

ÍNDICE GENERAL

Índice de figuras

1.1. Interpretación geométrica: Intersección de rectas . . . . . . . . . . . . . . . . . . 1.2. Interpretación geométrica: Combinación lineal de vectores . . . . . . . . . . . . . 1.3. Interpretación funcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1. 2.2. 2.3. 2.4. 2.5. 2.6.

El paralelogramo P (v, w) determinado por los vectores v y w. . . . El paralelogramo P (nv, w) determinado por los vectores nv y w . . El paralelogramo P (rv, w) determinado por rv y w . . . . . . . . . Propiedades de volúmenes y determinantes . . . . . . . . . . . . . Paralelogramo determinado por v = (3 5)T y w = (1 − 2)T . . . . . Paralelogramo determinado por (−2 3)T , (−5 5)T , (5 8)T y (2 10)T

vii

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

7 8 9 67 68 69 69 71 72

viii

ÍNDICE DE FIGURAS

Notaciones frecuentemente usadas

N Z Q R C R+ Fq K (s1 , . . . , sn ) (s1 , . . . , sn )T Kn K m×n I In A = (aij ) [A]ij A∗j Ai∗ adj(A) AT A¯ A∗ [A | b] R (A) N (A)  N AT  R AT D(A), det(A), |A| Sn V V∗ 1V hSi W⊥ dim V |·|

Final de una demostración. Números naturales. Números enteros. Números racionales. Números reales. Números complejos. Números reales positivos. Un campo finito con q elementos. Un campo arbitrario. Vector renglón con entradas s1 , . . . , sn . Transpuesto del vector renglón (s1 . . . sn ). {(x1 . . . xn )T | xi ∈ K, 1 ≤ i ≤ n}. Espacio de las matrices de m × n. Matriz identidad. Matriz identidad de tamaño n × n. Matriz A con entradas aij . La entrada (i, j) de la matriz A. Columna j de una matriz A. Renglón i de una matriz A. Adjunta de la matriz A. Transpuesta de la matriz A o del operador A. La conjugada de la matriz compleja A, A¯ = (¯ aij ). La transpuesta conjugada de la matriz compleja A, A∗ = A¯T . También indica el adjunto del operador A. La matriz aumentada del sistema Ax = b. Espacio columna de la matriz A. Espacio nulo de la matriz A. Espacio nulo izquierdo de la matriz A. Espacio renglón de la matriz A. Determinante de la matriz A. El grupo de las permutaciones de n elementos. Usualmente denota un espacio vectorial. El espacio dual del espacio vectorial V . El operador identidad sobre el espacio vectorial V . Subespacio vectorial generado por el conjunto S. Complemento ortogonal del subespacio W . Dimensión de V . Cardinalidad de un conjunto. También indica valor absoluto. ix

x kvk U ⊕W U ×W [v]β K[t] K[t]n ∂f ker T Im T [T ]ββ 0 [1V ]ββ 0 L(V, W ) L(V ) Bil(U × V, W ) Bil(V ) hv, wi σ(A) Eλ

0. Notaciones frecuentemente usadas Norma del vector v. Suma directa de U y W . Producto cartesiano de U y W . Si U y W son espacios vectoriales, denota su producto directo. Vector de coordenadas respecto de la base β. El espacio vectorial de los polinomios en la variable t con coeficientes en K. El espacio vectorial de los polinomios en la variable t con coeficientes en K, de grado menor que n. Grado del polinomio f . Núcleo de la transformación lineal T . Imagen de la transformación lineal T . Matriz de T en las bases β y β 0 . Matriz cambio de base de la base β a la base β 0 . El espacio de las transformaciones lineales de V en W . Espacio de las funciones lineales de V en V . Espacio de las funciones bilineales de U × V en W . Espacio de las formas bilineales de V . Producto interno (escalar o hermitiano) de v y w. Espectro de A, el conjunto de los valores propios de A. Espacio propio correspondiente al valor propio λ.

CAPÍTULO

1

Sistemas de ecuaciones lineales

Este capítulo está dedicado al estudio de la resolución de los sistemas de ecuaciones lineales. Se analizan las diferentes maneras de interpretar un sistema de ecuaciones. Posteriormente, se introducen las diferentes técnicas de eliminación para la resolución de éstos. Quizá las técnicas más conocidas son las de Gauss y Gauss-Jordan, incluyendo su versión matricial que usa la denominada descomposición LU . Se analiza la estructura del conjunto de soluciones de un sistema, estudiando primero los sistemas homogéneos, que tienen estructura de espacio vectorial (en el Capítulo 3 se estudiarán los espacios vectoriales), y después los sistemas generales. Asociado a una matriz hay cuatro subespacios vectoriales, denominados los espacios fundamentales, ya que cualquier subespacio de un espacio vectorial de dimensión finita se relaciona directamente con uno de éstos. Las técnicas que se desarrollarán en este capítulo son indispensables para entender plenamente los conceptos abstractos de espacio y subespacio vectorial que se presentarán más adelante. La teoría se desarrollará sobre un campo arbitrario K. Sin embargo, si el lector lo prefiere, puede suponer que K es un subcampo del campo de los números complejos (esto por supuesto incluye a Q, R y C). A los elementos de un campo se les llama escalares.

1.1.

Ecuaciones lineales

El estudio de los sistemas de ecuaciones lineales es uno de los temas más importantes del álgebra lineal. El estudio de estos sistemas está íntimamente ligado con el estudio de las matrices. Sea K un campo. Una ecuación lineal con n incógnitas x1 , . . . , xn es una ecuación que se puede escribir en la forma: a1 x1 + a2 x2 + · · · + an xn = b,

(1.1)

donde a1 , . . . , an , b son escalares (esto es, son elementos del campo K). Las xi ’s son las incógnitas, las ai ’s son los coeficientes y el escalar b se llama término constante o independiente. Si K = R, una ecuación lineal con dos incógnitas representa una recta en el plano, en tanto que una ecuación lineal con tres incógnitas representa un plano en el espacio (salvo algunas excepciones). √ Las ecuaciones 5x + 2y = 3 y 3x − y = 2z − π son ecuaciones lineales, en tanto que x − 3y 2 = 0 y cos x + y = 3 no lo son. 1

2

1. Sistemas de ecuaciones lineales

Una matriz con exactamente una columna se llama vector columna, y una matriz con exactamente un renglón se llama vector renglón. El conjunto de todos los vectores columna con entradas en el campo K se denotará por K n . Si x es un vector columna, entonces su transpuesta1 es un vector renglón. Recíprocamente, si x es un vector renglón su transpuesta es un vector columna. Un vector (s1 , . . . , sn )T ∈ K n es una solución de la ecuación lineal (1.1) si a1 s1 + a2 s2 + · · · + an sn = b. Así, (1, −1)T es una solución de la ecuación 5x + 2y = 3, pues 5(1) + 2(−1) = 3. Por otro lado, (1, 1)T no es solución ya que 5(1) + 2(1) = 7 6= 3. Un sistema de m ecuaciones lineales con n incógnitas es un conjunto de m ecuaciones lineales que se puede escribir en la forma: a11 x1 + a12 x2 + · · · + a1n xn

= b1 ,

a21 x1 + a22 x2 + · · · + a2n xn

= b2 , .. .

am1 x1 + am2 x2 + · · · + amn xn

(1.2)

= bm ,

donde las aij ’s y las bi ’s (1 ≤ i ≤ m, 1 ≤ j ≤ n) son escalares. Cuando se tiene b1 = b2 = · · · = bm = 0, se dice que el sistema es un sistema homogéneo. De otra manera se dice que es no homogéneo. De acuerdo a esta definición, el sistema: 2x − 3y + 7z = 0, x − y − z = 0, es homogéneo, mientras que el sistema: 2x − 3y + 7z = 0, x − y − z = 3, es no homogéneo. Un vector (s1 , . . . , sn )T ∈ K n es una solución del sistema (1.2) si es solución de cada una de las ecuaciones del sistema. Es claro que para un sistema de ecuaciones dado solo hay dos posibilidades: tiene solución o no tiene solución. Un sistema que tiene al menos una solución se llama consistente; un sistema sin solución se llama inconsistente. Para un sistema consistente se presentan dos posibilidades: o tiene solución única o tiene más de una solución. Un sistema consistente se llama determinado si tiene solución única e indeterminado si tiene más de una solución. (   Consistente Determinado: Solución única. Sistema de ecuaciones Indeterminado: Más de una solución.   Inconsistente: Sin solución. Veamos algunos ejemplos. Ejemplo 1.1.1. Una solución del sistema: 2x − y = 1, x + y = 2, T

es (1, 1) . Más aún, se puede demostrar que es la única solución. En consecuencia, éste es un sistema consistente y determinado. 1 Si A = (a ) es una matriz de m × n, su transpuesta denotada por AT es la matriz cuya (i, j)-ésima entrada ij es aji .

1.1. Ecuaciones lineales

3 T

Ejemplo 1.1.2. Los vectores (1, −3, −2) y (−1, 7, 4)T son soluciones del sistema de ecuaciones: 2x + y − z = 1, x − y + 2z = 0. Este sistema es consistente, pero indeterminado. Ejemplo 1.1.3. El sistema de ecuaciones: x + y = 1, x + y = 2, T

es inconsistente sobre el campo de los números reales. En efecto, si (s1 , s2 ) fuera una solución del sistema, se tendría 1 = s1 + s2 = 2. Así este sistema no tiene solución. Una buena parte del estudio de los sistemas de ecuaciones lineales consiste en determinar su consistencia o inconsistencia. La otra parte consiste en calcular la solución si ésta es única o bien describir el conjunto de todas las soluciones. Antes de analizar cómo resolver sistemas de ecuaciones lineales es necesario familiarizarnos con las diferentes representaciones en términos de matrices de éstos. Ejemplo SAGE 1.1.4. Con la ayuda de Sage se pueden calcular las soluciones de los sistemas de ecuaciones de los ejemplos anteriores. sage : var ( ’x y z ’) (x , y , z ) sage : solve ([2* x - y ==1 , x + y ==2] , x , y ) # Determinado [[ x == 1 , y == 1]] sage : solve ([2* x +y - z ==1 , x - y +2* z ==0] , x ,y , z ) # Indeterminado [[ x == -1/3* r1 + 1/3 , y == 5/3* r1 + 1/3 , z == r1 ]] sage : solve ([ x + y ==1 , x + y ==2] , x , y ) # Inconsistente []

Note que en el segundo caso, la solución está dada en términos de un parámetro r1 . Se deja al lector verificar que x = −r1 /3+1/3, y = 5r1 /3+1/3 y z = r1 , donde r1 es cualquier número real es solución del sistema de ecuaciones del Ejemplo 1.1.2. Que haya una infinidad de soluciones se debe a que la intersección de dos planos no paralelos es una recta. En el último caso el sistema no tiene solución. De manera alterna se pueden almacenar las ecuaciones en variables. sage : e1 = 2* x - y ==1 sage : e2 = x + y ==2 sage : e1 2* x - y == 1 sage : e2 x + y == 2 sage : solve ([ e1 , e2 ] , x , y ) [[ x == 1 , y == 1]]

4

1.1.1.

1. Sistemas de ecuaciones lineales

Representaciones matriciales

Es posible (y altamente recomendable) expresar un sistema de ecuaciones lineales en términos matriciales. Consideremos el siguiente sistema de m ecuaciones lineales con n incógnitas: a11 x1 + a12 x2 + · · · + a1n xn

=

a21 x1 + a22 x2 + · · · + a2n xn

= b2 , .. .

am1 x1 + am2 x2 + · · · + amn xn

b1 ,

= bm .

Las matrices: 

a11  a21  A= .  ..

a12 a22 .. .

... ... .. .

 a1n a2n   ..  , . 

am1

am2

...

amn

 [A | b]

  =  



 b1  b2    b= .   ..  bm

a11 a21 .. .

a12 a22 .. .

... ... .. .

a1n a2n .. .

am1

am2

...

amn

b1 b2 .. . bm

    

reciben los nombres de matriz de coeficientes, matriz (o vector) de términos independientes y matriz aumentada, respectivamente. Considerando la definición de igualdad de matrices y las operaciones de suma y multiplicación de matrices, podemos escribir el sistema dado como: T

Ax = b, donde x = (x1 , . . . , xn ) . La multiplicación Ax se puede realizar de dos maneras diferentes: por renglones o por columnas. En la multiplicación por renglones tenemos:   A1∗ x  A2∗ x    Ax =  .   ..  Am∗ x donde A1∗ , A2∗ , . . . , Am∗ son los renglones de A. En la multiplicación por columnas tenemos: b = Ax = x1 A∗1 + x2 A∗2 + · · · + xn A∗n , donde A∗1 , A∗2 , . . . , A∗n son las columnas de A. En la multiplicación por columnas, se dice que b es combinación lineal de las columnas de A. Sean B1 , . . . , Bm son matrices del mismo tamaño. Una combinación lineal de las matrices Bi es una matriz de la forma a1 B1 + · · · + am Bm =

m X

a i Bi

i=1

donde a1 , . . . , am son escalares. Una matriz BPes una combinación lineal de las matrices Bi si existen escalares a1 , . . . , am tales que B = ai Bi . Formar combinaciones lineales a partir de un conjunto de matrices dado es muy fácil; basta con elegir escalares arbitrarios y realizar

1.1. Ecuaciones lineales

5 

las operaciones correspondientes. Consideremos por ejemplo las matrices B1 =   1 . Algunas combinaciones lineales de estas matrices son: −1  B1 + B2 =

2 0



 ,

2B1 + 3B2 =

5 −1

1 1

 y B2 =

 ,

0B1 + B2 = B2 ,

B1 + 0B2 = B1 .

Decidir si una matriz particular es combinación   lineal lineal de otras matrices no siempre 3 resulta tan sencillo. Por ejemplo, ¿es B = una combinación lineal de B1 y B2 ? Más 5 adelante se verán métodos generales para responder a esta pregunta. Ejemplo 1.1.5. La matriz de coeficientes y el vector de términos independientes del sistema: 3x1 + 2x2 − x3 + x4 = 1, −x2 + x3 − x4 = 2, 2x1 + x2 − 3x3 + 5x4 = 8, son: 

3 A = 0 2

   1 2 −1 1 −1 1 −1 y b = 2 , 8 1 −3 5

respectivamente. El sistema se puede escribir de las siguientes maneras:     x1   3 2 −1 1   1 x 2  = 2 , 0 −1 1 −1  x3  2 1 −3 5 8 x4           3 2 −1 1 1 x1 0 + x2 −1 + x3  1 + x4 −1 = 2 . 2 1 −3 5 8 Una solución de este sistema de ecuaciones lineales es s = (2 − 3 1 2)T . El vector b se puede escribir como combinación lineal de las columnas de A:           3 2 −1 1 1 2 0 + (−3) −1 +  1 + 2 −1 = 2 . 2 1 −3 5 8 El siguiente teorema es consecuencia inmediata de las diferentes representaciones de un sistema de ecuaciones lineales. Teorema 1.1.6. Sea el sistema de ecuaciones lineales Ax = b, donde A ∈ K m×n y b ∈ K m . Las siguientes afirmaciones son equivalentes: a) El sistema de ecuaciones lineales tiene al menos una solución. b) Existe al menos un vector en K n que satisface simultáneamente todas las ecuaciones del sistema. c) Es posible escribir al vector de términos independientes b, como combinación lineal de las columnas de la matriz A.

6

1. Sistemas de ecuaciones lineales

d) El vector b pertenece a la imagen de la función T : K n → K m definida por T (x) = Ax. Demostración. a) ⇒ b). Es por definición de solución de un sistema de ecuaciones. b) ⇒ c) Sea T s = (s1 , . . . , sn ) un vector que satisface simultáneamente todas las ecuaciones del sistema Ax = b. Entonces As = b y b = As = s1 A∗1 + · · · + sn A∗n .

(1.3)

c) ⇒ d) Supongamos que existen escalares s1 , . . . , sn tales que b se puede escribir de la forma (1.3), entonces b = As = T (s), donde s = (s1 . . . sn )T ∈ K n y por lo tanto b ∈ Im T . d) ⇒ a) Supongamos que b ∈ Im T . Por definición de imagen, existe un s ∈ K n tal que b = f (s) = As. Esto muestra que el sistema Ax = b tiene al menos una solución. A la imagen de la función T definida en la proposición anterior se le denomina espacio columna de la matriz A y se denota con el símbolo R(A): R (A) = Im T = {b ∈ K m | b = Ax para algún x ∈ K n } . El espacio columna de A consta de todos aquellos vectores de K m que se pueden escribir como combinación lineal de las columnas de A, es decir, consta de todas las combinaciones lineales de las columnas de A. De acuerdo con la proposición anterior podemos afirmar que: El sistema Ax = b tiene solución si y sólo si b ∈ R(A). En la siguiente sección estudiaremos técnicas para determinar cuando un sistema de ecuaciones dado tiene solución. T

Ejemplo 1.1.7. La única solución del siguiente sistema de ecuaciones es s = (2, 3) . 2x − y = 1,

(1.4)

x + y = 5. El punto s satisface simultáneamente las dos ecuaciones del sistema. La solución es aquel punto del plano donde las rectas se intersectan (Figura 1.1.1). Por otro lado, el vector de términos independientes b se escribe      como combinación de las columnas de la matriz asociada al sistema: 2 −1 1 2 +3 = (Figura 1.2); observamos que para obtener el vector b se debe multi1 1 5     2 −1 plicar por 2 el vector , por 3 el vector y realizar la suma de los vectores resultantes. 1 1 Finalmente, al considerar la función T : R2 → R2 definida de la siguiente manera: T

   x 2 = y 1

−1 1

    x 2x − y = , y x+y

notamos que y ∈ Im T = {y ∈ R2 | y = T (x) para algún x ∈ R2 } = R(A), donde A es la matriz de coeficientes del sistema. Observeque en  el espacio columna de  la matriz A hay más de un −1 1 vector. Por ejemplo, el vector b1 = ∈ R(A) ya que A = b1 . Se deja de ejercicio al 2 1 lector construir más elementos que pertenezcan al espacio columna de la matriz A.

1.1. Ecuaciones lineales

7 y 2x − y = 1

6 5 4

  2 3

3 2 1

−1

1

2

3

4

5

6

x x+y =5

−1

Figura 1.1: La solución (2 3)T del sistema de ecuaciones lineales 1.4 interpretado como la intersección de las rectas 2x − y = 1 y x + y = 5.

1.1.2.

Ejercicios

1. Con la ayuda de Sage determine si el siguiente sistema de ecuaciones es determinado, indeterminado o inconsistente. 1 x4 = −1, 2 1 −x1 − 2 x4 − 2 x5 = , 14 2 x1 + x2 + x5 = 2, 3 −2 x3 − x4 + x5 = . 2 −2 x3 +

Escriba la matriz de coeficientes y el vector de términos independientes. 2. Con la ayuda de Sage determine si el siguiente sistema de ecuaciones es determinado, indeterminado o inconsistente.

x2 −

1 1 x3 − 2 x4 = , 2 4 2 x3 − x5 = −61,

−2 x2 + 2 x3 + x4 1 1 x3 − x4 2 2 1 −x1 + 2 x3 − x4 2 1 2 x2 − x3 2

= 0, = −21, = −4, 3 =− . 7

8

1. Sistemas de ecuaciones lineales y b = 2v + 3w 5 4

3w

3

2v

2

w −3

−2

1

v

−1

1

2

3

4

x

Figura 1.2: La solución (2, 3)T del sistema de ecuaciones lineales 1.4 interpretada como una combinación lineal de los vectores v = (2, 1)T y w = (−1, 1)T . El vector v se multiplica por 2, el vector w se multiplica por 3. La suma de los vectores resultantes es el vector de términos b = 2v + 3w.

3. La matriz de coeficientes y el vector de términos independientes de un sistema de ecuaciones son     −2 0 −1 1 2 0 1    1 0 2 0 1   32    11     1 0 1  y b =  − 2 , A =  0 −2   −1 1 0 −1 0  0  1 1 −1 0 0 −1 respectivamente. Determine si el sistema de ecuaciones es determinado, indeterminado o inconsistente.   4 4. Con la ayuda de algún software, por ejemplo Sage, determine si el vector b = 3 es 4 combinación lineal de las matrices       1 1 1 v1 =  2  , v2 =  −2  , v3 =  −1  . 1 1 1 5. Determine cuál o cuáles  de los siguientes vectores pertenecen al espacio columna de la matriz −1 1 −1 1 −1 . A =  −1 −2 −1 −1 

 3  2 , −6



 6  6 , −6



 −1  −2  , 5



 0  0  −5



 1  −1  . −13

1.2. Técnicas de eliminación

9 T

y

y   1 5

5 4

  2 3

3

−1

3

2

2

1

1

1

2

3

x

−1

1

2

3

x

Figura 1.3: La solución s = (2 3)T del sistema de ecuaciones lineales 1.4 interpretado como aquel punto del dominio de la función T : R2 → R2 que satisface T (s) = b = (1 5)T .

6. Considere el sistema de ecuaciones lineales Ax = b, donde 

0 0  −1 0 [A | b] =   2 0 −4 0

2 −2 2 −2 −1 0 −6 4 −1 3 9 −5 3 −7 −17 9

 −4 −10  . 26  −54

a) Escriba b, el vector de términos independientes, como una combinación lineal de las columnas de A. b) Sea T la función de R6 → R4 definida por la matriz A. Proporcione al menos cinco vectores b ∈ R4 que pertenezcan a la imagen de T . 7. Pruebe que si un sistema de ecuaciones lineales con coeficientes en R tiene al menos dos soluciones diferentes, entonces tiene infinidad de soluciones. (Sugerencia. Si x1 6= x2 son soluciones del sistema Ax = b, demuestre que x1 + k(x1 − x2 ) también es solución del sistema para todo k ∈ R. Luego demuestre que cualesquiera dos de estas soluciones son distintas). 8. Sean A y x matrices de números reales positivos de tamaños n × n y n × 1 respectivamente. Demuestre que si A2 x = x, entonces Ax = x.

1.2.

Técnicas de eliminación

En esta sección se estudiará el fundamento en que se basan los diferentes métodos para resolver sistemas de ecuaciones lineales. Estos métodos nos permitirán describir el conjunto de soluciones de un sistema, o en su caso, determinar que el sistema dado no tiene solución. La idea principal de estos métodos es transformar un sistema de ecuaciones lineales en otro que sea más fácil de resolver. Para llevar a cabo esta transformación formaremos nuevas ecuaciones lineales a partir de las ecuaciones del sistema dado; la característica principal de las nuevas ecuaciones es que cualquier solución del sistema original también será solución de las nuevas.

10

1. Sistemas de ecuaciones lineales Consideremos el sistema de ecuaciones lineales: a11 x1 + a12 x2 + · · · + a1n xn

=

a21 x1 + a22 x2 + · · · + a2n xn

= b2 , .. .

am1 x1 + am2 x2 + · · · + amn xn

b1 ,

(1.5)

= bm .

Diremos que la ecuación lineal: α1 x1 + α2 x2 + · · · + αn xn = β,

(1.6)

es una combinación lineal del sistema (1.5) si existen escalares λ1 , λ2 , . . . , λm tales que: α1

= λ1 a11 + λ2 a21 + · · · + λm am1 ,

α2

= .. .

λ1 a12 + λ2 a22 + · · · + λm am2 ,

αn

=

λ1 a1n + λ2 a2n + · · · + λm amn ,

β

=

λ1 b1 + λ2 b2 + · · · + λm bm . T

Supongamos que s = (s1 , . . . , sn ) es una solución del sistema (1.5). Afirmamos que s también es una solución de la combinación lineal (1.6). En efecto: α1 s1 + α2 s2 + · · · + αn sn

=

(λ1 a11 + λ2 a21 + · · · + λm am1 ) s1 + (λ1 a12 + λ2 a22 + · · · + λm am2 ) s2 + · · · + (λ1 a1n + λ2 a2n + · · · + λm amn ) sn

= λ1 (a11 s1 + a12 s2 + · · · + a1n sn ) + λ2 (a21 s1 + a22 s2 + · · · + a2n sn ) + · · · + λm (am1 s1 + am2 s2 + · · · + amn sn ) =

λ1 b1 + λ2 b2 + · · · + λm bm

=

β.

El recíproco no es cierto, es decir, existen soluciones de la combinación lineal que no son soluciones del sistema original. Ejemplo 1.2.1. Considere el sistema de ecuaciones lineales del Ejemplo 1.1.5. La ecuación lineal: 16x1 + 12x2 − 20x3 + 30x4 = 36

(1.7)

es una combinación lineal de las ecuaciones del sistema, ya que: 16 = 2(3) + (−3)(0) + 5(2), 12 = 2(2) + (−3)(−1) + 5(1), −20 = 2(−1) + (−3)(1) + 5(−3), 30 = 2(1) + (−3)(−1) + 5(5), 36 = 2(1) + (−3)(2) + 5(8). Note que la ecuación (1.7) se obtuvo simplemente multiplicando la primera ecuación del sistema por λ1 = 2, la segunda por λ2 = −3 y la tercera por λ3 = 5, y sumando término a término las T ecuaciones lineales obtenidas. Una solución de la ecuación lineal (1.7) es s = 49 , 0, 0, 0 . Sin embargo, s no es solución del sistema original.

1.2. Técnicas de eliminación

11

A partir de un sistema de ecuaciones lineales se pueden formar combinaciones lineales de una forma muy sencilla: 1. Se eligen escalares arbitrarios λ1 , . . . , λm . 2. Para cada i (1 ≤ i ≤ m) se multiplica la i-ésima ecuación lineal del sistema de ecuaciones dado por λi . 3. Se suman término a término las nuevas ecuaciones lineales obtenidas en el paso anterior. Aclaremos esto con un ejemplo. Formemos una combinación lineal de las ecuaciones del sistema: x1 + 3x2 + 3x3 + 2x4

=

1,

2x1 + 6x2 + 9x3 + 5x4

=

2,

−x1 − 3x2 + 3x3

= −1.

Tomemos λ1 = 2, λ2 = −1 y λ3 = 3. Efectuando las operaciones del paso dos tenemos: 2x1 + 6x2 + 6x3 + 4x4

=

2,

−2x1 − 6x2 − 9x3 − 5x4

=

−2,

−3x1 − 9x2 + 9x3 + 0x4

=

−3.

Al sumar término a término obtenemos la ecuación lineal −3x1 − 9x2 + 6x3 − x4 = −3. Note T que s = 0, 31 , 0, 0 es una solución del sistema de ecuaciones y también es una solución de la combinación lineal que se acaba de formar. Lo anterior se puede hacer en Sage de la siguiente manera: sage : var ( ’ x1 x2 x3 x4 ’) ( x1 , x2 , x3 , x4 ) sage : ec1 = x1 + 3* x2 +3* x3 +2* x4 ==1 sage : ec2 = 2* x1 + 6* x2 +9* x3 +5* x4 ==2 sage : ec3 = - x1 -3* x2 +3* x3 == -1 sage : l1 =2; l2 = -1; l3 = 3 sage : ec4 = l1 * ec1 + l2 * ec2 + l3 * ec3 # una combinaci ó n lineal sage : ec4 -3* x1 - 9* x2 + 6* x3 - x4 == -3 sage : l1 * ec1 # se multiplica la ec1 por 2 2* x1 + 6* x2 + 6* x3 + 4* x4 == 2 sage : l2 * ec2 # se multiplica la ec2 por -1 -2* x1 - 6* x2 - 9* x3 - 5* x4 == -2 sage : l3 * ec3 # se multiplica la ec3 por 3 -3* x1 - 9* x2 + 9* x3 == -3 sage : # (0 ,1/3 ,0 ,0) es soluci ó n sage : ec1 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0) 1 == 1 sage : ec2 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0) 2 == 2 sage : ec3 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0) -1 == -1 sage : ec4 . subs ( x1 =0 , x2 =1/3 , x3 =0 , x4 =0) -3 == -3 sage : ec4 . subs ( x1 =0 , x2 =0 , x3 =0 , x4 =3) # (0 ,0 ,0 ,3) es soluci ó n -3 == -3 sage : ec1 . subs ( x1 =0 , x2 =0 , x3 =0 , x4 =3) # (0 ,0 ,0 ,3) NO es soluci ó n 6 == 1

12

1. Sistemas de ecuaciones lineales

Definición 1.2.2. Se dice que dos sistemas de ecuaciones lineales S1 y S2 son equivalentes si cada ecuación de S1 es combinación lineal de S2 , y cada ecuación de S2 es combinación lineal de S1 . Para aclarar esta definición veamos algunos ejemplos. Ejemplo 1.2.3. Sea S1 el sistema de ecuaciones lineales formado por E1 , E2 y E3 y S2 el sistema formado por E10 , E20 y E30 , donde: E1 : E2 : E3 :

E10 : E20 : E30 :

x2 − x3 = 2 x1 + 2x2 − x3 = −1 x1 + x2 + 2x3 = 3

x1 + 2x2 − x3 = −1 x2 − x3 = 2 x3 = 3

Estos sistemas son equivalentes. En efecto, notemos que: E1 = 0E10 + E20 + 0E30 E2 = 1E10 + 0E20 + 0E30 E3 = 1E10 − 1E20 + 2E30

E10 = 0E1 + E2 + 0E3 E20 = 1E1 + 0E2 + 0E3 E30 = 12 E1 − 12 E2 + 21 E3

Como la ecuación E1 es combinación lineal de las ecuaciones E10 , E20 y E30 , entonces cualquier solución del segundo sistema también es una solución de E1 . Lo mismo es aplicable a E2 y E3 . Así, cualquier solución del segundo sistema es una solución del primer sistema. También es cierto que cualquier solución del primer sistema es una solución del segundo sistema. En consecuencia, los dos sistemas de ecuaciones lineales tienen el mismo conjunto de soluciones. Ejemplo 1.2.4. Los sistemas de ecuaciones lineales siguientes también son equivalentes: E1 : E2 : E3 :

2x1 + 6x2 + 6x3 + 2x4 = 2 5x1 + 3x2 + 3x3 + 5x4 = 5 4x1 + 4x4 = 4

E10 : E20 :

x1 + 3x2 + 3x3 + x4 = 1 x2 + x3 = 0

ya que: E1 = 2E10 + 0E20 E2 = 5E10 − 12E20 E3 = 4E10 − 12E20

E10 = 12 E1 + 0E2 + 0E3 1 5 E1 − 12 E2 + 0E3 E20 = 24

Igual que en el ejemplo anterior, como los sistemas son equivalentes, el conjunto de soluciones es el mismo para ambos sistemas. Podemos resumir lo que hasta aquí hemos dicho. Teorema 1.2.5. Sistemas de ecuaciones lineales equivalentes tienen exactamente las mismas soluciones. Demostración. Consideremos los sistemas de ecuaciones lineales equivalentes S1 y S2 . Sean S1 y S2 los conjuntos formados por las soluciones de S1 y S2 , respectivamente. Si s ∈ S1 , entonces s es solución de cada una de las ecuaciones del sistema S1 . Como cada ecuación de S2 es combinación lineal de las ecuaciones del sistema S1 , se sigue que s es solución de cada una de las ecuaciones del sistema S2 , y por lo tanto s ∈ S2 . Así, S1 ⊂ S2 . De manera análoga, tenemos que S2 ⊂ S1 . Por lo tanto, S1 = S2 . Este teorema es fundamental en la resolución de sistemas de ecuaciones. Dado un sistema de ecuaciones lineales nuestra tarea será determinar un sistema equivalente que sea más fácil de resolver que el original. Para esto utilizaremos unas operaciones a las que llamaremos operaciones elementales. Estas operaciones son: 1. Intercambio de dos ecuaciones del sistema.

1.2. Técnicas de eliminación

13

2. Reemplazo de una ecuación del sistema por algún múltiplo escalar no nulo de ésta. 3. Reemplazo de una ecuación del sistema por esa ecuación más un múltiplo escalar de otra ecuación. Utilizaremos la siguiente notación para indicar el tipo de operación que utilizamos al pasar de un sistema a otro. Operación

Símbolo

1 2 3

Rij Ri (c) Rij (c)

Significado del símbolo Intercambio de las ecuaciones i y j. Reemplazo de la ecuación i por c veces la ecuación i. Reemplazo de la ecuación i por la ecuación i más c veces la ecuación j.

Proposición 1.2.6. Si un sistema de ecuaciones lineales S 0 se obtiene del sistema de ecuaciones lineales S aplicando exactamente una operación elemental, entonces S y S 0 son equivalentes. En particular tienen exactamente las mismas soluciones. 0 Demostración. Supongamos que el sistema de ecuaciones S 0 = {E10 , . . . , Em } se obtuvo del sistema S = {E1 , . . . , Em } reemplazando la ecuación i por la ecuación i más c la ecuación j, con i 6= j. Esto quiere decir que ( ( E`0 si ` 6= i, E` si ` 6= i, E` = E`0 = Ei0 − cEj0 si ` = i. Ei + cEj si ` = i.

Se sigue que cada ecuación de S es una combinación lineal de las ecuaciones del sistema S 0 , y también que cada ecuación del sistema S 0 es una combinación lineal de las ecuaciones del sistema S. Esto prueba que los sistemas son equivalentes. Que tienen las mismas soluciones se sigue del Teorema 1.2.5. La demostración cuando se aplica una operación elemental de cualquiera de los otros dos tipos es similar y se deja de ejercicio al lector.

1.2.1.

Forma escalonada y el método de Gauss

El método de eliminación de Gauss, también conocido como eliminación gaussiana, es un proceso sistemático para transformar mediante la aplicación de operaciones elementales, un sistema en otro que sea más simple de resolver. El método se explica mejor con un ejemplo. 2x1 +6x2 +6x3 +2x4 =2, 5x1 +3x2 +3x3 +5x4 =5, 4x1

+4x4 =4.

La estrategia general consiste en elegir una variable y eliminar todos los términos debajo de esta posición. Esta variable es la variable pivotal y su coeficiente se llama pivote o elemento pivotal. Para el proceso de eliminación sólo se permiten pivotes distintos de cero. Si algún coeficiente en alguna posición pivotal es cero, entonces se intercambia la ecuación con alguna ecuación que esté por debajo de la posición pivotal para obtener un pivote diferente de cero. Siempre se tomará como primer pivote el primer coeficiente de la primera ecuación (a menos claro que éste sea cero).

14

1. Sistemas de ecuaciones lineales La primera variable pivotal es x1 y el primer pivote es 2 y se indica encerrado en un cuadro. 2 x1 +6x2 +6x3 +2x4 =2, 5x1 +3x2 +3x3 +5x4 =5, 4x1 +

+4x4 =4.

Usando este pivote se elimina la variable x1 de todas las ecuaciones excepto de la primera. Para esto se multiplica la primera ecuación por − 25 y se le suma a la segunda. En otras palabras se reemplaza la segunda ecuación por la segunda ecuación más − 52 veces la primera. Se obtiene: 2 x1 + 6x2 + 6x3 +2x4 =2, −12x2 −12x3 4x1 +

=0, 4x4 =4.

A la tercera ecuación se le resta dos veces la primera, es decir se aplica la operación elemental R13 (−2). El resultado es: 2 x1 + 6x2 + 6x3 +2x4 =2, −12x2 −12x3

=0,

−12x2 −12x3

=0.

El siguiente paso consiste en seleccionar un nuevo pivote. Como ahora se sea eliminar la variable x2 en la tercera ecuación, el nuevo pivote es -12 . 2x1 +

6x2 + 6x3 +2x4 =2, - 12 x2 −12x3

=0,

−12x2 −12x3

=0,

Ahora se multiplica la segunda ecuación por −1 y se le suma a la tercera, es decir se aplica la operación elemental R23 (−1): 2x1 +

6x2 + 6x3 +2x4 =2, - 12 x2 −12x3

=0,

0x2 + 0x3

=0.

Como cualquier cuarteta de escalares satisface la ecuación lineal 0x1 + 0x 2 + 0x3 + 0x4 = 0, se puede eliminar del sistema para obtener: 2x1 +

6x2 + 6x3 +2x4 =2, - 12 x2 −12x3

=0.

La solución a este sistema la obtenemos al despejar x2 en la segunda ecuación y sustituirla en la primera. 1 − x4 ,

x1

=

x2

= −x3 .

1.2. Técnicas de eliminación

15

Las variables x1 y x2 quedan determinadas por las variables x3 y x4 . Las primeras dos se llaman variables básicas y las dos últimas variables libres. La descripción del conjunto de soluciones es:   1−r  −s   S = {x ∈ R4 | Ax = b} = {  s  | r, s ∈ R}. r Notemos que al realizar la eliminación gaussiana, todos los cálculos se hicieron con los números (coeficientes y términos independientes) y no con los símbolos xi ’s. Se puede eficientar la técnica de eliminación de Gauss trabajando solamente con los coeficientes y términos independientes evitando reescribir las variables durante todo el proceso. Se observa también que la matriz aumentada del sistema está en una forma escalonada. De hecho en eso consiste el método de Gauss, en llevar la matriz aumentada del sistema a una forma escalonada. 2 x1 +6x2 +6x3 +2x4 =2, 5x1 +3x2 +3x3 +5x4 =5, 4x1 +

+4x4 =4.

2 x1 + 6x2 + 6x3 +2x4 =2, −12x2 −12x3 4x1 +

=0, 4x4 =4.

2 x1 + 6x2 + 6x3 +2x4 =2,

2x1 +

−12x2 −12x3

=0,

−12x2 −12x3

=0.

6x2 + 6x3 +2x4 =2, - 12 x2 −12x3

=0,



2  5 4

6 6 2 3 3 5 0 0 4

 2 5  4



2  0 4

6 6 2 −12 −12 0 0 0 4

 2 0  4



2  0 0

6 −12 −12

6 2 −12 0 −12 0

 2 0  0



6 -12 0

6 2 −12 0 0 0

 2 0  0

2  0 0

0x2 + 0x3 =0. Sage tiene implementado las operaciones elementales de renglón. El comando B.with_added_multiple_of_row(i,j,c) suma c veces el renglón j al renglón i. La matriz B no cambia. De esta manera para multiplicar por −5/2 el primer renglón y sumárselo al segundo renglón se usa el comando B.with_added_multiple_of_row(1,0,-5/2). sage : A = matrix ( QQ , 3 , [2 ,6 ,6 ,2 ,5 ,3 ,3 ,5 ,4 ,0 ,0 ,4]); A [2 6 6 2] [5 3 3 5] [4 0 0 4] sage : b = vector ([2 ,5 ,4]); b (2 , 5 , 4) sage : B = A . augment (b , subdivide = True ); B [2 6 6 2|2] [5 3 3 5|5] [4 0 0 4|4]

16

1. Sistemas de ecuaciones lineales

sage : B1 = B . w i t h _ a d d e d _ m u l t i p l e _ o f _ r o w (1 ,0 , -5/2); B1 [ 2 6 6 2| 2] [ 0 -12 -12 0| 0] [ 4 0 0 4| 4] sage : B2 = B1 . w i t h _ a d d e d _ m u l t i p l e _ o f _ r o w (2 ,0 , -2); B2 [ 2 6 6 2| 2] [ 0 -12 -12 0| 0] [ 0 -12 -12 0| 0] sage : B3 = B2 . w i t h _ a d d e d _ m u l t i p l e _ o f _ r o w (2 ,1 , -1); B3 [ 2 6 6 2| 2] [ 0 -12 -12 0| 0] [ 0 0 0 0| 0] sage : B4 = B3 . with_rescaled_row (1 , -1/12); B4 [2 6 6 2|2] [0 1 1 0|0] [0 0 0 0|0]

Recuerde que se dice que una matriz E ∈ K m×n está en forma escalonada por renglones si se cumplen las siguientes dos condiciones: 1. Todos los renglones que consisten únicamente de ceros, si los hay, están en la parte inferior de la matriz. 2. La primera entrada diferente de cero en el resto de los renglones, está a la derecha de la primera entrada diferente de cero del renglón anterior. En los renglones no nulos, los pivotes son las primeras entradas diferentes de cero. Una matriz en forma escalonada se ve como sigue:         

* 0 0 0 0 0

∗ * 0 0 0 0

∗ ∗ 0 0 0 0

∗ ∗ * 0 0 0

∗ ∗ ∗ 0 0 0

∗ ∗ ∗ * 0 0

∗ ∗ ∗ ∗ 0 0

 ∗  ∗  ∗  ∗  0 0

donde los pivotes son las entradas encerradas en un cuadro. Método de eliminación de Gauss. 1. Escribir la matriz aumentada del sistema de ecuaciones lineales Ax = b. 2. Llevar la matriz aumentada [A | b] a una forma escalonada [U | c] mediante la aplicación de operaciones elementales de renglón. 3. Resolver el sistema de ecuaciones lineales U x = c. Las variables básicas corresponden a las posiciones pivotales. Las variables libres corresponden a las posiciones no pivotales. Ejercicio 1.2.7. Resuelva cada uno de los siguientes sistemas aplicando el método de eliminación de Gauss.

1.2. Técnicas de eliminación

a)

c)

e)

17

x + 2y + 7z = 1 −x + y − z = 2 3x − 2y + 5z = −5

b)

x1 + x2 + x3 + x4 + x5 = 2 x1 + x2 + x3 + 2x4 + 2x5 = 3 x1 + x2 + x3 + 2x4 + 3x5 = 2

d)

x + y + z = −2 3x + 3y − z = 6 x − y + z = −1

f)

x + 4y + 2z = −2 −2x − 8y + 3z = 32 y+z =1 x+y =1 x−y =3 −x + 2y = −2 2x − y + 3z = 2 x + 2y + z = 1 3x − 4y + 5z = 4

Solución. El cálculo de formas escalonadas correspondiente a cada sistema resulta en las siguientes matrices:  1 2 7 1 a)  0 1 2 1  , 0 0 0 0   1 1 1 d)  0 1 −1  , 0 0 1 



1 4 b)  0 1 0 0  1 1 e)  0 1 0 0

2 1 1 1 0 1

 −2 1 , 4  −2 − 12  , −3



1 c)  0 0  2 f)  0 0

1 0 0

1 0 0

−1 5 2

0

1 1 0 3 − 21 0

1 1 1

 2 1 , −1 

2 0 . 1

El primer sistema es consistente indeterminado; el conjunto de soluciones es: T

{(−1 − 3t , 1 − 2t , t) | t ∈ R}. T

La única solución del segundo sistema es (2, −3, 4) . El conjunto de soluciones del sistema c) es {(1 − s − t, s, t, 2, −1)T | s, t ∈ R}. El cuarto sistema es inconsistente. Finalmente, el sistema e) es consistente y determinado y la T única solución es 23 , − 12 , −3 , en tanto que el sistema f) es inconsistente.

1.2.2.

La forma escalonada reducida y el método de Gauss-Jordan

La técnica de eliminación de Gauss - Jordan es una variante de la eliminación gaussiana. Son dos las características que hacen diferente el método de Gauss-Jordan del método de Gauss: a) En cada paso del proceso, cada pivote debe convertirse en 1. b) En cada paso del proceso, todas las entradas arriba y abajo de un pivote deben convertirse en 0. Recuerde que una matriz E ∈ K m×n está en la forma escalonada reducida por renglones si: 1. E está en forma escalonada. 2. Todos los pivotes son 1. 3. Cada pivote es la única entrada distinta de cero en su columna.

18

1. Sistemas de ecuaciones lineales La forma escalonada reducida de  1  0   0  0  0 0

una matriz se ve como sigue:  0 ∗ 0 ∗ 0 ∗ ∗  1 ∗ 0 ∗ 0 ∗ ∗  0 0 1 ∗ 0 ∗ ∗  0 0 0 0 1 ∗ ∗  0 0 0 0 0 0 0 0 0 0 0 0 0 0

donde los pivotes son los números encerrados en un cuadro. Método de eliminación de Gauss - Jordan. 1. Escribir la matriz aumentada del sistema de ecuaciones lineales Ax = b. 2. Llevar la matriz aumentada [A | b] a la forma escalonada reducida [U | c] mediante la aplicación de operaciones elementales de renglón. 3. Resolver el sistema de ecuaciones lineales U x = c. Las variables básicas corresponden a las posiciones pivotales. Las variables libres corresponden a las posiciones no pivotales. Resolvamos de nuevo el sistema de ecuaciones lineales: 2x1 + 6x2 + 6x3 + 2x4

=

2,

5x1 + 3x2 + 3x3 + 5x4

=

5,

4x1 + 4x4

=

4,

pero ahora por el método de Gauss - Jordan.  2 6 6 2 La matriz aumentada es [A | b] =  5 3 3 5 4 0 0 4 una matriz A se obtiene con el comando A.rref():

 2 5 . La matriz escalonada reducida de 4

sage : A = matrix (3 ,[2 ,6 ,6 ,2 , 5 ,3 ,3 ,5 ,4 ,0 ,0 ,4]); A [2 6 6 2] [5 3 3 5] [4 0 0 4] sage : b = vector ([2 ,5 ,4]); b (2 , 5 , 4) sage : B = A . augment (b , subdivide = True ); B [2 6 6 2|2] [5 3 3 5|5] [4 0 0 4|4] sage : B . rref () [1 0 0 1|1] [0 1 1 0|0] [0 0 0 0|0]

El sistema U x = c es: x1 + x4

=

1,

x2 + x3

=

0.

Despejando x1 y x2 en términos de x3 y x4 tenemos: 1 − x4 ,

x1

=

x2

= −x3 .

1.2. Técnicas de eliminación

19

Las variables básicas son x1 y x2 ; las variables libres son x3 y x4 . Por lo tanto el conjunto de soluciones es (1 − s, −t, t, s)T | s, t ∈ R .   2 6 6 2 Ejemplo 1.2.8. Sea A = 5 3 3 5 ∈ R3×4 . Dado un vector b ya se sabe como encontrar 4 0 0 4 un vector x tal que Ax = b. Consideremos ahora el problema de hallar todos los vectores b de tal manera que el sistema de ecuaciones Ax = b tenga solución. En otras palabras, se quiere describir el espacio columna de la matriz A. Entonces la pregunta es: ¿cuáles son las condiciones en b1 , b2 , b3 de tal manera que el sistema 2x1 + 6x2 + 6x3 + 2x4

= b1 ,

5x1 + 3x2 + 3x3 + 5x4

= b2 ,

4x1 + 4x4

= b3 ,

tiene solución? Se calcula primero la forma escalonada (o la forma escalonada reducida) de la matriz aumentada [A | b]: sage : var ( ’ b1 b2 b3 ’) ( b1 , b2 , b3 ) sage : assume ( b1 ==0 , b2 ==0 , b3 ==0) sage : A = matrix (3 , [2 ,6 ,6 ,2 , b1 ,5 ,3 ,3 ,5 , b2 ,4 ,0 ,0 ,4 , b3 ]); A [ 2 6 6 2 b1 ] [ 5 3 3 5 b2 ] [ 4 0 0 4 b3 ] sage : A . rref () [1 0 0 1 -1/8* b1 + 1/4* b2 ] [0 1 1 0 5/24* b1 - 1/12* b2 ] [0 0 0 0 1/2* b1 - b2 + b3 ]

Es necesario decirle a Sage que b1 , b2 y b3 pueden ser cero, para que no divida entre algún bi . El correspondiente sistema de ecuaciones es 1 1 x1 + x4 = − b1 + b2 8 4 5 1 x2 + x3 = b1 − b2 24 12 1 0x1 + 0x2 + 0x3 + 0x4 = b1 − b2 + b3 . 2 El sistema tiene solución si y solamente si b1 /2 − b2 + b3 = 0. Luego R(A) = {b ∈ R3 | ∃x ∈ R4 , Ax = b} = {b ∈ R3 | b1 − 2b2 + 2b3 = 0}. En particular, se tiene que (2, 5, 4)T ∈ R(A).

1.2.3.

Ejercicios

1. Encuentre una forma escalonada por renglones y la forma escalonada reducida de la matriz   5 7 0 2 − 29 − 15 − 27 2 2 2 2  −11 0 2 −3 −9 5 −15     2 0 −2 4 8 −4 14   .  20 0 −4 2 10 6 16  3 8 0 −3 −3 −2 −6 2

20

1. Sistemas de ecuaciones lineales

2. Considere el sistema de ecuaciones lineales: E1 :

x1 − x2 − x4 = 1,

E2 :

4x1 − 4x2 + x3 − 3x4 − x5 = 2,

E3 :

2x1 − 2x2 + x3 − x4 − x5 = 0.

a) Obtenga una combinación lineal de este sistema. b) Encuentre todas las soluciones del sistema y muestre por sustitución directa que cada solución del sistema es solución de la combinación lineal encontrada en el inciso anterior. c) Considere la combinación lineal −2E1 + E2 + E3 . Demuestre que esta combinación lineal tiene al menos una solución que no es solución del sistema dado. 3. Determine la relación o relaciones que deben satisfacer b1 , b2 , b3 para que el sistema: 2x1 + x2 − 2x3 + 2x4 = b1 , −4x1 + x2 + 3x3 − 5x4 = b2 , 6x1 − 5x3 + 7x4 = b3 , tenga solución.   2 3 1 2  4 7 4 5  . Determine la relación o relaciones que deben satisfacer 4. Sea A =   −4 −8 −6 −6  6 12 9 9 las coordenadas de b ∈ R4 para que el sistema Ax = b tenga solución. 5. Utilice la eliminación de Gauss - Jordan para resolver el siguiente sistema de ecuaciones −2x − 4y + 2z − 6w

=

0

3x + 6y − 2z + 13w

=

6

2x + 4y + 14w

=

12

4x + 8y − 7z

= −10.

6. Dada una matriz A ∈ Rm×n se definen los siguientes conjuntos: R (A)

=

N (A) =  N AT =  R AT =

{b ∈ Rm | ∃ x ∈ Rn , b = Ax} , {x ∈ Rn | Ax = 0} ,  y ∈ Rm | A T y = 0 ,  x ∈ Rn | ∃ y ∈ Rm , x = A T y .

Estos conjuntos se denominan espacio columna espacio nulo, espacio nulo izquierdo y espacio renglón, respectivamente, de A. Calcule los espacios columna, nulo, nulo izquierdo y renglón de cada una de las siguientes matrices:     2 2 0 0 1 3 3 2  3 4 −1 2  ,  2 6 9 5 . −1 1 −2 4 −1 −3 3 0 

1  4 7. Sea A la matriz   3 2 A sea igual al espacio

 2 0 3 8 2 10   . Encuentre una matriz B tal que el espacio columna de 6 2 7  4 2 4 nulo de B, es decir, R (A) = N (B).

1.2. Técnicas de eliminación

21

3×2 8. Encuentre matrices  B1 , B2 ∈ R  tales que AB1 = I = AB2 , donde I es la matriz identidad 1 −1 1 de 2 × 2 y A = . Escoja al azar vectores b ∈ R2 y verifique que B1 b y B2 b −1 1 1 son soluciones del sistema de ecuaciones Ax = b.   2 5 3  ∈ R2×3 . 9. Sea A =  1 −2 −3

a) Encuentre matrices B1 , B2 ∈ R2×3 tales que B1 A = I = B2 A, donde I es la matriz identidad de 2 × 2.   −11 b) Encuentre una solución del sistema Ax = b, donde b =  −7 . Verifique que la 5 solución que encontró es igual a Bi b, i = 1, 2.   1 c) Verifique que el sistema de ecuaciones Ax =  1  no tiene solución. −1 10. Sean A ∈ Cm×n , B ∈ Cn×m y b ∈ Cm . a) Suponga que AB es la matriz identidad de orden m. Pruebe que el sistema de ecuaciones lineales Ax = b tiene al menos una solución. b) Suponga que BA es la matriz identidad de orden n. Pruebe que el sistema de ecuaciones lineales Ax = b tiene a lo más una solución. 11.

a) Construya un sistema homogéneo de cuatro ecuaciones y cinco incógnitas cuya solución general sea: ! −1 ! 0! 1 x2

1 0 0 0

+ x4

0 2 1 0

+ x5

0 −1 0 1

.

b) Construya un sistema no homogéneo de cuatro ecuaciones y cinco incógnitas cuya solución general sea: ! ! −1 ! 0! 1 1 0 1 0 0

+ x2

1 0 0 0

+ x4

0 2 1 0

+ x5

0 −1 0 1

.

12. Determine los valores de α de tal manera que el sistema de ecuaciones: x + y − z = 1, 3x + αy + αz = 5, 4x + αy = 5, sea: a) consistente y determinado;

b) indeterminado;

c) inconsistente.

13. Suponga que A y B son matrices de m × n y que P es una matriz invertible tal que A = P B. Pruebe que:   a) R AT = R B T . b) N (A) = N (B) .   En particular, pruebe que si U es una forma escalonada de A, entonces R AT = R U T y N (A) = N (U ) . 14. Sean A, B ∈ Rn×n tales que (A + B)k = Ak + B k para todo entero positivo k. Demuestre que si A es invertible, entonces B es la matriz cero.

22

1.3.

1. Sistemas de ecuaciones lineales

Rango y consistencia

Por la flexibilidad que se tiene al elegir las operaciones para llevar una matriz A a una forma escalonada E no se puede hablar de una sola forma escalonada, de hecho una matriz puede tener varias formas escalonadas. Sin embargo, se puede probar que una matriz A sólo tiene una forma escalonada reducida y de este hecho se deduce que cualquier forma escalonada de A tiene el mismo número de pivotes y por lo tanto el mismo número de renglones diferentes de cero. Definición 1.3.1. Sea A una matriz m × n y sea E su forma escalonada reducida. El rango de A se define: rango(A) = número de pivotes de E = número de renglones diferentes de cero de E. Las columnas básicas de A (o columnas base) son las columnas de A que contienen las posiciones pivotales. Ejemplo SAGE 1.3.2. El comando A.rank() de Sage nos devuelve el rango de la matriz A: sage : A = matrix (4 ,[1 ,2 ,1 ,3 ,3 , 2 ,4 ,0 ,4 ,4 ,1 ,2 ,3 ,5 ,5 ,2 ,4 ,0 ,4 ,7]); A [1 2 1 3 3] [2 4 0 4 4] [1 2 3 5 5] [2 4 0 4 7] sage : A . rank () 3 sage : A . rref () [1 2 0 2 0] [0 0 1 1 0] [0 0 0 0 1] [0 0 0 0 0]

El comando A.pivots() regresa los números de las columnas en las que se encuentran los pivotes de A. En la matriz del ejemplo, los pivotes se encuentran en las columnas 1, 3 y 5 (si empezamos a contar en 1) o bien en la columnas 0, 2 y 4 si empezamos a contar en 0 como lo hace Sage. sage : A . pivots () (0 , 2 , 4)



 1 2 1 3 3  2 4 0 4 4   Consideremos la matriz A =   1 2 3 5 5  . La forma escalonada reducida de A es 2 4 0 4 7   1 2 0 2 0  0 0 1 1 0   E=  0 0 0 0 1 . El rango de A es 3, pues E tiene 3 renglones diferentes de cero. Las 0 0 0 0 0 posiciones pivotales de E están en las columnas 1, 3 y 5. Por lo tanto, las columnas básicas de A son las columnas A∗1 , A∗3 y A∗5 , es decir:  1   1   3  2 columnas básicas = , 03 , 45 . 1 2

0

7

Trabajar con la forma escalonada reducida nos provee de más información y explica un poco por qué el nombre de columnas base. Observe que cada columna que no es básica de E se puede

1.3. Rango y consistencia

23

expresar como combinación lineal de las columnas básicas anteriores: 2 1 2 1 0 0 0 1 0 =2 0 ; = 2 0 + 1 10 . 0 0 0

0

0

0

0

Exactamente la misma relación se tiene con las columnas no básicas de A : 2 1 3 1 1 4 2 4 2 =2 1 ; = 2 1 + 1 03 . 2 5 4

2

4

2

0

Esto no es coincidencia. Lema 1.3.3. Sean A y B matrices m × n y sea P una matriz invertible tal que P A = B. Si: B∗k = α1 B∗b1 + α2 B∗b2 + · · · + αj B∗bj , entonces: A∗k = α1 A∗b1 + α2 A∗b2 + · · · + αj A∗bj . Demostración. De la hipótesis se deduce que A = P −1 B. Entonces: A∗k = columna k de la matriz P −1 B = P −1 B∗k = P −1 α1 B∗b1 + α2 B∗b2 + · · · + αj B∗bj



= α1 P −1 B∗b1 + α2 P −1 B∗b2 + · · · + αj P −1 B∗bj = α1 A∗b1 + α2 A∗b2 + · · · + αj A∗bj . En otras palabras, el lema establece que si una columna de B es combinación lineal de algunas (o de todas) las columnas de B, entonces la misma relación de dependencia lineal existe entre las columnas de A. Teorema 1.3.4. Sea A una matriz m × n y sea E su forma escalonada reducida. Entonces: 1. Cada columna no básica E∗k en E es una combinación lineal de las columnas básicas de E que están a la izquierda de E∗k . Más aún: E∗k = µ1 E∗b1 + µ2 E∗b2 + · · · + µj E∗bj , donde E∗b1 , E∗b2 , . . . , E∗bj son las columnas básicas a la izquierda de E∗k , y los escalares µi son las primeras j entradas en E∗k . 2. La relación que existe entre las columnas de E es exactamente la misma que entre las columnas de A. En particular, si A∗k es una columna no básica de A, entonces: A∗k = µ1 A∗b1 + µ2 A∗b2 + · · · + µj A∗bj , donde A∗b1 , A∗b2 , . . . , A∗bj son las columnas básicas a la izquierda de A∗k y los escalares µi son las primeras j entradas en E∗k . Demostración. 1. Sea E∗k una columna no básica de E y sean E∗b1 , E∗b2 , . . . , E∗bj las columnas básicas a la izquierda de E∗k . Entonces:  µ1  1 0 0 µ2 0 1 0 .  .   ..   ..   ..   .  . . .  E∗k =  0  + µ2  0  + · · · + µj  1  ,  µ0j  = µ1   .      .. .. .. .. . . . 0 0 0 0

24

1. Sistemas de ecuaciones lineales 0

1

0

y claramente E∗b1

0

0

1

 ..   ..   ..        =  0.  , E∗b2 =  0.  , . . . , E∗bj =  1. . . . . .. .. .. 0

0

0

2. Como A y E son equivalentes por renglones, existe una matriz invertible P tal que E = P A. El resultado se sigue ahora aplicando el lema anterior y el inciso 1.

Ejemplo 1.3.5. Si A es una matriz real tal que     2 4 A∗1 =  −3  , A∗3 =  2  , 2 5



1 EA =  0 0

y

5 0 0

0 1 0

 −8 3 , 0

donde EA es la matriz escalonada reducida de A, entonces las columnas 1 y 3 de A son columnas básicas. Dado que E∗2 = 5E∗1 y E∗4 = −8 ∗ E∗1 + 3E∗3 sigue que las columnas 2 y 4 de A satisfacen las mismas relaciones. Entonces     −4 10 A∗2 = 5A∗1 =  −15  ,A∗4 = −8 ∗ A∗1 + 3A∗3 =  30  . −1 10 Una verificación directa muestra que efectivamente, EA es la forma escalonada reducida de la matriz A. La relación entre el rango de una matriz y la consistencia de un sistema de ecuaciones lineales se presenta en el siguiente teorema. Teorema 1.3.6 (Consistencia). Las siguientes afirmaciones acerca del sistema de ecuaciones Ax = b son equivalentes: 1. El sistema de ecuaciones Ax = b es consistente. 2. Al reducir [A | b] nunca aparece un renglón de la forma (0

0

···

0 | α) ,

con α 6= 0.

(1.8)

3. b no es una columna básica en [A | b] . 4. rango ([A | b]) = rango (A) . 5. b es una combinación lineal de las columnas básicas en A. Demostración. (1 ⇒ 2): Supóngase que el sistema es consistente pero que al reducir la matriz [A | b] llegamos a una matriz [A0 | b0 ] que tiene un renglón de la forma (1.8). Esto implica que la correspondiente ecuación lineal es 0x1 + 0x2 + · · · + 0xn = α la cual claramente no tiene solución y en consecuencia el sistema de ecuaciones A0 x = b0 al que pertenece tampoco. Como el conjunto de soluciones de Ax = b y A0 x = b0 es el mismo entonces el sistema Ax = b no tiene soluciones lo cual contradice la hipótesis. (2 ⇒ 3): Si b fuera una columna básica, entonces se tendría un renglón de la forma (1.8) lo cual es contrario a la hipótesis. (3 ⇒ 4): Si b no es una columna básica de [A | b], entonces todas las columnas básicas de [A | b] se encuentran en A y por lo tanto el número de columnas básicas de [A | b] y A es el mismo, es decir, estas matrices tienen el mismo rango.

1.3. Rango y consistencia

25

(4 ⇒ 5): Si el rango de [A | b] y A es el mismo, entonces b no es columna básica de [A | b] , pues de ser así esta matriz tendría una columna básica más que A y su rango no sería igual al de A. Como b no es columna básica, por el teorema anterior se tiene que b es combinación lineal de las columnas básicas de [A | b] , es decir, b es combinación lineal de las columnas básicas de A. (5 ⇒ 1): Finalmente, si b es combinación lineal de las columnas básicas de A, entonces b es combinación lineal de todas las columnas de A (con coeficiente cero en las columnas no básicas), es decir, existen s1 , s2 , . . . , sn tales que b = s1 A∗1 + s2 A∗2 + · · · + sn A∗n = As, donde T s = (s1 , . . . , sn ) lo que muestra que s es una solución y por lo tanto el sistema es consistente. Esto prueba el teorema. De acuerdo al teorema anterior, el espacio columna de A, es igual al conjunto formado por todas las combinaciones lineales de las columnas básicas de A.

1.3.1.

Ejercicios

1. Calcule el rango de  −1 −2 8  1 0 −1   −1 1 3   1 0 −72 −2 1 −1

las siguientes matrices reales.   3 2 4 1 1 4 0 −1 0 −14 7 −1    1 0  −10 −3 1 −2 25   ,  −123 0 −1 1 −2 −1 1  4 0 −1 0 −1 2 −1

 −5 9 15 −7 −18 19 −13 15  . 122 −245 −493 247  13 −9 33 −25

2. La matriz escalonada reducida por renglones de una matriz A es  1 −2 0 4 2 0 −5 1  0 0 1 −5 3 0 4 −1  0 0 0 0 1 1 −1 EA =   0  0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Las columnas 1, 3 y 6 de A son   5  −1     A∗1 =   4 ,  5  8

   A∗3 =   

−1 2 2 −1 3

   ,  

0 2 4 0 0

   .  

   A∗6 =   

2 3 −1 0 1

   .  

Encuentre la matriz A. 3. Si A ∈ Rm×n , demuestre que rango(A) ≤ m´ın{m, n}. 4. Pruebe que si A es una matriz m × n cuyo rango es m, entonces el sistema de ecuaciones Ax = b es consistente para cualquier b. 5. Suponga que los sistemas de ecuaciones cuyas matrices aumentadas son [A | b] y [A | c] son consistentes. ¿Qué puede decir acerca de la consistencia del sistema de ecuaciones cuya matriz aumentada es [A | b + c]?   1 0 2 a 1 1 1  en función del parámetro a. 6. Discuta el rango de la matriz A =  0 2 −8 −a 0

26

1. Sistemas de ecuaciones lineales

7. Discuta el rango de las siguientes matrices en función de los parámetros a y b. 

1 A= 0 a

0 −2 1 −4 b 0

 3 6 , 0



 2 2 0 0 2 1 . b 0 4

1 B =  −1 a

8. Determine todos los valores de α de tal manera que el sistema de ecuaciones: αx + y + z = 1 x + αy + z = α x + y + z = α2 sea: a) determinado

b) indeterminado

c) inconsistente.

9. Calcule todos los valores de k (k ∈ R) x − 2y + 3z

=

1

2x + ky + 6z

=

6

−x + 3y + (k − 3) z

=

0

para los cuales el sistema (a) no tiene solución; (b) tiene exactamente una solución; (c) tiene infinidad de soluciones. Para el caso de infinitas soluciones, encuentre la forma general de la solución. ! 10. Considere la matriz

1 3.75 2 π √ 2 ln 2 2 2 1 −8 9 92 153

. ¿Es posible que las cuatro columnas de esta matriz

sean básicas? 11. Sea A una matriz de m × n. Demuestre que el rango de A es igual a 1 si y sólo si existen vectores columna u 6= 0 de m × 1 y v 6= 0 de n × 1 tales que A = uv T . 12. Suponga que A tiene la forma escalonada reducida EA .    1 2 1 b 1 a 1 8  , EA = 0 A= 2 tercer renglón de A 0

2 0 0

0 1 0

 3 2 . 0

a) ¿Qué se puede decir del tercer renglón de A? b) Determine los números a y b. 13. Sean A y B matrices invertibles de n × n, distintas de la matriz identidad I que satisfacen las relaciones: A7 = I y ABA−1 = B 2 . Demuestre que existe un entero k > 0 tal que B k = I y determine el menor valor de k con esta propiedad. 14. Sean A, B ∈ Rn×n matrices invertibles. Demuestre que si (AB)k = Ak B k para tres valores enteros consecutivos de k, entonces AB = BA. 15.

a) Demuestre que toda matriz A ∈ Cn×n se puede escribir como suma de n matrices de rango 1. b) Demuestre que la matriz identidad de tamaño n × n no se puede escribir como suma de menos de n matrices de rango 1.

1.4. Sistemas homogéneos

1.4.

27

Sistemas homogéneos

Recuerde que un sistema de ecuaciones lineales de la forma Ax = 0 se llama homogéneo. Los sistemas homogéneos siempre son consistentes pues x1 = x2 = · · · = xn = 0 siempre es solución del sistema. A esta solución se le denomina solución trivial. El problema entonces no es encontrar una solución, más bien se trata de determinar bajo qué condiciones un sistema homogéneo tiene una solución no trivial. Al conjunto de todas las soluciones del sistema homogéneo Ax = 0 asociado a la matriz A ∈ K m×n se le conoce como el espacio nulo de A y se denota con el símbolo N (A): N (A) = {x ∈ K n | Ax = 0}. Con base en la técnica de eliminación de Gauss - Jordan se tiene el siguiente algoritmo para el cálculo del espacio nulo de una matriz A. Algoritmo para el cálculo del espacio nulo de una matriz Am×n de rango r. 1. Llevar la matriz A a su forma escalonada reducida E mediante operaciones elementales de renglón. 2. Resolver el sistema de ecuaciones Ex = 0. Las r variables básicas están en términos de las n − r variables libres. 3. Escribir la solución general en forma de vector. 4. Descomponer la solución general en una combinación lineal de vectores. Teorema 1.4.1. Sea A una matriz m × n. El sistema homogéneo Ax = 0 tiene solución única si y sólo si rango(A) = n. Demostración. Si el sistema homogéneo Ax = 0 tiene solución única, entonces no hay variables libres. Es decir, todas las columnas de A son básicas y por lo tanto, rango(A) = n. Recíprocamente, si rango(A) = n, entonces todas las columnas de A son básicas. Es decir, no hay variables libres y por lo tanto, el sistema homogéneo Ax = 0 tiene solución única. Ejemplos 1.4.2. 

 1 3 3 2 6 9 5  . La 1. Consideremos el sistema homogéneo asociado a la matriz A =  2 −1 −3 3 0   1 3 0 1 forma escalonada reducida de esta matriz es E = 0 0 1 1/3. Como el rango es 2 < 4, 0 0 0 0 entonces la solución del sistema tiene dos variables básicas y dos libres y por lo tanto el sistema tiene una solución no trivial. El sistema asociado es: x1 + 3x2 + x4 = 0, x3 + 31 x4 = 0. Las variables libres son x2 y x4 . Las soluciones son: x1

= −3x2 − x4 ,

x3

= − 31 x4 .

También podemos escribir:         −3x2 − x4 −1 x1 −3  x2     1   0  x2       =  x3   − 1 x4  = x2  0  + x4  − 1  . 3 3 x4 0 x4 1

28

1. Sistemas de ecuaciones lineales Una descripción del espacio nulo es la siguiente:     −1 −3  1   0     N (A) = {x2   0  + x4  − 1  : x2 , x4 ∈ R}. 3 0 1

2. Dado que 

1 A= 0 −1

 −17 1 −1 1  −1 −11



y

1 EA = 0 0

0 1 0

 0 0 , 1

donde EA es la matriz escalonada reducida por renglones de A, entonces el rango de A es 3; por lo tanto, el sistema homogéneo asociado tiene solución única, y así N (A) = {0}. La solución general de un sistema de ecuaciones lineales homogéneo no depende de la forma escalonada que se use, pues al resolver el sistema utilizando la sustitución hacia atrás para expresar las variables básicas en términos de las variables libres, se obtiene la forma escalonada reducida que es única.

1.4.1.

Ejercicios

1. Si A es la matriz de coeficientes de un sistema homogéneo formado por 4 ecuaciones y 8 incógnitas y hay 5 variables libres, ¿cuál es el rango de A? 2. Demuestre que un sistema homogéneo de m ecuaciones y n incógnitas con m < n, siempre tiene una infinidad de soluciones. 3. Sea Am×n de rango n. Pruebe que la función T : K n → K m dada por T (x) = Ax es una función inyectiva. 4. Encuentre A(con dos renglones) de tal manera que su espacio nulo sea N (A) =  una matriz  2 1 {r  −3  + s  0  | r, s ∈ R}. 1 −1

1.5.

Sistemas no homogéneos

A continuación se analizará la estructura del conjunto de soluciones de un sistema no homogéneo Ax = b. Teorema 1.5.1. Suponga que x0 es una solución particular al sistema de ecuaciones Ax = b. Entonces, el conjunto de todas las soluciones del sistema Ax = b es: S

=

{x | Ax = b}

=

{x | x = x0 + h, donde h ∈ N (A)}

=

x0 + N (A)

←− Notación

Demostración. Si x ∈ S, entonces Ax = b. Como también Ax0 = b, entonces Ax = Ax0 , de donde A (x − x0 ) = 0 y por lo tanto x − x0 ∈ N (A) ; haciendo h = x − x0 se tiene x = x0 + h con h ∈ N (A) . Recíprocamente, si x ∈ x0 + N (A) , entonces x = x0 + h para algún h ∈ N (A) ; entonces Ax = A (x0 + h) = Ax0 + Ah = b + 0 = b. Luego, x ∈ S.

1.5. Sistemas no homogéneos

29

El teorema anterior muestra que la solución de un sistema no homogéneo Ax = b, está dada en términos de las soluciones del sistema homogéneo Ax = 0, es decir, está en términos del espacio nulo de A. Más precisamente, la solución general del sistema no homogéneo Ax = b, donde rango(A) = r, es de la forma: x = x0 + xf1 h1 + · · · + xfn−r hn−r , con xf1 , . . . , xfn−r escalares, donde x0 es una solución particular del sistema Ax = b, y xf1 h1 + · · · + xfn−r hn−r es la solución general del sistema Ax = 0. Ejemplo 1.5.2. Consideremos el sistema de ecuaciones Ax = b, donde A es la matriz del Ejemplo 1.4.2 y b = (−5, −3, 19)T . La forma escalonada reducida de [A | b] es   1 3 0 1 −12 7  . EA =  0 0 1 13 3 0 0 0 0 0 Las soluciones están dadas por x1 = −12 − 3x2 − x4 , x3 = 7/3 − x4 /3. Por lo tanto, el conjunto solución es       −1 −3 −12   1   0  0       S=  7/3  + {x2  0  + x4  −1/3  : x2 , x4 ∈ R} = x0 + N (A), 1 0 0 donde x0 es una solución del sistema Ax = b y N (A) es el espacio nulo de A. Teorema 1.5.3. Sea A ∈ K m×n . Las siguientes afirmaciones sobre el sistema consistente Ax = b son equivalentes: 1. El sistema Ax = b es consistente y determinado. 2. rango(A) = n 3. No hay variables libres. 4. El sistema homogéneo asociado solamente tiene la solución trivial. Demostración. Si el sistema Ax = b es consistente y determinado, entonces por el teorema anterior se sigue que el sistema homogéneo asociado Ax = 0 tiene sólo la solución trivial, y por el Teorema 1.4.1 el rango de A es n. Recíprocamente, si el rango de A es n, entonces el sistema Ax = 0 sólo tiene la solución trivial por el Teorema 1.4.1 y por lo tanto, el sistema consistente Ax = b tiene solución única, por el teorema anterior. Esto demuestra que 1 ⇔ 2. Es claro que 2 ⇔ 3. Finalmente, la demostración de 1 ⇔ 4 está contenida en la demostración de 1 ⇔ 2. Teorema 1.5.4. Sea A una matriz cuadrada de n × n. Las siguientes afirmaciones son equivalentes. a) A es una matriz invertible (A es no singular). b) El rango de A es n. c) La forma escalonada reducida de A es I. d) Ax = 0 implica que x = 0.

30

1. Sistemas de ecuaciones lineales

Demostración. Si A es no singular, entonces el sistema homogéneo Ax = 0 es consistente y determinado (la única solución es la trivial) y de acuerdo con el teorema anterior, su rango es n; esto prueba a) ⇒ b). Recíprocamente, si el rango de A es n dado que A es una matriz cuadrada, para cualquier b se tiene rango ([A | b]) = rango (A) y por tanto el sistema Ax = b es consistente. De acuerdo con el teorema anterior y tomando en cuenta que rango (A) = n, el sistema Ax = b tiene solución única. En particular para cada ej (1 ≤ j ≤ n) sea xj la única solución del sistema Ax = ej . Sea X = [x1 | x2 | · · · | xn ]; entonces AX = I. Si XA 6= I, entonces XA − I 6= 0 y por tanto al menos una columna de esta matriz no es cero. Así, A (XA − I) = AXA − AI = IA − A = 0. Esto implica que el sistema Ax = 0 tiene al menos una solución no trivial (dicha solución no trivial es una de las columnas distintas de cero de la matriz XA − I), lo cual de acuerdo al teorema anterior no puede ser. Por lo tanto, XA = I y X = A−1 . Esto demuestra que a) ⇔ b). b) ⇔ c) es inmediato. a) ⇒ d) es también inmediato. Demostraremos que d) ⇒ a). En efecto, si Ax = 0 implica que x = 0, entonces el sistema homogéneo Ax = 0 sólo tiene la solución trivial y por el Teorema 1.4.1 el rango de A es n. Luego, por la equivalencia entre b) y a) de este teorema, se sigue que A es invertible. Esto demuestra que d) ⇒ a) y así, a) ⇔ d). Esto concluye la prueba. Observación 1.5.5. De acuerdo con el teorema anterior, una matriz A es invertible si y solamente si su forma escalonada reducida es la matriz identidad. Esto justifica el Método de Gauss-Jordan para calcular la inversa de una matriz cuadrada (Vea el Ápendice B). Finalizamos la sección probando que el rango de una matriz y el de su transpuesta son iguales. Esto será consecuencia del siguiente teorema. Teorema 1.5.6. Si A es una matriz de tamaño m × n y de rango r, entonces existen matrices invertibles P y Q tales que:   Ir 0 P AQ = , 0 0 donde Ir es la matriz identidad de tamaño r × r. Demostración. Sea E la forma escalonada reducida de A. Entonces, existe una matriz invertible P tal que P A = E. Como el rango de A es r, las columnas básicas de E son las r columnas unitarias. Aplicando intercambios de columnas a E podemos mover estas r columnas unitarias a la parte más izquierda. Si Q1 es el producto de las matrices elementales correspondientes a estos intercambios de columnas, entonces P AQ1 tiene la forma:   Ir J P AQ1 = EQ1 = . 0 0 Multiplicando esta igualdad a la derecha en ambos lados por la matriz invertible:   Ir −J Q2 = , 0 In−r obtenemos:

 P AQ1 Q2 =

Ir 0

J 0



Ir 0

−J In−r



 =

Ir 0

0 0

 ,

donde In−r es la matriz identidad de tamaño (n − r) × (n − r). Finalmente, haciendo Q = Q1 Q2 se (Nótese que Q2 es una matriz de n × n invertible, ya que la matriz  sigue el resultado.  Ir J es su inversa). 0 In−r Corolario 1.5.7. Para cada matriz A de m × n, se tiene que:  rango (A) = rango AT .

1.5. Sistemas no homogéneos

31

Demostración. De acuerdo con el teorema anterior, P , Q, R y S  existen  matrices  invertibles  I 0 I 0 r s tales que P AQ = Nr y RAT S = Ns , donde Nr = , Ns = y r es el rango de A 0 0 0 0 T y s es el rango de A . Tenemos que: A = P −1 Nr Q−1

y AT = R−1 Ns S −1 .

Luego: (P −1 Nr Q−1 )T = R−1 Ns S −1 . Simplificando y usando el hecho de que NrT = Nr , tenemos que: Nr = P 0 Ns Q0 donde P 0 y Q0 son las matrices invertibles QT R−1 y S −1 P T , respectivamente. De la última igualdad no es difícil concluir que r = s (observe que P 0 y Q0 son producto de matrices elementales y que la multiplicación por una matriz elemental no cambia el rango), y así el rango de A y el rango de AT coinciden.

1.5.1.

Ejercicios 

1. El conjunto solución del sistema Ax =

−6 9

 es

    1 −2 + {r | r ∈ R}. Determine la 1 1

matriz A. 2. Encuentre una  matriz  A de tal  que el conjunto solución del sistema de ecuaciones  manera   −1 2 7 Ax = es  −1  + {r  1  | r ∈ R}. 19 1 2 3. Suponga que A es una matriz de 2 × 1 y que B es una matriz de 1 × 2. Demuestre que AB no es invertible. 4. Suponga que A es de m × n con m > n y que B es de n × m. Pruebe que AB no es invertible. 5. Sea A una matriz de n × n. Demuestre las siguientes afirmaciones: a) Si A es invertible y AB = 0 para alguna matriz B de n × n, entonces B = 0. b) Si A no es invertible, entonces existe una matriz B de n × n, B 6= 0, tal que AB = 0.   a b 6. Sea A = . Demuestre que A es invertible si y sólo si ad − bc 6= 0. c d   1 4 0 2 7. Sea A una matriz cuya forma escalonada reducida es 0 0 1 2. Determine todas las 0 0 0 0 soluciones (si existen) del sistema: Ax = suma de las columnas de A. 8. Considere la matriz real de n × n:  x+y  x  A= .  .. x

x x+y .. .

··· ··· .. .

x x .. .

x

···

x+y

   . 

Determine los valores de x, y, para que la matriz A sea invertible y calcule A−1 .

32

1. Sistemas de ecuaciones lineales

9. Sean A y B matrices de m × n y n × p, respectivamente. a) Suponga que la columna k de la matriz B es una combinación de lineal de otras columnas de B, digamos, B∗k = α1 B∗k1 + · · · + αj B∗kj . Pruebe que (AB)∗k = α1 (AB)∗k1 + · · · + αj (AB)∗kj . b) Pruebe que rango(AB) ≤ rango(B). c) Pruebe que rango(AB) ≤ rango(A). d) Suponga que A y B son matrices cuadradas de n × n. Pruebe que si AB = I, entonces rango(A) = n. 10. Sean A y B matrices de 2 × 3 y 3 × 2, respectivamente. Suponga que AB = I. Pruebe que BA 6= I.

1.6.

Cálculo de los cuatro espacios fundamentales

En este sección iniciaremos el estudio de los cuatro espacios2 fundamentales asociados con una matriz. Si A es una matriz de m × n, dos de estos subespacios son subespacios de K n y los otros dos de K m . Dada una matriz A ∈ K m×n se definen los siguientes conjuntos: R (A)

= {b ∈ K m | ∃ x ∈ K n , b = Ax} .

N (A) = {x ∈ K n | Ax = 0} .   N AT = y ∈ K m | AT y = 0 .   R AT = x ∈ K n | ∃ y ∈ K m , x = AT y . Estos conjuntos se denominan espacio columna, espacio nulo, espacio nulo izquierdo y espacio renglón, respectivamente, de A. Estos cuatro conjuntos son los espacios fundamentales de A. Los primeros dos surgieron previamente en la Subsección 1.1.1 y en la Sección 1.4, respectivamente. Note que estos espacios surgen de manera natural al considerar sistemas de ecuaciones lineales. Dada una matriz A es natural preguntarnos para que b’s el sistema de ecuaciones Ax = b tiene solución. En el caso del espacio nulo, éste simplemente es el conjunto de todas las soluciones del sistema homogéneo Ax = 0. Si se conoce una solución particular del sistema Ax = b, entonces el conjunto de todas sus soluciones se obtiene sumando a la solución particular un elemento del espacio nulo. Más adelante veremos que cada vector de Rn se puede escribir de manera única como un vector del espacio núlo de A más un vector del espacio renglón de A. Una situación similar sucede en Rm . Un subconjunto S de Rn se dice que está generado por vectores s1 , . . . , sl si para todo s ∈ S existen constantes c1 , . . . , cl ∈ R tales que s = c1 s1 + · · · + cl sl . La demostración del siguiente resultado se presenta en una versión más general en el Teorema 3.5.1. Teorema 1.6.1. Sea A una matriz m × n de rango r. Sea P una matriz no singular tal que P A = U, donde U es una forma escalonada de A. Entonces: 1. R (A) es el conjunto generado por las columnas básicas de A.  2. R AT  es el conjunto generado por los r renglones diferentes de cero de U y R(AT ) = R UT . 3. N (A) es el conjunto generado por las n − r h0i s en la solución general de U x = 0. (Las hi ’s se definieron en la sección anterior). 2 En

el capítulo 3 se estudiarán formalmente los espacios vectoriales.

1.7. Descomposiciones LU

33

 4. N AT es el conjunto generado por los últimos m − r renglones de P. Del teorema anterior se desprende inmediatamente el siguiente algoritmo. Algoritmo para el cálculo de los espacios fundamentales de una matriz 1. Lleve la matriz aumentada [A | Im ] a una forma escalonada [U | P ]. 2. Particione la matriz [U | P ] de la siguiente manera:   U1 P1 r [U | P ] = 0 P2 m−r Entonces: R (A) =  {generado  por las columnas básicas de A} = N (P2 ). R AT = R U1T . 0 N (A) =  {generado  por las n − r hi s en la solución general de U x = 0}. N AT = R P2T . Ejemplo 1.6.2. Se calcularán los cuatro espacios fundamentales de la matriz   1 −2 1 −1 5  1 −2 0 4 2  . A=  −1 2 1 −9 1  −1 2 −1 1 −5 La forma escalonada reducida por renglones de [A | I4 ] es 

 [U | P ] =

U1 0

P1 P2



1  0 =  0 0

−2 0 4 2 0 1 −5 3 0 0 0 0 0 0 0 0

0 0 1 0

0 0 0 1

− 12 1 2

0 1 2

 − 21 − 21  . 1  1 2

Por lo tanto, las columnas 1 y 3 son las columnas básicas de A. Se tiene: R(A) = {rA∗1 + sA∗3 | r, s ∈ R} = {b ∈ R4 | b1 + b4 = 0, 2b2 + b3 + b4 = 0}. Los espacios renglón y nulo izquierdo de A son T T R(AT ) = {rU1∗ + sU2∗ | r, s ∈ R},

1.7.

T T N (AT ) = {rP∗3 + sP∗4 | r, s ∈ R}.

Descomposiciones LU

En secciones anteriores se analizaron los métodos de eliminación de Gauss y de Gauss Jordan para resolver sistemas de ecuaciones lineales. En esta sección se analizará un método diferente para resolver sistemas cuadrados no singulares basado en la descomposición LU de una matriz. Esta descomposición consiste en factorizar la matriz de coeficientes en un producto de dos matrices: una triagular inferior y otra triangular superior. Este método, adecuado para emplear en computadoras, es en realidad la eliminación de Gauss visto desde la perspectiva de las matrices. Cuando se utiliza la eliminación gaussiana para llevar una matriz A a una forma escalonada U se aplican operaciones elementales de renglón, lo que equivale a multiplicar por la izquierda por la

34

1. Sistemas de ecuaciones lineales

matriz elemental3 correspondiente. Así, es posible encontrar matrices elementales E1 , E2 , . . . , Ek tales que: Ek · · · E2 E1 A = U. Como las matrices elementales son invertibles, entonces: A = E1−1 E2−1 · · · Ek−1 U. En general, las matrices elementales del tipo 1 (intercambio de renglones) y 3 (reemplazo de un renglón por el mismo renglón más un múltiplo de otro renglón) no son triangulares inferiores, pero las que se usan en la eliminación gaussiana sí lo son. Se puede probar por inducción (ejercicio) que el producto de matrices triangulares inferiores es una matriz triangular inferior. Si suponemos que durante la reducción no se encuentra un pivote cero, entonces no es necesario el intercambio de renglones y la reducción se puede realizar aplicando solamente operaciones elementales del tipo 3. En este caso: L = E1−1 E2−1 · · · Ek−1 es una matriz triangular inferior y por lo tanto: A = LU, que es una factorización de A en un producto de una matriz triangular superior. Ilustremos con un ejemplo calculando una   2 6 2 A =  −3 −8 0 . 4 9 2    2 6 2 2 R21 (3/2) R32 (3) 1 3  −−−−→  0 A −−−−−−→  0 R31 (−2) 0 −3 −2 0 El producto de las tres matrices elementales usadas es:    1 1 0 0 1 0 0 E3 E2 E1 =  0 1 0   0 1 0   3/2 0 −2 0 1 0 3 1

0 1 0

triangular inferior y una matriz descomposición LU de la matriz

6 1 0

 2 3  = U. 7

 1 0 0   3/2 5/2 1

0 1 3

 0 0 . 1

O sea que E3 E2 E1 A = U, por lo que A = E1−1 E2−1 E3−1 U = LU, donde:   1 0 0 1 0 . L = E1−1 E2−1 E3−1 =  −3/2 2 −3 1 El ejemplo muestra varias cosas. Primero, la mayor parte del trabajo para obtener una descomposición LU se invierte en el cálculo de L. La matriz U es el resultado final de la eliminación gaussiana. La matriz L tiene en su diagonal 1’s; debajo de la diagonal principal de L, cada entrada lij es precisamente el negativo del multiplicador que se utilizó en la eliminación para introducir un cero en la posición (i, j) . El trabajo se puede simplificar llevando un registro cuidadoso de las operaciones efectuadas para llevar a cabo la reducción. Lo que ilustra este ejemplo sucede en general, siempre que no se use intercambio de renglones. El cálculo de las matrices L y U usando Sage se muestra a continuación. 3 Una matriz elemental es una matriz que obtiene de la matriz identidad aplicando una operación elemental de renglón. Puesto que son tres las operaciones elementales de renglón, hay tres tipos de matrices elementales. Una matriz elemental es invertible y su inversa es una matriz elemental del mismo tipo.

1.7. Descomposiciones LU

35

sage : A = matrix (3 , [2 ,6 ,2 , -3 , -8 ,0 , 4 ,9 ,2]) sage : P , L , U = A . LU ( pivot = ’ nonzero ’) sage : L , U ( [ 1 0 0] [2 6 2] [ -3/2 1 0] [0 1 3] [ 2 -3 1] , [0 0 7] ) sage : L * U [ 2 6 2] [ -3 -8 0] [ 4 9 2]

Por el momento no haremos caso de la matriz P . Teorema 1.7.1 (LU sin intercambios). Si A es una matriz n × n no singular tal que no es necesario aplicar ningún intercambio de renglones durante la eliminación gaussiana, entonces A se puede factorizar como A = LU, donde: 1. U es una forma escalonada de A que se obtiene al aplicar la eliminación gaussiana a A. 2. L es una matriz triangular inferior y U es una matriz triangular superior. 3. lii = 1 y uii 6= 0, i = 1, 2, . . . , n. 4. Debajo de la diagonal principal de L, cada lij es el negativo del multiplicador usado para introducir el cero en la posición (i, j) . 5. Las matrices L y U están determinadas de manera única por las propiedades 2 y 3. Demostración. Para la prueba es útil el concepto de matriz triangular inferior elemental. Sea k  0  .  ..   0  un entero 1 ≤ k < n y sea ck =  µk+1 . Es decir, ck es un vector cuyas primeras k entradas  .  .. µn

son cero. Sea ek el k-ésimo vector unitario de K n , es decir, ek es el vector que en su k-ésima entrada tiene al 1 y tiene ceros en todas las demás posiciones. La matriz: ··· 0 1 ···

1 0 Tk = I −

ck eTk

 .. .. . . . . . 0 0 ··· =   0 0 ··· . . .. ..

0 0

0 ··· 0  0 ··· 0

.. .

.. .

.. .

.. . . ..  . ..

..  .

1 0 ··· 0  −µk+1 1 ··· 0 

0 0 ···

−µn

0 ··· 1

se llama matriz triangular inferior elemental. Estas matrices son invertibles. De hecho: ··· 0 1 ···

Tk−1

=I+

ck eTk

1 0

0 0

0 ··· 0  0 ··· 0

 .. .. . . . . . 0 0 ··· =   0 0 ··· . . .. ..

.. .

.. .

0 0 ···

1 µk+1

.. .

µn

..  . 0 ··· 0  . 1 ··· 0  .. . . ..  . .. 0 ··· 1

36

1. Sistemas de ecuaciones lineales En efecto, Tk I + ck eTk



=

I − ck eTk

I + ck eTk





= I + ck eTk − ck eTk − ck eTk ck eTk = I, ya que eTk ck = 0. La utilidad de las matrices triangulares inferiores elementales Tk está en que las operaciones elementales tipos 2 y 3 necesarias para hacer ceros las entradas debajo del k-ésimo pivote, se pueden lograr con una multiplicación por Tk . Si:  ∗ ∗ ··· α1 ∗ ··· ∗  0 ∗ ···

Ak−1

. . .  .. .. . .  =  0 0 ···  0 0 ··· . . .. .. 0 0 ···

α2

.. .

αk αk+1

.. .

αn

∗ ··· ∗

.. .

..  .  ∗ ··· ∗  ∗ ··· ∗  .. . . ..  . ..

(αk 6= 0)

∗ ··· ∗

es el resultado parcialmente triangularizado después de k − 1 pasos en la reducción, entonces: ∗ ∗

··· α1 ∗ ··· ∗  0 ∗ ··· α2 ∗ ··· ∗

Tk Ak−1

=

(I −

ck eTk )Ak−1

= Ak−1 −

ck eTk Ak−1

 .. .. . . .. .. . . . . . αk ∗ ··· =  00 00 ··· ··· 0 ∗ ···  .. .. .. .. . . . . . . . 0 0 ···

donde:

0



..  . ∗, ∗  .. .

0 ∗ ··· ∗



.. .

    0  ck =  αk+1 /αk  ,   .. . αn /αk

contiene a los negativos de los multiplicadores usados para hacer ceros aquellas entradas debajo de αk . Note que Tk no altera las primeras k − 1 columnas de Ak−1 , ya que eTk [Ak−1 ]?j = 0 si j ≤ k − 1. Por lo tanto, si ningún intercambio de renglón se requiere en la eliminación gaussiana, entonces al reducir A a una matriz triangular superior U , realizamos n − 1 multiplicaciones por la izquierda con matrices triangulares inferiores elementales. Es decir, Tn−1 · · · T2 T1 A = U , de donde: −1 A = T1−1 T2−1 · · · Tn−1 U. Note que eTi cj = 0 siempre que i < j. Por lo tanto: −1 L = T1−1 T2−1 · · · Tn−1   = I + c1 eT1 · · · I + cn−1 eTn−1

= I + c1 eT1 + · · · + cn−1 eTn−1 . Observe que:  0 0 ··· 0 0 ···

ck eTk

. .  .. ..  =  00 00 ··· ···  . . .. ..

0 0 ···

0 0

.. .

0 lk+1,k

.. .

lnk

0 ··· 0 0 ··· 0



.. .

..  .

.. .

..  .

0 ··· 0   0 ··· 0  0 ··· 0

1.7. Descomposiciones LU

37

donde los lik ’s son los negativos de los multiplicadores usados para introducir ceros debajo de la posición (k, k) en la eliminación de Gauss. Por lo tanto, A = LU donde:   1 0 ··· 0  l21 1 · · · 0   L= . .. . . ..  .. . ..  . ln1

ln2

···

1

Por otra parte, si uii = 0 para algún i, 1 ≤ i ≤ n, entonces el rango de U y en consecuencia el de A, sería a lo más n − 1 lo cual no puede ser puesto que al ser A no singular, el rango de A es n. Por lo tanto, uii 6= 0 para cada i = 1, 2, . . . , n. Para demostrar la unicidad de las matrices L y U , observe que L es invertible por ser producto de matrices invertibles, y en consecuencia U = L−1 A también es producto de matrices invertibles. Luego, L y U son invertibles. Supongamos que L1 U1 = A = L2 U2 son dos factorizaciones LU de A. Entonces: −1 L−1 2 L1 = U2 U1 .

(1.9)

−1 Note que L−1 es una matriz triangular su2 L1 es una matriz triangular inferior y U2 U1 perior, ya que la inversa de una matriz triangular inferior (superior) es también triangular inferior (superior), y el producto de dos matrices triangulares inferiores (superiores) es también triangular inferior (superior) (ver ejercicios al final de la sección). Luego, de (1.9) se sigue que −1 L−1 es una matriz diagonal. Además, [L2 ]ii = 1 implica que [L−1 2 L1 = D = U2 U1 2 ]ii = 1 (¿por −1 qué?), y por lo tanto, L−1 2 L1 = I = U2 U1 , de donde L1 = L2 y U1 = U2 . Esto prueba la unicidad de la factorización y concluye la prueba.

Una vez que se tiene una descomposición LU para una matriz no singular A es relativamente fácil resolver el sistema Ax = b. Reescribiendo Ax = b como L(U x) = b, y haciendo el cambio de variable y = U x, es fácil verificar que el sistema Ax = b es equivalente a los dos sistemas triangulares Ly = b y U x = y. En efecto, si y es una solución de Ly = b y x es una solución de U x = y, entonces x es una solución de Ax = b, pues Ax = LU x = Ly = b. Recíprocamente, si x es una solución de Ax = b, entonces x es una solución de y = U x y y es solución de Ly = b. Ahora bien, los dos sistemas son muy fáciles de resolver. El primero por sustitución hacia adelante y el segundo por sustitución hacia atrás. Ejemplo 1.7.2. Usando la descomposición LU resuelva el sistema Ax = b, donde     2 2 2 12 7 7 y b = 24 . A = 4 6 18 22 12 Para mayor claridad, conforme vayamos reduciendo la matriz escribiremos en negrita en la posición (i, j), al negativo del multiplicador usado para hacer cero la posición (i, j).

A Entonces:

 2 = 4 6

2 7 18

  2 2 R21 (−2) 7 −−−−−→ 2 R31 (−3) 22 3  1 L = 2 3

0 1 4

 0 0 1

2 3 12

  2 2 3 −−−−−→ 2 R32 (−4) 16 3

 2 y U = 0 0

2 3 0

 2 3 . 4

 2 2 3 3 . 4 4

38

1. Sistemas de ecuaciones lineales Observe que:    0 1 c1 = 2 , T1 =  −2 3 −3 

   0 0 0  , c2 = 0 , 1 4   1 0 0 0 0 L = I + c1 eT1 + c2 eT2 =  0 1 0  +  2 0 0 0 1 3 0 Ahora resolvemos  1 2 3 Finalmente, por  2 0 0

0 1 0

primero el sistema Ly = b     0 0 y1 12 1 0 y2  = 24 ⇒ 4 1 y3 12



1 0 1 T2 =  0 0 −4   0 0 0 0 + 0 0 0 0 4

 0 0 , 1  0 0 . 0

mediante sustitución hacia adelante. y1 = 12, y2 = 24 − 2y1 = 0, y3 = 12 − 3y1 − 4y2 = −24.

sustitución hacia atrás resolvemos el sistema U x = y.     2 2 x1 12 x3 = −24/4 = −6, 3 3 x2  =  0  ⇒ x2 = (0 − 3x3 )/3 = 6, 0 4 x3 −24 x1 = (12 − 2x2 − 2x3 )/2 = 6.

Si se va a resolver solamente un sistema Ax = b, entonces no existe una diferencia significativa entre la técnica de reducir la matriz aumentada [A | b] a una forma escalonada y el método de la descomposición LU. Sin embargo, si fuera necesario resolver el sistema Ax = b para diferentes vectores b, entonces es relativamente más económico resolver estos sistemas a partir de una descomposición LU.   0 1 No todas las matrices tienen una descomposición LU. Para la matriz no es posible 1 0 encontrar un valor u11 6= 0 que satisfaga:      0 1 1 0 u11 u12 = . 1 0 l21 1 0 u22 El problema radica en el valor del pivote en la posición (1,1). En este caso se procede 1 0 a efectuar un intercambio de renglones, y la matriz resultante evidentemente tiene 0 1 una descomposición LU. Ahora bien, el problema del intercambio no solo se presenta cuando se encuentra un cero en una posición donde se requiere un pivote durante el proceso de eliminación. En la práctica es necesario realizar intercambios de renglones para reducir los errores provocados por el redondeo, cuando se resuelve numéricamente un sistema. A continuación se analizará cuál es el efecto de aplicar intercambios durante el proceso para hallar la descomposición LU. En caso de tener que realizar uno o más intercambios durante el proceso se tendría algo así: Tn−1 · · · Er · · · Tk+1 E1 Tk · · · T2 T1 A = U. Basta analizar qué sucede cuando se aplica una matriz elemental a una matriz triangular inferior elemental. Sea Tk = I − ck eTk una matriz triangular inferior elemental, y sea E la matriz elemental del tipo I que se obtiene de la identidad al intercambiar los renglones i y j, donde k < i, j. Es decir E intercambia dos renglones debajo del renglón k. Tomando en cuenta que E 2 = I (¿por qué?) y que eTk E = (renglón k de E) = eTk (¿por qué?), se tiene que: ETk E

=

E(I − ck eTk )E = (E − Eck eTk )E

=

E 2 − Eck eTk E = I − (Eck ) eTk = I − e ck eTk ,

1.7. Descomposiciones LU

39

donde e ck = Eck . Como e ck también es un vector cuyas primeras k entradas son ceros, tenemos que la matriz Tek = ETk E = I − e ck eTk sigue siendo una matriz triangular inferior elemental. Además las matrices Tk y Tek solamente difieren en las posiciones (i, k) y (j, k) , en las que están permutados los elementos µi y µj , es decir en la posición (i, k) de Tek está µj y en la posición (j, k) está el elemento µi . Suponga que se está llevando la matriz A a una forma escalonada y exactamente después del k−ésimo paso es necesario efectuar el intercambio de los renglones i y j (k < i, j). Insertando E 2 a la derecha de cada Tj se tiene ETk Tk−1 · · · T1

= ETk E 2 Tk−1 E 2 · · · T1 E 2 (ETk E) (ETk−1 E) · · · (ET1 E) E = Tek Tek−1 · · · Te1 E.

=

Esto implica que se puede trasladar la matriz E a la derecha del producto de las matrices Ti , y las matrices Tei ’s siguen siendo triangulares inferiores elementales. Más aún, las matrices Tk Tk−1 · · · T1 y Tek Tek−1 · · · Te1 difieren en que en los renglones i y j tienen intercambiados los multiplicadores (Observe que no todo el renglón i está intercambiado con el renglón j). De esta manera la eliminación gaussiana con intercambio de renglones se puede expresar en la forma: Ten−1 · · · Te2 Te1 P A = U, donde P es el producto de las matrices elementales de intercambio de renglones que se utilizaron −1 y las Tek ’s son las matrices triangulares inferiores durante el proceso, L = Te1−1 Te2−1 · · · Ten−1 elementales en las que los multiplicadores están intercambiados de acuerdo a los intercambios que se realizaron en el proceso.   1 2 −3 4  4 8 12 −8   y determinemos la descomposición Veamos un ejemplo. Sea A =   2 3 2 1  −3 −1 1 −4 P A = LU , donde P es la matriz permutación asociada. Para mayor claridad, conforme vayamos reduciendo la matriz, escribiremos en negrita en la posición (i, j), al negativo del multiplicador usado para hacer cero la posición (i, j). También usaremos una columna adicional p que nos servirá como contador en los intercambios de renglón. Esta columna estará formada por los números 1, 2, 3, 4. 

[A | p] =

R21 (−1/4)

−→

R31 (−1/2) R41 (3/4)

R32 (1/5)

−→

R43 (1/3)

−→

1 2 −3  4 8 12   2 3 2 −3 −1 1  4 8 12  1 0 −6  41  −1 −4 2 − 34 5 10  4 8 12  −3 5 10  14 1  − −2 2 5 1 0 −6 4  4 8 12  −3 5 10  41  0 −6 4 1 − 15 − 13 2

4 −8 1 −4 −8 6 5 −10 −8 −10 3 6 −8 −10 6 1

  1 4 8 12 −8 2 2  1 2 −3 4 1 R12   −→   2 3  3 2 1 3 4 −3 −1 1 −4 4   4 8 12 −8 2 3 1  5 10 −10 R24  −  −→  14  3  −1 −4 5 2 1 4 0 −6 6 4   2 4 8 12 −8 3 4  5 10 −10 R34  −  −→  41   3 0 −6 6 4 1 1 − 15 −2 3 2  2 4  . 1  3

     2 4   3  1  2 4   1  3

40

1. Sistemas de ecuaciones lineales Por lo tanto:  1  −3 4 L=  1

0 1 0

4 1 2

− 15

  0 12 −8  0 10 −10  , P =   1 −6 6  0 0 1

  0 0 4 8  0 5 0 0  , U =   0 0 1 0  1 0 0 1 3

1 0 0 0

 0 1  . 0  0

0 0 0 1

Como P es invertible, el sistema Ax = b es equivalente al sistema P Ax = P b. Por lo tanto se puede emplear la técnica descrita antes para resolver el sistema permutado: resolver primero Ly = P b y posteriormente U x = y. Note que: U

= =

T3 E3 T2 E2 T1 E1 A = T3 (E3 T2 E3 )(E3 (E2 T1 E2 )E3 )(E3 E2 E1 )A e T3 (Te2 E3 Te2 E3 )P A = T3 Te2 Te1 P A,

donde E1 , E2 y E3 son las matrices elementales que 3 y 4, respectivamente, y:    1 0 0 0 1 0 0  0 1 0  3 1 0 0  ee 4  e  T1 =   − 1 0 1 0  , T2 =  0 0 1 4 0 15 0 − 12 0 0 1

intercambian los renglones 1 y 2, 1 y 4, y   0 1  0 0  , T =  0  3  0 0 1

0 1 0 0

0 0 1 − 31

 0 0  . 0  1

e La diferencia de Te1 con T1 está en las posiciones (2, 1), (3, 1) y (4, 1): [T1 ]21 = −1/4, [T1 ]31 = −1/2 y [T1 ]41 = 3/4. Con Sage la tarea es sencilla. sage : A = matrix (4 ,[1 ,2 , -3 ,4 , sage : P ,L , U = A . LU () sage : P , L , U ( [0 0 1 0] [ 1 0 0 [1 0 0 0] [ -3/4 1 0 [0 0 0 1] [ 1/4 0 1 [0 1 0 0] , [ 1/2 -1/5 1/3 ) sage : P * A == L * U False sage : P . inverse ()* A == L * U True sage : A == P * L * U True

1.7.1.

4 ,8 ,12 , -8 ,2 ,3 ,2 ,1 , -3 , -1 ,1 , -4])

0] 0] 0] 1] ,

[ [ [ [

4 0 0 0

8 5 0 0

12 -8] 10 -10] -6 6] 0 1]

Ejercicios

1. Pruebe que las matrices Tk definidas en esta sección son triangulares. 2. Pruebe que si T1 y T2 son matrices n × n triangulares inferiores (superiores), entonces T1 T2 es una matriz triangular inferior (superior). 3. Pruebe que si T es una matriz cuadrada triangular inferior (superior) invertible, entonces T −1 también es triangular inferior (superior). (Sugerencia: demuestre primero que tii 6= 0 para cada i = 1, 2, . . . , n).

1.7. Descomposiciones LU

41

4. Calcule matrices triangulares inferiores elementalesT1 y T2 tales que U = T2 T1 A sea una  2 −1 3 4 −8  . Verifique que A = LU, donde L = matriz escalonada, donde A =  −2 6 3 3 T1−1 T2−1 . 5. Considere la matriz elemental Ek (c). Pruebe que Ek (c) = I − (1 − c)ek eTk y que Ek (c)−1 = Ek ( 1c ). ¿Es Ek (c) una matriz triangular inferior elemental? 6. Considere la matriz elemental Eij (c) con i 6= j. Pruebe que Eij (c) = I + cei eTj y que Eij (c)−1 = I − cei eTj . ¿Es Eij (c) es una matriz triangular inferior elemental? 7. Se dice que una matriz cuadrada A acepta una descomposición LDU si A = LDU, donde L es una matriz triangular inferior con uno’s en la diagonal principal, D es una matriz diagonal y U es una matriz triangular superior con uno’s en la diagonal superior. Pruebe que si A es una matriz que acepta una descomposición LU entonces acepta una descomposición LDU. Sugerencia: Analice el siguiente ejemplo y generalice:          3 −2 1 0 3 −2 1 0 3 0 1 − 32 . A= = = −9 8 −3 1 0 2 −3 1 0 2 0 1 8. Pruebe que si A es una matriz simétrica que acepta una descomposición LDU, entonces la descomposición LDU de A es de la forma LDLT . (Recuerde que una matriz cuadrada A es simétrica si A = AT ). 9. Para cada una de las siguientes matrices   1 2 4 17  3 6 −12 3     2 3 −3 2  , 0 2 −2 6

10.

11.

12.

13.



2  2   6 4

−1 −5 −1 1

4 20 12 −6

 3 27  , 0  −1

calcule la factorización P A = LU . Encuentre matrices triangulares Ti , i = 1, 2, 3, tales que T3 T2 T1 P A = U .   1 2 0 Considere la matriz A =  5 10 1 . Determine una matriz permutación P tal que −2 −5 1 P A tenga una factorización LU . Encuentre las matrices L y U .     0 1 1 2 2 −4  y b =  4. Determine una matriz permutación P , así como Sean A =  0 2 −5 1 −8 los factores L y U tales que P A = LU . Usando las matrices P, L y U resuelva el sistema Ax = b.   ξ 2 0 Determine todos los valores de ξ para los cuales A =  1 ξ 1  tiene una factorización 0 1 ξ LU .   3 1 1 0 5 . Sea A =  6 21 11 6 a) Calcule la factorización LU de A.

42

1. Sistemas de ecuaciones lineales b) Use la factorización LU para resolver los sistemas Ax = b1 y Ax = b2 , donde b1 = T T (13, 17, 84) y b2 = (2, 11, 5) . c) Usando la factorización LU de A calcule la inversa de A. d) Encuentre una factorización LDU de A.

14. Sea A = LU la factorización LU de la matriz invertible A. Encuentre L si se utilizaron las siguientes operaciones para obtener U . a) R21 (−2), R31 (5), R32 (8). b) R31 (−1/3), R41 (−2/3), R42 (1/2) y R43 (−1/2). 15. Sea A = LU la factorización LU de la matriz invertible A. Para cada una de las matrices L a continuación, determine las operaciones elementales que se usaron para obtener la matriz U:     1 0 0 0 0   1 0 0 0  0 1 0 0 0  1 0 0    −5 1 0 0    ,   2 0 0  1 0 , .  1 3 1  2/3 −5 1 0   −4 0 1 1 0  8 −1 1 9 4 −3 1 1 2 0 −1 1

CAPÍTULO

2

Determinantes

El estudio de la teoría de determinantes es importante por derecho propio. Sin embargo, en este capítulo desarrollaremos únicamente la herramienta necesaria para aplicarla a la solución de sistemas de ecuaciones lineales. Esto se hará en las primeras tres secciones. En la última sección se aplicará la teoría de los determinantes para probar la Regla de Cramer que proporciona un método para resolver sistemas de ecuaciones lineales de n ecuaciones con n incógnitas, cuya matriz de coeficientes tiene determinante distinto de cero. El uso de esta regla es principalmente de corte teórico, pero no por ello menos importante. El capítulo termina con una aplicación de los determinantes al cálculo de áreas y volúmenes.

2.1.

Existencia de una función determinante

Dada una matriz A, A∗j denota la columna j de A. Definición 2.1.1. Sea K un campo. Una función D : K n×n → K es una función determinante si satisface las siguientes propiedades: 1. Si A, B y C son matrices de n × n tales que para algún entero r, 1 ≤ r ≤ n, se tiene: C∗r = A∗r + B∗r , C∗j = A∗j = B∗j , j 6= r, entonces D (C) = D (A) + D (B) . 2. Si A y B son matrices de n × n tales que para algún entero r, 1 ≤ r ≤ n, se tiene: B∗r = cA∗r , (c ∈ K), B∗j = A∗j , j 6= r, entonces D (B) = cD (A) . 3. Si A tiene dos columnas adyacentes iguales, entonces D (A) = 0. 4. D (I) = 1, donde I es la matriz identidad de n × n. 43

44

2. Determinantes

Ejemplo 2.1.2. Sea D : Q3×3 → Q una función determinante. De acuerdo a la definición se tiene que 

3 D 2 −7

  −8 3 3 5 −12  = 3D  2 11 −27 −7

 −8 −1 5 4 , 11 9

ya que la matriz del lado izquierdo se obtiene de la matriz del lado derecho multiplicando su tercera columna por −3. De acuerdo con la definición también se tiene que  a + a0 D d + d0 g + g0

  b c a e f  = D d h i g

b e h

  0 c a f  + D d0 i g0

 b c e f . h i

Sea D una función determinante. Las primeras dos propiedades de la definición dicen que D es una función n-lineal, es decir, D es una función lineal de la j-ésima columna cuando las otras n − 1 columnas se quedan fijas. Más precisamente, para una matriz A = [A∗1 | . . . | A∗n ], escribamos D(A) = D(A∗1 | . . . | A∗n ). Entonces para cada j, 1 ≤ j ≤ n, la función Tj : K n → K definida por Tj (x) = D(A∗1 | . . . | x | . . . | A∗n ), donde x aparece en la j-ésima posición, es una función lineal, es decir Tj (x1 + x2 ) = Tj (x1 ) + Tj (x2 ) y Tj (cx) = cTj (x) para cualesquiera x1 , x2 ∈ K n y cualquier escalar c ∈ K. Para fijar las ideas veamos un ejemplo concreto. Ejemplo 2.1.3. Definamos la función D : R3×3 → R como sigue: D

 a11

a12 a13 a21 a22 a23 a31 a32 a33



= 3a21 a32 a13 .

Sea A arbitraria. La función T1 : R3 → R está dada por T1

 x1  x2 x3

=D

 x1

a12 a13 x2 a22 a23 x3 a32 a33



= 3x2 a32 a13 = 3a32 a13 x2 .

Análogamente, T2 (x) = 3a21 x3 a13 y T3 (x) = 3a21 a32 x1 . Claramente las funciones T1 , T2 y T3 son lineales. Por ejemplo para T1 se tiene T1 (x + y) = D(x + y | A∗2 | A∗3 ),

T1 (cx) = D(cx | A∗2 | A∗3 )

= 3a32 a13 (x2 + y2 ),

= 3a32 a13 (cx2 )

= 3a32 a13 x2 + 3a32 a13 y2 ,

= c(3a32 a13 x2 )

= D(x | A∗2 | A∗3 ) + D(y | A∗2 | A∗3 ),

= cD(x | A∗2 | A∗3 )

= T1 (x) + T1 (y),

= cT1 (x).

Esto muestra que la función D es 3-lineal, es decir, satisface las primeras dos condiciones de la Definición 2.1.1. Sin embargo, esta función no es una función determinante, ya que por ejemplo D(I) = 0. El siguiente resultado muestra que existen funciones determinante. Teorema 2.1.4. Para cada campo K existe exactamente una función determinante det : K 2×2 → K.

2.1. Existencia de una función determinante

45

Demostración. La prueba se da en dos partes: existencia y unicidad. Para probar la existencia definamos det ac db = ad − bc. Paramostrar que se cumple la primera condición de la definición   0 0 b sean A = ac db , B = ac0 db y C = a+a . Entonces: c+c0 d det(C) = (a + a0 )d − b(c + c0 ) = ad − bc + a0 d − bc0 = det(A) + det(B).    0  b+b0 La prueba es análoga si A = ac db , B = ac db 0 y C = ac d+d . Si ahora A = 0  ka b B = kc d , entonces:

a b c d



y

det(B) = (ka)d − b(kc) = k(ad − bc) = k det(A). Se deja al lector demostrar las otras dos condiciones de la definición. Para probar la unicidad supongamos que hay otra función determinante, es decir supongamos 2×2 que hay una función → K que satisface la definición para ser una función determinante.  D:K a b Como A = c d , podemos escribir ( ac ) = a ( 10 ) + c ( 01 ) = ae1 + ce2 y db = be1 + de2 , de modo que: D(A) = D(ae1 + ce2 | A∗2 ) = D(ae1 | A∗2 ) + D(ce2 | A∗2 ) = aD(e1 | A∗2 ) + cD(e2 | A∗2 ) = aD(e1 | be1 + de2 ) + cD(e2 | be1 + de2 ) = ad + bcD(e2 | e1 ). Como 0 = D(e1 + e2 | e1 + e2 ) = D(e1 | e2 ) + D(e2 | e1 ) = 1 + D(e2 | e1 ), se tiene que D(e2 | e1 ) = −1 y por lo tanto D(A) = det(A). Más adelante demostraremos que para cada entero positivo n siempre existe exactamente una función determinante det : K n×n → K. Para el siguiente resultado es útil el concepto de submatriz. Si A es una matriz de n × n, y r y s son enteros entre 1 y n, se denota con Ars a la matriz de tamaño (n −  1) × (n − 1) que  1 1 3 2 3 5 7 2  se obtiene de A suprimiendo el renglón r y la columna s. Por ejemplo, si A =  1 2 9 8 , 4 0 2 2   1 1 2 entonces A23 = 1 2 8. 4 0 2 Teorema 2.1.5 (Desarrollo por cofactores). Sea n ∈ Z, n > 1. Si det : K (n−1)×(n−1) → K es una función determinante, entonces para cada entero s (1 ≤ s ≤ n), la función Ds : K n×n → K dada por: n X s+j Ds (A) = (−1) asj det (Asj ) , j=1

es una función determinante. (El número (−1)s+j det(Asj ) se llama cofactor asociado al elemento asj ). Demostración. Sea s ∈ {1, 2, . . . , n}. Sean A = (aij ), B = (bij ) y C = (cij ) matrices de n × n tales que para algún r ∈ {1, 2, . . . , n}, cir = air + bir y cij = aij = bij para j 6= r, 1 ≤ i ≤ n. Analicemos las submatrices Csj , Asj y Bsj . Note que Csr = Asr = Bsr . Si j < r, entonces la columna r − 1 de la submatriz Csj es la suma de las columnas r − 1 de las

46

2. Determinantes

submatrices Asj y Bsj . Si j > r, entonces la columna r de Csj es la suma de las columnas r de Asj y Bsj . En cualquier caso tenemos que det(Csj ) = det(Asj ) + det(Bsj ). Luego: Ds (C)

=

(−1)s+r csr det(Csr ) +

X (−1)s+j csj det(Csj ) j6=r

=

(−1)

s+r

(−1)

s+r

(asr + bsr ) det(Csr ) +

X (−1)s+j csj (det(Asj ) + det(Bsj )) j6=r

=

s+r

asr det(Csr ) + (−1)

bsr det(Csr ) +

X (−1)s+j csj det(Asj ) + j6=r

+

X (−1)s+j csj det(Bsj ) j6=r

=

(−1)s+r asr det(Asr ) +

X (−1)s+j asj det(Asj ) + (−1)s+r bsr det(Bsr ) + j6=r

+

X (−1)s+j bsj det(Bsj ) j6=r

=

Ds (A) + Ds (B).

Supongamos ahora que B∗r = cA∗r con c ∈ K y B∗j = A∗j para j 6= r. Si j < r, entonces la columna r − 1 de la submatriz Bsj es c veces la columna r − 1 de la submatriz Asj . Si j > r, entonces la columna r de la submatriz Bsj es c la columna r de la submatriz Asj de A. En cualquier caso se tiene que det(Bsj ) = c det Asj . Por lo tanto, Ds (B) = (−1)s+r bsr det(Bsr ) +

X

(−1)s+j bsj det(Bsj )

j6=r s+r

= (−1)

casr det(Asr ) +

X

(−1)s+j casj det(Asj )

j6=r



 n X = c  (−1)s+j asj det(Asj ) j=1

= cDs (A). A continuación se prueba que Ds (I) = 1. Recordemos que I = (δij ), donde δij es la delta de Kronecker. Note que Iss es la matriz identidad de tamaño (n − 1) × (n − 1). Dado que δsj = 0 si s 6= j y δss = 1, obtenemos Ds (I) =

n X

(−1)s+j δsj det(Isj ) = (−1)s+s 1 det(Iss ) = 1.

j=1

Esto muestra que la función Ds satisface las condiciones 1,2 y 4 de la Definición 2.1.1. Se deja de ejercicio al lector completar la demostración. Teorema 2.1.6 (Existencia de una función determinante). Sea K un campo. Para cada entero positivo n, existe una función determinante D : K n×n → K. Demostración. La prueba la haremos por inducción en n. Si n = 1, es fácil verificar que la función K 1×1 → K dada por [a] 7→ a es una función determinante. Supongamos que la afirmación es válida para algún entero r > 1, es decir, supongamos que existe una función determinante det : P K r×r → K. Entonces por el Teorema 2.1.5, la función K (r+1)×(r+1) → K dada por r+1 A 7→ j=1 (−1)1+j a1j det(A1j ) es una función determinante.

2.1. Existencia de una función determinante

47 

−2 Ejemplo 2.1.7. Usando la fórmula del Teorema 2.1.5, halle D1 (A) si A =  1 4 Tenemos que:       0 2 1 2 1 0 D1 (A) = (−2) det − (1) det + (3) det 1 −1 4 −1 4 1

 1 3 0 2. 1 −1

= (−2)(−2) − 1(−9) + 3(1) = 16,  a donde det c

2.1.1.

 b = ad − bc según la demostración del Teorema 2.1.4. d

Ejercicios

1. Sean A∗1 y A∗2 las columnas de la matriz A = [A∗1 | A∗2 ] ∈ K 2×2 . Demuestre que: a) Si λ ∈ K, entonces det(A∗1 + λA∗2 | A∗2 ) = det(A∗1 | A∗2 + λA∗1 ) = det(A∗1 | A∗2 ). b) det(A∗1 | A∗2 ) = − det(A∗2 | A∗1 ). c) det(A) = det(AT ). 2. Pruebe que det(AB) = det(A) det(B), para cualesquiera A, B ∈ K 2×2 . 3. Pruebe que A ∈ K 2×2 es invertible si y solamente si det(A) 6= 0. 4. Pruebe que si A ∈ K 2×2 es invertible, entonces det(A−1 ) = det(A)−1 .   a b 5. Pruebe que si A = ∈ K 2×2 es invertible, entonces c d A

−1

1 = det(A)



d −b −c a

 .

6. Sea A ∈ K 2×2 . Pruebe que det(λI −A) = λ2 −tr(A)λ+det(A), donde I es la matriz identidad de 2 × 2 y λ ∈ K. (Nota. La traza de A es la suma de los elementos de la diagonal principal de A y se denota por tr A). 7. Sea A ∈ K 2×2 . Determine la condición o condiciones que debe cumplir λ ∈ K para que λI −A sea una matriz singular.   1 −5 8. Considere la matriz real A = . Encuentre todos los valores de λ tales que λI −A −5 1 es singular. Para cada λ, encuentre todas las x tales Ax = λx. 9. Sea A ∈ K 2×2 tal que A2 = 0. Demuestre que det(λI − A) = λ2 para todo λ ∈ K. 10. Sea A ∈ K 2×2 . Demuestre que det(I + A) = 1 + det(A) si y sólo si tr(A) = 0, donde I es la matriz identidad 2 × 2. 11. Sea A ∈ R2×2 . Pruebe que det(AT A) ≥ 0. Pruebe que det(AT A) > 0 si y solamente si rango(A) = 2. 12. Complete la demostración del Teorema 2.1.5.

48

2.2.

2. Determinantes

Permutaciones

Para estudiar las propiedades de los determinantes es necesario conocer algunas de las propiedades de las permutaciones. Una permutación de un conjunto A, es una función biyectiva σ : A → A. La permutación identidad es la función identidad en A definida por 1A (a) = a para toda a ∈ A. La composición de funciones es una operación binaria en SA , es decir, στ ∈ SA para cualesquier σ, τ ∈ SA . La inversa de una permutación es nuevamente una permutación. De hecho, SA junto con composición de funciones es un grupo. A la composición de permutaciones, la llamaremos multiplicación de permutaciones. Si A es el conjunto finito de A, i.e.  A = {1, 2, . . . , n}, y σ  es una permutación de los elementos   1 2 ... n 1 2 3 4 5 σ ∈ SA , escribimos σ = . Por ejemplo, n = 5 y σ = , σ(1) σ(2) . . . σ(n) 3 5 2 4 1 entonces σ(1) = 3, σ(2) = 5, σ(3) = 2, σ(4) = 4 y σ(5) = 1. Ilustremos la multiplicación de permutaciones. Para ilustrar esto, supongamos que A =    1 2 3 4 5 1 2 3 4 5 {1, 2, 3, 4, 5}, σ = yτ= . Entonces: 4 2 5 3 1 3 5 4 2 1  τσ =

1 3

2 5

3 4

4 2

5 1

 1 4

2 2

3 5

4 3

5 1



 =

1 2

2 5

3 1

4 4

 5 . 3

Si A es el conjunto finito {1, 2, . . . , n}, escribimos Sn en vez de SA . Note que Sn tiene n! elementos, donde n! = n(n − 1)(n − 2) · · · 3(2)(1). En particular:     1 2 1 2 S2 = , , 1 2 2 1             1 2 3 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3 , , . S3 = , , , 1 2 3 1 3 2 2 1 3 2 3 1 3 1 2 3 2 1 Una permutación σ de un conjunto A es un ciclo de longitud r o un r-ciclo si existen a1 , a2 , . . . , ar ∈ A tales que: σ(a1 ) = a2 ,

σ(a2 ) = a3 ,

...

σ(ar−1 ) = ar ,

σ(ar ) = a1 ,

y σ(x) = x para todo x ∈ A tal que x 6∈ {a1 , a2 , . . . , ar }. Si σ es un r-ciclo, escribimos: σ = (a1 , a2 , . . . , ar ). Al usar la notación cíclica anterior, el conjunto A debe estar claramente ubicado en el contexto. Por ejemplo, si A = {1, 2, 3, 4, 5}, entonces:   1 2 3 4 5 (1, 3, 5, 4) = . 3 2 5 1 4 Observe que (1, 3, 5, 4) = (3, 5, 4, 1) = (5, 4, 1, 3) = (4, 1, 3, 5). Observe que un ciclo de longitud 1 es la permutación identidad. Si σ = (a1 , a2 , . . . , ar ) es un r-ciclo, entonces el inverso de r es un r-ciclo. Dado que σ

σ

σ

σ

σ

σ −1

σ −1

σ −1

σ −1

σ −1

a1 −−−−→ a2 −−−−→ · · · −−−−→ ar−1 −−−−→ ar −−−−→ a1 se tiene que a1 ←−−−− a2 ←−−−− · · · ←−−−− ar−1 ←−−−− ar ←−−−− a1

2.2. Permutaciones

49

Así σ −1 = (a1 , ar , ar−1 , . . . , a2 ). La prueba formal es sencilla. Si x ∈ / {a1 , . . . , ar }, entonces σ(x) = x y por lo tanto x = σ −1 (x). Por otro lado, σ(ai ) = ai+1 , 1 ≤ i < r y σ(ar ) = a1 , de donde σ −1 (ai+1 ) = ai , 1 ≤ i < r y σ −1 (a1 ) = ar . Tomando b1 = a1 y bi = ar+2−i para i = 2, . . . , r se tiene que σ −1 (bi ) = bi+1 , 1 ≤ i < r y σ −1 (br ) = b1 . Puesto que los ciclos son tipos particulares de permutaciones, pueden multiplicarse como cualesquiera dos permutaciones. Sin embargo, el producto de dos ciclos no necesariamente es un ciclo. Por ejemplo, consideremos los ciclos (1, 4, 5, 6) y (2, 1, 5) en S6 . Entonces:   1 2 3 4 5 6 (2, 1, 5)(1, 4, 5, 6) = 4 1 3 2 6 5 y  (1, 4, 5, 6)(2, 1, 5) =

1 6

2 4

3 3

4 5

5 2

 6 , 1

y ninguna de estas dos permutaciones es un ciclo. Diremos que dos ciclos α = (a1 , . . . , ar ) y β = (b1 , . . . , bs ) son ajenos si los conjuntos {a1 , . . . , ar } y {b1 , . . . , bs } son ajenos, es decir, si {a1 , . . . , ar } ∩ {b1 , . . . , bs } = ∅. Es fácil verificar (se deja de ejercicio al lector) que el producto de ciclos ajenos es conmutativo. Demostraremos que cualquier permutación de un conjunto finito es producto de ciclos ajenos. La demostración será constructiva. Ilustremos la técnica con un ejemplo. Consideremos la   1 2 3 4 5 6 permutación . En primer lugar, el 1 se mueve al 6 y el 6 al 1, produciendo 6 5 2 4 3 1 el ciclo (1, 6). A continuación el 2 se mueve al 5, que a su vez se mueve al 3, el cual se mueve al 2, produciendo el ciclo (2, 5, 3). Esto abarca todos los elementos excepto el 4, que permanece fijo. Así:   1 2 3 4 5 6 = (1, 6)(2, 5, 3). 6 5 2 4 3 1 Es claro que la multiplicación de ciclos ajenos es conmutativa, así que no es importante el orden de los factores (1, 6) y (2, 5, 3). Teorema 2.2.1. Cada permutación σ de un conjunto finito A es producto de ciclos ajenos. Demostración. No se pierde generalidad al suponer que A = {1, 2, . . . , n}. Sea σ ∈ Sn y definamos en A la siguiente relación a ∼ b si y sólo si existe un entero k tal que σ k (a) = b. Es fácil verificar que esta es una relación de equivalencia en A. La clase de equivalencia de a ∈ A es o(a) = {σ k (a) | k = 0, 1, 2, . . . , } = {a, σ(a), σ 2 (a), . . . , } y recibe el nombre de órbita de a. Note que cada órbita genera de manera natural un ciclo: (a, σ(a), σ 2 (a), . . . , ). Sean o(a1 ), . . . , o(am ) las distintas órbitas de σ, o(aj ) = {aj , σ(aj ), . . . , }. Para cada j (1 ≤ j ≤ m) sea cj el ciclo inducido por la órbita o(aj ). Veamos que σ = c1 c2 · · · cm . Sea a ∈ A = ∪o(ai ) y supongamos que a ∈ o(aj ). Luego a = σ s (aj ) para algún s ≥ 0. Por un lado se tiene que σ(a) = σ(aj ) = σ(σ s (aj )) = σ s+1 (aj ). Por otro lado, dado que los ciclos c1 , . . . , cm son ajenos, ci (a) = a si i 6= j y cj (a) = cj (σ s (aj )) = σ(σ s (aj )) = σ s+1 (aj ). Esto concluye la prueba. Será posible convencerse fácilmente de que la representación de una permutación como producto de ciclos ajenos, ninguno de los cuales es la permutación identidad, es única, salvo el orden de los factores. Diremos que un ciclo de longitud 2 es una transposición. Es decir, una transposición es una permutación que mueve únicamente dos elementos y deja fijos a los demás. Observe que la inversa de una transposición es ella misma.

50

2. Determinantes

Supongamos que σ(a) = r y σ(b) = s. Si τ es transposición que intercambia r y s, τ = (r, s), entonces τ σ y σ difieren únicamente en las posiciones a y b. De hecho, τ σ(x) = σ(x) si x ∈ / {a, b} y (τ σ)(a) = s y (τ σ)(b) = r. Veamos un ejemplo.    1 2 3 4 5 6 1 2 3 4 5 6 τσ = 1 6 3 4 5 2 4 5 2 3 6 1   1 2 3 4 5 6 = . 4 5 6 3 2 1 Observemos que τ1 =(1,4)

τ2 =(2,5)

τ3 =(3,5)

τ4 =(4,5)

τ5 =(5,6)

σ −−−−−→ σ1 −−−−−→ σ2 −−−−−→ σ3 −−−−−→ σ4 −−−−−→ 1 Es decir, τ5 τ4 τ3 τ2 τ1 σ = 1, de donde σ = τ1−1 τ2−1 τ3−1 τ4−1 τ5−1 , y σ queda escrito como un producto de transposiciones. Cualquier ciclo se puede escribir como un producto de ciclos de longitud 2, es decir, de transposiciones. Un cálculo muestra que: (a1 , a2 , a3 , . . . , an−1 , an ) = (a1 , an )(a1 , an−1 ) · · · (a1 , a3 )(a1 , a2 ). Tenemos entonces el siguiente corolario al teorema anterior. Corolario 2.2.2. Cualquier permutación de un conjunto finito de al menos dos elementos es un producto de transposiciones. Las transposiciones pueden no ser ajenas y no es única esta representación de la permutación. Por ejemplo, siempre es posible insertar al principio la transposición (a, b) dos veces, pues (a, b)(a, b) es la permutación identidad. Lo cierto es que el número de transposiciones que se usan para representar una permutación dada, debe ser siempre par o siempre impar. Este es un hecho importante y lo demostraremos a continuación. Teorema 2.2.3. Ninguna permutación de un conjunto finito puede expresarse como un producto de un número par de transposiciones y como un producto de un número impar de transposiciones. Demostración. No se pierde generalidad al considerar el conjunto A = {1, 2, . . . , n} y suponer que n ≥ 2, de manera que existan las transposiciones. Por simplicidad, en esta prueba utilizaremos la letra griega ι en vez de 1A para denotar a la permutación identidad. Estudiemos primero el caso especial de la permutación identidad. Desde luego, ι puede expresarse como un producto de un número par de transposiciones, digamos ι = (1, 2)(1, 2). Debemos mostrar que si: ι =

τ1 τ2 · · · τk ,

(2.1)

donde cada τi es una transposición, entonces k debe ser par. Sea m cualquier entero que aparezca en alguna de las transposiciones en la ecuación (2.1) y sea τj la primera transposición, contando de izquierda a derecha, en la cual aparece m. No podemos tener j = k pues, de ser así, ι no hubiera dejado fijo a m. Ahora bien, τj τj+1 debe tener la forma de alguno de los lados izquierdos de las siguientes identidades fáciles de verificar: (m, x)(m, x)

= ι,

(m, x)(m, y)

=

(x, y)(m, x),

(m, x)(y, z)

=

(y, z)(m, x),

(m, x)(x, y)

=

(x, y)(m, y).

(2.2)

Si sustituimos la identidad correcta en la ecuación (2.2), en lugar de τj τj+1 en la ecuación (2.1), sucede que reducimos en 2 el número k de transposiciones o trasladamos la primera

2.2. Permutaciones

51

aparación de m un lugar a la derecha. Repetimos este procedimiento hasta eliminar m de la expresión de la ecuación (2.1); hay que recordar que m no puede aparecer por primera vez en la transposición final, así que en algún momento debe aparecer la situación de la primera identidad en la ecuación (2.2) para eliminar a m por completo. A continuación elegimos otro entero en A que aparece en la ecuación (2.1) reducida y lo eliminamos de la ecuación (2.1) mediante un proceso similar y continuamos hasta que el lado derecho de la ecuación (2.1) se reduzca a la sucesión ιι · · · ι. Como al sustituir una identidad de la ecuación (2.2) el número k permanece igual o se reduce en 2, vemos que k debe haber sido par. Es fácil demostrar el teorema partiendo del caso especial para ι. Supóngase que: σ = τ1 τ2 · · · τr = τ10 τ20 · · · τr0 . Como cada transposición es su propia inversa (pruébese), obtenemos: ι = σσ −1 = τ1 τ2 · · · τr (τ10 τ20 · · · τs0 )−1 = τ1 τ2 · · · τr τs0 · · · τ20 τ10 . Se sigue entonces que r + s es un número par, de modo que r y s son ambos números pares o ambos son números impares. Una permutación σ ∈ Sn se dice que es una permutación par si puede expresarse como el producto de un número par de transposiciones. Se dice que la permutación es impar si no es una permutación par, o equivalentemente, si puede expresarse como el producto de un número impar de transposiciones. A cada permutación se le asigna un signo de la siguiente manera:  +1 si σ es par, ε (σ) = −1 si σ es impar. Corolario 2.2.4.

1. El producto de dos permutaciones pares es par.

2. El producto de dos permutaciones impares es par. 3. El producto de una permutación par y una impar es impar. 4. La paridad de una permutación y su inversa es la misma. Demostración. Se deja de ejercicio

2.2.1.

Ejercicios

1. Demuestre que para toda σ, µ ∈ Sn , ε(σµ) = ε(σ)ε(µ). 2. Demuestre que la función F : Sn → Sn dada por F (σ) = σ −1 es biyectiva. 3. Sea τ = (3, 8) ∈ S9 . Exprese τ como un producto de transposiciones del tipo (i, i + 1). Repita lo anterior para la transposición (r, s) con r < s. 4. Sea n > 1 y sea τ ∈ Sn una transposición. Pruebe que si σ ∈ Sn es impar, entonces τ σ es par. 5. Sea n un entero mayor que uno. Pruebe que los conjuntos P = {σ ∈ Sn | (σ) = 1} e I = {σ ∈ Sn | (σ) = −1} tienen la misma cardinalidad. Concluya que |P| = n!/2. ¿Es relevante la hipótesis n > 1? 6. Se dice que una permutación σ ∈ Sn tiene orden m > 0 si σ m = 1 y σ t 6= 1 para 0 < t < m. Pruebe que el orden de un r-ciclo es r.

52

2. Determinantes

7. Considere las siguientes permutaciones    1 2 3 4 5 6 1 2 3 , 3 6 5 2 1 4 8 4 1

4 2

5 3

6 6

7 5

 8 , 7

 1 3

2 4

3 1

4 2

5 7

6 5

 7 . 6

a) Encuentre las órbitas de cada una de las permutaciones dadas. b) Escriba cada permutación como un producto de ciclos ajenos. c) Escriba cada permutación como un producto de transposiciones. d) Encuentre el signo de cada permutación. 8.

a) Considere la siguiente técnica para escribir una permutación como   1 2 3 4 transposiciones. Sea σ = . Como σ(4) = 1, defina τ1 2 3 4 1   1 2 3 4 ces τ1 σ = . De esta manera τ1 σ deja fijo 4. Se repite 2 3 1 4  1 con τ1 σ. Dado que (τ1 σ)(3) = 1, sea τ2 = (1, 3). Luego τ2 τ1 σ = 2 −1 −1 Entonces σ = τ1 τ2 τ3 = τ1 τ2 τ3 .

un producto de = (4, 1). Entonel proceso ahora  2 3 4 = τ3 . 1 3 4

b) Generalice el ejercicio anterior y pruebe que cualquier permutación se puede escribir como un producto de transposiciones. (Sugerencia: La prueba se hace por inducción sobre n. En el inciso anterior, observe que τ1 σ se puede considerar una permutación de S3 ). 9. Demuestre de manera más elegante el Teorema 2.2.1; empléese un argumento por inducción sobre el número de elementos movidos por σ. 10. Sea n ≥ 2. Demuestre que: a) Toda permutación en Sn puede escribirse como un producto de a lo más n − 1 transposiciones. b) Toda permutación impar en Sn puede escribirse como producto de 2n+3 transposiciones y toda permutación par como producto de 2n + 8 transposiciones. 11. Demuestre que si σ es un ciclo, entonces σ 2 es un ciclo, siempre que la longitud de σ sea un entero impar. 12. Sean A = (aij ) una matriz de n × n y σ ∈ Sn . Considere el producto a1σ(1) a2σ(2) · · · anσ(n) . Demuestre que no hay dos factores de este producto  que provengan  del mismo renglón y/o 1 −1 2 5 8 , calcule: de la misma columna de A. En particular, si A =  3 −4 7 2 X

ε(σ)a1σ(1) a2σ(2) · · · anσ(n) .

σ∈Sn

2.3.

Unicidad de la función determinante

En esta sección mostraremos que en realidad sólo existe una función determinante. Para ello necesitamos estudiar las propiedades generales que posee una función determinante. Teorema 2.3.1 (Propiedades de una función determinante). Sea det : K n×n → K una función determinante cualquiera y sea A ∈ K n×n .

2.3. Unicidad de la función determinante

53

1. Si B ∈ K n×n se obtiene intercambiando dos columnas adyacentes de A, entonces det(B) = − det(A). 2. Si B ∈ K n×n se obtiene intercambiando dos columnas de A, entonces det(B) = − det(A). 3. Si A tiene dos columnas iguales, entonces det(A) = 0. 4. Si B ∈ K n×n se obtiene de A reemplazando una columna de A por dicha columna más un múltiplo de una columna distinta, entonces det(A) = det(B). Demostración. 1. Sean A = [A∗1 | . . . | A∗n ] y B = [A∗1 | . . . | A∗j+1 | A∗j | . . . | A∗n ] con 1 ≤ j < n. Es decir, B se obtuvo intercambiando las columnas j y j + 1 de A, con 1 ≤ j < n. Para simplificar la notación, denotaremos por {c1 , c2 } al determinante de la matriz obtenida de A al reemplazar su j-ésima columna por una matriz columna c1 y su (j + 1)-ésima columna por una matriz columna c2 . Entonces, det(B) = {Aj+1 , Aj } y det(A) = {Aj , Aj+1 }. Luego, aplicando las propiedades de la definición de una función determinante, tenemos que: 0 = {Aj + Aj+1 , Aj + Aj+1 } = {Aj , Aj + Aj+1 } + {Aj+1 , Aj + Aj+1 } = {Aj , Aj } + {Aj , Aj+1 } + {Aj+1 , Aj } + {Aj+1 , Aj+1 } = 0 + det(B) + det(A) + 0, de donde det(B) = − det(A). 2. Supongamos que B se obtuvo intercambiando las columnas r y s de A, con r < s. Consideremos la transposición τ = (r, s). Es fácil verificar que: τ = τ1 τ2 · · · τs−r−1 τs−r τs−r−1 · · · τ2 τ1 , donde τi = (r + i − 1, r + i) con 1 ≤ i ≤ s − r (se deja al lector verificar esta afirmación). Observe que B = [A∗τ (1) | A∗τ (2) | . . . | A∗τ (n) ]. Aplicando el inciso anterior, tenemos que: det(A∗τ1 (1) | . . . | A∗τ1 (n) ) = ε(τ1 ) det(A∗1 | . . . | A∗n ) = ε(τ1 ) det(A), det(A∗τ1 τ2 (1) | . . . | A∗τ1 τ2 (n) ) = ε(τ2 ) det(A∗τ1 (1) | . . . | A∗τ1 (n) ) = ε(τ2 )ε(τ1 ) det(A). Continuando de esta forma, tenemos que: det(B) = ε(τ1 ) · · · ε(τs )ε(τs−1 ) · · · ε(τ1 ) det(A) = ε(τ1 · · · τs τs−1 · · · τ1 ) det(A) = ε(τ ) det(A) = − det(A). 3. Supongamos que las columnas r y s de A son iguales. Sea σ = τ1 τ2 · · · τs , donde τi = (r + i − 1, r + i) con 1 ≤ i ≤ s − r. Entonces, las columnas s − 1 y s de la matriz [A∗σ(1) | . . . | A∗σ(n) ] son iguales, de modo que su determinante es cero. Se sigue por un argumento análogo al del inciso anterior que: 0 = det(A∗σ(1) | . . . | A∗σ(n) ) = ε(σ) det(A), de donde det(A) = 0.

54

2. Determinantes

4. Supongamos que la i-ésima columna de A, A∗i , se sustituye por A∗i + cA∗j con i 6= j. Utilizando la notación de la prueba del inciso 1, tenemos que: det(B) = {Ai + cAj , Aj } = {Ai , Aj } + {cAj , Aj } = det(A) + c{Aj , Aj } = det(A) + c · 0 = det(A).

Teorema 2.3.2 (Unicidad de la función determinante). Para cada entero positivo n existe exactamente una función determinante det : K n×n → K. Demostración. Sea det : K n×n → K una función determinante. Sea A = (aij ) = [A∗1 | . . . | A∗n ] ∈ K n×n . Notemos que cada A∗j se puede escribir como combinación lineal de los vectores canónicos e1 , . . . , en de K n . De hecho: n X

A∗1 = a11 e1 + a21 e2 + · · · + an1 en = A∗2 = a12 e1 + a22 e2 + · · · + an2 en =

k1 =1 n X

ak1 1 ek1 , ak2 2 ek2 ,

k2 =1

.. . n X

A∗n = a1n e1 + a2n e2 + · · · + ann en =

akn n ekn .

kn =1

Luego: !

n X

det(A∗1 | . . . | A∗n ) = det

ak1 1 ek1 | A∗2 | . . . | A∗n

k1 =1

=

n X

ak1 1 det(ek1 | A∗2 | . . . | A∗n )

k1 =1

.. . =

n X n X k1 =1 k2 =1

···

n X

ak1 1 ak2 2 · · · akn n det(ek1 | ek2 | . . . | ekn ).

kn =1

Esta suma consta de nn sumandos ak1 1 ak2 2 · · · akn ,n det(ek1 | ek2 | . . . | ekn ). Sea In = {1, 2, . . . , n}. Denotemos por InIn al conjunto de todas las funciones σ : In → In . Por cada sumando hay una función σ : In → In dada por σ(i) = ki ; y por cada función σ : In → In hay un sumando: aσ(1)1 aσ(2)2 · · · aσ(n)n det(eσ(1) | . . . | eσ(n) ). Luego: det(A∗1 | . . . | A∗n )

=

X

aσ(1)1 · · · aσ(n)n det(eσ(1) | . . . | eσ(n) ).

In σ∈In

Si σ : In → In no es inyectiva, entonces existe i 6= j tal que σ(i) = σ(j). Por lo tanto, det(eσ(1) | . . . | eσ(n) ) = 0 ya que tiene dos columnas iguales (ver Teorema 2.3.1 inciso 3).

2.3. Unicidad de la función determinante

55

Entonces, podemos considerar la suma sólo sobre las funciones inyectivas. Pero una función σ : In → In es inyectiva si y sólo si es suprayectiva y por tanto es una permutación. Así: X det(A∗1 | . . . | A∗n ) = aσ(1)1 aσ(2)2 · · · aσ(n)n det(eσ(1) | . . . | eσ(n) ). σ∈Sn

Pero det(eσ(1) | . . . | eσ(n) ) = ε(σ) det(e1 | . . . | en ) = ε(σ) (¿por qué?). Por lo tanto: det(A) =

X

ε(σ)aσ(1)1 aσ(2)2 · · · aσ(n)n .

σ∈Sn

Luego, si D es otra función determinante, entonces D(A) = det(A). Así, la función determinante es única. Teorema 2.3.3. La función det : K n×n → K dada por: X ε(σ)aσ(1)1 aσ(2)2 · · · aσ(n)n , det(A) = σ∈Sn

satisface que det(A) = det(AT ) para toda (aij ) = A ∈ K n×n , es decir: X X ε(σ)aσ(1)1 aσ(2)2 · · · aσ(n)n = ε(σ)a1σ(1) a2σ(2) · · · anσ(n) . σ∈Sn

σ∈Sn

Demostración. Sean A = (aij ) y B = AT = (bij ) , donde bij = aji . Por definición tenemos: X X det (A) = ε (σ) aσ(1)1 · · · aσ(n)n y det (B) = ε (σ) bσ(1)1 · · · bσ(n)n . σ∈Sn

σ∈Sn

Demostraremos que el conjunto  α = ε (σ) a1σ(1) · · · anσ(n) | σ ∈ Sn es igual al conjunto β = ε (σ) aσ(1)1 · · · aσ(n)n | σ ∈ Sn . En efecto, si x ∈ α, entonces x = ε (σ) a1σ(1) · · · anσ(n) para  1 2 ... n algún σ = σ(1) σ(2) ... σ(n) ∈ Sn . Supongamos que σ (i) = ji para cada i = 1, 2, . . . , n. Entonces i = σ −1 (ji ), y por lo tanto aiσ(i) = aiji = aσ−1 (ji )ji . En consecuencia: 

x

= ε (σ) a1σ(1) · · · anσ(n) = ε (σ) aσ−1 (j1 )j1 · · · aσ−1 (jn )jn  = ε σ −1 aσ−1 (1)1 . . . aσ−1 (n)n ,

ya que ε(σ) = ε(σ −1 ) y los números j1 , j2 , . . . , jn son los números 1, 2, . . . , n en algún orden. Luego, x ∈ β y por lo tanto α ⊂ β. De manera análoga se demuestra que β ⊂ α. Por lo tanto, α = β y det(A) = det(B) = det(AT ). Corolario 2.3.4. La función det : K n×n → K definida por: X det (A) = ε (σ) a1σ(1) · · · anσ(n) σ∈Sn

es la única función determinante. Demostración. Se sigue del teorema anterior. En ocasiones el determinante de una matriz se define por la fórmula dada en el Corolario 2.3.4. Esta fórmula aunque importante teóricamente, no es práctica para el cálculo del determinante de una matriz. Para el cálculo del determinante de una matriz es preferible usar las propiedades del determinante o el desarrollo por cofactores (vea el Corolario 2.3.12).

56

2. Determinantes

Corolario 2.3.5. Si B es la matriz que se obtiene como operación elemental de renglón o de columna, entonces:  para operaciones  − det (A) α det (A) para operaciones det (B) =  det (A) para operaciones

resultado de aplicar a A ∈ K n×n una elementales de tipo I elementales de tipo II elementales de tipo III

Demostración. Se sigue de las propiedades de la función determinante. Corolario 2.3.6. 1. Si E es una matriz elemental, entonces:  para operaciones elementales de tipo I  −1 α para operaciones elementales de tipo II det (E) =  1 para operaciones elementales de tipo III 2. Si E es una matriz elemental, entonces det (E) 6= 0. 3. Si E es una matriz elemental, entonces det (EA) = det (E) det (A) . 4. Si E1 , . . . , Ek son matrices elementales y A ∈ K n×n , entonces: det (E1 · · · Ek A) = det (E1 ) · · · det (Ek ) det (A) . Demostración. El inciso 1 se sigue del corolario anterior, haciendo B = E y A = I, y de que det(I) = 1. El inciso 2 se sigue del inciso 1. El inciso 3 se deja de ejercicio al lector. El inciso 4 se sigue por inducción en k usando el inciso 3.   A C Teorema 2.3.7. Si M = de tamaño n × n, es una matriz triangular superior con 0 B bloques diagonales A y B de tamaños r × r y s × s respectivamente, con r + s = n, entonces det M = (det A)(det B). Demostración. Sean A = (aij ), B = (bij ) y M = (mij ). Tenemos que: det M =

X

ε(σ)m1σ(1) m2σ(2) · · · mnσ(n) .

σ∈Sn

Si i > r y j ≤ r, entonces mij = 0, de modo que sólo es necesario considerar aquellas permutaciones σ tales que: σ{r + 1, r + 2, . . . , r + s} = {r + 1, r + 2, . . . , r + s} y σ{1, 2, . . . , r} = {1, 2, . . . , r}. Sean σ1 (k) = σ(k) para k ≤ r y σ2 (k) = σ(r + k) − r para k ≤ s. Entonces: ε(σ)m1σ(1) m2σ(2) · · · mnσ(n) = ε(σ1 )a1σ1 (1) a2σ1 (2) · · · arσ1 (r) ε(σ2 )b1σ2 (1) b2σ2 (2) · · · bsσ2 (s) y esto implica que det M = (det A)(det B). Teorema 2.3.8. Si A ∈ K n×n es una matriz triangular superior (inferior), entonces: det (A) = a11 · · · ann . En particular, det (I) = 1, donde I es la matriz identidad de n × n.

2.3. Unicidad de la función determinante

57

Demostración. Supongamos que A es una matriz triangular superior, es decir, aij = 0 si i > j. Entonces: X ε (σ) a1σ(1) · · · anσ(n) det (A) = σ∈Sn

=

a11 · · · ann +

X

ε (σ) a1σ(1) · · · anσ(n) .

σ∈Sn ,σ6=1

Si σ ∈ Sn con σ 6= 1, entonces existe m ∈ {1, 2, . . . , n} tal que m > σ(m). En efecto, si m ≤ σ(m) para toda m ∈ {1, 2, . . . , n}, entonces n ≤ σ (n) y por lo tanto σ (n) = n. También n − 1 ≤ σ (n − 1) de donde σ (n − 1) = n − 1 o n, de donde σ (n − 1) = n − 1. Continuado de esa manera se concluye que σ = 1 lo cual contradice la elección de σ. Por lo tanto, existe m ∈ {1, 2, . . . , n} tal que m > σ(m) y amσ(m) = 0. Luego, ε (σ) a1σ(1) · · · anσ(n) = 0 para cada σ ∈ Sn , σ 6= 1, de donde det(A) = a11 · · · ann . La prueba cuando A es una matriz triangular inferior es análoga. Ejemplo 2.3.9. Sea det Q3×3 → Q la única función determinante. Entonces       1 −1 −1 1 −1 −1 1 −1 −1 R21 (1) R31 (1) 0 −9  =  0 0 −9  = 0. 1 −8  =  0 det  −1 −1 1 −1 0 0 −2 −1 1 −1 La última igualdad porque el determinante de una matriz triangular superior es el producto de los elementos en la diagonal principal. Corolario 2.3.10. 1. Una matriz A ∈ K n×n es no singular si y sólo si det (A) 6= 0. 2. Una matriz A ∈ K n×n es singular si y sólo si det (A) = 0. Demostración. 1. Si A es invertible, existen matrices elementales E1 , . . . , Ek tales que A = Ek · · · E1 . Entonces: det (A) = det (Ek ) · · · det (E1 ) 6= 0. Recíprocamente, supóngase que det (A) 6= 0. Sean E1 , . . . , Ek matrices elementales tales que A = Ek · · · E1 E, donde E es la forma escalonada reducida de A. De la relación det(A) = det(Ek · · · E1 E) = det(Ek ) · · · det(E1 ) det(E) se deduce que det (E) 6= 0. Como E es una matriz triangular superior y det(E) 6= 0, el Teorema 2.3.8 implica que cada elemento de la diagonal de E es distinto de cero, y por lo tanto E = I. Así, A es un producto de matrices invertibles y por lo tanto es invertible. El inciso 2 es equivalente al inciso 1. Ejemplo 2.3.11. Las matrices del Ejemplo 2.3.9 no son invertibles pues todas tienen determinante cero. Corolario 2.3.12. Si A ∈ K n×n y det : K n×n → K es la única función determinante, entonces: det(A) =

X

ε (σ) a1σ(1) · · · anσ(n) =

n X

(−1)s+j asj det(Asj )

j=1

σ∈Sn

para cada entero s tal que 1 ≤ s ≤ n. Demostración. De acuerdo con los Teoremas 2.3.2 y 2.3.4 tenemos que la función det : K n×n → K definida por: X det(A) = ε (σ) a1σ(1) · · · anσ(n) , σ∈Sn

58

2. Determinantes

es la única función determinante. Por otra parte, según el Teorema 2.1.5 tenemos que la función Ds : K n×n → K dada por: Ds (A) =

n X (−1)s+j asj det(Asj ), j=1

con 1 ≤ s ≤ n, es una función determinante. Por lo tanto, Ds (A) = det(A), es decir: X

det(A) =

ε (σ) a1σ(1) · · · anσ(n) =

n X (−1)s+j asj det(Asj ) j=1

σ∈Sn

para todo entero s tal que 1 ≤ s ≤ n. 

1 Ejemplo 2.3.13. Evalúe el determinante de la matriz A =  0 2 det(A) =

3 X

 3 2 −1 −2  usando cofactores. 1 0

(−1)2+j a2j det(A2j )

j=1

= (−1)

2+1

3 0 1

1 2 2+2 + (−1) (−1) 2 0

1 2 2+3 + (−1) (−2) 2 0

3 1

= 4 − 10 = −6. Teorema 2.3.14. Si A, B ∈ K n×n , entonces det (AB) = det (A) det (B) . Demostración. La prueba se divide en dos casos. 1. Si A es no singular, entonces A es un producto de matrices elementales, digamos A = E1 · · · Ek . Entonces AB = E1 · · · Ek B y por lo tanto: det (AB) = det (E1 · · · Ek B) = det (E1 ) · · · det (Ek ) det (B) = det (E1 · · · Ek ) det (B) = det (A) det (B) . 2. Si A es singular, entonces AB también lo es. En efecto, si AB no fuera singular, entonces existiría C tal que (AB) C = I y por lo tanto A (BC) = I y A sería no singular. Luego, det (AB) = 0 = 0 · det (B) = det (A) det (B).  −1 Corolario 2.3.15. Si A es no singular, entonces det A−1 = det (A) . Demostración. Si A es no singular y A−1 es su inversa, entonces AA−1 = I, y por el teorema anterior tenemos que det(AA−1 ) = det(I), es decir, det(A) det(A−1 ) = 1 de donde se sigue el resultado.

2.3.1.

Ejercicios

1. Si A es una matriz de 5 × 5 cuyo determinante es 3, calcule el determinante de las matrices 4A, −A, A2 , A3 y A−1 . m

2. Pruebe que det (Am ) = (det A) para todos los enteros no negativos m. Si A es no singular, m pruebe que det (Am ) = (det A) para todo entero m. 3. Si A ∈ K n×n , pruebe que det (cA) = cn det (A) para todo c ∈ K. 4. Sea K un subcampo del campo de los números complejos. Pruebe que si n es impar y A ∈ K n×n es una matriz antisimétrica, entonces det (A) = 0 (Una matriz cuadrada A es antisimétrica si A = −AT ).

2.3. Unicidad de la función determinante  a 5. Si det d g

b e h

  c a b f  = 4, calcule det  7d 7e i g h

59    c 5g 5h 5i 7f  y det  d − 2a e − 2b f − 2c . i a b c

6. Sea A una matriz n × n. Pruebe que det (A) = 0 si y sólo si alguna columna A se puede escribir como combinación lineal de las restantes columnas de A. 7. Sea A ∈ Cn×n y sea λ ∈ C. Pruebe que existe un vector x 6= 0 tal que Ax = λx si y sólo si det (A − λI) = 0. 8. La matriz compañera del polinomio mónico f (t) = a0 + a1 t + · · · + an−1 tn−1 + tn ∈ K[t] es la matriz   0 1 0 ··· 0  0 0 1 ··· 0      . . . . .. .. .. . . C= .    0 0 0 ··· 1  −a0 −a1 · · · · · · −an−1 Pruebe que el determinante de la matriz compañera del polinomio mónico f es (−1)n a0 . 9. Sean v = (v1 , . . . , vn )T ∈ K n . Calcule el determinante de la matriz que se obtiene de la matriz identidad de n × n reemplazando su columna i por el vector v. 10. Sea A una matriz de n × n. El cofactor (i, j) de A es por definición el número cij = i+j (−1) det (Aij ) . La adjunta de la matriz A o matriz de cofactores, denotada con el símbolo adj(A), sedefine como la  transpuesta de la matriz (cij ). Calcule todos los cofactores de la ma1 −1 1 3 −2  . Encuentre la matriz adjunta de A. Verifique por multiplicación triz A =  2 1 −4 5 directa que A (adj(A)) = (adj (A))A = (det A) I. 11. Sea A ∈ K n×n . a) Pruebe que si i 6= j, entonces: n X

(−1)j+k aik det(Ajk ) = 0,

k=1

n X

(−1)i+k akj det(Aki ) = 0.

k=1

(Sugerencia: Para la primera suma, sea B la matriz que se obtiene de A al reemplazar el renglón j de A por su renglón i. Use el Teorema 2.1.5 con s = j para calcular det(B). Para la segunda suma, sea C la matriz que se obtiene de A al reemplazar la columna i de A por su columna j). b) Pruebe que A (adj(A)) = (adj (A))A = (det A) I. (Sugerencia: Use el inciso a)). c) Pruebe que si A es invertible, entonces A−1 = adj(A)/ det(A). 12. Sea A una matriz de n × n. Pruebe que a) Pruebe que adj(cA) = cn−1 adj(A). b) Pruebe que det(adj(A)) = det(A)n−1 . 13. Proporcione otra prueba del Teorema 2.3.14 siguiendo la prueba del Teorema 2.3.2. Sean A y B matrices de n × n y C = AB = [AB∗1 , . . . , AB∗n ]. Entonces cada columna de C es combinación lineal de la columnas de A: C∗k = AB∗k = b1k A∗1 + b2k A∗2 + · · · + bnk A∗n . Continúe por cuenta propia.

60

2. Determinantes

14. Suponga que A, B ∈ K n×n son matrices semejantes, es decir, suponga que existe una matriz invertible P tal que A = P BP −1 . Pruebe que det (A) = det (B) . 15. Sea A ∈ Cn×n . Se define la matriz A∗ = A¯T (la barra indica que se trata del complejo conjugado). a) Pruebe que det (A∗ ) = det (A). b) Pruebe que si A es hermitiana, es decir A = A∗ , entonces det (A) es un número real. 16. Si A ∈ Rn×n es una matriz ortogonal, pruebe que |det (A)| = 1 (Una matriz A ∈ Rn×n es ortogonal si AT A = I). 17. Si A ∈ Cn×n es una matriz unitaria, pruebe que |det (A)| = 1 (Una matriz A ∈ Cn×n es unitaria si A∗ A = I). 18. Sean A, B y C matrices cuadradas del mismo tamaño tales que det(AB) = 9, det(AC) = 16, det(BC) = 25 y det(A) < 0, calcule el determinante de la matriz ABC. 19. Sean A, B y C matrices cuadradas del mismo tamaño. Si se tiene que det(AB) = 16, det(AC) = 25, det(BC) = 36 y det(A) > 0, calcule det(ABC). 20. El determinante de la siguiente matriz es un polinomio en la variable β. Calcule el coeficiente de β 6 .   −4 −1 1 6 28 −2β  3 −4 −28 −1 4β −2     3 −4 5β −19 62 1  .  A= 1 −2β 6 1    −3 −2  −β 1 −3 −1 39 8  4 −β −3 −1 −8 1 

3a −1 5 21. Considere la matriz A =  7 −4 −a de a3 en la expresión de det (A) .

 2 4a  . Encuentre, sin usar cofactores, el coeficiente −3

22. Sin usar cofactores, determine los coeficientes de x4 y x3 en la expresión de:   2x x 1 2  1 x 1 −1  . det   3 2 x 1  1 1 1 x (Sugerencia: No es necesario calcular el  387 456  488 455 23. Considere la matriz A =   440 982 892 564 par o impar. Justifique su respuesta.

determinante).  589 238 677 382   . Determine si el determinante de A es 654 651  786 442

24. Calcule el determinante de una matriz nilpotente. (Recuerde que una matriz A ∈ K n×n es nilpotente si Ak = 0 para algún entero positivo k).

2.4. Determinantes y sistemas de ecuaciones

61

25. Sea A una matriz de 4 × 4 con entradas números complejos que satisface la igualdad: AT AAT = −A. Determine los valores que puede tomar det(A). 26. Sea A una matriz idempotente, es decir, A tiene la propiedad de que A2 = A. Calcule los posibles valores para det (A) . 27. Sea A ∈ C3×3 y f (λ) = det (λI − A). Pruebe que f es un polinomio mónico de grado 3, que el término independiente es − det(A) y que el coeficiente de λ2 es − tr(A). Si λ1 , λ2 , λ3 son las raíces del polinomio f , pruebe que la traza de A es −(λ1 + λ2 + λ3 ) y que det (A) = −λ1 λ2 λ3 . 28. Generalice el ejercicio anterior, es decir, pruebe que si λ es un escalar y A es una matriz n × n, entonces la función f (λ) = det (λI − A) es una función polinomial de grado n, cuyo coeficiente principal es 1. Además, pruebe que a) el coeficiente de λn−1 es − tr(A) y que el término independiente es (−1)n det(A); Q P b) la traza de A es − λi y que det(A) = (−1)n λi , donde λ1 , . . . , λn son las raíces del polinomio f .

2.4.

Determinantes y sistemas de ecuaciones

En esta sección se presentará una fórmula útil que relaciona el determinante con la solución de un sistema de ecuaciones lineales. Esta fórmula, llamada regla de Cramer, describe la solución de ciertos sistemas de n ecuaciones lineales con n incógnitas, en términos de determinantes. Mientras que este resultado es de poco uso práctico en los sistemas que van más allá de 2 × 2, es de gran importancia teórica. Necesitaremos algo de notación adicional para llevar a cabo su demostración. Para una matriz A ∈ K n×n y b ∈ K n , denotemos con Ai (b) a la matriz obtenida al reemplazar la i-ésima columna de A por b. Es decir: Ai (b) = [A∗1 | . . . | b | . . . | A∗n ], donde A∗j denota la j-ésima columna de A. Teorema 2.4.1 (Regla de Cramer). Si A ∈ K n×n es no singular, entonces para cada b ∈ K n la única solución del sistema Ax = b está dada por: xi =

det(Ai (b)) , det(A)

para i = 1, 2, . . . , n. Demostración. Si A ∈ K n×n es no singular, entonces el sistema Ax = b es consistente y determinado para cada b ∈ K n . Sea I la matriz identidad de n × n. Claramente, I = [e1 | . . . | en ] donde e1 , . . . , en son los vectores canónicos de K n . Si Ax = b, entonces: AIi (x)

=

A[e1 | . . . | x | . . . | en ] = [Ae1 | . . . | Ax | . . . | Aen ]

=

[A∗1 | . . . | b | . . . | A∗n ]

=

Ai (b).

Luego, de acuerdo con el Teorema 2.3.14, tenemos que: (det(A))(det(Ii (x))) = det(AIi (x)) = det(Ai (b)).

62

2. Determinantes Por otra parte, tenemos que: ··· 0 1 ···

1 0

. . .  .. .. . .  Ii (x) =  0 0 ··· . .  .. ..

x1 x2

.. .

xi

.. .

··· 0 0  ··· 0 0

.. .

..  .  ··· 0 0  . . . .. . .  . . .

0 0 ··· xn−1 ··· 1 0 0 0 ··· xn ··· 0 1

Desarrollando el determinante a lo largo del i-ésimo renglón usando la fórmula det(A) = Pn s+j asj det(Asj ) con s = i, del Corolario 2.3.12, tenemos que det(Ii (x)) = xi . De j=1 (−1) esta manera, det(A)xi = det(Ai (b)) de donde se sigue el resultado. Otra prueba es como sigue. Dado que Ax = b, se tiene que b es combinación lineal de las columnas de A, es decir, b = x1 A∗1 + · · · + xn A∗n . Dado que el determinantes es lineal se tiene que X det Ai (b) = det(A∗1 , . . . , xj A∗j , . . . , A∗n ) X = xj det(A∗1 , . . . , A∗j , . . . , A∗n ) X = xi det(A∗1 , . . . , A∗i , . . . , A∗n ) + xj det(A∗1 , . . . , A∗j , . . . , A∗n ) j6=i

= xi det(A). La última igualdad se sigue pues det(A∗1 , . . . , A∗j , . . . , A∗n ) = 0. 

   2 0 0 −1 Ejemplo 2.4.2. El sistema de ecuaciones Ax = b, donde A =  1 2 −1  y b =  −1  0 1 1 2 tiene solución pues det (A) = 1. Aplicando la regla de Cramer se tiene x1 = det(b | A∗2 | A∗3 ) = 11,

x2 = det(A∗1 | b | A∗3 ) = −7,

x3 = det(A∗1 | A∗2 | b) = −2.

Por aplicarla regla de Cramer para resolver el sistema Ax = b si  otro lado, no es  posible  1 2 7 1 1 −1  y b =  2 , pues det (A) = 0. Sin embargo, esto no significa que A =  −1 3 −2 5 −5 T el sistema no tenga solución. De hecho, x = (2, 3, −1) es una solución.

2.4.1.

Ejercicios

1. Aplique la regla de Cramer para resolver los siguientes sistemas de ecuaciones

−x + y + z = 0, −x + 2y + z = −1, −3x + 2y + 2z = 2.

x − y + z = −14, x + 2y − z = 31, −x + 2y − 2z = 33.

Observe que en ambos casos las soluciones son enteras. 2. Sea A una matriz de n × n y sea b una matriz de n × 1, ambas con entradas números enteros. Suponga que det(A) = 1. Demuestre que el vector solución del sistema Ax = b tiene entradas números enteros.

2.5. Cálculo de determinantes

63

3. Sean A y B matrices no nulas de n × n con n > 1, tales que AB = 0. Demuestre que det(A) = det(B) = 0.   40 −21 4. Considere la matriz real A = . 70 −37 a) Encuentre todos los valores λ tales que det (A − λI) = 0. b) Para cada uno de los valores λ calculados en el apartado anterior, encuentre todas las x tales que Ax = λx.   2 2 6 5. Sea A =  2 −1 −3  ∈ R3×3 . −2 −1 1 a) Calcule todos los valores λ tales que det (A − λI) = 0. b) Para cada uno de los valores λ calculados en el apartado anterior, encuentre todas las x tales que Ax = λx. 6. Use la regla de Cramer para encontrar la solución x2 del sistema de ecuaciones lineales: 2x1 − x2 = 8, −x1 + 2x2 − x3 = −4, −x2 + 2x3 = 12. 7. Determine los valores de α de tal manera donde  1 2  0 α A=  −3 1 4 0

que el sistema de ecuaciones Ax = b determinado, 1 1 1 2

 2 2   1  α

 1  −1     2 . 8 

y

8. Considere el sistema de ecuaciones lineales:    2   s − 3s − 10 x1 (s) −s − 1 2s s+2  −2 s − 2 2 s + 1 2 s + 2  x2 (s) =  4s2 − 8s − 14  . −3s2 + 7s − 3 x3 (s) s 0 −s + 1 Determine el valor de s para el cual x1 (s) alcanza su valor mínimo. 9. Calcule l´ıms→∞ x2 (s), donde x2 (s) está determinado por el sistema de ecuaciones lineales:      0 s−2 s x1 (s) s + 3s−2 + s−3  s2 s3 0  x2 (s) =  5s3 + s2 . 5s4 + s3 − 1 s3 s4 1 x3 (s)

2.5.

Cálculo de determinantes

En esta sección se presentarán algunos métodos para el cálculo de determinantes. Cabe aclarar que los determinantes no son útiles para la resolución eficiente de sistemas de ecuaciones lineales de n × n para n ≥ 4. Un primer método para el cálculo de los determinantes es usando la fórmula dada en el Corolario 2.3.4: X det (A) = ε (σ) a1σ(1) · · · anσ(n) . σ∈Sn

64

2. Determinantes Si A es una matriz de 2 × 2, y tomando en cuenta que:     1 2 1 2 S2 = , , 1 2 2 1

se tiene: det A = a11 a22 − a12 a21 . De forma análoga, si A es una matriz de 3 × 3, como:        1 2 3 1 2 3 1 2 3 1 2 S3 = , , , 1 2 3 1 3 2 2 1 3 2 3

  3 1 , 1 3

  3 1 , 2 3

2 1

 3 1

2 2

se tiene que: det A = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 . Si A es una matriz de 4 × 4, el determinante de A tendrá 4! = 24 sumandos. Un segundo método es el denominado desarrollo por cofactores (Teorema 2.1.5): det A = ai1 Ci1 + ai2 Ci2 + · · · + ain Cin . 1+j

donde C1j = (−1) det A1j . El número Cij = (−1)i+j det(Aij ) el cofactor (i, j) de A. Puesto que el determinante de una matriz es único, el desarrollo del determinante es independiente del renglón. Observe que los signos de la definición de cofactor tienen la siguiente distribución: 

+  −   +

− + − ···

 + ··· − ···  . + ···  

2 Ejemplo 2.5.1. Calcular el determinante de la matriz A =  −4 6 de los cofactores.

1 −3 8

 2 −9  por el método 34

Desarrollando conforme al primer renglón, se tiene: 

−4 6

−3 8



También pudo haberse desarrollado conforme a la última columna:      −4 −3 2 1 2 det(A) = 2 det − (−9) det + 34 det 6 8 6 8 −4

1 −3



det(A) = 2 det

−3 8

−9 34



 − 1 det

−4 6

−9 34



 + 2 det

= 2 (−30) − 1 (−82) + 2 (−14) = −6.

= 2 (−14) + 9 (10) + 34 (−2) = −6. Otro método para el cálculo de los determinantes es el uso de las propiedades del determinante. En este método esencialmente se trata de usar la eliminación gaussiana para convertir la matriz original en otra matriz cuyo determinante sea más fácil de calcular. Recuerde que si E es una matriz elemental, entonces det(E) = 1, a menos que E sea la matriz elemental que se obtiene de la matriz identidad intercambiando dos renglones.

2.5. Cálculo de determinantes

65

Ejemplo 2.5.2. Calcular el determinante de la matriz A del ejemplo anterior usando las propiedades del determinante. 

2 det  −4 6

1 −3 8

  2 2 −9  = det  0 34 0

1 −1 5

  2 2 −5  = det  0 28 0

 1 2 −1 −5  = −6. 0 3

La primera igualdad se obtiene aplicando a la matriz A las operaciones elementales de renglón R21 (2) y R31 (−3). La segunda igualdad sumando al tercer renglón 5 veces el segundo renglón. Finalmente, también se puede calcular el determinante utilizando la factorización P A = LU . Este es un método eficiente para el cálculo del determinante. Si P A = LU, se tiene: (det P )(det A) = (det L)(det U ). Dado que det P = ±1 y det L = 1, entonces: det A = ± det U = ± (producto de los pivotes) . Ejemplo 2.5.3. La descomposición P A = LU es:   2 1 0 0 1 0  0 A =  −2 0 3 −5 1

 1 2 −1 −5  . 0 3

En este caso P = I. Entonces det A = (2) (−1) (3) = −6.

2.5.1.

Ejercicios

1. Sea A una matriz invertible tal que las entradas de A y A−1 son números enteros. Pruebe que det(A) = det(A−1 ) = 1 o det(A) = det(A−1 ) = −1. 2. Encuentre el término distinto de cero en la expansión por permutaciones del siguiente determinante:   0 1 0 0  1 0 1 0  det   0 1 0 1 . 0 0 1 0 3. Encuentre los determinantes de las siguientes matrices.



0 1

1 0



 ,

0  1 1

1 0 1



1 1 , 0



0  1   1 1

1 0 1 1



1 1 0 1

1 1  , 1  0

1 1 0 1

 1 1  , 1  0

     

0 1 1 1 1

1 0 1 1 1

1 1 0 1 1

1 1 1 0 1

1 1 1 1 0



1 1 1 1 1

1 0 1 1 1

1 1 0 1 1

1 1 1 0 1

1 1 1 1 0



  .  

Generalice el resultado. 4. Calcule el determinante de las siguientes matrices.



1 1

1 0



 ,

1  1 1

Generalice el resultado.

1 0 1



1 1 , 0



1  1   1 1

1 0 1 1

     

  .  

66

2. Determinantes

5. Considere la matriz de n × n (n ≥ 3), A = (aij ) definida como aij = i + j. Pruebe que det(A) = 0. 6. Calcule el determinante de la matriz  31 32 33 34 35  61 62 63 64 65  A=  91 92 93 94 95  121 122 123 124 125 151 152 153 154 155

   .  

7. Sean K un campo, α ∈ K y n ≥ 3. Calcule el determinante de la matriz A de n × n, definida por [A]ij = αi + j (1 ≤ i, j ≤ n). 8. Demuestre, sin usar cofactores, que:  1 1 det  a b a2 b2

 1 c  = (b − a)(c − a)(c − b). c2

9. Pruebe que  1 1  det  .  ..

x1 x2 .. .

x21 x22 .. .

1

xn

x2n

... ... ··· ...

 xn−1 1  Y xn−1 2  (xj − xi ). ..  = .  xn−1 n

(*)

j>i

La matriz cuadrada en (∗) se conoce como la matriz de Vandermonde de orden n, en honor del matemático francés Alexandre-Theophile Vandermonde, y usualmente se denota con la letra Vn . 10. Sean (x1 , y1 ), . . . , (xn , yn ) ∈ C2 tales que xi 6= xj para i 6= j. Pruebe que existe exactamente un polinomio f (t) = a0 + a1 t + · · · + an−1 tn−1 de grado n − 1 tal que f (xi ) = yi para i = 1, . . . , n. 11. Demuestre, sin usar cofactores, que:  2 a (a + 1)2  b2 (b + 1)2 det   c2 (c + 1)2 d2 (d + 1)2

(a + 2)2 (b + 2)2 (c + 2)2 (d + 2)2

 (a + 3)2 (b + 3)2   = 0. (c + 3)2  (d + 3)2

(Sugerencia. Puede ser más útil realizar operaciones de columna que de renglón). 12. Use la eliminación gaussiana para calcular los determinantes de cada una de las siguientes matrices:     2 −5 0 1 5   1 0 −1 −2  −2 0 1 2 7 −2 2 −1   0 3 −1 −2     ,  4 −16 10 −6  1 −2 0 , 1   .  3 0  0 0  0 −2 22 1 2 19 3 16  2 4 −1 1 2 −7 6 −2 0

2.6. Áreas y volúmenes

67 

13. Calcule el determinante de la matriz A =

2 −1

−1 1

 y también los determinantes de cada

una de las siguientes matrices. 

2  −1 0



 −1 0 0 2 −1 0  , −1 2 −1  0 −1 1

2  −1   0 0



−1 0 2 −1  , −1 1

     

2 −1 0 0 0

−1 0 0 0 2 −1 0 0 −1 2 −1 0 0 −1 2 −1 0 0 −1 1

   .  

14. Calcule los determinantes  1 1  1   .. .

de cada una de las siguientes matrices.    0 1 1 ··· 1 1 1 ··· 1 1 1 1 · · · 1  2 1 · · · 1    1 1 2 · · · 1  1 3 · · · 1 . ,   .. .. .. . . ..  .. .. . . ..    . . . . . . .  . . 1 1 1 ··· n − 1 1 1 1 ··· n

2.6.

Áreas y volúmenes

Para finalizar este capítulo se mostrará que el determinante se puede interpretar como un volumen (área en el caso bidimensional y volumen en dimensiones mayores que dos). Sean v, w dos vectores en R2 y sea P (v, w) el paralelogramo generado por estos vectores, es decir: P (v, w) = {αv + βw | 0 ≤ α ≤ 1, 0 ≤ β ≤ 1}. El área de P (v, w) será denotada con el símbolo Vol(v, w). Vea la Figura 2.1.

v w

O Figura 2.1: El paralelogramo P (v, w) determinado por los vectores v y w.

Se usarán las siguientes propiedades básicas del área (o del volumen): a) el área de un segmento de recta es igual a 0; b) si A y B son regiones congruentes, entonces tienen la misma área; c) si A y B son regiones ajenas, entonces el área de A ∪ B es igual al área de A más el área de B; d) si A y B son regiones tales que A ∩ B tiene área cero, entonces el área de A ∪ B es igual al área de A más el área de B. Teorema 2.6.1. Sean v, w en R2 . 1. Vol(v, w) = 0 si y sólo si v y w son linealmente dependientes.

68

2. Determinantes 2. Si n ∈ N, r ∈ Q+ y c ∈ R+ , entonces: a) Vol(nv, w) = n Vol(v, w), b) Vol(rv, w) = r Vol(v, w), c) Vol(cv, w) = c Vol(v, w). 3. Vol(−v, w) = Vol(v, w). 4. Vol(v + w, w) = Vol(v, w).

Demostración. 1. Supongamos que Vol(v, w) = 0. Esto sólo es posible si P (v, w) es un punto o un segmento de recta. En el primer caso v = w = 0 y en el segundo caso v = cw o w = cv para algún escalar c 6= 0. En cualquier caso v y w son linealmente dependientes. Supongamos ahora que v y w son linealmente dependientes. En consecuencia existen escalares a y b, no ambos cero, tales que av + bw = 0. Si a 6= 0, entonces v = − ab w y por tanto P (v, w) es un segmento de recta. En consecuencia Vol(v, w) = 0. El caso en que b 6= 0 es completamente análogo. Como consecuencia de (1) podemos suponer, en los apartados del (2) al (4) que v y w son linealmente independientes. En efecto, si v y w son linealmente dependientes también lo serán cada uno de los conjuntos {nv, w}, {qv, w}, {cv, w}, {−v, w} y {v +w, w} y como 0 = 0, entonces se cumplirán cada una de las igualdades en (2)-(4). 2a) Sea n ∈ N. El paralelogramo P (nv, w) está formado por n paralelogramos, cada uno de los cuales es congruente con P (v, w) (Figura 2.2), y consecuentemente, el área de cada uno de éstos es Vol(v, w). Si designamos con P1 , . . . , Pn a cada uno de estos paralelogramos, entonces Pi ∩ Pi+1 es un segmento de recta (1 ≤ i < n). Así: Vol(nv, w) = Vol(v, w) + · · · + Vol(v, w) = n Vol(v, w). {z } | n veces

nv (n − 1)v 2v v w Figura 2.2: El paralelogramo P (nv, w) es la unión de n paralelogramos, cada uno de los cuales es congruente con P (v, w). 2b) Sea r ∈ Q+ y supongamos que r = m n con m, n enteros positivos. Como:       1 1 Vol(v, w) = Vol n v , w = n Vol v, w , n n se tiene que: Vol(rv, w) = Vol =m

      1 1 v, w = Vol m v , w = m Vol v, w n n n

m



1 Vol(v, w) = r Vol(v, w). n

2.6. Áreas y volúmenes

69

2c) En primer lugar observemos que si 0 < r < c < r0 , entonces P (rv, w) ⊆ P (cv, w) ⊆ P (r0 v, w) (Figura 2.3). Ahora elijamos una sucesión creciente (rn ) y una sucesión decreciente (rn0 ) de números racionales que converjan ambas a c. Para cualquier n ∈ N se tiene que rn < c < rn0 de donde se concluye que P (rn v, w) ⊆ P (cv, w) ⊆ P (rn0 v, w). Como consecuencia de estas contenciones tenemos: Vol(rn v, w) ≤ Vol(cv, w) ≤ Vol(rn0 v, w). r0 v cv rv w Figura 2.3: El paralelogramo P (rv, w) está contenido en el paralelogramo P (cv, w) y este a su vez está contenido en el paralelogramo P (r0 v, w). Aplicando la parte (b) llegamos a que para toda n ∈ N se tiene que: rn Vol(v, w) ≤ Vol(cv, w) ≤ rn0 Vol(v, w). Al tomar límites y considerando que: rn Vol(v, w) → c Vol(v, w) y rn0 Vol(v, w) → c Vol(v, w), obtenemos que c Vol(v, w) ≤ Vol(cv, w) ≤ c Vol(v, w). Por lo que Vol(cv, w) = c Vol(v, w). 3. Los paralelogramos P (v, w) y P (−v, w) son congruentes. Por tanto sus áreas son iguales: Vol(v, w) = Vol(−v, w). 4. El área del paralelogramo P (v, w) es la suma de las áreas de los triángulos A y B, es decir Vol(v, w) = área 4A + área 4B. De manera similar Vol(v + w, w) = área 4B + área 4C (Figura 2.4). v + 2w v+w C

v A

2w

B w

Figura 2.4: Triángulos A, B y C. Como los triángulos A y C son congruentes, área 4A = área 4C. Así: Vol(v, w) = Vol(v + w, w).

Nótese que dados v, w ∈ R2 se puede formar la matriz cuadrada de 2×2 cuyas columnas son v y w: A = [v | w] y en consecuencia tiene sentido hablar de det(v | w). Se quiere probar que el área del paralelogramo determinado por v, w ∈ R2 es |det(v | w)|, es decir, Vol(v, w) = |det(v | w)|.

70

2. Determinantes

Definición 2.6.2. Si v, w ∈ R2 , el área orientada del paralelogramo P (v, w) denotada con Vol0 (v, w) está dada por:  Vol(v, w) si det(v | w) ≥ 0, Vol0 (v, w) = − Vol(v, w) si det(v | w) ≤ 0. Teorema 2.6.3. El área orientada de P (v, w) es igual a det(v | w): Vol0 (v, w) = det(v | w). Demostración. En virtud del Teorema 2.3.2 bastará verificar que Vol0 satisface las condiciones dadas en la Definición 2.1.1. Como {v, v} es linealmente dependiente, entonces Vol0 (v, v) = 0. Claramente Vol0 (e1 , e2 ) = 1, donde e1 y e2 son los vectores unitarios estándar. Sólo falta mostrar que Vol0 es bilineal. Veamos primero que Vol0 (cv, w) = c Vol0 (v, w). Si c = 0, entonces det(cv | w) = 0 y Vol0 (cv, w) = Vol(cv, w) = 0 = c Vol0 (v, w) ya que {0, w} es linealmente dependiente. Supongamos ahora que c > 0. Si det(cv | w) ≥ 0, entonces det(v | w) ≥ 0 ya que c > 0. Luego, Vol0 (cv, w) = Vol(cv, w) = c Vol(v, w) = c Vol0 (v, w). Finalmente, si det(cv | w) ≤ 0, entonces det(v | w) < 0, y Vol0 (cv, w) = − Vol(cv, w) = −c Vol(v, w) = c(− Vol(v, w)) = c Vol0 (v, w). Supongamos que c < 0. Si det(cv | w) ≥ 0, entonces det(v | w) ≤ 0 y Vol0 (cv, w) = Vol(cv, w) = Vol(−cv, w) = −c Vol(v, w) = c(− Vol(v, w)) = c Vol0 (v, w). Si det(cv | w) ≤ 0, entonces det(v | w) ≥ 0. Se sigue que: Vol0 (cv, w) = − Vol(cv, w) = − Vol(−cv, w) = −(−c) Vol(v, w) = c Vol(v, w) = c Vol0 (v, w). Esto prueba que Vol0 (cv, w) = c Vol(v, w). La prueba de que Vol0 (v, cw) = c Vol0 (v, w) es análoga a la del caso anterior. A continación mostraremos que Vol0 (v1 +v2 , w) = Vol0 (v1 , w)+ Vol0 (v2 , w). Primero veamos que si v, w es una base de R2 , entonces Vol0 (αv + βw, w) = α Vol0 (v, w). Si β = 0, entonces Vol0 (αv, w) = α Vol0 (v, w) con base en lo que se probó previamente. Si β 6= 0, entonces: β Vol0 (αv + βw, w) = Vol0 (αv + βw, βw) ( Vol(αv + βw, βw) si det(αv + βw | βw) ≥ 0 = − Vol(αv + βw, βw) si det(αv + βw | βw) ≤ 0 ( Vol(αv, βw) si det(αv | βw) ≥ 0 = − Vol(αv, βw) si det(αv | βw) ≤ 0 = Vol0 (αv, βw) = αβ Vol0 (v, w). Como β 6= 0, tenemos que Vol0 (αv + βw, w) = α Vol0 (v, w). Sean v1 , v2 , w ∈ R2 . Si w = 0, la afirmación es válida. Si w 6= 0, sea v ∈ R2 tal que {v, w} es base de R2 . Escribamos v1 y v2 en términos de esta base de la siguiente manera: v1 = α1 v + β1 w y v2 = α2 v + β2 w. Luego, v1 + v2 = (α1 + α2 )v + (β1 + β2 )w. Se tiene entonces que: Vol0 (v1 + v2 , w) = Vol0 ((α1 + α2 )v + (β1 + β2 )w, w) = (α1 + α2 ) Vol0 (v, w) = α1 Vol0 (v, w) + α2 Vol0 (v, w) = Vol0 (α1 v + β1 w, w) + Vol0 (α2 v + β2 w, w) = Vol0 (v1 , w) + Vol0 (v2 , w).

2.6. Áreas y volúmenes

71

El caso Vol0 (v, w1 + w2 ) = Vol0 (v, w1 ) + Vol0 (v, w2 ) es análogo al anterior. Como consecuencia de todo lo anterior tenemos que Vol0 : R2 × R2 → R es una función determinante. De acuerdo con el Teorema 2.3.2 se tiene: Vol0 (v, w) = det(v | w) para cualesquiera v, w ∈ R2 . Ejemplo 2.6.4. Calcular el área del paralelogramo determinado por los vectores v = (3, 5) T y w = (1, −2) (Figura 2.5). y

w=

T

  3 5

5 4 3 2 1 −2 −1 −1

1

2

3

4

5

x

−2

  3 v= 5 Figura 2.5: Paralelogramo determinado por los vectores v = (3 5)T y w = (1 − 2)T . Solución. El área de este paralelogramo es el área del paralelogramo P (v, w).   Vol 35 −21 = det 35 −21 = |−6 − 5| = 11. En el ejemplo anterior, los vectores que determinan al paralelogramo están anclados en el origen. El siguiente ejemplo ilustra como proceder cuando se tienen los vértices que determinan al paralelogramo en vez de los vectores generadores. La solución es sencilla, ya que a paritr de los vértices se pueden construir los vectores generadores. T

T

Ejemplo 2.6.5. Calcular el área del paralelogramo cuyos vértices son (−2, 3) , (−5, 5) , T T (2, 10) y (5, 8) (Figura 2.6). Solución. El paralelogramo original es congruente al paralelogramo generado por los vectores T T T T T T v = (−5, 5) − (−2, 3) = (−3, 2) y w = (5, 8) − (2, 10) = (7, 5) . Por lo tanto, el área buscada es:   −3 7 Vol(v, w) = det = 29. 2 5 El Teorema 2.6.3 se puede generalizar a cualquier dimensión. Para ello basta fijar todas las coordenadas, excepto dos de ellas y todo se reduce al caso bidimensional. Se enunciará el teorema para el caso tridimensional. Si u, v, w son tres vectores de R3 , denotaremos con P (u, v, w) el paralelepípedo generado por estos vectores: P (u, v, w) = {αu + βv + γw | 0 ≤ α ≤ 1, 0 ≤ β ≤ 1, 0 ≤ γ ≤ 1}. Denotaremos con Vol(u, v, w) el volumen de P (u, v, w).

72

2. Determinantes y

(2, 10)

10 9

(5, 8)

8 7 6

(−5, 5)

w = (7, 5)

5 4

(−2, 3) v = (−3, 2)

3 2 1

−5 −4 −3 −2 −1

1

2

3

4

5

6

7

x

Figura 2.6: Paralelogramo determinado por los vectores (−2 3)T , (−5 5)T , (5 8)T y (2 10)T . El paralelogramo punteado es la traslación al origen del paralelogramo original.

Teorema 2.6.6. Sean u, v, w ∈ R3 . 1. Vol(u, v, w) = 0 si y sólo si u, v, w son linealmente dependientes. 2. Si n ∈ N, r ∈ Q+ y c ∈ R+ , entonces: a) Vol(nu, v, w) = n Vol(u, v, w), b) Vol(ru, v, w) = r Vol(u, v, w), c) Vol(cu, v, w) = c Vol(u, v, w). 3. Vol(−u, v, w) = Vol(u, v, w). 4. Vol(u + v, v, w) = Vol(u, v, w). Demostración. La demostración es análoga a la prueba del Teorema 2.6.3. Ejemplo 2.6.7. Calcular el volumen del paralelepípedo determinado por los vectores u = T T T (−1, −2, 4) , v = (2, −3, 1) y w = (−5, −1, 2) . Solución. El volumen de P (u, v, w) está dado por |det(u | v | w)|. Así:   −1 2 5 Vol(u, v, w) = det  −2 −3 −1  = 55. 4 1 2

2.6.1.

Ejercicios

1. Determine las áreas de los paralelogramos generados por los siguientes pares de vectores: T

T

a) (5, −1) y (8, 4) . T

T

b) (−4, −2) y (1, 7) .

2.6. Áreas y volúmenes

73

2. Determine el área de cada paralelogramo de tal manera que tres de los vértices de cada uno de ellos estén determinados por los siguientes puntos: T

T

T

a) (5, 2) , (11, 8) , (9, −2) . T

T

T

b) (0, 3) , (−4, 5) , (7, 12) . T

T

T

c) (1, 1) , (3, 3) , (0, 2) . 3. Determine el volumen de cada paralelepípedo generado por las siguientes tercias de puntos de R3 : T

T

T

a) (1, 1, 1) , (1, 2, 1) , (1, 1, 3) . T T T b) 1, 12 , 13 , 12 , 13 , 14 , 31 , 14 , 51 . T

T

T

c) (1, −1, 1) , (1, 1, 1) , (1, 0, −1) .

74

2. Determinantes

CAPÍTULO

3

Espacios vectoriales

En diversas ramas de las matemáticas nos topamos con conjuntos de elementos que se pueden operar entre ellos y multiplicar por escalares, es decir por elementos de algún campo. Consideremos el espacio euclidiano R2 . Sabemos que la suma de dos vectores de R2 da como resultado un vector de R2 . Lo mismo sucede si multiplicamos un vector por elemento de R. El conjunto de soluciones de un sistema homogéneo es otro ejemplo típico. Podemos sumar dos o más soluciones y obtenemos nuevamente una solución. De hecho cualquier combinación lineal de soluciones es nuevamente una solución. En Cálculo, también se presentan ejemplos de tales conjuntos, v.gr. el conjunto de todas la funciones diferenciables de R en R. Sabemos que cualquier combinación lineal de funciones diferenciables es nuevamente una función diferenciable. Éstos son ejemplos de espacios vectoriales. En este capítulo nos dedicaremos al estudio de la teoría básica acerca de los espacios vectoriales sobre un campo arbitrario, haciendo énfasis en los espacios de dimensión finita.

3.1.

Espacios vectoriales

Un espacio vectorial es una estructura algebraica que consta de un conjunto no vacío junto con dos operaciones binarias, una externa y otra interna, y que satisfacen ciertas propiedades. Las propiedades que posee R2 junto con las suma de vectores y la multiplicación por escalar y que comparte por ejemplo con el conjunto de todas funciones diferenciables de R en R serán la base para la definición de espacio vectorial. Definición 3.1.1. Un espacio vectorial sobre un campo K (o un K-espacio vectorial ) es conjunto no vacío V junto con dos operaciones +:V ×V (v1 , v2 )

→ 7 →

V , v1 + v2

·:K ×V (c, v)

→ V 7 → cv

llamadas respectivamente suma y producto por escalar las cuales satisfacen: 1. u + v = v + u para todos los u, v ∈ V. 2. (u + v) + w = u + (v + w) para todos los u, v, w ∈ V. 3. Existe un elemento 0 ∈ V tal que v + 0 = v para todo v ∈ V. 75

76

3. Espacios vectoriales

4. Para cada v ∈ V , existe −v ∈ V tal que v + (−v) = 0. 5. c (u + v) = cu + cv para cualquier c ∈ K y cualesquiera u, v ∈ V. 6. (c1 + c2 ) v = c1 v + c2 v para cualesquiera c1 , c2 ∈ K, v ∈ V. 7. (c1 c2 ) v = c1 (c2 v) para cualesquiera c1 , c2 ∈ K, v ∈ V. 8. El escalar 1 ∈ K cumple 1 · v = v para todo v ∈ V. A los elementos de un espacio vectorial se les llama vectores y a los elementos del campo K escalares. Aquí la palabra “vector” no está haciendo referencia a los vectores de R2 o R3 . V es un K-espacio vectorial real si K = R; si K = C, se dice que V es un espacio vectorial complejo. Observación 3.1.2. 1. Las propiedades 1-4 establecen que (V, +) es un grupo abeliano. 2. Es importante enfatizar que un espacio vectorial no es únicamente un conjunto V . Es como dice la definición una terna (V, +, ·), donde V es un conjunto no vacío junto con las operaciones binarias + y · que satisfacen las propiedades de espacio vectorial. De hecho el mismo conjunto V puede ser parte de espacios vectoriales diferentes. En general, cuando no haya peligro de confusión haremos referencia a un espacio vectorial mencionando únicamente el conjunto V. Ejemplos 3.1.3. En los siguientes ejemplos K es un campo arbitrario y n, m ∈ N. Los siguientes conjuntos junto con las operaciones indicadas son K-espacios vectoriales. a) El conjunto K n que consta de todos los vectores columna junto con las operaciones usuales de suma de vectores y multiplicación de vector por escalar. b) El conjunto K m×n de todas las matrices de m × n con entradas en el campo K es un espacio vectorial respecto de la suma de matrices y la multiplicación matriz por escalar. c) Sea A ∈ K m×n . El conjunto de todas las soluciones del sistema homogéneo Ax = 0, junto con las operaciones usuales de suma de vectores y multiplicación de vector por escalar. d) Sea K un campo. El conjunto K[t] de todos los polinomios en la variable t, junto con operaciones usuales de suma de polinomios y producto de polinomio por escalar es un K-espacio vectorial. Ejemplo 3.1.4. Sea V el conjunto de todas las matrices de m×n con entradas reales. Considere en V la suma usual de matrices. Sean · : R × V → V y ·0 : Q × V → V la multiplicación usual por escalar (En el segundo caso la multiplicación se restringe a números racionales). Entonces (V, +, ·) y (V, +, ·0 ) son dos espacios vectoriales diferentes, ya que uno es real y el otro es racional. Teorema 3.1.5. En un K-espacio vectorial V se cumple lo siguiente: 1) Si u, v, w ∈ V son tales que v + u = w + u, entonces v = w. 2) Existe un único elemento 0 ∈ V tal que v + 0 = v para todo v ∈ V. 3) Para cada v ∈ V, existe un único elemento w ∈ V tal que v + w = 0. 4) − (−v) = v para todo v ∈ V. 5) 0 · v = 0 para todo v ∈ V. 6) (−1) v = −v para todo v ∈ V .

3.1. Espacios vectoriales

77

7) c · 0 = 0 para todo c ∈ K. 8) Si c ∈ K, v ∈ V y cv = 0, entonces c = 0 ó v = 0. Demostración. Las propiedades 1)-4) son consecuencia inmediata del hecho de que (V, +) es un grupo. Si el lector está familiarizado con las propiedades básicas de los grupos, puede omitir las pruebas de 1)-4). 1) Si v + u = w + u, entonces (v + u) + (−u) = (w + u) + (−u). Pero (v + u) + (−u) = v + (u + (−u)) = v + 0 = v y (w + u) + (−u) = w + (u + (−u)) = w + 0 = w. Luego, v = w. 2) Supongamos que 0 y 00 cumplen que v + 0 = v y v + 00 = v para todo v ∈ V . Luego, en particular 0 + 0 = 0 y 0 + 00 = 0. De aquí que 0 + 0 = 0 + 00 y por el inciso anterior, se sigue que 0 = 00 . 3) Sea v ∈ V . Sabemos que existe −v ∈ V tal que v + (−v) = 0. Supongamos que w ∈ V cumple que v + w = 0. Entonces v + (−v) = v + w, y por el inciso 1 se sigue que w = −v. 4) Sea v ∈ V . Sabemos que existe −v ∈ V tal que v + (−v) = 0. Pero también existe −(−v) ∈ V tal que −v + (−(−v)) = 0. Luego, v + (−v) = −(−v) + (−v) y por el inciso 1 se sigue que v = −(−v). 5) Escribamos 0 = 0 + 0. Entonces, para todo v ∈ V tenemos que 0 · v = (0 + 0)v = 0 · v + 0 · v, de donde 0 = 0 · v. 6) Sea v ∈ V . Tenemos que (−1+1)v = (−1)v +1·v = (−1)v +v y también (−1+1)v = 0·v = 0 según el inciso anterior. Luego, (−1)v + v = 0 y por lo tanto (−1)v = −v. 7) Escribamos 0 = 0 + 0. Entonces, para todo c ∈ K tenemos que c · 0 = c(0 + 0) = c · 0 + c · 0, de donde c · 0 = 0. 8) Supongamos que cv = 0 con c ∈ K y v ∈ V . Si c = 0 no hay nada que demostrar. Supongamos entonces que c 6= 0. Entonces existe c−1 ∈ K tal que c−1 c = 1. Luego, c−1 (cv) = c−1 · 0. Pero, c−1 (cv) = (c−1 c)v = 1 · v = v y c−1 · 0 = 0. Por lo tanto, v = 0.

3.1.1.

Ejercicios

1. Sea K un campo y sea X un conjunto no vacío. Considere el conjunto K X = {f : X → K | f es función}. Dadas dos funciones f, g ∈ K X y c ∈ K se define la suma de funciones y la multiplicación por escalar como sigue: f +g : X x

→ X , 7→ f (x) + g (x)

cf : X x

→ X . 7 → cf (x)

Pruebe que K X con estas operaciones es un K-espacio vectorial. Concluya que K n , K m×n y K ω son K-espacios vectoriales. (Aquí K ω denota al conjunto de todas las sucesiones (a1 , a2 , a3 , . . . ) de elementos de K). 2. Pruebe que cualquier campo es un espacio vectorial sobre sí mismo. 3. Considere el campo C de los números complejos. ¿Es R un C-espacio vectorial? Justifique su respuesta. 4. Sean F y K campos arbitrarios tales que F ⊆ K. Pruebe que K es un F -espacio vectorial.

78

3. Espacios vectoriales

5. Sean V y W dos K-espacios vectoriales. Considere V × W y defina: (v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 ) , c (v, w) = (cv, cw) . Pruebe que V × W con estas operaciones es un espacio vectorial. Se dice que este espacio vectorial es el producto directo de V y W . 6. Sea R+ el conjunto de todos los números reales positivos. Considere R+ junto con las operaciones: ? : R + × R+ → R+ ∗ : R × R+ → R+ , (x, y) 7→ x + y − 3 (c, x) 7→ cx − 3c + 3 ¿Es R+ junto con estas operaciones un espacio vectorial real? Justifique su respuesta. 7. Pruebe que R es un espacio vectorial real con las operaciones x?y = x+y−1, c∗x = cx−c+1. ¿Cuál es el neutro aditivo en este espacio vectorial? En este contexto, ¿qué significa −x? 8. Pruebe que R+ es un espacio vectorial real con las operaciones x ? y = xy, c ∗ x = xc . ¿Cuál es el neutro aditivo en este espacio vectorial? En este contexto, ¿qué significa −x? 9. Sea V un K-espacio vectorial, S un conjunto y f : V → S una función biyectiva. Para cada  x, y ∈ S y para cada escalar c ∈ K defina las operaciones x ? y = f f −1 (x) + f −1 (y) y  c ∗ x = f cf −1 (x) . Pruebe que S junto con estas operaciones es un K-espacio vectorial.

3.2.

Subespacios

Los espacios vectoriales pueden contener conjuntos que con las mismas operaciones del espacio original sean a su vez espacios vectoriales. Por ejemplo, sea A ∈ Rm×n y consideramos el espacio nulo de A, el cual es un subconjunto de Rn . Observemos que si x, y ∈ N (A), es decir, si Ax = 0 y Ay = 0, entonces A(x+y) = 0 y por tanto x+y ∈ N (A). Además, si c ∈ R y x ∈ N (A), entonces cx ∈ N (A). En notación funcional, +(N (A) × N (A)) ⊂ N (A) y ·(R × N (A)) ⊂ N (A). Así, la suma usual definida en Rn × Rn cuando se restringe a N (A) × N (A) define una función N (A) × N (A) → N (A). De manera similar, la multiplicación por escalar · : R × Rn → Rn define una operación binaria externa · : R × N (A) → N (A). Es rutinario verificar que N (A) junto con estas dos operaciones binarias satisfacen las condiciones de la Definición 3.1.1 y por lo tanto N (A) tiene estructura de R-espacio vectorial. Por otro lado, el subconjunto R+ × R+ de R2 no es un espacio vectorial ya que la multiplicación por escalar no es cerrada (por ejemplo (−1) (1, 1) ∈ / R+ × R+ ). Dado un espacio vectorial V , un subespacio vectorial es un subconjunto W de V tal que W es un espacio vectorial con las operaciones de suma y producto por escalar definidas en V . Para determinar si un conjunto dado es un subespacio vectorial, no es necesario verificar las ocho propiedades que definen a un espacio vectorial; de hecho basta con verificar tres condiciones, como lo indica el siguiente teorema. Teorema 3.2.1. Sea W un subconjunto de un K−espacio vectorial V. Entonces W es un subespacio de V si y sólo si: 1. W 6= ∅, 2. v, w ∈ W ⇒ v + w ∈ W , 3. c ∈ K y v ∈ W ⇒ cv ∈ W .

3.2. Subespacios

79

Demostración. Si W es un subespacio de V , es claro que se verifican 1, 2 y 3 por definición. Recíprocamente, supongamos que W satisface 1, 2 y 3. Por 1, W es no vacío, mientras que por 2 y 3, las operaciones de suma y producto por escalar están bien definidas sobre W . Además, los axiomas 1, 2, 5, 6, 7 y 8 de la definición de espacio vectorial se verifican en W , puesto que los vectores de W pertenecen a V . Por lo tanto, sólo necesitamos demostrar que los axiomas 3 y 4 también se verifican en W . Como W es no vacío existe u ∈ W . Entonces, por 3, 0u = 0 ∈ W y por lo tanto v + 0 = v para todo v ∈ W . Finalmente, si v ∈ W , entonces por 3, (−1)v = −v ∈ W y v + (−v) = 0. Por lo tanto, W es un subespacio de V . Con este teorema es fácil verificar que el conjunto:    x 2 W = ∈ R | ax + by = 0 y  es un subespacio de R2 (De hecho, W es el espacio nulo de la matriz A = a b ). A partir de un conjunto dado de vectores de un espacio vectorial V , se puede construir un subespacio como se muestra a continuación. Sean v1 , . . . , vn vectores de un K-espacio vectorial V . El conjunto de todas las posibles combinaciones lineales de los vectores vi ’s se denota por hv1 , . . . , vn i o por gen (v1 , . . . , vn ) y se llama subespacio generado por {v1 , . . . , vn }. En ocasiones se escribe h{v1 , . . . , vn }i en vez de hv1 , . . . , vn i. En notación de conjuntos: hv1 , . . . , vn i = {v ∈ V | v es una combinación lineal de v1 , . . . , vn } = {c1 v1 + c2 v2 + · · · + cn vn | c1 , . . . , cn ∈ K} . Es sencillo probar que hv1 , . . . , vn i es un subespacio de V . Primero se observa que hv1 , . . . , vn i es no vacío pues contiene a cada uno los vi ’s que lo genera: Para cada i, 1 ≤ i ≤ n, vi = δi1 v1 + δi2 v2 + · · · + δin vn , donde δij es la delta de Kronecker. Las otras dos condiciones se siguen de: n n n n n X X X X X cj vj + dj v j = (cj + dj )vj , c cj vj = (ccj )vj . j=1

j=1

j=1

j=1

j=1



   2 −1 Ejemplo 3.2.2. Consideremos el espacio vectorial R2 y sean v1 = , v2 = y −4 2   3 v3 = . Es muy fácil construir vectores que estén en el subespacio W = hv1 , v2 , v3 i. Basta −6 elegir tres escalares y formar la correspondiente combinación lineal. Así los vectores     −4 −39 = v1 + 0v2 − 2v3 , = −5v1 + 8v2 − 7v3 , 8 78 son elementos de W . Por otro lado, decidir si un vector dado pertenece  o noal subespacio generado por v1 , v2 2 y v3 , puede ser más complicado. ¿Es el vector w = un elemento de W ? La pregunta −3 se traduce en ¿Existen escalares c1 , c2 , c3 ∈ R tales que w = c1 v1 + c2 v2 + c3 v3 ? Esto lleva a preguntarse si el sistema de ecuaciones lineales 2c1 − c2 + 3c3 = 2 −4c1 + 2c2 − 6c3 = −3 tiene solución. La forma escalonada reducida de la matriz aumentada [A | b] es   1 − 21 32 0 . 0 0 0 1 Se concluye que el sistema de ecuaciones lineales no tiene solución y por lo tanto w ∈ / W.

80

3. Espacios vectoriales

A continuación una de las principales propiedades de los subespacios generados por un conjunto de vectores. Teorema 3.2.3. Sea V un K-espacio vectorial y sean v1 , . . . , vn vectores de V. Entonces el subespacio generado por estos vectores es el menor de todos los subespacios de V que contienen a éstos. Demostración. Previamente se probó que hv1 , . . . , vn i es subespacio de V . Sea W un subespacio de V que contiene a {v1 , . . . , vn }. Debemos demostrar que hv1 , . . . , vn i ⊆ W . Tenemos que c1 v1 , . . . , cn vn ∈ W , donde ci ∈ K, y también c1 v1 + · · · + cn vn ∈ W por ser W un subespacio de V . Así, hv1 , . . . , vn i ⊆ W . A modo de ejemplo describamos analítica y geométricamente el subespacio de R3 generado T T por los vectores v1 = (1, 1, 1) y v2 = (−1, 2, 0) . Por definición: W

=

hv1 , v2 i

=

{c1 v1 + c2 v2 | c1 , c2 ∈ R} n o T (c1 − c2 , c1 + 2c2 , c1 ) | c1 , c2 ∈ R

= T

Ahora bien, (x, y, z) ∈ W si existen escalares c1 , c2 ∈ R tales que x = c1 − c2 , y = c1 + 2c2 y z = c1 . Eliminando c1 y c2 se obtiene 2x + y = 3z. Recíprocamente, si (x, y, z)T ∈ R3 es tal que 2x + y − 3z = 0, entonces y = −2x + 3z. Así:         x x −1 0 y  = −2x + 3z  = (−x)  2  + z 3 = −xv2 + z(v1 + v2 ) = zv1 + (−x + z)v2 , z z 0 1 T

y por lo tanto (x, y, z) ∈ W . Con esto se ha demostrado que W = {(x, y, z)T ∈ R3 | 2x + y − 3z = 0}. Note que W es el espacio nulo de la matriz 2 1 −3 . Observe que también se puede proceder como sigue. Por definición de subespacio generado, w = (x, y, z)T ∈ W si y solamente si existen escalares c1 , c2 tales que     1 1 c1   −1 2 w = c 1 v1 + c 2 v2 = = Ac. c2 1 0 Así W está caracterizado como el conjunto de todos los w ∈ R3 para los cuales el sistema de ecuaciones Ac = w tiene solución; en otras palabras W es el espacio columna de la matriz A. Luego decidir si w ∈ W es equivalente a decidir si w ∈ R(A). Una forma escalonada por renglones de [A | w] es   1 −1 x  0 3 −x + y  , 2 0 0 − 3 x − 13 y + z de donde se sigue que el sistema de ecuaciones Ac = w tiene solución si y solamente si −2x − y + 3z = 0. Geométricamente W es el plano que pasa por el origen determinado por los vectores v1 y v2 . Ejemplo SAGE 3.2.4. Sage tiene la capacidad de operar con espacios y subespacios vectoriales. Para crear un espacio vectorial se pueden usar las siguientes instrucciones. sage : V = RR ^2; V Vector space of dimension 2 over Real Field with 53 bits of precision sage : V = RealField ()^2; V Vector space of dimension 2 over Real Field with 53 bits of precision

3.2. Subespacios

81

Para probar pertenencia: sage : v1 = vector ( RR , [1 , pi ]); v1 (1.00000000000000 , 3.14159265358979) sage : v1 in V True sage : v2 = vector ( CC , [1+ i , - i ]); v2 (1.00000000000000 + 1.00000000000000* I , -1.00000000000000* I ) sage : v2 in V False

Una forma de generar subespacios generados es como sigue (Vea el Ejemplo 3.2.2): sage : sage : sage : True sage : True sage : False

3.2.1.

v1 = vector ([2 , -4]); v2 = vector ([ -1 ,2]); v3 = vector ([ -4 ,8]) W = V . span ([ v1 , v2 , v3 ]) w1 = vector ([ -4 ,8]); w1 in W w2 = vector ([ -39 ,78]); w2 in W w3 = vector ([2 , -3]); w3 in W

Ejercicios

1. Sea V un espacio vectorial sobre un campo K. Pruebe que la intersección de cualquier colección de subespacios de V es nuevamente un subespacio de V. 2. Sea V un espacio vectorial y sean v1 , . . . , vn ∈ V. Pruebe que la intersección de todos los subespacios de V que contienen a {v1 , . . . , vn } es igual al subespacio h{v1 , . . . , vn }i. 3. Sean a1 , . . . , an vectores de Rm . Pruebe que el conjunto:  W = x ∈ Rm | xT ai = 0 para i = 1, . . . , n es un subespacio de Rm . 4. Sea V un espacio y sean v1 , v2 y v3 elementos de V. Suponga que v3 depende linealmente de v1 y v2 , es decir, suponga que existen escalares c1 , c2 tales que v3 = c1 v1 + c2 v2 . Pruebe que h{v1 , v2 , v3 }i = h{v1 , v2 }i . 5. Sea V un espacio vectorial y sean B1 = {v1 , . . . , vr } y B2 = {v1 , . . . , vr , w}. Pruebe que hB1 i = hB2 i si y solamente si w ∈ hB1 i. 6. Describa algebraica y geométricamente el subespacio de R3 generado por (−1, −1, 1) T (−1, 2, 3) .

T

y

7.  Encuentre un conjunto  finito de vectores que genere el espacio nulo de la matriz A = 1 1 −1 1  2 3 2 −1 . Haga lo mismo para el espacio columna y renglón de A. 0 −2 5 1

8. Sea A ∈ K m×n . Pruebe que R(A) = hA∗1 , . . . , A∗n i y que R(AT ) = AT1∗ , . . . , ATm∗ . 9. Sea A ∈ K m×n . Pruebe que si W es un subespacio de K n , entonces A(W ) = {Ax | x ∈ W } es un subespacio de K m . Pruebe que si W = hv1 , . . . , vr i, entonces A(W ) = hAv1 , . . . , Avr i.

82

3. Espacios vectoriales

10. Sea W un subespacio no nulo de R2 . Pruebe que W = R2 o bien W = {( xy ) ∈ R2 | ax+by = 0} para algunos a, b ∈ R. 11. Sean A ∈ K m×n y B ∈ K n×p . Pruebe que el espacio columna de AB está generado por {AB∗1 , . . . , AB∗p }.       1 1 −1 3 0 1 12. Determine si los vectores v1 = , v2 = , v3 = y v4 = 1 1 0 4 3 −1   0 0 generan R2×2 , el espacio de las matrices cuadradas de 2 × 2. 0 1 13.

a) Sean K un campo y n un entero positivo. Pruebe que el conjunto K[t]n que consta de los polinomios de grado menor que n es un subespacio vectorial del espacio de polinomios K[t]. b) Determine cuáles de los siguientes polinomios de R [t]3 pertenencen al subespacio de R [t]3 generado por p1 (t) = t + t2 y p2 (t) = 1 + t. i) p(t) = −2 − t − t2 ii) p(t) = 1 − 4t + t2 iii) p(t) = 10 − 2t + 8t2 . T

T

14. Determine si R3 está generado por los vectores v1 = (2, 3, 1) , v2 = (3, 4, 2) , v3 = T T (0, 1, 3) y v4 = (1, 3, −1) . 15. Si U y W son subespacios de un espacio V, pruebe que el conjunto U + W = {u + w | u ∈ U, w ∈ W } es un subespacio de V . Pruebe además que U + W es el menor de todos los subespacios de V que contienen a U ∪ W . El subespacio U + W es la suma de los subespacios U y W. 16. Sea V un espacio vectorial. Si B1 genera a U y B2 genera a W , pruebe que B1 ∪ B2 genera a U + W , i.e., pruebe que gen (B1 ∪ B2 ) = gen (B1 ) + gen (B2 ). 17. En R3 , considere los subespacios: n x  o n x  o y y U= |x+y+z =0 y V = | 2x − y + z = 0 . z

z

a) Describa explícitamente el subespacio U ∩ V. b) ¿Es U ∪ V un subespacio de R3 ? c) Verifique que R3 = U + V. 18. Sean A y B matrices de m × n y m × p, respectivamente. Pruebe que el espacio columna de la matriz [A | B] es la suma de los espacios columna de A y de B. En símbolos, pruebe que R([A | B]) = R(A) + R(B). 19. Determine cuáles de los siguientes subconjuntos de Rn×n son subespacios. a) Las matrices simétricas. b) Las matrices antisimétricas. c) Las matrices no singulares. d) Las matrices singulares. e) Las matrices triangulares superiores. f) Las matrices triangulares inferiores. g) Todas las matrices que conmutan con una matriz dada A. h) Las matrices idempotentes (una matriz es idempotente si A2 = A).

3.3. Dependencia e independencia lineal

83

i) Las matrices cuya traza es cero. j) Las matrices diagonales. 20. Sea V un espacio vectorial y sea W un subespacio de V. Defina la siguiente relación en V : v ∼ w si v − w ∈ W. Pruebe que ∼ es una relación de equivalencia. Denote con [v] la clase de equivalencia de v ∈ V. Es decir [v] = {w ∈ V | w − v ∈ W } . Sea V /W el conjunto cociente, es decir, el conjunto formado por todas las clases de equivalencia de esta relación. Defina en V /W las siguientes operaciones: [v] + [w] = [v + w] ; c [v] = [cv] . Pruebe que estas operaciones están bien definidas y que V /W es un espacio vectorial con estas operaciones. V /W se denomina espacio vectorial cociente. 21. Sean W1 y W2 dos K-espacios vectoriales y sea V = W1 × W2 su producto directo. Sea W = W1 ×0 = {(w1 , 0) | w1 ∈ W1 }. Pruebe que V /W = {W1 ×w2 | w2 ∈ W2 }, es decir, pruebe que cada elemento del espacio cociente V /W es [(w1 , w2 )] = W1 ×w2 = {(w10 , w2 ) | w10 ∈ W1 }.

3.3.

Dependencia e independencia lineal

En esta sección se estudia el concepto de dependencia e independencia lineal de vectores. Sea V un K-espacio vectorial y sean v1 , . . . , vn vectores de V . Se dice que un vector v ∈ V depende linealmente de los vectores vi , si v se puede escribir como combinación lineal de los vi . El vector 0 de V depende linealmente, aunque de manera trivial, de cualquier conjunto de vectores, pues 0 = 0v1 + 0v2 + · · · + 0vn . Dado un subconjunto S de vectores de V , uno está interesado en determinar si el vector cero depende linealmente, de manera no trivial, de los vectores de S. Considere en el plano cartesiano los siguientes subconjuntos de vectores:      1 2 S1 = v1 = , v2 = , 2 4        7 2 −19 S2 = w1 = , w2 = , w3 = . −4 9 92 Observe que el vector cero de R2 se puede escribir de manera no trivial como combinación lineal tanto de v1 y v2 como de los vectores wi : 2v1 + (−1) v2

=

0,

5w1 − 8w2 + w3

=

0.

T

T

T

Los vectores v1 = (−8, 4, 6, −10) , v2 = (9, 6, −12, 18) y v3 = (41, 4, −43, 67) de R4 satisfacen una propiedad similar, es decir, el cero es una combinación lineal no trivial de ellos: 15v1 − 14v2 + 6v3 = 0. Un último ejemplo, ahora con vectores de R [t]3 . Considere los polinomios p1 = 2 + 3t − 5t2 , p2 = −3 + 5t − 6t2 , p3 = −19 + 7t2 y p4 = −24 + 2t + 6t2 . En este caso, se tiene que: 15p1 − 11p2 − 3p3 + 5p4 = 0. Ahora bien, dada una colección de vectores no siempre es posible hallar una combinación lineal no trivial que de como resultado el vector cero. Por ejemplo, en R [t]3 no es posible hallar una

84

3. Espacios vectoriales

combinación lineal no trivial de los vectores 1, 1 + t, 1 + t + t2 que de como resultado el polinomio cero. En efecto, si suponemos que existen c1 , c2 y c3 tales que:  c1 (1) + c2 (1 + t) + c3 1 + t + t2 = 0 + 0t + 0t2 entonces se debe cumplir: c1 + c2 + c3

=

0,

c2 + c3

=

0,

c3

=

0,

lo cual implica que c1 = c2 = c3 = 0. Con estos ejemplos queda ilustrado que dado un conjunto de vectores solamente hay dos posibilidades: a) Es posible hallar una combinación lineal no trivial de los vectores cuyo resultado sea el vector cero, o b) la única combinación lineal que da como resultado el vector cero es con todos los escalares iguales a cero. Definición 3.3.1. Sea V un espacio vectorial sobre un campo K. Se dice que un conjunto no vacío S = {v1 , . . . , vn } de vectores de V es linealmente dependiente si existen escalares c1 , . . . , cn no todos cero tales que c1 v1 + · · · + cn vn = 0. Se dice que S es linealmente independiente si no es linealmente dependiente. Ejemplo 3.3.2. Sea V un K-espacio vectorial y sea S = {v1 , . . . , vn } ⊂ V . Que S sea linealmente dependiente es equivalente a decir que al menos un vector vj ∈ S que depende linealmente de los otros. En efecto, suponga que existen escalares c1 , . . . , cn con cj 6= 0 tales que P c1 v1 + · · · + cn vn = 0; entonces vj P = i6=j (c−1 j ci )vi . Recíprocamente, si vj depende linealmente de los otros vectores de S y vj = i6=j xi vi , entonces x1 v1 + · · · + (−1)vj + · · · + xn vn = 0 y S es linealmente dependiente. Aunque las definiciones de dependencia e independencia lineal se expresan en términos de conjuntos finitos de vectores, podemos extender los conceptos a conjuntos infinitos de la siguiente manera. Definición 3.3.3. Un conjunto S de vectores en un espacio vectorial V es linealmente dependiente si contiene un subconjunto finito linealmente dependiente. Un conjunto de vectores que no es linealmente dependiente se dice que es linealmente independiente. A manera de ejemplo, demostremos que en el espacio vectorial de todos los polinomios con coeficientes reales, R[t], el conjunto S = {1, t, t2 , . . .} es linealmente independiente. Para ello, supongamos por contradicción que S es linealmente dependiente. Entonces, existe un subconjunto finito T de S que es linealmente dependiente, digamos T = {tm1 , tm2 , . . . , tmr } con m1 < m2 < · · · < mr . Entonces, existen escalares cm1 , cm2 , . . . , cmr no todos cero tales que: cm1 tm1 + cm2 tm2 + · · · + cmr tmr = 0. Por definición un polinomio es cero, si y sólo si todos sus coeficientes son cero. Por lo tanto cmi = 0 para i = 1, . . . , r, lo cual es una contradicción. Por lo tanto, S es linealmente independiente. Note que esta prueba es aplicable independientemente de la naturaleza del campo K. Teorema 3.3.4. Sean V un K-espacio vectorial y S un subconjunto de V .

3.3. Dependencia e independencia lineal

85

1. Si S0 ⊂ S y S0 es linealmente dependiente, entonces S es linealmente dependiente. 2. Si S es linealmente independiente y S0 ⊂ S, entonces S0 es linealmente independiente. 3. Si 0 ∈ S, entonces S es linealmente dependiente. 4. {v} ⊆ V es linealmente independiente si y sólo si v 6= 0. 5. Sea v ∈ V . Si S es finito y linealmente independiente, entonces S ∪ {v} es linealmente independiente si y sólo si v ∈ / hSi. Demostración. 1. Si S0 es linealmente dependiente, entonces S0 contiene un subconjunto finito linealmente dependiente. Como S0 ⊂ S, se sigue que S contiene un subconjunto finito linealmente dependiente y por lo tanto S es linealmente dependiente. 2. Es la contrapositiva de la proposición del inciso anterior. 3. Para todo c ∈ K con c 6= 0, tenemos que c · 0 = 0. Luego, el conjunto {0} ⊂ S es linealmente dependiente y por lo tanto S es linealmente dependiente. 4. Demostraremos, de manera equivalente, que {v} ⊂ V es linealmente dependiente si y sólo si v = 0. Según el inciso anterior, tenemos que si v = 0, entonces {v} es linealmente dependiente. Supongamos entonces que {v} es linealmente dependiente. En este caso, existe c ∈ K, c 6= 0, tal que c · v = 0. Luego, por el Teorema 3.1.5 se sigue que v = 0. 5. Sea S = {v1 , . . . , vn } linealmente independiente y sea v ∈ V . Demostraremos, de manera equivalente, que S ∪ {v} es linealmente dependiente si y sólo si v ∈ hSi. En efecto, si S ∪ {v} es linealmente dependiente, entonces existen escalares no todos cero c1 , . . . , cn , c tales que c1 v1 + · · · + cn vn + cv = 0. Si c = 0, entonces c1 v1 + · · · + cn vn = 0 y por lo tanto c1 = · · · = cn = 0, pues S es linealmente independiente. Luego, c 6= 0. De aquí que v = − cc1 v1 − cc2 v2 − · · · − ccn vn ∈ hSi. Recíprocamente, si v ∈ hSi, entonces existen escalares c1 , . . . , cn tales que v = c1 v1 + · · · + cn vn . Luego, v − c1 v1 − · · · − cn vn = 0 y por lo tanto, S ∪ {v} es linealmente dependiente.       1 0 0 0 0 1 Ejemplo 3.3.5. Determine si las matrices v1 = , v2 = y v3 = son 0 0 0 1 1 0 linealmente dependientes o independientes. Supóngase que es posible hallar escalares c1 , c2 , c3 tales que: c1 v1 + c2 v2 + c3 v3 = 0. Esta ecuación implica que:  c1 c3

c3 c2



 =

0 0

 0 , 0

y por tanto c1 = c2 = c3 = 0. Así los vectores dados son linealmente independientes.      1 0  −1   1       Ejemplo 3.3.6. Determine si los vectores v1 =   2 , v2 =  −3 , v3 =  4 1   1  1  4  v4 =   0  de R son linealmente dependientes o independientes. 0

 3 −5  y 12  10

86

3. Espacios vectoriales Se procede igual que antes. Supongamos que existen escalares c1 , c2 , c3 , c4 tales que: c1 v1 + c2 v2 + c3 v3 + c4 v4 = 0.

Entonces: 

1  −1   2 4 Al resolver el sistema se tiene: 

0 1 −3 1

1 0  0 1   0 0 0 0

 c1 3 1  c2 −5 1   12 0   c3 c4 10 0

 c1 3 1  c2 −2 2   0 4   c3 c4 0 0



 0   0   =  .   0  0 

 0   0   =   0 . 0 



Luego, el sistema tiene infinidad de soluciones, por ejemplo −3v1 + 2v2 + v3 + 0v4 = 0. Por lo tanto el conjunto de vectores dado es linealmente dependiente. Cuando se trata de determinar si conjunto dado de vectores es linealmente independiente o no, con frecuencia el problema se reduce a determinar si las columnas de una cierta matriz son linealmente independientes o no. El siguiente teorema proporciona un criterio para determinar cuando las columnas de una matriz son linealmente independientes. Teorema 3.3.7. Sea A ∈ K m×n . Las siguientes afirmaciones son equivalentes: 1. Las columnas de A son linealmente independientes. 2. N (A) = {0}. 3. rango (A) = n. Demostración. La equivalencia de 2 y 3 se sigue del Teorema 1.5.4. Demostraremos sólo la equivalencia de 1 y 2. Sea A = [A∗1 | . . . | A∗n ] y supongamos que las columnas de A son linealmente independienT tes. Sea x = (x1 , . . . , xn ) ∈ N (A). Entonces: x1

0 = Ax = [A∗1 | . . . | A∗n ]

.. .

! = x1 A∗1 + · · · + xn A∗n ,

xn

de donde se sigue que x1 = · · · = xn = 0. Es decir, x = 0. Por lo tanto, N (A) = {0}. Recíprocamente, supongamos que N (A) = {0}. Sean x1 , . . . , xn escalares tales que x1 A∗1 + T · · · + xn A∗n = 0. Esta igualdad es equivalente a la igualdad Ax = 0 donde x = (x1 , . . . , xn ) . Luego, x ∈ N (A) y por lo tanto x = 0. De aquí que x1 = · · · = xn = 0 y así, las columnas de A son linealmente independientes. Una consecuencia del teorema anterior es que cualquier conjunto de n vectores en K m es linealmente dependiente si n > m, pues el sistema Ax = 0 asociado tiene más incógnitas que ecuaciones y por lo tanto el sistema homogéneo tiene más de una solución. Teorema 3.3.8. Sea A ∈ K n×n . Entonces, det(A) 6= 0 si y sólo si las columnas de A son linealmente independientes.

3.3. Dependencia e independencia lineal

87

Demostración. Supongamos que las columnas de la matriz A son linealmente dependientes. Entonces alguna P columna de A se puede escribir como combinación lineal de las otras. Supongamos que A∗j = i6=j xi A∗i para algún j, con 1 ≤ j ≤ n. Entonces: det (A)

= =

det (A∗1 | . . . | A∗j | . . . | A∗n )   X det A∗1 | . . . | xi A∗i | . . . | A∗n  i6=j

=

X

xi det (A∗1 | . . . | A∗i | . . . | A∗n )

i6=j

=

X

xi · 0 = 0.

i6=j

Esto prueba que si det (A) 6= 0, entonces las columnas de A son linealmente independientes. Supongamos ahora que las columnas de A son linealmente independientes. Por el teorema anterior, tenemos que el rango de A es n y por lo tanto, A es invertible. Es decir, det (A) 6= 0. Es importante trabajar con conjuntos linealmente independientes, pues se evitan redundancias. Un ejemplo aclararáesto. En R [t]3 el conjunto 1 + t, 1 − t + t2 es linealmente independiente. En este caso, el polinomio 5 − t + 3t2 se puede escribir como combinación lineal de 1 + t y 1 − t + t2 de una única forma, a saber:  5 − t + 3t2 = 2 (1 + t) + 3 1 − t + t2 . Esta afirmación se verifica fácilmente planteando el sistema correspondiente y cerciorándose que la solución es única. Por otro lado, se mostró anteriormente que los vectores p1 = 2 + 3t − 5t2 , p2 = −3 + 5t − 6t2 , p3 = −19 + 7t2 y p4 = −24 + 2t + 6t2 son linealmente dependientes. El vector p = 15 − 6t + 3t2 se puede escribir como combinación lineal de estos vectores por ejemplo: p = p1 − p2 + 2p3 − 2p4 = 9p1 − 7p2 + 0p3 + p4 Se tiene el siguiente teorema. Teorema 3.3.9. Sea {v1 , . . . , vn } un conjunto linealmente independiente de vectores de un espacio vectorial V. La representación de cada vector v ∈ hv1 , . . . , vn i como combinación lineal de estos vectores es única. Demostración. Supongamos que v se puede escribir de dos formas distintas como combinación lineal de v1 , v2 , . . . , vn . Es decir: v

= c1 v1 + c2 v2 + · · · + cn vn ,

v

= c01 v1 + c02 v2 + · · · + c0n vn .

Entonces, (c1 − c01 )v1 + (c2 − c02 )v2 + · · · + (cn − c0n )vn = 0. Como los vectores v1 , v2 , . . . , vn son linealmente independientes, se sigue que ci − c0i = 0 para cada i = 1, 2, . . . , n. Por lo tanto ci = c0i para cada i = 1, 2, . . . , n y así la representación de v es única.

3.3.1.

Ejercicios

1. Suponga que los vectores v1 , v2 , v3 de un espacio vectorial V son linealmente independientes. Pruebe que los vectores w1 = v1 , w2 = v1 + v2 , w3 = v1 + v2 + v3 son linealmente independientes. Pruebe que el recíproco también es cierto. 2. Sea V un espacio vectorial real y sean v1 , v2 ∈ V vectores linealmente independientes. Pruebe que los vectores w1 = 2v1 + 5v2 y w2 = v1 + 3v2 son linealmente independientes.

88

3. Espacios vectoriales

3. Sean v1 , v2 , . . . , vm en Rn vectores no nulos tales que vit vj = 0 para i 6= j. Pruebe que {v1 , v2 , . . . , vm } es un conjunto linealmente independiente. 4. De una interpretación geométrica al hecho de que tres vectores no nulos v1 , v2 , v3 de R3 sean linealmente independientes.         2 4 0 −6  3   0   1   6  4        5. Sean v1 =   1 , v2 =  1 , v3 =  0  y v4 =  −1  elementos de R . Pruebe que 0 2 1 −1 v4 ∈ hv1 , v2 , v3 i. 6. Determine los valores de x para que el siguiente conjunto de R3 sea linealmente independiente:       1 −1   1  2 ,  x − 1 ,  2  .   1 −1 1 T

T

7. Sea W el subespacio de R3 generado por los vectores v1 = (1, 2, 1) , v2 = (3, 6, 3) , T T v3 = (4, 2, 1) y v4 = (11, 4, 2) . Pruebe que el conjunto S = {v1 , v2 , v3 , v4 } es linealmente dependiente y que existe un subconjunto de S que es linealmente independiente y que genera a W. 8. Sea V un espacio vectorial. Sean v1 , v2 , . . . , vk−1 , vk vectores distintos de V . Pruebe que {v1 , . . . , vk } es linealmente dependiente si vk ∈ hv1 , v2 , . . . , vk−1 i. Pruebe que el recíproco no es cierto. 9. Sea V un espacio vectorial. Suponga que v1 , . . . , vn son vectores linealmente independientes de V y que v es un vector que no pertenece al subespacio generado por los vectores v1 , . . . , vn , es decir, v ∈ / hv1 , . . . , vn i . Pruebe que {v1 , . . . , vn , v} es linealmente independiente. √ 10. Considere el campo Q( 2) (Vea el Ejemplo A.1.3) como Q-espacio vectorial. Pruebe que √ {1, 2} es linealmente independiente. 11. Si {v1 , . . . , vn } es un conjunto linealmente dependiente de vectores de un espacio V y v1 6= 0, pruebe que existe un vector vj con j ≥ 2 tal que vj ∈ h{v1 , . . . , vj−1 }i . 12. Considere la matriz de Vandermonde de m × n:   1 x1 x21 . . . xn−1 1 1 x2 x22 . . . xn−1  2   m×n Vm×n =  . .. .. ..  ∈ C . . . . ··· .  1 xm x2m . . . xn−1 m donde xi 6= xj si i 6= j. Pruebe que si n ≤ m, entonces las columnas de Vm×n son linealmente independientes. (Sugerencia: Suponga que N (Vm×n ) 6= {0}; encuentre un polinomio f ∈ C[t] de grado a lo más n − 1 tal que f (xi ) = 0. Proceda por cuenta propia). 13. Suponga que los vectores v1 , . . . , vr de K n son linealmente independientes. Pruebe que si P ∈ K n×n es invertible, entonces los vectores P v1 , . . . , P vr son linealmente independientes. 14. Sea A ∈ K m×n una matriz de rango n. Pruebe que si los vectores v1 , . . . , vr de K n son linealmente independientes, entonces Av1 , . . . , Avr son vectores linealmente independientes de K m .

3.4. Bases y dimensión

89

15. Sean v1 , . . . , vn vectores de K m . Pruebe que si n > m, entonces {v1 , . . . , vn } es un conjunto linealmente dependiente. 16. Pruebe que las columnas de una matriz cuadrada A ∈ Cn×n diagonalmente dominante1 son linealmente independientes. (Sugerencia: Demuestre, de manera equivalente, que N (A) = {0}. Para ello suponga que existe x 6= 0 tal que Ax = 0 y suponga que xk es la entrada de magnitud máxima en x, es decir, |xk | ≥ |xi | para i = 1, 2, . . . , n. Estime el valor de |akk xk | usando la desigualdad del triángulo y llegue a una contradicción). 17. Sea V el espacio vectorial de las matrices de tamaño 2 × 2 sobre el campo finito Fp con p número primo, y sea: S = {A ∈ V | det(A) 6= 0}. Demuestre que S tiene p(p − 1)2 (p + 1) elementos. (Sugerencia. Dada A ∈ V , demuestre que det(A) = 0 si y sólo si los renglones de A son linealmente dependientes. Use esto para calcular |S|).

3.4.

Bases y dimensión

Uno de los invariantes más importantes asociados a un espacio vectorial es su dimensión. Definición 3.4.1. Sea V un espacio vectorial. Una base para V es un subconjunto de V que es linealmente independiente y genera a V . Que un conjunto de vectores genere a un espacio vectorial significa que el subespacio vectorial generado por esos vectores coincida con todo el espacio. En símbolos, decir que el conjunto β genera a V significa que V = hβi. El que una colección de vectores genere o no genere a un espacio vectorial no está ligado a la dependencia lineal o independencia lineal de éstos. Por ejemplo, el conjunto {p1 = 2+3t−5t2 , p2 = −3+5t−6t2 , p3 = −19+7t2 , p4 = −24+2t+6t2 } es linealmente dependiente, en tanto que el conjunto {1+t, 1−t+t2 } es linealmente independiente, pero ninguno genera al espacio vectorial R [t]3 . De hecho, hp1 , p2 , p3 , p4 i = {a + bt + ct2 | 7a + 27b + 19c = 0} y h1 + t, 1 − t + t2 i = {a + bt + ct2 | a − b − 2c = 0}. Por otro lado, los conjuntos β = {1, t, t2 } y β 0 = {1, 1 + t, 1 + t + t2 , 4 + 2t + 5t2 } generan a R[t]3 , siendo β una base en tanto que β 0 no. A continuación se presentan más ejemplos. T

T

1. Cada uno de los conjuntos β1 = {e1 , e2 } y β2 = {(−1, 1) , (−1, 0) son bases para R2 . T Cada uno genera a R2 y es linealmente independiente. En cambio el conjunto {(1, 1) } no T genera a R2 . Por ejemplo, e1 no es combinación lineal de (1, 1) .       1 0 0 0 0 1 2. El conjunto , , no es una base para R2×2 pues aunque el conjunto 0 0 0 1 1 0 es  linealmente  independiente, éste no genera al espacio. Por ejemplo, es fácil verificar que 1 2 no es combinación lineal de los vectores dados. El conjunto −2 1         1 0 0 1 0 0 0 0 , , , 0 0 0 0 1 0 0 1 sí es una base para R2×2 . Teorema 3.4.2. Sea V un espacio vectorial generado por un conjunto finito de m vectores v1 , . . . , vm . Entonces todo conjunto linealmente independiente de vectores de V es finito y además no contiene más de m elementos. 1 Una

matriz A ∈ Cn×n es diagonalmente dominante si para cada i = 1, 2, . . . , n se tiene |aii | >

P j6=i

|aij |.

90

3. Espacios vectoriales

Demostración. Demostraremos de manera equivalente que todo subconjunto S de V que contiene más de m vectores es linealmente dependiente. En efecto, sea S = {w1 , w2 , . . . , wn } con n > m, un subconjunto de V . Como {v1 , v2 , . . . , vm } genera a V , existen escalares aij tales que: w1 w2

= =

a11 v1 + a21 v2 + · · · + am1 vm = a12 v1 + a22 v2 + · · · + am2 vm =

m X i=1 m X

ai1 vi , ai2 vi ,

i=1

.. . wn

=

a1n v1 + a2n v2 + · · · + amn vm =

m X

ain vi .

i=1

Por otra parte, como n > m tenemos que el rango de la matriz A = (aij ) es a lo más m y por T lo tanto el sistema homogéneo Ax = 0 tiene solución Pnno trivial x = (x1 , . . . , xn ) . Es decir, existen escalares no todos cero x1 , . . . , xn tales que j=1 aij xj = 0 para cada i = 1, 2, . . . , m. Luego: x1 w1 + · · · + xn wn

=

n X

xj w j =

j=1

=

n X j=1

xj

m X

aij vi

i=1

  m m n n X X X X  (aij xj )vi = aij xj  vi = 0, j=1 i=1

i=1

j=1

y por lo tanto, S es linealmente dependiente. Corolario 3.4.3. Sea V un espacio vectorial no nulo. Si β y β 0 son dos bases finitas de V , entonces |β| = |β 0 |. Demostración. Supongamos que |β| = m y |β 0 | = n. Entonces, por el teorema anterior |β 0 | ≤ m y |β| ≤ n. Es decir, n ≤ m ≤ n, de donde m = n. Este corolario permite definir la dimensión de un espacio vectorial no nulo, como el número de elementos de una base cualquiera de V . Se indicará la dimensión de un espacio V no nulo por dim V . Si V es un espacio vectorial sobre un campo K, el subespacio nulo de V es generado por el vector 0, pero {0} es un conjunto linealmente dependiente y no es una base. Por esta razón se conviene que el subespacio nulo tenga dimensión 0. Corolario 3.4.4. Sea V un espacio vectorial no nulo de dimensión finita y sea n = dim V . Entonces: 1. Todo subconjunto de V con más de n vectores es linealmente dependiente. 2. Ningún subconjunto de V con menos de n vectores puede generar a V. Demostración. El inciso 1 se sigue del Teorema 3.4.2. Para demostrar el inciso 2, supongamos que S es un subconjunto de V con m vectores tal que hSi = V y m < n. Como dim V = n, el Teorema 3.4.2 implica que n ≤ m, lo cual es una contradicción. Por lo tanto, ningún subconjunto de V con menos de n vectores puede generar a V . Corolario 3.4.5. Sea V un espacio vectorial de dimensión n.

3.4. Bases y dimensión

91

1. Todo conjunto linealmente independiente con exactamente n vectores de V , es una base para V. 2. Todo conjunto generador de V compuesto de exactamente n vectores, es una base para V . Demostración. Sea V un espacio vectorial de dimensión n. 1. Sea S ⊂ V un conjunto linealmente independiente con exactamente n vectores. Supongamos que S no genera a V . Entonces, existe v ∈ V tal que v 6∈ hSi. Luego, por el Teorema 3.3.4 inciso 5, tenemos que S ∪ {v} es linealmente independiente. Como v 6∈ hSi, se sigue que v 6∈ S y por lo tanto S ∪ {v} es un conjunto linealmente independiente con exactamente n + 1 elementos. Pero esto no puede ser, pues dim V = n. Por lo tanto, S genera a V y así, S es base de V . 2. Supongamos que S = {v1 , . . . , vn } ⊂ V tiene exactamente n vectores y genera a V . Si S es linealmente dependiente, entonces existe vi ∈ S que es combinación lineal de v1 , . . . , vi−1 , vi+1 , . . . , vn . Como todo vector de V es combinación lineal de v1 , . . . , vn , se sigue que todo vector de V es combinación lineal de v1 , . . . , vi−1 , vi+1 , . . . , vn . Es decir, V está generado por n − 1 vectores. Esto es una contradicción, pues por el corolario anterior ningún conjunto con menos de n vectores puede generar a V . Por lo tanto, S es linealmente independiente y en consecuencia, es una base para V . Las dimensiones de los espacios vectoriales K n , K m×n y K [t]n , todos sobre el campo K, son n, mn y n, respectivamente. En efecto, el conjunto {e1 , . . . , en } es una base para K n . Para el segundo caso, sea Eij la matriz que tiene un uno en la posición (i, j) y cero en todas las demás posiciones. Entonces el conjunto:  Eij ∈ K m×n | i = 1, . . . , m, j = 1, . . . , n ,  es una base para K m×n . Finalmente, una base para K [t]n es 1, t, . . . , tn−1 . Nos referiremos a estas bases como las bases canónicas. Corolario 3.4.6. Si W es un subespacio de un espacio vectorial V de dimensión finita, todo subconjunto linealmente independiente de W es finito y es parte de una base (finita) de W . Demostración. Supongamos que dim V = n. Sea S un subconjunto linealmente independiente de W . Como W es un subespacio de V , se sigue que S es un subconjunto linealmente independiente de V . Luego, por el Teorema 3.4.2 se sigue que S tiene a lo más n elementos. Extenderemos S a una base de W como sigue. Si S genera a W , entonces S es una base de W y terminamos. Si S no genera a W , entonces existe un vector v1 ∈ W tal que v1 6∈ hSi y por el Teorema 3.3.4 inciso 5, el conjunto S1 = S ∪ {v1 } ⊂ W es linealmente independiente. Si S1 genera a W terminamos. Si no, aplicamos nuevamente el Teorema 3.3.4 inciso 5, para obtener un vector v2 ∈ W tal que S2 = S1 ∪ {v2 } ⊂ W es linealmente independiente. Continuando de esta forma, obtenemos un conjunto Sm = S ∪ {v1 , . . . , vm } ⊂ W linealmente independiente que genera a W con a lo más dim V = n elementos. Por lo tanto, S es parte de una base (finita) Sm de W . Ejemplo 3.4.7. Extienda el conjunto {1 + t, 1 − t} a una base para R[t]3 . Primero advierta que {1+t, 1−t} es linealmente independiente (¿por qué?). Como dim R[t]3 = 3, necesitamos un tercer vector que no sea linealmente dependiente con los primeros dos. Podríamos proceder mediante el método de ensayo y error. Sin embargo, en la práctica es más fácil proceder de manera distinta. Extenderemos el conjunto dado de vectores mediante la inclusión de la base canónica de R[t]3 , lo cual nos da: S = {1 + t, 1 − t, 1, t, t2 }.

92

3. Espacios vectoriales

Ahora, S es linealmente dependiente según el Corolario 3.4.4, de modo que necesitamos descartar algunos vectores (en este caso, dos). Debido a que 1 = 12 (1 + t) + 12 (1 − t), el conjunto {1 + t, 1 − t, 1} es linealmente dependiente, de manera que eliminamos el 1. En forma similar, t = 21 (1 + t) − 12 (1 − t), de modo que {1 + t, 1 − t, t} también es linelamente dependiente. Por último verificamos que {1 + t, 1 − t, t2 } es linealmente independiente (¿puede pensar en una forma rápida para sustentar esta afirmación?). Por lo tanto, {1 + t, 1 − t, t2 } es una base para R[t]3 que extiende a {1 + t, 1 − t}. Corolario 3.4.8. Sea V un espacio vectorial de dimensión finita y sea W un subespacio de V. Entonces: 1. dim W ≤ dim V . 2. dim W = dim V si y sólo si W = V. Demostración. Podemos suponer que W 6= {0}. 1. Sea v ∈ W con v 6= 0. Por el corolario anterior, existe una base de W que contiene al subconjunto linealmente independiente {v} y que tiene a lo más dim V elementos. Luego, W es de dimensión finita y dim W ≤ dim V . 2. Si W = V , es claro que dim W = dim V . Supongamos entonces que las dimensiones de W y V son iguales, es decir, dim W = dim V = n. Como W ⊂ V , basta demostrar que V ⊂ W . Si V 6⊂ W , entonces existe v ∈ V tal que v 6∈ W . Sea β una base de W . Como W = hβi y v 6∈ W , el Teorema 3.3.4 inciso 5 implica que β ∪ {v} es un subconjunto de V linealmente independiente. Pero esto es una contradicción, pues β ∪ {v} tiene n + 1 elementos y según el Corolario 3.4.4 inciso 1, todo subconjunto de V con más de dim V = n elementos es linealmente dependiente. Por lo tanto, V ⊂ W y así W = V . Si V no es de dimensión finita y W es un subespacio de V , puede suceder que dim W = dim V y que W 6= V . (Véase el Ejercicio 16).

3.4.1.

Ejercicios

1. Para cada una de las siguientes matrices, encuentre bases para cada uno de los cuatro espacios fundamentales   1   −1 1 − 12 −1 2 2 −2 1 −1  −1  1 −1 −1 −1 1   ,  −1 1 − 12 . 2  2 −2 −1 1 2  1 1 −1 − 12 2 1 −1 1 1 1 2. Encuentre una base para el subespacio vectorial de R4 generado por el conjunto    1        1 −1 1  2 −2       1   2   −2   1  −1           S=  , , , , . 2   2   −2   12   2       −1 2 1 −1 2 3. Determine si el conjunto     18   −6 B =  5 , 3    5 3

3.4. Bases y dimensión

93

es o no es una base para el espacio generado por el conjunto       1 1   −4 S =  −1  ,  −1  ,  9  .   −1 −1 9 4. Sea V el espacio vectorial de las matrices 2 × 2 sobre el campo K. Demuestre que V tiene dimensión 4, encontrando una base de V que tenga cuatro elementos. 5. Determine si los siguientes vectores linealmente independientes o linealmente dependientes, en el correspondiente espacio vectorial.       1 2 1  2   −1   1       a) En R4 ,   −1  ,  1  ,  −2 . 1 −1 −1       1 4 −7 b) En R3 ,  2  ,  8  ,  −14 . −1 −4 −7 c) En R2×2 ,  √   1850 2 1 , 5 2 3

−10 23

    exp (−3) 2 π , , 5 −1 0

−4 2

  ,

14 1 − ln 5 1

 .

6. Sea β es una base de R4 . Verifique que la afirmación Si W 6= {0} es un subespacio de R4 , entonces algún subconjunto de β es una base de W es falsa dando un contraejemplo. 7. Nuevamente sea V el espacio vectorial de las matrices 2 × 2 sobre el campo K. Encuentre una base {A1 , A2 , A3 , A4 } de V , de modo que A2j = Aj para j = 1, 2, 3, 4. 8. Sea V un espacio vectorial. Suponga que hay un número finito de vectores v1 , v2 , . . . , vr en V que generan V . Demuestre que V es de dimensión finita. 9. Extienda el conjunto linealmente independiente {1 + t, 1 + t + t2 } a una base para R[t]3 .     0 1 1 1 10. Extienda el conjunto linealmente independiente { , } a una base para R2×2 . 0 1 0 1       1 0 0 1 0 −1 11. Extienda el conjunto linealmente independiente { , , } a una 0 1 1 0 1 0 base para R2×2 .     1 0  0   0     12. Los vectores v1 =   −1  y v2 =  1  son linealmente independientes. Determine un 2 −2 par de vectores v3 , v4 tales que β = {v1 , v2 , v3 , v4 } sea una base para R4 . 13. Encuentre 3 vectores en R3 que sean linealmente dependientes y tales que dos cualesquiera de ellos sean linealmente independientes.  14. Determine una base y la dimensión del espacio vectorial real V = A ∈ R3×3 | A = −AT . 15. Encuentre las dimensiones de cada uno de los siguientes subespacios vectoriales de K 2×2 . a) El subespacio de todas la matrices cuya traza es cero.

94

3. Espacios vectoriales b) El subespacio de todas matrices simétricas. Generalice el resultado a matrices de n × n.

16. Sean V = R[t] y W = {tp(t) | p(t) ∈ V }. Demuestre que W es un subespacio de V tal que dim W = dim V y W 6= V . ¿Contradice esto el Corolario 3.4.8? 17. Sea V el conjunto de los números reales. Considere V como un espacio vectorial sobre el campo de los números racionales, con las operaciones usuales. Demuestre que este espacio vectorial V no es de dimensión finita. 18. Sean A ∈ K m×n y W un subespacio de K n . Pruebe que si W ∩ N (A) = {0}, entonces dim A(W ) = dim W , donde A(W ) = {Aw | w ∈ W }. 19. Sea V = R[t] y sea W el subespacio de V que consiste de todos los polinomios divisibles por (t + 2)2 . Demuestre que W es un subespacio de V y que dim V /W = 2. (Sugerencia: Si f (t) ∈ V , por el algoritmo de la división para polinomios, f (t) = (t + 2)2 q(t) + r(t), donde r(t) es un polinomio de grado menor que 2. Entonces f (t) − r(t) ∈ W ). Para la definición de espacio cociente, consulte el Ejercicio 20 de la Sección 3.2. 20. Sea V un espacio vectorial de dimensión finita y sea W un subespacio de V . Demuestre que dim V /W = dim V − dim W . (Sugerencia: Sea {w1 , . . . , wr } una base para W y sean wr+1 , . . . , wn ∈ V tales que {w1 , . . . , wn } es una base para V . Pruebe que {[wr+1 ], . . . , [wn ]} es una base para V /W .)

3.5.

Bases y dimensión de los subespacios fundamentales

En esta sección el objetivo principal es calcular bases para cada uno de los cuatro espacios fundamentales de una matriz y en consecuencia calcular sus dimensiones. Teorema 3.5.1. Sea A ∈ Rm×n una matriz de rango r y sea P una matriz no singular tal que P A = U, donde U es una forma escalonada de A. Sean H = {h1 , . . . , hn−r } el conjunto de las hi ’s que aparecen en la solución general del sistema Ax = 0. (Véase la Sección 1.5). Entonces: i) Las columnas básicas de A forman una base para R (A).  ii) Los r renglones diferentes de cero de U forman una base para R AT .  iii) Los últimos m − r renglones de P forman una base para N AT . iv) El conjunto H es una base para N (A). Además: dim R (A) = r.  dim R AT = r.  dim N AT = m − r. dim N (A) = n − r. Demostración. i) Demostraremos que el conjunto β = {A∗f1 , . . . , A∗fr } es una base para el espacio columna de A, donde A∗f1 , . . . , A∗fr son las columnas básicas A. Cada columna de A pertenece al espacio columna de A puesto que Aej = A∗j . En particular β ⊂ R (A) y T por lo tanto hβi ⊂ R (A). Por otro lado, si b ∈ R (A), entonces existe x = (x1 , . . . , xn ) tal que Ax = b. Luego, b = x1 A∗1 + · · · + xn A∗n . Es decir, todo elemento de R(A) es

3.5. Bases y dimensión de los subespacios fundamentales

95

combinación lineal de las columnas de A. Como toda columna no básica de A se puede escribir como combinación lineal de las columnas básicas de A, de sigue que b también es combinación lineal de las columnas básicas de A. De aquí que R(A) ⊂ hβi y así R(A) = hβi. Esto prueba que β es un conjunto que genera al espacio columna de A. Por otro lado, si β no fuera linealmente independiente, entonces algún elemento de β sería combinación lineal del resto de las columnas de A, y este elemento no sería columna básica de A, lo cual es una contradicción. Luego β es linealmente independiente. Así, las columnas básicas de A constituyen una base para el espacio columna de A y dim R (A) = r.    ii) Demostraremos primero que R AT = R U T . En efecto, si y ∈ R AT , entonces y = AT z T T para algún z. Como AT = P −1 U = U T P −1 , entonces y = U T x, donde x = T  P −1 z y por lo tanto y ∈ R U T . Recíprocamente, si y ∈ R(U T ), entonces y = U T z  T T para algún z. Luego, y = (P A) z = AT P T z = x = P T z, y de aquí  A x, donde  T T T y ∈ R(A ). Con esto hemos demostrado que R A = R U . Luego, basta demostrar que las r columnas diferentes de cero de U T (los r renglones diferentes de cero de U ) forman una base para R(U T ). Es claro que si b ∈ R(U T ), entonces existen escalares x1 , . . . , xn T T = b. Luego, cada elemento de R(U T ) es combinación lineal tales que x1 U∗1 + · · · + xn U∗n T de todas las columnas de U y por lo tanto, es combinación de las columnas diferentes de cero de U T . Así, R(U T ) está generado por las columnas diferentes de cero de U T . Usando que U es una forma escalonada de A, es fácil demostrar que las columnas distintas de cero de U T son linealmente independientes, y por lo tanto forman una base para R(U T ). Finalmente, de acuerdo con el Corolario 1.5.7 y por lo demostrado en el inciso anterior tenemos que: dim R(AT ) = rango(AT ) = rango(A) = dim R(A) = r. iii) Escribamos las matrices P , P −1 y U en forma de bloques. Es decir:      P1 C −1 P = , P = Q1 Q2 , U= , P2 0 donde P1 tiene tamaño r × m, P2 tiene tamaño (m − r) × m, Q1 tiene  tamaño m × r, Q2 tiene tamaño m × (m − r) y C tiene tamaño r × n. Como det P T = det (P ) 6= 0, los renglones de P son linealmente independientes. En particular los m − r renglones de P2 T son linealmente independientes. Es claro que estos m − r vectores generan  a R(P2T ), y por T T lo tanto constituyen una base para R(P2 ). Demostraremos que N A = R P2 y esto concluirá la prueba. Sea y ∈ N AT . Entonces:



AT y = 0 ⇒ y T A = 0 ⇒ y T P −1 U = 0 ⇒ y T ( Q1 Q2 ) ( C0 ) = 0   y T Q1 C = 0 ⇒ C T QT1 y = 0 ⇒ QT1 y ∈ N C T .

 T

Pero N C = {0}, pues rango(C T ) = rango(C) = r. Luego QT1 y = 0 y por lo tanto T y Q1 = 0. Por otro lado I = P −1 P = Q1 P1 + Q2 P2 , de donde: y T = y T I = y T Q1 P1 + y T Q2 P2 = y T Q2 P2  ⇒ y = P2T QT2 y .   Luego, y ∈ R(P2T ) de donde N AT ⊂ R P2T . Para demostrar la otra inclusión sea y ∈ R P2T . Entonces y = P2T x para algún x, y en consecuencia y T A = xT P2 A. Por otro lado:   P1 A 1 C C PA = U ⇒ P P2 A = ( 0 ) ⇒ P2 A = ( 0 ) ⇒ P2 A = 0. Luego, y T A = xT P2 A = xT 0 = 0, o bien, AT y = 0. Así, y ∈ N (AT ) y R(P2T ) ⊂ N (AT ). Por lo tanto, N (AT ) = R(P2T ) y dim N (AT ) = m − r.

96

3. Espacios vectoriales

iv) Haciendo B = AT en el inciso anterior, tenemos que:  dim N (A) = dim N B T = n − rango (B) = n − rango(B T ) = n − r. Como H es un conjunto generador de N (A) y tiene exactamente n − r elementos, se sigue que H es una base para N (A) y así dim N (A) = n − r.   1 2 2 3 Ejercicio 3.5.2. Considere la matriz A = 2 4 1 3. Calcule bases para N (A), R(A), 3 6 1 4 T T N (A ) y R(A ).

3.5.1.

Ejercicios

1. Encuentre una base para los subespacios fundamentales R(A), R(AT ) y N (A) asociados a la matriz:   1 2 0 2 1 A = 0 0 1 3 3 . 0 0 0 0 0 2. Sea V un espacio vectorial de dimensión finita sobre un campo K. Una base ordenada β = {v1 , . . . , vn } de V es una base de V en la que se considera un orden fijo y bien definido, indicado por las posiciones relativas de los vectores en β. En el espacio tridimensional R3 las bases β1 = {e1 , e2 , e3 } y β2 = {e2 , e3 , e1 } son bases ordenadas diferentes, a pesar de que se trata del mismo conjunto. Si β = {v1 , . . . , vn } es una base ordenada de V, para cada v ∈ V T existe exactamente un vector (x1 , . . . , xn ) tal que v = x1 v1 + · · · + xn vn . A xi se le llama T la i−ésima coordenada de v respecto a la base β. Al vector (x1 , . . . , xn ) se le llama vector de coordenadas de v en la base β y será denotado con [v]β . Esta asignación establece una función de V en K n denominada función de coordenadas: [

]β : V → K n

Considereahora el espacio vectorial real R [t]3 de los polinomios de grado menor que 3 y la base β = 1, 1 + t, 1 + t + t2 . a) Calcule el vector de coordenadas del vector p = 3+2t−5t2 en la base β, es decir, determine [p]β . b) Escriba explícitamente la función de coordenadas [

]β : R [t]3 → R3 .

3. Sea V un espacio vectorial de dimensión finita sobre un campo K, sea β = {v1 , . . . , vn } una base de V . Pruebe que la función de coordenadas con respecto a la base β es una función lineal biyectiva, es decir, pruebe que: a) [v + w]β = [v]β + [w]β para cualesquiera v, w ∈ V . b) [cv]β = c [v]β para cualquier c ∈ K y v ∈ V . c) [v]β = 0 si y sólo si v = 0. d) Para cada x ∈ K n , existe exactamente un vector v ∈ V tal que x = [v]β . 2 4. Considere   C  como  espacio vectorial real, es decir, la multiplicación por escalar está dada por z1 cz1 c· = , donde c es un número real. Calcule la dimensión de este espacio vectorial. z2 cz2

3.6. Sumas directas

97

5. Sea V un espacio vectorial complejo de dimensión n ≥ 1. Como el conjunto de los números reales es un subconjunto de los números complejos, V se puede considerar un espacio vectorial real (vea el ejercicio anterior). Pruebe que V es de dimensión finita y calcule su dimensión. 6. Sea V el subespacio de R2×2 formado por las matrices anti-simétricas. ¿Cuál es la dimensión de V ? Encuentre una base para V . 7. Sea V = R [t] , y sea W el subconjunto de V que consiste de todos los polinomios divisibles 2 por (t − 1) . Pruebe que W es un subespacio de V y que V /W es un espacio de dimensión finita. Además, pruebe que la dimensión de V /W es 2. Encuentre una base para este espacio. (Sugerencia: Considere el algoritomo de la división para polinomios).

3.6.

Sumas directas

En esta sección se presentarán algunos resultados concernientes a sumas de subespacios. Recordemos que dados dos subespacios U y W de un espacio V es posible construir un nuevo subespacio denominado la suma de U y W , U + W = {u + w | u ∈ U, w ∈ W } . Este subespacio resulta ser el subespacio más pequeño que contiene simultáneamente a U y a W . En otras palabras, la suma de U y W es el subespacio generado por el conjunto U ∪ W . Cuando V es de dimensión finita, también lo es la suma de U y W , como lo afirma el siguiente resultado. Teorema 3.6.1. Sean U y W dos subespacios de dimensión finita de un espacio vectorial V . Entonces U + W es de dimensión finita y: dim (U + W ) = dim U + dim W − dim (U ∩ W ) . Demostración. Tenemos que U ∩ W es subespacio tanto de U como de W . Supongamos que dim U = m, dim W = n y dim(U ∩ W ) = r. Supongamos, además que {v1 , . . . , vr } es una base para U ∩ W . Extendamos este conjunto linealmente independiente en U y en W , a una base de U y a una base de W : {v1 , . . . , vr , u1 , . . . , um−r }

base para U,

{v1 , . . . , vr , w1 , . . . , wn−r }

base para W.

Sea β = {v1 , . . . , vr , u1 , . . . , um−r , w1 , . . . , wn−r }. Notemos que β tiene m + n − r elementos. Luego, bastará demostrar que β es base para U + W . Como el conjunto {vi , uj } genera a U y el conjunto {vi , wk } genera a W , la unión β = {vi , uj , wk } generará a U + W . Por lo tanto, basta demostrar que β es linealmente independiente. Supongamos que: a1 v1 + · · · + ar vr + b1 u1 + · · · + bm−r um−r + c1 w1 + · · · + cn−r wn−r = 0, donde ai , bj y ck son escalares. Sea: v = a1 v1 + · · · + ar vr + b1 u1 + · · · + bm−r um−r . De la primera igualdad, tenemos también que: v = −c1 w1 − · · · − cn−r wn−r . Como {vi , uj } ⊆ U , la segunda igualdad implica que v ∈ U ; y como {wk } ⊆ W , la tercera igualdad implica que v ∈ W . Así, v ∈ U ∩ W . Ahora bien, {vi } es base para U ∩ W , por lo que existen escalares d1 , . . . , dr tales que v = d1 v1 + · · · + dr vr . Usando esta relación junto con la tercera igualdad, tenemos que: d1 v1 + · · · + dr vr + c1 w1 + · · · + cn−r wn−r = 0.

98

3. Espacios vectoriales

Pero {vi , wk } es una base para W y necesariamente es linealmente independiente. De aquí que la última igualdad implique que c1 = · · · = cn−r = 0. Sustituyendo estos valores en la primera igualdad, tenemos que: a1 v1 + · · · + ar vr + b1 u1 + · · · + bm−r um−r = 0. Pero {vi , uj } es una base para U y por lo tanto es linealmente independiente. Luego, a1 = · · · = ar = 0 y b1 = · · · = bm−r = 0. Por lo tanto, β es linealmente independiente y es base para U + W. T

Ejemplo 3.6.2. Considere los subespacios U = {(x y z) ∈ R3 | x + y + z = 0} y W = T {(x y z) ∈ R3 | 2x − y + z = 0} de R3 . Calcule la dimensión de U + W. Para el cálculo de dim(U + W ) necesitamos calcular la dimensión de los subespacios U , W y U ∩ W . Es claro que U y W tienen ambos dimensión 2 (pues son planos). Entonces U ∩ W debe ser una recta y su dimensión es 1. Así, la dimensión de U + W es 3. Luego, R3 = U + W. En consecuencia todo vector de R3 se puede escribir como la suma de un vector de U y uno de W . Sin embargo, esta representación no es única, ya que:           −5 −1 −3 −3 −6  0  =  2  +  −2  =  3  +  −3  . 7 −2 4 1 5 Definición 3.6.3. Suponga que V es un espacio vectorial. Sean U y W dos subespacios de V. Suponga que V 0 es un subespacio de V que tiene la propiedad de que cada vector v ∈ V 0 se puede escribir en forma única como: v =u+w 0 donde u ∈ U y w ∈ W. En este L caso se dice que V es la suma directa (interna) de los subespacios 0 U y W y se escribe V = U W.

Así, la suma de los subespacios del ejemplo anterior no es directa. Teorema 3.6.4. Sea V un espacio vectorial y sean U , W subespacios de V . Entonces V = L U W si y sólo si V = U + W y U ∩ W = {0} . L Demostración. (⇒) : Supongamos que V = U W . Entonces, en particular V = U + W . Sea v ∈ U ∩ W . Tenemos que v ∈ U y v ∈ W . Luego, v ∈ V y: v

= v + 0, con v ∈ U, 0 ∈ W,

v

=

0 + v, con 0 ∈ U, v ∈ W.

Como tal suma para v debe ser única, tenemos que v = 0 y así U ∩ W = {0}. (⇐) : Supongamos que V = U + W y U ∩ W = {0}. Sea v ∈ V . Dado que V = U + W , existen u ∈ U y w ∈ W tales que v = u + w. Debemos probar que esta suma es única. Para ello, supongamos que v = u0 + w0 , donde u0 ∈ U y w0 ∈ W . Entonces, u + w = u0 + w0 y por lo tanto u − u0 = w0 − w. Como U y W son subespacios de V , tenemos que u − u0 ∈ U y w − w0 ∈ W , de modo que u − u0 ∈ U ∩ W y w0 − w ∈ U ∩ W . Como U ∩ W = {0}, tenemos que u − u0 = 0 0 0 0 y w−w L = 0, es decir, u = u y w = w . De este modo, tal suma para v ∈ V es única y así V =U W. Corolario 3.6.5. Si U y W son subespacios de dimensión finita de un espacio vectorial V , entonces:  M  dim U W = dim U + dim W.

3.6. Sumas directas

99

L Demostración. Sea V 0 = U W . De acuerdo con el Teorema 3.6.4 tenemos que V 0 = U + W y U ∩ W = {0}. Luego, dim(U ∩ W ) = 0 y según el Teorema 3.6.1 tenemos que dim(V 0 ) = dim U + dim W − dim(U ∩ W ), es decir, dim(V 0 ) = dim U + dim W . Ejemplos 3.6.6. L 1. R3 = U W, donde U = he1 , e2 i y W  1 2 2. Considere la matriz A =  −2 −4 1 2 L N (A) . R AT Un cálculo sencillo muestra que:

= he3 i.  1 1  L 0 4 . Verifique que R3 = R (A) N AT y R4 = 2 4

1 −2 1

  1 oE , 0 R (A) = , 2  1   0   2 , 01 , R AT = 0 Dn

−2

N A

T



 = 

N (A) =

3

1 1/4 −1/2



.   −2  2 0 −1 . , 3 0 0

−1

Observe que los espacios columna y nulo izquierdo de A son ortogonales2 . También lo son los espacios renglón y nulo de A. Es fácil probar que si dos subespacios de Rn son ortogonales, entonces su suma es directa (se deja esta afirmación como ejercicio). En consecuencia, la  suma de R (A) y N AT es directa y también lo es la suma de R AT y N (A) . Como la  T 3 T dimensión del subespacio R (A) + N A es 3 = dim R3 , entonces   L R = R (A) + N A = L T 4 T R (A) N A . Análogamente se verifica que R = R A N (A) . Teorema 3.6.7. Si A ∈ Rm×n , entonces: Rm = R(A)

M

N (AT ).

Rn = N (A)

M

R(AT ).

  Demostración. Demostraremos primero que N AT ∩ R (A) = {0} . En efecto, si x ∈ N AT ∩ R (A) , entonces AT x = 0 y x = Az para algún z. Luego:   T xT x = (Az) x = z T AT x = z T AT x = z T 0 = 0,  de donde x = 0. Así, N AT ∩ R (A) = {0}. Ahora, como dim(R(A) + N (AT )) = dim(R(A)) + m dim(N (AT )) − dim(R(A) ∩ N (AT )) = r + (m − r) − 0 = m = dim L R , donde r es el rango de A, tenemos que Rm = R(A) + N (AT ). Por lo tanto, Rm = R(A) N (AT ).   T  Ahora, como N AT ∩R (A) = {0} para cualquier matriz A, se tiene que {0} = N AT ∩   T T R A = N (A) ∩ R A , y razonando de manera análoga al caso anterior se demuestra la segunda igualdad. Teorema 3.6.8 (Rango de un producto de matrices). Si A ∈ K m×n y B ∈ K n×p , entonces: rango(AB) = rango(B) − dim(N (A) ∩ R (B)). Demostración. Sea S = {x1 , . . . , xs } una base para N (A) ∩ R(B). Claramente, N (A) ∩ R(B) ⊆ R(B). Supongamos que dim R(B) = s + t y extendamos la base S a una base para R(B), digamos: S 0 = {x1 , . . . , xs , z1 , . . . , zt }. 2 Dos subespacios de U y W de Rn son ortogonales si uT w = 0 para toda u ∈ U y toda w ∈ W. Si U y W son ortogonales se escribe U ⊥W .

100

3. Espacios vectoriales

Demostraremos que dim R(AB) = t, mostrando que T = {Az1 , . . . , Azt } es una base para R(AB). efecto, P si b ∈ R(AB), entonces b = ABy para algún y. Pero By ∈ R(B) implica que PEn s t By = i=1 ci xi + i=1 di zi para algunos escalares ci , di . Luego: ! s t s t t X X X X X b=A ci x i + di zi = ci Axi + di Azi = di Azi , i=1

i=1

i=1

i=1

i=1

ya que S ⊂ N (A) ∩ R(B) ⊆ N (A). Así, T genera a R(AB). Supongamos ahora que existen escalares α1 , . . . , αt tales que: ! t t X X 0= αi Azi = A αi zi . i=1

i=1

Entonces, · · · + αt zt ∈ N (A) ∩P R(B), de modo Pt α1 z1 + P Ps que existen escalares β1 , . . . , βs tales s t que i=1 αi zi = j=1 βj xj , es decir, i=1 αi zi − j=1 βj xj = 0. Como S 0 es un conjunto linealmente independiente, resulta que αi = 0 y βj = 0 para todo i = 1, . . . , t y todo j = 1, . . . , s. Así, T es linealmente independiente. Por lo tanto, T es una base para R(AB), de modo que t = dim R(AB) = rango(AB) y de aquí se sigue que: rango(B) = dim R(B) = s + t = dim(N (A) ∩ R(B)) + rango(AB). Teorema 3.6.9. Si A ∈ Rm×n , entonces:   1. rango AT A = rango (A) = rango AAT .    2. R AT A = R AT y R AAT = R (A) .    3. N AT A = N (A) y N AAT = N AT . Demostración. 1. Observemos primero que N (AT ) ∩ R(A) = {0} ya que: x ∈ N (AT ) ∩ R(A) ⇒ AT x = 0 y x = Ay para algún y X ⇒ x T x = y T AT x = 0 ⇒ x2i = 0 ⇒ x = 0. Luego, aplicando la fórmula para el rango de un producto tenemos que: rango(AT A) = rango(A) − dim(N (AT ) ∩ R(A)) = rango(A). Si ahora intercambiamos los papeles de A y AT , tenemos que: rango(AAT ) = rango(AT ) = rango(A), donde la última igualdad se sigue del Corolario 1.5.7. 2. Es fácil probar que R(AB) ⊆ R(A) (se deja de ejercicio al lector). Luego, R(AT A) ⊆ R(AT ). Por otra parte, de acuerdo con el inciso anterior tenemos que: dim R(AT A) = rango(AT A) = rango(A) = rango(AT ) = dim R(AT ), de donde se sigue que R(AT A) = R(AT ). Intercambiando los papeles de A y AT se obtiene que R(AAT ) = R(A). 3. Es fácil probar que N (B) ⊆ N (AB) (se deja de ejercicio al lector). Luego, N (A) ⊆ N (AT A). Aplicando el inciso 1, tenemos que: dim N (A) = n − rango(A) = n − rango(AT A) = dim N (AT A), de donde se sigue que N (A) = N (AT A). Intercambiando los papeles de A y AT obtenemos que N (AAT ) = N (AT ).

3.6. Sumas directas

3.6.1.

101

Ejercicios

1. Pruebe que rango (A + B) ≤ rango (A) + rango (B) . 2. Sean A ∈ K m×n y B ∈ K m×p . Pruebe que rango([A | B]) = rango(A) + rango(B) − rango(R(A) ∩ R(B)). 3. Sean A y B matrices de m × n y n × p. Pruebe que a) rango(AB) ≤ m´ın{rango(A), rango(B)}. b) rango(A) + rango(B) − n ≤ rango(AB). 4. Sea W un subespacio de Rn y sea:  W ⊥ = v ∈ Rn | v T w = 0 para todo w ∈ W . Pruebe que W ⊥ es un subespacio de Rn y que la suma de W y W ⊥ es directa. Al subespacio W ⊥ se le denomina complemento ortogonal de W . 5. Sea m > n y sea A ∈ Rm×n . ¿Cuál de las siguientes afirmaciones es verdadera?  a) Rn = R (A) ⊕ N AT .   b) Rn = R AT ⊕ N AT . c) Rn = R (A) ⊕ N (A).  d) Rn = R AT ⊕ N (A). 6. Sea β = {v1 , v2 , v3 , v4 } una base para el R-espacio vectorial V . Sea U el subespacio generado por los vectores v1 − v4 y v2 − v3 ; sea W el subespacio de generado por los vectores v1 + v4 y v2 + v3 . ¿Es la suma de U y W directa? Si la respuesta es afirmativa, pruébelo. En caso contrario, explique por qué la suma no es directa. 7. Sea β = {v1 , v2 , v3 , v4 , v5 } una base para el R-espacio vectorial V . Sea U el subespacio generado por los vectores v1 − v2 y −v3 + v4 ; sea W el subespacio de generado por los vectores v1 + v4 y v2 + v3 . ¿Es la suma de U y W directa? Si la respuesta es afirmativa, pruébelo. En caso contrario, explique por qué la suma no es directa. 8. Considere los siguientes subespacios de R4 :  W1 = x ∈ R4 : x 1 + x 2 + x 3 + x 4 = 0  W2 = x ∈ R4 : x 1 = x 2 = x 3 = x 4 Pruebe que R4 = W1 ⊕ W2 , i.e. pruebe que R4 = W1 + W2 y W1 ∩ W2 = {0}. 9. Demuestre que si P es una matriz invertible de m × m, entonces rango(P A) = rango(A), para cualquier matriz A de m × n.  ⊥ ⊥ 10. Sea A ∈ Rm×n . Pruebe que N AT ⊂ R (A) y R (A) ⊂ N AT . 11. Calcule el complemento ortogonal del espacio columna de la matriz:   1 2 1 1 A =  −2 −4 0 4  . 1 2 2 4

102

3. Espacios vectoriales

12. Pruebe que si U y W son subespacios ortogonales de Rn , entonces la suma de U y W es directa. 13. Pruebe que los espacios nulo y renglón de una matriz A ∈ Rm×n , son ortogonales. Pruebe que también lo son los espacios columna y nulo izquierdo de A. 14. Sean U y W subespacios diferentes de un espacio vectorial V . Suponga que dim U = dim W = 4 y dim V = 6. Calcule todos los posibles valores para la dimensión del subespacio U ∩ W . 15. Sean U y W subespacios de un espacio vectorial V cuya dimensión es 10. Suponga que la dim U = 5 y dim W = 6. Pruebe que la suma de U y W no es directa. 16. Sean W1 y W2 subespacios de un espacio vectorial V . Si dim V = 12, dim W1 = 6 y dim W2 = 8, entonces el valor más pequeño que puede tener dim W1 ∩ W2 es: (a) 0, (b) 2, (c) −2, (d) 6, (e) 8. Justifique su respuesta. 17. Sea V el espacio de todas las funciones continuas de R en R. Sean W1 el subespacio de V que consiste de las funciones pares y W2 el subespacio de V que consiste de las funciones impares: W1

= {f ∈ V : f (x) = f (−x) ,

W2

= {g ∈ V : g (x) = −g (−x) ,

∀x ∈ R} , ∀x ∈ R} .

Pruebe que V es la suma directa de W1 y W2 . 18. Sea K un campo y sea V el espacio vectorial K n×n , es decir, el espacio vectorial de todas las matrices cuadradas de n × n sobre el campo K. Sean W1 y W2 los subespacios de V formados por las matrices simétricas y antisimétricas, respectivamente. a) Si K es un subcampo del campo de los números complejos, pruebe que V = W1 ⊕ W2 . b) Más general, pruebe que si K es un campo de característica distinta de 2, entonces V = W1 ⊕ W2 . c) ¿Es cierto el resultado si la característica del campo es 2?  19. Considere el sistema de ecuaciones lineales Ax = b, donde A =

1 −1

−1 −1 1 1

 yb=

  2 . 3

20. a) Verifique que el sistema Ax = b es inconsistente. b) Verifique que el sistema de ecuaciones lineales AT Ax = AT b es un sistema de ecuaciones lineales consistente. Encuentre todas sus soluciones.   −1 c) Muestre que el sistema de ecuaciones lineales Ax = c es consistente, donde c = . −2 T T Muestre también que los sistemas Ax = c y A Ax = A c tiene exactamente las mismas soluciones. T T 21. Muestre quelos dos  sistemas   de ecuaciones lineales Ax = b y A Ax = A b, donde A = 1 −1 −1  −1 0  y b =  −2 , tienen solución única. Verifique que en ambos casos la solución 1 1 5 es x = (AT A)−1 AT b.

22. Sean A ∈ Rm×n y b ∈ Rm . a) Pruebe que el sistema de ecuaciones lineales AT Ax = AT b siempre es consistente, aun cuando Ax = b no sea un sistema de ecuaciones lineales consistente.

3.6. Sumas directas

103

b) Pruebe que si Ax = b es consistente, entonces el conjunto de soluciones de Ax = b y el de AT Ax = AT b es el mismo. c) Pruebe que AT Ax = AT b tiene solución única si y solo rango(A) = n. 23. Sea p > 2 un número primo y sea V el espacio vectorial F4p sobre el campo Fp . a) Si A es una matriz de 4 × 4 con coeficientes en Fp y A2 = I, demuestre que V = E ⊕ F donde E = {u ∈ V | Au = u} y F = {u ∈ V | Au = −u}. b) Si E es un subespacio de V = F4p tal que dim E = k, demuestre que |E| = pk . c) Si W es un espacio vectorial sobre Fp de dimensión m, demuestre que el número de subespacios de W de dimensión n, con 1 ≤ n ≤ m, es: (pm − 1)(pm−1 − 1) · · · (pm−n+1 − 1) . (pn − 1)(pn−1 − 1) · · · (p − 1) d) Si Xp = {A ∈ F4×4 | A2 = I}, demuestre que: p |Xp | = p8 + p7 + 4p6 + 3p5 + 3p4 + 2p3 + 2.

104

3. Espacios vectoriales

CAPÍTULO

4

Transformaciones lineales y matrices

En este capítulo se estudia el concepto de transformación lineal. Esta herramienta será útil para establecer cuándo dos espacios vectoriales son esencialmente iguales, es decir, tienen exactamente la misma estructura algebraica. Se mostrará que en esencia un espacio vectorial de dimension finita sobre un campo K es un K n para algún n, y que una transformación lineal entre dos espacios vectoriales de dimensión finita se corresponde con una matriz. El problema de seleccionar bases adecuadas, de tal manera que la matriz asociada tenga una estructura simple, conduce al estudio de los valores y vectores propios, los cuales serán estudiados en un capítulo posterior. También se estudiará la relación que guardan las matrices asociadas a la misma transformación lineal, y en la última sección se tratará el concepto de espacio dual de un espacio vectorial.

4.1.

Transformaciones lineales

Empezamos la sección con la definición de transformación lineal. Definición 4.1.1. Sean V y W dos espacios vectoriales sobre un mismo campo K. 1) Una función T : V → W es una transformación lineal si T (u + v) = T (u) + T (v)

y

T (cv) = cT (v)

para cualquier c ∈ K y cualesquiera u, v ∈ V. 2) Un operador lineal sobre V es una transformación lineal de V en sí mismo. Aplicación lineal o función lineal son sinónimos para de transformación lineal. La definición de transformación lineal se puede reescribir como sigue. La función T : V → W es lineal si y solamente si T (cu + v) = cT (u) + T (v) (*) para cualesquiera u, v ∈ V y c ∈ K. En efecto, si T es lineal, entonces T (cu+v) = T (cu)+T (v) = cT (u) + T (v). Recíprocamente, si cumple (*), entonces T (u + v) = T (1 · u + v) = 1 · T (u) + T (v) = T (u) + T (v) T (cv) = T (cv + 0) = cT (v) + T (0) = cT (v). 105

106

4. Transformaciones lineales y matrices

La última igualdad es consecuencia de que T (0) = 0 ( T (0) = T (1 · 0 + 0) = 1T (0) + T (0) = T (0) + T (0)). Veamos algunos ejemplos. Ejemplos 4.1.2. 1. La función 0 : V → W definida por 0(v) = 0 que mapea todos los elementos del espacio vectorial V al elemento cero del espacio W , es claramente una función lineal, llamada por razones obvias la transformación cero. 2. La función 1V : V → V dada por 1V (v) = v es un operador lineal denominado operador identidad sobre V . 3. (La transformación lineal inducida por una matriz) Si A ∈ K m×n , la función TA : K n → K m dada por TA (x) = Axes lineal. Cuando A es una matriz cuadrada, TA es un operador lineal.  1 1 −1 En particular, si A = , entonces: 1 −1 1     x x+y−z   . TA y = x−y+z z 4. Si V es el espacio vectorial de todas las funciones diferenciables de R en R y W = RR , entonces la función D : V → W dada por D (f ) = f 0 es una transformación lineal. 5. Si V = C(R) R x es el espacio de todas las funciones continuas de R en R, entonces la función T (f ) = 0 f (t) dt es una función lineal. 6. Si V es un K -espacio vectorial de dimensión finita e igual a n > 0, y β es una base para V, la función de coordenadas: [ ]β : V → K n es lineal. Además es una biyección. (Véanse los Ejercicios 2 y 3 de la Sección 3.5). 7. La función F : K m×n → K n×m dada por F (A) = AT es una función lineal. Teorema 4.1.3. Si T : V → W es una transformación lineal, entonces: 1. T (0) = 0. 2. T (−v) = −T (v) para todo v ∈ V . Demostración. 1. Como 0+0 = 0, tenemos que T (0+0) = T (0). Es decir, T (0)+T (0) = T (0) ya que T es lineal. Por lo tanto, T (0) = 0. 2. Para cada v ∈ V sabemos que existe −v ∈ V tal que v + (−v) = 0. Luego, T (v + (−v)) = T (0). Como T (0) = 0 y T (v + (−v)) = T (v) + T (−v), tenemos que T (v) + T (−v) = 0. Por lo tanto, T (−v) = −T (v). El siguiente teorema permite construir funciones lineales sobre espacios vectoriales de dimensión finita. Teorema 4.1.4. Sean V y W espacios vectoriales sobre un campo K. Suponga que V es de dimensión finita y que β = {v1 , . . . , vn } es una base de V . Sean w1 , . . . , wn elementos arbitrarios de W . Entonces existe una única transformación lineal T : V → W tal que T (vi ) = wi para i = 1, . . . , n.

4.1. Transformaciones lineales

107

Demostración. Dado v ∈ V , sea [v]β = (x1 , . . . , xn )T ∈ K n . Definimos: T (v) =

n X

xi wi .

i=1

Veamos que T es una función lineal. Sean u, v ∈ V y c ∈ K. Supongamos que [u]β = (x1 , . . . , xn )T y [v]β = (y1 , . . . , yn )T . Luego [u + v]β = (x1 + y1 , . . . , xn + yn )T y [cu]β = (cx1 , . . . , cxn )T . Así T (u + v) =

n n n n X X X X (xi + yi )wi = (xi wi + yi wi ) = xi wi + yi wi = T (u) + T (v), i=1

i=1

i=1

i=1

n n n X X X T (cu) = (cxi )wi = c(xi wi ) = c xi wi = cT (u). i=1

i=1

i=1

Supongamos ahora que T 0 : V → W es transformación lineal tal que T 0 (vi ) = wi para Puna n i = 1, . . . , n. Sea v ∈ V y escribamos v = i=1 xi vi . Como T 0 es lineal se tiene T 0 (x1 v1 + · · · + xn vn ) = T 0 (x1 v1 ) + · · · + T 0 (xn vn ) = x1 T 0 (v1 ) + · · · + xn T 0 (vn ) = x1 w1 + · · · xn wn = T (v) Como T 0 (v) = T (v) todo v ∈ V se concluye que T = T 0 . Ejemplo 4.1.5. Calcule la única transformación lineal T : R[t]3 → R2 tal que T (v1 ) = −e1 , T (v2 ) = 2e1 + e2 y T (v3 ) = e1 + 3e2 , donde v1 = 1, v2 = 1 + t y v3 = 1 + t + t2 . Como el conjunto β = {v1 , v2 , v3 } es una base para R[t]3 , se puede aplicar el teorema anterior. Sea v = a + bt + ct2 ∈ R[t]3 . El primer paso consiste en calcular [v]β . Al hacerlo se obtiene que:   a−b [v]β =  b − c  . c Entonces la función pedida se define como:       −1 2 1 2 T (a + bt + ct ) = (a − b) + (b − c) +c 0 1 3   −a + 3b − c = . b + 2c Ejercicio 4.1.6. Considere la base β = {v1 , v2 } de R2 , donde v1 = e1 y v2 = e1 + e2 . Calcule las únicas transformaciones lineales v1∗ , v2∗ : R2 → R tales que: v1∗ (vi ) = δi1

y v2∗ (vi ) = δi2

i = 1, 2,

donde δij es la delta de Kronecker. Sean V y W dos K-espacios vectoriales. El conjunto de todas las transformaciones lineales T : V → W , denotado por L(V, W ) tiene una estructura natural de espacio vectorial. Teorema 4.1.7. Sean V y W K-espacios vectoriales. Si F, T ∈ L(V, W ) y c es un escalar, entonces F + T , cF ∈ L(V, W ), donde F + T, cF : V → W son las funciones definidas por (F + T )(v) = F (v) + T (v) y (cF )(v) = cF (v), respectivamente. Más aún, L(V, W ) junto con estas operaciones es un K-espacio vectorial.

108

4. Transformaciones lineales y matrices

Demostración. Supóngase que F, T son transformaciones lineales. Sean v1 , v2 ∈ V y sean c, α escalares. Entonces (F + T )(αv1 + v2 ) = F (αv1 + v2 ) + T (αv1 + v2 ) = αF (v1 ) + F (v2 ) + αT (v1 ) + T (v2 ) = α(F (v1 ) + T (v1 )) + (F (v2 ) + T (v2 )) = α(F + T )(v1 ) + (F + T )(v2 ). Esto prueba que F + T es lineal. En forma análoga, (cF )(αv1 + v2 ) = cF (αv1 + v2 ) = c(αF (v1 ) + F (v2 )) = cαF (v1 ) + cF (v2 ) = α(cF )(v1 ) + (cF )(v2 ), prueba que cF es una transformación lineal. Para probar que L(V, W ) junto con estas operaciones es un espacio vectorial, se debe verificar directamente cada una de las condiciones de la Definición 3.1.1. Los detalles se dejan al lector. Teorema 4.1.8. Sean U, V y W K-espacios vectoriales. Si T : U → V y F : V → W son transformaciones lineales, entonces la función F ◦T : U → W definida por (F ◦T )(u) = F (T (u)) es lineal. U

T

/V

F

/5 W

F ◦T

Demostración. Sean u1 , u2 ∈ U y sea c un escalar. Entonces (F ◦ T ) (cu1 + u2 )

= F (T (cu1 + u2 )) = F (cT (u1 ) + T (u2 )) = cF (T (u1 )) + F (T (u2 )) = c (F ◦ T ) (u1 ) + (F ◦ T ) (u2 ) .

Si V = W , en vez de escribir L(V, V ) se escribe L(V ). El siguiente teorema presenta las propiedades básicas de la composición en L(V ). Teorema 4.1.9. Sean T1 , T2 y F operadores lineales sobre un espacio V , es decir T1 , T2 ∈ L(V ). Sea c un escalar. Entonces: a) 1V ◦ F = F = F ◦ 1V . b) F ◦ (T1 + T2 ) = F ◦ T1 + F ◦ T2 ; (T1 + T2 ) ◦ F = T1 ◦ F + T2 ◦ F . c) c (F ◦ T1 ) = (cF ) ◦ T1 = F ◦ (cT1 ). Demostración. (a) Es fácil y se deja al lector. (b) Sea u ∈ U . [F ◦ (T1 + T2 )](u) = F ((T1 + T2 )(u)) = F (T1 (u) + T2 (u)) = F (T1 (u)) + F (T2 (u)) = (F ◦ T1 )(u) + (F ◦ T2 )(u) = (F ◦ T1 + F ◦ T2 )(u).

4.1. Transformaciones lineales

109

Así F ◦ (T1 + T2 ) = F ◦ T1 + F ◦ T2 . (c) Se deja al lector.

Observación 4.1.10. De los resultados anteriores se sigue que, L(V ) junto con las operaciones de suma y composición es un anillo con unitario. Todavía más, dado que L(V ) es un anillo con unitario, que además es un un K-espacio vectorial que satisface c(F ◦ T ) = (cF ) ◦ T = F ◦ (cT ), se tiene que L(V ) es un ejemplo muy particular de una K-álgebra.

4.1.1.

Ejercicios

1. Determine cuáles de las siguientes transformaciones son lineales. a) T : R3 → R3 , T

x

=

x

.

b) T : R3 → R3 , T

x

=

y

.

c) T : R3 → R3 , T

x

=

y z

y z

y z

0 z

z x

x y 1

.

d) T : R2 → R2 , T ( xy ) =

x+3y−1  2x−y+4 .

e) T : R2 → R2 , T ( xy ) =

x −y



.

f) T : R2 → R2 , T ( xy ) =

 −y

.

x

T

T

T

T

2. Considere los vectores v1 = (1, −1) , v2 = (2, −1) , v3 = (−3, 2) , w1 = (1, 0) , w2 = T T (0, 1) y w3 = (1, 1) . ¿Existe una función lineal F : R2 → R2 tal que F (vi ) = wi ? Si existe, descríbala explícitamente. En caso contrario, pruebe que no existe. 3. Considere R[t]3 con la base β = {1 − t + t2 , 1, 1 − t} = {v1 , v2 , v3 }. Calcule la única transformación lineal T : R[t]3 → R3 tal que T v1 = w1 , T v2 = w2 y T v3 = w3 , donde      1 3 2 a) w1 =  2  w2 =  −2  , w3 =  0 . 2 3 1       1 1 1 b) w1 =  −1  , w2 =  0  , w3 =  2 . −5 1 −1 

4. Sea T : V → W una transformación lineal y sean v1 , . . . , vn ∈ V y w1 , . . . , wn ∈ W tales que T vi = wi . a) Si w1 , . . . , wn son linealmente independientes, pruebe que los vectores v1 , . . . , vn son linealmente independientes. b) Si los vectores v1 , . . . , vn son linealmente independientes, ¿Es cierto que w1 , . . . , wn son linealmente independientes? Si su respuesta es afirmativa, pruébelo. En caso contrario, de un contrajemplo. 2

3

5. Defina una transformación lineal T : R → R tal que T 3

e1 , e2 , e3 son los vectores unitarios de R .



1 2

 = e1 + 2e2 + 3e3 , donde

110

4. Transformaciones lineales y matrices 

     1 1 4 6. Encuentre una transformación lineal T : R3 → R2 tal que T  −1  = y T 1 = −2 1 0   1 . Nota: Debe escribir a T en forma explícita, es decir, debe encontrar una fórmula −3   x1 para T x2  en términos de x1 , x2 y x3 . Justifique su respuesta. x3 7. Sea V un espacio vectorial real de dimensión 3 y sea β = {v1 , v2 , v3 } una base para V . Suponga que f : V → R es una transformación lineal tal que f (v1 − v2 ) = 5,

f (v2 − v3 ) = 3,

f (v1 + v3 ) = 4.

De una fórmula en términos de la base β para calcular f (v) para cualquier v ∈ V. 8. Pruebe que la función T : K[t]3 → K 3×3 dada por:  a0 T (a0 + a1 t + a2 t2 ) =  0 0

a1 a0 0

 a2 a1  , a0

es una transformación lineal inyectiva. 9. Sea K un campo arbitrario y sea α ∈ K. Pruebe que la función evaluación evα : V → K dada por evα (a0 + a1 t + · · · + an tn ) = a0 + a1 α + · · · + an αn es una transformación lineal. 10. Pruebe que la función traza tr : K n×n → K dada por tr(A) =

Pn

i=1

aii es lineal.

11. Sea A ∈ K m×n . Pruebe que la función T : K n×r → K m×r dada por T (X) = AX es una transformación lineal. 12. Sea A ∈ K n×n . ¿Es la función T : K n×n → K dada por T (X) = tr(AX) una transformación lineal? (Sugerencia: Vea el Teorema 4.1.8.) 13. Pruebe que la función T : K[t] → K[t] dada por T (p(t)) = tp(t) es un operador lineal. 14. Sea V un K-espacio vectorial y sea T : V × V → K una función bilineal, es decir una función que satisface lo siguiente: T (u1 + u2 , v) = T (u1 , v) + T (u2 , v), T (u, v1 + v2 ) = T (u, v1 ) + T (u, v2 ), T (cu, v) = cT (u, v) = T (u, cv), para cualesquiera u1 , u2 , v1 , v2 , u, v ∈ V y para cualquier c ∈ K. Sean v, w ∈ V tales que T (v, w) = 0 = T (w, v) y T (v, v) = T (w, w) = 1. Pruebe que los vectores v y w son linealmente independientes. 15. Sean β = {v1 , v2 , v3 } y β 0 = {w1 , w2 } bases para los K-espacios vectoriales V y W , respectivamente. Sea Eij : V → W la única transformación lineal tal que Eij (vi ) = δij wj , donde δij es la delta de Kronecker. Así por ejemplo, E11 es la única transformación lineal tal que E11 (v1 ) = w1 , E11 (v2 ) = 0 y E11 (v3 ) = 0. Pruebe que dim L(V, W ) = 3 · 3 mostrando que la colección {Eij : 1 ≤ i ≤ 3, 1 ≤ j ≤ 2} es una base.

4.2. El núcleo y la imagen de una transformación lineal

111

16. Podemos encajar R2enR3 en formas diferentes. La forma usual de hacer esto es mediante       x x x x la función 7→ y . Otra forma es mediante la función 7→ y . Considere los y y 0 1   x puntos de R2 como tercias del tipo y . Para cada una de las siguientes matrices: 1 

cos θ − sen θ cos θ Rθ = sen θ 0 0   1 0 0 Py = 0 −1 0 , 0 0 1

   0 −1 0 0 0 , Px =  0 1 0 , 1 0 0 1   1 0 a τ(a,b) = 0 1 b  , 0 0 1

considere la correspondiente transformación lineal inducida (véase el Ejemplo 4.1.2, apartado 

3). Analice el efecto de aplicar la transformación lineal a un vector de la forma tipo de matrices son útiles en gráficas por computadora.

4.2.

x y 1

. Este

El núcleo y la imagen de una transformación lineal

Asociada a una transformación lineal T : V → W están los conjuntos: ker(T )

= {v ∈ V | T (v) = 0} ,

Im(T )

= {w ∈ W | ∃v ∈ V, w = T (v)} = {T (v) | v ∈ V } .

El primer conjunto es el núcleo, kernel o espacio nulo de T . El segundo es la imagen o rango de T . Estos subconjuntos son subespacios de V y de W , respectivamente. La prueba de esta afirmación es sencilla y se deja de ejercicio al lector. Ejemplos 4.2.1. 1. Calcule el núcleo y la imagen de la transformación lineal T : R [t]3 → R2 dada por: 2

T (a + bt + ct ) =



 −a + 3b − c . b + 2c

En este caso: ker(T )

 a + bt + ct2 ∈ R [t]3 | − a + 3b − c = 0 y b + 2c = 0  = a + bt + ct2 ∈ R [t]3 |a = −7c y b = −2c  = −7c − 2ct + ct2 |c ∈ R

= −7 − 2t + t2 =

y    x 2 Im(T ) = ∈ R | x = −a + 3b − c y y = b + 2c para algunos a, b, c ∈ R = R2 . y Observe que dim R[t]3 = dim ker T + dim Im T.

112

4. Transformaciones lineales y matrices

2. Si A es una matriz m × n y TA es la transformación lineal inducida por A, entonces: ker(TA ) = N (A)

y

Im(TA ) = R (A) .

Es decir, los subespacios núcleo e imagen de la transformación lineal inducida por A son los espacios nulo y columna de A, respectivamente. Definición 4.2.2. Sea T : V → W una transformación lineal. El rango de T es la dimensión de la imagen de T y se denota por rango(T ). La nulidad de T es la dimensión del núcleo de T y se denota por nulidad(T ). Teorema 4.2.3 (Teorema de la dimensión). Si V es un espacio vectorial de dimensión finita y T : V → W es una transformación lineal, entonces: dim(V ) = rango(T ) + nulidad(T ). Demostración. Supongamos que dim(V ) = n y sea {v1 , . . . , vk } una base para ker(T ) (de manera que nulidad(T ) = k). Como {v1 , . . . , vk } es un conjunto linealmente independiente, podemos extenderlo a una base para V , digamos β = {v1 , . . . , vk , vk+1 , . . . , vn }. Demostraremos que el conjunto: β 0 = {T (vk+1 ), . . . , T (vn )} es una base para Im(T ). Claramente β 0 ⊂ Im(T ). Sea T (v) ∈ Im(T ) con v ∈ V . Como β es base para V , existen escalares c1 , . . . , cn tales que: v = c1 v1 + · · · + ck vk + ck+1 vk+1 + · · · + cn vn . Como v1 , . . . , vk ∈ ker(T ), tenemos que T (v1 ) = · · · = T (vk ) = 0, de modo que: T (v)

= T (c1 v1 + · · · + ck vk + ck+1 vk+1 + · · · + cn vn ) = c1 T (v1 ) + · · · + ck T (vk ) + ck+1 T (vk+1 ) + · · · + cn T (vn ) = ck+1 T (vk+1 ) + · · · + cn T (vn ),

lo cual demuestra que Im(T ) está generada por β 0 . Supongamos ahora que existen escalares dk+1 , . . . , dn tales que: dk+1 T (vk+1 ) + · · · + dn T (vn ) = 0. Entonces T (dk+1 vk+1 + · · · + dn vn ) = 0 (ya que T es lineal), de donde dk+1 vk+1 + · · · + dn vn ∈ ker(T ). Por lo tanto, existen escalares d1 , . . . , dk tales que: dk+1 vk+1 + · · · + dn vn = d1 v1 + · · · + dk vk , pues {v1 , . . . , vk } es base para ker(T ). Luego: d1 v1 + · · · + dk vk − dk+1 vk+1 − · · · − dn vn = 0, y la independencia lineal de β obliga a que d1 = · · · = dn = 0. En particular, dk+1 = · · · = dn = 0 y por lo tanto β 0 es linealmente independiente. Así, β 0 es base para Im(T ). Luego, rango(T ) = n − k y por lo tanto: rango(T ) + nulidad(T ) = k + (n − k) = n = dim(V ), como se quería.

4.2. El núcleo y la imagen de una transformación lineal

113

Ejemplo 4.2.4. Encuentre el rango y la nulidad de la transformación lineal T : R[t]3 → R[t]4 definida por T (p(t)) = tp(t). Solución. Tenemos que T (a + bt + ct2 ) = at + bt2 + ct3 . Luego: ker(T ) = {a + bt + ct2 | T (a + bt + ct2 ) = 0} = {a + bt + ct2 | at + bt2 + ct3 = 0} = {a + bt + ct2 | a = b = c = 0} = {0}, de manera que nulidad(T ) = 0 y por el Teorema de la dimensión, tenemos que rango(T ) = dim(R[t]3 ) − nulidad(T ) = 3 − 0 = 3. Note que hubiera sido más fácil hallar primero el rango de T , debido a que se ve fácilmente que {t, t2 , t3 } es una base para la imagen de T . Aunque, por lo regular, una de las dos (el rango o la nulidad de una transformación lineal) sea más fácil de calcular, el Teorema de la dimensión puede ser utilizado para hallar la otra.

4.2.1.

Ejercicios

1. Describa explícitamente una transformación lineal de R3 en R3 cuya imagen sea el espacio generado por los vectores (1 0 − 1)T y (1 2 2)T . 2. Sea W el espacio vectorial de todas las matrices simétricas de 2×2. Defina una transformación lineal T : W → R[t]3 mediante:   a b T = (a − b) + (b − c)t + (c − a)t2 . b c Encuentre el rango y la nulidad de T . 3. Encuentre el rango y la nulidad de las siguientes transformaciones lineales: a) T : R3×3 → R3×3 definida por T (A) = A − AT para cada A ∈ R3×3 . b) T : R[t]3 → R definida por T (p(t)) = p0 (0) para cada p(t) ∈ R[t]3 . (Nota: p0 (t) denota la derivada de p(t) con respecto a t).   a−b 4. Sea T : R[t]3 → R2 la transformación lineal dada por T (a + bt + ct2 ) = . b+c a) ¿Cuál o cuáles de los siguientes vectores está en el núcleo de T ?: (a) 1 + t, (b) t − t2 , (c) 1 + t − t2 .     0 1 b) ¿Cuál o cuáles de los siguientes vectores está en la imagen de T ?: (a) , (b) , 0 0   0 (c) . 1  5. Considere el espacio vectorial R [t]3 con la base β = 1, 1 − t, 1 − t + t2 . a) Construya la única transformación lineal de T : R [t]3 → R2×2 tal que       1 −1 1 1 1 T (1) = , T (1 − t) = , T 1 − t + t2 = 1 1 1 −1 1 b) Calcule el núcleo de la transformación lineal construida en el inciso a).

3 −3

 .

114

4. Transformaciones lineales y matrices 

6. Calcule el núcleo de la transformación lineal inducida por la matriz A =

1 0

2 0

0 1

 2 . 3

7. Calcule el núcleo de la transformación lineal T : R4 → R2 dada por:   T x + 2y + 2w T x, y, z, w = . z + 3w 8. Sean V y W espacios vectoriales reales de dimensión finita. Sean β = {v1 , v2 , v3 , v4 } y β 0 = {w1 , w2 , w3 } bases para V y W , respectivamente. Sea T : V → W la única transformación lineal tal que T v1

=

w1 + 2w2 − w3

T v2

=

3w1 + 6w2 − 3w3

T v3

=

3w1 + 9w2 + 3w3

T v4

=

2w1 + 5w2

Calcule bases para el núcleo y la imagen de T . 9. Sean U, V y W espacios vectoriales sobre el campo K, y sean T1 : V → U y T2 : U → W funciones lineales. Demuestre que ker(T1 ) ⊆ ker(T2 ◦ T1 ) y Im(T2 ◦ T1 ) ⊆ Im(T2 ). 10. Sea P : V → V un operador lineal idempotente, es decir, P ◦ P = P . Pruebe que V = ker P ⊕ Im P . 11. Sea V un espacio vectorial y sea T : V → V un operador lineal. Demuestre que las siguientes condiciones son equivalentes: a) ker T ∩ Im T = {0}. b) ∀v ∈ V, T (T (v)) = 0 ⇒ T (v) = 0. 12. Sea V un espacio vectorial de dimensión finita y sea T : V → V una función lineal. Demuestre que si rango(T ◦ T ) = rango(T ), entonces Im(T ) ∩ ker(T ) = {0}. 13. Sean T : V → W una transformación lineal y U un subespacio de dimensión finita del espacio V . Pruebe que si U ∩ ker T = {0}, entonces dim T (U ) = U , donde T (U ) = {T u | u ∈ U }. 14. Sean U, V y W K-espacios vectoriales. Si U es de dimensión finita, A : U → V y B : V → W son transformaciones lineales, pruebe que dim Im(AB) = dim Im(B) − dim ker(A) ∩ Im(B).

4.3.

Transformaciones lineales inyectivas y suprayectivas

Recordemos que una función f : A → B es inyectiva si para cualesquiera a, a0 ∈ A, f (a) = f (a0 ) implica a = a0 . Si Im(f ) = B, entonces f es suprayectiva. En esta sección la conexión entre las funciones inyectivas y la nulidad de una transformación lineal. Primero veamos un ejemplo. Teorema 4.3.1. Una transformación lineal T : V → W es inyectiva si y sólo si ker(T ) = {0}.

4.3. Transformaciones lineales inyectivas y suprayectivas

115

Demostración. (⇒) : Supongamos que T es inyectiva y sea v ∈ ker(T ). Entonces T (v) = 0. Sin embargo, también sabemos que T (0) = 0 según el Teorema 4.1.3, de manera que T (v) = T (0). Debido a que T es inyectiva, esto implica que v = 0 y por lo tanto ker(T ) = {0}. (⇐) : Supongamos ahora que ker(T ) = {0} y sean u, v ∈ V tales que T (u) = T (v). Como T es lineal, tenemos que T (u − v) = T (u) − T (v) = 0 de donde u − v ∈ ker(T ). Pero ker(T ) = {0}, de modo que u − v = 0. Por lo tanto, u = v y T es inyectiva. Corolario 4.3.2. Sea dim V = dim W = n. Entonces, una transformación lineal T : V → W es inyectiva si y sólo si es suprayectiva. Demostración. Tenemos que T es inyectiva si y sólo si ker(T ) = {0} según el Teorema 4.3.1. Luego, T es inyectiva si y sólo si nulidad(T ) = 0. Por el Teorema de la dimensión, tenemos que n = rango(T ). Por lo tanto, T es inyectiva si y sólo si n = rango(T ). Como rango(T ) = dim(Im(T )), tenemos que Im(T ) = W y por lo tanto T es suprayectiva. Así, T es inyectiva si y sólo si es suprayectiva. Corolario 4.3.3. Sea T : V → W una transformación lineal inyectiva. Si S = {v1 , . . . , vk } es un conjunto linealmente independiente en V , entonces T (S) = {T (v1 ), . . . , T (vk )} es un conjunto linealmente independiente en W . Demostración. Sean c1 , . . . , ck escalares tales que: c1 T (v1 ) + · · · + ck T (vk ) = 0. Entonces, T (c1 v1 +· · ·+ck vk ) = 0 pues T es lineal. De aquí que c1 v1 +· · ·+ck vk ∈ ker(T ). Pero, ya que T es inyectiva, ker(T ) = {0} según el Teorema 4.3.1. Por consiguiente, c1 v1 + · · · + ck vk = 0. No obstante, debido a que S es linealmente independiente, concluimos que c1 = · · · = ck = 0. Por lo tanto, T (S) es linealmente independiente. Corolario 4.3.4. Sea dim V = dim W = n. Entonces, una transformación lineal inyectiva T : V → W mapea una base para V en una base para W . Demostración. Sea β = {v1 , . . . , vn } una base para V . Como T es inyectiva, los elementos de T (β) son distintos entre sí. Luego, |T (β)| = n = dim W . De acuerdo con el Corolario 3.4.5, T (β) será una base para W si T (β) es linealmente independiente. Pero T (β) es linealmente independiente según el corolario anterior. Por lo tanto T (β) es una base para W . Ahora estamos en posición de describir, en términos concretos, lo que significa que dos espacios vectoriales sean “esencialmente el mismo”. Definición 4.3.5. Una transformación lineal T : V → W es un isomorfismo si es inyectiva y suprayectiva. Si V y W son espacios vectoriales tales que existe un isomorfismo de V en W , entonces decimos que V es isomorfo a W y escribimos V ∼ = W. Observación 4.3.6. Sea K un campo. La relación es isomorfo a es una relación de equivalencia en la clase de todos los K-espacios vectoriales. Ejemplo 4.3.7. Los espacios R[t]n y Rn son isomorfos. Teorema 4.3.8. Sean V y W espacios vectoriales de dimensión finita. Entonces, V es isomorfo a W si y sólo si dim V = dim W . Demostración. (⇒) : Sea n = dim V . Si V es isomorfo a W , entonces existe un isomorfismo T : V → W . Como T es inyectiva, nulidad(T ) = 0, y como T es suprayectiva, Im(T ) = W . El Teorema de la dimensión implica entonces que rango(T ) = n, de donde dim W = n. Así, dim V = dim W = n.

116

4. Transformaciones lineales y matrices

(⇐) : Supongamos ahora que dim V = dim W = n. Sea β = {v1 , . . . , vn } una base para V y sea β 0 = {w1 , . . . , wn } una base para W . Por el Teorema 4.1.4 existe una única transformación lineal T : V → W tal que T (vi ) = wi para i = 1, . . . , n. Demostraremos que esta función es inyectiva y suprayectiva. Sea v ∈ ker(T ). Podemos escribir v como combinación lineal de los vectores de la base β, digamos v = c1 v1 + · · · + cn vn . Tenemos que: 0 = T (v) = T (c1 v1 + · · · + cn vn ) = c1 T (v1 ) + · · · + cn T (vn ) = c1 w1 + · · · + cn wn , de donde c1 = · · · = cn = 0 ya que β 0 es linealmente independiente. Por lo tanto, v = 0 y así ker(T ) = {0}. Aplicando ahora el Teorema 4.3.1, se sigue que T es inyectiva. Como dim V = dim W = n, T también es suprayectiva, de acuerdo con el Corolario 4.3.2. Por lo tanto, T es un isomorfismo y V ∼ = W. Ejemplo 4.3.9. Los espacios Rn y R[t]n+1 no son isomorfos, ya que dim Rn = n 6= n + 1 = dim R[t]n+1 .

4.3.1.

Ejercicios

1. Sea T un operador lineal sobre V tal que T 2 = T , es decir, T ◦ T = T . Sea v ∈ V . Demuestre que {v, T (v)} es linealmente dependiente si y sólo si T (v) = v o T (v) = 0. 2. Sea L : R2 → R2 un operador lineal no nulo tal que L2 = L ◦ L = 0. Demuestre que existe una base {v1 , v2 } de R2 tal que L(v1 ) = v2 y L(v2 ) = 0. 2 3. Determine si la transformación   lineal T es (a) inyectiva y (b) suprayectiva. T : R[t]3 → R p(0) definida por T (p(t)) = . p(1)   p (0) 4. Sea T : R [t]4 → R2 la función lineal dada por T (p) = . Calcule una base para el p (1) núcleo de T. ¿Es T una función suprayectiva? Justifique su respuesta. 3 5. Calcule bases para el núcleo  a0y+ala2 imagen de la transformación lineal T : R [t]3 → R definida por T (a0 + a1 t + a2 t2 ) = −a1 . 0

   a b a 6. Sea T : R → R la función lineal dada por T = . Calcule una c d a+b+c+d base para el núcleo de T. ¿Es T una función suprayectiva? Justifique su respuesta. 2×2

2



7. Sea T : R5 → R4 una transformación lineal tal que dim ker T = 1. Encuentre la imagen de T . 8. Sea v un vector no cero de R2 . Sea T : R2 → R2 un operador lineal tal que T (v) = 0. Demuestre que Im T es o una línea recta o es {0}. 9. Sean W1 , W2 dos espacios vectoriales y sea V su producto directo V = W1 × W2 . Sea W = W1 × 0 = {(w1 , 0) ∈ V | w1 ∈ W1 } . Demuestre que el espacio cociente V /W y el espacio W2 son isomorfos. (Sugerencia: Considere la función T : W2 → V /W dada por T (w2 ) = W1 ×w2 ). Para la definición de espacio cociente, consulte el Ejercicio 20 de la Sección 3.2. 10. Demuestre que T : R[t]n+1 → R[t]n+1 definida por T (p(t)) = p(t) + p0 (t) para cada p(t) ∈ R[t]n+1 , es un isomorfismo. 11. ¿Es la función T : R[t]n+1 → R[t]n+1 definida por T (p(t)) = p(t−2) para cada p(t) ∈ R[t]n+1 , un isomorfismo?

4.4. La matriz asociada a una transformación lineal

117

12. Sea W el espacio vectorial de todas las matrices simétricas de 2 × 2. Demuestre que W es isomorfo a R3 . 13. Sea K un campo y sea T : K → K n una función lineal. Demuestre que T = 0 ó T es inyectiva. 14. Sea V un espacio vectorial de dimensión finita y sea T : V → V un operador lineal. Suponga que existe un operador lineal F : V → V tal que T ◦ F = 1V . Demuestre que T es un isomorfismo. 15. Pruebe que no existen funciones lineales inyectivas de R3 a R2 . 16. Pruebe que no existen funciones lineales suprayectivas de R2 en R3 . 17. Sean T : V → W y F : W → Z dos transformaciones lineales. Pruebe que a) ker T ⊂ ker F ◦ T . b) Si dim V > dim W entonces F ◦ T : V → Z no es un isomorfismo. 18. Sea T : V → W una transformación lineal entre dos espacios vectoriales de dimensión finita. a) Demuestre que si dim V < dim W , entonces T no puede ser suprayectiva. b) Demuestre que si dim V > dim W , entonces T no puede ser inyectiva. c) Si dim V = dim W , pruebe T es un isomorfismo o bien T no es inyectiva ni es suprayectiva. 19. Suponga que T : U → V y F : V → W son transformaciones lineales tales que F ◦ T es una biyección. Pruebe que V = Im T ⊕ ker F. 20. Sea V un espacio vectorial de dimensión finita y sea T : V → W una transformación lineal. Pruebe que V / ker T ∼ = Im T . (Sugerencia: Si [w1 ] = [w2 ], entonces T (w1 ) = T (w2 ).) Para la definición de espacio cociente, consulte el Ejercicio 20 de la Sección 3.2. 21. Pruebe el Teorema de la dimensión usando el ejercicio anterior. 22. Sea V un espacio vectorial y sean W1 y W2 dos subespacios de V. Pruebe que existe una transformación lineal inyectiva θ:

V V V → × . W1 ∩ W2 W1 W2

23. Sea K un campo finito con q elementos. Sea V un K-espacio vectorial de dimensión finita n > 0. Determine la cardinalidad de V .

4.4.

La matriz asociada a una transformación lineal

A cada transformación lineal es posible asignarle una matriz. Veamos un ejemplo de cómo hacer esto. Considere los espacios vectoriales R3 y R[t]3 con las bases: n  1  1  1 o 0 , v3 = 1 , β = v1 = −1 , v2 = 2

β0

−1

1

= {w1 = 1, w2 = 1 + t, w3 = 1 + t + t2 },

respectivamente. Sea T : R3 → R[t]3 la transformación lineal dada por: x T y = (y + 2z) + (y + z)t + (x + y)t2 . z

118

4. Transformaciones lineales y matrices T

Sea v = (4, −1, 9) . El objetivo de este ejemplo es escribir T (v) como combinación lineal de los vectores de la base β 0 utilizando dos procedimientos diferentes. Primer procedimiento. Calculemos directamente T (v).  4 T (v) = T −1 = 17 + 8t + 3t2 . 9

Queremos escribir T (v) = x1 w1 + x2 w2 + x3 w3 . Esto nos lleva a: 17 + 8t + 3t2

= x1 (1) + x2 (1 + t) + x3 (1 + t + t2 ) =

(x1 + x2 + x3 ) + (x2 + x3 )t + x3 t2 .

Resolviendo el sistema de ecuaciones lineales resultante, obtenemos x1 = 9, x2 = 5 y x3 = 3. Así: T (v)

=

9(1) + 5(1 + t) + 3(1 + t + t2 )

=

9w1 + 5w2 + 3w3 ,

T

y por lo tanto [T (v)]β 0 = (9, 5, 3) . Segundo procedimiento. Lo haremos en varios pasos. (1) Escribimos cada uno de los vectores T (v1 ), T (v2 ) y T (v3 ) como combinación lineal de los vectores de la base β 0 . Es decir: T (v1 ) T (v2 )

=

3 + t + 0t2 = 2(1) + 1(1 + t) + 0(1 + t + t2 )

=

2w1 + w2 + 0w3

= −2 − t + t2 = −(1) − 2(1 + t) + 1(1 + t + t2 ) = −w1 − 2w2 + w3

T (v3 )

=

3 + 2t + 2t2 = 1(1) + 0(1 + t) + 2(1 + t + t2 )

= w1 + 0w2 + 2w3 . (2) Escribimos a v como combinación lineal de los vectores de la base β. Es decir:  1  1 1 0 + 2 1 = 3v1 − v2 + 2v3 . v = 3 −1 − −1

2

1

(3) En el paso (2) hallamos escalares c1 , c2 y c3 tales que v = c1 v1 +c2 v2 +c3 v3 . Por la linealidad de T se tiene que T (v) = c1 T (v1 ) + c2 T (v2 ) + c3 T (v3 ). Combinando esto con los resultados del paso (1), escribimos T (v) como combinación lineal de w1 , w2 y w3 . Es decir: T (v)

=

3T (v1 ) − T (v2 ) + 2T (v3 )

=

3(2w1 + w2 + 0w3 ) − (−w1 − 2w2 + w3 ) + 2(w1 + 0w2 + 2w3 )

=

9w1 + 5w2 + 3w3 .

Los dos procedimientos arrojan el mismo resultado. Sin embargo, es más conveniente. Nótese que si hacemos:  2 −1 A = [[T (v1 )]β 0 | [T (v2 )]β 0 | [T (v3 )]β 0 ] =  1 −2 0 1 entonces:



2 A[v]β =  1 0

el segundo procedimiento  1 0 , 2

    −1 1 3 9 −2 0   −1  =  5  = [T (v)]β 0 . 1 2 2 3

4.4. La matriz asociada a una transformación lineal

119

Teorema 4.4.1. Sean V y W dos K-espacios vectoriales de dimensión finita. Sean β = {v1 , . . . , vn } y β 0 = {w1 , . . . , wm } bases para V y W , respectivamente. Para cada transformación lineal T : V → W existe una única matriz en K m×n , denotada por [T ]ββ 0 que satisface: [T ]ββ 0 [v]β = [T (v)]β 0 , ∀v ∈ V. La matriz [T ]ββ 0 es la matriz de T en las bases β y β 0 . También se dice que [T ]ββ 0 es la matriz asociada a T en las bases β y β 0 . Demostración. Sea v ∈ V . Tenemos que v = x1 v1 + · · · + xn vn con xi escalares. Luego, [v]β = T (x1 , . . . , xn ) . Por otra parte, usando la linealidad de T tenemos que: T (v) = x1 T (v1 ) + · · · + xn T (vn ).

(4.1)

Para hallar [T (v)]β 0 debemos expresar a T (v) como combinación lineal de w1 , w2 , . . . , wm . Como T (v1 ), T (v2 ), . . . , T (vn ) ∈ W , será suficiente expresar cada uno de estos vectores T (vj ), como combinación lineal de los wi ’s. Para cada j = 1, . . . , n, supongamos que: T (vj ) = a1j w1 + a2j w2 + · · · + amj wm . Sustituyendo cada T (vj ) en (4.1) tenemos que: = x1 (a11 w1 + · · · + am1 wm ) + · · · + xn (a1n w1 + · · · + amn wm )

T (v)

=

(a11 x1 + · · · + a1n xn )w1 + · · · + (am1 x1 + · · · + amn xn )wm .

Luego:  [T (v)]β 0

=

=

  a11 x1 + · · · + a1n xn a11    .. ..  = . . am1 x1 + · · · + amn xn am1   a11 · · · a1n  .. ..  [v] . ..  . . .  β am1



Haciendo [T ]ββ 0

a11  .. = .

··· .. . ···

···

··· .. . ···

  a1n x1 ..   ..  .  .  amn

xn

amn

 a1n .. , tenemos que [T (v)] 0 = [T ] 0 [v] . Note que [T ] 0 = β ββ β ββ . 

am1 amn [[T (v1 )]β 0 | . . . | [T (vn )]β 0 ]. Para demostrar la unicidad de [T ]ββ 0 , supongamos que B ∈ K m×n es tal que [T (v)]β 0 = B[v]β para todo v ∈ V . Sea A = [T ]ββ 0 . Entonces, A[v]β = B[v]β para todo v ∈ V , en particular, A[vj ]β = B[vj ]β para j = 1, . . . , n. Como [vj ]β = ej , tenemos que Aej = Bej , es decir, la j-ésima columna de A es igual a la j-ésima columna de B para j = 1, . . . , n, y por lo tanto A = B. Ejemplos 4.4.2. 1. Si T : R3 → R[t]3 es la transformación lineal dada por:   x T y  = (y + 2z) + (y + z)t + (x + y)t2 , z

120

4. Transformaciones lineales y matrices

y β, β 0 son como antes, entonces: 

[T ]ββ 0

 −1 1 −2 0  . 1 2

2 = 1 0

Si ahora, β1 = {e1 , e2 , e3 } y β10 = {1, t, t2 }, entonces:   0 1 2 [T ]β1 β10 =  0 1 1  . 1 1 0 Este ejemplo muestra que una transformación lineal puede tener más de una matriz asociada. De hecho, para cualquier pareja de bases β, β 0 hay una matriz asociada. Más adelante, en la Sección 4.6 se describirá la relación que hay entre las matrices asociadas a la misma transformación lineal. 2. Sean T, F : R2 → R2 las transformaciones lineales dadas por:         x 5x + 9y x −4x + 17y , F = , T = y −x + y y −x + 6y respectivamente. Considere las siguientes bases de R2 :         1 0 1 1 0 β={ , }, β ={ , }, 0 1 1 −1         3 2 1 1 β1 = { , }, β10 = { , } 1 1 0 1 Entonces:  [T ]

ββ 0

=

2 3

5 4

 = [F ]β1 β10 .

Este ejemplo muestra que transformaciones lineales diferentes pueden tener la misma matriz asociada, respecto de diferentes bases.   1 2 −3 3. Sea TA : R3 → R2 la función lineal inducida por A = . Es decir: 2 −3 5    x1 1   TA x2 = 2 x3

2 −3 −3 5



    x1 x2  = x1 + 2x2 − 3x3 . 2x1 − 3x2 + 5x3 x3

Si β y β 0 son las bases canónicas para R3 y R2 respectivamente, entonces:   1 2 −3 [TA ]ββ 0 = = A. 2 −3 5 En general, si A ∈ K m×n y TA : K n → K m es la función lineal inducida por A, entonces [TA ]ββ 0 = A, donde β y β 0 son las bases canónicas de K n y K m , respectivamente. En efecto, supongamos que β = {e1 , . . . , en } y β 0 = {e01 , . . . , e0m }. Entonces TA (ej ) = Aej = columna j de A. Luego, [TA (ej )]β 0 = Aej y por lo tanto [TA ]ββ 0 = [Ae1 | . . . | Aen ] = A.

4.4. La matriz asociada a una transformación lineal

121

4. Sean V y W dos espacios vectoriales reales de dimensiones 3 y 2, respectivamente. Sean β = {v1 , v2 , v3 } y β 0 = {w1 , w2 } bases para V y W , respectivamente. Suponga que T : V → W es una transformación lineal tal que:   −3 2 7 [T ]ββ 0 = . −2 1 4 Si v = 2v1 + 3v2 − v3 , podemos escribir T (v) como combinación lineal de los elementos de la base β 0 . Para calcular [T (v)]β 0 aplicamos el Teorema 4.4.1:       2 −3 2 7  −7 3 = [T (v)]β 0 = [T ]ββ 0 [v]β = . −2 1 4 −5 −1 Por lo tanto T (v) = −7w1 − 5w2 . 5. Considere las bases β = {e1 , e2 } y β 0 = {e1 + e2 , e1 − e2 } del espacio vectorial R2 . Sea 1R2 : R2 → R2 el operador lineal identidad sobre R2 . Puesto que 1R2 (e1 ) = e1 = 1e1 + 0e2 y 1R2 (e2 ) = e2 = 0e1 + 1e2 , la matriz asociada al operador lineal 1R2 respecto a la base β es:   1 0 [1R2 ]ββ = I. 0 1 Por otro lado, 1R2 (e1 ) = e1 = 21 (e1 + e2 ) + 12 (e1 − e2 ) y 1R2 (e2 ) = e2 = 21 (e1 + e2 ) − 12 (e1 − e2 ), de modo que:   [1R2 ]ββ 0 =

1 2 1 2

1 2 − 21

.

T

Si v = (7, −8) , entonces [v]β = v. Luego: [v]β 0 = [1R2 (v)]β 0 = [1R2 ]ββ 0 [v]β ,      1 1 7 −1/2 2 2 = [v]β 0 = 1 −8 15/2 − 12 2     1 1 Así, v = (−1/2) + (15/2) . Nótese que esta matriz sirve para cambiar de base. 1 −1 En general, si V es un espacio vectorial de dimensión n, β y β 0 son bases para V y 1V : V → V es la función lineal identidad, a la matriz [1V ]ββ 0 se le llama matriz cambio de base de la base β a la base β 0 . En el caso en que β = β 0 tenemos que [1V ]ββ = I, donde I es la matriz identidad de n × n. En efecto, si β = {v1 , . . . , vn }, entonces 1V (vj ) = vj y [vj ]β = ej , de donde [1V ]ββ = [e1 | . . . | en ] = I.

4.4.1.

Ejercicios

1. Sea T el operador lineal sobre R[t]2 definido por: T (a + bt) = (18a + 30b) + (−10a − 17b)t. Considere las bases β = {1, t} y β 0 = {2 − t, −3 + 2t}. Calcule las matrices [T ]β y [T ]β 0 .  2. Considere el espacio vectorial R [t]3 con la base β = 1 + t + t2 , 2 + 3t + t2 , 1 + 2t + t2 . Sea T : R [t]3 → R [t]3 la función lineal derivación T (p) = p0 . Calcule la matriz de T respecto a la base β.

122

4. Transformaciones lineales y matrices

3. Sea T el operador lineal sobre R2×2 dado por T (A) = BA − AB, donde B =



1 −1

1 −1

 .

Calcule [T ]β , la matriz de T en la base β, donde β es la base canónica de R2×2 . 4. Sea T : R [t]3 → R4 dada por T (p) = (p(0), p(1), p(2), p(3))T . Encuentre la matriz de T respecto a las bases canónicas de R [t]3 y R4 , respectivamente.   2x1 + 6x2 + 6x3 + 2x4 5. Sea T : R4 → R3 la transformación lineal dada por T (x) =  5x1 + 3x2 + 3x3 + 5x4  . 4x1 + 4x4 a) Calcule la matriz de T en las bases canónicas de R4 y R3 , respectivamente. b) Considere las bases   1   1   1 β1 =  1  2   1   2 1 0  2 β1 = 3 1



  1 1  1  −1  1  −1 ,     2  −1  , 2  1 1 −1     −2 1  , 1  1  , 1  −2 3 3 2 2 

 1    1  1  ,   ,  2  −1    −1     



de R4 y R3 , respectivamente. Calcule la matriz de T referida a este par de bases. 6. Sea V un K-espacio vectorial de dimensión n con una base β. Pruebe que un conjunto de vectores {v1 , v2 , . . . , vr } ⊆ V es linealmente independiente si y sólo si el conjunto de vectores coordenados: {[v1 ]β , [v2 ]β , . . . , [vr ]β } ⊆ K n es linealmente independiente. 7. Sean V y W espacios vectoriales de dimensión finita y sea T : V → W una transformación lineal. Sean β = {v1 , . . . , vn } y β 0 = {w1 , . . . , wm } bases para V y W , respectivamente, y sea A = [T ]ββ 0 . Sean v ∈ V y w ∈ W . Pruebe que: a) v ∈ Ker(T ) si y sólo si [v]β ∈ N (A). b) w ∈ Im(T ) si y sólo si [w]β 0 ∈ R(A). c) Si {h1 , . . . , hn−r } es una base del espacio nulo de A, entonces {u1 , . . . , un−r } es una base para el núcleo de T , donde ui es tal que [ui ]β = hi para i = 1, . . . , n − r. d) Si {y1 , . . . , yr } es una base para el espacio columna de A, entonces {w1 , . . . , wr } es una base para la imagen de T , donde wj es tal que [wj ]β 0 = yj para j = 1, . . . , r. 8. Sean β = {v1 , v2 , v3 } y β 0 = {w1 , w2 } bases para R3 y R2 , respectivamente. Sea T : R3 → R2 la única transformación lineal tal que T v1 = w2 y T v2 = T v3 = w1 − w2 . Calcule la matriz [T ]ββ 0 . 9. Sean V y W dos espacios vectoriales reales de dimensión finita. Sean β = {v1 , v2 , v3 , v4 } y β 0 = {w1 , w2 , w3 } bases para V y W , respectivamente. Sea T : V → W la única transformación lineal tal que T (v1 ) = w1 − 2w2 − w3 , T (v2 ) = w2 , T (v3 ) = w1 − w2 − w3 y T (v4 ) = −w1 + 2w2 + w3 . Utilizando la representación matricial de T , calcule bases para el núcleo y la imagen de T . (Nota: Los vectores de estas bases deberán expresarse en términos de los vectores de las bases β y β 0 , según corresponda).

4.4. La matriz asociada a una transformación lineal

123

10. Sean V y W dos espacios vectoriales reales de dimensión finita. Sean β = {v1 , v2 , v3 , v4 } y β 0 = {w1 , w2 , w3 } bases para V y W, respectivamente. Sea T : V → W la única transformación lineal tal que T v1 = w1 + 2w2 − 3w3 ,

T v 2 = w2 ,

T v3 = −w1 − w2 + 3w3 ,

T v4 = 2w1 + 4w2 − 6w3 .

Calcule una base para el núcleo de T . 11. Sea T el operador lineal sobre R2×2 dado por T (A) = para R2×2 . Calcule [T ]β .

1 2 (A

+ AT ). Sea β la base canónica

12. Sea P : R2 → R2 la transformación lineal que a cada vector v ∈ R2 le asigna su proyección ortogonal sobre la recta y = x, es decir, le asigna el vector v0 sobre la recta y = x de tal manera que el vector v − v0 es perpendicular al vector v0 . a) Calcule [P ]β , donde β es la base canónica de R2 .  b) Describa explícitamente P , es decir, determine una fórmula para P

x y

 .

13. Considere vectoriales V = R[t]3 y W = R2 con las bases β = {1, t, t2 } y β 0 =   los  espacios  1 1 { , }. Encuentre de manera explícita la única transformación lineal de T : V → −1 1   1 −1 2 W tal que [T ]ββ 0 = . −1 1 1 T

T

T

T

T

14. β = {(1, −1, 1) , (1, 1, 0) , (0, 1, 1) } y β 0 = {(1, 1) , (1, −1) } son bases de R3 y R2 , respectivamente. Calcule una transformación lineal T ∈ L(R3 , R2 ) tal que [T ]ββ 0 = A, donde   1 −1 2 A= 3 2 4 15. Considere R2 con las bases β = {v1 , v2 } y β 0 = {w1 , w2 } donde v1 = (2 1)T , v2 = (1 1)T , w1 = (1 1)T y w2 = (1 − 1)T . Sea T el único operador lineal sobre R2 tal que T (w1 ) = v1 y T (w2 ) = v2 . Calcule las matrices [1V ]ββ 0 , [T ]β y [T ]β 0 y compárelas. ¿Qué observa?. 16. Sea V un espacio vectorial de dimensión finita y sean β = {v1 , . . . , vn } y β 0 = {w1 , . . . , wn } bases diferentes para V . Sea T el único operador lineal sobre V tal que T (wi ) = vi para i = 1, . . . , n. Pruebe que [1V ]ββ 0 = [T ]β = [T ]β 0 . 17. Sea V un espacio de dimensión finita, sean β y β 0 bases para V , sea P la matriz cambio de base de la base β a la base β 0 y sea T : V → V un operador lineal. Demuestre que: [T ]ββ 0 = P [T ]β . 18. Sean V y W dos espacios vectoriales reales de dimensiones 2 y 3, respectivamente. Sean β = {v1 , v2 } y β 0 = {w1 , w2 , w3 } bases para V y W , respectivamente. Si T : V → W es una transformación lineal tal que:   2 1 [T ]ββ 0 =  1 −1  −1 3 y v = 2v1 − 3v2 , calcule T (v). 19. Sea E : Rn → Rn un operador lineal idempotente, es decir, un operador lineal tal que E 2 = E. Sean β1 = {v1 , . . . , vr } y β2 = {w1 , . . . , wn−r } bases para la imagen y el núcleo de E, respectivamente. Calcule la matriz de E en la base β = β1 ∪ β2 de Rn . (Demuestre primero que β es base de Rn ).

124

4. Transformaciones lineales y matrices

20. Sea T un operador lineal sobre R3 tal que T 3 = 0 β para R3 tal que:  0 0 [T ]β = 1 0 0 1

y T 2 6= 0. Demuestre que existe una base  0 0 . 0

21. Sea T : R2 → R2 una proyección (es decir, T es una transformación lineal tal que T 2 = T ). Demuestre que T = 0, o T es la transformación identidad, o existe una base β de R2 tal que:   1 0 [T ]β = . 0 0

4.5.

El isomorfismo entre K dim W ×dim V y L(V, W )

Sean V y W dos K-espacios vectoriales. Como se vio en la sección 4.1, L(V, W ) es un espacio vectorial. En esta sección se probará que si los espacios V y W son de dimensión finita, entonces L(V, W ) ∼ = K dim W ×dim V y L(V, W ) es de dimensión finita. Teorema 4.5.1. 1. Si A, B ∈ K m×n , y c es un escalar, entonces TA+B = TA + TB y TcA = cTA . 2. Si A ∈ K m×n y B ∈ K n×p , entonces TAB = TA ◦ TB . Demostración. Se deja de ejercicio al lector. Teorema 4.5.2. Para cada T ∈ L(K n , K m ) existe una única matriz A ∈ K m×n tal que T = TA . Demostración. Sea T ∈ L(K n , K m ) y sean β, β 0 las bases canónicas para K n y K m respectivamente. Por el Teorema 4.4.1, la matriz A = [T ]ββ 0 es la única matriz que satisface: T (x) = [T (x)]β 0 = [T ]ββ 0 [x]β = Ax = TA (x), ∀x ∈ K n , es decir, T = TA . Teorema 4.5.3. La función ϕ : K m×n → L(K n , K m ) dada por ϕ(A) = TA es un isomorfismo de espacios vectoriales. Demostración. Se sigue del Teorema 4.5.1 que ϕ es lineal y del Teorema 4.5.2 que ϕ es biyectiva. Corolario 4.5.4. dim(L(K n , K m )) = mn. Demostración. Como la función ϕ del teorema anterior es un isomorfismo, tenemos que ker(ϕ) = {0} y Im(ϕ) = L(K n , K m ). Luego, por el teorema de la dimensión tenemos que dim(K m×n ) = dim(ker(ϕ)) + dim(Im(ϕ)), es decir, mn = dim(L(K n , K m )). Teorema 4.5.5. Sea V un K-espacio vectorial de dimensión finita n > 0 y sea β una base para V . Sea W un K-espacio vectorial de dimensión finita m > 0 y sea β 0 una base para W . Si F, T : V → W son transformaciones lineales, entonces [F + T ]ββ 0 = [F ]ββ 0 + [T ]ββ 0 y [cF ]ββ 0 = c[F ]ββ 0 para todo c ∈ K. Demostración. Sea v ∈ V . Por el Teorema 4.4.1 tenemos que: [F + T ]ββ 0 [v]β

=

[(F + T )(v)]β 0 = [F (v) + T (v)]β 0 = [F (v)]β 0 + [T (v)]β 0

=

[F ]ββ 0 [v]β + [T ]ββ 0 [v]β = ([F ]ββ 0 + [T ]ββ 0 )([v]β ).

En particular [F +T ]ββ 0 [v 0 ]β = ([F ]ββ 0 +[T ]ββ 0 )([v 0 ]β ) para todo v 0 ∈ β, de modo que [F +T ]ββ 0 = [F ]ββ 0 + [T ]ββ 0 . De manera análoga se prueba que [cF ]ββ 0 = c[F ]ββ 0 para todo c ∈ K.

4.6. Matrices asociadas a la misma transformación lineal

125

Teorema 4.5.6. Sean V , W , β y β 0 como en el Teorema 4.5.5. Para cada matriz A ∈ K m×n existe una única transformación lineal T : V → W tal que: A = [T ]ββ 0 . Demostración. Sean β = {v1 , . . . , vn }, β 0 = {w1 , . . . , wm } y A = (aij ) ∈ K m×n . Por el Teorema 4.1.4, existe una única transformación lineal T : V → W tal que:

es decir, tal que [T ]ββ 0

T (v1 )

= a11 w1 + a21 w2 + · · · + am1 wm , .. .

T (vn )

= a1n w1 + a2n w2 + · · · + amn wm ,



a11  a21  = .  ..

... ... .. .

 a1n a2n   ..  = A. . 

am1

...

amn

Teorema 4.5.7. Sean V , W , β y β 0 como en el Teorema 4.5.5. La función φ : L(V, W ) → K m×n dada por φ(T ) = [T ]ββ 0 es un isomorfismo de espacios vectoriales. Demostración. Se sigue del Teorema 4.5.5 que φ es lineal y del Teorema 4.5.6 que φ es biyectiva.

Corolario 4.5.8. Sean V y W dos K-espacios vectoriales de dimensión finita, con dim(V ) = n y dim(W ) = m. Entonces, dim(L(V, W )) = mn. Demostración. Como la función φ del teorema anterior es un isomorfismo, se tiene la función inversa φ−1 : K m×n → L(V, W ) también es un isomorfismo. Luego, ker(φ−1 ) = {0} y Im(φ−1 ) = L(V, W ). Aplicando el teorema de la dimensión, tenemos que dim(K m×n ) = dim(ker(φ−1 )) + dim(Im(φ−1 )), es decir, mn = dim(L(V, W )).

4.5.1.

Ejercicios

1. Demuestre el Teorema 4.5.1. 2. Sea V un K-espacio vectorial de dimensión 2 y sea β una base de V . Si T es un operador   a b lineal sobre V y [T ]β = , demuestre que: c d T 2 − (a + d)T + (ad − bc)1V = 0.     x −y 3. Sea T : R → R la función lineal dada por T = . Demuestre que la transfory x mación lineal T − c1R2 es un isomorfismo para todo número real c. 2

4.6.

2

Matrices asociadas a la misma transformación lineal

Escribiremos T : (V, β) → (W, β 0 ) para denotar a una transformación lineal T entre dos espacios vectoriales V y W con bases β y β 0 , respectivamente.

126

4. Transformaciones lineales y matrices

Teorema 4.6.1. Sean U , V y W , K-espacios vectoriales de dimensiones positivas m, n y p, con bases β, β 0 y β 00 , respectivamente. Si F y T son transformaciones lineales tales que: F

T

(U, β) −−−−→ (V, β 0 ) −−−−→ (W, β 00 ) entonces: [T ◦ F ]ββ 00 = [T ]β 0 β 00 [F ]ββ 0 . Demostración. Sea u ∈ U . El Teorema 4.4.1 implica que: [T ◦ F ]ββ 00 [u]β = [(T ◦ F )(u)]β 00 = [T (F (u))]β 00 = [T ]β 0 β 00 [F (u)]β 0 = [T ]β 0 β 00 [F ]ββ 0 [u]β . Como esto es para todo u ∈ U , en particular [T ◦ F ]ββ 00 [u0 ]β = [T ]β 0 β 00 [F ]ββ 0 [u0 ]β para todo u ∈ β. Luego, [T ◦ F ]ββ 00 = [T ]β 0 β 00 [F ]ββ 0 . 0

Corolario 4.6.2. Si V es un espacio vectorial de dimensión finita n > 0, y β, β 0 son bases para 0 V , entonces: [1V ]−1 ββ 0 = [1V ]β β . Demostración. Consideremos la transformación lineal identidad 1V tal que: 1

1

(V, β) −−−V−→ (V, β 0 ) −−−V−→ (V, β) Por el Teorema 4.6.1, tenemos que [1V ]ββ = [1V ]β 0 β [1V ]ββ 0 . Como [1V ]ββ = I, se sigue que 0 [1V ]−1 ββ 0 = [1V ]β β . Teorema 4.6.3. Sean V y W espacios vectoriales de dimensión finita y T : V → W una transformación lineal. 1. Si T es invertible, entonces [T ]ββ 0 es invertible para cualesquiera bases β y β 0 de V y W , respectivamente. Además: −1 [T ]−1 ]β 0 β . ββ 0 = [T 2. Si [T ]ββ 0 es invertible para algún par de bases β y β 0 de V y W respectivamente, entonces T es invertible. Demostración. 1. Si T : V → W es invertible, entonces T es un isomorfismo de espacios vectoriales y por lo tanto dim(V ) = dim(W ). Supongamos que dim(V ) = n, y sean β y β 0 bases de V y W respectivamente. Sea T −1 la inversa de T . Claramente T −1 es lineal. Entonces [T −1 ◦ T ]ββ = [1V ]ββ = I, donde I es la matriz identidad de n × n. Como: T

T −1

(V, β) −−−−→ (W, β 0 ) −−−−→ (V, β) entonces por el Teorema 4.6.1 tenemos que: [T −1 ◦ T ]ββ = [T −1 ]β 0 β [T ]ββ 0 , −1 0 y por lo tanto I = [T −1 ]β 0 β [T ]ββ 0 , es decir, [T ]ββ 0 es invertible y [T ]−1 ]β β . ββ 0 = [T

2. Supongamos que existen bases β y β 0 de V y W respectivamente, tales que [T ]ββ 0 es invertible. Entonces, V y W tienen la misma dimensión, digamos n. Sea A la matriz inversa de [T ]ββ 0 . Por el Teorema 4.5.6, existe una única transformación lineal S : W → V tal que A = [S]β 0 β . Entonces, [T ]ββ 0 [S]β 0 β = I, donde I es la matriz identidad de n×n. Pero por el Teorema 4.6.1, tenemos que [T ]ββ 0 [S]β 0 β = [T ◦ S]β 0 β 0 , de modo que [T ◦ S]β 0 β 0 = I. Se sigue finalmente que T ◦ S = 1W , es decir, T es invertible.

4.6. Matrices asociadas a la misma transformación lineal

127

Los siguientes ejemplos son aplicaciones del Teorema 4.6.3. 2 Ejemplo   4.6.4. Determine si la función lineal T : R[t]2 → R lineal dada por T (a + bt) = a−b es invertible. En caso de que lo sea, halle su inversa. a + 2b Se calcula la matriz de T respecto de alguna   una pareja  debases. Se escogen las bases 1 −1 0 β = {1, t} y β = {e1 , e2 }. Dado que T (1) = y T (t) = , se tiene que 1 2   1 −1 [T ]ββ 0 = . 1 2

Esta matriz es invertible ya que su determinante es 3. De hecho,  2 1  3 3 . [T ]−1 = ββ 0 − 13 31 De acuerdo con el Teorema 4.6.3, dado que T es invertible se tiene que [T −1 ]β 0 β = [T ]−1 ββ 0 . Por lo tanto, la inversa de T es la única función T −1 : R2 → R[t]2 dada por T −1 (e1 ) = 2/3 − t/3 y T −1 (e2 ) = 1/3 + t/3. Por lo tanto   t 1 t 1 2 −1 x T = xT −1 (e1 ) + yT −1 (e2 ) = x( − ) + y( + ) = (2x + y + (−x + y)t) . y 3 3 3 3 3 La elección de las bases canónicas fue para facilitar los cálculos. Se recomienda al lector como ejercicio verificar que se obtiene el mismo resultado si escogen las bases β = {1 + t, 1 − t} y β 0 = {e1 + e2 , e1 } para R[t]2 y R2 , respectivamente. Ejemplo 4.6.5. Sea W el espacio vectorial real que consta de las matrices antisimétricas de 3 × 3, es decir: W = {A ∈ R3×3 | A = −AT }. Sea T : R[t]3 → W la transformación lineal dada por:   0 −a + b −b + c 0 −c  . T (a + bt + ct2 ) =  a − b b−c c 0 Se trata de determinar si T es invertible o no, y en caso de serlo calcular su inversa. Para ello, se trabajará con las bases: β β0

= =

{1, t, t2 },   0  w1 =  1  0

  −1 0 0 0 0  , w2 =  0 0 0 1

0 0 0

  −1 0 0  , w3 =  0 0 0

0 0 1

 0  −1  ,  0

de R[t]3 y W , respectivamente. Dado que T (1) = w1 , T (t) = −w1 + w2 y T (t2 ) = −w2 + w3 , se tiene que:   1 −1 0 1 −1  . [T ]ββ 0 =  0 0 0 1   1 1 1 0 1 1. Luego, la inversa de T es Es fácil ver que esta matriz es invertible y que [T ]−1 ββ 0 = 0 0 1 −1 la única función lineal T : W → R[t]3 tal que: T −1 (w1 ) = 1,

T −1 (w2 ) = 1 + t,

T −1 (w3 ) = 1 + t + t2 .

128

4. Transformaciones lineales y matrices

Se sigue entonces que T −1 está dada por:   0 −a −b −1  a 0 −c  = T b c 0

T −1 (aw1 + bw2 + cw3 )

=

a(1) + b(1 + t) + c(1 + t + t2 )

=

(a + b + c) + (b + c)t + ct2 .

Nótese que si T : V → W es una transformación lineal tal que para algún par de bases β y β 0 de V y W respectivamente, la matriz [T ]ββ 0 no es invertible, entonces T tampoco es invertible. En efecto, si T fuera invertible, entonces por el Teorema 4.6.3, la matriz de T referida a cualquier par de bases sería invertible, en particular [T ]ββ 0 sería invertible, lo que es una contradicción. A continuación veremos la relación que hay entre las matrices que representan a una misma transformación lineal. Definamos en K m×n una relación de equivalencia ∼ denominada equivalencia de matrices. Decimos que A es equivalente a B, denotado A ∼ B, si existen matrices invertibles P y Q de m × m y n × n, respectivamente, tales que: A = P BQ. Se deja al lector probar que esta relación es una relación de equivalencia (Ejercicio 1). Se denota por K m×n / ∼ el conjunto de todas las clases de equivalencia bajo esta relación. Teorema 4.6.6. Sean V y W espacios vectoriales de dimensión finita y sea T : V → W una transformación lineal. 1. Cualesquiera dos matrices que representan a T son equivalentes. Además, si β y β1 son bases para V , y β 0 y β10 son bases para W , entonces: [T ]ββ 0 = [1W ]β10 β 0 [T ]β1 β10 [1V ]ββ1 . En otras palabras, el siguiente diagrama es conmutativo: T

(V, β) −−−−→ (W, β 0 )  x  1 1V y W (V, β1 ) −−−−→ (W, β10 ) T

es decir, T = 1W ◦ T ◦ 1V . 2. Recíprocamente, si A y B son matrices equivalentes y A representa a T , entonces B también representa a la transformación lineal T . Más precisamente, si A = [T ]ββ 0 para algunas bases β de V y β 0 de W , entonces existen bases β1 de V y β10 de W , tales que B = [T ]β1 β10 . Demostración. 1. Por el Teorema 4.6.1 tenemos que: [1W ]β10 β 0 [T ]β1 β10 = [1W ◦ T ]β1 β 0 y [1W ◦ T ]β1 β 0 [1V ]ββ1 = [(1W ◦ T ) ◦ 1V ]ββ 0 . Por lo tanto: ([1W ]β10 β 0 [T ]β1 β10 )[1V ]ββ1 = [(1W ◦ T ) ◦ 1V ]ββ 0 = [T ]ββ 0 , ya que (1W ◦ T ) ◦ 1V = T .

4.6. Matrices asociadas a la misma transformación lineal

129

2. Supongamos que A = [T ]ββ 0 y que A = P BQ con P = (pij ) y Q = (qij ) matrices invertibles de m × m y n × n, respectivamente. Sea β 0 = {w1 , . . . , wm }. Para cada i = 1, 2, . . . , m, definimos: m X wi0 = p1i w1 + p2i w2 + · · · + pmi wm = pki wk . k=1 0 Demostraremos que β10 = {w10 , . . . , wm } es base de W . Supongamos que: 0 c1 w10 + c2 w20 + · · · + cm wm = 0.

Entonces: 0

= c1 =

=

m X

pk1 wk + c2

k=1 m X m X

m X

pk2 wk + · · · + cm

k=1 m X m X

m X

pkm wk

k=1

ci pki wk = ci pki wk i=1 k=1 k=1 i=1 ! m m X X ci pki

k=1

wk .

i=1

Pm Como β 0 es base de W , se sigue que i=1 ci pki = 0 para cada k = 1, 2, . . . , m. Es decir, tenemos que P c = 0 donde c = (c1 c2 · · · cm )T . Como P es invertible, se sigue que c = P −1 0 = 0, de modo que ci = 0 para cada i = 1, 2, . . . , m. Por lo tanto, β10 es un conjunto de m vectores linealmente independientes y en consecuencia es base de W . Así, P = [1W ]β10 β 0 . 0 Por otro lado, sean β = {v1 , v2 , . . . , vn } y Q−1 = (qij ). Para cada i = 1, 2, . . . , n, definimos:

0 0 0 vi0 = q1i v1 + q2i v2 + · · · + qni vn =

n X

0 qki vk ,

k=1

y como en el caso anterior, se demuestra que β1 = {v10 , v20 , . . . , vn0 } es base de V . Luego, Q−1 = [1V ]β1 β y por el Corolario 4.6.2, se sigue que Q = [1V ]−1 β1 β = [1V ]ββ1 . Luego, hemos encontrado bases β1 y β10 de V y W , respectivamente, tales que P = [1W ]β10 β 0 y Q = [1V ]ββ1 . Luego, por lo demostrado en 1, se tiene que A = [T ]ββ 0 = [1W ]β10 β 0 [T ]β1 β10 [1V ]ββ1 = P [T ]β1 β10 Q Finalmente, como A = P BQ, se sigue que P [T ]β1 β10 Q = P BQ de donde [T ]β1 β10 = B. El teorema anterior establece que la función L(V, W ) → K dim W ×dim V / ∼ dada por: T 7→ clase de equivalencia de A está bien definida, donde A es la matriz de T respecto de alguna pareja de bases. Se sigue del Teorema 4.5.6 que la asignación es suprayectiva. La función no es inyectiva, ya que diferentes transformaciones lineales pueden tener la misma clase de equivalencia (Ver Ejemplos 4.4.2, inciso 2). Ejemplo 4.6.7. Sea T : R[t]4 → R[t]3 la transformación lineal dada por: T (a + bt + ct2 + dt3 ) = (2a + 6b + 6c + 2d) + (5a + 3b + 3c + 5d)t + (4a + 4d)t2 .

130

4. Transformaciones lineales y matrices

Sean β y β 0 las bases canónicas de R[t]4 y R[t]3 respectivamente. Entonces, T (1) = 2+5t+4t2 , T (t) = 6 + 3t, T (t2 ) = 6 + 3t y T (t3 ) = 2 + 5t + 4t2 , de modo que:   2 6 6 2 [T ]ββ 0 = 5 3 3 5 . 4 0 0 4 Si se consideran ahora las bases:   1 + t + t2 + t3 1 − t − t2 + t3 1 − t + t2 − t3 1 + t − t2 − t3 , , , , β1 = 2 2 2 2   2 + 2t + t2 −2 + t + 2t2 1 − 2t + 2t2 β10 = , , , 3 3 3 entonces la matriz de T referida a este par de bases  12 0 [T ]β1 β10 =  0 6 0 0 Las matrices cambio de base son:   2 1 − 23 3 3 1 − 23  P = [1R[t]3 ]β10 β 0 =  32 3 1 3

2 3

2 3

es:  0 0 0 0 . 0 0

  y Q = [1R[t]4 ]ββ1 =  

1 2 1 2 1 2 1 2

1 2 − 12 − 12 1 2

1 2 − 21 1 2 − 21

1 2 1 2 − 21 − 21

  . 

Un cálculo directo muestra que [T ]ββ 0 = P [T ]β1 β10 Q. Si T : (V, β) → (V, β) es una función lineal y se considera la misma base tanto para el dominio como para el contradominio, en vez de escribir [T ]ββ se escribe [T ]β . Definamos en K n×n una relación de equivalencia ∼ denominada semejanza de matrices. Decimos que A es semejante a B, denotado A ∼ B, si existe una matriz invertible P tal que A = P BP −1 . Esta relación es una relación de equivalencia (Ejercicio 2). Se denota por K n×n / ∼ al conjunto de todas las clases de equivalencia bajo esta relación. Sea V un K-espacio vectorial de dimensión finita. Si T ∈ L(V ) y A es la matriz de T respecto de alguna base, el siguiente teorema establece que la función L(V ) → K dim V ×dim V / ∼ dada por: T 7→ clase de equivalencia de A está bien definida. Corolario 4.6.8. Sea V un espacio vectorial de dimensión finita y sea T un operador lineal sobre V . 1. Cualesquiera dos matrices que representan a T son semejantes. Además, si β y β 0 son bases para V , entonces [T ]β = P [T ]β 0 P −1 , donde P = [1V ]β 0 β . 2. Si A y B son matrices semejantes y A = [T ]β para alguna base β de V , entonces existe una base β 0 de V tal que B = [T ]β 0 . Demostración. Se sigue del Teorema 4.6.6. Ejemplo 4.6.9. Sea T : R[t]2 → R[t]2 la transformación lineal dada por: T (a+bt) = (a−b)+2bt. Sea β 0 la base de R[t]2 dada por β 0 = {v1 , v2 }, donde v1 = 1 y v2 = 1 − t. Como T (v1 ) = v1 y T (v2 ) = 2v2 , se tiene   1 0 D = [T ]β 0 = . 0 2

4.6. Matrices asociadas a la misma transformación lineal

131

Si A es la matriz de T en la base canónica, entonces A = P DP −1 , donde   1 1 P = [1R[t]2 ]β 0 β = 0 −1 Ejemplo 4.6.10.  −2  −4   0 A=  −1   1 1

Sean A y P las siguientes matrices:    −2 1 0 0 0 0 1 0 0 0 −8  0 2 1 0 0 0  4 0 0 0 −8      0 0 0 0 −1 1  0 2 0 −1 1   .  y P = 0 0  0 0 5 0 1   −1 0 0 1    1 0 0 0 1 0  0 1 0 4 0  1 0 0 0 0 0 0 0 0 0 4

Sean T : R6 → R6 la transformación lineal inducida por la matriz A, y β 0 = {v1 , . . . , vn }, donde vi es la columna i de la matriz P . Como det(P ) = −1 6= 0, β 0 es una base de R6 . Puesto que T (v1 ) = 2v1 , T (v2 ) = v1 + 2v2 , T (v3 ) = v2 + 2v3 T (v4 ) = 5v4 , T (v5 ) = 3v5 , T (v6 ) = v5 + 3v6 , la matriz de T respecto de la base β 0 es   2 1 0 0 0 0 0 2 1 0 0 0   0 0 2 0 0 0 .  J = [T ]β 0 =   0 0 0 5 0 0 0 0 0 0 3 1 0 0 0 0 0 3 Si β es la base canónica de R6 , entonces A = P JP −1 . Observación 4.6.11. De todas las matrices que representan a una transformación lineal T , es deseable (y recomendable) escoger una matriz que sea particularmente simple. En el Ejemplo 4.6.7 fue posible escoger una pareja de bases de tal manera que la matriz asociada fuera “diagonal”. En el caso del operador lineal del Ejemplo 4.6.9, la matriz asociada resultó diagonal. En el Ejemplo 4.6.10 la matriz asociada con el operador lineal no fue diagonal, pero sí muy cercana a una matriz diagonal. En el Capítulo ??, se estudiarán: La teoría de diagonalización. Bajo ciertas condiciones una matriz cuadrada A es semejante a una matriz diagonal D (Sección ??). La descomposición en valores singulares. Cualquier matriz A de m × n, ya sea real o compleja, es equivalente a una matriz Σ, tal que Σij = 0 si i 6= j (Sección ??). La descomposición de Jordan. Cualquier matriz A ∈ Cn×n es semejante a una matriz J “casi” diagonal, es decir Jik = 0 si i < k o k > i + 1 (Sección ??). Terminamos esta sección con el concepto de determinante de un operador lineal. Es un ejercicio demostrar que si A y B son matrices semejantes, entonces det(A) = det(B). Usando esto y el Corolario 4.6.8, podemos definir el determinante de un operador lineal. Definición 4.6.12. Sean V un espacio vectorial de dimensión finita y T un operador lineal sobre V . Entonces, el determinante de T , denotado por det(T ), es el determinante de la matriz [T ]β para cualquier base β de V . Ejemplo 4.6.13. Calcule el determinante del operador lineal T : R[t]2 → R[t]2 dado por T (a + bt) = (a − b) + (a + 2b)t.   1 −1 Considérese la base β = {1, t}. La matriz de T en la base β es y por lo tanto su 1 2 determinante es 3. Observe se toma la base β 0 = {1 + t, 1 − t}, entonces la matriz de T  que si  respecto a esta base es

3 2 3 −2

1 2 3 2

. El determinante es el mismo.

132

4. Transformaciones lineales y matrices

Ejemplo 4.6.14. Hallar el determinante del operador lineal F : R2×2 → R2×2 dado por F (A) = 3A − 2AT para toda A ∈ R2×2 . 2×2 Lo primero seleccionar  es   unabase para  R . Por facilidad  consideremos la base canónica 1 0 0 1 0 0 0 0 β = {e11 = , e12 = , e21 = , e22 = }. Entonces: 0 0 0 0 1 0 0 1 F (e11 )

= e11 = 1e11 + 0e12 + 0e21 + 0e22   0 3 F (e12 ) = = 0e11 + 3e12 − 2e21 + 0e22 −2 0   0 −2 F (e21 ) = = 0e11 − 2e12 + 3e21 + 0e22 3 0 F (e22 )

= e22 = 0e11 + 0e12 + 0e21 + 1e22 .

Se sigue que:  [F ]β

=

1  0   0 0

 0 0 0 3 −2 0  . −2 3 0  0 0 1

Por lo tanto, det(F ) = det([F ]β ) = 5.

4.6.1.

Ejercicios

1. Pruebe que la equivalencia de matrices es una relación de equivalencia en el conjunto K m×n . Más precisamente, pruebe que: a) A ∼ A; b) si A ∼ B, entonces B ∼ A; c) si A ∼ B y B ∼ C, entonces A ∼ C. Si A ∈ K m×n , pruebe que la clase de equivalencia de A es: {P AQ | P, Q son matrices invertibles de m × m y n × n, respectivamente}. 2. Pruebe que la semejanza de matrices es una relación de equivalencia en el conjunto K n×n . ¿Cuál es la clase de equivalencia de una matriz A?     x1 x2 2 3. Sea T el operador lineal sobre R dado por T = . Sea β una base arbitraria x2 −x1   a11 a12 de R2 y suponga que [T ]β = . Demuestre que a12 a21 6= 0. a21 a22   2 −1 4. Sean P = y β la base canónica de R2 . −7 4 a) Halle una base β 0 de R2 de tal manera que P sea la matriz cambio de base de la base β a la base β 0 . b) Sea T : R2 → R2 la tansformación lineal dada por:     x 15x − 8y T = . y 28x − 15y Encuentre una matriz que sea semejante a la matriz [T ]β . (Escriba dicha matriz explícitamente).

4.6. Matrices asociadas a la misma transformación lineal

133

5. Sea V un espacio vectorial real de dimensión finita y sea T un operador lineal sobre V . Si A es la matriz que representa a T en alguna base β y se cumple la relación 8A3 −16A2 +5A+3I = 0, pruebe que T es un isomorfismo.   8 −1 1 6. Sea T : R3 → R2 la transformación lineal dada por T (x) = Ax, donde A = . 3 0 1   1 −1 1 La matriz B = es equivalente a la matriz A, de hecho A = P BQ, donde 1  2 −1    1 −1 −1 3 5 1 1 . Calcule bases β1 y β10 para R3 y R2 , respectivamente P = yQ= 0 1 2 0 0 −1 tales que B = [T ]β1 β10 . Por comprobación directa verifique que efectivamente B = [T ]β1 β10 .     1 1 0 2 −5 1 . En caso de necesitarlo, P −1 = y Q−1 =  0 1 −1 3 0 0 −1   5 8 2 7. Sea T el operador lineal sobre R dado por T (x) = Ax, donde A = . La −3 −5   1 −1 matriz B = es semejante con la matriz A, de hecho, A = P BP −1 , donde 0 −1   2 −3 P = . Calcule una base β 0 para R2 de tal manera que B = [T ]β 0 . −1 2 8. Sea V un espacio vectorial de dimensión finita y sea β = {v 1 , v2 } unabase para V . Sea 2 −1 T un operador lineal sobre V tal que [T ]β = A, donde A = . La matriz B = 4 3     −41 −24 2 1 es semejante con A, de hecho A = P BP −1 , donde P = . Calcule 79 46 7 4 una base β 0 para V de tal manera que [T ]β 0 = B. La base β 0 debe expresarse en términos de la base β. 9. Sean β = {v1 , . . . , vn } y β 0 = {w1 , . . . , wn } bases para Rn . Sean A = [v1 | . . . | vn ] y B = [w1 | . . . | wn ]. Demuestre que la matriz P = B −1 A es la matriz cambio de base de la base β a la base β 0 . T

T

2 10. Sean β = {(1, 1) , (1, −1) } y β 0 = {1, 1 + t} bases para los  espacios  R y R[t]2 , respecti3 4 vamente. Sea T : R2 → R[t]2 la función lineal tal que [T ]ββ 0 = = A. 2 3

a) Encuentre una función lineal F : R[t]2 → R2 tal que:   3 −4 [F ]β 0 β = A−1 = . −2 3 b) Verifique que F es la inversa de la función T . 11. Sea B ∈ C2×2 . Demuestre que el determinante del operador lineal T : C2×2 → C2×2 dado por T (A) = AB − BA, es cero. 12. Considere a los números complejos C como un espacio vectorial sobre el campo de los números reales. Sea α ∈ C y sea T : C → C el operador lineal dado por T (z) = αz. Calcule el determinante de T . 13. Sea V un K-espacio vectorial de dimensión finita y sean S y T operadores lineales sobre V . Demuestre que existen bases β y β 0 de V tales que [S]β = [T ]β 0 si y sólo si existe un operador lineal invertible U sobre V tal que T = U ◦ S ◦ U −1 .

134

4. Transformaciones lineales y matrices

4.7.

Operadores diagonalizables

En diferentes áreas de las Matemáticas, Física, Ingeniería o incluso Biología, el análisis de un determinado problema puede requerir calcular las potencias de una cierta matriz y determinar si éstas convergen a un la matriz es diagonal,  este problema es muy sencillo.  límite. Cuando  λ1 0 λn1 0 n Por ejemplo si D = , entonces D = para todo entero positivo n. 0 λ2 0 λn2 Si A no es diagonal, perose puede  escribir en términos de una matriz diagonal, por ejemplo 1 1 −1 A = P DP , donde P = , entonces: 1 2 n

n

A = PD P

−1

 =

2 λn1 − λn2 2 λn1 − 2 λn2

−λn1 + λn2 −λn1 + 2 λn2

 .

Si las sucesiones {λn1 } y {λn2 } de números convergen, digamos l´ım λn1 = 1 y l´ım λn2 = 0, enn→∞ n→∞ tonces   2 −1 l´ım An = . 2 −1 n→∞ Cuando una matriz A se puede escribir de la forma A = P DP −1 con D una matriz diagonal, A recibe un nombre especial. Definición 4.7.1. 1. Un operador lineal T sobre un espacio de dimensión finita V es diagonalizable, si existe una base β para V tal que [T ]β es diagonal. En este caso se dice que la base β diagonaliza al operador T . 2. Una matriz cuadrada A es diagonalizable si la transformación lineal TA inducida por A es diagonalizable. El operador lineal T : R[t]2 → R[t]2 dado por T (a + bt) = (a − 2b) − bt es diagonalizable, pues la matriz de T en la base β 0 = {1, 1 + t} es diagonal:   1 0 [T ]β 0 = . 0 −1 

1 0

−2 −1



 1 1 1 0

0 −1



Observe que si β = {1, t}, entonces [T ]β = 

 donde [1R[t]2 ]β 0 β =

1 0

1 0

−2 −1

−1 1





 =

1 0

y también: 1 0

−1 1

 ,

(véase el Corolario 4.6.8).

Ejemplo 4.7.2. Considere el operador lineal sobre R2 dado por:     x −7x − 15y T = . y 6x + 12y  2 0 Pruebe que T es diagonalizable, encontrando una base β tal que [T ] = . Encuentre 0 3 −1 también una matriz P tal que [T ]β 0 = P [T ]β P , donde β es la base canónica de R2 . 0



β0

4.7. Operadores diagonalizables

135

Solución. Supongamos que la base pedida es β 0 = {w1 , w2 }. Puesto que [T ]β 0 = diag(2, 3), entonces: T (w1 )

=

2w1 + 0w2 ,

T (w2 )

=

0w1 + 3w2 .

Se sigue entonces que [T ]β w1 = 2w1 y [T ]β w2 = 3w2 (ya que por el Teorema 4.4.1 [T ]β w1 = [T ]β [w1 ]β = [T (w1 )]β = T (w1 ) y [T ]β w2 = [T ]β [w2 ]β = [T (w2 )]β = T (w2 )), donde [T ]β = −7 −15 6 12 . Luego, podemos escribir las ecuaciones anteriores en la forma ([T ]β − 2I)w1 = 0 y ([T ]β − 3I)w2 = 0. Así, el problema se reduce al cálculo de dos espacios nulos. Después de realizar los cálculos obtenemos que     −5/3 5 N ([T ]β − 2I) = = , 1 −3     −3/2 3 N ([T ]β − 3I) = = . 1 −2  5  3 Por lo tanto, una base con la característica pedida es β 0 = por el −3 , −2  . Finalmente,  2 3 −1 Corolario 4.6.8, tenemos que [T ]β 0 = P [T ]β P donde P = [1R2 ]ββ 0 = . −3 −5 Teorema 4.7.3. Sea T un operador lineal sobre un espacio V de dimensión finita. T es diagonalizable si y sólo si existe una base β = {v1 , . . . , vn } de V y escalares λ1 , . . . , λn , tales que T (vj ) = λj vj para j = 1, . . . , n. Demostración. Supongamos que T es diagonalizable. Entonces existe una base de V , digamos β = {v1 , . . . , vn }, tal que [T ]β es diagonal. Supongamos que [T ]β = diag(λ1 , . . . , λn ). Entonces, T (vj ) = λj vj para cada j = 1, . . . , n. Recíprocamente, si existe una base β = {v1 , . . . , vn } de V y escalares λ1 , . . . , λn , tales que T (vj ) = λj vj para cada j = 1, . . . , n, entonces [T ]β = diag(λ1 , . . . , λn ), es decir, [T ]β es diagonal y por lo tanto T es diagonalizable. El siguiente corolario dice que la Definición 4.7.1 (2) se reescribe como sigue: A es diagonalizable si y solamente si existe una matriz invertible P y una matriz diagonal D tal que A = P DP −1 . Corolario 4.7.4. Una matriz A de n×n es diagonalizable si y sólo si existe una matriz invertible P tal que P −1 AP es una matriz diagonal. Demostración. Sea A ∈ K n×n . Si A es diagonalizable, entonces TA : K n → K n es diagonalizable. Luego, según el teorema anterior, existe una base β 0 de K n y escalares λ1 , . . . , λn tales que [TA ]β 0 = diag(λ1 , . . . , λn ). Por el Corolario 4.6.8, si β es la base canónica de K n , tenemos que [TA ]β = P [TA ]β 0 P −1 donde P = [1K n ]β 0 β . Como [TA ]β = A, se sigue que P −1 AP = diag(λ1 , . . . , λn ). Recíprocamente, supongamos que P es una matriz invertible tal que P −1 AP es una matriz diagonal, digamos P −1 AP = diag(λ1 , . . . , λn ). Sea β la base canónica de K n . Como A = [TA ]β , el Corolario 4.6.8 implica que existe una base β 0 = {v1 , . . . , vn } de K n tal que diag(λ1 , . . . , λn ) = [TA ]β 0 , es decir, TA (vi ) = λi vi para i = 1, 2, . . . , n. Luego, TA es diagonalizable por el teorema anterior, y por lo tanto A también es diagonalizable.

4.7.1.

Ejercicios

1. Sea T el operador lineal sobre R2 dado por     x −7x − 15y T = . y 6x + 12y

136

4. Transformaciones lineales y matrices

[T ]β 0



 2 0 . Encuentre también una matriz P tal que 0 3 = P [T ]β P −1 . Concluya que T es diagonalizable.

Encuentre una base β 0 tal que [T ]β 0 =

2. Determine si el operador lineal dado es diagonalizable o no. En caso de serlo, encuentre números reales λ1 y λ2 , y vectores v1 y v2 tales que T (vi ) = λi vi para i = 1, 2.   + a+b t. a) T es el operador lineal sobre R[t]2 dado por T (a + bt) = a+b 2 2   −1 6 b) T es el operador lineal sobre R2 inducido por la matriz A = . −2 6     x 2x − y c) T : R2 → R2 está dado por T = . y x+y

4.8.

El espacio dual

Sea V un K-espacio vectorial. Un funcional lineal sobre V es una función lineal de V en K. De acuerdo con el Teorema 4.1.7, el conjunto de todas las funcionales lineales L(V, K) es un espacio vectorial, llamado espacio dual de V y denotado por V ∗ . Ejemplos 4.8.1. x1

1. La proyección sobre la primera coordenada π1 : K n → K dada por π

!

.. .

= x1 es un

xn

funcional lineal. De hecho, para cada i, 1 ≤ i ≤ n, la proyección πi : K n → K sobre la i-ésima coordenada es un funcional lineal sobre K n . 2. La función traza tr : K n×n → K es un funcional lineal sobre K n×n . 3. Sea V = C([a, b], R) el espacio de todas las funciones reales continuas en el intervalo [a, b]. Rb La función L : V → R dada por L(f ) = a f (x)dx es un funcional lineal sobre V . Ejemplo 4.8.2. Sea β = {v1 , v2 } una base de R2 , y sean v1∗ , v2∗ : R2 → R2 las únicas transformaciones lineales tales que: v1∗ (v1 ) = 1, v1∗ (v2 )=0, v2∗ (v1 ) = 0, v2∗ (v2 )=1. Veamos que β ∗ = {v1∗ , v2∗ } es una base para el espacio dual de R2 . Observe que si v = x1 v1 +x2 v2 , entonces: v1∗ (v) = v1∗ (x1 v1 + x2 v2 ) = x1 v1∗ (v1 ) + x2 v1∗ (v2 ) = x1 . Análogamente v2∗ (v) = x2 . Ahora bien, sea f : R2 → R una función lineal, es decir, sea f ∈ (R2 )∗ . Sean a1 = f (v1 ) y a2 = f (v2 ). Entonces: f (v) = f (x1 v1 + x2 v2 ) = x1 f (v1 ) + x2 f (v2 ) = v1∗ (v)a1 + v2∗ (v2 )a2 = a1 v1∗ (v) + a2 v2∗ (v) = (a1 v1∗ )(v) + (a2 v2∗ )(v) = (a1 v1∗ + a2 v2∗ )(v) Esto muestra que f = a1 v1∗ + a2 v2∗ . En otras palabras, β ∗ genera a (R2 )∗ . Supongamos ahora que c1 , c2 son escalares tales que c1 v1∗ + c2 v2∗ = 0. En particular: 0 = (c1 v1∗ + c2 v2∗ )(v1 ) = c1 v1∗ (v1 ) + c2 v2∗ (c2 ) = c1 . Análogamente c2 = 0. Se concluye que β ∗ es una base para el espacio dual.

4.8. El espacio dual

137

Teorema 4.8.3. Si V es un K-espacio vectorial de dimensión finita, entonces el espacio dual V ∗ también es de dimensión finita y dim V ∗ = dim V . Demostración. Sea β = {v1 , . . . , vn } una base de V . Para cada i, 1 ≤ i ≤ n sea vi : V → K el único funcional lineal sobre V (Teorema 4.1.4) tal que: vi∗ (vj ) = δij ,

para j = 1, . . . , n.

Veamos que β ∗ es una base para el espacio dual. Si v ∈ V y v = x1 v1 + · · · + xn vn , entonces:   n n n X X X vi∗ (v) = vi∗  x j vj  = xj vi∗ (vj ) = xj δij = xi δii = xi . j=1

j=1

j=1

De esta manera podemos escribir v = v1∗ (v)v1 + · · · + vn∗ (v)vn . Sea f ∈ V ∗ y sea ai = f (v1 ), 1 ≤ i ≤ n. Para cualquier v ∈ V , ! n n n n X X X X ∗ f (v) = f vi (v)vi = vi∗ (v)f (vi ) = vi∗ (v)ai = ai vi∗ (v) i=1

=

n X

i=1

(ai vi∗ )(v) =

i=1

i=1

i=1

! n X ∗ (ai vi ) (v). i=1

Luego f = a1 v1∗ + · · · + an vn∗ . Veamos ahora que β ∗ es linealmente independiente. Consideremos la combinación lineal c1 v1∗ + · · · + cn vn∗ = 0. Entonces: ! n n n X X X ∗ 0= ci vi (vj ) = ci vi∗ (vj ) = ci δij = cj δjj = cj . i=1

i=1

i=1



Esto prueba que β es una base para V . Además dim V ∗ = n = dim V . La base β ∗ inducida por la base β es la base dual de la base β. Definición 4.8.4. Sea V un K-espacio vectorial y sea S un subconjunto de V . Se dice que un funcional lineal f anula a S si f (v) = 0 para todo v ∈ S. El conjunto: S 0 = {f ∈ V ∗ | f anula a S} es el anulador de S. Si f, g ∈ S 0 , y v ∈ S, (f +g)(v) = f (v)+g(v) = 0. Si c es un escalar, (cf )(v) = cf (v) = c0 = 0. Esto muestra que el anulador de S es un subespacio vectorial del espacio dual, independientemente de que S sea o no un subespacio de V . De la definición es inmediato que {0}0 = V ∗ y V 0 = {0}. T

Ejemplo 4.8.5. Consideremos R4 y sea S = {s1 , s2 }, donde s1 = (1, −1, 1, −1) y s2 = T (1, 1, 1, 1) . El funcional lineal f : R4 → R dado por f (x) = x1 + x2 − x3 − x4 anula a S: f (s1 ) = 1 + (−1) − 1 − (−1) = 0 = 1 + 1 − 1 − 1 = f (s2 ), es decir f ∈ S 0 . A continuación describiremos todos los elementos de S 0 . Consideremos en R4 la base canónica, es decir, la formada por los vectores unitarios e1 , e2 , e3 , e4 . Entonces s1 = e1 − e2 + e3 − e4 , s2 = e1 + e2 + e3 + e4 . Por definición, f ∈ S 0 si y sólo si f (s1 ) = f (s2 ) = 0, es decir, si y sólo si: 0 = f (s1 ) = f (e1 − e2 + e3 − e4 ) = f (e1 ) − f (e2 ) + f (e3 ) − f (e4 ), 0 = f (s2 ) = f (e1 + e2 + e3 + e4 ) = f (e1 ) + f (e2 ) + f (e3 ) + f (e4 ),

138

4. Transformaciones lineales y matrices

Resolviendo el sistema de ecuaciones lineales homogéneo se tiene que f (e1 ) = −f (e3 ), f (e2 ) = P4 −f (e4 ). Si x ∈ R4 , x = i=1 xi ei . Se sigue que f ∈ S 0 si y sólo si: f (x)

=

x1 f (e1 ) + x2 f (e2 ) + x3 f (e3 ) + x4 f (e4 )

=

(−x1 + x3 )f (e3 ) + (−x2 + x4 )f (e4 ).

Se sigue que S 0 = {fr,s | r, s ∈ R}, donde fr,s es la funcional lineal dada por fr,s (x) = (−x1 + x3 )r + (−x2 + x4 )s. Del ejemplo se observa que dim R4 = dimh{s1 , s2 }i + dim S 0 . Esto sucede en general, como lo muestra el siguiente teorema. Teorema 4.8.6. Si V es un espacio vectorial de dimensión finita y W es un subespacio de V , entonces: dim V = dim W + dim W 0 . Demostración. Si W = {0}, entonces W 0 = V ∗ y de acuerdo con el Teorema 4.8.3 se tiene el resultado. Supongamos entonces que W no es el espacio cero y sea {v1 , . . . , vr } una base de W . Sean vr+1 , . . . , vn tales que β = {v1 , . . . , vn } es una base de V . Sea β ∗ la base dual de β. Sea f ∈ W 0 y sean x1 , . . . , xn tales que f = x1 v1∗ + · · · + xn vn∗ . Como f ∈ W 0 , f (vj ) = 0 para 1 ≤ j ≤ r. Luego para j = 1, . . . , r: ! n n n X X X ∗ xi δij = xj δjj = xj . xi vi∗ (vj ) = 0 = f (vj ) = xi vi (vj ) = i=1

i=1

i=1

∗ Entonces f = xr+1 vr+1 + · · · + xn vn∗ . Ahora bien, si i > r y j ∈ {1, . . . , r}, vi∗ (vj ) = δij = 0. Como vi∗ anula a los elementos de la base de W , anula a cada elemento de W , de aquí que ∗ vi∗ ∈ W 0 , r + 1 ≤ i ≤ n. Se sigue que {vr+1 , . . . , vn∗ } es una base para W 0 . Así dim W 0 = n − r = dim V − dim W .

4.8.1.

Ejercicios

1. Para cada una de las siguientes funciones sobre un espacio vectorial V , determine cuáles son funcionales lineales. a) V = R[t], f (p) = 2p0 (0) + p00 (1) donde p0 (t) denota la derivada de p(t).     x 2x b) V = R2 , f = . y 4y c) V = R2×2 , f (A) = a11 donde A = (aij ). 2. Para cada espacio vectorial V con base β, determine la base dual β ∗ para V ∗ .       1 0   1 a) V = R3 , β =  0  ,  2  ,  0  .   1 1 1 b) V = R[t]3 , β = {1, t, t2 }. 3. Sea V = R3 y defina:   x f1  y  = x − 2y, z



 x f2  y  = x + y + z, z



 x f3 =  y  = y − 3z. z

Demuestre que γ = {f1 , f2 , f3 } es una base para V ∗ y determine una base para V cuya base dual sea γ.

4.8. El espacio dual

139

4. Dado un espacio vectorial V , se define el doble dual V ∗∗ de V como el dual de V ∗ . Sea V un K-espacio vectorial de dimensión finita. Este ejercicio pretende demostrar que V se puede identificar de una manera natural con su doble dual V ∗∗ . a) Para cada v ∈ V , se define vˆ : V ∗ → K dada por vˆ(f ) = f (v) para cada f ∈ V ∗ . Demuestre que vˆ es un funcional lineal sobre V ∗ , es decir, vˆ ∈ V ∗∗ . b) Sea v ∈ V . Demuestre que si vˆ(f ) = 0 para todo f ∈ V ∗ , entonces v = 0. c) Demuestre que la función ϕ : V → V ∗∗ dada por ϕ(v) = vˆ es un isomorfismo. 5. Sea V un espacio vectorial de dimensión finita con espacio dual V ∗ . Demuestre que cada base ordenada de V ∗ es la base dual de alguna base de V . 6. Sea V un espacio vectorial de dimensión finita y sea S un subconjunto de V . a) Si W es un subespacio de V y v 6∈ W , demuestre que existe f ∈ W 0 tal que f (v) 6= 0. b) Demuestre que (S 0 )0 = hϕ(S)i, donde ϕ es el isomorfismo del ejercicio 4. c) Si W1 y W2 son subespacios de V , demuestre que W1 = W2 si y sólo si W10 = W20 . d) Si W1 y W2 son subespacios de V , demuestre que (W1 + W2 )0 = W10 ∩ W20 .

140

4. Transformaciones lineales y matrices

APÉNDICE

A

Campos

En este Apéndice se da la definición de campo, algunos ejemplos y las propiedades básicas comunes a los campos. También se establece la definicón de característca de un campo.

A.1.

Definición y propiedades básicas

Definición A.1.1. Un campo K es un conjunto con dos operaciones + y · +: K × K → K

·: K × K → K

(x, y) 7→ x + y,

(x, y) 7→ x · y

llamadas respectivamente suma y multiplicación las cuales satisfacen: 1. (K, +) es un grupo abeliano. Es decir, a) La suma es conmutativa: x + y = y + x para todo x, y ∈ K. b) La suma es asociativa: (x + y) + z = x + (y + z) para todo x, y, z ∈ K. c) Existe un elemento neutro para la suma: Existe un elemento 0 ∈ K tal que x + 0 = x para todo x ∈ K. d) Existen los inversos aditivos: Dado x ∈ K, existe un y ∈ K tal que x + y = 0. 2. (K, ·) es un grupo abeliano: a) La multiplicación es conmutativa: x · y = y · x para todo x, y ∈ K. b) La multiplicación es asociativa: (x · y) · z = x · (y · z) para todo x, y, z ∈ K. c) Existe un elemento neutro para la multiplicación: Existe un elemento 1 ∈ K tal que x · 1 = x para todo x ∈ K. d) Existen los inversos multiplicativos: Dado x ∈ K \ {0}, existe un y ∈ K tal que x · y = 1 3. La multiplicación se distribuye sobre la suma: x · (y + z) = x · y + x · z para todo x, y, z ∈ K. Los elementos de K se denominan escalares. 141

142

A. Campos

Tanto el neutro aditivo como el multiplicativo son únicos. Por ejemplo, si 0 y 00 son dos neutros aditivos, 0 = 0 + 00 = 00 + 0 = 00 . Usualmente escribiremos xy en vez de x · y. También los inversos aditivo y multiplicativo son únicos. Si y, y 0 dos inversos aditivos para el elemento x, se tiene y = y + 0 = y + (x + y 0 ) = (y + x) + y 0 = 0 + y 0 = y 0 . El inverso aditivo de x ∈ K se denota por −x. El inverso multiplicativo de x ∈ K se denota por x−1 . Seguiremos las convenciones usuales cuando se trabaja con campos. Si x, y son elementos de un campo K, escribiremos x − y en vez de x + (−y), También se acostumbra escribir xy en vez de xy −1 . Si 0 6= x ∈ K, y n es un entero positivo, nx denota la suma x + · · · + x (n sumandos) y xn denota el producto a · · · a (n factores). Si n es negativo, nx denota (−n)(−x) y xn denota (x−1 )−n . Finalmente, 0x = 0 y x0 = 1. Ejemplo A.1.2. El anillo de los enteros Z no es campo. Por ejemplo, no existe ningún entero y tal que 3y = 1. Ejemplos A.1.3. Con las operaciones usuales de suma y multiplicación de números complejos, cada uno de los siguientes subconjuntos de C es un campo: 1. Los números racionales Q. 2. Los números reales R. 3. Los números complejos C. √ √ 4. El conjunto Q( 2) = {a + b 2 | a, b ∈ Q}. √ Probablemente los tres primeros ejemplos son familiares al lector. Veamos que K = Q( 2) es un campo. K es cerrado bajo la suma y la multiplicación: √ √ √ (a + b 2) + (c + d 2) = (a + c) + (b + d) 2, √ √ √ (a + b 2)(c + d 2) = (ac + 2bd) + (ad + bc) 2. √ √ El inverso aditivo de √ √ a + b 2 ∈ K es −a − b 2 y pertenece a K. El inverso multiplicativo de a + b 2 ∈ K, a + b 2 6= 0, también es un elemento de K: √ √ √ a b 1 a−b 2 a−b 2 1 √ = √ √ = 2 = 2 − 2 2. 2 2 2 a − 2b a − 2b a − 2b a+b 2 a+b 2a−b 2 √ De hecho √ si D es un número racional que no es un cuadrado perfecto √ en Q, el conjunto Q( D) = {a + b D | a, b ∈ Q} ⊆ C es un campo. De esta manera, Q(i), Q( −2) son ejemplos de campos. Ejemplo A.1.4. Sea p > 0 un número primo. El conjunto Fp = {0, 1, . . . , p − 1} de los enteros módulo p es un campo con las operaciones de suma y multiplicación módulo p, es decir, a+b = c en Fp si a + b ≡ c m´ od p y ab = c en Fp si ab ≡ c m´od p. Si p = 5, Fp = {0, 1, 2, 3, 4} y + 0 1 2 3 4

0 0 1 2 3 4

1 1 2 3 4 0

2 2 3 4 0 1

3 3 4 0 1 2

4 4 0 1 2 3

· 0 1 2 3 4

0 0 0 0 0 0

1 0 1 2 3 4

2 0 2 4 1 3

3 0 3 1 4 2

4 0 4 3 2 1

A.1. Definición y propiedades básicas

143

Ejemplo A.1.5. Sea F = {0, 1, α, β} junto con las operaciones de suma y multiplicación dadas por 0 0 1 α β

+ 0 1 α β

1 1 0 β α

α α β 0 1

β β α 1 0

· 0 1 α β

0 0 0 0 0

1 0 1 α β

α 0 α β 1

β 0 β 1 α

Se deja al lector comprobar que F es un campo. Ejemplo A.1.6. Sea K un campo y t una variable. Sea K[t] conjunto de todos los polinomios en la variable t con coeficientes en K. El conjunto   a(t) K(t) = | a(t), b(t) ∈ K[t], b(t) 6= 0 b(t) es un campo con la suma y multiplicación dadas por c(t) a(t)d(t) + b(t)c(t) a(t) + = , b(t) d(t) b(t)d(t) a(t)c(t) a(t) c(t) = . b(t) d(t) b(t)d(t) Este campo se denomina el campo de las funciones racionales. Las propiedades básicas de los campos se resumen en la siguiente proposición. Proposición A.1.7. Si K es un campo, entonces: a) Si K es un campo, son válidas las leyes de cancelación para la suma y la multiplicación: i) Si x + y = x + z, entonces y = z. ii) Si xy = xz, con x 6= 0, entonces y = z. b) −(−x) = x. c) Si x 6= 0, (x−1 )−1 = x. d) 0a = 0. e) Si xy = 0, entonces x = 0 o y = 0. f ) (−x)y = −(xy) = x(−y). g) (−x)(−y) = xy. Demostración. Si x, y, z ∈ K y x + y = x + z, entonces: y = y + 0 = y + (x + (−x)) = (y + x) + (−x) = (y + x) + (−x) = y + (x + (−x)) = z + 0 = z. La segunda parte del inciso a) es similar. Como: (−x) + x = 0 = (−x) + (−(−x)), se sigue que x = −(−x). La prueba de c) es similar. Observe que: 0 + 0a = 0a = (0 + 0)a = 0a + 0a.

144

A. Campos

Cancelando 0a, se sigue que 0a = 0. Ahora supongamos que xy = 0 pero que x 6= 0. Entonces: 0 = x−1 0 = x−1 (xy) = (xx−1 )y = 1y = y. Esto prueba e). Para probar g), note que: (−x)y + xy = ((−x) + x)y = 0y = 0. Luego −(xy) = (−x)y. De manera análoga se prueba que −(xy) = x(−y). La prueba del inciso g) se deja al lector.

A.2.

La característica de un campo

Si K es un campo, es posible sumar 1 consigo mismo un número finito de veces y obtener 0. Por ejemplo, en el campo del ejemplo A.1.4, 1 + 1 + 1 + 1 + 1 = 0. Esto no sucede en el campo de los números complejos ni en ningún subcampo de él. Definición A.2.1. La característica car(K) de un campo K es el menor entero positivo p tal que p · 1 = 0 si tal p existe, y 0 en cualquier otro caso. Los campos Q, R, C tienen característica cero. El campo F5 tiene característica 5. Proposición A.2.2. La característica de cualquier campo es 0 o es un número primo p. Demostración. Sea n = car(K). Supongamos que n 6= 0 y tampoco es un número primo. Escribamos n = ab con 1 < a, b < n. Por definición de caracteristica a · 1 6= 0 y b · 1 6= 0. Por otro lado: (a · 1)(b · 1) = (1 + · · · + 1)(1 + · · · + 1) = (1 + · · · + 1) = (ab) · 1 = n · 1 = 0. | {z } | {z } | {z } a veces

b veces

ab veces

Esto es una contradicción, pues en un campo, el producto de cualesquiera dos elementos distintos de cero no es cero. Luego n = 0, o n es un número primo. Ejemplo A.2.3. El campo del ejemplo A.1.5 es un campo de característica 2.

APÉNDICE

B

Matrices

En este capítulo se introduce la definición de matriz y las operaciones que se pueden realizar con ellas (suma, resta y multiplicación). Se probará que el conjunto de todas las matrices del mismo tamaño junto con la suma es un grupo abeliano; también se probara que el conjunto de todas las matrices cuadradas es un anillo no conmutativo con elemento unitario. También se presentan las definiciones de los diferentes tipos de matrices (matriz cuadrada, matriz diagonal, matriz identidad, matriz triangular superior o inferior, etc). También se introducen los conceptos de transpuesta y traza de una matriz, pasando por el concepto de matriz invertible. Se presentan ejemplos de las diversas operaciones con matrices cuando estas están divididas en bloques. Al final del capítulo se estudia brevemente a las matrices elementales y a las operaciones elementales de matrices. A menos que se diga lo contrario, a lo largo de este capítulo, K siempre denotará un campo arbitrario.

B.1.

Definiciones básicas

En esta sección se introduce la definición de matriz y las definiciones de los diferentes tipos de matrices: matriz cuadrada, matriz identidad, matriz triangular superior e inferior y matriz diagonal.

Definición B.1.1. Sea K un campo arbitrario y sean m, n enteros positivos. Una matriz A de (tamaño) m × n es un arreglo rectangular de mn elementos de K ordenados en m renglones (filas) horizontales y n columnas verticales encerrados entre paréntesis o entre corchetes: 145

146

B. Matrices columna j 

A=

           

a11 a21

a12 . . . a1j . . . a1n a22 . . . a2j . . . a2n

.. . ai1

.. . ai2

.. .

.. .

am1 am2

.. .. . . . . . aij

.. .. . . . . . ain

.. .. .. .. . . . . . . . amj . . . amn

            

renglón i

El i-ésimo renglón de A es: Ai∗ = ai1

ai2

···

···

aij

 ain ,

(1 ≤ i ≤ m).

La j-ésima columna de A es: 

A∗j

 a1j  a2j    =  . ,  .. 

(1 ≤ j ≤ n).

anj La colección de todas las matrices de m × n se denota por K m×n . Otras notaciones para el mismo fin son Mm×n (K) o M atm×n (K). Cuando la matriz tiene una sola columna se llama vector columna; si sólo tiene un renglón se denomina vector renglón. Se denotará con K n al conjunto de todos los vectores columna, es decir K n = K n×1 . Hay diferentes maneras de referirse en forma abreviada a una matriz. Podemos escribir A = (aij )m×n o simplemente A = (aij ) para indicar que el elemento en la entrada (i, j) es aij . También es frecuente usar la notación [A]ij en vez de aij para denotar al elemento en la entrada (i, j). Si [A]ij denota al elemento de A en la posición (i, j), escribimos A = ([A]ij ). Si A∗1 , . . . , A∗n son las columnas de A, escribimos: A = [A∗1 | . . . | A∗n ]. También se puede escribir: 

 A1∗   A =  ...  , Am∗ donde A1∗ , . . . , Am∗ son los renglones de A. Ejemplo B.1.2. Sea K el campo de los números complejos. Las siguientes son matrices de 2 × 3, 2 × 2, 1 × 3 y 3 × 1, respectivamente.       10  3 −2 √ i 1 3 A= , B= , C = 1 −1 3 , D = 1 − i . 1 + 2i 3 −2 7 −1 3i La matriz C es un vector renglón, en tanto que D es un vector columna. El primer renglón y la segunda columna de A son    −2 A1∗ = 3 −2 i , A∗2 = . −1

B.1. Definiciones básicas

147

respectivamente. El elemento que está en la posición (2, 1) de la matriz B es 1 + 2i y se escribe: [B]21 = 1 + 2i o también b21 = 1 + 2i. Ejemplo SAGE B.1.3. En Sage hay varias formas de definir una matriz. sage : # Se construyen tres matrices sage : # Se ilustran algunos m é todos de construcci ó n sage : A = matrix ([ [ -1 ,3] , [4 ,8] ]); A # m é todo 1 [ -1 3] [ 4 8] sage : B = matrix (2 , [8 ,4 ,1 ,3]); B # m é todo 2 [8 4] [1 3] sage : # variante m é todo 2 sage : C = matrix ( QQ , 2 , 2 , [1/2 , 1/3 , 1 , -1]); C [1/2 1/3] [ 1 -1]

En Sage QQ se refiere al conjunto de los números racionales. También es posible declarar el espacio de todas las matrices de 2 × 2 con entradas racionales como sigue: sage : M23 = MatrixSpace ( QQ ,2 ,3); M23 Full MatrixSpace of 2 by 3 dense matrices over Rational Field sage : A = M23 ([1 , -1 ,2 ,3 , -4 ,5]) sage : A [ 1 -1 2] [ 3 -4 5]

Las columnas y renglones de A se obtienen con los comandos A.columns() y A.rows(), respectivamente. sage : A . columns () [(1 , 3) , ( -1 , -4) , (2 , 5)] sage : A . rows () [(1 , -1 , 2) , (3 , -4 , 5)]

Observe que Sage expresa las columnas de A en forma horizontal. Para obtener un renglón en particular se usa el comando A.row(número de renglón) (El primer renglón es el renglón cero) sage : A . row (0) (1 , -1 , 2) sage : A . row (1) (3 , -4 , 5)

La delta de Kronecker δij está definida como sigue: ( 1 si i = j, δij = 0 si i 6= j. Este símbolo es útil para definir por ejemplo a la matriz de 3 × 3 que en las posiciones (i, i) es

148

B. Matrices

igual a 1 y es igual a cero en cualquier otra  δ11 I = (δij )3×3 = δ21 δ31

posición: δ12 δ22 δ32

  δ13 1 δ23  = 0 δ33 0

0 1 0

 0 0 . 1

Los comandos matrix.identity(n) y identity_matrix(n) de Sage crean a la matriz identidad de n × n. matrix.identity(n): sage : matrix . identity (3) [1 0 0] [0 1 0] [0 0 1]

Algunas matrices tienen una estructura particular por lo que reciben nombres especiales. Definición B.1.4. 1) Una matriz A de m × n es cuadrada si m = n, y decimos que A es una matriz cuadrada de orden n. Los elementos a11 , a22 , . . . , ann forman la diagonal principal de A. 2) Una matriz cuadrada D = (dij ) ∈ K n×n es una matriz diagonal si dij = 0 para i 6= j. Si D es una matriz diagonal, se escribe D = diag(d11 , . . . , dnn ). 3) La matriz identidad de n × n denotada por In (o simplemente I) es la matriz I = (δij ), donde δij es la delta de Kronecker. 4) Se dice que una matriz cuadrada U es triangular superior si [U ]ij = 0 cuando i > j, i.e., si todas las entradas debajo de la diagonal principal son cero. 5) Una matriz cuadrada L es triangular inferior si [L]ij = 0 cuando i < j, i.e., cuando todas las entradas arriba de la diagonal principal son cero. 6) A la matriz que tiene ceros en todas sus entradas se le llama matriz cero o matriz nula y se denota con el símbolo 0. Ejemplo B.1.5. Sea K el campo de los números reales. Las matrices:     0 0 0 3 √0 0 , D1 = , D2 = 0 −1 0 2 0 0 −4 son matrices diagonales. Note que una matriz diagonal, es simultáneamente una matriz triangular inferior y superior. Las siguientes matrices son triangulares.     3 −1 7 3 0 0 U = 0 −1 4 , L = 2 −1 0 . 0 0 2 1 1 1 La primera es triangular superior y la segunda triangular inferior. Las siguientes matrices son ejemplos de matrices identidad:     1 0 0 1 0 , 0 1 0 . 0 1 0 0 1 Finalmente, las siguientes son ejemplos de matrices nulas (o matrices cero):       0 0 0 0 0 0 0 0 , , 0 0 0 . 0 0 0 0 0 0 0 0

B.2. El espacio vectorial de las matrices

B.2.

149

El espacio vectorial de las matrices

La matrices se pueden sumar y multiplicar por un escalar. Estas dos operaciones convierten al conjunto de todas las matrices de m × n es lo que se conoce como un espacio vectorial. Definición B.2.1 (Suma de matrices). Sean A, B ∈ K m×n . La suma de A y B denotada por A + B se obtiene sumando las correspondientes entradas de A y B: [A + B]ij = [A]ij + [B]ij ,

1 ≤ i ≤ m, 1 ≤ j ≤ n.

Si A = (aij ), B = (bij ) y C = A + B, también se escribe cij = aij + bij . Observación B.2.2. Si las matrices A y B son de diferente tamaño, la suma no está definida. Ejemplo B.2.3. Si A, B ∈ Q2×3 son las matrices:      −1 2 0 −1 0 −1 0 , B = entonces A + B = A= 1 1 1 1 0 0 0 2 2 2

1 1

Ejemplo B.2.4. Sea K = F5 . Si A, B ∈ K 2×3 son las matrices:      2 1 4 3 2 2 0 A= , B= entonces A + B = 1 0 3 3 1 2 4

 1 . 0

3 1

0 1 2

 .

El inverso aditivo de A, es la matriz denotada por −A, cuyos entradas son los inversos aditivos de los elementos en las correspondientes entradas de A. Esto es, si A = (aij ), entonces −A = (−aij ). Esto permite definir la sustracción de la manera usual. Si A y B son matrices del mismo tamaño, la diferencia A − B se define como la matriz A − B = A + (−B).     1 0 1 −1 0 −1 Ejemplo B.2.5. Si A =  1 −2 −2 , entonces −A = −1 2 2 . −1 −1 − 21 1 1 12 Definición B.2.6. Dos matrices A y B son iguales si y sólo si A y B son del mismo tamaño y aij = bij para todo i, j. El siguiente teorema presenta las propiedades básicas de la suma de matrices. Teorema B.2.7. El conjunto K m×n de todas las matrices de m × n junto con la suma de matrices es un grupo abeliano. Es decir, a) La suma es conmutativa, es decir, A + B = B + A, para A, B ∈ K m×n . b) La suma es asociativa, es decir, A + (B + C) = (A + B) + C, para A, B, C ∈ K m×n . c) La matriz 0 es el neutro aditivo para la suma: A + 0 = A para cualquier matriz A. d) Existencia de los inversos aditivos: A + (−A) = 0 para A ∈ K m×n . Demostración. Escribamos A = (aij ), B = (bij ) y C = (cij ). Los elementos (i, j) de las matrices A + B y B + A son aij + bij y bij + aij , respectivamente. Como aij + bij = bij + aij , entonces las matrices A + B y B + A son iguales. Esto prueba el inciso a). Los elementos (i, j) de las matrices A + (B + C) y (A + B) + C son aij + (bij + cij ) y (aij + bij ) + cij , respectivamente. Como aij + (bij + cij ) = (aij + bij ) + cij , se sigue que las matrices A + (B + C) y (A + B) + C son iguales. Para el inciso c) basta observar que aij + 0 = aij para para cualquier para (i, j). Finalmente, para cada (i, j) se tiene que aij + (−aij ) = 0 así que A + (−A) = 0.

150

B. Matrices A continuación se define la multiplicación de una matriz por escalar.

Definición B.2.8 (Multiplicación por escalar). Sean c un escalar y A ∈ K m×n una matriz. La multiplicación de c por A, denotada por cA está dada por [cA]ij = c[A]ij para 1 ≤ i ≤ m, 1 ≤ j ≤ n.   3 −1 4 Ejemplo B.2.9. Si A = , entonces: −1 3 −5  2A =

6 −2

 −2 8 , 6 −10

 −3 − 1A = 1

 1 −4 , −3 5

 0A

=

0 0

0 0

 0 . 0

Cualquier escalar multiplicado por la matriz cero resulta en la matriz cero. Por ejemplo,       0 0 0 3·0 3·0 3·0 0 0 0 3 = = . 0 0 0 3·0 3·0 3·0 0 0 0 Las propiedades de la multiplicación por escalar se resumen en el siguiente teorema. Teorema B.2.10. Sean A, B matrices del mismo tamaño y sean c1 , c2 escalares. a) c(A + B) = cA + cB. b) (c1 + c2 )A = c1 A + c2 A. c) c1 (c2 A) = (c1 c2 )A. d) 1 · A = A. e) (−1)A = −A. f ) 0 A = 0. g) c 0 = 0. Demostración. Usaremos la notación [A]ij para denotar al elemento (i, j) de la matriz A. Las pruebas se siguen directamente de la definición. Por un lado, el elemento (i, j) de la matriz c(A + B) es de acuerdo con la definición c[A + B]ij ; por otro lado, el elemento (i, j) de la matriz A + B es [A]ij + [B]ij . Entonces [c(A + B)]ij = c[A + B]ij = c([A]ij + [B]ij ) = c[A]ij + c[B]ij = [cA]ij + [cB]ij = [cA + cB]ij . Esto prueba el inciso a). El inciso b) se prueba como sigue: [(c1 + c2 )A]ij = (c1 + c2 )[A]ij = c1 [A]ij + c2 [A]ij = [c1 A]ij + [c2 A]ij Las demás pruebas se dejan al lector. Observación B.2.11. El Teorema B.2.7 junto con las propiedades a)-d) del Teorema B.2.10 muestran que el conjunto de las matrices de m × n junto con la suma de matrices y la multiplicación por escalar es un espacio vectorial sobre el campo K. Los espacios vectoriales se estudian en los cursos de Álgebra Lineal. Ejemplo SAGE B.2.12. Las operaciones con matrices estudiadas en esta sección se pueden realizar con Sage.

B.3. El anillo de las matrices cuadradas

151

sage : M33 = MatrixSpace ( QQ ,3 ,3); M33 Full MatrixSpace of 3 by 3 dense matrices over Rational Field sage : A = M33 . random_element (); B = M33 . random_element () sage : A , B ( [ 1 2 -2] [ 0 0 -2] [ -1/2 2 -1] [ -2 -1 0] [ 1/2 1 -2] , [ 2 0 -1] ) sage : A + B [ 1 2 -4] [ -5/2 1 -1] [ 5/2 1 -3] sage : 2* A [ 2 4 -4] [ -1 4 -2] [ 1 2 -4] sage : -5* B [ 0 0 10] [ 10 5 0] [ -10 0 5] sage : -A [ -1 -2 2] [ 1/2 -2 1] [ -1/2 -1 2]

B.3.

El anillo de las matrices cuadradas

Las matrices se pueden multiplicar cuando éstas tienen las dimensiones adecuadas. Definición B.3.1. Sean A ∈ K m×n y B ∈ K n×r . El producto de A por B (también llamado multiplicación) denotado por AB es la matriz de tamaño m × r cuyas entradas están dadas por [AB]ij =

n X

[A]ik [B]kj ,

1 ≤ i ≤ m, 1 ≤ j ≤ r.

k=1

Si C = AB y se usa la notación A = (aij ) y B = (bij ), entonces cij =

n X

aik bkj ,

1 ≤ i ≤ m, 1 ≤ j ≤ r.

k=1

Note que para poder efectuar la multiplicación de A y B en ese orden, es necesario que el número de columnas de A sea igual al número de renglones de B. De otra manera el producto no está definido. Por ejemplo, si     b11 b12 b13 b14 a11 a12 a13 A= y B = b21 b22 b23 b24  a21 a22 a23 b31 b32 b33 b34 el producto de A y B existe ya que el número de columnas de A coincide con el número de renglones de B y AB será una matriz de 2 × 4. La entrada (1, 1), (1, 2) y (2, 3) de la matriz AB

152

B. Matrices

son [AB]11 =

3 X

a1k bk1 = a11 b11 + a12 b21 + a13 b31 ,

k=1

[AB]12 =

3 X

a1k bk2 = a11 b12 + a12 b22 + a13 b32 ,

k=1

[AB]23 =

3 X

a2k bk3 = a21 b13 + a22 b23 + a23 b33 .

k=1

Ejemplo B.3.2. Sea K el campo de los números    1 −2 0 0 −2 1 1 0 A= , B =  −1 1 1 5 1 6 −7

racionales.   1 3  2 ⇒ AB = 5 1

4 −7 −3 29 −35 8

 .

Observamos que AB está definido, pero no BA, pues el número de columnas de B con coincide con el número de renglones de A. Aún cuando estén definidos AB y BA, estos no necesariamente son iguales:    3 1 −1 = −1, 4      3 −3 3 1 −1 = . 4 −4 4 Cuando el producto de dos matrices da como resultado una matriz de 1 × 1, usualmente no escriben los paréntesis ya que la matriz se identifica con el escalar. Aun cuando A y B sean ambos del mismo tamaño, no necesariamente AB = BA. Si ahora,         1 1 −1 1 −2 2 0 0 A= ,B= =⇒ AB = , BA = . 1 1 −1 1 −2 2 0 0 También es importante mencionar que las leyes de cancelación no son validas cuando de matrices se trata. Es decir, AB = AC con A 6= 0 no necesariamente implica que B = C:         1 4 1 1 5 5 2 3 1 1 = = . 3 1 1 1 4 4 4 0 1 1 Observación B.3.3. Es importante recalcar lo discutido en el ejemplo anterior. 1. El producto de matrices no es conmutativo. 2. En general no es cierto que si A 6= 0 y B 6= 0 y AB está definido, entonces AB 6= 0. 3. Las leyes de la cancelación no son aplicables al producto de matrices, i.e., AC = BC o CA = CB con C 6= 0 no necesariamente implica que A = B. Si A es una matriz cuadrada, tiene sentido hacer los productos AA = A2 , AAA = A3 , etc. Haremos la convención que A0 = I y A1 = A. Para n ≥ 0, definimos An+1 = A · An . En el siguiente teorema se supone que las matrices que aparecen son tales que tiene sentido el producto o la suma indicada. Teorema B.3.4. a) El producto de matrices es asociativo: A(BC) = (AB)C.

B.3. El anillo de las matrices cuadradas

153

b) El producto de matrices se distribuye con respecto a la suma: A(B + C) = AB + AC,

Ley distributiva izquierda,

(A + B)C = AC + BC

Ley distributiva derecha.

c) Si A es de m×n, entonces AIn×n = Im×m A = A, donde Im×m e In×n denotan a las matrices identidad de m × m y n × n, respectivamente. d) c(AB) = (aA)B = A(cB). e) A0 = 0, 0A = 0. f ) Si A es una matriz cuadrada, para cualesquiera enteros no negativos m, n se tiene: n

Am An = Am+n ,

(Am ) = Amn .

Demostración. Haremos algunas prueba. Las demás se dejan de ejercicio al lector. a) Supongamos que A ∈ K m×n , B ∈ K n×r y C ∈ K r×s . Entonces: ! n r n X X X [A]ik [B]k` [C]`j [A]ik [BC]kj = [A(BC)]ij = i=1

i=1

`=1

r r X n n X X X [A]ik [B]k` [C]`j = [A]ik [B]k` [C]`j = `=1 i=1 r X

i=1 `=1 r n X X = [A]ik [B]k` `=1

!

[C]`j =

i=1

[AB]i` [C]`j

`=1

= [(AB)C]ij . Como para cualquier (i, j) se tiene la igualdad se concluye que A(BC) = (AB)C. b) Supongamos ahora que A ∈ K m×n y B, C ∈ K n×r . Entonces [A(B + C)]ij = =

n X

[A]ik [B + C]kj =

k=1 n X

n X

[A]ik ([B]kj + [C]kj )

k=1

([A]ik [B]kj + [A]ik [C]kj ) =

k=1

n X

[A]ik [B]kj +

k=1

n X

[A]ik [C]kj .

k=1

Luego A(B + C) = AB + AC. c) Veamos que la matriz identidad es el neutro multiplicativo. Supongamos que A es de m×n e I es de n × n. Recordando que [I]kj = 0 si k 6= j e [I]kj = 1 cuando k = j, se tiene [AI]ij =

n X

[A]ik [I]kj = [A]ij .

k=1

De manera análoga se muestra que IA = A. d) Veamos que cAB = (cA)B: [cAB]ij = c[AB]ij = c

n X

[A]ik [B]kj =

k=1

= [(cA)B]ij .

n X k=1

(c[A]ik )[B]kj =

n X

[cA]ik [B]kj

k=1

154

B. Matrices

Teorema B.3.5. El conjunto K n×n de las matrices cuadradas de n×n junto con las operaciones de suma y producto de matrices es un anillo con unitario. Demostración. Que K n×n es un anillo con elemento unitario se sigue del Teorema B.2.7 y de los incisos a), b) y c) del Teorema B.3.4. Observación B.3.6. Si n > 1, en general K n×n no es conmutativo. El siguiente ejemplo ilustra que puede suceder AB 6= BA.           1 0 0 1 0 1 0 1 1 0 0 0 = , = . 0 0 0 0 0 0, 0 0 0 0 0 0 Terminamos la sección con algunas definiciones de matrices que tienen propiedades particulares. Definición B.3.7. a) Una matriz cuadrada A se dice que es nilpotente si Ak = 0 para algún entero positivo k. b) Una matriz cuadrada A es idempotente si A2 = A.   0 −1 2 0 1  es nilpotente ya que Ejemplo B.3.8. La matriz A =  0 0 0 0     0 0 −1 0 0 0 0  A2 =  0 0 A3 =  0 0 0  . 0 0 0 0 0 0   1 1 Ejemplo B.3.9. La matriz A = es idempotente, ya que: 0 0      1 1 1 1 1 1 A2 = = . 0 0 0 0 0 0

B.4.

La transpuesta de una matriz

Definición B.4.1. Si A ∈ K m×n , la transpuesta de A es la matriz AT de n × m dada por: [AT ]ij = [A]ji , Si x = a1

...

1 ≤ i ≤ n, 1 ≤ j ≤ m.



an es un vector renglón, entonces xT se convierte en un vector columna: 

 a1   xT =  ...  . an Recíprocamente, si x es un vector columna, xT es un vector renglón. De acuerdo con la definición, las entradas en cada renglón de AT son las correspondientes entradas en la columna de A, es decir, si A = [A∗1 | . . . | A∗n ], entonces:  T  A∗1  ..  T A =  . . AT∗n

B.4. La transpuesta de una matriz

155



 A1∗   Si A =  ... , AT = [AT1∗ | . . . | ATm∗ ]. Am∗ En cualquier caso: 

a11  a12  AT =  .  ..

a21 a22 .. .

··· ··· .. .

 am1 am2   ..  . . 

a1n

a2n

···

amn

Ejemplo B.4.2. Sea K el campo de los números complejos. Considere las matrices:     3 − 2i −5 6 1 −1 5   1+i 2 7 A= , B= . 8 −3 2 1 + 2i 2 − 3i 1 Entonces: [AT ]11 = 3 − 2i, Las transpuestas de A y B son:  3 − 2i AT =  −5 6

[AT ]12 = 1 + i,

 1 + i 1 + 2i 2 2 − 3i  , 7 1

[B T ]31 = 5.



1 B T =  −1 5

 8 −3  , 2

respectivamente. Ejemplo SAGE B.4.3. El comando A.transpose() calcula la transpuesta de la matriz A. sage : A = matrix (3 ,[3 -2* i , -5 , 6 , 1+ i ,2 ,7 ,1+2* i ,2 -3* i , 1]); A [ -2* I + 3 -5 6] [ I + 1 2 7] [ 2* I + 1 -3* I + 2 1] sage : A . transpose () [ -2* I + 3 I + 1 2* I + 1] [ -5 2 -3* I + 2] [ 6 7 1] sage : B = matrix (2 , [1 , -1 ,5 ,8 , -3 ,2]); B [ 1 -1 5] [ 8 -3 2] sage : B . transpose () [ 1 8] [ -1 -3] [ 5 2]

Las propiedas básicas de la transpuesta son la siguientes. Teorema B.4.4. a) (AT )T = A. b) (A + B)T = AT + B T . c) (cA)T = cAT . d) (AB)T = B T AT .

156

B. Matrices

Demostración. Las pruebas de los incisos a), b) y c) se dejan de ejercicio al lector. Supongamos que A ∈ K m×n y B ∈ K n×r . Para cualquier 1 ≤ i ≤ m y 1 ≤ j ≤ r, [(AB)T ]ij = [AB]ji =

n X

[A]jk [B]ki =

k=1

=

n X

n X

[AT ]kj [B T ]ik

k=1

[B T ]ik [AT ]kj = [B T AT ]ij .

k=1

Esto prueba el inciso d). Definición B.4.5. Se dice que una matriz cuadrada A es simétrica si A = AT . Se dice que es antisimétrica si A = −AT . Ejemplo B.4.6. Las matrices A y B a continuación     7 2 −1 1 − 2i 3 − 4i 5 − i 1 , 3i  . B =  3 − 4i 1 + i A =  2 −2 −1 1 −3 5−i 3i −3 son simétricas; la matriz 

 0 −10 13 0 −1  . C =  10 −13 1 0 es antisimétrica. Ejemplo B.4.7. Si A es una matriz de m × n, entonces AT A y AAT son matrices simétricas. En efecto: (AT A)T = AT (AT )T = AT A. De manera similar se prueba que AAT es simétrica. La siguiente definicón se aplica únicamente cuando K es un subcampo del campo de los números complejos (Para fijar ideas el lector puede suponer que K = C). Definición B.4.8. Sea K un subcampo del campo de los números complejos. Si A ∈ K m×n , la matriz conjugada de A es la matriz A de m × n dada por: [A]ij = [A]ij ,

1 ≤ i ≤ n, 1 ≤ j ≤ m. T

La conjugada transpuesta de A es la matriz A∗ = A , i.e., [A∗ ]ij = [A]ji ,

1 ≤ i ≤ n, 1 ≤ j ≤ m.

Ejemplo B.4.9. Se tiene   ∗ 2 + 4i 2 − 4i 1 − i 2 =1+i 3 3 + 4i 0 2

 3 3 − 4i . 0

Ejemplo SAGE B.4.10. La conjugada y la conjugada transpuesta de una matriz A se obtienen con los comandos A.conjugate()) y A.conjugate_transpose(), respectivamente.

B.4. La transpuesta de una matriz

sage : [ -2* I [ I [ 2* I sage : [ 2* I [ -I [ -2* I sage : [ 2* I [ [

157

A = matrix (3 , [3 -2* i , -5 , 6 , 1+ i ,2 ,7 ,1+2* i ,2 -3* i ,1]); A + 3 -5 6] + 1 2 7] + 1 -3* I + 2 1] A . conjugate () + 3 -5 6] + 1 2 7] + 1 3* I + 2 1] A . conjugate_transpose () + 3 -I + 1 -2* I + 1] -5 2 3* I + 2] 6 7 1]

Las propiedas básicas de la transpuesta conjugada son la siguientes. Teorema B.4.11. a) (A∗ )∗ = A. b) (A + B)∗ = A∗ + B ∗ . c) (cA)∗ = cA∗ . d) (AB)∗ = B ∗ A∗ . Demostración. La prueba se deja de ejercicio para el lector. Definición B.4.12. Se dice que una matriz cuadrada A ∈ Cn×n es hermitiana si A = A∗ . Se dice que es anti-hermitiana si A = −A∗ . Ejemplo B.4.13. Las siguientes matrices son hermitianas:     −1 1 + i 3 + 4i 3 2−i 1−i 3 2 − i , , 2+i 1 3 − 4i 2 + i 5 La matriz 

i A = −5 − i −2 + i

5−i −3i −2 + 3i

 2+i 2 + 3i 4i

es una matriz antihermitiana. En efecto, se tiene   −i i+5 −i + 2 3i −3i + 2  , A= i−5 −i − 2 −3i − 2 −4i   −i i − 5 −i − 2 T 3i −3i − 2  . A∗ = A =  i + 5 −i + 2 −3i + 2 −4i Por lo tanto, A = −A∗ . Con Sage: sage : A = matrix (3 , [i , 5 -i , 2+ i , -5 -i , -3*i , 2+3* i , -2+i , -2+3* i ,4* i ]) sage : A == -A . conjugate_transpose () True

 1 2 3

2 4 5

 3 5 . 2

158

B. Matrices

Definición B.4.14. Sean x y y vectores columna del mismo tamaño, es decir, x, y ∈ K n . Entonces el producto interno o interior de x y y es el escalar xT y, y el producto exterior de x y y es la matriz de n × n xy T .  3  −1  5 Ejemplo B.4.15. El producto interno y externo de los vectores x = −1 y y = es: 2

2

  −1  xT y = 3 −1 2  5 = 3(−1) + (−1)5 + (2)(2) = −4, 2     −1 −3 15 6  xy T =  5 3 −1 2 =  1 −5 −2  , 2 −2 10 4 respectivamente. En Sage se tienen los comandos x.inner_product(y) y x.outer_product(y) para calcular los productos interno y externo de x y y. sage : x = vector ([3 , -1 ,2]); y = vector ([ -1 ,5 ,2]) sage : x . inner_product ( y ) -4 sage : x . outer_product ( y ) [ -3 15 6] [ 1 -5 -2] [ -2 10 4]

Definición B.4.16. Sea A ∈ K m×n . 1. Una inversa izquierda de A es una matriz B ∈ K n×m tal que BA = In . 2. Una inversa derecha de A es una matriz B ∈ K n×m tal que AB = Im . 3. Suponga que A es una matriz cuadrada. Una matriz B es una inversa de A si AB = BA = I. Si A tiene una inversa, se dice que es invertible o que es no singular. En otro caso, se dice que la matriz es no invertible o singular. Se sigue de la definición que cuando una matriz es invertible, su inversa es única. Supongamos que A tiene dos inversas, digamos B1 y B2 . Entonces: B1 = B1 I = B1 (AB) = (B1 A)B = IB = B. La inversa de A (cuando existe) se denota por A−1 . Ejemplo B.4.17. Sea K el campo de los números racionales y sea A la matriz:   3 −1 5 A= . −8 7 4 A tiene al menos dos inversas derechas ya que:   1      7 13 1 0 3 3 −1 5  13 8 3  = = 13 13 0 1 −8 −8 7 4 0 0

−1 5 7 4



 

4 13 4 13 1 13

4 13 7 13 1 − 13

 .

Del ejemplo anterior se observa que en general, no es válida la ley cancelativa para matrices, es decir, es posible tener XA = Y A con A 6= 0 sin que esto implique que X = Y .

B.5. Multiplicación de matrices en bloques

159

Proposición B.4.18. Sean A, B matrices no singulares. Entonces: a) AB es no singular y (AB)−1 = B −1 A−1 . b) A−1 es no singular y (A−1 )−1 = A. c) AT es no singular y (AT )−1 = (A−1 )T . Demostración. a) Como A y B son ambas no singulares, existen sus respectivas inversas A−1 y B −1 . Entonces: (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIA−1 = AA−1 = I. De manera similar se muestra que (B −1 A−1 )(AB) = I. Esto prueba que la inversa de AB es B −1 A−1 , es decir, (AB)−1 = B −1 A−1 . b) Por definición AA−1 = A−1 A = I. Se sigue que A−1 es invertible y su inversa es A. c) Se tiene: (A−1 )T AT = (AA−1 )T = I T = I. Análogamente se tiene que AT (A−1 )T = I. Así (AT )−1 = (A−1 )T .

B.5.

Multiplicación de matrices en bloques

Con frecuencia es útil considerar una matriz compuesta por una o varias matrices denominadas submatrices. Una submatriz de una matriz A es una matriz que se obtiene eliminando cualquier combinación de renglones de A.  columnas y 1 1 3 2 3 5 7 2  Por ejemplo, si A =  1 2 9 8 , las siguientes matrices son submatrices de A: 4 0 2 2 

3 4

5 0

7 2

  2 3 , 2 4

5 0

  2 3 , 2 2

 2 . 2

La primera se obtuvo eliminando los renglones primero y tercero. La segunda se obtuvo eliminando los renglones primero y tercero y la tercera columna. Finalmente, la última submatriz se obtuvo eliminando los renglones segundo y tercero, y las primeras dos columnas. Al introducir lineas horizontales y verticales en una matriz, podemos particionarla en submatrices o bloques:   1 1 0 0  3 5 0 0     0 0 9 8 . 0 0 2 2 Supongamos que las matrices A y B están particionadas en submatrices como se indica a continuación: 

A11  A21  A= .  ..

A12 A22 .. .

... ... .. .

 A1n A2n   ..  , . 

Am1

Am2

...

Amn



B11  B21  B= .  ..

B12 B22 .. .

... ... .. .

 B1p B2p   ..  . 

Bn1

Bn2

...

Bnp

160

B. Matrices

Supongamos que para cada tercia de enteros (i, k, j), 1 ≤ i ≤ m, 1 ≤ k ≤ n, 1 ≤ j ≤ p, las matrices Aik y Bkj , (1 ≤ k ≤ n) se pueden multiplicar. Entonces el producto AB está definido y el (i, j)-ésimo bloque de AB es Ai1 B1j + Ai2 B2j + · · · + Ain Bnj =

n X

Aik Bkj .

k=1

En otras palabras, el producto se forma operando los bloques en cada matriz como si fueran escalares. La multiplicación de matrices de esta forma en ocasiones resulta útil, pues simplifica la notación. La prueba de este hecho es sencilla, aunque se debe tener mucho cuidado con los manejos de los subíndices. En lugar de hacer la prueba, ilustraremos la técnica con ejemplos. Ejemplo B.5.1. Considere las siguientes matrices particionadas:   −3 4 1 7 8    4 5 0 1 4  A11 A12   = , A= A21 A22 5 −1 4 0 0  6 1 5 0 0   1 1 1  −1   0 1    B11 B12 = 0 0 3 B=   B21 B22  2 −1 2  1 1 −1 Observe que para k = 1, 2 las matrices Aik y Bkj se pueden multiplicar. Entonces   15 −2 10    5 7 7  A11 B11 + A12 B21 A11 B12 + A12 B22 . AB = =  A21 B11 + A22 B21 A21 B12 + A22 B22 6 5 16  5 6 22 Ejemplo B.5.2. Si  3 5  2 1 A=  1 0 0 1

 0  3  = C I2 0  1

3 0 0 0





3I2 , 0

1 0  0 1 B=  0 0 0 0

2 0 1 0

 0  3   = I2 0 0  1

 D , I2

entonces 

CI2 + 3I2 · 0 I2 + 0 · 0  3 5 9 15  2 1 4 6 =  1 0 2 0 0 1 0 3

AB =

CD + 3I22 I2 D + 0 · I2 



 =

C I2

CD + 3I2 D



 . 

Ejemplo B.5.3. A ∈ K m×n y B ∈ K n×r . A es una submatriz de sí misma, por lo que podemos considerarla particionada en un solo bloque. Si B está particionada en columnas, B = [B∗1 | . . . | B∗r ], se tiene AB = A[B∗1 | . . . | B∗r ] = [AB∗1 | . . . | AB∗r ].

B.6. La traza de una matriz

161

Si particionamos ahora A en renglones y B en columnas,    A1∗ B∗1 A1∗  A2∗ B∗1  A2∗     AB =  .  [B∗1 | B∗2 | . . . | B∗r ] =  ..   ..  .

A1∗ B∗2 A2∗ B∗2 .. .

... ... .. .

 A1∗ B∗r A2∗ B∗r   . ..  .

Am∗ B∗1

Am∗ B∗2

...

Am∗ B∗r

Am∗

Ejemplo B.5.4. Si A ∈ K m×n se particiona en columnas [A∗1 | A∗2 | . . . | A∗n ] y x ∈ K n×1 en renglones   x1  x2     ..  ,  .  xn entonces Ax = x1 A∗1 + x2 A∗2 + · · · + xn A∗n .

B.6.

La traza de una matriz

Definición B.6.1. La traza de una matriz A = (aij ) ∈ K n×n se define como la suma de los elementos de la diagonal principal de A y se denota por tr(A). Esto es, tr(A) = a11 + a22 + · · · + ann =

n X

aii .

i=1

Ejemplo B.6.2. Se tiene 

10 −29 tr  −2 −5 1 1

 0 8  = 10 − 5 + 15 = 20. 15

Sage provee el comando A.trace() para calcular la traza de la matriz A. Algunas de las propiedades de la traza se presentan en el siguiente teorema. Teorema B.6.3. 1) Para cualesquiera matrices A, B ∈ K n×n y cualquier escalar α se tiene a) tr(A + B) = tr(A) + tr(B), b) tr(αA) = α tr(A). En otras palabras, la traza es una función lineal. 2) Sean A ∈ K m×n y B ∈ K n×m . Entonces tr(AB) = tr(BA). 3) Si A es una matriz cuadrada, tr(A) = tr(AT ). Demostración. Sean A = (aij ), B = (bij ) y α un escalar. Entonces tr(A + B) =

n n n X X X (aii + bii ) = aii + bii = tr(A) + tr(B). i=1

tr(αA) =

n X i=1

i=1

αaii = α

n X i=1

i=1

aii = α tr(A).

162

B. Matrices

Esto prueba el inciso 1). Sean C = AB y D = BA. Entonces cij = dij =

n X k=1 m X

aik bkj ,

1 ≤ i ≤ m, 1 ≤ j ≤ n,

bik akj ,

1 ≤ i ≤ n, 1 ≤ j ≤ m.

k=1

Nótese que AB ∈ K m×m y BA ∈ K n×n . Luego tr(AB) =

m X i=1

cii =

n m X X

aik bki =

i=1 k=1

n X m X

bki aik =

k=1 i=1

n X

dkk = tr(BA).

k=1

Esto prueba el inciso 2). La demostración del último apartado es inmediata ya que la diagonal principal de A y de AT son la misma. Por inducción se puede extender la propiedad 2 del teorema anterior. Así, si A1 , . . . , At son matrices tales que el producto A1 · · · At está definido, entonces tr(A1 · · · At ) = tr(At A1 · · · At−1 ). En particular se tiene tr(ABC) = tr(CAB) = tr(BCA). Sin embargo, en general no es cierto que tr(ABC) = tr(BAC).

B.7.

Matrices elementales

A continuación se definen las operaciones elementales de renglón(de columna). Definición B.7.1. Sea A una matriz de m×n. Una operación elemental de renglón (de columna) en la matriz A es uno de los siguientes tres tipos de operaciones: Tipo I. Intercambio de dos renglones (columnas) de A. Tipo II. Reemplazo de un renglón (una columna) de A por algún múltiplo escalar no nulo de éste (ésta). Tipo III. Reemplazo de un renglón (una columna) de A por ese renglón (esa columna) más un múltiplo escalar no nulo de otro renglón (otra columna). Utilizaremos la siguiente notación para indicar el tipo de operación elemental de renglón que se aplicó para pasar de la matriz A a la matriz B. Operación

Símbolo

I II III

Rij Ri (c) Rij (c)

Significado del símbolo Intercambio de los renglones i y j. Se multiplica por c el renglón i. Al renglón i se le suma c veces el renglón j.

Para indicar el tipo de operación elemental de columna que se uso para pasar de la matriz

B.7. Matrices elementales

163

A a la matriz B se usa la siguiente notacion: Operación

Símbolo

I II III

Cij Ci (c) Cij (c)

Significado del símbolo Intercambio de las columnas i y j. Se multiplica por c la columna i. A la columna i se le suma c veces la columna j.

Ejemplo B.7.2. En cada caso la matriz B se obtuvo de la matriz A aplicando la operación elemental de renglón indicada. A  3 5 8 4 2 1 12 6 4 1 7 4   −3 4 −1 −5 7 −11 −1 13 −4 



−1  −3 6  3 2 4

B  4 1 7 4 2 1 12 6 3 5 8 4   −3 4 −1 −15 21 −33 −1 13 −4 

R

−−−13 −→

R2 (3)

−−−−→

   5 2 3 −1 5 2 3 R21 (−5) 9 5 4  −−−−−→  2 −16 −5 −11  −7 8 10 6 −7 8 10    5 8 4 −7 1 7 4 C12 (−5)  0 1 12 6  1 12 6 −−−−−→ 1 7 4 2 5 8 4

Sage nos ayuda a realizar las tareas rutinarias. sage : A = matrix (3 ,[3 ,5 ,8 ,4 , 2 ,1 ,12 ,6 ,4 ,1 ,7 ,4]); A [ 3 5 8 4] [ 2 1 12 6] [ 4 1 7 4] sage : B = A . with_swapped_rows (0 ,2); B [ 4 1 7 4] [ 2 1 12 6] [ 3 5 8 4] sage : A = matrix (3 , [ -3 ,4 , -1 , -5 ,7 , -11 , -1 ,13 , -4]); A [ -3 4 -1] [ -5 7 -11] [ -1 13 -4] sage : B = A . with_rescaled_row (1 ,3); B [ -3 4 -1] [ -15 21 -33] [ -1 13 -4] sage : A = matrix (3 , [ -1 ,5 ,2 ,3 , -3 ,9 ,5 ,4 , 6 , -7 ,8 ,10]); A [ -1 5 2 3] [ -3 9 5 4] [ 6 -7 8 10] sage : B = A . w i t h _ a d d e d _ m u l t i p l e _ o f _ r o w (1 ,0 , -5); B [ -1 5 2 3] [ 2 -16 -5 -11] [ 6 -7 8 10]

Sage también nos permite trabajar con operaciones elementales de columna:

164

B. Matrices

sage : A . w i t h _ a d d e d _ m u l t i p l e _ o f _ c o l u m n (0 ,1 , -2) [ -7 5 8 4] [ 0 1 12 6] [ 2 1 7 4]

A las matrices que tiene la forma I − uv T , donde u y v son vectores columna de n × 1 tales que v T u 6= 1, se les llama matrices elementales. La condición v T u 6= 1 es para garantizar que las matrices elementales sean invertibles. Sea c = 1/(v T u − 1). Entonces (I − uv T )(I − cuv T ) = I − cuv T − uv T + cuv T uv T = I − cuv T − uv T + (cv T u)uv T = I − uv T + c(v T u − 1)uv T = I − uv T + uv T = I. Así, las matrices elementales son invertibles y su inversa es nuevamente una matriz elemental: I − uv T

−1

=I−

uv T . vT u − 1

Nos interesa estudiar las matrices elementales asociadas con las operaciones elementales. Definición B.7.3. Una matriz elemental de Tipo I, II o III es una matriz que se obtiene al aplicar a la matriz identidad In exactamente una operación elemental de Tipo I, II o III, respectivamente. Eij denota la matriz elemental que se obtiene al aplicar a In la operación elemental Rij , Ei (c) denota la matriz elemental que se obtiene al aplicar a la matriz identidad la operación elemental Ri (c), y Eij (c) denota la matriz elemental que se obtiene al aplicar a la matriz identidad la operación elemental Rij (c). Las matrices elementales de Tipo I, II o III son matrices elementales, es decir, tienen la forma I − uv T . Por ejemplo, considere E13 , la matriz elemental de Tipo I que se obtiene de la identidad intercambiando los renglones 1 y 3. Se observa que       0 0 1 1 0 −1 1  0  = I −  0  1 0 −1 , E13 =  0 1 0  = I −  0 0 1 0 0 −1 0 1 −1 es decir, E13 = I − (e1 − e3 )(e1 − e3 )T , donde Por otro lado, observe que    1 0 0 0 0 E21 (c) =  c 1 0 = I + c 1 0 0 0 1 0 0

e1 , e2 , e3 son los vectores unitarios.    0 1 0 = I + c 0 0 0 0

1

 0 = I + ce1 eT2 .

Se deja de ejercicio al lector verificar que Eij = I − (ei − ej )(ei − ej )T ,

Ei (c) = I − (1 − c)ei eTi ,

Eij (c) = I + cei eTj .

Observación B.7.4. Las matrices elementales de Eij , Ei (c) y Eij (c) se pueden obtener de la matriz identidad aplicando operaciones elementales de columna: Tipo I. Eij se obtiene de la matriz identidad intercambiando las columnas i y j. Tipo II. Ei (c) se obtiene de la matriz identidad multiplicando la columna i por el escalar c.

B.7. Matrices elementales

165

Tipo III. La matriz elemental Eij (c) se obtiene aplicando a la matriz identidad la operación Cji (c), es decir, a la columna j se le suma c veces la columna i. Ejemplo B.7.5.  0 E13 = 0 1

Sea n = 3. Las matrices elementales E13 , E2 (3) y E21 (−5) son:     0 1 1 0 0 1 0 1 0 , E2 (3) = 0 3 0 , E21 (−5) = −5 1 0 0 0 0 1 0 0

 0 0 , 1

respectivamente. La matriz E13 se obtiene intercambiando las columnas 1 y 3 de la matriz identidad; E2 (3) se obtiene multiplicando la columna 2 de la identidad por 3; la matriz E21 (−5) se obtiene sumando −5 veces la columna 2 a la columna 1, es decir, aplicando a la matriz identidad la operación elemental C12 (−5). Ejemplo SAGE B.7.6. El comando elementary_matrix de Sage sirven para crear matrices elementales. Para construir las matrices Eij , Ei (c) y Eij (c) se usan las instrucciones 1. elementary_matrix(R, n, row1=i, row2=j) 2. elementary_matrix(R, n, row1=i, scale=c), 3. elementary_matrix(R, n, row1=i, row2=j, scale=c), respectivamente. También se puede usar el comando matrix.elementary. El argumento opcional R denota al anillo sobre el cual se construirán las matrices. Se debe recordar que en Sage la numeración de renglones y columnas empieza en 0. sage : E1 = elementary_matrix (3 , row1 =0 , row2 =2); E1 [0 0 1] [0 1 0] [1 0 0] sage : E2 = elementary_matrix (3 , row1 =1 , scale =3); E2 [1 0 0] [0 3 0] [0 0 1] sage : E3 = elementary_matrix (3 , row1 =1 , row2 =0 , scale = -5); E3 [ 1 0 0] [ -5 1 0] [ 0 0 1]

A continuación se muestra que multiplicar una matriz elemental E por una matriz A da por resultado una matriz que se obtiene de la matriz A al aplicar la operación elemental que se uso para construir E. sage : A = matrix (3 ,[3 ,5 ,8 ,4 ,2 ,1 ,12 ,6 , 4 ,1 ,7 ,4]); A [ 3 5 8 4] [ 2 1 12 6] [ 4 1 7 4] sage : E1 * A [ 4 1 7 4] [ 2 1 12 6] [ 3 5 8 4] sage : E2 * A [ 3 5 8 4] [ 6 3 36 18] [ 4 1 7 4] sage : E3 * A

166

B. Matrices

[ 3 5 8 4] [ -13 -24 -28 -14] [ 4 1 7 4]

Si escribimos In = (δij ) y Eij = (αrs ), entonces: αrs = δrs ,

r 6= i, j, 1 ≤ s ≤ n,

αis = δjs ,

1 ≤ s ≤ n,

αjs = δis ,

1 ≤ s ≤ n.

Si Ei (c) = (βrs ), entonces: βrs = δrs , βis = cδis ,

r 6= i, 1 ≤ s ≤ n, 1 ≤ s ≤ n.

Finalmente si Eij (c) = (γrs ), entonces: γrs = δrs ,

r 6= i, 1 ≤ s ≤ n,

γis = δis + cδjs ,

1 ≤ s ≤ n.

Proposición B.7.7. Sea A ∈ K m×n . Si B es la matriz que se obtiene de A al aplicarle una operación elemental de renglón, entonces B = EA, donde E es la matriz elemental correspondiente a la operación elemental de renglón aplicada a A. Demostración. Supongamos que B se obtiene de A al intercambiar los renglones i y j, es decir A

Rij

/ B . Veamos que B = Eij A. Para r 6= i, j, 1 ≤ r ≤ m, tenemos que: [Eij A]rs =

m X

δrk aks = δrr ars = ars = [B]rs ,

1 ≤ s ≤ n.

δjk aks = δjj ajs = ajs = [B]is ,

1 ≤ s ≤ n.

k=1

Además: [Eij A]is = [Eij A]js =

m X k=1 m X

1 ≤ s ≤ n.

δik aks = δii ais = ais = [B]js ,

k=1

Así Br∗ = Ar∗ si r 6= i, j, Bi∗ = Aj∗ y Bj∗ = Ai∗ . Esto prueba la igualdad B = Eij A. Supongamos ahora que B se obtiene de A al aplicarle la operación elemental Rij (c). Veamos que B = Eij (c)A. Para r 6= i, 1 ≤ r ≤ m, tenemos que: [Eij (c)A]rs =

m X

δrk aks = δrr ars = ars = [B]rs ,

1 ≤ s ≤ n.

k=1

Por otro lado: [Eij (c)A]is =

m X

(δik + cδjk )aks =

k=1

m X k=1

δik aks + c

m X

δjk aks

k=1

= δii ais + cδjj ajs = ais + cajs = [B]is ,

1 ≤ s ≤ n.

Luego Br∗ = Ar∗ si r 6= i, Bi∗ = Ai∗ + cAj∗ . Así B = Eij (c)A. Se deja al lector probar que si B se obtiene de A al aplicarle la operación elemental Ri (c), entonces B = Ei (c)A.

B.7. Matrices elementales

167

Proposición B.7.8. Sea A ∈ K m×n . Si B es la matriz que se obtiene de A al aplicarle una operación elemental de columna, entonces B = AE, donde E es la matriz elemental correspondiente a la operación elemental de columna aplicada a A. Demostración. La prueba se puede hacer de manera análoga a la prueba de la Proposición B.7.7. Sin embargo, no lo haremos así, para ilustrar otra forma en la que se puede proceder. Supongamos que B se obtiene de A intercambiando las columnas i y j. Sea E la correspondiente matriz elemental. Es fácil verificar que E = I − vv T , donde v = ei − ej . Entonces AE = A − Avv T = A − (Aei − Aej )(eTi − eTj ) = A − ([A]∗i − [A]∗j )(eTi − eTj ) = A − ([A]∗i − [A]∗j )eTi − ([A]∗i − [A]∗j )eTj



Así se tiene columna j

columna i   0 · · · a1i − a1j   0 · · · a2i − a2j  AE = A−  . ..  .  . ··· .  0 · · · ami − amj

···

a1j − a1i

···

a2j − a2i

.. ··· . · · · amj − ami

 ··· 0   ··· 0   ..   ··· .   ··· 0

de donde se sigue el resultado. Si B se obtiene de A aplicando la operación Cij (c) y E es la matriz elemental correspondiente, entonces E = I + cej eTi . Luego   0 · · · a1j · · · 0 0 · · · a2j · · · 0   AE = A + c(Aej )eTi = A + c[A]∗j eTi = A + c  . .. ..  ,  .. · · · . · · · . 0 · · · anj · · · 0 donde la columna j de A aparece en la columna i de la matriz (Aej )eTi . Para el caso que falta, la matriz elemental correspondiente es E = I − (1 − c)ei eTi . Se deja al lector como ejercicio completar la prueba. Ejemplo B.7.9. Para las matrices del Ejemplo B.7.2 se tiene:      4 1 7 4 0 0 1 3 5 8 4 2 1 12 6 = 0 1 0 2 1 12 6 , 3 5 8 4 1 0 0 4 1 7 4      −3 4 −1 1 0 0 −3 4 −1 −15 21 −33 = 0 3 0 −5 7 −11 , −1 13 −4 0 0 1 −1 13 −4     −1 5 2 3 1 0 0 −1 5 2 3  2 −16 −5 −11  = −5 1 0  −3 9 5 4 6 −7 8 10 0 0 1 6 −7 8 10      1 0 0 −7 5 8 4 3 5 8 4  −2 1 0  0 1 12 6  =  2 1 12 6    0 0 1 2 1 7 4 4 1 7 4 0 0 0

 ,  0 0  . 0  1

168

B. Matrices

Proposición B.7.10. Las matrices elementales son invertibles. Más aún: −1 1. Eij = Eji = Eij .

2. Ei (c)−1 = Ei (1/c) con c 6= 0. 3. Eij (c)−1 = Eij (−c) con i 6= j. Demostración. a) Sea B = Eij Eji . Como Eij es una matriz elemental, por la Proposición B.7.7, B se obtiene de Eji intercambiando los renglones i y j. Luego B = I. Análogamente Eji Eij = I. b) Ei (c) se obtiene de la matriz identidad multiplicando el renglón c. Por la Proposición B.7.7, Ei (1/c)Ei (c) es la matriz que se obtiene de Ei (c) multiplicando su i-ésimo renglón por 1/c. Luego Ei (1/c)Ei (c) = I. Análogamente Ei (c)Ei (1/c) = I. c) La prueba es similar a las anteriores y se deja de ejercicio al lector. Proposición B.7.11. Si la matriz B se obtiene de la matriz A al aplicar una sucesión finita de operaciones elementales de renglón, es decir: R

R

R

1 2 s A −−−− → A1 −−−− → A2 −−−−→ · · · −−−− → As = B,

entonces B = P A, para algúna matriz invertible P . Demostración. Sea Ei la matriz elemental correspondiente a la operación elemental Ri . Entonces A1 = E1 A, A2 = E2 A1 = E2 E1 A, .. . B = As = Es · · · E2 E1 A. Como las matrices elementales son invertibles, P = Es · · · E2 E1 es una matriz invertible y B = P A.   2 2 2 7 7 ∈ R3×3 se le aplican las Ejemplo B.7.12. Suponga que a la matriz A = 4 6 18 22 operaciones elementales indicadas y se obtiene la matriz B.   2 2 2 R21 (−2) R31 (−3) R32 (−4) A −−−−−→ A1 −−−−−→ A2 −−−−−→ 0 3 3 = B. 0 0 4 Entonces, 

1 B = E32 (−4)E31 (−3)E21 (−2)A =  −2 5

 0 0 2 1 0  4 −4 1 6

2 7 18

 2 7 . 22

La siguiente proposición es una generalización de la proposición anterior. Proposición B.7.13. Si la matriz B se obtiene de la matriz A al aplicar una sucesión finita de operaciones elementales, entonces B = P AQ para algunas matrices invertibles P y Q. Demostración. Se deja de ejercicio al lector.

B.8. Método de eliminación de Gauss

169 

 1 −2 7 38 2 −6 −33  se le aplican las operaciones Ejemplo B.7.14. A la matriz A =  −1 −7 14 −45 −246 elementales de renglón indicadas a continuación para obtener la matriz EA . 

1  0 A −−−−→ A1 −−−−→ A2 −−−−−→ A3 −−−−−→ EA = 0 R21 (1)

R31 (7)

R32 (−4)

R12 (−7)

 −2 0 3 0 1 5 . 0 0 0

Aplicando operaciones elementales de columna a EA se obtiene 

EA

1 C −−−23 −→ A5 −−−−→ A6 −−−−−→ A7 −−−−−→ A8 = 0 0 C31 (2)

C41 (−3)

C42 (−5)

0 1 0

0 0 0

 0 0 0

De esta manera se tiene que A8 = E12 (−7)E32 (−4)E31 (7)E21 (1)AE23 E13 (2)E14 (−3)E24 (−5) = P AQ, donde  P =

B.8.

−6 1 3



−7 0 1 0  −4 1



1  0 y Q=  0 0

0 0 1 0

2 1 0 0

 −3 0  . −5  1

Método de eliminación de Gauss

Las operaciones elementales se usan, entre otras aplicaciones, para llevar una matriz a una forma escalonada por renglones o a su forma escalonada reducida por renglones. En esta sección se estudian las matrices en forma escalonada por renglones y el método de eliminación guassiana para llevar una matriz a una forma escalonada. Definición B.8.1 (Forma escalonada por renglones). Se dice que una matriz E ∈ K m×n está en forma escalonada si se cumplen las siguientes dos condiciones: 1. Todos los renglones que consisten únicamente de ceros, si los hay, están en la parte inferior de la matriz. 2. La primera entrada diferente de cero en el resto de los renglones, está a la derecha de la primera entrada diferente de cero del renglón anterior. En los renglones no nulos, la primera entrada distinta de cero se llama elemento pivotal o simplemente pivote Las siguientes matrices están en forma escalonada. Los pivotes están encerrados en un círculo. 

  1 4 1 2

    

4

0 0 0 2

3

0 0 0 0

1

    

    

1

0

0

0

1

2

0

0

3

          

  2 4 −1 −2      0 0 1 −3     0 0 0 0

 2

0

0

0

1

0

0

0

3

    

170

B. Matrices En general, la forma escalonada de una matriz se ve como sigue:         

* 0 0 0 0 0

∗ * 0 0 0 0

∗ ∗ 0 0 0 0

∗ ∗ * 0 0 0

∗ ∗ ∗ 0 0 0

∗ ∗ ∗ * 0 0

∗ ∗ ∗ ∗ 0 0

 ∗  ∗  ∗ , ∗  0 0

donde los pivotes son las entradas encerradas en un cuadro. Método de Eliminación de Gauss Explicaremos con un ejemplo el Método de eliminación de Gauss para llevar una matriz a una forma escalonada. La estrategia general consiste, fijarnos en la entrada (1, 1) de la matriz y usarla como pivote para eliminar todas las entradas por debajo esta posición pivotal, aplicando operaciones elementales de renglón. Los pivotes deben ser distintos de cero. Si el escalar en la posición pivotal es cero, entonces se intercambia ese renglón por algún renglón debajo de él para producir un pivote distinto de cero. Ejemplo B.8.2. Usando el Método de eliminación de Gauss, encuentre una forma escalonada por renglones de la matriz   3 1 2 −2 A =  −3 1 −2 −2  . 1 0 1 9 Escriba P A = E, donde P es una matriz invertible y E es una matriz en forma escalonada. Solución. El elemento en la posición (1, 1) es distinto de cero, así que se toma como pivote este elemento y se producen ceros en las posiciones (2, 1) y (3, 1) aplicando las operaciones elementales R21 (1) y R31 (−1/3):     3 1 2 −2 3 1 2 −2 R31 (−1/3) R21 (1) 2 0 −4  = A2 A −−−−→  0 2 0 −4  −−−−−−−→  0 1 1 0 1 9 0 − 3 31 29 3 A continuación, se concentra uno en el segundo renglón. La primera entrada distinta de cero está en la posición (2, 2). Así la nueva posición pivotal será la (2, 2) y el pivote sera 2. Para introducir un cero en la posición (3, 2) se aplicará la operación elemental E32 (1/6) a la matriz A2 . Así   3 1 2 −2 R32 (1/6) A2 −−−−−−→  0 2 0 −4  = E 0 0 31 9 La matriz E está en forma escalonada por renglones. Dado que R32 (1/6)E31 (−1/3)E21 (1)A = E, la matriz   1 0 0 P = R32 (1/6)E31 (−1/3)E21 (1) =  1 1 0  − 16 16 1 es tal que P A = E. Para construir P se puede efectuar la multiplicación de las matrices involucradas. También es posible construir P aplicando a la matriz identidad la secuencia operaciones

B.8. Método de eliminación de Gauss elementales que se usaron para obtener la matriz    1 1 0 0 R21 (1) R31 (−1/3) I −−−−→  1 1 0  −−−−−−−→  1 0 0 1 − 13

171 E.   1 0 0 R32 (1/6) 1 0  −−−−−−→  1 0 1 − 16

0 1 1 6

 0 0  = P. 1

Las operaciones elementales de renglón que se aplican a A son las mismas operaciones elementales que se aplican a la matriz identidad para obtener la matriz P tal que P A = E. Estas operaciones elementales se pueden aplicar de manera simultánea a las matrices A e I para obtener las matrices E y P . Para esto se construye la matriz aumentada [A | I] y se le aplican las operaciones elementales necesarias para construir una forma escalonada de A. Al final del proceso se obtiene la matriz [E | P ].     1 0 0 3 1 2 −2 3 1 2 −2 1 0 0 R21 (1)  0  −3 1 −2 −2 0 1 0  −−−−−−−→ 2 0 −4 1 1 0  R31 (−1/3) 1 1 1 29 1 0 1 9 0 0 1 −3 0 1 0 −3 3 3   3 1 2 −2 1 0 0 R32 (1/6) 1 1 0  = [E | P ]. −−−−−−→  0 2 0 −4 1 1 0 0 3 9 − 6 16 1 La instrucción echelon_form() de Sage construye una forma escalonada por renglones de la matriz A. sage : A = matrix ( 3 , [3 ,1 ,2 , -2 , -3 ,1 , -2 , -2 , 1 ,0 ,1 ,9]); A [ 3 1 2 -2] [ -3 1 -2 -2] [ 1 0 1 9] sage : A . echelon_form () [ 1 0 1 9] [ 0 1 1 25] [ 0 0 2 54]

Usando la opción transformation = True, se obtiene además de una forma escalonada, una matriz invertible P tal que P ∗ A = E. sage : E , P = A . echelon_form ( transformation = True ); E , P ( [ 1 0 1 9] [ 0 0 1] [ 0 1 1 25] [ 0 1 3] [ 0 0 2 54] , [ -1 1 6] ) sage : P * A [ 1 0 1 9] [ 0 1 1 25] [ 0 0 2 54]

Ejemplo B.8.3. Encuentre una forma escalonada de la matriz   0 1 3 2 2 3 −5  . A= 0 0 −1 −4 −5 Solución. 

0 1 R21 (−2) A −−−−−→  0 0 R31 (1) 0 0

  3 2 0 R32 (−1/3) −3 −9  −−−−−−−→  0 −1 −3 0

1 0 0

 3 2 −3 −9  . 0 0

172

B.9.

B. Matrices

Método de eliminación de Gauss-Jordan

En esta sección se estudia el método de eliminación de Gauss-Jordan encontrar la forma escalonada reducida de una matriz. Primero la definición de lo que se entiende por una matriz en forma escalonada reducida. Definición B.9.1 (Forma escalonada reducida por renglones). Se dice que una matriz E ∈ K m×n está en la forma escalonada reducida por renglones si: 1. E está en forma escalonada. 2. La primera entrada distinta de cero en cada renglón es 1 (es decir, cada pivote es 1). 3. Cada pivote es la única entrada distinta de cero en su columna. La técnica de eliminación de Gauss-Jordan es una variante de la eliminación gaussiana. Son dos las características que hacen diferente el método de Gauss-Jordan del método de Gauss: a) En cada paso del proceso, cada pivote debe convertirse en 1. b) En cada paso del proceso, todas las entradas arriba y abajo de un pivote deben convertirse en 0. Método de eliminación de Gauss-Jordan Explicaremos con un ejemplo el Método de eliminación de Gauss-Jordan para llevar una matriz a una forma escalonada reducida. Ejemplo B.9.2. Usando el Método de Gauss-Jordan, determine la forma escalonada reducida por renglones de la matriz A.   3 1 2 −2 A =  −3 1 −2 −2  1 0 1 9 Determine P invertible de tal manera que P A = EA , donde EA es la forma escalonada reducida de A. Solución. Dado que la entrada (1, 1) es distinto de cero, esta será la posición pivotal inicial. Lo primero que se hace producir un 1 en la posición pivotal aplicando una operación elemental de Tipo II. A continuación, las entradas que se encuentran por debajo de la posición pivotal se convierten en ceros, mediante la aplicación de operaciones elementales de Tipo III. 

1 A −−−−−→  −3 1 R1 (1/3)

2 3

1 3

1 −2 0 1

  1 − 32 R21 (3) −2  −−−−−→  0 R31 (−1) 9 0

1 3

2 3

2 − 31

1 3

0

 − 23 −4  = A2 29 3

Se pasa ahora al segundo renglón. Dado que la posición (2, 2) es distinta de cero, esta será la nueva posición pivotal. Se aplica una operación elemental de Tipo II. Posteriormente, se aplican operaciones elementales de Tipo III para producir ceros en las entradas por arriba y por debajo de la posición pivotal. 

1 R2 (1/2) A2 −−−−−→  0 0

1 3

1 − 13

2 3

  − 23 1 0 R12 (−1/3) 0 −2  −−−−−−−→  0 1 R32 (1/3) 1 29 0 0 3 3

2 3

 0 0 −2  = A4 1 9 3

B.10. Algoritmo de Gauss-Jordan para calcular la inversa

173

Como siguiente paso a la matriz A4 , se le aplica operaciones elementales de los Tipos II y III para producir un 1 en la posición (3, 3) y cero en la posición (1, 3).     1 0 0 −18 0 1 0 32 R3 (3) R13 (−2/3) −2  = EA . A4 −−−−→  0 1 0 −2  −−−−−−−→  0 1 0 0 0 1 27 0 0 1 27 La matriz invertible  P = E13 (−2/3)E3 (−3) · · · E21 (3)E1 (1/3) = 

1 2 1 2 − 12

− 21 1 2 1 2

 −2 0  3

es tal que P A = EA . Utilizando la instrucción rref() de Sage se obtiene la forma escalonada reducida EA : sage : A . rref () [ 1 0 0 -18] [ 0 1 0 -2] [ 0 0 1 27]

B.10.

Algoritmo de Gauss-Jordan para calcular la inversa

Finalizamos con el Método de Gauss-Jordan para calcular la inversa de una matriz cuadrada. El método se basa en el siguiente resultado (Teorema 1.5.3): una matriz cuadrada es invertible si y solamente si su forma escalonada reducida es la matriz identidad. Sea A una matriz cuadrada. 1. Construya la matriz aumentada [A | I], donde I es la matriz identidad de orden n. 2. Lleve la matriz [A | I] → [EA | P ] a su forma escalonada reducida. 3. Si EA es la matriz identidad, entonces A es invertible y A−1 = P . En caso contrario, A no es invertible.   2 −1 −1 1 . Ejemplo B.10.1. Calcule la inversa, si la tiene, de la matriz A =  −1 −1 −3 −2 3 Solución. Se forma la matriz aumentada [A | I] y se lleva a su forma escalonada reducida. 1 − 21 − 12 12 0  −1 −1 1 0 1 [A | I] −−−−−→ −3 −2 3 0 0  1 1 1 1 −2 −2 0 2 R2 (−2/3) 1  0 1 − 3 − 31 − 23 −−−−−−→ 3 3 0 − 72 0 2 2  2 1 1 1 0 −3 − 3 3 R3 (3)  0 1 −1 −1 −2 −−−−→ 3 3 3 0 0 1 1 −7 

R1 (1/2)

 0 R21 (1) 0  −−−−→ R31 (3) 1  0 R12 (1/2) 0  −−−−−−→ R32 (7/2) 1  0 R13 (2/3) 0  −−−−−−→ R23 (1/3) 3

1 − 12 − 21 12 0 1 1  0 −3 1 2 2 2 7 3 3 0 −2 0 2 2  2 1 1 0 −3 − 31 3  0 1 −1 −1 −2 3 3 3 1 1 0 0 − 37 3 3  1 0 0 1 −5 2  0 1 0 0 −3 1 0 0 1 1 −7 3 

 0 0  1  0 0  1  .

Dado que la forma escalonada reducida de A es la matriz identidad, se concluye que A es invertible y su inversa aparece en el lado derecho de la segunda matriz en la línea anterior.

174

B. Matrices 

 1 1 −1 1 −2 . Ejemplo B.10.2. Calcule la inversa, si la tiene, de la matriz A =  −2 −1 −1 1 Solución. Se forma la matriz aumentada [A | I] y se lleva a su forma escalonada reducida.     1 1 0 0 − 31 − 13 1 1 −1 1 0 0 3 1 1 −2 0 1 0  −−−−→  0 1 − 43 0 − 23  = [EA | P ] [A | I] =  −2 3 −1 −1 1 0 0 1 0 0 0 1 0 1 Dado que la forma escalonada reducida de la matriz A no es la matriz identidad, se concluye que A no es invertible.

B.11.

Ejercicios

1. Determine los elementos [A]12 , [A]31 y [A]33 de la matriz   1 −1 −1 8 −13  . A =  14 36 1 3 Escriba la diagonal principal de A. 2. Provea ejemplos de matrices triangulares superiores, triangulares inferiores y matrices diagonales. 3. Provea ejemplos de matrices simétricas y antisimétricas. 4. Provea ejemplos de matrices hermitianas y anti-hermitianas. 5. Si  A=  C=

−1 −1 1 1

2 2 −5 5  −3 , −1





,

−11 0   −10 −2 D= , 2 1 B=

0 1

−6 −2

 ,

realice si es posible hacerlo, las a) A + B, b) 5A, e) 2C + 5D, f) A − B, i) DB, j) CA + DB,

siguientes operaciones: c) −D, d) A + D, g) AT + B T , h) AC, k) A10 , l) C 3 .   5 −5 −5 6. Determine la matriz X si 5X = . 30 −10 0       2 −1 1 −3 0 −1 0 1 , B =  −2 −7  y C =  1 , calcule los siguientes 7. Si A =  0 −1 2 −4 −5 −1 −1 productos siempre que sea posible: a) AB, b) BA, c) CB d) C T B, e) A2 f) B 2 , T T T T T g) C C h) CC i) BB j)B B k) C AC. 8. Encuentre los valores de x y y de tal manera que      4 −14 0 3 −2 3 y −1 −1 2  3 0 −1 1  +  −1 −1 2 −1  =  2 0 −3 1 12 1 2 −1 −8 x 1

2 x −1 −1 1 −1 0

 2 0 . 5y

B.11. Ejercicios 9. Encuentre los valores de x, y de tal manera que    −2 5 −5 1 2 −1 −1 −1  x 0 −3 62  1 x y −3    0 0 −3 1 3 −4 −3 −1 y 0 1 −3

175



  = 

−5 10 13 5 −16 15

 −5 −58 −11 194  . 5 −245

10. Verifique que cada una de las siguientes matrices son nilpotentes:      0   0 1 1 0 1 0  0 0 c  0 0 2 , 0 0 0 , ,  0 0 0 0 0 0 0 2 0 0

 −1 3 2 0 3 5   0 0 −4  0 0 0

11. Verifique que cada una de las siguientes matrices son idempotentes:        1 0 0 1 0 1 0 3 √ , , , 1 1 1 1 0 0 0 2 3

1 3

√  2 2 3

.

12. Sea 0 ≤ a ≤ 1 un número real. Verifique que la matriz √   a a − a2 √ A= a − a2 1−a es una matriz idempotente. 13. Sean A y B matrices cuadradas idempotentes tales que AB = BA. Pruebe que AB es idempotente. 14. Calcule el producto de las siguientes matrices triangulares superiores:     3 −1 −1 −1 −1 0 2 5 . B= 0 A =  0 −2 1  , 0 0 −2 0 0 3 15. Sean A y B matrices de n × n triangulares superiores. a) Pruebe que AB es una matriz triangular superior. b) Pruebe que [AB]ii = [A]ii [B]ii para i = 1, 2, . . . , n. 16. Calcule el producto de las triangulares inferiores:    1 2 3 4 0  0 0 1 2   0  A= B=  0 0 2 1 ,  0 0 0 0 4 0

 −2 1 0 2 1 −2  . 0 1 −1  0 0 2

17. Sean A y B matrices de n × n triangulares inferiores. a) Pruebe que AB es una matriz triangular inferior. b) Pruebe que [AB]ii = [A]ii [B]ii para i = 1, 2, . . . , n. 18. Calcule la traza de las siguientes matrices:     0 2 11 29 4 −22  2 −2 −1  ,  12 −1 1 , 29 −8 −23 −47 1 −4



−1 + 5i  8 −3 + 13i

1 3 − 5i −4

 −i −2 + i  . 8

176

B. Matrices

19. De ejemplos de matrices tales que tr(A) = tr(B) y A 6= B. 20. Si A y B son matrices del mismo tamaño tales que tr(A) = 12 y tr(B) = −4, calcule la traza de las siguientes matrices: 8A, −5B, 4AT , 2A + 3B y 3AT . 21. Sean A y B matrices de m × n y n × r, respectivamente. Pruebe que tr(AB) = tr(B T AT ).   a11 a12 a13 22. Sea A = . Verifique que la entrada (1, 1) de AAT es a211 + a212 + a213 y que a21 a22 a23 la entrada (2, 2) de AAT es a221 + a222 + a223 . Calcule la traza de AAT . 23. Generalice el ejercicio anterior. Es decir, si A ∈ K m×n , pruebe que la entrada (i, i) de la matriz AAT está dada por [AAT ]ii =

n X

[A]2ij .

j=1

24. Sea A ∈ R2×3 tal que tr(AAT ) = 0. Pruebe que A es la matriz cero. 25. Sea A una matriz de n×n. Use las propiedades de la traza para mostrar que no existe ninguna matriz X tal que AX − XA = I, donde I es la matriz identidad. 26. Sean A y B matrices cuadradas. ¿Es cierto que (A + B)2 = A2 + 2AB + B 2 ? ¿Por qué? Justifique su respuesta. 27. Sean A y B matrices de m × n. Suponga que Ax = Bx para todos los vectores columna de n × 1. Pruebe que A = B (Sugerencia: Empiece con matrices de 2 × 2 o 2 × 3 y elija valores T T particulares para x, por ejemplo x = 1 0 o x = 1 0 0 ). 28. Sean A, B matrices simétricas tales que AB = BA. Pruebe que AB es una matriz simétrica. 29. Pruebe que si A y B son matrices simétricas del mismo tamaño, entonces A+B es una matriz simétrica. 30. Pruebe que si A es simétrica, entonces también lo son AT y cA donde c es cualquier escalar. 31. Pruebe que si A ∈ Cn×n es hermitiana y c es un número real, entonces cA también es una matriz hermitiana. 32. Sea A ∈ Cm×n . Pruebe que las matrices A∗ A y AA∗ son matrices hermitianas. 33. Pruebe que si A, B ∈ Cn×n son matrices hermitianas, entonces A + B también es una matriz hermitiana. 34. Pruebe que si A, B ∈ Cn×n son matrices hermitianas tales que AB = BA, entonces AB también es una matriz hermitiana. 35. Pruebe que si A ∈ Cn×n es una matriz hermitiana, entonces Im[A]ii = 0 para todo i. En otras palabras, pruebe que los elementos de la diagonal principal son números reales. 36. Pruebe las siguientes afirmaciones: a) Si A es una matriz anti-simétrica, entonces [A]ii = 0 para toda i. b) Si A ∈ Cn×n es una matriz anti-hermitiana, entonces Re[A]ii = 0 para toda i. 37. Sea A una matriz cuadrada. Pruebe que A + AT es simétrica y A − AT es ansimétrica.

B.11. Ejercicios

177

38. Sea A ∈ Cn×n una matriz cuadrada. Pruebe que A + A∗ es una matriz hermitiana y A − A∗ es anti-hermitiana. 39. Determine  4 0  0 0  2 0  0 0

si las siguientes matrices están o no en una forma escalonada.       3 2 1 3 2 1 1 2 3 4 1  0 5 1 0 1 3 , 0 0 1 2 , 0 , 0 0 4 0 0 0 0 0 0 1 0 0 0 1     4 6 8   0 0 0 0 0 1 2 0 1 0 , 0 0 0 , 0 , 1 3 1 0 0 1 0 0 0 0 0 0 1

 2 0 3

5 0 1

1 0 0

0 0 0

 1 0 . 0

40. Encuentre una forma escalonada para cada una de las siguientes matrices:        4 2 0 9 1 1 −4 −1 −2 8 −1 −2  2  1 1 6   ,  −2  2 1 2 −1 1 , 1 −3  ,   −2 −1 −1 −6   3 −9 −1 1 −1 1 8 −1 2 1 −5 −3

1 2 1 0

 −1 2 −2 5   2 −1  2 2

41. Encuentre la forma escalonada reducida de cada una de las matrices del inciso anterior. 42. Encuentre la inversa, si existe, de cada una de las siguientes matrices.        −1 1 1 1 −1 −3 1 −1 1 −2 1   −1  −2 −1 2 1 ,   −4 1 −1  ,  1 −2 1 ,  1 −1 −1 2   2 1 1 −2 4 2 −1 1 −2 −1 1 1

 −1 1 −5 −1 1 2  . −4 27 13  1 −1 −3

43. Determine los valores deα de tal manera que la forma escalonada reducida de la matriz  1 −2 3 α 6  no sea la matriz identidad. ¿Para que valores de α es A invertible? A= 2 −1 3 α−3   α 1 1 44. Determine los valores de α de tal manera que la matriz A =  1 α 1  sea invertible. 1 1 1

178

B. Matrices

APÉNDICE

C

Soluciones a ejercicios seleccionados

Capítulo 1. Sistemas de ecuaciones lineales 1.1.2.1. La matriz y el vector de términos independientes son sage : A = sage : A [ 0 0 [ -1 0 [ 2 1 [ 0 0 sage : b = [ -1] [1/14] [ 2] [ 3/2]

matrix (4 ,[0 ,0 , -2 ,1/2 ,0 , -1 ,0 ,0 , -2 , -2 , 2 ,1 ,0 ,0 ,1 , 0 ,0 , -2 , -1 ,1]) -2 1/2 0] 0 -2 -2] 0 0 1] -2 -1 1] vector ([ -1 ,1/14 ,2 ,3/2]); b . column ()

Se definen las variables x1 , . . . , x5 para formar las ecuaciones y resolver el sistema. sage : var ( ’ x1 x2 x3 x4 x5 ’) ( x1 , x2 , x3 , x4 , x5 ) sage : ec1 = ( A *x - b )[0]; ec1 -2* x3 + 1/2* x4 + 1 sage : ec2 = ( A *x - b )[1]; ec2 - x1 - 2* x4 - 2* x5 - 1/14 sage : ec3 = ( A *x - b )[2]; ec3 2* x1 + x2 + x5 - 2 sage : ec4 = ( A *x - b )[3]; ec4 -2* x3 - x4 + x5 - 3/2 sage : solve ([ ec1 , ec2 , ec3 , ec4 ] , x1 , x2 , x3 , x4 , x5 ) [[ x1 == -10/3* r1 + 137/42 , x2 == 17/3* r1 - 95/21 , x3 == 1/6* r1 + 1/12 , x4 == 2/3* r1 - 5/3 , x5 == r1 ]]

El sistema es indeterminado pues hay al menos dos soluciones, cuando r = 0 y cuando r = 1. 179

180

C. Soluciones a ejercicios seleccionados

1.1.2.7. Supongamos que Ax1 = Ax2 = b con x1 6= x2 . Entonces A(x1 − x2 ) = Ax1 − Ax2 = b−b = 0. Para k ∈ R, sea yk = x1 +k(x1 −x2 ). Entonces Ayk = Ax1 +kA(x1 −x2 ) = b+k ·0 = b y yk es solución. Se observa que si k1 6= k2 entonces yk1 6= yk2 . En efecto, si yk1 = yk2 , entonces (k1 − k2 )(x1 − x2 ) = 0 y como x1 − x2 6= 0, se sigue que k1 = k2 . Por lo tanto el conjunto {yk | k ∈ R} es infinito. 1.1.2.8. Sugerencia. Defina y = Ax. Entonces Ay = x. Sean A = (aij ), x = (x1 , . . . , xn )T e y = (y1 , . . . , yn )T , donde aij , xk , yl son todos números reales positivos. Entonces, y1 = a11 x1 + a12 x2 + · · · + a1n xn ,

x1 = a11 y1 + a12 y2 + · · · + a1n yn ,

y2 = a21 x1 + a22 x2 + · · · + a2n xn , .. .

x2 = a21 y1 + a22 y2 + · · · + a2n yn , .. .

yn = an1 x1 + an2 x2 + · · · + ann xn ,

xn = an1 y1 + an2 y2 + · · · + ann yn .

Sea c = m´ın{ xy11 , xy22 , . . . , xynn }, c > 0. Demuestre que xj − cyj debe ser igual a 0 para todo j = 1, . . . , n y siga por cuenta propia. 1.2.3.1. La forma escalonada reducida  1 0  0 0   0 0   0 0 0 0

es 0 0 1 0 0 1 0 0 0 0

6 19

0 35 19

0 0

10 − 19 −6 71 − 19 0 0

9 19



0   .  0  0

62 19

1.2.3.3. La forma escalonada reducida de la matriz aumentada del sistema es   7 1 1 1 0 − 56 6 6 b1 − 6 b2 2 1  0 1 −1 −1 . 3 3 3 b1 + 3 b2 0 0 0 0 −b1 + b2 + b3 El sistema tiene solución si y solamente si −b1 + b2 + b3 = 0. 1.2.3.5. La matriz escalonada reducida de la  1 2  0 0   0 0 0 0

matriz aumentada [A | b] es  0 7 0 1 4 0  . 0 0 1  0 0 0

Dado que la ecuación 0x + 0y + 0z + 0w = 1 no tiene solución, se concluye que el sistema de ecuaciones no tiene solución. 1.2.3.7. El espacio columna de A se puede describir como el conjunto de vectores b ∈ R4 que satisfacen un sistema homogéneo: R(A) = {b ∈ R4 | b1 − b2 + b3 = 0 y 2b1 − b2 + b4 = 0}.   1 −1 1 0 Tomando B = se tiene que R(A) = N (B). 2 −1 0 1 1.3.1.1. La primera matriz tiene rango 5 y la segunda rango 2.

181 1.3.1.2. La columnas básicas de la matriz A son precisamente las columnas 1,3 y 6. Las columnas no básicas son combinación lineal de las columnas básicas. La forma escalonada reducida de la matriz A muestra las dependencias lineales de las columnas de A: A∗1 = −2A∗1 ,

A∗4 = 4A∗1 − 5A∗3 ,

A∗5 = 2A∗1 + 3A∗3 ,

A∗7 = −5A∗1 + 4A∗3 + A∗5 ,

A∗8 = A∗1 − A∗3 − A∗5 ,

A∗9 = 0A∗1 + 2A∗3 + 4A∗5 .

De esta manera, la matriz A es  5 −10 −1 25 7 2  −1 2 2 −14 4 3  2 6 14 −1 A=  4 −8  5 −10 −1 25 7 0 8 −16 3 17 25 1 

1 1.3.1.6. Se tiene que E32 (8)E31 (−2)A =  0 0 si a 6= 4, el rango es 3.

0 1 0

−27 4 6 16 −6 16 −13 3 0 −29 6 −2 −27 4 10

   .  

 2 a 1 1 . Si a = 4 el rango es 2; −a + 4 −2a + 8

1.5.1.3. De acuerdo con el Teorema 1.5.4, es suficiente probar que N (AB) 6= {0}. Como el rango de B es a lo más uno, el sistema homogéneo Bx = 0 una solución no trivial, digamos x0 . Entonces ABx0 = A0 = 0. Luego x0 es una solución no trivial de ABx = 0. 1.5.1.9. Para la primera parte, imite la prueba del Lema 1.3.3. Para la segunda parte, ¿Es posible que AB tenga más columnas básicas de las que tiene B? Para la tercera parte, rango(AB) = rango(B T AT ) ≤ rango(AT ) = rango(A). Finalmente, n = rango(I) = rango(AB) ≤ rango(A). Como A es cuadrada de n × n, se tiene que rango(A) ≤ n.

Capítulo 2. Determinantes 2.3.1.18. Como det(A) < 0, entonces det(C) < 0. det(ABC)2 = det(AB) det(AC) det(BC) = 9 × 16 × 25 √ =⇒ det(ABC) = − 9 × 16 × 25 = −3 × 4 × 5 = −60 Otra forma, 9 16 9 = =⇒ det(B) = det(C), det(B) det(C) 16 9 25 × 16 5×4 det(C)2 = 25 =⇒ det(C)2 = =⇒ det(C) = − . 16 9 3 det(A) =

det(B) det(C) = 25

Luego det(ABC) = det(AB) det(C) = −9

5×4 = −3 × 4 × 5 = −60 3

182

C. Soluciones a ejercicios seleccionados

2.3.1.20. El término que produce β 6 es (σ)a16 a25 a33 a44 a51 a62  donde σ =

1 6

2 5

3 3

4 4

5 1

 6 . Ahora bien, 2 σ = (1, 6, 2, 5) = (1, 5)(1, 2)(1, 6)

y σ es una permutación par. Luego (σ)a16 a25 a33 a44 a51 a62 = (−1)(−2β)(4β)(5β)(−2β)(−β)(−β) = −80β 6 El coeficiente de β 6 es −80. 2.5.1.10. El polinomio f debe satisfacer f (xi ) = yi para cada i = 1, 2, . . . , n. Es decir, a0 + a1 x1 + a2 x21 + · · · + an−1 xn−1 = y1 1 a0 + a1 x2 + a2 x22 + · · · + an−1 xn−1 = y2 2 .. . a0 + a1 xn + a2 x2n + · · · + an−1 xn−1 = yn n

Es decir,  1 1  .  ..

x1 x2 .. .

x21 x22 .. .

1

xn

x2n

     a0 y1 . . . xn−1 1     a1   y2  . . . xn−1 2   a2     =  . . ..   .   ..  ··· .   ..  yn . . . xn−1 n an−1

Dado que la matriz del sistema es la matriz cuadrada de Vandermonde, y xi − xj 6= 0 para i 6= j, los coeficientes a0 , . . . , an−1 están determinados de manera única.

Capítulo 3. Espacios vectoriales 3.2.1.2. Sea U = {U | U es un subespacio de V que contiene a S}. Se debe probar que hSi = T U . U ∈U T Se tiene que hSi ∈ U, así que U ∈A U ⊂ hSi. Recíprocamente, sea U ∈ U. Como S ⊂ U , se tiene P que vi ∈ U para toda i. Ahora bien, U es cerrado bajo suma y producto por escalar, así que xi vi ∈ U , para cualesquiera xi ∈ K. Esto prueba que hSi ⊂ U . 3.2.1.3. Si x, y ∈ W y c ∈ R: 0T ai = 0 =⇒ 0 ∈ W (x + y)T ai = (xT + y T )ai = xT ai + y T ai = 0 + 0 =⇒ x + y ∈ W (cx)T ai = (cxT )ai = c(xT ai ) = c0 = 0 =⇒ cx ∈ W

183 3.3.1.14. Consideremos P la combinación lineal x1 Av1 + · · · xr Avr = 0. Entonces A(x1 v1 + · · · + x v ) = 0, es decir, xi vi ∈ N (A). Como el rango de A es n, se tiene que N (A) = {0}, así que Pr r xi vi = 0 y dado que v1 , . . . , vr son l.i, se sigue que xi = · · · = xr = 0. 3.4.1.18. Sea β = {w1 , . . . wr } una base para W . Veamos que β 0 = {Aw1 , . . . , Awr } es una base para A(W ). Sea v ∈ A(W ); entonces existe un w ∈ W tal quePv = Aw. Escribamos w P ∈ W comoP combinación lineal de los vectores de la base β: w = xi wi . Entonces v = 0 A( P xi w i ) = xi Awi . Esto muestra que β genera al subespacio A(W ). Ahora, supongamos P P que xi Awi = 0; entonces A( xi wi ) = 0, es decir w = xi wi ∈ N (A). Como también w ∈ W , se tiene que w ∈ W ∩ N (A) = {0}, así que w = 0 lo que implica que xi = 0 para i = 1, . . . , n. 3.6.1.6. La suma es directa si y solamente si U ∩ W = {0}. Sean v ∈ U ∩ W y c1 , c2 , c3 , c4 ∈ K tales que v = c1 (v1 − v4 ) + c2 (v2 − v3 ) = c3 (v1 + v4 ) + c4 (v2 + v3 ). De aquí c1 (v1 − v4 ) + c2 (v2 − v3 ) − c3 (v1 + v4 ) − c4 (v2 + v3 ) = 0 =⇒ (c1 − c3 )v1 + (c2 − c4 )v2 + (−c2 − c4 )v3 + (−c1 − c3 )v4 = 0. Como β es una base se obtiene el sistema de ecuaciones: c1 − c3 = 0 c2 − c4 = 0 −c2 − c4 = 0 −c1 − c3 = 0. La única solución al sistema de ecuaciones la trivial. Así que v = 0. Por lo tanto la suma es directa. 3.6.1.7. La suma es directa si y solamente si U ∩ W = {0}. Se observa que u = v1 − v2 + (−v3 + v4 ) ∈ U y u también pertenece a W , ya que u = v1 + v4 + (−1)(v2 + v3 ). Además u 6= 0 pues los vectores v1 , v2 , v3 , v4 son linealmente independientes. Así U ∩ W 6= {0} y la suma no es directa. Si uno no se da cuenta de lo anterior, se puede proceder como sigue. Sean v ∈ U ∩ W y c1 , c2 , c3 , c4 ∈ K tales que v = c1 (v1 − v2 ) + c2 (−v3 + v4 ) = c3 (v1 + v4 ) + c4 (v2 + v3 ). De aquí c1 (v1 − v2 ) + c2 (−v3 + v4 ) − c3 (v1 + v4 ) − c4 (v2 + v3 ) = 0 =⇒ (c1 − c3 )v1 + (−c1 − c4 )v2 + (−c2 − c4 )v3 + (c2 − c3 )v4 = 0. Como β es una base, se obtiene el sistema de ecuaciones: c1 − c3 = 0 −c1 − c4 = 0 −c2 − c4 = 0 c2 − c3 = 0. Se tiene 

1  −1   0 0

  0 −1 0 1  0 0 0 −1   −→   0 −1 0 −1  1 −1 0 0

0 1 0 0

0 0 1 0

 1 1   1  0

El conjunto de soluciones es c1 = −c4 , c2 = −c4 , c3 = −c4 . Tomando c4 = −1, entonces c1 = c2 = c3 = 1. Entonces v = v1 − v2 − v3 + v4 el cual obviamente es distinto de cero y pertenece a la intersección. La suma por lo tanto no es directa.

184

C. Soluciones a ejercicios seleccionados

Capítulo 4. Transformaciones lineales y matrices 4.1.1.14. Se observa que T (0, u) = T (0·0, u) = 0T (0, u) = 0; análogamente se ve que T (u, 0) = 0. Sean a, b ∈ K tales que av + bw = 0. Entonces 0 = T (av + bw, v) = T (av, v) + T (bw, v) = aT (v, v) + bT (w, v) = a · 1 + b · 0. Así a = 0. De manera análoga se prueba que b = 0. 4.2.1.10. Sea v ∈ ker P ∩ Im P ; entonces P v = 0 y v = P u para algún u ∈ V . Así 0 = P v = P (P u) = P u = v. Luego la suma es directa. Sea v ∈ V . Entonces P v = P (P v), es decir 0 = P v − P (P v) = P (v − P v) y por lo tanto u = v − P v pertenece al núcleo de P . Tenemos que v = u + P v y por lo tanto V = ker P + Im P .

4.4.1.13. Se está buscando la única transformación lineal tal que       1 1 0 T (1) = 1 + (−1) = −1 1 −2       1 1 0 T (t) = (−1) + (1) = −1 1 2       1 1 3 T (1) = 2 + (1) = −1 1 −1 Luego 2

2

T (a + bt + ct ) = aT (1) + bT (t) + cT (t ) =

Capítulo B. Matrices



3c −2 a + 2 b − c

 .

Bibliografía

[1] Juan de Burgos Román. Álgebra Lineal. McGraw-Hill Interamericana, Madrid, segunda edición, 1993. [2] José Antonio de la Peña. Álgebra Lineal Avanzada. Fondo de Cultura Económica, México, 1996. [3] John B. Fraleigh. Álgebra Abstracta. Adison Wesley Iberoamericana, México, 1987. [4] Stanley I. Grossman. Álgebra Lineal. McGraw-Hill Interamericana, México, quinta edición, 1996. [5] Darald J. Hartfiel. Matrix theory and applications with MATLAB. CRC Press, Boca Raton, Florida, 2001. [6] I.N. Herstein. Álgebra Moderna. Trillas, México, 1970. [7] David R. Hill y David E. Zitarelli. Linear Algebra Labs with Matlab. Prentice Hall, Upper Saddle River, N.J., segunda edición, 1996. [8] Kenneth Hoffman y Ray Kunze. Álgebra Lineal. Prentice Hall, México, segunda edición, 1984. [9] Donald L. Kreider, Robert G. Kuller, et al. An introduction to Linear Analysis. Adison Wesley, 1971. [10] Peter Lancaster y Miron Tismenetsky. The Theory of Matrices. Academic Press, San Diego, California, segunda edición, 1997. [11] Serge Lang. Álgebra Lineal. Fondo Educativo Iberoamericano, México, 1976. [12] José Alejandro Lara Rodríguez and Carlos Jacob Rubio Barrios. Álgebra Lineal. Universidad Autónoma de Yucatán, México, 2011. (document) [13] Peter D. Lax. Linear algebra and its applications. Pure and applied mathematics. WileyInterscience, Nueva York, segunda edición, 2007. [14] Steven J. Leon. Linear Algebra with Applications. Prentice Hall, Upper Saddle River, N.J., quinta edición, 1998. [15] Seymour Lipschutz. Álgebra Lineal. McGraw-Hill, México, segunda edición, 1992. 185

186

BIBLIOGRAFÍA

[16] Carl Dean Meyer. Matrix Analysis and Applied Linear Algebra. SIAM, Philadelphia, 2000. [17] Ben Noble y James W. Daniel. Álgebra Lineal Aplicada. Prentice Hall Hispanoamericana, México, tercera edición, 1989. [18] David Poole. Álgebra Lineal: Una introducción moderna. Thomson, México, 2004. [19] Hugo A. Rincón Mejía. Álgebra Lineal. Coordinación de Servicios Editoriales, Facultad de Ciencias, UNAM, México, 2001. [20] Lorenzo Sadun. Applied linear algebra: The decoupling principle. American Mathematical Society, Providence, RI, segunda edición, 2008. [21] Vivek Sahai y Vikas Bist. Linear algebra. CRC Press, Boca Raton, Florida, 2002. [22] W. A. Stein et al. Sage Mathematics Software (Version 5.10). The Sage Development Team, 2013. http://www.sagemath.org. (document) [23] Gilbert Strang. Introduction to Linear Algebra. Wesley-Cambridge Press, 2003.

Índice alfabético

anulador, 137 aplicación lineal, 105 base de un espacio vectorial, 89 dual, 137 campo, 141 característica de un campo, 144 ciclo de longitud r, 48 ciclos ajenos, 49 cofactor, 45, 59 cofactores matriz de, 59 columna básica, 22 combinación lineal, 4, 10 complemento ortogonal, 101 delta de Kronecker, 147 dependencia e independencia lineal, 84 descomposición LU , 33 de Jordan, 131 en valores singulares, 131 determinante desarrollo por cofactores, 45 función determinante, 43 diagonal principal de una matriz, 148 dimensión de un espacio vectorial, 90 ecuación lineal, 1 solución de una, 2 elemento pivotal, 13 equivalencia de matrices, 128 escalar, 1, 76, 141 espacio columna, 6, 20, 32

de las transformaciones lineales, 107 dual, 136 nulo, 20, 27, 32 nulo de una transformación lineal, 111 nulo izquierdo, 20, 32 renglón, 20, 32 vectorial, 75 base de un, 89 cociente, 83 complejo, 76 real, 76 espacios fundamentales, 32 bases y dimensión, 94 espacio columna, 6, 20, 32 espacio nulo, 20, 32 espacio nulo izquierdo, 20, 32 espacio renglón, 20, 32 forma escalonada por renglones, 16, 169 reducida por renglones, 17, 172 función lineal, 105 funcional lineal, 136 imagen de una transformación lineal, 111 inversa de una matriz, 158 derecha de una matriz, 158 izquierda de una matriz, 158 isomorfismo de espacios vectoriales, 115 Métdo de eliminación de Gauss, 170 Gauss-Jordan, 172 matrices 187

188

ÍNDICE ALFABÉTICO

equivalentes, 128 semejantes, 130 matriz adjunta, 59 anti-hermitiana, 157 antisimétrica, 58, 156 asociada a una función lineal, 119 aumentada, 4 cambio de base, 121 cero, 148 compañera, 59 conjugada de una, 156 conjugada transpuesta de una, 156 cuadrada, 148 de coeficientes, 4 de términos independientes, 4 diagonal, 148 diagonalizable, 134 elemental, 164 elemental de Tipo I, II o III, 164 hermitiana, 60, 157 idempotente, 61, 154 identidad, 148 invertible, 158 nilpotente, 60, 154 no singular, 158 nula, 148 simétrica, 41, 156 singular, 158 transpuesta de una, 154 traza de una, 47, 61 triangular inferior, 148 triangular superior, 148 unitaria, 60 matriz de cofactores, 59 multiplicación de matrices, 151

multiplicación de permutaciones, 48 par, 51 pivote, 13, 169 producto de matrices, 151 de matriz por escalar, 150 exterior, 158 interior, 158 interno, 158

núcleo de una transformación lineal, 111 nulidad de una transformación lineal, 112 operación elemental de columna, 162 de renglón, 162 operaciones elementales, 12 operador lineal diagonalizable, 134

teorema de la dimensión, 112 transformación lineal, 105 núcleo de una, 111 construcción de una, 106 espacio nulo de una, 111 imagen de una, 111 inducida por una matriz, 106 matriz asociada a una, 119 transposición, 49 traza de una matriz, 47, 161

permutación, 48 identidad, 48 impar, 51

Vandermonde matriz de, 66, 88 variable

rango de un producto de matrices, 99 de una matrix, 22 de una transformación lineal, 112 e independencia lineal, 86 regla de cramer, 61 semejanza de matrices, 130 sistema de ecuaciones lineales, 2 consistente, 2 determinado, 2 equivalentes, 12 homogéneo, 2 inconsistente, 2 indeterminado, 2 representación matricial, 4 solución de un, 2 subespacio generado por un conjunto de vectores, 80 vectorial, 78 subespacios ortogonales, 99 submatriz, 45, 159 suma de matrices, 149 de subespacios, 82 suma directa, 98

ÍNDICE ALFABÉTICO básica, 15, 16 libre, 15, 16 pivotal, 13 vector, 76 columna, 2, 146 de coordenadas, 96 de términos independientes, 4 renglón, 2, 146

189