Algebra Lineal: Seymour Lipschutz

ALGEBRA LinEAL SEGUNDA EOICION Seymour Lipschutz ' ALGEBRA LINEAL Segunda edici6n SEYMOUR LIPSCHUTZ, Ph. D. Temple

Views 99 Downloads 0 File size 35MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

ALGEBRA LinEAL SEGUNDA EOICION

Seymour Lipschutz

'

ALGEBRA LINEAL Segunda edici6n

SEYMOUR LIPSCHUTZ, Ph. D. Temple University

Traducci6n: CELIA MARTINEZ ONTALBA Revision: LORENZO ABELLANAS Catedratico Metodos Matematicos de Ia Fisica Universidad Complutense de Madrid

McGraw-Hill MADRID • BUENOS AIRES • CARACAS • GUATEMALA • LISBOA • MEXICO NUEVA YORK • PANAMA • SAN JUAN • SANTAFE DE BOGOTA • SANTIAGO • SAO PAULO AUCKLAND • HAMBURGO • LONDRES • MILAN • MONTREAL • NUEVA DELHI • PARIS SAN FRANCISCO • SIDNEY • SINGAPUR • ST. LOUIS • TOKIO • TORONTO

ALGEBRA LINEAL. Segunda edicion

No esta permitida Ia reproduccion total o parcial de este libro, ni su tratamiento informatico, ni Ia transmisi6n de ninguna forma o por cualquier medio, ya sea electr6nico, mecanico, por fotocopia, por registro u otros metodos, sin el permiso previo y por escrito de los titulares del Copyright. DERECHOS RESER VADOS © 1991, respecto a Ia segunda edicion en espaiiol, por McGRA W-HILL/INTERAMERICANA DE ESPANA, S. A. Edificio Oasis-A, 1." planta Basauri, s/n 28023 Aravaca (Madrid) Traducido de Ia segunda edicion en ingles de LINEAR ALGEBRA

Copyright

© MCMXCI, por McGraw-Hill, Inc.

ISBN: 0-07-038007-4 ISBN: 84-7615-758-4 Deposito legal: M. 119 J 1993 Cubierta: Juan Garcia Compuesto e impreso en: Fernandez Ciudad, S. L. PRINTED IN SPAIN- IMPRESO EN ESPANA

Contenido --~------~----·~---------------------~--------·.-----~-----------------

Pr6logo ............ ..... .. .... .. .. . ... . ..... ..... . . . . . . . . . . . . . . . . . . .. . . . . . . .

1x

Capitulo 1.

SISTEMAS DE ECUACIONES LINEALES .. . .............. . .... . ..... . 1.1. Introduccion.- 1.2. Ecuaciones lineales. Soluciones.- 1.3. Ecuaciones lineales con dos incognitas.- 1.4. Sistemas de ecuaciones lineales. Sistemas equivalentes. Operaciones elementales.- 1.5. Sistemas en forma triangular y escalonada.- 1.6. Algoritmo de reduccion.- 1.7. Matrices.- 1.8. Equivalencia por lilas. Operaciones elementales entre lilas.- 1.9. Sistemas de ecuaciones lineales y matrices.- 1.10. Sistemas de ecuaciones · lineales homogeneos.

Cap_itulo 2.

VECTORES EN R" Y C". VECTORES ESPACIALES.. . . . . . . . . . . . . . . . . . . . . 2.1. Introduccion.- 2.2. Vectores en R".- 2.3. Suma de vectores y producto por un escalar.- 2.4. Vectores y ecuaciones lineales.- 2.5. Producto escalar.- 2.6. Norma de un vector.-2.7. Vectores localizados, hiperplanos y rectas en R".-2.8. Vectores espaciales. Notaci6n ijk en R3 .- 2.9. Numeros complejos.- 2.10. Vectores en C".

45

Capitulo 3.

MATRICES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1. Jntroduccion.- 3.2. Matrices.-3.3. Suma de matrices y producto por un escalar.- 3.4. Producto de matrices.- 3.5. Traspuesta de una matriz.- 3.6. Matrices y sistemas de ecuaciones lineales.- 3.7. Matrices por b1oques.

87

Capitulo 4.

MATRICES CUADRADAS. MATRICES ELEMENTALES.......... . ....... 4.1. Introduccion.-4.2. Matrices cuadradas.-4.3. Diagonal y traza. Matriz identidad.-4.4. Potencias de matrices. Polinomios de matrices.-4.5. Matrices invertibles (no singulares).-4.6. Tipos especiales de matrices cuadradas.-4.7. Matrices complejas.-4.8. Matrices cuadradas por bloques.- 4.9. Matrices elementales. Aplicaciones. 4.10. Operaciones elementales entre columnas. Equivalencia de matrices.-4.1 1. Matrices simetricas congruentes. Ley de inercia.-4.12. Fo rmas cuadniticas.-4. 13. Similaridad.-4. 14. Factorizacion LU.

105

Capitulo 5.

ESPACIOS VECTORIALES . . ....... . .. ..... ... . . . .. . .. ...... . . . . . . . 5.1. Introduccion.-5.2. Espacios vectoriales.-5.3. Ejemplos de espacios vectoriales. 5.4. Subespacios.- 5.5. Combinaciones lineales. Envo1ventes 1inea1es.-5.6. Dependen-

167

VI

CON TENIDO

cia e independencia lineal.- 5.7. Bases y dimension.-5.8. Ecuaciones lineales y espacios vectoriales.- 5.9. Sumas y sumas directas.- 5. 10. Coordenadas.-5.11. Cambio de base. Capitulo 6.

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD . . . . . . . . . . . . . 6.1. Introduccion.- 6.2. Espacios con producto interno.- 6.3. Desigualdad de CauchySchwarz. Aplicaciones.-6.4. Ortogonalidad.-6.5. Conjuntos ortogonales y bases. Proyecciones.-6.6. Proceso de ortogonalizaci6n de Gram-Schmidt.-6.7. Productos internos y matrices.- 6.8. Espacios complejos con producto interno.-6.9. Espacios vectoriales normados.

239

Capitulo 7.

DETER MIN ANTES 7.1. Introduccion.-7.2. Determinantes de 6rdenes uno y dos.-7.3. Determinantes de orden tres.- 7.4. Permutaciones.-7.5. Determinantes de orden arbitrario.- 7.6. P ropiedades de los d~terminantes.-7.7. Menores y cofactores.-7.8. Adjunto clasico. 7.9. Aplicaciones a las ecuaciones lineales. Regia de Cramer.-7. 10. Submatrices. Menores generales. Menores principales.-7.11. Matrices por bloques y determinantes.-7.12: Determinantes y volumen.- 7.13. Multilinealidad y determinantes.

290

Capitulo 8.

VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION. .... ... 8. 1. Introduccion.-8.2. Polinomios de matrices.- 8.3. Polinomio canlcteristico. Teorema de Cayley-Hamilton.-8.4. Valores propios y vectores propios.- 8.5. Calculo de valores propios y vectores propios. Diagonalizaci6n de matrices.- 8.6. Diagonalizacion de matrices reales simetricas.- 8. 7. Polinomio minimo.

330

Capi~ulo



9.

I"\

APLICACIONES LINEALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369 9.1. Introduccion.- 9.2. Aplicaciones.-9.3. Aplicaciones lineales.- 9.4. Nucleo e imagen de una aplicaci6n lineal.- 9.5. Aplicaciones lineales singulares y no singulares. Isomorfismos.-9.6. Operaciones con aplicaciones lineales.- 9,7. Algebra de operado- 1 res lineales A(V). -9.8. Operadores invertibles. "

Capitulo 10. MATRICES Y APLICACIONES LIN EALES..... . ... . .... . ........ . ..... 10.1. Introduccion.- 10.2. Representaci6n matricial de un operador Iineal.- 10.3. Cambio de base y operadores lineales.- 10.4. Diagonalizaci6n de operadores lineales.- 10.5. Matrices y aplicaciones lineales generales.

406

Capitulo 11. FORMAS CANONICAS .. .. .'. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1. Introduccion.- 11.2. Forma triangular.- 11.3. lnvariancia.- 11.4. Descomposiciones en suma directa invariante.- 11 .5. Descomposici6n primaria. -11 .6. Operadores nilpotentes.- 11.7. Forma can6nica de Jordan.- 11.8. Subespacios ciclicos.-11.9. Forma canonica racional.- 11.10. Espacios cociente.

436

Capitulo 12. FUNCIONALES LINEALES Y ESPACIO DUAL . . . . . . . . . . . . . . . . . . . . . . . . . 12.1. Introducci6n.- 12.2. Funcionales lineales y espacio dual.- 12.3. Base dual. 12.4. Espacio segundo dual.-12.5. Aniquiladores.-12.6. Trasp uesta de una aplicacion · lineal. ·

470

Capitulo 13. FORMAS BIUNEALES, CUADRATICAS Y HERMITICAS .. ........ . . ·..... 13.1. Introduccion.- 13.2. Formas bilineales.- 13.3. Formas bilineales y matrices. 13.4. Formas bilineales alternadas.-13.5. Formas bilineales simetricas. Formas cuadraticas.- 13.6. Fonrtas bilineales simetricas reales. Ley de inercia. -13.7. Formas hermiticas.

484

CONTENIDO

vii

Capitulo 14. OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO.... . 14. I. Intro~uccion.- 14.2. Operadores adjuntos.-14.3. Analogia entre A(V) y C. Operadores especia1es.-14.4. Operadores autoadjuntos.-14.5. Operadores ortogonales y unitarios.-14.6. Matrices ortogonales y unitarias.-14.7. Cambio de base ortonormaL- 14.8. Operadores positivos.-14.9. Diagonalizacion y formas can6nicas en espacios euclideos.- 14.10. Diagonalizacion y formas can6nicas en espacios unitarios.- 14.11. Teorema espectraL

503

Apimdice

CONJUNTOS Y RELACIONES . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Conjuntos, elementos.-Operaciones entre conjuntos.- Producto cartesiano de conjuntos.- Relaciones.- Relaciones de eq uivalencia.

528

ESTRUCTURAS ALGEBRAICAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Introducci6n.-Grupos.-Anillos, dominios de integridad y cuerpos.- M6dulos.

535

POLINOMIOS SOBRE UN CUERPO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Introduccion.-Divisibilidad. Maximo comun divisor.- Factorizaci6n.

545

Indice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

549

Pr61ogo

El algebra lineal se ha convertido en los ultimos afios en una parte esencial de los conocimientos matematicos requeridos a matematicos, ingenieros, fisicos y otros cientificos. Este requerimiento refleja Ia importancia y Ia amplitud de sus aplicaciones. Este libro se ha proyectado como libro de texto en un curso regular de algebra lineal o como suplemento a los textos clasicos en uso. Su prop6sito es presentar una introducci6n al algebra lineal que todos los lectores encuentren provechosa, cualquiera que sea su campo de especializaci6n. Se ha incluido mas material del que puede abarcarse en muchos primeros cursos, con objeto de hacer el texto mas flexible, proporcionar un libro de referenda uti] y estimular el interes futuro en el tema. Cada capitulo comienza con enunciados claros de las definiciones, principios y teoremas pertinentes, junto con ejemplos y otro material descriptivo. A esto siguen colecciones graduadas de problemas resueltos y problemas suplementarios. Los problemas resueltos sirven para ilustrar y ampliar Ia teoria, concretan aquellos puntos sutiles cuyo desconocimiento !leva al estudiante a sentirse continuamente en un terreno inseguro, y suministran la repetici6n de los principios basicos tan vital para un aprendizaje efectivo. Entre los problemas resueltos se incluyen numerosas demostraciones de teoremas. Los problemas suplementarios sirven como revision completa del material de cada capitulo. El primer capitulo trata los sistemas de ecuaciones lineales. Esto proporciona la motivaci6n y las herramientas de calculo basicas para el material subsiguiente. Tras haber introducido los vectores y las matrices, aparecen capitulos sobre espacios vectoriales y subespacios, y sobre productos internos. Siguen capitulos que cubren determinantes, valores propios y vectores propios, y diagonalizaci6n de matrices (bajo similaridad) y formas cuadraticas (bajo congruencia). Los capitulos posteriores abarcan las aplicaciones lineales abstractas y sus formas can6nicas, especificamente las formas can6nicas triangular, de Jordan y racional. El ultimo capitulo trata las aplicaciones lineales abstractas en espacios con producto interno. Los principales cambios en Ia segunda edici6n han sido por razones pedag6gicas (de forma) mas que de contenido. Aqui la noci6n de aplicaci6n matricial se introduce al principia del texto.

X

PROLOGO

y los productos internes justo despues del capitulo sobre espacios vectoriales y subespacios.

Asimismo, se presentan los algoritmos de reduccion por filas, inversion de matrices, calculo de determinantes y diagonalizacion de matrices y formas cuadraticas, usando notacion algoritmica. Ademas, temas tales como matrices elementales, factorizacion LU, coeficientes de Fo urier y varias normas en R" se introducen directamente en el texto, en Iugar de hacerlo en las secciones de problemas. Por ultimo, al tratar los aspectos abstractos mas avanzados en Ia parte final del texto, facilitamos el uso de este en un curso elemental o en uno de dos semestres de algebra lineal. Deseo dar las gracias a! personal de McGraw-Hill Schaum Series, especialmente a John Aliano, David Beckwith y Margaret Tobin, por sus inestimables sugerencias y su cooperacion, verdaderamente uti!.. Por ultimo, quiero expresar mi gratitud a Wilhelm Magnus, mi maestro, consejero y amigo, que me introdujo en Ia belleza de las matematicas. Temple U niuersit y Enero de 1991

..

SEYMOUR LIPSCH UTZ

CAPITULO

1

Sistemas de ecuaciones lineales

1.1. INTRODUCCION La teoria de las ecuaciones lineales juega un papel irnportante y motivador en el aq1bito del algebra lineal. De hecho, muchos problemas de algebra lineal son equivalentes a! estudio de un sistema de ecuaciones lineales, como hallar el nucleo de una aplicaci6n lineal o caracterizar el subespacio generado por un conjunto de vectores. Por ello, las tecnicas introducidas en este capitulo seran aplicables al tratamiento mas abstracto dado posteriormente. Por otra parte, algunos de los resultados del tratamiento abstracto arrojaran nueva luz sobre Ia estructura de los sistemas de ecuaciones lineales «concretos». Este capitulo investiga sistemas de ecuaciones lineales y describe detalladamente el algoritmo de eliminaci6n gaussiano, que se utiliza para hallar su soluci6n. Aunque senin estudiadas en detalle en el Capitulo 3, las matrices, junto con ciertas operaciones entre elias, se introducen tambien aqui, puesto que estan estrechamente relacionadas con los sistemas de ecuaciones lineales y su soluci6n. Todas nuestras ecuaciones involucraran numeros especificos denominados constantes o escalares. Para simplificar, en este capitulo asumimos que todos nuestros escalares pertenecen at cuerpo de los numeros reales R. Las soluciones de nuestras ecuaciones tambien involucraran n-plas u = (k 1 , k 2 , •. . , k") de numeros reales llamadas vectores. El conjunto de tales n-plas se denota por R". Apuntamos que los resultados de este capitulo son validos asimismo para ecuaciones sobre el cuerpo complejo C, o sobre cualquier cuerpo arbitrario K.

1.2.

ECUACIONES LINEALES. SOLUCIONES

Por una ecuaci6n lineal con incognitas x 1 , x 2 , escribirse en Ia forma convencional:

••• ,

x" entendemos una ecuaci6n que puede [1.1]

1 /

2

ALGEBRA LINEAL

donde a 1 , a 2 , • . • , an, b son constantes. La constante ak se denomina el coeficiente de x k y b se denomina Ia constante de Ia ecuaci6n. Una soluci6n de Ia ecuaci6n lineal anterior es un conjunto de valores de las incognitas, digamos x 1 = k 1 , x 2 = k 2 , ••• , xn = kn, o simplemente una n-pla u = (k 1 , k 2 , ... , kn) de constantes, con Ia propiedad de que es cierta Ia siguiente expresion (obtenida sustituyendo cada X ; por k; en Ia ecuacion):

Se dice entonces que este conjunto de valores satisface Ia ecuacion. El conjunto de todas las soluciones se llama conjunto solucion, solucion general o, simplemente, Ia soluci6n de Ia ecuacion. Nota: Las nociones anteriores presuponen implicitamente que existe un orden entre las incognitas. Con el fin de evitar los subindices, normalmente utilizaremos variables x , y , z para denotar tres incognitas, x , y, z, t para denotar cuatro incognitas y x, y , z, s, t para denotar cinco incognitas, considerimdolas ordenadas. EJEMPLO 1.1

a)

La ecuacion 2x -5y+ 3xz=4 no es lineal, porque el producto de dos incognitas es de segundo grado.

b)

La ecuaci6n x + 2y - 4z + t = 3 es lineal en las cuatro incognitas x, y, x , t. La 4-pla u = (3, 2, I, 0) es una solucion de Ia ecuaci6n porque

3

+ 2(2)- 4(1 ) + 0 =

3

0

3= 3

es una expresi6n cierta. Sin embargo, Ia 4-pla v = (1, 2, 4, 5) no es una soluci6n de Ia ecuacion porque I

+ 2(2)- 4(4) + 5 =

3

0

-6=3

no es cierto.

ECUACIONES LINEALES CON UNA INCOGNITA El siguiente resultado basico esta probado en el Problema 1.5. 'I

Teorema 1.1: i)

Consideremos Ia ecuacion lineal ax = b.

Si a -:f. 0, x

= b/a es solucion {mica de ax = b.

ii)

Si a = 0, pero b -:f. 0, ax = b no tiene soluci6n.

iii)

Si a = 0 y b = 0, todo escalar k es soluci6n de ax = b.

EJEMPLO 1.2

a)

Resolvamos 4x - I = x + 6. Trasponemos para o btener Ia ecuaci6n en forma convencional: 4x - x = 6 + 1 6 3x = 7. Multiplicamos por 1/3 para obtener Ia soluci6n t.'mica x = ~ [Teorema 1.1 i)].

SISTEMAS DE ECUACIONES LINEALES

b) Reso1vamos 2x - 5 - x = x + 3. Reescribimos Ia ecuaci6n en forma convenciona1: x - 5 = x ecuaci6n no tiene soluci6n [Teorema 1.1 ii)]. c)

Reso1vamos 4 + x - 3 = 2x + 1 - x. Reescribimos Ia ecuaci6n en forma convencional: x escalar k es una so1uci6n [Teorema 1.1 iii)].

+ 3, o x - x = 3 + 8, o Ox

+ I = x + 1, o x -

3

= 8. La

x = I - 1, o Ox= 0. Todo

ECUACIONES LINEALES DEGENERADAS Una ecuaci6n lineal se dice degenerada si tiene Ia forma

esto es, si cada coeficiente es igual a cero. La soluci6n de tal ecuaci6n se halla como sigue: Teorema 1.2: Consideremos Ia ecuaci6n lineal degenerada Ox 1 i)

Si b # 0, Ia ecuaci6n no tiene soluci6n.

ii)

Si b = 0, todo vector u = (k 1 , k 2 ,

Demostraci6n. i) Sea u = (k 1 , k 2 , do u en Ia ecuaci6n o btenemos:

Ok 1

+ Ok2 + .. · + Ok,. =

... ,

b

... ,

+ Ox 2 + ... + Ox ,= b.

k,.) es una soluci6n.

k,.) un vector cualquiera. Supongamos b¥ 0. Sustituyen-

0

0 + 0 + .. ·+ 0 = b

0

O= b

No es una expresi6n cierta porque b # 0. P or tanto, ningun vector u es soluci6tt. ii) Suponga mos b = 0. Sustituyendo u en Ia ecuaci6n obtenemos: 0

0 + 0+ · .. +0 =0

0

que es una expresi6n cierta. Por consiguiente, todo vector u en R" es una soluci6n, como se pretendia. EJEMPLO 1 .3. Describir Ia soluci6n de 4y - x- 3y + 3 = 2 + x - 2x + y + l. La reescribimos en forma convencional agrupa ndo terminos y trasponiendo:

y - x+ 3 = y - x + 3

0

y- x - y+ x =3- 3

0

Ox + Oy = 0

La ecuacion es degenerada con constante nnla; por tanto, todo vector u = (a, b) en R 2 es una soluci6n.

ECUACIONES LINEALES NO DEGENERADAS. PRIMERA INCOGNITA Esta subsecci6n trata Ia soluci6n de una sola ecuaci6n lineal no degenerada con una o mas incognitas, digamos

4

ALGEBRA LINEAL

Por Ia primera incognita en tal ecuacion entendemos Ia primera con coeficiente no nulo. Su posicion p en Ia ecuacion es entonces el menor valor entero de j para el cual aj ¥= 0. En otras palabras, xP es Ia primera incognita si ai = 0 para j < p, perc aP ¥= 0. EJ EM PLO 1.4. Consideremos Ia ecuacion lineal 5y- 2z = 3. Aqui y es Ia primera incognita. Si las incognitas son ;~, y y z, entonces p = 2 es su posicion, pero si y y z son las (:micas incognitas, es p = I.

El siguiente teorema, probado en el Problema 1.9, es aplicable. Teorema 1.3: Consideremos una ecuacion lineal no degenerada a 1 x con primera incognita xP.

1

+ a 2 x 2 + ... + a"x" =

b

Cualquier conjunto de valores de las incognitas xi co n j =F p dara una unica solucion de Ia ecuacion. (Las incognitas xj se Haman variables libres porque se les puede asignar cualq uier valor.) ii) Toda solucion de Ia ecuacion se obtiene en i). i)

(EI conjunto de todas las soluciones se llama solucion general de Ia ecuacion.) EJEMPLO 1.5 a)

Hallar tres soluciones particulares de Ia ecuacion 2x - 4y

+z=

8.

Aqui x es Ia primera incognita. De acuerdo con ello, asignamos valores cualesquiera a las variables libres y y z y entonces despejamos x para obtener una solucion. Por ejemplo: I.

T omemos y

= I y z = I. La sustitucion en Ia ecuacion proporciona

2x - 4( I)

2. 3. b)

+I

= 0

2x-4+1 = 0

0

2x = II

0

0

X -- .ll 2

Entonces u 1 = (lj-, I, I) es una solucion. Tomemos y = I, z = 0. La sustituci6n proporciona x = 6. Por consiguiente, u2 = (6, I, 0) es una soluci6n. Tomemos y = 0, z = l. La sustitucion proporciona x = 1. Por tanto , u3 = ('i, 0, I) es una soluci6n.

La soluci6n general de Ia ecuaci6n an terior, 2x - 4y

+z=

8, se obtiene como sigue:

En primer Iugar, asignamos valores arbitrarios (llamados parametros) a las variables libres, digamos y = a y z = b. A continuaci6n sustituimos en Ia ecuaci6n para obtener 0

2x

=

8 + 4a- b

0

x

=

4

+ 2a- Jb

Entonces t t'

!

I: I

x

!

I ~~

= 4 + 2a - !b. y = a, z = b

0

u = (4

+ 2a - !b, a, b)

es Ia soluci6n general.

II

~·.

I,, . I. I

lu

1.3.

ECUACIONES LINEALES CON DOS INCOGNITAS

Esta secci6n considera el caso especial de las ecuaciones lineales con dos incognitas, x e y, esto es, ecuaciones que se pueden escribir en Ia forma convencional ax+ by = c

SISTEMAS DE ECUACJONES LINEALES

5

donde a, b y c son numeros reales. (Supondremos tambien que Ia ecuaci6n es no degenerada, esto es, que a y b no son ambos nulos.) Cada soluci6n de Ia ecuaci6n es un par de numeros reales, u = (k 1 , k 2 ), que puede hallarse asignando un valor arbitrario a x y despejando y , o viceversa. Toda soluci6n u = (k 1 , k2 ) de Ia ecuaci6n anterior determina un punto en el plano cartesiano R2 . Como a y b no son ambos nulos, todas las soluciones tales corresponden precisamente a los puntos de una linea recta (de ahi el nombre de «ecuaci6n lineal»). Esta linea se denomina el grafico de Ia ecuaci6n. EJ EM PLO 1.6. Consideremos la ecuaci6n lineal 2x + y = 4. Encontramos tres soluciones de Ia ecuaci6n como sigue. Primero escogemos un valor arbitrario para cualquiera de las incognitas, digamos x = - 2. Sustituimos x = -2 en Ia ecuacion y obtenemos 2( - 2)

+y

=

4

- 4

0

+ y=4

0

y= 8

Entonces x = -2, y = 8, o sea, el punto ( -2, 8) en R 2 es una soluci6n. Ahora hallamos el corte con el eje y, esto es, sustituimos x = 0 en la ecuaci6n para obtener y = 4. Por consiguiente, el punto (0, 4) en el eje y es una soluci6n. A continuacion encontramos el corte con el eje x , esto es, sustituimos y = 0 en la · ecuaci6 n para obtener x = 2. Por tanto, (2, 0) en el eje x es una soluci6n. Para dibujar el gnifico de Ia ecuaci6n, primero dibujamos las tres soluciones, ( - 2, 8), (0, 4) y (2, 0), ~ el plano R 2 como se muestra en Ia Figura 1-1. Despues trazamos Ia linea L determinada por dos de ~ soluciones y constatamos que Ia tercera yace en L tambicn. (De hecho, L es el conjunto de todas las soluciones de Ia ecuaci6n.) La linea L es el grafico de Ia ecuaci6n. y

Gralico de

2x+ y

=4

Figura 1-1.

~~1£\IA

=~

DE DOS ECUACIONES CON DOS INCOGNITAS

subsecci6n considera un sistema de dos ecuaciones lineales (no degeneradas) con las dos

~t~x e y:

a 1 x+b 1 y=c 1 a2 x

+ b2 y =

c2

[1.2]

6

ALGEBRA LINEAL

(Por tanto, a 1 y b 1 no son simultaneamente nulos, ni tampoco lo son a 2 y b 2 .) Este sistema simple se trata por separado porque tiene una interpretacion geometrica, y porque sus propiedades motivan el caso general. Un par de numeros reales u = (k 1 , k 2 ) que satisface ambas ecuaciones se llama una soluci6n simultanea de las ecuaciones dadas, o una soluci6n del sistema de ecuaciones. Existen tres casos, que pueden describirse geometricamente. l.

2. · 3.

El sistema tiene exactamente una soluci6n. Aqui los graticos de las ecuaciones lineales se cortan en un punto, como en Ia Figura l-2(a). El sistema no tiene soluciones. Aqui los graficos de las ecuaciones lineales son paralelos, como en la Figura l-2(b). El sistema tiene un numero infinito de soluciones. Aqui los graficos de las ecuaciones lineales coinciden, como en Ia Figura l-2(c). y

y

y

(a)

(b)

(c)

Figura 1-2. Los casos especiales 2 y 3 solo pueden ocurrir cuando los coeficientes de x e y en las dos ecuaciones lineales son proporcionales, es decir, 0

En concreto, el caso 2 o el 3 ocurre si 0

al a2

= bl = cl b2

c2

respectivamente. A menos que se establezca o sobrentienda otra cosa, suponemos que se trata con el cas·o general 1. Nota:

. , laa La expres10n

1

2

1 bh 1, que vale a 1 b 2

-

a 2 b 1 , se denomina determinante de orden dos.

2

Los determinantes se estudiaran en el Capitulo 7. El sistema tiene una soluci0n unica cuando el determinante de los coeficientes es no nulo.

SISTEMAS DE ECUACIONES LINEALES

7

ALGORITMO DE ELIMINACION La soluci6n del sistema [1.2] puede obtenerse mediante el proceso conocido como eliminaci6n, por medio del cual reducimos el sistema a una ecuaci6n sencilla con solo una incognita. Aceptando que el sistema tiene soluci6n {mica, este algoritmo de eliminaci6n consiste en los dos pasos siguientes:

Paso I. Sumar un multiplo de una de las ecuaciones a Ia otra (o a un multiplo no nulo de Ia otra) de forma que una de las incognitas se elimina en Ia nueva ecuacion. Paso 2. Resolver Ia nueva ecuaci6n para Ia incognita dada y sustituir su valor en una de las ecuaciones originates para obtener el valor de Ia otra incognita. EJEMPLO 1.7 a)

Consideremos el sistema L1 : L2:

2x+5y= 8 3x- 2y =-7

Eliminamos x construyendo Ia nueva ecuacion L por -2 y sumando las ecuaciones resultantes: 3L 1 :

-2L2 : Suma:

6x -6x

=

3L 1

-

+ 15y = + 4y =

2L 2 ; esto es, multiplicando L 1 por 3 y L 2 24

14

l9y = 38

Resolviendo Ia nueva ecuacion para y se obtiene y = 2. Sustituyendo y originales, digamos en L 1 , se obtiene 2x Entonces x b)

=

+ 5(2) =

0

0

2x

+

10 = 8

0

2x

=

- 2

2 en una de las ecuaciones

=

0

X =

-J

-I e y = 2, o sea, el par (-I, 2) es Ia solucion unica del sistema.

Consideremos el sistema Ll: L2:

3y = 4 -2x+6y=5 X-

Eliminamos x de las ecuaciones multiplicando L 1 por 2 y sumando la a L 2 ; es decir, formando Ia ecuaci6n L = 2L 1 + L 2 . Esto nos conduce a Ia nueva ecuaci6n Ox+ Oy = 13. Es una ecuaci6n degenerada, con constante no nula; en consecuencia, el sistema no tiene soluci6n. (Geomi:tricamente hablando, las lineas son paralelas.) c)

Consideremos el sistema

L1 : L2 :

x-3y= 4 -2x+6y= -8

Eliminamos x multiplicando L 1 por 2 y sumandola a L 2 . Esto nos proporciona Ia nueva ecuaci6n Ox + Oy = 0, que es una ecuaci6 n degenerada en Ia que el termino constante es nulo tambien. Por tanto, el sistema tiene un numero infinito de soluciones, que corresponden a soluciones de cada ecuaci6n. (Geometricamente hablando , las lineas coinciden.) Pa ra encontrar Ia soluci6n general

8

ALGEBRA LINEAL

hacemos y =a y sustituimos en L 1 obteniendo x - 3a soluci6n general del sistema es (3a

=

4 o x

3a

=

+ 4. De acuerdo con esto, Ia

+ 4, a)

donde a es un numero real arbitrario.

1.4.

SISTEMAS DE ECUACIONES LINEALES. SISTEMAS EQUIVALENTES. OPERACIONES ELEMENTALES

Esta seccion considera un sistema de m ecuaciones lineales, digamos L 1 , L 2 , incognitas x 1 , x 2 , ••• , x., que puede ponerse en Ia forma convencional

+ a 12 x 2 + · · · + ahx, = a 21 x 1 + a 22 x 2 + · · · + a 2,x, = a 11 x 1

••• ,

L,, con n

b1

b2

[1.3]

donde las aii, b; son constantes. Una. solucibn (o solucibn particular) del sistema anterior es un conjunto de valores de las incognitas, digamos x 1 = k 1 , x 2 = k 2 , ••• , x. = k., o una n-pla u = (k 1 , k 2 , ••• , k,) de constantes, que es solucion de cada una de las ecuaciones del sistema. El conjunto de todas las solucio nes tales se denomina el conjunto solucibn o Ia solucion general del sistema. EJEMPLO 1.8.

Considerese el sistema x1

2x 1

+ 2x2 - 5x 3 + 4x 4 = 3 + 3x2 + x 3 - 2x4 = I

Determinar si x 1 = -8, x 2 = 4, x 3 = l, x 4 = 2 es una soluci6n del sistema. Sustituimos en cada ecuaci6n para obtener I. 2.

-8 + 2(4) - 5(1) + 4(2) 2( -8) + 3(4) + I - 2(2)

= =

3 l

0

-8+8 - 5 + 8=3

0

- 16+12+1-4= 1

3=3

0 0

-7=3

No, no es una soluci6n del sistema porque no es soluci6n de Ia segunda ecuaci6n.

SISTEMAS EQUIVALENTES. OPERACJONES ELEMENTALES Se dice que dos sistemas de ecuaciones lineales con. las mismas incognitas son equivalentes si tienen el mismo conjunto solucion. Una forma de producir un sistema que sea equivalente a uno dado, con ecuaciones lineales L 1 , L 2 , ... , L.,., es efectuar una sucesion de las siguientes operaciones, llamadas operaciones elementa.les: [E tl

Intercambiar las ecuaciones i-esima y j-esima: L; +-+ L j·

[£2 ]

Multiplicar la ecuaci6n i-esima po r un escalar no nulo k: kL;-+ L;, k =fo 0.

[£ 3]

Sustituir Ia ecuaci6n i-esima por ella misma mas k veces Ia j-esima: (kLi + L ;) -+ L;.

SISTEMAS DE ECUACIONES LINEALES

9

En Ia pnktica efectuamos (£2 ] y (£ 3] en un solo paso, o sea, Ia operaci6n [E)

Sustituir Ia ecuaci6n i-esima por k (no nulo) veces ella misma mas k' veces Ia j-esima:

Lo anterior se enuncia formalmente en el siguiente teorema, probado en el Problema 1.46. Teorema 1.4: Supongamos que un sistema de ecuaciones lineales ( #) se obtiene de otro (*) mediante una sucesi6n finita de operaciones elementales. Entonces ( #) y (*) tienen el mismo conjunto soluci6n. N uestro metodo para resolver el sistema de ecuaciones lineales (1.3) consta de dos pasos: Paso 1. Usar las operaciones elementales anteriores para reducir el sistema a uno equivalente mas simple (en forma triangular 0 escalonada). Paso 2. Usar Ia sustituci6n hacia atn\s para hallar Ia soluci6n del sistema mas simple. Los dos pasos se ilustran en el Ejemplo 1.9. En cualquier caso, por razones pedag6gicas, discutimos en detalle primero el Paso 2 en Ia Secci6n 1.5 y luego el Paso 1 en Ia Secci6n 1.6. EJEMPLO 1.9.

La soluci6n del sistema x + 2y- 4z = -4 5x + lly - 21z = -22

3x -

2y + 3z =

11

se obtiene como sigue: Paso 1: Primero eliminamos x de Ia segunda ecuaci6n mediante Ia operaci6n elemental ( - 5L 1 + L 2 ) --t L 2 , esto es, multiplicando L 1 por -5 y sumandola a L 2 ; entonces eliminamos x de Ia tercera ecuaci6n efectuando Ia operaci6n elemental (- 3L1 + L 3 )-> L 3 , es decir, multiplicando L 1 por -3 y suma ndola a L 3 :

-5 x L 1 : L2 :

-

5x - lOy + 20z = 20 5x + lly- 2lz = -22

-3xL 1 :

z = -2

nueva L3 :

y-

/. 3 :

-3x-6y+12z=l2 3x - 2y + 3z = 11 - 8y + 15z = 23

Por tanto, el sistema original es equivalente al sistema

x + 2y- 4z = -4 yz = -2 -8y + 15z = 23 A continuaci6n eliminamos y de Ia tercera ecuaci6n aplicando (8L 2 + L 3 ) por 8 y sum{tndola a L 3 : 8xL2 : L3 :

8y- 8z=-16 -8y + 15z = 23 7 7z =

--t

L 3 , esto es, multiplicando L 2

10

ALGEBRA LINEAL

Por consiguiente, obtenemos el siguiente sistema triangular equivalente: x

+ 2y- 4z = =

-4 -2

7z =

7

y- z

Paso 2. Ahora resolvemos el sistema triangular mas simple mediante sustituci6n hacia atnis. La tercera ecuaci6n da z = I. Sustituimos z = I en Ia segunda ecuaci6n obteniendo y - I= - 2

0

y = -1

Ahora sustituimos z = I e y = -I en Ia primera ecuaci6n para obtener x+2( - l) - 4(1) = - 4

0

X-

2-4 = - 4

0

X -

6 = -4

0

x = 2

Entonces x = 2, y = - I, z = I, o, en otras palabras, Ia terna ordenada (2, -I, I) es !a soluci6n (mica del sistema dado.

El anterior algoritmo de dos pasos para resolver un sistema de ecuaciones lineales se denomina eliminaci6n gaussiana. EJ siguiente teorema se utilizan1 en el Paso I del algoritmo. Teorema 1.5:

a) b)

Supongamos que un sistema de ecuaciones lineales contiene Ia ecuacion degenerada

Si b = 0, L puede suprimirse del sistema sin alterar el conjunto solucion. Si b i' 0, el sistema no tiene solucion.

Demostraci6n. Se obtiene directamente del Teorema 1.2. Esto es, Ia parte a) se obtiene del hecho de que todo vector en R" es solucion de Lt> y Ia parte b) del hecho de que L no tiene solucion y por tanto tampoco Ia tiene el sistema.

1.5.

SISTEMAS EN FORMA TRIANGULAR Y ESCALONADA

Esta secci6n considera dos tipos simples de sistemas de ecuaciones lineales: sistemas en forma triangular y el caso mas general de sistemas en forma escalonada.

FORMA TRIANGULAR Un sistema de ecuaciones lineales esta en forma triangular si el numero de ecuaciones es igual al numero de incognitas y si xk es Ia primera incognita de Ia k-esima ecuacion. Por ta nto, un sistema de ecuaciones lineales triangular tiene Ia forma siguiente: auXt

+ a12X2 + ··· +

a1,n :... 1x~ - 1

+ ·· · +

a 2 , , _ 1 x, _ 1

a 22 x 2

+ +

ahx, = b 1

a2 ,x, = b 2 [1.4]

a,- 1,,.- 1x, _ 1 + a,-J.,x, = b, _ 1 a,.x, b,

=

donde a 11 =I= 0, a 22 i' 0, . .. , a•• i' 0.

SISTEMAS DE ECUACIONES LINEALES

11

El sistema de ecuaciones lineales triangular anterior tiene una soluci6n unica, que puede tenerse mediante el siguiente procedimiento, conocido como sustitucion bacia atras. Primero, resolvemos Ia ultima ecuacion para Ia ultima incognita, x.:

Segundo, sustituimos este valor de x" en la penultima ecuaci6n y Ia resolvemos para Ia penultima incognita, x" _ 1 :

Tercero, sustituimos estos valores de x" y x" _ 1 en Ia antepenultima ecuaci6n y Ia resolvemos para Ia antepenultima incognita, x" _ 2 : X n -2 -

bn- 2- (a.. - 2. n-tfan - l,n - l)[bn- 1- an-l,n(bJann)] - (an-2 , JanJbn an-2, .. - 2

En general, determinamos xk sustituyendo los valores previamente obtenidos de x", x" _ 1 , en Ia ecuaci6n k-esima ecuacion:

. . •,

xk+ 1

n

bk-

xt = _ _

L

akn,x,..

'" = k+l= - -.:.;:_..:;....;-

au

El proceso finaliza cuando hemos determinado x 1 • La soluci6n es unica puesto que, en cada paso del algoritmo, el valor de xk esta, por el Teorema 1.1 i), univocamente ·determinado. EJEMPLO 1.10.

Consideremos el sistema 2x + 4y- z = 11 5y + z = 2 3z = -9

Como el sistema esta en forma triangular, puede resolverse mediante sustituci6n hacia atras. i)

La ultima ecuaci6n propo rciona z = - 3.

ii)

Sustituimos en Ia segunda ecuaci6n para obtener 5y - 3 = 2 6 5y = 5 6 y = I.

iii)

Sustituimos z =

2x

+ 4( I ) -

-

3 e y

=I

( - 3) = II

en Ia primera ecuaci6n para obtener 0

2x

+ 4 + 3 =I I

0

Entonces el vector u = (2, I, - 3) es Ia soluci6n unica del sistema.

2x = 4

0

x =2

12

ALGEBRA LINEAL

FORMA ESCALONADA. VARIABLES LIBRES Un sistema de ecuaciones lineales esta en forma escalonada si ninguna ecuacion es degenerada y Ia primera incognita de cada ecuacion esta a Ia derecha de Ia primera incognita de Ia ecuaci6n

anterior. El paradigma es: a 11 x 1

+ a 12 x 2 + a 13 x 3 + a 14 X 4 + · ·· + a~nx" = b1 a 212 x 12 + a 2 , 12 + 1 x 12 + 1 + · · · + a 2 " x" = b 2

[1.5]

donde 1 L 3 para obtener

x

+ 2y- 3z =

1 y-2z =2 2y - 4z = 4

x 0

+ 2y- 3z =

1 y-2z=2

(La tercera ecuaci6n se suprime puesto que es un multiplo de Ia segunda.) El sistema esta ahora en forma escalonada con variable libre z. Para obtener Ia soluci6n general hacemos z =a y resolvemos por sustituci6n hacia atras. Sustituimos z = a en Ia segunda ecuaci6n para obtener y = 2 + 2a. A continuaci6n su stituimos z = a e y = 2 + 2a en Ia prime ra ecuaci6n para o btener x + 2(2 + 2a) - 3a = I o x = - 3 - a. Entonces Ia soluci6n generales

x = -3 -a, y = 2 + 2a, z =a

0

donde a es el parametro. c)

El sistema x + ly- 3z = -1 3x- y + 2z = 7 Sx + 3y- 4z = 2

( -3 - a, 2

+ 2a, a)

SISTEMAS DE ECUACIONES LINEALES

15

se resuelve reduciendolo primero a forma escalonada: Para eliminar x de las ecuaciones segunda y tercera efectuamos las operaciones - 3L 1 + L 2 --. L 2 y - 5L 1 + L 3 --. L 3 para obtener el sistema equivalente x+2y- 3z= -l -7y + llz = 10 - 1y + llz = 7

La operaci6n - L 2

+ L 3 --. L 3

conduce a Ia ecuaci6n degenerada Ox+Oy+Oz= - 3

Entonces el sistema no tiene soluci6n.

El siguiente resultado basico se mencion6 previamente. Teorema 1.7: Cualquier sistema de ecuaciones lineales tiene: i) una (mica soluci6n, ii) ninguna soluci6n, o iii) un numero infinito d e soluciones.

Demostracion. Aplicando el algoritmo anterior al sistema podemos bien reducirlo a forma escalonada, o bien determinar que no tiene soluci6n. Si Ia forma escalonada tiene variables libres, entonces el sistema tiene un numero infinito de soluciones. Nota: Se dice que un sistema es compatible si tiene una o mas soluciones [Casos i) o iii) en el Teorema 1.7], y se dice que es incompatible si no tiene soluci6n [Caso ii) en el Teerema 1.7]. La Figura 1-3 ilustra esta situaci6n.

I

l

J Incompatible

I

Sistema de ecuaciones lineales

I I

I

l I

Ninguna soluci6n

Compatible

I

Soluci6n imica

MATRICES

Sea A una tabla ordenada de numeros como sigue:

A

=

(=::..::: .. ::..:::l a,. 1

a, 2

l Numero infinito de soluciones

Figura 1-3.

1.7.

I

•• .

a,)

16

ALGEBRA LINEAL

La tabla A se denomina matriz. Tal matriz se denota por A= (aii), i = 1, . .. , m, j = 1, ... , n, o simplemente A = (aii). Las m n-plas horizontales

son las filas de Ia matriz, y las n m-plas verticales

(au) a .. (a1J ( 11

a11 )

4..

a, 1

'

a22

...

,

a.,. 2

~

,

a1.

. .. a,

con sus columnas. N6tese que el elemento a,i, llamado Ia entrada ij o Ia componente ij, aparece en Ia fila i-esima y en Ia columna j-esima. Una matriz con m filas y n columnas se llama matriz m por n, o matriz m x n; el par de numeros (m, n) se llama su tamaiio.

EJEMPlO 1.13. Sea A= (0, S, -2); sus columnas son

(1 -3 4) G), (-!) -~). 0

5

-2

. Entonces A es una matriz 2 x 3. Sus filas son (1, -3, 4) y

Y(

La, primera entrada no nula en una fila R de una matriz A se llama Ia entrada principal no nula de R. Si R no tiene entrada principal no nula, es decir, si toda entrada en R es 0, R se denomina una fila nula. Si todas las filas de A son nulas, es decir, si toda entrada en A es 0, A se llama Ia matriz cero, denotada por 0.

MATRICES ESCALONADAS

Una matriz A se denomina matriz escalonada, o se dice que esta en forma escalonada, st se cumplen las dos condiciones siguientes: i) Todas las filas nulas, si las hay, estan en Ia parte inferior de Ia matriz. ii) Cada entrada principal no nula esta a Ia derecha de Ia entrada principal no nula de Ia fila precedente. Esto es, A

= (a,)

es una matriz escalonada si existen entradas distintas de cero donde

con Ia propiedad de que para

y para

i> r

En este caso, a 1i,• . .. , a.i, son las entradas principales no nulas de A.

SISTEMAS DE ECUACIONES LINEALES

17

EJEMPLO 1.14. Las siguientes son matrices escalonadas cuyas entradas principales no nulas se han rodeado co n un circulo:

(~

3 0

o· 0

2

0

CD

I

0

0

0

4 - 3 0

5

®

0

0

0

2

-~i) (!

2 0 0

i)(~

CD

3

0

0 0

0 0

CD

0 0

0

CD

-D

Se dice que una matriz escalonada A se ha puesto en forma can6nica por filas si tiene las dos propiedades adicionales siguientes: iii) Cada entrada principal no nula es 1. iv) Cada entrada principal no nula es Ia unica entrada distinta de cero en su columna. La tercera matriz de arriba es un ejemplo de matriz en forma can6nica por filas. La segunda no esta en dicha forma porque Ia entrada principal no nula en Ia segunda fila no es la unica entrada distinta de cero en su columna; hay un 3 sobre ella. La primera matriz tampoco esta en forma can6nica por filas puesto que algunas de las entradas principales no nulas no valen 1. La matriz cero, 0, con cualquier numero de filas y de columnas, es otro ejemplo de matriz en forma can6nica por filas.

1.8.

EQUIV ALENCIA POR FILAS. OPERACIONES ELEMENTALES ENTRE FILAS

Se dice que una matriz A es equivalente por filas a otra B , escrito A "' B , si B puede obtenerse a partir de A mediante una sucesi6n finita de las siguientes operaciones, llamadas operaciones elementales entre filas:

[Ed [£ 2 ] [£ 3 )

Intercambiar las filas i-esima y j-esima: R; R 3 para obtener Ia matriz

(~

2

-3

0 0

4 5

Ahora utilizamos a 23 = 4 como pivote para obtener un cero bajo a 2 3 , esto es, efectuamos Ia operaci6n entre lilas - 5R 2 + 4R 3 -> R 3 , obteniendo Ia matriz

(~

2 -3 0 4 0 0

~)

La matriz esta ahora en forma escalonada.

El siguiente algoritmo reduce por filas una matriz escalonada a su forma can6nica por filas. Algoritmo 1.8B

Aqui A

= (aii) esta en forma escalonada, digamos con entradas principales no nulas

Paso 1. Multiplicar Ia ultima fila no nula R, por 1/a,i, de forma que la entrada principal no nula sea 1. Paso 2. Utili~ar a,i, = 1 como pivote para obtener ceros sobre el; esto es, para i = r- 1, r - 2, ... , 1, efectuar la operaci6n

Paso 3.

Repetir los Pasos 1 y 2 para las filas R, _ 1 , R, _ 2 ,

Paso 4.

Multiplicar R 1 por 1/a 1j ,·

... ,

R2 .

SISTEMAS DE ECUACIONES LINEALES

EJ EM PLO 1 .16.

19

Utilizando el Algoritmo 1.8B, Ia matriz escalonada 3 4 0 3

6)

5 2 5

0 0 0 4 se reduce a forma canonica por filas como sigue: Multiplicamos R 3 por ±de forma que su entrada principal no nula sea I; entonces utiliza mos a 35 = 1 como pivote para obtener ceros sobre ei efectuand o las operaciones - 5R3 + R 2 --> R 2 Y - 6R3 + R1--> Rt :

2 3 4 5 6) (20 03 43 25 0)0 . (0 0 0 0 l 0 0 0 0 1

A- 0 0 3 2 5 -

Multiplicamos R 2 por ~ de modo que su entrada principal no nula sea 1; entonces utilizamos a 2 3 pivote para conseguir un 0 encima, con Ia operacion -4R 2 + R 1 -+ R 1 :

2 3 4 5 A- 0 0 l j ( 0 0 0 0

:

=

I como

~)-(~ ~ ~ ~) l

0 0 0

0

l

Finalmente, multiplicamos R 1 por i obteniendo

Esta matriz es Ia for ma canonica por filas de A.

Los Algoritmos 1.8A y 1.88 muestran que cualquier matriz es equivalente por filas a a! menos una matriz en forma can6nica por filas. En el Capitulo 5 demostraremos que tal matriz es 1mica, esto es: Teorema 1.8: Cualquier matriz A es equivalente por filas a una {mica matriz en forma can6nica por filas (Hamada Ia forma canonica por filas de A). Nota: Si una matriz A esta en forma escalonada, sus entradas principales no nulas se denominaran entradas pivote. El termino proviene del algoritmo anterior que reduce por filas una matriz a forma escalonada.

1.9. SISTEMAS DE ECUACTONES LINEALES Y MATRICES La matriz ampliada M del sistema [1.3] de m ecuaciones lineales con n incognitas es Ia siguiente:

M

=

(=:: ._:::.. :.. :::. :.:) a,. 1

a.,2

•••

a.... b.,.

20

ALGEBRA LINEAL

Observese que cada fila de M corresponde a una ecuacion del sistema y cada columna a los coeficientes de una incognita, excepto Ia ultima, que corresponde a las constantes del sistema. La matriz de coeficientes A del sistema [1.3] es

A

= (:.:_:_ . ::: . ::: . :::) a,. 1 a..,2

a...,

• ••

Notese que la matriz de coeficientes A puede obtenerse de Ia ampliada M omitiendo su ultima columna. Un sistema de ecuaciones lineales puede resolverse trabajando con su matriz ampliada. Especificamente, reduciendola a forma escalonada (lo que nos dice si el sistema es compa tible) y luego a su forma canonica por filas. La justificacion de este proceso proviene de los siguientes hechos: l.

Cualquier operacion elemental entre filas en Ia matriz ampliada M del sistema es equivalente a efectuar Ia operacion correspondiente en el sistema mismo.

2.

El sistema tiene solucion si y solo si la forma escalonada de la matriz ampliada no tiene una fila de Ia forma (0, 0, ... , 0, b) con b '# 0.

3.

En la forma can6nica por filas de Ia matriz ampliada M (excluyendo filas nulas) el coeficiente de cada variable no libre es una entrada principal no nula igual a uno y es Ia unica entrada distinta de cero en su columna; de aqui Ia solucion en forma de variables libres se obtiene simplemente transfiriendo los terminos de variable no libre a! otro miembro. ·

Este proceso se ilustra en el siguiente ejemplo. EJEMPLO 1.17 a)

El sistema

x + y - 2z + 4t = 5 2x + 2y - 3z + t = 3 3x + 3y - 4z - 2t = l se resuelve reduciendo su matriz ampliada M a forma escalonada y despues a forma can6nica por filas como sigue:

'M =

r

-2

4

1

-2

4

-3 3 . 3 -4 -2

0

1 2

-7

2

2

0

- 14

-~)-G

-14

0

0 -10 -9) 1

-7

-7

[La tercera fila (en Ia segunda matriz) se suprime, puesto que es un multiplo de Ia segunda y resultara una fila nula.] Asi Ia soluci6n general en forma de variables libres del sistema es como se indica a continuaci6n:

x+y

-lOt= -9 z - 7t = -7

0

X= -9 - y +lOt z = -7 + 1t

Aqui las variables libres son y y r, y las no libres x y z.

SISTEMAS DE ECUACIONES LINEALES

b)

21

El sistema

x1 2x 1 5x 1

+ x 1 - 2x 3 + 3x4

+ 3x1 + 3x 3 + 7x 2 + 4x 3 +

= 4 x4 = 3 x4 = 5

se resuelve como sigue. Para empezar, reducimos su matriz ampliada a forma escalonada:

M~(i

3 7

-2 3 4

:)-(~

3 -1 1

2

-2 7 14

3 -7 -14

-~)- (: 15

1 0

0

-2 7 0

3 -7 0

-~)

-5

No hay necesidad de continuar pa ra hallar Ia forma can6nica por filas de Ia matriz, puesto que Ia matriz escalonada ya nos indica que el sistema no tiene soluci6 n. Especificamente, Ia tercera fila en Ia matriz escalonada corresponde a Ia ecuaci6n degenerada

q ue no tiene soluci6 n. c)

El sistema X+ 2y + Z = 3 2x + 5y- z = -4 3x - 2y - ·z = 5

se resuelve reduciendo su matriz ampliada a forma escalonada y luego a forma can6nica por filas como sigue: 2

5 -2

3) (1 2 -1~)- (~ 0 0) (1 -1~)-(~ 1

-1 -1 2

-4 5

1

-3 0

0 0

1 -8

-3 -4

-4

0

2 1

0

0 -1 1 3

0 0

2

0

-~ -1~) ~

-28

-84

! ~ -:)

De este modo, el sistema tiene Ia soluci6n (mica x = 2, y = - 1, z = 3 o u = (2, -1 , 3). (N6tese que Ia forma escalonada de M ya indicaba que Ia soluci6n era (mica, puesto que correspondia a un sistema triangular.)

1.10.

SISTEMAS DE ECUACIONES LINEALES HOMOGENEOS

Se dice que el sistema de ecuaciones lineales [1.3] es homogeneo si todas las constantes son iguales a cero, esto es, si tiene Ia forma a 11 x 1 + a 12 x 2 + · · · + a 1 ,.x,. = 0 a 21 x 1 + a 22 x 2 + · · · + a 2 ,.x,. = 0

De becho, [1.6] se denomina el sistema homogeneo asociado con el sistema [1.3].

[1.6]

22

ALGEBRA LINEAL

El sistema homogimeo (1 .6) siempre tiene una solucion, a saber, la n-pla nula 0 = (0, 0, ... , 0) Hamada Ia solucion nula o trivial. (Cualquier otra solucion, si existe, se denomina solucion no nula o no trivial.) Siendo asi, el sistema siempre puede reducirse a uno homogeneo equivalente en forma escalonada:

+ · · · + a 1,.xft = 0 a2hxh + al.h+lxh+l + ... + al,.xft = 0

a 11x 1 + a 12 x 2 + a 13 x 3

a,i.xi,

[1.7)

+ a,, 1,+ 1x,;..+t + · ·· + a,,.x,. = 0

Existen dos posibilidades: i) r = n. En tal caso, el sistema tiene solo la solucion nula. ii) r < n. Entonces el sistema tiene una solucion no nula. De acuerdo con esto, si empezamos con menos ecuaciones que incognitas, tendremos, en forma escalonada, r < n y por consiguiente el sistema tendra una solucion no nula. Esto prueba el importante teorema siguiente. Teorema 1.9: Un sistema de ecuaciones lineales homogeneo con mas incognitas que ecuaciones tiene solucion no nula. EJEM PLO 1 .18 a) 'El sistema homogeneo

+ 2y - 3z + w = 0 x - 3y + z- 2w = 0 2x + y - 3z + 5w = 0 x

tiene una soluci6n no nula porque hay cuatro incognitas pero solo tres ecuaciones. b)

Reducimos el siguiente sistema a forma escalonada: x+ y- z=O 2x - 3y + z = 0 x- 4y + 2z = 0

x+y- z=O -5y+3z=O -5y + 3z = 0

x+y- z=O -5y + 3z = 0

El sistema tiene una solucion no nula, puesto que hemos obtenido solo dos ecuaciones para las tres inc6gnitas en forma escalonada. Por ejemplo, sea z = 5; entonces y = 3 y x = 2. Dicho de otro modo, Ia terna (2, 3, 5) es una solucion particular no nula. c)

Reducimos el siguiente sistema a forma escalonada: x+ y- z=O 2x + 4y- z = 0 3x + 2y + 2z = 0

x+y- z = O 2y + z = 0 -y+ 5z = 0

x+y-z=O 2y + z = 0 llz = 0

Como en forma escalonada hay tres ecuaciones y tres incognitas, el sistema dado tiene solo Ia soluci6n nula {0, 0, 0).

SISTEMAS DE ECUACIONES LINEALES

23

BASE PARA LA SOLUCION GENERAL DE UN SISTEMA HOMOGENEO Denotemos po r W Ia soluci6n general de un sistema homogeneo. Se dice que los vectores soluci6n no nulos u 1 , u2 , ... , u. forman una base de W si todo vector soluci6n w en W puede expresarse d e forma (mica como combinaci6n lineal de u 1 , u 2 , ... , u•. El numero s d e tales vectores base se denomina Ia dimension de W, escrito dim W = s. (Si W = {0}, dim W = 0, por definicion.) El siguiente teorema, probado en el Capitulo 5, nos dice como hallar tal base. Teorema 1.10: Sea W Ia soluci6n general d e un sistema homogeneo y supongamos que Ia fo rma escalonada del sistema tiene s variables libres. Sean u 1, u 2 , . .. , u. las soluciones obtenidas haciendo una de las variables libres igual a uno (o a cualquier constante distinta de cero) y las rest antes varia bles libres iguales a cero. Entonces dim W = s y u 1 , u2 , ... , us fo rman una base deW No ta: La expresi6n combinacion lineal utilizada anteriormente se refiere a suma de productos de un vector por un escalar , donde tales operaciones se d efinen segun (al, al , ... , an)+ (b l, b2, ... ,b.)= (al + bl, a2 + bl, ... ,an+ b.)

k(a 1, a 2 ,

• ••

,a.)= (ka 1, ka 2 ,

••• ,

ka.)

Estas operaciones se estudiaran en detalle en el Capitulo 2. EJEMPLO 1 .19. Su pongamos que queremos encontrar Ia dimension y una base para Ia soluci6n general W del sistema homogeneo x + 2y - 3z + 2s - 4t = 0 2x + 4y - 5z + s - 6t = 0 5x +lOy- l3z + 4s- 16t = 0 Para empezar reducimos el sistema a forma escalonada . Efectuando las operaciones - 2L 1 - 5L2 + L 3 .... L 3 y despues - 2L2 + L 3 --> L 3 se obtiene:

x

+ 2y -

3z

+ 2s -

4t = 0

z - 3s + 2t 2z- 6s + 4t

=

0

=

0

x

y

+ 2y- 3z + 2s- 4t =

+ L 2 .... L 2

y

0

z-3s+2t = O

En forma escalonada, el sistema tiene t res variables libres, y, s y t; de a qui dim W = 3. Se obticnen trcs vectores sol ucion que forman base de W como sigue: I.

Hacemos y = I, s = 0, t = 0. La sustituci 6n hacia atras proporciona Ia soluci6n u 1 = (- 2, I, 0, 0, 0).

2.

Hacemos y = 0. s = I, t = 0 . La sustituci6n hacia atras proporciona Ia soluci6 n u 2 = (7, 0, 3. I, 0).

3.

Hacemos y = 0, s = 0. t = I. La sustitucion hacia a tnis proporciona Ia sol ucion u 3 = ( - 2, 0, -2, 0, I).

El conjunto {u 1 , u2 , u 3 ] cs una base de W. Ahora bien, cualquier soluci6n del siste ma puede escribirse de Ia form a au 1

+ bu 2 + cu 3 =a(- 2,

I, 0. 0, 0)

+ b(7, 0, 3,

I, 0) + c( -2, 0, - 2, 0, I) = ( - 2a + 7b - 2c, a, 3b - 2c. b. c )

donde a, b y c son constantes arbitrarias. Observese que esto no es mas que Ia forma parametrica de Ia so luci6n general con Ia elecci6n de parametros y = a, s = b y r = c.

24

ALGEBRA LINEAL

SISTEMAS INHOMOGENEOS Y SUS SISTEMAS HOMOGENEOS ASOCIADOS

La relaci6n entre el sistema inhomogeneo [1.3] y su sistema homogeneo asociado [1.6] esta contenida en el siguiente teorema, cuya demostraci6n se pospone hasta el Capitulo 3 (Teorema 3.5). Teorema 1.11: Sean v una soluci6n particular y U la soluci6n general de un sistema inhomogeneo de ecuaciones lineales. En tal caso, U

= v0 + W

=

{v 0 + w : W E W}

donde W es la soluci6n general del sistema homogeneo asociado. Esto es, U = v0 + W puede obtenerse sumando v0 a cada elemento de W. EI teo rema anterior tiene una interpretacion geometrica en el espacio R 3 • De forma especifica, si W es una recta que pasa por el origen, como se muestra en Ia Figura 1-4, U = v0 + W es Ia recta paralela a W que puede obtenerse sumando v0 a cada elemento de W. Analogamente, siempre que W sea un plano por el origen, entonces U = v0 + W es un plano paralelo a W . z

v0

+

W

X

Figura 1-4.

PROBLEMAS · RESUELTOS

ECUACIONES LINEALES. SOLUCIONES 1.1.

Determinar si cada una de las siguientes ecuaciones es lineal: a)

5x

+ 7y - 8yz = 16

b)

x

+ ny + ez =

log 5

c)

a)

No, porque el producto yz de dos incognitas es de segundo grado.

b)

Si, puesto que rc, e y log 5 son constantes.

3x

+ ky -

8z = 16

SISTEMAS DE ECUACIONES LINEALES

c)

1.2.

25

Tal y como aparece, hay cuatro incognitas: x, y, z, k. Debido a! termino ky, noes una ecuacion lineal. No obstante, supuesto que k sea una constante, Ia ecuacion es lineal en las incognitas X, y, Z.

Considerese Ia ecuaci6n lineal x

+ 2y -

3z = 4. D eterminar si u

= (8,

1, 2) es soluci6n.

Co mo el o rden de las incognitas es x, y, z, u = (8, I, 2) es una abreviatura de x = 8, y = I, z = 2. Sustituimos en Ia ecuacio n para obtener 8

+ 2(1)- 3(2) =

4

8+2 - 6=4

0

4= 4

0

Si, es una solucion.

1.3.

Determinar si a) u = (3, 2, 1, 0) y b) v x 1 + 2x 2 - 4x 3 + x 4 = 3. a)

b)

1.4.

=

(1 , 2, 4, 5) son soluciones de Ia ecuaci6n

Sustituimos para obtener 3 + 2(2)- 4{1)

+ 0 = 3, o 3 = 3; si, es una solucion. Sustituimos para obtener I + 2(2)- 4 (4) + 5 = 3, o - 6 = 3; no es solucion.

(,Es u = (6, 4, -2) una solucion de Ia ecuaci6n 3x 2

+ x3

-

x 1 = 4?

Por convenio, las componentes de u est{m o rdcnadas de acuerdo con los subindices de las incognitas. Esto es, u = (6, 4, - 2) es una abreviatura de x 1 = 6, x 2 = 4, x 3 = - 2. Sustituyendo en Ia ecuacion obtenemos 3(4)- 2- 6 = 4, o 4 = 4. Si, es una solucion.

1.5.

Probar el Teorema 1.1. Supongamos a f. 0. Entonces existe el escalar bia, Sustituyendo bfa en ax = b se obtiene a(bja) = b, o b = b; por consiguiente, hja es una solucion. Por otra parte, supongamos que x 0 es solucio n de ax = b, de forma que ax0 = b. Multiplicando ambos miembros por l ja se obtiene Xo = bja. De aqui b/a es Ia unica soluci6n de ax = h. Po r tanto, i) q ueda demostrado. . Sea ahora, por el contra rio, a = 0. Entonces, para todo escalar k, tenemos ak = Ok = 0. Si h # 0, ax # b. De acuerdo con esto, k no es soluci6n de ax = b y queda asi demostrado ii). Si b = 0, ak = b. Esto es, cualquier escalar k es una soluci6n de ax = b y queda demostrado iii).

1.6.

Resolver cada una de las siguientes ecuaciones:

+3

a) ex = log 5

c) 3x - 4 - x

b) ex= 0

d) 7 + 2x - 4 = 3x + 3 - x

=

2x

Como e t- 0, multiplicamos por 1/e obteniendo x = (log 5)/e. b) Si c # 0, 0/c = 0 es Ia unica solucion. Si c = 0, todo escalar k es soluci6 n [Teorema I. I iii)).

a)

c) La reescribimos en forma convencional, 2x- 4 = 2x + 3 6 Ox = 7. La ecuaci6 n no tiene solucion [Teorema 1.1 ii)]. d)

1.7.

La reescribimos en forma convencional, 3 + 2x = 2x + 3 6 Ox solucion [Teorema 1. 1 iii)].

Describir las soluciones de Ia ecuaci6n 2x

+y+x

- 5 = 2y

=

0. Todo escalar k es una

+ 3x -

y

+ 4.

La reescribimos en forma convenciona l, agrupando terminos y trasponiendo: 3x

+y-

5= y

+ 3x + 4

0

Ox+ Oy = 9

La ecuacion es degencrada con una constante no nula. Sicndo asi, Ia ecuacion no tiene solucion.

26 1.8.

ALGEBRA LINEAL

Describir las soluciones de Ia ecuaci6n 2y

+ 3x - y + 4 =

x

+ 3 + y + 1 + 2x.

La reescribimos en forma con vencional. agrupando terminos y trasponiendo:

y + 3x + 4 = 3x + 4 + y

Ox + Oy = 0

0

La ecuacion es degenerada con constante nula; en consecuencia, todo vector u una solucion.

1.9.

= (a,

b) en R 2 es

Probar el Teorema 1.3. Probemos primero i). Tomamos xi= k1 para j i= p. Como a1 = 0 para j < p. Ia sustitucion en Ia ecuacion nos conduce a 0

con aP "' 0. Por el Teorema 1.1 i), xp esta univocamente determinado como:

Por tanto, queda probado i). Probemos ahora ii). Supongamos que u = (k 1 , k 2 ,

••• ,

k.) es una solucion. Entonces

0

De cualquier modo, esta es precisamente Ia solucion

-(k

u-

1• ••• ,

kp-1•

b-ap+lkp+l-···-a.k.

aP

) 'ke+l• ... , k.

obtenida en i). Queda asi probado ii).

1.10.

Considerese Ia ecuaci6n lineal x - 2y + 3z = 4. Hallar: a) tres soluciones particulares, b) Ia soluci6n general. a)

Aqui x es Ia primera incognita. De acuerdo con ello, asignamos valores cualesquiera a las variables libres y y z y luego despejamos x para obtener una solucion. Por ejemplo: I . Tomamos y

= 1 y z = 1. La sustitucion en Ia ecuacion nos conduce a x-2(1}+3{1) = 4

Por consiguiente, u 1

b)

=

x-2+3 =4

0

x=3

(3, I, I} es una solucion.

2.

Tomamos y = I, z = 0. La sustituci6n proporciona x soluci6n.

3.

Tomamos y soluci6n.

=

0

=

6; por tanto, u 2

=

{6, I, 0) es una

0, z = I. La sustituci6n proporciona x = I; por tanto, u 3 = (1, 0, l) es una

Para hallar Ia soluci6n general asignamos valores arbitrarios a las variables libres, digamos = a y z = b. (Llamamos a a y b panimctros de Ia soluci6n.) Despues sustituimos en Ia ecuaci6n para obtener

y

x- 2o + 3b = 4 Asi u = (4

+ 2a- 3b, a,

0

b) es Ia soluci6n generaL

x

=

4

+ 2a- 3b

SISTEMAS DE ECUACIONES LINEALES

27

SISTEMAS EN FORMA TRIANGULAR Y ESCALONADA

1.11.

Resolver el sistema 2x - 3y + Sz - 2t = 9 5y- z + 3t = 1 7z- t = 3 2t = 8 i)

El sistema esta en forma triangular; por tanto, resolvemos por sustitucion hacia atras. La ultima ecuacion proporciona t = 4.

ii)

Sustituyendo en Ia tercera sc obtiene 7z - 4 = 3, 7z = 7 o z = I.

iii)

Sustituyendo z

=

I y t

=4

5y- I + 3(4) = I iv)

Sustituyendo y

2x- 3( - 2) Asi x =:' 3, y

=

en Ia segunda ecuacion obtenemos

5y- 1 + 12 =I

0

= -2, z = I,

+ 5(1) -

0

5y = -10

0

y= - 2

t = 4 en Ia primera ecuacion tendremos

2(4) = 9

0

2x+6+5-8 = 9

0

2x = 6

0

x= 3

-2, z = I, t = 4 es Ia soluci6n \mica del sistema.

1.12. Determinar las variables libres en cada uno de los sistemas: 3x + 2y- Sz- 6s z

+ 2t = 4 + Ss- 3t = 6 s - St= 5 a)

5x- 3y + 7z = 1 4y + Sz = 6 4z = 9

x+2y-3z= ,2 2x- 3y + z = 1 Sx - 4y- z = 4

b)

c)

a)

En forma escalonada, cualquier incognita que no sea primera es variable fibre. Aqui y y t son las variables libres.

b)

Las primeras incognitas son x , y, z. Por consiguientc, no hay variables libres (como en cualquier sistema triangular).

c)

La nocion de variable libre se aplica solo a sistemas en forma escalonada.

1.13. Probar el Teorema 1.6. Existen dos casos: i) r = n. Esto es, hay tantas ecuaciones como incognitas. En tal caso, el sistema tiene solucion unica. ii) r < n. Esto es, hay menos ecuaciones que incognitas. Entonces podemos asignar valores a las n - r variables libres arbitrariamente y obtener una soluci6n del sistema. Se demuestra por induccion en el numero de ecuaciones del sistema, r. Si r = I, tenemos una sola ecuaci6n lineal, no degenerada, a Ia que se aplica el Teorema 1.3 cuando n > ,. = 1, y el Teorema 1.1 cuando n = r = I. De este modo, el teorema es valido para r = I. Ahora supongamos que r > 1 y que el teorema es vatido para un sistema con r - I ecuaciones. Podemos ver las r - I ecuaciones

28

ALGEBRA LINEAL

como un sistema con incognitas xi~· ... , x". Notese que el sistema esta en forma escalonada. Por Ia hipotesis de induccion, podemos asignar arbitrariamente valores a las (n - } 2 + I) - (r - 1) variables libres en el sistema reducido para obtener una solucion (digamos xi,= ki,• . .. , x" = k"). Como en el caso r = I, estos valores, junto con valores arbitrarios de las } 2 - 2 variables libres adicionales (digamos x 2 = k 2 , ... , xi, _ 1 = ki, _ 1 ), conducen a una solucion de Ia primera ecuaci6n con

(Observese que hay (n - } 2 + I) - (r - I) + (}2 - 2) = n - r variables libres.] Ademas, estos valores para x 1, •.. , x" tam bien satisfacen las otras ecuaciones ya que, en estas, los coeficientes de x 1 , •••. xi,-l son nulos. Ahara, si r = n, entonces }2 = 2. Asi obtenemos, por induccion, una solucion \mica del subsistema y por ende una solucion Cmica del sistema completo. De acuerdo con esto, el teorema queda demostrado.

1.14.

Hallar Ia soluci6n general del sistema escalonado

x- 2y - 3z + 5s - 2t = 4 2z - 6s + 3t = 2 5t = 10 Como las ecuaciones empiezan con las incognitas x, z y t, respectivamente, las restantes, y y s, son las variables libres. Para encontrar Ia solucion general asignamos parametros a las variables libres, digamos y = a y s = b, y utilizar sustitucion hacia atras para despejar las variables no libres x, z y t. i)

La ultima ecuacion conduce a t

·• ii) Sustituimos t

2z - 6b

= 2, s = b en

+ 3(2) =

2

= 2.

Ia segunda ecuacion para obtener

2z - 6b + 6 = 2

0

0

2z = 6b - 4

0

z

=

3b- 2

iii) Sustituimos t = 2, s = b, z = 3b - 2, y = a en Ia primera ecuacion para obtener

x- 2a- 3(3b - 2) + 5b- 2(2) = 4

o

x - 2a - 9b + 6 + 5b- 4 = 4

o

x = 2a + 4b + 2

Asi

x

=

2a + 4b

+2

y=a

z

=

3b- 2

s= h

t=2

o. equivalentemente,

u = (2a

+ 4b + 2,

a, 3b - 2, b, 2)

es Ia forma parametrica de Ia soluci6n general. Alternativamente, despejar x, z y ten funci6n de las variables libres y y s proporciona Ia solucion general en forma de variables libres:

x = 2y + 4s

+2

z

=

3s - 2

t=2

SISTEMAS DE ECUACIONES LINEALES. ELIMINACION GAUSSIANA 1.15.

Resolver el sistema X - 2y + Z = 7 2x- y + 4z = 17 3x - 2y + 2z = 14

1 SISTEMAS DE ECUACIONES LINEALES

29

Lo reducimos a forma escalonada. Efectuamos - 2L 1 + L 2 ~L 2 y - 3L 1 +L 3 ~ L 3 para eliminar x de las ecuaciones segunda y tercera y a continuaci6n efectua mos -4L 2 + 3L 3 -+ L 3 pa ra eliminar y de Ia tercera ecuaci6n. Estas operaciones conducen a x - 2y+ z= 7 3y + 2z = 3 4y- z= ·-1

X -

y

2y + Z= 7 3 3y + 2z = - llz = -33

El sistema esta en forma triangular y por tanto tras Ia sustituci6n hacia atnis, tiene Ia soluci6n tinica u = (2, - 1, 3).

1.16

Resolver el sistema

2x - 5y + 3z - 4s + 2t = 4 3x - 7y + 2z - Ss + 4t = 9 Sx - lOy - 5z - 4s + 1t = 22 Lo reducimos a forma escalonada. Efectuamos las operaciones - 3L 1 + 2~-> L 2 y - 5L 1 + 2L 3 -> L 3 y luego - 5L 2 + L 3 -> L 3 para obtener 2x - 5y + 3z - 4s + 2t = 4 y - 5z + 2s + 2t = 6 5y- 25z + l2s + 4t = 24

y

2x - 5y + 3z - 4s + 2t = 4 y - Sz + 2s + 2t = 6 2s- 6t = - 6

El sistema esta ahora en forma escalonada. Despejando las primeras incognitas, x , y y s, en terminos de las variables libres, z y r, obtencmos Ia soluci6n general en forma de variables libres: •

x = 26

+ 11 z -

15r

y = 12 + 5z- 8t

s

=

- 3 + 3t

De esta se obtiene de una vez Ia forma parametrica de Ia soluci6n general (con z = a, t = b):

x = 26 + 11 a - i5b

1.17.

y = 12 + 5a- 8b

z=a

s = - 3 + 3b

t=b

Resolver el sistema

2y - 3z + 4t = 2 2x + 5y - 2z + t = l Sx + 12y - 7z + 6r = 7 x

+

Reducimos el sistema a forma escalonada. Eliminamos x de las ecuacio nes segunda y tercera mediante las operaciones - 2L 1 + L 1 -> L 1 y - 5L 1 + L 3 --+ L 3 ; esto proporciona e1 sistema x

+ 2y -

3z + 4t = 2 y+ 4z - 1t =- 3 2y+8z-14t= - 3

La operaci6n - 2L 2 + 1. 3 -+ L 3 proporciona Ia ecuaci6n degenerada 0 = 3. Siendo asi, el sistema no tiene solucion (incluso a pesar de tener mas incognitas que ecuaciones).

1.18.

Determinar los valores de k para que el siguiente sistema, con incognitas x, y, z, tenga: i) una solucion (mica, ii) ninguna solucion, iii) infinitas soluciones.

x+ y- z= l + 3y + kz = 3 X+ ky + 3y = 2

2x

r

==

30

1

ALGEBRA LINEAL

Reducimos el sistema a forma escalonada. Eliminamos x de las ecuaciones segunda y tercera mediante las operaciones - 2L 1 + L 2 -+ L 2 y - L 1 + L 3 -+ L 3 para obtener

x+

yy + (k (k - l)y +

z=i

+ 2)z =

1

4z = 1

Para eliminar y de Ia tercera ecuacion efectuamos Ia operacion - (k- 1) L 2

x+yy+

+ L 3 -+ L 3

para obtener

z=1 (k + 2)z = 1 (3 + k)(2 - k)z = 2 - k

El sistema tiene solucion unica si el coeficiente de z en Ia tcrccra ccuaci6n es distinto de cero; esto es, si k '# 2 y k ,;, -3. En el caso k = 2, Ia tercera ecuaci6n se reduce a 0 = 0 y el sistema tiene un numero infinito de soluciones (una para cada valor de z). En el caso k = -3, Ia tercera eeuaci6n se reduce a 0 = 5 y el sistema no tiene soluci6n. Resumiendo: i) k =ft 2 y k =ft 3, ii) k = -3, iii) k = 2.

1.19.

~Que condicion debe imponerse a a, b y c para que el siguiente sistema, con incognitas ~· y y z, tenga soluci6n? .! x +2y- 3z =a 2x + 6y - llz = b x- 2y + 7z = c Reducimos el sistema a forma escalonada. Eliminando x de las ecuaciones segunda y tercera mediante las operaciones - 2L 1 + L 2 -+ L 2 y - L 1 + L 3 -+ L 3 obtenemos el sistema equivalente:

x

+ 2y- ' Jz =a 2y..:... Sz = b- 2a - 4y + lOz = c- a

Eliminando y de Ia tercera ecuaci6n mediante Ia operacion 2L2 el sistema equivalente

x

+ L 3 -+ L 3

obtenemos finalmente

+ 2y- Jz =a 2y- Sz = b- 2a 0 = c + 2b- Sa

El sistema no tendra soluci6n si c + lb - Sa =ft 0. Asi el sistema tendra al menos una soluci6n si c + lb- Sa= 0, o Sa= lb +c. Observese que en este caso el sistema tendra infinitas soluciones. En otras palabras, el sistema no puede tener soluci6n U.nica.

MATRICES. MATRICES ESCALONADAS. REDUCCION POR FILAS 1.20.

Intercambiar las filas en cada una de las rria trices siguientes para obtener una matriz escalonada:

(~

1 .-3 0 2 0 7

a)

4

5 -2

-~) (!

0 2 0

0 3 5 b)

0

4 -4

~) G

2 3

2 1



0 c)

2 0 0

~)

SISTEMAS DE ECUACIONES LINEALES

31

a)

Intercambiamos las filas primera y segunda, es decir, efectuamos Ia operaci6n elemental entre filas R 1 R 2 •

h)

Llevamos Ia fila nula a Ia parte inferior de Ia matriz. es decir, efectuamos Ia operaci6n R 1 +-+ R 2 y luego R 2 ...... R 3 .

c) Ningun numero de intercambios de filas puede producir una matriz escalonada.

1.21.

Reducir por filas la siguiente matriz a forma escalonada:

2 4 6

~)

-3 -2 -4

Utilizamos a 11 = I como pivote para obtener ceros bajo el; esto es, efectuamos las operaciones · entre filas - 2R 1 + R 2 -> R 2 y - 3R 1 + R 3 -> R 3 para obtener Ia matriz

(~

2 -3 0 4 0 5

~)

Ahora utilizamos a 23 = 4 como pivote para obtener un cero bajo el; esto es, efectuamos Ia operaci6n entre filas -5R 2 + 4R 3 .... R 3 para o btener Ia matriz

(~

2

- 3

0

4

0

0

~)

que esta en forma escalonada.

1.22.

Reducir por filas Ia siguiente matriz a forma escalonada:

B

~ -~ ~ =!) (

Los calculos manuales suelen ser mas simples si el elemento pi vote es igual a I. Por consiguiente, primero intercambiamos R 1 y R 2 ; luego efectuamos 4R 1 + R 2 ---> R 2 y -6 R 1 + R 3 -> R 3 ; y entonces efectuamos R 2 + R 3 -> R 3 :

-5) ~ =~)~(~ ~ -5) (1 2 0 0 3

- 4

0

- 9

-26 26

~

0 0

9

-26

La matriz esta ahora en forma escalonada.

1.23.

Describir el algoritmo de reducci6n p or filas pivotando. Ademas, describir las ventajas, si las hay, de utilizar este algoritmo. El algoritmo de reducci6n por filas se convierte en un algoritmo de pivotar si la entrada de mayor valor absoluto en Ia columna j se elige como el pivote a 11 , y si se utiliza Ia operaci6n entre filas

32

ALGEBRA LINEAL

La principal ventaja del algoritmo de pivotar cs que Ia operaci6n e ntre filas anterior solo implica division por el pi vote a tj, y en las computadoras los errores de redondeo pueden ser sustancialmente reducidos cuando se divide por un numero tan grande en valor absoluto como sea posible.

1.24.

Usar el algoritmo de pivotar para reducir Ia siguiente matriz A a forma escalonada:

- 2 6

-7

2 0 10

Primero intercambiamos R 1 y R2 de modo que -3 pueda ser utilizado como el pivote y entonces efectuamos (1)R 1 + R 2 -+ R 2 y (i) R 1 + R 3 _, R 3 :

A-

-3

6

~

-2 -7

(

0-1) (-3 2

10

0

6

1 -

0

2

2

2

0

- 5

10

Ahora intercambiamos R 2 y R 3 de modo que - 5 pueda ser utilizado como el pivote y efectuamos + R3 _, R3:

WRz

- 3

6

6

0

~

-5

-5

10

2

0

6

A~ (

Se ha llevado Ia matriz a forma escalonad a.

FORMA CANONICA POR FILAS 1.25.

~Cmiles

(~

de las siguientes matrices estl'm en forma can6nica por filas? 2

0 0

-3 5 0

0 2 7

-~) (~

1

7

-5

0 0

0 0

0 0

r) (~

0 1 0

5 2 0

0 0

~)

La primera matriz no esta en forma can6nica por filas puesto que, por ejemplo, dos de las entradas principales no nulas son 5 y 7 en Iugar de 1. Ademas, hay entradas distintas de cero sobre las entradas principales no nulas 5 y 7. Las matrices segunda y tercera estan en forma can6nica por filas.

1.26.

Reducir Ia siguiente matriz a forma canonica por filas:

B~(:

2 4 6

-1 1

6 10

0

20

~~)

19

SISTEMAS DE ECUAC IONES LINEALES

33

Primero red ucimos B a forma escalona da efectu ando -2R 1 +R2 --+R 2 y -3R 1 +R 3 --.R 3 y e ntonces -R 2 + R 3 -> R 3 :

2 0 0

-1 3 3

6 -2 2

2 -1 0 3 0 0

~)

6 - 2 4

A continuaci6n reducimos Ia matriz escalonada a forma ca n6nica po r lilas. Especificamente. de modo que el pivote sea b 34 = l , y entonces efectuamos multiplicamos primero R 3 por 2R 3 + R 2 - . R 1 y - 6R 3 + R 1 --+ R 1 :

±.

2 0 0

-1

6

3

-2

0

2 0

-1 3

0

0

0

Ahora multiplicamos R 2 por }. hacienda el pivote b 23 = I. y efectuamos R 2

2

-1

0

0

1

0

0

0

Fi nalmente. multiplicamos R 1 por

1.27.

t

2 0 0



0

0

0

1

0

0

+

R 1 -. R 1:

~)

para obtener Ia forma can6nica por lilas

1 0

0 1

0 0

0

0

1

~)

Red ucir la siguiente matriz a form a can6nica por filas:

A~ (i

-2

3

1

1

4

-1

5

9

-2

~)

Primero reducimos A a forma escalonada efectuando - R 1 entonces efectua ndo -3R 2 + R 3 --. R 3 :

1 -2 A- 0 3 ( 0 9

3 1 -2 3 -4

2) (1 -2 1 -

0

3

4

0

0

+ R 2 -+ R 2 3

y - 2R 1

+ R 3 --. R 3

y

1

1 -2 0 2

Ahora utilizamos sustituci6n hacia atras. Multiplicamos R 3 po r t para obtener el pivote a 34 = l y entonces efectuamos 2R 3 + R 2 -+ R 2 y - R 3 + R 1 --. R ,:

A-(~

-2 3

0

3 1 0

1

-2

1)- (~

-2

3

3 0

1

0 0

0

1

:)

34

ALGEBRA LINEAL

Ahora multiplicamos R 1 pori para obtener el pivote a 22 = l y entonces efectuamos 2R 2

A-(~

-2

3

0

1

1

!

0

0

0

!)-(~

0

¥

1

1

0

0

0 0

+ R 1 ~ R 1:

!)

Como a 11 = I. Ia ultima matriz es Ia forma canonica po r filas deseada.

1.28.

Describir el algoritmo de eliminaci6n de Gauss-Jordan, que reduce una ma triz arbitraria A a su forma can6nica por filas. El algoritmo de Gauss-Jorda n es simila r a! de eliminacio n gaussiana. salvo que aqui primero se normaliza una lila para obte ner un pivote unidad y a continuacion se utiliza el pivote para situar ceros tanto debajo como encima de el antes de obtener el pivote siguiente.

1.29.

Utilizar Ia eliminaci6 n de Gauss-Jordan para obtener Ia forma can6nica por filas de la matriz del Problema 1.27. Usamos Ia entrada principal no n ula a 11 = I como pivote para poner ceros debajo. efectuando ~ R 2 y -2R 1 + R 3 -+ R 3 ; esto proporciona

-R 1 + R 2

-2 3

1 A- 0 (

0

9

~)

3 1 1 -2 3 -4

Multiplicamos R2 por i para consegui r el pivote a22 = I y obtenemos ceros encima y debajo de a22 efectuando -9R 2 + R 3 ~ R 3 y 2R 2 + R 1 ~ R 1 :

A-G

-2 1 9

3

1

t -1 3

- 4

!)-(~

0 1 0

¥ -t

1 -1 0

2

;)

Por ultimo. multiplicamos R 3 por 1 para consegui r el pivote a 3 4 = I y o btenemos ceros sobre a 34 efectua ndo (~) R 3 + R 2 ~ R 1 y {1)R 3 + R 1 ~ R 1 :

A-G 1.30.

0 0

_,

¥ -t t 0

!)-(~

1

¥ t

0

0

0

0 0

!)

Se habla de «una» forma escalonada de una ma triz A y de «Ia» forma can6nica por filas de A . L 3 y entonces - 2L 2 + L 3 - L 3 para obtener x

x + 3y - 2z + 5s - 3t

+ 3y- 2z + 5s- 3t =

0 y+ z - 3s+ t = O 2y + 2z- 5s =0

= 0 y + z- 3s + t = 0 s-2t =0

y

En forma escalonada, el sistema tiene dos variables libres, z y r; por ende, dim W = 2. Puede o btenerse una base [u 1 , u2 ] para W como sigue: I.

Hacemos z

= I, t = 0. La sustitucion hacia atras proporciona s = 0, luego y = -1 y despues

x = 5. Por tanto, u 1 = (5, - I, 1, 0, 0).

2.

Hacemos z = 0, t = I. La sustitucion hacia a tnis proporciona s = 2, luego y = 5 y despues x = -22. Por consiguiente, 11 2 = ( - 22, 5, 0, 2, 1).

Multiplicando los vectores de Ia base por los parametros a y b, respectivamente, obtenemos

au 1

+ bu2

= a(5, -1, 1, 0, 0)

+ b( - 22, 5, 0, 2, I)= (Sa - 22b, -a+ 5b, a, 2b, b)

Esta es Ia forma parametrica de Ia solucion general.

1.39.

.

Hallar Ia dimension y una base para Ia solucion general W del sistema homogeneo

x + 2y- 3z = 0 2x

+ 5y + 2z =

3x -

0 y- 4z = 0

Reducimos el sistema a forma escalonada. Del Problema 1.37 b) tenemos

x + 2y- 3z = 0 y + 8z = 0 61z = 0 No hay variables libres (el sistema esta en fo rma triangular). Luego dim W = 0 y W no tiene base. Especificamente, W consiste solo en Ia soluci6n nula, W = {0}.

1.40.

Encontra r Ia dimension y una base para Ia soluci6n general W del sistema homogeneo

+ 4y- 5z + 3t = 0 3x + 6y - 7z + 4t = 0 5x + lOy - llz + 6t = 0

2x

39

SISTEMAS DE ECUACIONES LINEALES

Reducimos el sistema a forma escalonada. Efectuamos -3L 1 entonces - 3L 2 + L 3 -+ L 3 para obtener

2x + 4y- 5z + 3t = 0 z- l = 0 3z - 3t = 0

2x

y

+ 2L2

.....

L 2 y - 5L 1

+ 4y- 5z + 3t = z- t

=

+ 2L 3 -+ L 3

y

0 0

En forma escalonada, el sistema tiene dos variables libres. )' y t; por consiguiente. dim W = 2. Una base {u 1 , u2 } de W puede obtenerse como sigue:

1.41.

I.

Tomamos y

= I.

2.

Tom amos y

= 0, t =

t = 0. La sustituci6n hacia atras proporciona Ia soluci6n u 1

= (-

2, I. 0. 0).

I. La sustituci6n hacia atnis proporciona Ia soluci6n u2 = ( 1, 0. I. I).

Considerese el sistema x - 3y - 2z

+ 4t = 5

3x - 8 y - Jz

+ 8t = 18

2x - 3y + 5z - 4t

= 19

a)

Hallar la forma parametrica de la soluci6n general del sistema.

b)

Mostrar que el resultado de a) puede reescribirse en Ia forma dada por el Teorema 1.11.

a)

+

Reducimos el sistema a forma escalonada. Efectuamos -3L 1 entonccs - 3L 2 + L 3 -+ L 3 . para obtener x - 3y- 2z + 4t = 5 y + 3z- 4t = 3 3y

+ 9z-

y

L2

-+

L 2 y -2L 1

+ L.l ...... L 3 y

x- 3y- 2z + 4t = 5 y

12t = 9

+ 3z- 4t = 3

En forma escalonada, las variables libres son ;; y 1. Tomamos z = a y t = h, donde a y h son parametres. La sustituci6n hacia atras proporciona y = 3 - 3a + 4h y entonces x = 14- 7a + 8h. De este modo, Ia forma pammctrica de Ia soluci6n es x = 14- 7a h)

+ 8h

y

=

3 - 3a + 4b

z = a

t=b

Sea v0 = (14, 3, 0, 0) el vector de terminos constantes en (•); sea 11 1 = ( -7, - 3, I, 0) el vector de coeficientes de a en..(•), y sea u2 = (8, 4, 0, I) el vector de weficientes deb en (•-). Entonces Ia soluci6n general ( •) puede reescribirse en forma vectorial como (x, y, z, t) = v 0

+ au 1 + hu 2

(u)

A continuaci6n probamos que (*"') es Ia soluci6n general del Teorema I. II. En primer Iugar, n6tese que v0 cs Ia soluci6n del sistema inhomogcneo obtenido haciendo a = 0 y h = 0. Consideremos el sistema homogeneo asociado, en forma esca lonada:

x - 3y - 2z + 4t y + 3z- 4t

= =

0 0

Las variables librcs son;; y t. Hacemos z = 1 y t = 0 para obtcner Ia soluci6n u 1 = ( - 7, - 3, I, 0). Hacemos ahora == 0 y r =I para obtener Ia soluci6 n u2 = (8. 4, 0. 1). Por el Teorema 1.10. { 11 1 , u 2 } es una base del espacio soluci6n del sistema homogeneo asociado. Entonces (*"') tiene Ia forma deseada.

40

ALGEBRA LINEAL

PROBLEMAS VARIOS 1.42.

Demostrar que cada una de las operaciones elementales [£ 1]. [£2 ), [£ 3 ) tiene una operacion inversa del mismo tipoo [E ,] Intercambiar las ecuaciones i-esima y j-esima: L;.-.Lio

[£2 ] [£ 3 ) a) b)

Multiplicar la ecuaci6n i-esima por un escalar no nulo k: kL; - t L;. k =1= Oo Sustituir Ia ecuaci6n i-esima por ella misma mas k veces Ia j-esima: kLi + L; - t L;o Intercambiando el mismo par de ecuaciones dos veces obtenemos el sistema original. Esto es, L i ...... Li es su pro pia inversao Multiplicando Ia i-esima ecuacion porky luego por k- 1 • o por k- 1 y luego pork, obtcnemos

eJ sistema original. En otras palabras, las operaciones kL;-+ L; y k - 1 L 1 -+ L; son inversaso

c)

1.43.

Efectuando Ia operacion kLi + L;---> L 1 y luego Ia - kLi + L;---> L;. o viceversa, obtenemos el sistema original. En otras palabras, las operaciones kLi + L;-+ L, y - kLi + L;-+ L; son inversaso

Demostrar que el efecto de ejecutar Ia siguiente operaci6n [E] puede obtenerse efectuando [£2 ] y luego [£3]. [E] Sustituir Ia ecuaci6n i-esima por k (no nulo) veces ella misma mas k' veces Ia j-esima: k' Li + kL; -tL;, k =I= Oo Efectuar kL; --+ L; y fuego k' L1 + L; -+ L; conduce al mismo resultado que efectuar Ia operaci6n k' L 1 + kL,-+ L 1 o

1.44.

Supongamos que cada ecuaci6n L; en el sistema [103) se multiplica por una constante c; y que las ecuaciones resultantes se suman para dar (c 1 a 11

+ ooo + c,.a,. 1 )x 1 +

00

0

+ (c 1 a 1 , +

0

0

0

+ c,.a,.,)x, =

+ ·· · + c,b'"

c1 b1

[l]

Tal ecuaci6n se denomina una combinaci6n lineal de las ecuaciones L;o Demostrar que cualquier soluci6n del sistema [l.3) es tambien soluci6n de Ia combinaci6n lineal [1]. Supongamos que u

=

(k 1, k 2 ,

..

o, k.) es una soluci6n de [1.3]: (i = I, .. 0, m)

[2]

Para probar que u es una soluci6n de [1] debemos verificar Ia ecuacion

(c 1 a 11

+ .. + c.,a..1)k 1 + .. + (c 1 a 1• + o

+ c..a,..)k. =

000

o

c1 b 1

+

000

+ c,.b,.

Pero esta puede arreglarse de Ia forma c 1 (a 11 k 1

+ .. + a 1.k.) + 0

00 0

+ c,.(a,. 1 +

00

0

+ a.,.k.) =

c1b1

+

000

+ c.,b,.

o por [2] c 1b 1

+

ooo

+ c.,b,. =

c 1 b1

+

OOo

+ c,.b.,

que es claramente una expresi6n ciertao 1.45.

Sup6ngase que un sistema de ecuaciones lineales ( #) se obtiene a partir de otro (*) mediante 1a ejecuci6n de una sola operaci6n elemental - [£ 1 ], [£ 2], o [£ 3 )- o Demostrar que ( #) y (*) tienen todas las soluciones en cornu no

SISTEMAS DE ECUACIONES LINEALES

41

Cada ecuaci6n de ( #) es una combinacion lineal de ecuaciones de ( *). Por tanto, por el Problema. 1.44. cualquier solucion de (•) sera solucion de todas las ecuaciones de ( # ). Dich o de otro modo, el conjunto solucion de (•) esta contenido en el de(#). Por otra parte, como las operaciones [£ 1], [£ 2 ] y [£3 ] tienen operaciones elementales inversas. el sistema (•) puede obtenerse del ( #) por medio de una sola operacio n elemental. De acuerdo con ello, el conjunto soluci6n de ( #) esta contenido en el de ( *). Siendo asi, ( #) y ( *) tienen las mismas soluciones. ·

1.46.

Demostrar el Teorema 1.4. Por el Problema 1.45, cada paso deja inalterado el conjunto soluci6n. Por tanto, el sistema original ( #) y el final (•) tienen el mismo conjun to solucion.

1.47.

Probar que las tres afirmaciones siguientes, relativas a un sistema de ecuaciones lineales, son equivalentes: i) El sistema es compatible (tiene solucion). ii) Ninguna combinaci6n lineal de las ecuaciones es Ia ecuaci6n

Ox 1

+ Ox 2 + ·· · +Ox" = b =I= 0

iii) El sistema es reducible a forma escalonada. Si el sistema es reducible a fo rma escalonada, dicha forma tiene una solucion y por endc Ia tiene el sistema original. Asi iii) implica i). Si el sistema tiene una solucion, por el Problema 1.44 cualquier combinacion lineal de las ecuaciones tiene tambien una solucion. Pero (•) no tiene solucion , luego noes combinacion lineal de las ecuaciones. Asi i) implica ii). Finalmente, supongamos que el sistema no es reducible a forma escalo nada. Entonces en el algoritmo gaussiano debe dar una ecuacion de Ia forma (•). Por consiguiente, (•) es una combinacion lineal de las ecuaciones. Asi no- iii) implica no- ii) o, equivalentemente. ii) implica iii).

PROBLEMAS SUPLEMENTARIOS

RESOLUCION DE ECUACIONES LINEALES 1.48.

Resolver: a)

1.49.

b)

2x + 4y

= 10

c)

3x + 6y = 15

4x - 2y = 5 - 6x + 3y = 1

Resolver:

a)

1.50.

2x + 3y = 1 5x + 7y = 3

2x- y- 3z = 5 3x- 2y + 2z = 5 5x - 3y- z = 16

2x b)

+ 3y- 2z =

X+ 2y + 3z = 3 c) 2x + 3y + 8z = 4 3x + 2y + 17z = 1

5

x- 2y + 3z = 2 4x -

y +.4z = l

Reso lve r:

a)

2x + 3y = 3 X - 2y = 5 3x + 2y = 7

b)

x + 2y - 3z + 2t = 2 2x + 5y - 8z + 6t = 5 3x + 4 y - 5z + 2t = 4

c)

X +2y- z + 3t = 3 2x + 4y + 4z + 3t = 9 3x + 6y- z + St = to

42 1.51.

ALGEBRA LINEAL

Resolver: x a)

+ 2y + 2z =

2

+ 5y + 4z - 13t = 3x - y + 2z + 5t = 2x + 2y + 3z- 4t = x

3x - 2y - z = 5 2x- 5y + 3z = -4 x + 4y + 6z = 0

b)

3 2 l

SISTEMAS HOMOGENEOS 1.52.

Determinar si cada uno de los siguientes sistemas tiene una soluci6n no nula:

+ 3y - 2z = x- 8y + 8z = 3x- 2y + 4z = x

a)

1.53.

x + 3y- 2z = 0 b) 2x - 3y + z = 0 3x - 2y + 2z = 0

0

0 0

+ 2y - 5z + 4t = 0 · 2x - 3y + 2z + 3t = 0 4x - 7y + z- 6t = 0 x

c)

Hallar Ia dimension y una base para Ia soluci6n general W de cada uno de los sistemas siguientes.

+ 2x + x

a)

5x

+

3y + 2z - s -

t = 0

6y + 5z + s - t l5y + 12z + s- 3t

=0 =0

b)

2x 3x -

4y + 3z - s + 2t = 0 6y + 5z - 2s + 4t = 0

5x- lOy+ 7z- 3s + t = 0

MATRICES ESCALONADAS Y OPERACIONES ELEMENTALES ENTRE FlLAS 1.54.

Reducir A a forma escalonada y luego a su forma can6nica por lilas, siendo

a)

1.55.

A~(;

2 -2

-1

1 2

:)

-6

A~(!

b)

5 0

-2

3 -1 -5

2 6

- 5

;)

Reducir A a forma escalonada y luego a su fo rma can6nica por lilas, siendo

a)

1.56.

2 4 6

A~(;

3

-1

11

-5

-5

3

1

!)

b)

A=(~

4

3 - 1

0

1

5 -3

-!)

Describir todas las matrices 2 x 2 posibles que estim en forma escalonada reducida por filas.

1.57. Sup6ngase que A es una matriz cuadrada escalonada reducida por filas. Demostrar que si A · matri z identidad, A tiene una fila nula. 1.58.

~ I,

Ia

Demostrar que cada una de las operaciones elementales entre filas siguientes tiene una operaci6n inversa del mismo tipo. [£ 1 ) [£ 2 )

Multiplicar Ia fila i-esima por un escalar no nulo k: kR;-+ R;, k

[£ 3)

Sustituir Ia fila i-esima por ella misma mas k veces Ia j-esima: kR1 + R1 -+ R 1•

lntercambiar las filas i-esima y j-esima: R;..-. Ri. ~

0.

SISTEMAS DE ECUACIONES LINEALES

1.59.

43

Demostra r que Ia equivalencia por filas es una relaci6n de equivalencia: i)

A es equivalente por filas a A.

ii)

Si A es equivalente por filas a B, entonces B es equivalente por filas a A.

iii)

Si A es equivalente por filas a B y B es equivalente por filas a C, entonces A es equivalente por filas a C.

PROBLEMAS VARIOS Considerense dos ecuacio nes lineales generales con dos incognitas x e y sobre el cuerpo real R:

ax+ by= e ex + dy = f Demostrar que: i)

b . a , . de- bf s1 ~ # d' es decir, si ad - be # 0, entonces el sistema tiene Ia solucio n umca x = - - -

ad - be'

af- ee

y= -

- -·

. a

d # J'

ad - be'

ii)

iii) 1.61.

s1 ~ = si

a

-

~ -

b

e

b

e

d~·

entonces el sistema no tiene solucio n; entonces el sistema tiene mas de una solucion.

Considerese el sistema

ax+ by= I ex + dy = 0 D emostra r que si ad- be# 0, entonces el sistema tiene Ia solucio n unica X = df(ad- be), y = - ef(ad - be). D emostrar tambien que si ad - be= 0, c # 0 o d # 0, entonces el sistema no tiene solucion. 1.62.

Demostrar que una ecuacion de Ia forma Ox 1 de un sistema sin alterar el conjunto soluci6n.

+ Ox 2 + ... + Ox.= 0 puede anadirse a o suprimirse

1.63. Considerese un sistema de ecuaciones lineales con el mismo numero de ecuaeiones que de incognitas: a 11x 1

a 21x 1

+ a ux 2 + ·· · + a 1.x. = + a 22 x 2 + · · · + a2ox. =

b1 b2 [1]

i)

Suponiendo que el sistema homogeneo asociado tiene solo Ia solucion nula, probar que [1] tiene una solucion unica para cada elecci6n de las constantes b;.

ii)

Suponiendo que el sistema homogeneo asociado tiene una solucion no nula, probar que existen co nstantes b; para las que [I] no tiene soluci6n. Demostrar tambien que si [I] tiene una soluci6n, entonces tiene mas de una.

1.64. Suponiendo que en un sistema de ecuaciones lineales homogeneo los coeficientes de una de las incognitas son todos nulos, demostrar que el sistema tiene solucion no nula.

44

ALGEBRA LIN EAL

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS 1.48. a) x = 2, y = - I; (1. -3, -2);

1.49.

a)

1.50.

a) :..:= 3,y= - l; c)

b)

x = 5 - 2a, y =a;

sin soluci6n;

b)

1.52. a ) si;

b)

o

i- 5t/ 2 ;; = t + t/ 2

X {

o

=

o

x = - I - 7z { y=2+2z

x = - z + 2t { y = I + 2z - 2r

2y

sin solucio n.

b)

no;

(-1 - 7a, 2 + 2a, a)

c)

b) (-a + 2b, l +2a - 2b, a, b)

(!- 5bf2 - 2a, a, ! + b/2, b)

1.51. a) (2, I , - I );

c) sin soluci6n.

c) si, por el Teorema 1.8.

1.53. a ) dim W = 3; u 1 = ( - 3, I, 0. 0, 0), u 2 = (7, 0, - 3, I. 0), u 3 = (3, 0, - I, 0, 1). b) dim W = 2; u 1 = ( - 2, I, 0. 0, 0), u2 = (5, 0. -5, -3, 1).

I

1.54.

a)

b)

1.55.

a)

(~

0

3

-6

0

0

- 6

(~

3 - II 0

-2 10

01~

3

- 1

II

-5

0 0

0 0

1 0

3 - 13

0 0

0 0

(

2

- 1 . 2

0

y

5 - 15 0

~)

~~) 35

0

y

y

y

(~ (~

(~ (~ o

2

0

0

I

0

0

o

-rr

1

-w

0

0

-rr

l

- fi

0

0

~)

0

0

0

I I

.

0

,

0

0

0

0

0

0

r)

CAPITULO

2

Vectores en Rn y Cn. Vectores espacia les

2.1.

INTRODUCCION

En varias aplicaciones fisicas aparecen ciertas cantidades, tales como temperatura y rapidez (mod ulo de Ia velocidad), que poseen solo «magnitud». Estas pueden representa rse por numeros reales y se de nominan escalares. Por otra parte, tarobien existen cantidades, tales como fuerza y velocidad, que poseen tanto «magnitud» como «direcci6n». Estas p ueden representarse por flechas (que tienen longitudes y direcciones apropiadas y parten de algun punto de referenda dado, 0) y se denominan vectores. Comenzamos considerando las siguientes operaciones con vectores. i)

ii)

Sumo: La resultante u + v de dos vectores u y v se obtiene por Ia Hamada ley del paralelogramo; esto es, u + v es Ia diagonal del paralelogramo determinado por u y v, como se muestra en Ia Figura 2-l(a). Producto por un esca/ar: El producto ku de un numero real k por un vector u se obtiene multiplicando Ia magnitud de u por k y manteniendo Ia misma direcci6n si k ;;?:: 0, o Ia direcci6n opuesta si k < 0, tal y como se muestra en Ia Figura 2- l (b).

Suponemos que el lector esta fa miliarizado con Ia representaci6n de puntos en el plano mediante pares ordenados de numeros reales. Si se elige el origen de los ejes como el punta de referencia 0 mencio nado mas arriba, todo vector queda univocamente determinado por las coordenadas de su extrema. La relaci6n entre las operaciones anteriores y los extremos es Ia siguiente. i)

ii)

Suma: Si (a, b) y (c , d) son los extremos de los vectores u y v, entonces (a+ c, b +d) sera el extrema de u + v, como se muestra en Ia Figura 2-2(a). Producto por un escalar: Si (a, b) es el extremo del vector u, entonces (ka, kb) sera el del vector ku, como se rouestra en Ia Figura 2-2(b).

46

ALGEBRA LINEAL

0 (a)

(b)

Figura 2-1.

-

Matematicamente, identificamos el vector u con su extrema (a, b) y escribimos u = (a, b). Ademas llamamos al par ordenado de numeros reales (a, b) punta o vector, dependiendo de su interpretacion. Generalizando esta noci6n, llamaremos vector a una n-pla (a 1 , a 2 , ... , an) de numeros reales. En cualquier caso, puede utilizarse una notaci6n particular para los vectores espaciales en R3 (Secci6n 2.8). Presumimos al lector familiarizado con las propiedades elementales del cuerpo de los numeros reales que denotamos por R.

2.2. VECTORES EN Rn El conjunto de todas las n-plas de numeros reales, denotado por R", recibe el nombre de n-espacio. Una n-pla particular en R", digamos

se denomina punta o vector; los ~funeros reales u1 son las componentes (o coordenadas) del vector u. Ademas, a l discutir el espacio R", utilizamos el termino escalar para designar a los elementos de R.

(a + c, b +d)

(ka, kb)

(b)

(a)

Figura 2-2.

VECTORES EN Rn Yen. VECTORES ESPACIALES

47

Dos vectores u y v son iguales, escrito u = v, si tienen el mismo numero de componentes, es decir, pertenecen al mismo espacio, y si las componentes correspondientes son iguales. Los vectores (1, 2, 3) y (2, 3, 1) no son iguales, puesto que no lo son las componentes correspondientes. EJEMPLO 2.1 a) · Considerense los siguientes vectores

(0, I)

(1 , - 3) . (1 , 2,

.fi, 4)

( - 5,

1, 0,

rr)

Los dos primeros tienen dos componentes y por tanto son puntas en R2 ; los dos ullimos tienen cuatro componentes y por tanto son puntas en R4 . b)

Supongase (x-

y, x + y,

i - I) = (4, 2, 3). Entonces, por definicion de igualdad de vectores,

x- y=4 x + y=2 z- 1= 3 Resolviendo el sistema de ecuaciones anterior se obtiene x = 3. y = - I y z = 4.

A veces los vectores de un n-espacio se escriben como columnas en Iugar de como se hizo anteriormente, como filas. Ta les vectores se denomina n vectores columna. Por ejemplo,

U)

(

1,2)

- 35 28

son vecto res columna con 2, 2, 3 y 3 componentes, respectivamente.

2.3.

SUMA DE VECTORES Y PRODUCTO POR UN ESCALAR

Sean u y v vectores en Rn:

y La suma de u y v, escrito u + v, es el vector obtenido sumando las componentes correspondientes de estos:

El producto de un numero real k por el vector u, escrito ku, es el vector obtenido multiplicando cada componente de u por k: ku = (ku 1 , ku 2 , ... , kun) Observese que u

+v

y ku son tambien vectores en Rn. Definimos, ademas,

-u = - lu

y

u- v

= u + (-

v)

La suma de vectores con diferente numero de componentes no esta definida.

48

ALGEBRA LINEAL

Las propiedades basicas de los vectores de R" bajo las operaciones de suma vectorial y producto por un escalar se enuncian en el siguiente teorema (demostrado en el Problema 2.4). En el teorema, 0 = (0, 0, ... , 0), el vector nulo de R" (o vector cera).

Teorema 2.1: i) (u ii)

Para vectores arbitrarios u, v,

+ v) + w = u + (v + w)

u+O = u

+ (-u) = 0

iii)

u

iv)

u+v= v +u

w E Rn

y escalares arbitrarios k, k' E R,

+ v) = ku + k v + k')u = ku + k'u

v)

k(u

vi)

(k

vii) (kk')u = k(k'u) viii)

lu

=u

Supongamos que u y v son vectores en R" y que u = kv para algun escalar no nulo k E R. Entonces u se llama un mriltiplo de v. Se dice que u esta en Ia misma direccion que v si k > 0, y en Ia direcci6n opuesta si k < 0.

2.4. VECTORES Y ECUACIONES LINEALES Dos importantes conceptos relativos a vectores, las combinaciones lineales y Ia dependencia lineal, estan ·estrechamente relacionados con los sistemas de ecuaciones lineales, como se vera a continuaci6n.

COMBINACIONES LINEALES Consideremos un sistema inhomogeneo de m ecuaciones con n incognitas:

a 11 x1 + a12 x2 + · · · +

ahx.

= b1

a21 x 1 + a22 x 2 + · · · + a2 ,.x. = b 2 a, 1 x 1

+ a,2 x2 + ·· ·+a,,. X,=

b,..

Este sistema es equivalente a Ia siguiente ecuaci6n vectorial: 11

x1

a (a,....

a zt ) •

1

(a

12

a22 )

+ x 2 .• .

a,. 2

1

+ · .. +

1

(a. = (b...

az, x ,. .. ,.) a,,.

b2)

b,.

esto es, _la ecuaci6n vecto rial

donde u 1 , u2 , ••• , u., v son los vectores columna ante riores, respectivamente. Si el sistema en cuesti6n tiene una soluci6 n, se dice que v es una combinaci6n lineal de los vecto res u;. Establezcamos formalmente este importante concepto.

VECTORES EN Rn Yen VECTORES ESPACIALES

Definicion: Un vector v es una combinaci6n lineal de vectores u 1 , u 2 , k 1 , k 1 , ••. , k. tales que

••. ,

49

u. si existen escalares

esto es, si Ia ecuaci6n vectorial

tiene una solucion cuando los x ,. son escalares por determinar. La definicion anterior se aplica tanto a vectores columna como a vectores fila , a unque se haya ilustrado en terminos de vectores columna. EJEMPLO 2.2.

Sean

y

Entonces v es una combinaci6n lineal de u 1 ,

11 1

y u 3 ya que Ia ecuaci6n vectorial (o sistema)

2=x+y+z 3=x+y { -4 =X

0

tiene una soluci6n x = -4, y = 7, z = - I. En otras palabras,

DEPENDENCIA LINEAL Consideremos un sistema homogeneo de m ecuaciones con n incognitas:

a 21 x 1

+ a 12 x 2 + · · · + a1 ~x~ = 0 + a 22 x 2 + · · · + a 2 .x. = 0

a,.lxl

+ am2x2 + ... +

a 11 x 1

a'"~x.

=0

Este sistema es equivalente a Ia siguiente ecuacion vectorial: 11

x1

a (

a 21 ) ;

~~

+ x2

(a

12

a 22 ) :

~2

+ · ·· + x .

a 0 (atn) : = (0) ; 2•

a~

0

50

ALGEBRA LINEAL

esto es,

donde u 1 , u 2 , ... , un son los vectores columna anteriores, respectivamente. Si el sistema homogeneo anterio r tiene una solucion no nula, se dice que los vectores u I, Uz, ... ' un son linealmente dependientes. Por el contrario, si el sistema tiene solo Ia solucion nula, se dice que los vectores son linealmente independientes. Enunciemos formalmente este importante concepto.

Definicion: Los vectores u 1 , tl 2 , ... , un en R" sou linea/mente dependientes si existen escalares k 1 , k 2 , ... , k", no todos nulos, tales que

esto es, si Ia ecuacion vectorial

tiene una solucion no nula donde los xi son escalares por determinar. En caso contrario, se dice que los vecto res son linea/mente independientes. La definicion anterior se aplica tauto a vectores fila como a vectores columna, aunque se haya ilustrado en terminos de vectores columna. EJEMPLO 2.3 a)

La t'mica soluci6n de

X+ y + Z = 0 x+ y =0 { X =0

0

es Ia soluci6n nula x = 0, y = 0, z = 0. De aqui los tres vectores son linealmente independientes. b)

La ecuaci6 n vectoria l (o sistema de ecuaciones lineales)

X+ 2y + Z= 0 0

tiene una soluci6n no nula (3, -2, 1), esto es, x son linealmente dependientes.

{

= 3, y =

x - y- 5z = 0 x + 3y + 3z = 0

-2, z = I. De este modo, los tres vectores

2.5. PRODUCTO ESCALAR Sean u y v vectores de R": y

V

= (v 1 ,

V 2 , ... , Vn)

VECTORES EN Rn Y

en. VECTORES ESPACIALES

51

El producto escalar o interno de u y v, denotado por u · v, es el escalar obtenido multiplicando las componentes correspondientes de los vectores y sumando los productos resultantes:

Se dice que los vectores u y v son ortogonales (o perpendiculares) si su producto escalar es cero, esto es, si u · v = 0. EJEMPLO 2.4.

Sean u = ( 1, - 2, 3, - 4), v = (6, 7, I, -2) y w

= (5,

- 4, 5, 7). Entonces

+ (- 2) . 7 + 3 • l + (- 4) . (- 2) = 6 - 14 + 3 + 8 = 3 1 . 5 + (- 2) . ( - 4) + 3 . 5 + ( -4). 7 = 5 + 8 + 15- 28 = 0

u•v= 1•6 u. w =

Entonces u y w son ortogonales.

Las propiedades basicas del producto escalar en Rn (d~mostradas en el Problema 2.17) son las siguientes. Teorema 2.2: i)

ii)

Para vectores arbitrarios u, v,

(u + v) · w

= u·w+ v·w

(ku) · v = k(u · v)

wE R"

y cualquier escalar k E R,

v = v.u

iii)

U"

iv)

u. u ?: 0, y u. u = 0 si y solo si u

=0

Nota: El espacio Rn, con las operaciones anteriores de suma vectorial, producto por un escalar y producto interno, se suele Hamar n-espacio euclideo.

2.6.

NORMA DE UN VECTOR

Sea u = (u 1 , u2 , ... , un) un vector en R". La norma (o longitud) del vector u, escrito como Ia raiz cuadrada no negativa de u · u:

Hu ll = ~ =

1\uii, se define

J ui + u~ + ... + u;

Como u · u ~ 0, Ia raiz cuadrada existe. Ademas, si u # 0, entonces llull > 0; y 110 11 = 0. La definicion anterior de norma de un vector se ajusta a la de longitud de un vector (flecha) en geometria (euclidea). Concretamente, supongamos que u es un vector (flecha) en el plano R 2 con extremo P(a, b), como se indica en la Figura 2-3. E ntonces IaI y lbl son las lo ngitudes de los !ados del triangulo rectangulo determina do por u y las direcciones horizontal y vertical. Por el Teorema de Pitagoras, la longitud lui de u es

Este valor es. igual a la norma de u anteriormente definida.

52

ALGEBRA -LINEAL

P(a, b)

I I I l lbl

I I

Figura 2-3. EJEMPLO 2.5. Supongarnos u = (3, -1 2, - 4). Para hallar !lull, calculamos p rimero llu11 2 = u · u elcvando a l cuadrad o las componentes de u y sumimdolas:

Jlull 2 = 32 + (- 12)2 + ( - 4? = 9 + 144 + 16 = 169 Entonces !lull =

ji69 = 13.

U n vector u es unitario si llull cualquier vecto r no nulo, entonces

=

1 o, equivalentemente, si u · u = l. Ahora bien, s1 v es

1 v v=-v=A

ll vll

llvll

es un vector unitario en Ia misma direcci6n que v. (El proceso de hallar Por ejemplo,

v se lla ma normalizar v.)

5 ) v- -v - ( -2- --3- -8- -- -

- llvll -

Jl02' Ji02' jlo2' J1o2

es el vector unitario en Ia direcci6n del vector v = (2, -3, 8, - 5). Establecemos a hora una relaci6 n fundamental (demostrada en el Problema 2.22) conocida como desigualdad de Cauchy-Schwarz. Teorema 2.3 (Cauchy-Schwarz):

Para vectores cualesquiera tt, v en R", Ju · vi

~

llu ll II vii .

Utilizando Ia desigualdild anterior probaremos (Problema 2.33) el siguiente resultado, conocido como desigualdad triangular o de Minkowski. Teorema 2.4 (Minkowski):

Para vectores arbitrarios u, v en Rn,

llu + vii ~ llu ll + llvll .

DISTANCIA. ANGULOS. PROYECCIONES

Sean u = (u 1 , U 2 , ... , u.) y v = (v 1 , v2 , por d(u, v), se define como

... ,

v.) vectores en R ". La distancia entre u y v, denotada

VECTORES EN Rn Y en VECTORES ESPACIALES

53

Probamos que esta definicio n corresponde ala nocion usual de dista ncia euclidea en el plano R 2 . Consideremos u = (a, b) y v = (c, d) en R 2 . Como se muestra en Ia Figura 2-4, la distancia entre los puntos P(a, b) y Q(c, d) es

d=

Jca- c)

2

+ (b- d) 2

Por otra parte, utilizando Ia definicion anterior,

d(u,

v) = llu - vii = ll(a - c, b - d)ll = j(a -

c)2

+ (b

- d) 2

Ambas definiciones conducen al mismo valor.

..-/

P(a, b) I I I

- - -------,

I Q(c, d) I

I I

~Ia - cf--+1

0

Figura 2-4.

Usando Ia desigualdad de Cauchy-Schwarz podemos definir el ang ulo 0 entre dos vectores no nulos u, v en Rn segun

u·v cos () = Kotese que si u · v = 0, entonces 0 = 90° (o () previa de ortogonalidad. EJ EMPLO 2.6.

llull llvll

= n /2).

Esto esta de acuerdo con nuestra definicion

Supongamos u =(I , -2, 3) y v = (3, -5, - 7). Entonces d(u, v) =

jo-

w + (-2 + 5)

1

+ (3 + w = j 4 + 9 + 100 =jill

Para hallar cos 8, d onde 8 es el angulo entre u y v, calculamos primero u. v = 3 + 10 .;... 21 = -8

Uull 2

=

I

+4 +9 =

14

llvll 2

= 9

+ 25 + 49 =

83

En tal caso

u· v llull llvll

cos (} = -

-8

= - ---==-~

jl4j83

Sean u y v # 0 vectores en Rn. La proyeccion (vectorial) de u sabre v es el vector

u·v

proy (u, v) =

llvll2

v

54

ALGEBRA LINEAL

Probamos ahara que esta definicion se ajusta a Ia noci6n de proyeccion vectorial utilizada ec fisica. Consideremos los vectores u y v de Ia Figura 2-5. La proyecci6n (perpendicular) de sabre v es el vector u*, de magnitud

u. v

u. v

lu*l = lui cos e = l u l - - = 1u llv I . I vI Para obtener u* multiplicamos su magnitud por el vector unitario en Ia direcci6n v: v

u* = I u*l I vi

u. v = -2

Ivl

v

Esto concuerda con Ia definicion anterior de proy (u, v).

0

Figura 2-5. EJEMPLO 2.7.

Supongamos u = (l, -2, 3) y v = (2, 5, 4). Para encontrar proy (u, v), primero hallamos

u·v=2 - IO+ 12 = 4

y

Entonces

u.v 4 ( 8 20 16) ( 8 4 16) proy (u, v) = ll vll 2 v = 45 (2 , 5' 4) = 45' 45' 45 = 45 ' 9' 45



2.7. VECTORES LOCALIZADOS, HIPERPLANOS Y RECTAS EN Rn Esta secci6n distingue entre una n-pla P(a 1 , a 2 , •.. , an) = P(aJ vista como un pun to de Rn y una n-pla v = [c 1 , c2 , ... ,c.] vista como un vector (flecha) desde el origen 0 basta el punto C(c 1 , c 2 , ... , c"). Cualquier par de puntas P = (ai) y Q = (bi) en R" define el veccor localizado o segmento dirigido de P a Q, escrito PQ . Identificamos PQ con el vector

ya que PQ y v tienen Ia misma magnitud y direcci6n, tal y como se muestra en Ia Figura 2-6. Un hiperplano H en R" es el conjunto de puntas (x 1 , x 2 , ••• , x") que satisfacen una ecuaci6n lineal no degenerada

VECTORES EN Rn Yen. VECTORES ESPACIALES

55

Figura 2-6.

En particular, un hiperplano H en R 2 es una recta, y un hiperpla no Hen R 3 es un plano. El ·.ector u = [a 1 , a 2 , ... , an] ;f 0 recibe el no mbre de normal a H . El termino esta justificado por el hecho (Problema 2.33) de que cualquier segmento dirigido PQ, en el que P y Q pertenecen a H , es ortogonal al vector normal u. Esta propiedad, en el caso de R 3 , se muestra en Ia Figura 2-7.

Q

p

Figura 2-7.

u

La rectaL en R" que pasa po r.el punto P(a 1 , a 2 , ... ,an), en Ia direcci6n del vector no nulo ... , u.], esta constituida por los puntos X(x 1 , x 2 , ... , x .) que satisfacen

= [u 1 , u 2 ,

x1 = a1 X = P

+ tu . o {

+ u1t

x, ~ ~' ~ .~'.' x.- a.+ u.t

donde el parametro

t

toma todos los valores reales. (Yease Ia Figura 2-8.)

56

ALGEBRA LINEAL

Figura 2-8. EJEMPLO 2.8 a)

Consideremos el hiperplano H en R" que pasa por el punto P(l, 3, -4, 2) y es normal a! vector u = [4, -2, 5, 6]. Su ecuaci6n tiene Ia forma 4x - 2y

+ 5z + 6t =

k

Sustituyendo P en esta ecuacion obtenemos 4(1)- 2(3)

Asi 4x- 2y + 5z b)

+ 5( -4) + 6(2) =

+ 61 = -

k

4 - 6 - 20

0

+ 12 =

k

0

k

=

- 10

10 es Ia ecuaci6n de H.

Consideremos Ia rectaL en R4 que pasa por el punto P(l, 2, 3, -4), en 1a direcci6n de u = [5, 6, -7, 8]. Una representacion parametrica de L es Ia siguiente: x1

= 1 + 5t

x 2 = 2 + 6t x 3 = 3 -7t x 4 = -4 + 8t N6tese que t

=

0

(1

+ 5t, 2 + 6t, 3- 7t,

-4

+ 8t)

0 proporciona el punto _P en L.

CURVAS EN R"

Sea D un intervalo (finito o infinito) en la recta real R. Una funci6n continua F: D ~ R" es una curva en R". De este modo, a cada tED se le asigna el siguiente punto (vector) en R": F(t) = [F 1(t), Fit), ... , F .(t)]

Alm mas, Ia derivada de F(t) (si existe) proporciona el vector V(t) = dF(t)/dt = [dF 1 (t)/dt, dF 2 (t)fdt, . .. , dF.(t)/dt]

-VECTORES EN Rn Y

en. V ECTOR ES

ESPACIALES

57

que es tangente a Ia cu rva, y Ia normalizacion de V(t ) conduce a V(t) T(t) =

II V(t) ll

que es el vector unitario tangente a Ia curva. [Los vecto res unitarios se denotan a menudo en negrita. Vease Ia Seccion 2.8.] EJ EM PLO 2 .9 .

Consideremos Ia siguiente curva C en R 3 : F(t) = [sent, cos r, t]

Tomando Ia derivada de F(t) [o de cada componente de F(r)] se obtiene V(t) =(cos 1, - sent, I)

que es un vector tangente a Ia curva. Normalizamos V(t). Primero o btenemos 11 V(t)ll 2 = cos 2 t

+ sen 1 t + I = I + I =

Entonces [cos r

V(r)

T (t) = II V(t)ll

=

- sent

I

fi ' J2 ' fi

2

J

que es el vector unitario tangente a Ia curva.

2.8. VECTORES ESPACIALES. NOTACION ijk EN R 3 Los vectores en R 3 , denominados vectores espaciales, aparecen en numerosas aplicaciones, especialmente en fisica. De hecho, frecuentemente se utiliza una notaci6n especial para tales vectores, que es Ia que se da a continuaci6n:

= (I , 0, 0) j = (0, 1, 0) i

denota el vector unitario en Ia direcci6n x de nota el vector unitario en Ia direcci6n y

k = (0, 0, I) de nota el vector unitario en Ia direcci6n z En consecuencia, cualquier vector u = (a, h, c) en R 3 puede expresa rse de forma imica como sigue:

u

= (a, h, c) = ai + bj + ck

Como i, j, k son vectores unitarios y son mutuamente ortogonales, tenemos

i ·i

= I,

j · j = l,

k ·k = I

e

i·j = 0,

i·k = 0,

j·k

=

0

Las diversas operaciones vectoriales discutidas previamente pueden expresarse en Ia presente notaci6n como sigue. Supongamos u = a 1 i + a 2 j + a 3 k y v = h 1 i + b 2 j + b 3 k. Entonces

u

+ v=

+ btli + (a 2 + b2 )j + (a 3 + b 3 )k cu = ca1 i + ca2 j + ca3 k llull = (a,

donde c es un escalar.

u · v = a 1b1 .;;;:-;; =

+ a2 b 2 + a 3 b 3

J a~ + ai +a~

58

ALGEBRA LINEAL

Considerense los vectores u

EJ EM PLO 2.1 0. a)

Para hallar u

+ v sumamos

= 3i + 5j- 2k

y v = 4i- 3j

+ 7k.

las componentes correspondientes obteniendo

u + v = 7i + 2j + Sk b)

Para hallar 3u - 1v, primero multiplicamos los vectores por los escalares y despues los sumamos: 3u ·- 2t•

c)

=

(9i

+ 15j- 6k) + (- 8i + 6j- 14k) = 4i + 21j- 20k

Para hallar u · v multiplicamos las componentes correspondientes sumandolas despues:

u-v= 12-15-14= -17 d)

Para hallar llu[[ elevamos al cuadrado cada componente y despues las sumamos obteniendo lluf. Esto es. II

u 11 2 = 9 + 25

+4=

y por tanto

38

ll ull

=

.j38

PRODUCTO VECTORIAL

Existe una operaci6n especial para vectores u, v en R 3 , Hamada producto vectorial y denotada por u x v. Especificamente, supongamos

y Entonces

N6tese que u x v es un vector (de ahi su nombre). u x v tambien se denomina producto ex terno de u y v. En notaci6n de determinantes (Capitulo 7), con \:

~~ =

ad - be, el producto vectorial puede

expresarse tambien como sigue:

o, equivalentemente, j

k

Dos importantes propiedades del producto vectorial son las siguientes (vease el Problema 2.56): Teorema 2.5: i)

Sean u, v y w vectores en R 3 .

El vector

w =

u x v es ortogonal a u y a v.

VECTORES ·EN Rn Y en. VECTORES ESPACIALES

59

X

Figura 2-9.

ii) El valo r absolute del «producto triple» u · v x w representa el volumen del paralelepipedo determinado por los tres vectores (como se muestra en Ia Figura 2-9). EJEMPLO 2.11 a)

Supongamos u = 4i

+ 3j + 6k

u

X

(~ - 1, 5)

b)

v=

X

y v = 2i

+ 5j - 3k. Entonces

I! -~I -I ~

(3, 7, 6)

i

= (j-~

I !I

-~I j + ~

k = - 39i + 24j

+ 14k

~I· -I~ ~I·~~ -~1) = (-41, 3, 17)

(Aqui hallamos el producto vectorial sin utilizar Ia notaci6n ijk.) c)

Los productos vectoriales de i. j, k son los siguientes: i

X

j = k,

j

X

k = i,

k Xi = j

y

j X i= - k,

k

X

j = - i,

j X

k = - j

Dicho de otro modo, si vemos !a terna (i, j, k) como una permutaci6n ciclica, esto es, colocada sobre un circulo en el sentido contrario al de las agujas del reloj como en Ia Figura 2-10, entonces el producto de dos de los vectores en el sentido dado es el tercero, pero el producto de dos de ellos en el sentido contrario es el tercero con signo opuesto.

j

k

"-..__/ Figura 2-10.

60

ALGEBRA LIN EAL

i.9. NUMEROS COMPLEJOS El conjunto de los numeros complejos se denota por C. Formalmente, un numero complejo es un par ordenado (a, b) de numeros reales. La igualdad, suma y producto de numeros complejos se definen como sigue: siys6losi a= c y (a, b)+ (c, d)= (a+ c, b +d)

(a, b)=(c,d)

b=d

(a, b)(c, d)= (ac - bd, ad+ be)

Identificamos cada numero real a con el numero complejo (a, 0): a~(a,

0) ·

Esto es factible debido a que las operaciones de suma y producto de numeros reales se conservan bajo dicha correspondencia (a, 0)

+ (b,

0) = (a

+ b,

y

0)

(a, 0) (b, 0)

=

(ab , 0)

Asi vemos R como un subconjunto de C y reemplazamos (a, 0) por a cuando quiera que sea conveniente y posible. El numero complejo (0, 1}, denotado por i, tiene Ia importante propiedad de que

e =;;=co. t)(o, t) =

c-

t , o)

b)

y

= _,

0

i=J=l

Aun mas, utilizando el hecho de que (a, b)= (a, 0)

+ (0,

(0, b) = (b, 0)(0, l)

tenemos (a, b)= (a, 0)

=

+ (b, 0)(0,

1) = a+ bi

=

La notaci6n z = a + bi, donde a Re z y b Im z se denominan, respectivamente, las partes real e imaginaria del numero complejo z, es mas conveniente que (a, b). Por ejemplo, Ia suma y el producto de dos numeros complejos z = a + hi y w = c + di puede obtenerse simplemente utilizando las propiedades conmutativa y distributiva, adem as de i 2 = -: 1:

+ w = (a + bi) + (c + di) = a + c + bi + di = (a + c) + (b + d)i zw =(a + bi)(c + di) = ac + bci + adi + bdi 2 = (ac - bd) +(be + ad)i z

J=l

Advertencia: El uso anterior de Ia letra i para denotar no tiene, en ningun caso, relaci6n con Ia notaci6n vectorial i = ( l, 0. 0) introd)Jcida en Ia Secci6n 2.8. EI conjugado del numero complejo z

= (a,

b) = a+ bi se denota y define por

z = a + bi = a - bi

--

l VECTORES EN Rn Y

en

VECTORES ESPACIALES

61

Entonces zz =(a+ bi) (a~ bi) = a 1 - b 2 i 2 = a 2 + b 2 . Si, ademas, z #- 0, entonces el inverso z'- 1 de z y !a division de w por z vienen dados, respectivamente, por w z

~ =

y

donde

wE

wz- 1

C. Tambien definimos ~z

=

~

lz

y

w

~

z = w + ( -z)

Asi como los numeros reales pueden representarse por los puntos de una recta, los numeros complejos pueden representarse por los puntos del plano. Concretamente, el punto (a, b) del plano representani el numero complejo z = a + bi, es decir, el numero cuya parte ·real es a y cuya parte imaginaria es b. (Vease Ia Figura 2-11.) El valor absoluto de z, escrito izl, se define como Ia distancia de z a[ origen:

N6tese que lzl es igual a Ia norma del vector (a, b). Ademas, lzl =

b I I I

1;;:1

z

Fz.

=a+ bi

I

a

. Figura 2-11.

EJ EM PLO 2.12.

Considerense los vectonis z = 2 + 3i y w = 5 - 2i. Entonces z + w = (2 + 3i) + (5 - 2i) = 2 + 5 + 3i - 2i = 7 + i zw = (2 + 3i)(S- 2i) = 10 + lSi- 4i- 6i2 = 16 i = 2+~ = 2-~

w z

5 - 2i 2 + 3i

-=--·=

lzl =J4+9 =

y

+ lli

~=5-U=S+U

(5 - 2i)(2 - 3i) 4 - l9i 4 19 . =---=---r (2 + 3i)(2 - 3i) 13 13 13

Ji3

y

lwl

=

J25 + 4

=

}29

Nota: En el Apendice definimos Ia estructura algebraica denominada cuerpo. Es oportuno enfatizar que el conjunto C de los numeros complejos, con las operaciones de suma y producto anteriores, es un cuerpo.

62

ALGEBRA LINEAL

2.10.

VECTORES EN

en

El conjunto de todas las n-plas de numeros complejos, denotado por C", se llama n-espacio complejo. Tal como en el caso real, los elementos de C" se Haman puntos o vectores y los de C, escalares. La suma vectorial y el producto por un escalar en C" vienen dados por (z 1 , z 2 ,

••• ,

z,.) + (w 1, w2 , z(z 1, z 2 ,

•.• ,

... ,

w") = (z 1

zJ

+ w1 ,

= (zz 1, zz 2 ,

z2

+ w2 ,

.•• ,

.•. ,

z"

+ w,)

zzJ

donde z;, w;, z E C. EJEMPLO 2.13 a)

(2 + 3i, 4 - i, 3) + (3 - 2i, 5i, 4 - 6i) = (5 + i, 4 + 4i, 7 - 6i).

b)

2i(2

+ 3i, 4- i, 3) = ( -6 + 4i, 2 + 8i, 6i).

Ahora sean u y v vectores arbitrarios en C": Z;, W; E

C

El producto escalar o interno de u y v se define como sigue:

u. v = z 1wl

+ z2 w2 + ... + z,. w,

N6tese que esta definicion se reduce a la dada previamente en el caso real, puesto que w 1 = cuando w1 es real. La norma de u se define como

Observese que u · u y por tanto EJ EM PLO 2.14.

llull son reales

y positives cuando u =F 0 y 0 cuando u

w;

= 0.

Sean u = (2 + 3i, 4 - i, 2i) y v = (3 - 2i, 5, 4 - 6i). Entonces

u . v = (2 + 31)(3 - 2i) =

+ (4- i)(5) + (2i)(4 - 6i) = (2 + 3i)(3 + 2i) + (4 - i)(5) + (2i)(4 + 61) =

= l3i + 20- 5i- 12 + 8i = 8 + 16i u .u

= =

+ 3i)(2 + 31) + (4 (2 + 3i)(2 - 3i) + (4 -

(2

1)(4- l) + (2i)(2i) = i)(4

+ I} + (21)(- 2i) =

= 13+17+4=34

llull = .;;;:; = j34 El espacio C", con las operaciones anteriores de suma vectorial, producto por un escalar y producto escalar, se denomina n-espacio euc/ideo complejo. Nota: Si u · u estuviera definido por u · v = z 1 w 1 + ··· + zn wn, pod ria darse u · u = 0 incluso a pesar de ser u =F 0, como sucederia, por ejemplo, si fuera u = (1, i, 0). De hecho, u · u podria no ser siquiera real.

V ECTO RES EN Rn Y

en. V ECTO RES

ESPA CIALES

63

PROBLEMAS RESUELTOS

VECTORES EN R"

2.1.

Sean u = (2, - 7, 1), v

= ( - 3, 0, 4), w = (0, 5. - 8). Hallar a)

3u- 4v, b) 2u

+ 3v -

5w.

Primero efectua mos el prod ucto por los escalares y fuego Ia suma de vectores.

= 3(2,

-7, 1) - 4(- 3, 0, 4) = (6, - 21, 3) + (12, 0, -16) = (18, - 21, -13).

a)

3u - 4v

b)

2u + 3v - 5w = 2(2, - 7, I) + 3(-3, 0, 4)- 5(0, 5, -8) = = (4, - 14, 2) + ( -9, 0, 12) + (0, -25, 40) = = (4- 9 + 0, -14 + 0 - 25, 2 + 12 + 40) = (- 5, -39, 54).

2.2. Calcular:

Primero efectuamos el prod ucto por los escalares y luego Ia suma de vectores.

2.3.

Ha llar x e y si a) (x, 3) a)

= (2, x + y);

b) (4, y ) = x(2, 3).

Siendo iguales los dos vecto res, las componentes correspondientes son iguales entre si: x =2

3=x+y

Sustituimos x = 2 en Ia segunda ecuacion obteniendo y = I. Asi x = 2 e y = I. Multiplicamos por el escalar x para obtener (4, y) componentes correspondientes:

b)

4 = 2x

=

x(2, 3)

3x). lgualamos entre si las

y = 3x

Resolvemos ahora las ecuacio nes lineales para x e y: x

2.4.

= (2x,

=

2 e y = 6.

Probar el Teorema 2.1. Sean u1, v1 y w1 las componentes i-esimas de u, v y w, respectivamen te. i)

Por definicion. u1 + v1 es Ia componente i-esima de u + v y por tanto (u, + v;) + w1 es Ia de (u + v) + w. Por otra parte, v1 + w1 cs Ia compo nente i-esima de v + w y en consecuencia

64

ALGEBRA LINEAL

u; + (v1 + w;) es Ia de u + (v Ia ley asociativa, esto es, (u;

+ w).

Pero u;, v; y w; son numeros reales para los que se verifica

+ v;) + W; = u; + (v; + w;) + v) + w = u + (v + w)

De acuerdo con esto, (u son iguales. ii)

Aqui 0

= (0, 0, ... , 0); por u+0=

tanto. , ••. , u.) + (0, 0, ... , 0) = + 0, u 2 + 0, ... , u. + 0) = (u 1 ,

(u 1 , u 1

= (u 1

iii)

para i = 1, ... , n ya que sus componentes correspondientes

Dado que -u = -I (u 1 , u 2 ,

....

u.) = ( -u 1 , -u 2 ,

..• ,

u1 ,

.•• ,

u.) = u

-u.),

u+(-u)=(u 1,u1 , •.. ,u.) +( -u" -u1 , .•. , -u.) = = (u 1 - U 1 , u 2 - u1 , .. . , u.- u.) = (0, 0, ... , 0) = 0

iv)

Por definicion, u; + v; es Ia componente i-esima de u + v y vi+ ui es Ia de v + u. Pero u; y v; son numeros reales para los que se verifica Ia ley conmutativa, esto es, u1 +v; =vi+ u;

i = l , ... , n

Por tanto, u + v = v + u, puesto que sus componentes correspondientes son iguales. v)

Dado que u; + v; es Ia componente i-esima de u + v, k(u; + v;) es Ia de k(u + v). Como ku; y kv1 son las componentes i-esimas de ku y kv, respectivamente, ku; + kv; es Ia de ku + kv. Pero k, u; y V; son numeros reales. Por tanto, i = I, ... , n

Asi k(u vi)

+ v) =

ku

+ kv,

porque sus componentes correspondientes son iguales.

Observe.se que el primer signo mas se refiere a Ia suma de dos escalares k y k', mientras que el segundo se refiere a Ia suma de dos vectores ku y k'u. Por definicion, (k + k')u; es Ia componente i-esirna del vector (k + k' )u. Dado que ku; y k'u; son las componentes i-esirnas de ku y k' u, respectivamente, k11; + k' u; es Ia del vector ku + k'u. Pero k, k' y u; son numeros reales. Entonces

+ k')u; = ktt; + k'u; i = I , ... , n ku + k' u ya que sus componentes correspondicntes

(k

De este modo, (k vii)

+ k')u =

(kk' )u;

Por consiguiente, (kk')u viii)

son iguales.

Como k' u1 es Ia cornponente i-t!sima de k' u, k(k' u;) es Ia de k(k'u). Pero (kk' )u 1 es Ia componente i-esirna de (kk')u y, debido a que k, k' y u; son numeros reales,

J·u = l(u 1 , u 2 ,

. .. ,

=

=

k(k'tt;)

i = I , ... , n

k(k' u), puesto que s us componentes correspondientes son iguales.

u.) = {lu 1 , lu 2 ,

... ,

Iu. ) = (u 1 , u 2 ,

.. • ,

u.) = u.

VECTORES Y ECUACIONES LINEALES 2.5.

Convertir Ia siguiente ecuacion vectorial en un sistema de ecuaciones lineales equivalente y resolverlo:

VECTORES EN Rn Y

en. VECTORES

ESPACIALES

65

Multiplicamos los vectores de Ia d erecha por los escalares desconocidos y luego los su mamos:

(

x) + (2y) + (3z)

1) = ( 2x -6 5 h

2y ++ 3z) 2z

5y

x+ + 5y 2z = ( 2x

~

~

h+~+~

Igualamos entre si las componentes co rrespondientes de los vectores y reducimos el sistema a forma escalonada:

x + 2y + 3z = 2x + 5y + 2z = -6 3x + 8y + 3z = 5

x

x + 2y + 3z = y - 4z = -8

+ 2y + 3z = y- 4z = - 8

2y- 6z

=

2

2z =

18

El sistema es triangula r, y por sustituci6n hacia atni.s se o btiene Ia soluci6 n (mica: x = - 82, y = 28, z = 9.

2.6.

Escribir el vector v = (I , - 2, 5) como combinaci6n lineal de los vectores u 1 = (I, I, I), u 2 = (1 , 2, 3) y u 3 = (2, - 1, 1). Queremos expresa r venIa fo rma asi tenemos

~; =

x u1

+ yu2 + zu 3 ,

con x, y y z aun por detcrminar. Siendo

(P a ra fo rmar combinaciones lineales, resu lta mas convenient e escribir los vectores como columnas que como filas.) Igua la ndo las componentes correspondientes entre si obtenemos:

x + y + 2z = 1 X+ 2y- Z= - 2 X+ 3y + z= 5

0

x + y + 2z =

x+y.+2z= y- 3z = - 3 2y- z= 4

1 y- 3z = - 3 5z = 10

0

La soluci6 n U.nica del sistema en forma triangular es x = - 6, y = 3, z = 2; asi v = - 6u 1 + 3u 2

.2.7.

+ 2u3 •

Escribir el vector v=(2, 3, -5) como combinaci6n lineal de u1 = (1 , 2, -3), u2 =(2, - I, - 4) y u3 = (1, 7, -5). H allamos el sistema de ecuaciones equivale ntes y luego lo resolvemos. En primer Iugar tomamos:

(

1) + ~ - 2)1 + ~ 11) = (

2) 3 = x( 2 - 5 - 3

- 4

z)

x+ 2x - 2y y+ + 1z

-3x - 4y-5z

-5

Igualando entre si las comporientes correspondientes obtenemos

X+ 2y + Z = 2 2x - y + 1z = 3 -3x - 4y-5z =-5

2y

0

2

X+ + Z= - 5y +5z =-l 2y- 2z = 1

0

X+ 2y + Z = 2 - 5y+5z= - 1 0= 3

La tercera ecuaci6n, 0 = 3, indica que el sistem a no tiene soluci6n. Entonces v no puede escribirse como combinaci6n lineal de los vectores u 1 , u 2 y u 3 .

66 2.8.

ALGEBRA LINEAL

Determinar silos vectores u 1 = (1, 1, 1), u2 = (2, -1, 3) y u 3 = (1, -5, 3) son linealmente dependientes o Iinealmente independientes. Recuerdese que u 1 , u2 , u 3 son linealmente dependientes o linealmente independientes segun que Ia ecuaci6n vectorial x u 1 + yu 2 + zu 3 tenga o no una soluci6n no nula. Asi pues, para empezar igualamos una combinaci6n lineal de los vectores al vector nulo:

(i)

(00)0

=X

1 1

+

~ -J2) + (-5I) = (x + 2yy-+ 5zz) 3 3 x + 3y + 3z Z

X-

Igualamos las componentes correspondientes entre si y reducim os el sistema resultante a forma escalonada:

X+ 2y +

Z

x - · y- 5z

=

X+ 2y +

0

=0

0

Z

=

X+ 2y +

0

-3y -6z = O

Z = 0 y+2z=0

0

y + 2z = 0 x + 3y + 3z = 0 El sistema en forma escalonada tiene una variable libre; po r consiguiente, el sistema tiene una soluci6n no trivial. Siendo asi, los vectores originales son linealmente dependientes. (No necesitamos resolver el sistema para determinar Ia dependencia o independencia lineal; basta conocer si existe una soluci6n no nula.)

2.9.

Determinar silos vectores (1, - 2, - 3), (2, 3, - 1) y (3, 2, 1) son linealmente dependientes. lgualamos al vector cero una combinaci6n lineal (con coelicientes x , y, z) de los vectores:

2) + \3)2 ( 2xx ++ 32yy ++ 3z) 0 x( -21) + ~ 3 2z (0) 0 - 3 -1 I - 3x - y + z =

=

-

lgualamos las componentes correspondientes entre si y reducimos el sistema resultante a forma escalonada:

+ 2y + 3z = 0 + 3y _+ 2z = 0 -3x - y + z = 0

x

x

--2x

0

+ 2y + 3z = 0 7y + Sz = 0

x

+ 2y +

3z = 0

+ 2z = 0 5y + lOz = 0 ~1y + 8z = 0 o

y

x

+ 2y + 3z =

0

0

y+2z=0 -6z =- 0

El sistema homogeneo esta en forma triangular, sin variables libres; por tanto, solo tiene Ia soluci6n trivial. Asi que los vectores originales son linealmente independientes.

2.10.

Demostrar la siguiente afirmaci6n: n + 1 o mas vectores arbitrarios en Rn son linea lmente dependientes. Supongamos que u 1, u 1 ,

... ,

uq son vectores en R" con q > n. La ecuaci6n vectorial x 1 u 1 +x2 u 2

+ ··· +xquq = O

es equivalente a un sistema homog(meo de n ecuaciones con q > n incognitas. De acuerdo con el Teorema 1.9, este sistema tiene solucion no trivial. Consecuentemente, u 1 , u 2 , •• • , ttq son linealmente dependientes.

2.11.

Demostrar que cualquier conjunto de q vectores que contenga el vector cero es linealmente dependiente. Denotando los vectores por 0, u2 ,

11 3, ... , u9 tenemos I (0) + Ou2 + Ou 3 + · ·· + Ouq = 0.

·. VECTORES EN AnY

en VECTORES

ESPACIALES

67

PRODUCTOINTERNO.ORTOGONALIDAD 2.12. Calcular u · v, donde u = (1 , - 2, 3, -4) y v = (6, 7, 1, - 2). Multiplicamos las componentes correspondientes y sumamos: u . v = (1)(6) + ( - 2)(7) + (3)(1) + ( - 4)( - 2) = 3

2.13.

Sean u a)

=

(3, 2, 1), v = (5, -3, 4), w = (1, 6, -7). Hallar: a) (u + v) · w, b) u · w + v · w.

Primero calculamos u + v sumando las componentes correspondientes: u + v = (3 + 5, 2- 3, 1 + 4) = (8, -I, 5)

Luego calculamos (u + v) · w = (8)(1) + ( -1)(6) + (5)( -7) = 8 - 6 - 35 = -33 b)

2.14.

Primero hall amos u · w = 3 + 12 - 7 = 8 y u · w = 5 - 18 - 28 = -41. Entonces u · w + v · w = = 8 -41 = - 33. [Tal y como cabia esperar, por el Teorema 2.2 i), ambos valores son iguales.]

Sean u = (1, 2, 3, -4), v = (5, -6, 7, 8) y k

=

3. Hallar: a) k(u ·v), b) (ku)· v, c) u·(kv).

a ) Primero determinamos u · v = 5- 12 + 21 - 32 = -18. Entonces k(u · v) = 3( - 18) = -54. b) Primero determinamos ku = (3(1 ), 3(2), 3(3), 3( - 4)) = (3, 6, 9, -12). Entonces (ku) • v = (3)(5)

+ (6)(-

6)

+ (9)(7) +

( - 12)(8) = 15 - 36 + 63 - 96 = -54

c) Primero determinamos kv = ( 15, - 18, 21, 24). Entonces u • (kv) = (1)(15) + (2)( -18) + (3)(21)

2.15.

+ (-4)(24) = 15 - 36 + 63 - 96 = -54

Sean u = (5, 4, 1), v = (3, - 4, 1) y w = (1 , -2, 3). j,Que pares de dichos vectores son perpendicu1ares? Hallamos el producto escalar de cada pa r de vectores: u·v = l5-16+1 = 0

v •w

= 3 + 8 + 3 = 14

u·w=S-8+3 = 0

Por consiguiente, ta nto u y v como u y w son ortogonales, pero u y w no lo son.

2.16.

Determinar e1 valor de k para que los vectores u y v sean ortogonales, siendo u = (1, k, - 3) y v = (2, - 5, 4). Calculamos u · v, !o igualamos a 0 y resolvemos para k. u · v = - 2.

=

(1)(2) + (k) (- 5)

+ (- 3)(4) =

= 2 - 5k - 12 = 0 o - 5k - 10 = 0. Resolviendo, k 2.17. Demostrar e1 Teorema 2.2.

(u

+ v) • w = (u 1 + v 1 )w1 + (u 1 + v2)w 2 + · · · + (uft + v.)w~ = = U 1 W 1 + V 1 W 1 + Uz Wz + Vz Wz + · · · + U• w. + V• W• = = (u 1 w1 + u 2 w 1 + ··· + u.w.) + (v 1 w 1 + v 2 w 2 + ··· + v.w.) = = u·w+v·w

68

ALGEBRA LINEAL

ii) Como ku

= (ku 1 , (ku) •

iii)

U ' II= U 1 11 1

+

11

ku 2 ,

•. . ,

ku.),

= ku 1 11 1 + ku 2 v 2 + · · · + ku. v. = k(u 1 v 1 + u 2 v 2 + · · · + u. v.) = k(u • v)

U 2 11 2

+ •. . +

U" V"

=

V 1U 1

+

V 2 Uz

+ · .. +

V" U" =

V ' II .

iv) Como uf es no negativo para cada i, y dado que Ia suma de numeros reales no negativos es no nega tiva, u · u = ui +

Ademas, u. u = 0 si y solo si

U;

ui +

· · · + u;;::: 0

= 0 para todo i, esto es, si y solo si

II

= 0.

NORMA (LONGITUD) EN R"

2.18.

Hallar

ll w\1 si w = ( -3, 1, - 2, 4, - 5).

llwl\ 2 = (-W + 12 + ( - 2)2 + 42 + (-W = 9 +I + 4 + 16 + 25 = 55: de aqui ll wll = fl. 2.19.

Determina r el valor de k para que \lull

iiul\ 2 = 12 + 2.20.

e + ( -2)

2

+5 2 =

= fo,

donde u

e + 30. Ahora resolvemos k

2

= (1 , k,

-2, 5).

+ 30 = 39 y obtenemos k = 3, - 3.

Normalizar w = (4, -2, -3, 8). Primero hallamos ll w11 2 = w· w = 4 2 + ( -2)2 + ( -3)2 + 82 = 16 + 4 + 9 + 64 = 93. Dividimos cada componente de w por llwll = j93 obteniendo w ( 4 w--- - --2- --3- -8-) - llwll - fo' fo' fo' fo

2 .21 .

. N orma I1zar v --

!.)

(1 , 1 , 2 3 4 •

Notese que tanto v como cua lquiera de sus multiplos posJtJvos tendrim Ia misma forma normalizada. En tal caso, podemos multiplicar primero v por 12 para eliminar los denominadores: 12v = (6, 8, - 3). Entonces 1112vll 2 = 36 + 64

2.22.

+9 =

109

y

v=

..---...

1211

12v

= ll12vll =

(

6

8

-3 )

ji09' _Ji09 ' JW9

Demostrar el Teorema 2.3 (Cauchy-Schwarz). En su Iugar probaremos el siguiente resultado, mas potente: iu · vl::;;

I•

iu1v11::;; UuiJ IIvll. Para

i= 1

empezar, si u = 0 o v = 0. Ia desigualdad se reduce a 0 S: 0 S: 0 y es, por tanto. cierta. En consecuencia, solo necesitamos considerar el caso en el que u i' 0 y v i' 0, esto es, en el que llull i' 0 y llvll -# 0. Ademmo zu = (zz 1, zz 2 , (zu) • v= zz 1 w1

+ WzZz + ... + w. z. ... ,

= zlwl

+ Zz Wz + .. . + z.w. =

u. v

zz.),

+ zz 2 w2 + ··· + zz.w. = z(z 1 w 1 + z 2 w2 + ··· + z .w.)= z(u · v)

(Comparese con el Teorema 2.2, referente a vectores en R".) iii)

Metodo I.

Dado que zv

=

(zw 1 , zw 2 ,

... ,

zw.),

u • (zv) = z 1 zw, + z 2 zw 2 + · ·· + z.zw. = z 1 zw 1 + z 2 zw2 + · · · + z.iw. = =

Metodo 2.

Z(zl Wt

+ Zz Wz + .. . + z. wJ = z(u. v)

Utilizando i) y ii), u • (zv) = (zv) • u = z(v • u) = z(v • u) = z(u • v)

PROB LEMAS SUPLEMENTARIOS

VECTORES EN R" 2.71.

Sean u = (2, -I, 0, -3), v = ( I, - I, -1, 3), w = ( 1, 3. - 2, 2). Hallar: a) lu- 3v; b) 5u- 3v- 4w; c) - u + 2v - 2w; d) u·v, u· w y v ·w; e) llull. ll vll y Uwl! .

2.72.

Dcterminar x e y si: a) x (3, 2) = 2(y, -1 ); b) x(2, y) = y(l , -2).

2.73. Hallar d(u, v) y proy (11. v) cuando: a) u = (I. - 3), r; = (4, I); b) u = (2, -1 , 0, 1). v = (I. - I. 1.1).

82

ALGEBRA LINEAL

COMBINACIONES LINEALES. INDEPENDENCIA LINEAL 2.74.

Sean

Expresamos v como cornbinaci6 n lineal de u 1 ,

2.75.

112 •

u3 , donde

Determinar si los siguientes vectores u, v, w son linealmente independieotes y, en caso de no serlo. expresar uno de ellos como combinaci6n lineal de los otros. a)

u = (1, 0, 1), v = (1, 2, 3), w = (3, 2, 5) .

b)

u = (1 , 0, 1), v = (1, 1, 1), w = (0, 1, 1).

c)

u = (1, 2), v = (1, - 1), w = (2, 5).

d)

U

e)

u = (1, 0, 0, 1), v = (0, 1, 2, 1), w = (1, 2, 4, 3).

= (1, 0, 0, 1),

I'

= (0, 1, 2, 1), W = (1, 2, 3, 4) .

VECfORES LOCALIZADOS. HIPERPLANOS, RECTAS, CURVAS 2.76.

Encontrar el vector (localizado) v de a) P(2. 3, -7) a Q( l , - 6, - 5); b) P ( l , - 8, - 4. 6) a Q(3. -5, 2, -4).

2.77.

Hallar una ecuaci6n del hiperplano en R 3 que: a)

Pasa por (2, -7, I) yes normal a (3, 1, - II).

b) Contienc (1, -2, 2). (0. 1, 3) y (0, 2, -1). c) 2.78.

Contiene (1, - 5, 2) yes paralelo a 3x- 7y + 4== 5.

Encontrar una representaci6 n parametrica de Ia recta que: a)

Pasa por (7, - I, 8) en Ia direcci6n de (1, 3, - 5).

b)

Pasa por (1, 9, -4, 5) y (2, -3, 0, 4).

c)

Pasa por (4, - I, 9) yes perpendicular al plano 3x - 2y

+z =

18.

VECTORES ESPACIALES (EN R 3 ) . PLANOS, RECTAS, CURVAS Y SUPERFICIES EN R 3 2.79.

Hallar Ia ecuaci6n del plano H:

+ 5k, que

a)

Con normal N = 3i - 4j

b)

Paralelo a 4x - 3y + 2z = 11, que contiene el pun to P( 1, 2, - 3).

contiene el punta P(i, 2, - 3).

VECTORES EN Rn Y

2.80.

3x-4y-12z= II;

Hallar cos 8, siendo

a)

2.83.

(I

b)

2x - y - 2z

+ 2y- 6z = 4. 4x + 3y + 2z = I.

Determinar Ia ecuaci6n (parametrica) de Ia recta L: a)

Que pasa por el punto P(2, 5, - 3 ), en Ia direcci6n de v = 4i - 5j

b)

Que pasa por los puntos P(l, 2. -4) y Q(3, -7, 2).

c)

Perpendicular al plano 2x- 3y + 7z

=

Co nsiderese Ia siguiente curva, donde 0 ::; t ::; 5: t 3i- t2j

+ (2t-

3)k

a)

HaJJar F(t) cuando t = 2.

b)

Determinar los extremos de Ia curva.

c)

Encontrar el vector unitario T tangente a Ia curva cuando t = 2.

a)

2.87.

+ 7k.

4 y que contiene el punto P(l, -5, 7).

2.84. Considerese Ia curva F(r) =(cos t)i +(sen r)j

2.86.

7.

=

el angulo entre los pianos:

F(t) =

2.85.

83

3x- 2y- 4z = 5 y x

b) 2x + 5y - 4z = I y 2.82.

ESPACIALES

Encontrar un vector unitario u que sea normal al plano:

a) 2.81.

co VECTORES

+ tk.

DeteFminar el vector unitario T(t) tangente a Ia curva.

b)

Hallar el vector unitario N(t) normal a Ia curva normalizando U(t) = dT(t)/dt.

c)

Encontrar el vector unitario B(t) binormal a Ia curva utilizando B = T x N.

Considerese un m6vil B cuya posicion en el instante t viene dada por R(t) = r2 i [Entonces V(t) = dR(t)jdt denota Ia velocidad de B y A(t) = dV(t )/dt su aceleraci6n.] a)

Determinar Ia posicion de B cuando t

b)

Determinar Ia velocidad, v, de B cuando t

c)

Determinar Ia rapidez. s. de B cuando t = I.

d)

Determinar Ia aceleraci6n, a, de B cuando t = I.

+ t 3 j + 2tk.

= I. =

I.

Hallar el vector normal N y el plano tangente H a Ia superficie en el punto dado:

+ 3yz = 20 y punto P( I, 3, 2). + 3y2 - 5z2 = 16 y punto P(3, -2,

a)

Superficie x 2 y

b)

Superficie x 2

Dada z = f(x, y) = x 2

+ 2xy, encontrar el

l ).

vector normal N y el plano tangente H para x = 3, y = I.

PRODUCTO VECTORIAL El producto vectorial solo esta definido para vectores en R 3 . 2.88. Dados u = 3i- 4j d)

+ 2k, v = 2i + 5j- 3k,

w

= 4i + 7j + 2k.

Hallar: a) u x v, b) u x w, c) v x w,

V X U.

2.89. Hatlar un vector unitario w ortogonal a a) u v = 4i- 2j- k.

=

(1 , 2, 3) y v =(I, -I , 2); b) u

=

3i- j + 2k y

l

84 2.90.

ALGEBRA LINEAL

Demostrar las siguientes propiedades del producto vectorial: a)

uxv= - (vxu)

b)

u x u

c)

(ku ) x v = k(u x v) = u x (kv)

=

0 para todo vector

11

+ w) =

+ (u x w) + (w x u)

d)

u x (v

e)

(v + w) x u = (v x u)

f)

(u x v) x w = (u · w)v- (v · w)u

(u x v)

NUMEROS COMPLEJ OS 2.91. Simplilicar: a) (4 - 7i)(9

I

+ 2i);

9

+ 2i

h) (3 - 5i) 2 : c) - - .; d ) -- .; e) ( I - i) 3 . 4- 7l 3- 51 2

2.92.

2 -+ 3i : c) ; 15 S1mplificar: a) -I ; b ) 2i 7 - 31 ,

2.93.

Sean z = 2 - Si y w = 7 + 3i. Calcular: a) z + w; b) zw; c) zfw: d)::, 1;

2.94.

Sean z = 2

2.95.

Demostrar que a) Re z = 3(z

2.96.

Demostrar que zw = 0 implica z = 0 o w := 0.

VECTO RES EN 2.97.

,

I ) d) ( __ , 3- i

; 34 -

y w = 6 - 5i. Calcular: a) z(w; b) ::, 1:

+ z);

(u

e) lzl. JwJ.

c) Jzl, lwJ.

b) l m z = (z- ::)(2i.

en

Demostra r las siguientes afirmaciones: P a ra vectores a rbitrarios u. v, i)

2.98.

+i

;2 5

+ v) • w

= u•w

+ v • w;

ii) w • (u

+ v} = w • u + w

11• E

C":

• v.

Pro bar que Ia norma en C" satisface:

!lull

[N 1]

P a ra cualquier vector u.

[N 2 ]

Para cualquier vector

[N 3]

Para veclores cualesquie ra

2: 0: y

Jlull

=

0 si y solo si u = 0.

u y cualquier numero complejo z, ll:ull 11 y v, ll u + vii :;; !lull + II vii .

=

Jzlll ull.

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS 2.71.

2.72.

a) 2u-3v=(l,l,3,-15) h)

5u- 3v- 4w = (3, -14, 11, - 32)

c)

- u

a)

x

+ 2v -

= - I.

y

u. v = -6, u. w

d)

e) Jlull

=

= -7, v. w = 6

Ji4, llvl! = 2.}3, ll wll = 3.j2

2w = (-2, -7, 2, 5)

=

-!:

2.73. a) d = 5, proy (u, v) =

h)

X

(n. -0):

= 0, _v = 0 b)

d

0

X

= - 2,

_II

= J ll. proy (u.

= - 4. v)

= (~ . - ~ . 9 .if).

VECTORES EN Rn Y

2.74. u) v = (!)u 1 h)

v =u 2 +2u 3 .

c)

v = [(a - 2b + c)/ 2]u 1 +(a+ b - c)u2

2.75.

a) dependientes;

2.76.

u)

v = ( -1, -9, 2);

2.77.

a)

3x+ y -l1z = -12;

2.78.

u)

x

= 7 + t, y

h) x 1 c)

4

=

X

b)

-I

=

-

l3x + 4y

b)

+ 3y- 2:z =

a) 3x- 4y + 5z

2.80.

a)

u

2.81.

a)

23/(.j29 j4t);

2.82.

a)

X

b)

X=

=

2- 9t, Z = -4 + 6t.

c)

X

=

-5 -

2.83.

a)

8i - 4j + k;

2.84.

a)

b) 4x

4j- 12k)/ l3;

b)

b)

u

15/(fo

b)

= 2 + 4t, y = 5 - 5£, Z 1 + 2t, y = 1 + 2t, y

+z=

= -

)t, Z =

= (2i -

3x - 7y

c)

7;

+ 3t, z = 8- 5t . + 4t, x 4 = 5 1 - 2t, :Z = 9 + t .

= -20;

d ) independientes;

e) dependientes.

v = (2, 3, 6, - 10) .

2.79.

= (Ji -

a)/2]u 3 .

9 - 12t, x 3 = - 4

=

+ 3t, y =

+ [(c -

c) dependientes;

b) independientes;

1 + t, x 2

=

ESPACIALES

+ 3u 3 .

5u 1

-

en. V ECTORES

+ 4z =

46.

t.

16.

j - 2k)/3.

fo>.

3 + 7t. 7 + 7t.

- 3k y 125i - 25j + 7k;

T = (6i - 2j

c)

+ k)/ J4t.

= ( -sen t) i + (cos t)j + k)/.j2. N (t) = ( - cos t)i - (sen t)j. c) B(t) = (sen t)i - (cos t)j + k)/.j2. T (c)

b)

b)

2i+3j+2k;

c)

2.85.

a)

i + j+2k;

2.86.

a)

N = 6i + 7j + 9k, 6x + 7y + 9z = 45 .

h)

N

= 6i -

l2j - 10k, 3x - 6y - 5z

2.87.

N = 8i + 6j- k, 8x + 6y -. .z = 15 .

2.88.

a) 2i b)

+ 13j + 23k + 2j + 37k

-22i

2.89.

a) (7, 1, - 3)/ J59;

2.91.

a)

2.92. a)

50 - 55i; -

y;

b) b) (5

fo;

d)

2i + 6j.

= 16 .

c) 3li-16j-6k d)

- 2i - 13j - 23k

h) (Si

+

llj - 2k)jjl5o .

-16 - 30i ;

+ 27i)/ 58;

c) c)

(4

+ 7i)/65;

- i, i, -1 ;

d) d)

(4

(1

+ 3i)/ 2 ;

+ 3i)/50 .

e)

-2- 2i.

85

86 2.93.

2.94.

ALGEBRA LINEAL

a) b)

: -r w=9-2i :1\ = 29- 29i

.:)

: .•; = (-1 - 41 i)/58

a)

=,,. = (7 + 16i)/61;

d) e)

b)

z = 2 + 5i, w = 7 - 3i I z I = J29, I w I = J58

z=

2 - i,

w= 6 + 5i;

2.96. Si zw = 0, entonces lzwl = lzllwl = 101 = 0. De aqui Jzl = 0 o lwl = 0; y por tanto z = 0 o w = 0.

CAPITULO

3

Matrices

3.1.

INTRODUCCION

Las matrices ya se trataron en el Capitulo 1, y sus elementos se relacionaron con los coeficientes de sistemas de ecuaciones lineales. Aqui introduciremos nuevamente esas matrices y estudiaremos ciertas operaciones algebraicas definidas sobre elias. El material aqui expuesto esta destinado principalmente a! calculo. No obstante, tal y como ocurria con las ecuaciones lineales, el tratamiento abstracto presentado posteriormente nos ayudara a profundizar en Ia estructura de las matrices. Las entradas de nuestras matrices procederan de un cuerpo K arbitrario, pero fijo . (Vease el Apendice.) Los elementos de K reciben el nombre de escalares. No se perdera nada esencial si el lector supone que K es eJ cuerpo real, R, o el complejo, C. · Por ultimo, advertimos que los elementos de Rn o C" se representaran convenientemente por «vectores fila» o «vectores columna», que son casos particulates de matrices.

3.2.

MATRICES

Una matriz sobre un cuerpo K (o simplemente una matriz, si K viene dado implicitamente) es una tabla ordenada de escalares ail de Ia forma

(~:_:_ ::: : :::) .

. ..

a.., 1 a..,2

•••

La matriz ante rior se denota tam bien por (ail), i Las m n-plas horizontales

=

a...,

l , ... , m,j = I, ... , n, o simplemente por (a;J

87

88

ALGEBRA LINEAL

son las filas de Ia matriz, y las n m-plas verticales 12

11

.

a~~~ , (a~~~ ( )

a.,l

)

, : .. ,

(at.) ~~~

a,.2

a""'

son sus columnas. N6tese que el elemento aii• llamado entrada ij o componente ij, aparece en Ia fila i-esima y en Ia columna j-esima. Una matr1z con m filas y n columnas se denomina matriz m por n, o matriz m x n; el par de numeros (m, n) se llama su tama.no o forma. Las matrices se denotanin usualmente por letras mayusculas, A, B, ... , y los elementos del cuerpo K por minusculas, a, b, .... Dos matrices A y B son iguales, escrito A = B, si tienen Ia misma forma y si sus elementos correspondientes coinciden. Asi Ia igualdad de dos matrices m x n equivale a un sistema de mn igualdades, una por cada par de componentes. EJEMPLO 3.1 a)

La siguiente es una matriz 2 x 3:

(I -3 4)· 5

0

- 2

Sus filas son (1, - 3, 4) y (0, 5, - 2); sus columnas son b)

La aserci6n

(x +

y x-y

2 z+

z-

w) w

= (

G). (-D

y (

-~}

3 5 ) es equivalente al siguiente sistema de ecuaciones: 1 4

{

x+y=3 x-y=l 2z+w=5

z-w=4

La soluci6n del sistema es x = 2, y = I , z = 3, w = - 1.

Para referirse a una matriz con una sola fila se utiliza tambien Ia expresi6n vector fila; y para referirse a una con una columna, Ia expresi6n vector columna. En particular, un elemento del cuerpo K puede verse como una matriz I x I. Nota:

3.3. SUMA DE MATRICES Y PRODUCTO POR UN ESCALAR Sean A y B dos matrices con el mismo tamaiio (esto es, con el mismo numero de filas y de columnas), digamos dos matrices m x n:

A=(:::__::: . ••• ~::) a.,l

a,.2

. ..

alftft

y

MATRICES

La suma de A y B, escrito A de ambas:

+ B, es

89

Ia matriz obtenida sumando las entradas correspondientes

El producto de un escalar k por Ia matriz A , escrito k ·A o simplemente kA, es Ia matriz obtenida multiplicando cada entrada de A por k:

Observese que A

+B

y kA son matrices m x n tambien. Ademas definimos

- A= - l ·A

A- B =A+ ( - B)

y

La suma de matrices con tamanos diferentes no esta definida.

EJEM PLO 3.2. Sean A=

A+B= 3A =

2A -

G -2 3) -6

5

c

+3 4-7

c

·1

(- 37

3. (-

2)

3.5

-4 10

3·3)

3. (-6)

21

6) ( -9 -12 +

=

!).

0

-2 + 0 3 + 2) ( 5 + 1 -6+8 =

3·4

3B=G

yB-

Entonces

4

-3

(3

12

0

-3

-2

6 -6 15

D -1:)

-6) ( -7 - 24 = 29

-4 7

-3~)

La matriz m x n cuyas entradas son todas nulas se conoce como matriz cero y se denotani por 0,.,.• o simplemente por 0. Por ejemplo, Ia matriz cero 2 x 3 es

(00 00 0)0 La matriz cero es similar al escalar 0, y se utilizani el mismo simbolo para ambos. Para cualquier matriz A,

A+O = O+A= A Las propiedades basicas de las matrices, bajo las operaciones de suma matricial y producto por un escalar, se enuncian a continuaci6n.

90

ALGEBRA LINEA L

Teor~ma

3.1: Sea Vel conjunto de todas las matrices m x n sabre un cuerpo K. E n tal caso, para matrices arbitrarias A , B , Ce V y escalares cualesquiera k 1 , k 2 eK.

+ B) + C =

iii)

A+ ( - A)= 0

v) k 1(A + B) = k 1 A + k 1 B vi) (k 1 + k 2 )A = k 1 A + k 2 A vii) (k 1 k 2 )A = k 1(k 2 A)

iv)

A+B=B+A

viii)

i)

(A

ii)

A +O=A

A

+ (B + C)

1 ·A= A y OA = 0

Utilizando las propiedades vi) y vii) se puede ver tambien que A+ A

= 2A, A+ A+ A= 3A, . ..

Nota: Supongamos que los vectores en R" se representan por vectores fila (o vectores columna). es decir,

y Entonces, vistos como m atrices, la suma u

+v

y el producto ku son los siguientes:

y

ku =(kat> ka 2 ,

•. • ,

kaJ

Pero esto corresponde precisamente a Ia suma y el producto por un escalar, tal y como se delinieron en el Capitulo 2. Dicho de otro modo, las operaciones sabre matrices anteriores pueden verse como una generalizaci6n de las operaciones correspondientes introducidas en el Capitulo 2.

3.4. PRODUCTO DE MATRICES El producto de dos matrices A y B, escrito AB, es algo complicado. Por esta raz6n, comenzaremos con un caso particular. · El producto A· B de una matriz fila A = (a;) y una matriz c~lumna B = (b;), con· el mismo numero de elementos, se define como sigue:

(a,,

a,,, ,

a{:) ~

a,b, +a, b,

+ · · · +a.

b.~ .t:•

b,

N6tese que A· B es un escalar (o matriz I x 1). El producto A· B no esta definido si A y B tienen numeros diferentes de elementos. EJEMPLO 3 .3

(8,

-~. ~-~) ~

8. 3 +(-4) ·2 + 5

·(-1)~24-8-

h

11

Hacienda uso de Io anterior, definimos ahara el producto de matrices en general. Definicion: Supongamos que A = (ai) y B = (bu) son m atrices tales que el numero de columnas de A coincide con el numero de filas de B ; es decir, A es una matriz m x p y B una

MATRICES

91

mat riz p x n. Entonces el producto AB es Ia matriz m x n cuya entrada ij se obtiene multiplicand o Ia lila i-esima A 1 de A por Ia columna j -esima Bi de B:

Esto es, a11

alp

a;1

a,P

a ...

amp

bll

blj

blw

ell

c'" C;J

bpl

bpj . ...

b,..

c,J

c,~

p

donde c 1i = ail b 1i

+ a;2 b 2 i + ··· + a1PbPi =

l:

a;kbki"

k=l

Subrayamo~ el hecho de que el producto AB no esta definido si A es una matriz m x p y B una matriz q x n con p -1: q.

EJEMPLO 3.4 a)

b)

(r s)(a 1 t u bl

G~)(~ C0 2~x~3

a2 a3) = ca, + sb, b3

b2

ta 1 + ub 1

ra 2 + sb 2 ta 2 + ub 2

l)=C ·I +2·o 1·1+ 2·2) = C 3 ·1 + 4·0 3·1+4·2 3

2

2) 4

=c.

3)

ra 3 + sb ta 3 + ub3

1 + 1. 3 l· 2+ 1 · 4 )=e 0· 1+2 · 3 0·2+2·4 6

~~)

!)

EI ejemplo anterior muestra qu~ el producto de matrices no es conmutativo, es decir, los _ productos AB y BA de matrices no son necesariamente iguales. El producto de matrices satisface, sin embargo, las siguientes propiedades: Teorema 3.2:

i)

(AB)C = A(BC) (ley asociativa).

ii)

+ C) = AB + AC (ley distributiva por Ia izquierda). (B + C)A = BA + CA (ley distributiva por Ia derecha). k(AB) = (kA)B = A(kB), si k es un escalar.

iii) iv)

A(B

Se supone q ue las sumas y productos del teorema estan delinidos. Hacemos notar q ue OA = 0 y BO = 0, donde 0 es la matriz cero.

92

ALGEBRA LINEAL

3.5. TRASPUESTA DE UNA MATRIZ La traspuesta de una matriz A , denotada par AT, es Ia ma triz obtenida escribiendo las filas de A, por arden, como columnas:

. :: . :::)T = (::: . _::.:.... ·... ~:) (:.am1:_: . :::. amz . . . a,.,. aln az,. . . . a..,,. En otras palabras, si A = (a;) es una matriz m x n, entonces AT = (a~) es Ia matriz n x m con a ji para todos los valores de i y j. Ad viertase que Ia traspuesta de un vector fila es un vector columna y viceversa. La operaci6n de trasposicion definida sabre ma trices satisface las siguientes pro piedades:

a~ =

Teorema 3.3:

i) ii)

iii) iv)

(A

+ B)T =AT+ BT.

(A 1')1' = A.

(kA? =kAT (si k es un escalar). (ABf = BT AT.

Observamos en iv) qne Ia traspuesta de un producto es el producto de .las traspuestas, pero en arden inverso.

3.6. MATRICES Y SISTEMAS DE ECUACIONES LINEALES · Consideremos nuevamente un sistema de m ecuaciones lineales con n incognitas: a 11 x 1 a 21 x 1

+ a 11 x 2 + · · · + ahx,. = + anx2 + · · · + a 2,.x,. =

b1 b2

[3. 1]

El sistema es equivalente a Ia ecuaci6n matricial:

o simplemente

AX=B

donde A = (a;) es Ia Hamada matriz de los coeflcientes, X = (x) la columna de incognitas y B = (b;) Ia columna de constantes. La a firmacion de que son equivalentes significa que toda solucio n del sistema [3.1] es soluci6n de Ia ecuacion matricial. y viceversa.

MATRICES

93

La matriz ampliada del sistema [3.1] es Ia matriz:

(::: :::_.........:_::_. _::bj\ ..

a, 1

a.,2

•••

a,n

Esto es, Ia matriz ampliada del sistema AX = B consiste en Ia matriz A de coeficientes, seguida por Ia columna B de constantes. Observemos que el sistema [3.1] esta completamente determinado por su matriz ampliada. EJ EM PLO 3.5. A continuaci6n se dan, respectivamente, un sistema de ecuaciones lineales y su ecuaci6n matricial equivalente. 2x + 3y- 4z = 7 x- 2y- 5z = 3

y

(N6tese que el tamano de Ia columna de incognitas no es igual a t tamano de Ia columna de constantes.) -La matriz ampliada del sistema es

2 3 ( 1 -2

-4

73)

-5

AI estudiar ecuaciones lineales, suele ser mas sencillo emplear el lenguaje y Ia teoria de matrices, como sugieren los siguientes teoremas. Teorema 3.4: Supongamos que u 1 , u 2 , ••• , u" son soluciones de un sistema de ecuac\ones lineales homogeneo AX = 0. Entonces toda combinaci6n lineal de los u, de Ia forma k1 u 1 + k 2 u 2 + ··· + k"u", donde los k; son escala res, es tambien una soluci6n de AX= 0. En particular, todo multiplo ku de cualquier soluci6n u de AX= 0 es tambien soluci6n del sistema homogeneo.

Demostracion.

Se nos dice que Au 1

= 0, Au 2 = 0, . .. ,Au" = 0. P or consiguiente,

A(ku 1 + ku 2 + · · · + ku,J

= k 1 Au1 + k 2 Au2 + · · · + kn Au" = = k 10 + k 2 0 + · · · + k"O =

0

De acuerd o con ello, k1 u 1 + ··· + k"u" es una soluci6n del sistema homogeneo AX= 0. Teorema 3.5: La soluci6n genera.! de un sistema inhomogeneo AX = B puede obtenerse sumando el espacio soluci6n W del sistema homogeneo AX = 0 a una soluci6n particular v0 del sistema inhomogeneo. (Esto es, v0 + W es Ia soluci6n general de AX= B.)

Demostracion.

Sea w cualquier soluci6n de AX= 0. En tal caso, A(v0

Es decir, Ia suma v0

+ w) =

+ w es soluci6n

A(v0 )

+

A(w) = B

de AX = B.

+

0

=B

94

ALGEBRA LINEAL

Por otra parte, supongamos que v es cualquier solucion de AX = B (que puede ser distinta de v0 ). Entonces A(v - v0 ) = Av - Av0

=B-

B =0

Esto es, Ia diferencia v - v0 es soluci6n del sistema homogeneo AX

v = v0

= 0.

Pero

+ (v - v0 )

De este modo, cualquier solucion de AX = B puede obtenerse sumando una solucion de AX = 0 a Ia solucion particular v0 de AX = B. Teorema 3.6: Supongamos que el cuerpo K es infinite (por ejemplo, si K es el cuerpo real R o el complejo C). En tal caso, el sistema AX = B no tiene solucion, tiene una (mica soluci6n, o tiene infinitas. Demostraci6n. Basta probar que si AX = B tiene mas de una solucion, necesariamente tiene infinitas. Supongamos que u y v son soluciones distintas de AX = B; es decir, Au = B y Av =B. Entonces, para todo kEK,

A[u + k(u - v)]

= Au + k(Au -

Av) = B

+ k(B -

B)

=B

En otras palabras, para todo kEK, u + k(u- v) es soluci6n de AX= B. Dado que todas las soluciones tales son distintas (Problema 3.21), AX = B tiene un numero infinite de soluciones. como se pretendia.

3.7.

MATRICES POR BLOQUES

Utilizando un sistema de lineas (discontinuas) horizontales y verticales podemos partir una matriz A en otras mas pequenas llamadas bloques (o celdas) de A. La matriz A se denomina entonces una matriz por bloques. Obviamente, una matriz dada puede dividirse en bloques de diversas maneras; por ejemplo,

(~

-2 3

0 5

1

4

I

7 5

La conveniencia de Ia division en bloques reside en el hecho de que el resultado de las operaciones entre matrices por bloques puede obtenerse llevando a cabo el calculo con estos. como si rea lmente fueran los elementos de las matrices. Esto se ilustra a continuaci6n. Supongamos que A se ha partido en bloques; digamos

A

=

(~:: ~::.. ~::) .

A, 1

.•..

A.., 2

•••

A...,

.....

MATRICES

95

Multiplicar cada bloque par un escalar k equivale a hacerlo con cada elemento de A; asi

kA 12

kA 11

kA

=

.~~·2·1· ~~~~ ..

(

kA, 1

kA, 2

kA1oo)

~~~~

•• ••••• .•• •••

kA..,,.

Supongamos ahara que B es una matriz dividida en el mismo numero de bloques que A; digamos

B = (.:::

~::

B, 1 B,2

.. :·... :::) ...

B,..

Aun mas, supongamos que los bloques correspondientes de A y B tienen el mismo tamafio. Sumar dichos bloques equivale a hacerlo con los elementos correspondientes de A y B, de acuerdo con lo cual,

El caso del producto de matrices es menos obvio, pero aun cierto. Supongamos que dos matrices U y V se dividen en bloques como sigue

u=

(~:: ~:: ~::) ..

...••..

u,1 u,2

•••

y

u,p

de forma que el numero de columnas en cada bloque bloque Vkj· En tal caso,

uik

es igual a! numero de filas en cada

donde

W;1 = uitl-'1 1 + ui2 V21 + · · · + uip ~' La demostracion de Ia formula anterior es directa, aunque detallada y larga. Se deja como problema suplementario.

96

ALGEBRA LINEAL

/

PROBLEMAS RESUELTOS SUMA DE MATRICES Y PRODUCTO POR UN ESCALAR 3.1.

Calcular: a)

b)

2

A+ B para A=G

5

3A y -5A, donde· A=

!)

G -D· -I

y B =

G s -!)· -2

3

a) Sumamos los elementos correspondientes:

1+1 A+ B = ( 4 + 0 b)

Multiplicamos cada entrada por el escalar dado: 3

A

=

3 . 1 3 . (-2) (3·4 3·5

-5·1 -5A = ( - 5 •4

3.2.

2+(-l) 3+2) (2 1 51) 5+ 3 6 + ( - 5) = 4 8

Hallar 2A - 3B, don de A = (

3.3 ) 3 · ( -6)

-5·(-2) - 5 •5

~

=

( 3 12

- 6 15

9) - 18

- 5·3 ) ' ( -5 - 5 • ( - 6) - -20

3) yB - (-73. - 6

-2 5

10

-25

0

-15) 30

2)

8 .

Primero efectuamos los productos por los escalares y luego Ia suma de matrices:

2A-3B=G

~~ _ 1 ~)+(~~ -~ -~:)~(~~ -~ _ 3~)

(Adviertase que multiplicamos B por - 3 y despues suinamos, en Iugar de multiplicar B por 3 : restar. Esto suele evitar errores.)

3.3.

Hallar x, y, z y

. 3 (Xz y) = (-1 lw6) + (z +4w

w s1

X+

X

3

w

y). ·

Comenzamos escribiendo cada miembro como una sola matriz:

3y) ( X+ 4 (3X3z 3w z+ 1 =

w - ·

X+ y + 2w

+3

6)

lgualamos las entradas correspondientes entre si obteniendo el sistema de cuatro ecuaciones 3x = x + 4 3y =X+ y + 6 3z = z + w- 1 3w = 2w + 3

La solucion es: x

=

2. y = 4, z = I, w = 3.

0

2x = 2y = 2z = w=

4 6 +X

w- 1 3

MATRICES

3.4.

97

Demostrar el Teorema 3.1 v): Sean A y B dos matrices m x n y k un escalar. Entonces k(A

+ B) =

kA

+ kB.

Supongamos A = (a;i) y B = (bu)· En tal caso, a;i + bii es Ia entrada ij de A+ B, y por tanto k(a;j + b) es Ia de k(A + B). Por otra parte, ka,j y kbii son las entradas ij de kA y kB, respectivamente, y en consecuencia kau + kb;j es Ia de kA + kB. Pero k, a;i y b,i son escalares en un cuerpo, de donde para todos los i, j Asi k(A

+ B)

= kA

+ kB, ya que sus entradas correspondientes son iguales.

PRODUCTO DE MATRICES

3.5. Cakulac: a) (3, 8, -2, 4{-

~)·

(1, 8, 3, 4X6, I, -3, 5).

b)

a)

El producto no esta definido cuando las matrices fila y columna tienen numeros diferentes de elementos.

b)

El producto de dos matrices fila no esta definido.

3.6. Sean a)

A=(~

3)

-1

y B

=

(2

3

0

-2

-4) 6

. Hallar a) AB, b) BA.

Dado que A es 2 x 2 y B es 2 x 3, el producto AB esta definido y es una matriz 2 x 3. Para obtener las entradas en Ia primera fila de AB, rnultiplicamos Ia primera fila (1, 3) de A por las colurnnas

G), (-~)

y ( -:) de B, respectivamente:

0 -4)=(1·2+3·3 (2I - 3)(2 1 3 -2 6 =

1·0+3·(-2)

c

+ 9 0- 6 -4 + 18) =

1·( ---4)+3·6) =

c I

- 6

Para obtener las entradas en Ia segunda fila d e AB, rnultiplicamos Ia segunda fila (2, - 1) de A por las columnas de B, respectivarnente:

14 ) - 8- 6

· (II AB= 1

Asi b)

-6 2

14) -14

N6tese que B es 2 x 3 y A es 2 x 2. Como los nurneros interiores 3 y 2 no son iguales, el producto BA no esta definido.

3.7. Dadas A = (

~ ~) -

- 3

4 .

y B=

(~

-2 4

-5) 0.

, hallar a) AB, b) BA. '

98

ALGEBRA LINEAL

a)

Como A es 3 x 2 y B es 2 x 3, el producto A B esta definido y es una matriz 3 x 3. Pan obtener Ia primera fila de AB, multiplicamos .(a prime ra de A por cada columna de 8 : - 4- 4

Para obtener Ia segunda fila de A8, multiplicamos Ia segunda de A p or cada columna de 8:

P a ra o btener Ia tercera fila de AB, multiplicamos Ia tercera de A por cada columna de 8 :

( : -~)G -3

4

-~)

-2 4

Asi

b)

( -1 -8 -10) (-1 -tO) =

AB =

6=~6

-3; 12

15-:0

=

~

- 8 - 2 22

- S IS

(-1 -10) - 8 -2 22

~

-5

15

D ado que 8 es 2 x 3 y A es 3 x 2, el producto 8A esta definido yes una matriz 2 x 2. Para obtener su primera fila, multiplicamos Ia primera de B por cada columna de.A:

Para obte ne r su segunda fila, multiplicamos Ia segunda de B por cada columna d e A:

-21)

-3

Asi

8 A = ( 15

10

-21) - 3

Nota: Observese que en este problema tanto AB como BA estim definidos, pero no son iguales; de hecho, ni siquiera tienen la misma forma.

3.8.

Determinar AB, siendo 3

A=G - 2

8

=

(!

- I

0

3

- 5 -2

!)

MATRICES

99

Como A es 2 x 3 y B es 3 x 4, el producto esta definid o y es una matriz 2 x 4. Multiplicamos las filas de A por las columnas de B para llegar a: 4+3-4 AB- ( - 8 - 2 + 20

3.9.

- 2+9 - 1 0-15+2 - 4 - 6 + 5 0 + I0 - I0

12+3-2) ( 3 = 24 - 2 + 10 26

6 - 5

- 13 0

13)

32

Refinimonos at Problema 3.8. Suponiendo que solo Ia tercera columna del producto AB fuera de interes, {,como podria calcularse de fo rma independiente? Segun Ia regia del producto de matrices, Ia columna j-esima de un producto es igual al primer factor por el j·esimo vector col umna del segundo. Siendo asi, 2 (4

3 - 2

- 1)(5

~)

-2

+ 2 ) = ( - 13) 0+10 - 10 0

= ( 0 - 15

De forma similar, Ia fila i-esima de un producto es igual a l i-esimo vector fila del primer factor por el segundo factor.

3.10.

Sea A una matriz m x n, con m > I y n > I. Suponiendo que u y v sean vectores, discutir las condiciones bajo las cuales a) Au, b) vA esta definido. a)

El producto Au esta definido unicamente cuando u es un vector columna con n componentes, es d ~cir, una matriz n x I. En tal caso. Au es un vector columna con m componentes.

b)

El producto vA esta definido solo cuando v es un vector fila con m componentes, en cuyo caso vA es otro vector fila, con n componentes.

3.11. Calcular: a) ( _ a)

~}6

5) =

(2)(6) (2)( -4) (2)(5) ) (3)(6) (3)( -4) (3)(5) ( (-1)(6) (-1)(-4) (-1)(5)

=

( 12 18 -6

-8 -12 4

~~)

-5

El primer factor es I x 3 y el segund o 3 x I, de modo que el producto esta definido como una matriz 1 x 1, que escribimos frecuentemente como un escalar.

(6

3.12.

-.4

b) (6

El primer factor es 3 x I y el segundo I x 3, por lo que el producto esta definido como una matriz 3 x 3:

U}· -· b)

y

5)

- 4

-4

~-:)-

Demostrar el Teorema 3.2 i): (AB)C Sean A= (a;), B

= (bik) y sl.t

C

= (ck 1).

(12- 12- 5)- (-5)- _,

= A(BC).

Ademas, sean AB = S

= (s;k) y

.. L

= a 11 b1t + a12 blt + · · · + a 1.,.b..t =

a11 b./C

J= l w

t11 = b11 c 11 + b12 c.,

+ · ·· + b1.c.1 =

L b.~tct1 t=l

BC

=

T= (ti 1). Entonces

100

ALGEBRA LINEAL

Ahora, multiplicando S por C, esto es, AB por C, el elemento en Ia fila i-esima y en Ia columna 1-esima de Ia matriz (AB)C es

s11 c11 +s12 c11 +···+su.c.1 =

• •



Es c

11 11

L

=

L(a11 b11)c11

t=l J•l

· - ·

Por otra parte, multiplicando A por T, es decir, A por ·Be, el elemento en Ia lila i-esima y en Ia columna /-esima de Ia matriz A(BC) es

.

.

"'

L

autu+a,ltl,+···+a;.,.t..u = :Laijtj,= J• l

ra,jb;tCt,)

)= l · - ·

Siendo iguales las sumas anteriores, el teorema queda pro bado.

3.13.

Demostrar el Teorema 3.2 ii): A(B + C)=A B + AC. Sean A= (aiJ), B =(bid y C = (ci j. Las matrices triangulares superiores genericas de 6rdenes 2, 3 y 4 son, respectivamente, ell

C12

C13

C14)

Czz

C23

Cz4

C33

(

C34 C44

G.:uno con las matrices diagonales, es pnictica comun el omitir disposiciones de ceros.) Las matrices triangulares superiores tambieh forman un algebra de matrices. De hecho, -.:-:..;Rma 4.3:

:::=:.1:1ces

Supongamos que A = (aii) y B

=

(b,) son matrices triangulares supenores.

i) A + B es triangular superior, con diag (a 11 + b 11 , a 22 + b 22 , ... , a"" + b""). ii) kA es triangular superior, con diag (ka 11 , ka 2 2 , ... , ka""). AB es triangular superior, con diag (a 11 b 11 , a 12 b 22 , ... , annbnn). Para cualquier polinomio j(x), Ia matriz f(A) es triangular superior, con

A es invertible si y solo si cada elernento diagonal

a;; ::/:-

0.

112

ALGEBRA LINEAL

Analogamente, una matriz triangular inferior es una matriz cuadrada cuyas entradas sobre Ia diagonal principal son todas nulas, y un teorema analogo al 4.3 rige para tales matrices.

MATRICES SIMETRICAS Una matriz real es simetrica si AT= A. Equivalentemente, A= (a;i) es simetrica si los elementos simetricos (imagenes especulares respecto a Ia diagonal) son iguales, es decir, si cada aii = ait· (N6tese que A debe ser cuadrada para que pueda ser AT= A.) Una matriz real A es antisimetrica si AT= -A. Equivalentemente, una matriz A =(a;) es antisimetrica si cada aii = -a11 • Claramente, los elementos diagonales de una matriz antisimetrica deben ser nulos, ya que a;; = - a ;; implica ail = 0. EJ EM PLO 4.6.

Consideremos las siguientes matrices:

A=(-~ -! ~) 5

7

B=

-8

(-~ ~ -~) 4

-5

0

a) Por simple inspecci6n, vemos que los elementos simetricos de asi, A es simetrica. b)

0 0

~)

Ason iguales, o que AT= A. Siendo

Por inspecci6n, vemos que los elementos diagonales deB son 0 y que los elementos simetricos son · opuestos entre si. De este modo, B es antisimetrica.

c) Como C no es cuadrada, no es simetrica ni antisimetrica. Si A y B son matrices simetrica s, A necesariamente simetrica. Por ejemplo,

A

=GD

y B = (;

+B

y kA tambien to son. Sin embargo, AB no es

D

son simetricas, pero AB =

G:

~~) noes simetrica

Asi las matrices simetricas no forman un algebra de matrices. El siguiente teorema se demostrani en el Problema 4.29. Teorema 4.4: Si A es una matriz cuadrada, entonces i) A+ AT es simetrica; ii) A - AT es antisimetrica; iii) A = B + C para alguna matriz simetrica B y alguna antisimetrica C.

MATRICES ORTOGONALES Se dice que una matriz real A es ortogonal si AAT = AT A =I. Observemos que una matriz ortogonal A es necesariamente cuadrada e invertible, con inversa A - l = AT.

r MATRICES CUADRADAS. MATRICES ELEMENTALES

A~ (i -:8 -!4) . ~

EJEMPLO 4.7.

AAT~(i

S60

[£3 ]

(Adici6n de filas)

Sustituir Ia fila i-esima por ella misma mas k veces Ia j-esima:

MATRICES CUADRADAS. MATRICES ELEMENTALES

117

Cada una de las operaciones anteriores tiene una inversa del mismo tipo. De forma ·especifica (Problema 4.19): 1.

Ri ~ R; es su propia inversa.

2.

kR;-... R; y k- 1 R; ~ R; son inversas.

3.

kRi

+ R; ~ R; y

- kRi

+ R;-... R;

son inversas.

Recordemos tambien (Seccion 1.8) que se dice que una matriz B es equivalente por ji.las a otra A, escrito A ....... B, si B puede obtenerse de A mediante una sucesi6n finita de operaciones elementales entre filas. Dado que estas son invertibles, Ia equivalencia por filas es una relaci6n de equivalencia; es decir: a) A ....... A; b) si A ....... B, entonces B ....... A; c) si A ....... B y B ....... C, necesariamente A ....... C. Asimismo, establecemos de nuevo el siguiente resultado basico, relativo a Ia equivalencia por filas: Teorema 4.8: filas.

Toda matriz A es equivalente por filas a una {mica matriz en forma can6nica por

MATRICES ELEMENTALES Denotemos por e u na operaci6n elemental entre filas y por e(A) el resultado de efectuarla sobre una matr1z A. La matriz E obtenida efectuando e sobre Ia matriz identidad,

E = e(I) se llama Ia matriz elemental correspondiente a Ia operaci6n elemental entre filas e. EJEMPLO 4.11. Las matrices 3-cuadradas elementales correspondientes a las operaciones elementales entre filas R 2 ....., R 3 , - 6R 2 -> R 2 y -4R 1 + R 3 -+ R 3 son, respectivamente, 0 0

~)

0 l

0

El siguiente teorema, probado en el Problema 4.18, muestra Ia relaci6n fundamental entre las operaciones elementales entre filas y sus matrices elementales correspondientes. Teorema 4.9: Sean e una operaci6n elemental entre filas y E Ia matriz m-cuadrada elemental correspondiente, .es decir, E = e(lm). En tal caso, para cualquier matriz m x nA, e(A) =EA. Esto es, el resultado de efectuar una operaci6n elemental entre filas e sobre una matriz A puede obtenerse multiplicando por ·ra izquierda A por Ia matriz elemental correspondiente E. Ahora supongamos que e' es Ia inversa de una operaci6n elemental entre filas e. Sean E y E' las matrices correspondientes. Probaremos en el Problema 4.19 que E es invertible y que E' es su inversa. Esto quiere decir, en particular, que cualquier producto

de matrices elementales es no singular.

118

ALGEBRA LINEAL

Haciendo uso del Teorema 4.9 podemos, asimismo, demostrar (Problema 4.20) el resultado fundamental, referente a matrices invertibles, que sigue: Teorema 4.10:

Sea A una matriz cuadrada. Entonces son equivalentes las aserciones:

i)

A es invertible (no singular).

ii)

A es equivalente por filas a Ia matriz identidad I.

iii)

A es producto de matrices elementales.

Tambien utilizaremos el Teorema 4.9 para probar los que se enuncian a continuaci6n:

= A- 1 .

Teorema 4.11:

Si AB =I, necesariamente BA = I y por consiguiente B

Teorema 4.12: que B = PA.

B es equivalente por filas a A si y solo si existe una matriz no singular P tal

APLICACION AL CALCULO DE INVERSAS Supongamos que una matriz A es invertible y, digamos, es reducible por filas a la matriz identidad I mediante la sucesi6n de operaciones elementales e 1 , e 2 , ... , eq. Sea E; la matriz elemental correspondiente a la operaci6n ei. Segun el Teorema 4.9,

y

por Jo que

En otras palabras, A - I puede obtenerse efectuando las operaciones elementales entre filas e 1, e 1 , .... , eq sobre Ia matriz identidad I. La discusi6n anterior nos conduce al siguiente algoritmo (eliminaci6n gaussiana) que bien halla Ia inversa de una matriz n-cuadrada A, o bien determina que A no es invertible.

Algoritmo 4.9:

Inversa de una matriz A

Paso ]. Construir la matriz [por bloques) n x 2n M = (A i I); esto es, A esta en la mitad izquierda de M y Ia matriz identidad I en la derecha. Paso 2. Reducir por filas M a forma escalonada. Si el proceso genera una fila nula en Ia mitad A de M, terminar (A no es invertible). En caso contrario, Ia mitad A adoptani forma triangular. Paso 3. Mas aun, reducir M ala forma can6nica por filas (I i B), donde I ha reemplazado a A en Ia mitad izquierda de Ia matriz. Paso 4.

Tomar A - t =B.

119

MATRICES CUADRADAS. MATRICES ELEMENTALES

EJEMPLO 4 .12.

S"pong•mo• q"' q"'remoo enoont'" I• '"""" de A

~

~)

0 -1 1

(:

Pdmew

construimos Ia matriz por bloques M = (A! I) y Ia rcducimos a forma cscalonada:

M = ('2 -10 4

1

2 3 8

I

1 0 0

0 1 0

~)-(:

0 -1 1

2

I

I

:)- (:

0 1 0

1

-1 : -2 0 : -4

0

2

I

-1

-1

I

0

-1

0

-2

-6

1

:)

En forma escalonada, Ia mitad izquierda de M esta en forma triangular; por consiguiente, A cs invertible. A continuaci6n reducimos M a su forma can6nica por filas:

1 M- 0 (0

0 - 1

0

0: -11 2 2) (1 0 : I :

4 6

0 -1

-1 -1

0 I

0 0

0

0 -ll 2 2) I

0 1

1

- 4 6

0 -1

1 -1

La matriz identidad ocupa Ia mitad izquierda de Ia matriz final; de aqui, Ia m itad derecha es A de otro modo, A- 1 =

4.10.

1

.

Dicho

-11 2 2) ( -4 6

0

1

- 1

- 1

OPERACIONES ELEMENTALES ENTRE COLUMNAS. EQUIV ALENCIA DE MATRICES

Esta seccion repite parte de Ia discusion de Ia precedente, utilizando las columnas de una ma triz vez de sus filas. (La eleccion de utilizar primero las filas proviene del hecho de que las ~peraciones entre filas estfm fuertemente ligadas a las operaciones con ecuaciones lineales.) ~lostramos tambien Ia relacio n existente entre las operacio nes entre filas y columnas y sus ::aatrices elementales. Las operaciones e lementales entre columnas ~malogas a las operaciones elementales entre filas son las sig uientes:

~n

[F 1 ]

(Intercambio de columnas)

[F 2 ]

(Cambio de escala de columnas) nulo k:

lntercambiar las columnas i-esima y j -esima:

Multiplicar Ia columna i-esima por un escalar no

(k (F3 ]

(Adicion de colum nas) j -esima:

~

O)

Sustituir Ia columna i-esima por ella misma mas k veces Ia

120

ALGEBRA LINEAL

Cada una de las operaciones a nteriores tiene una inversa del mismo tipo, tal y como sucedia con las operaciones entre filas correspondientes. Denotemos por f una operaci6n elemental entre columnas. La matriz F , obtenida efectuando f sobre Ia matriz identidad I , es decir,

F = f(I) se conoce como Ia macriz elemental correspondiente a Ia operaci6n elemental entre columnas f. EJ EM PLO 4.13. Las matrices 3-cuad radas elementales correspondientes a las operaciones elementales . entre colu mnas C 3 ---> C 1 , -2C3 ..... C 3 y -5C2 + C3 ---> C 3 son, respectivamente,

0 0

~)

1)

0 1 -5 0 1

A Io largo de toda la discusi6n posterior, e y f denotanin, respectivamente, operaciones elementales entre fil as y columnas correspondientes y E y F sus matrices elementales asociadas. Lema 4.13:

Supongamos que A es cualquier matriz. Entonces

esto es, efectuar Ia operaci6n entre columnas f sabre una matriz A cond uce al mismo resultado que efectuar Ia operaci6n entre filas correspondientes e sabre A'~' y luego tamar la traspuesta. La demostraci6n del lema se obtiene directamente del hecho de que las columnas de A. son las filas de AT, y viceversa. El lema anterior muestra que

En o tras palabras, Corolario 4.14: F es la traspuesta de E. (De este modo, F es invertible porque E lo es.) Ademas, de acuerdo con ellema precedente.

lo que prueba el siguiente teorema (que es analogo a! Teorema 4.9 rela tivo a las operaciones elementales entre filas): Teorema 4.15:

Para cualquier matriz A , f(A) = AF.

Es decir, el resultado de efectuar una operaci6n elemental entre columnas f sabre una matriz A puede obtenerse multiplicando porIa derecha A par Ia matriz elemental correspondiente F. Se dice que una matriz B es equivalente por columnas a otra A si B puede obtenerse de A

MATRICES CUADRADAS. MATRICES ELEMENTALES

121

mediante una sucesion finita d~ operaciones elementales entre columnas. Usando el argumento ana.logo al dado para el Teorema 4.12 llegamos a!: Teorema 4.16: B es equivalente por columnas a A si y solo si existe una matriz no singular Q tal que B = AQ.

EQUIV ALENCIA DE MATRICES Se dice que una matriz B es equivalence a otra A si B puede obtenerse de A mediante una sucesion finita de operaciones elementales entre filas y columnas. Alternativamente (Problema 4.23), B es equivalente a A si existen matrices no singulares P y Q tales que B = PAQ. AI igual que Ia equivalencia por filas o por columnas, la equivalencia de matrices es una relacion de equivalencia. El principal resultado de esta subseccion, demostrado en el Problema 4.25, se en uncia a continuacion: Teorema 4.17:

Toda matriz m x n A es equivalente a una (mica matriz por bloques de Ia forma

donde I, es Ia. matriz identidad r x r. (El entero no negativo r se llama el rango de A.)

4.11.

MATRICES SIMETRICAS CONGRUENTES. LEY DE INERCIA

Se dice que una matriz B es congruente a otra A si existe una matriz no singular (invertible) P tal ql]e B

= pT AP

Por el Problema 4.123, Ia congruencia es nna relacion de equivalencia. Supongamos que A es simetrica, o sea, AT= A. En tal caso,

y por tanto B es simetrica tambien. Dado que las matrices diagonales son simetricas, se deduce que unicamente matrices simetricas son congruentes a matrices diagonales. El siguiente teorema juega un importante papel en el algebra lineaL

Teorema 4.18 (ley de inercia): Sea A una matriz real simetrica. Entonces existe una matriz no singular P tal que B = PrAP es diagonal. Aun mas, to das las matrices diagonales B que cumplan la condicion anterior tienen el mismo numero p de entradas positivas y el mismo numero n de entradas negativas. El rango y Ia signatura de Ia matriz anterior A se denotan y definen, respectivamente, por rango A= p + n

y

sig A= p - n

122

ALGEBRA LINEAL

Estos estim univocamente definidos, segun el Teorema 4.19. [La nocion de rango se define en realidad para cualquier matriz (Seccio n 5. 7), y Ia definicion precedente concuerda con Ia general.]

ALGORITMO DE DIAGONALIZACION El algoritmo expuesto a continuacion diagonaliza (bajo congruencia) una matriz real simetrica A= (a;)· Algoritmo 4.11:

Paso I.

Diagonalizacion bajo congruencia de una matriz simetrica

Construir Ia matriz [po r bloques] n x 2n M = (A i I); esto es, A es Ia mitad izquierda

de M y Ia matriz identidad I, Ia derecha.

Paso 2.

Examinar Ia entrada

a11 .

Caso I: a 11 # 0. Efectuar las operaciones entre filas - a; 1 R 1 + a 11 R; ~ R ;, i = 2, ... , n, y despues las operaciones entre columnas correspondientes - a; 1 C 1 + a 11 C; ~ C; para reducir Ia matriz M a Ia forma

0 B

.. I

..

:)

[I]

Caso II: a 11 = 0, pero a;;# 0 para algu n i > I. Efectuar Ia operacion entre filas R 1 - R, y luego Ia operacion entre columnas correspondientes C 1 +-+ C; para llevar a;; a Ia primera posicion diagonal. Esto reduce Ia matriz a Ia del Caso I. Caso III. Todas las entradas diagonales cumplen a;; = 0. Elegir i, j tales que aij # Q y efectuar Ia operacion entre filas Ri + R;....., R; junto a Ia operacion entre columnas correspondiente Ci + C; ~ C; para llevar 2a;i # 0 a Ia i-esima posicion diagonal. Con esto se reduce Ia matriz a Ia del Caso II. En cada uno de los casas reducimos finalmente M a Ia forma [I] en Ia que B es una matriz simetrica de orden menor que el de A. Nota: Las operaciones entre filas varianin las dos mitades de M, pero las operaciones entre columnas solo cambiaran s u mitad izquierda.

Paso 3. Repetir el Paso 2 con cada nueva matriz (despreciando las primeras fila y columna de Ia precedente) hasta que A este diagonalizada, esto es, hasta que M se transforme en una M ' = (D, Q). donde D es diagonal. Paso 4. Tomar P = Qr. Ento nces D

= pr AP.

La justificaci6n del algoritmo anterio r se da a continuaci6n. Sean e 1 , e2 , ... , ek todas las operaciones elementales entre filas en el algo ritmo y j 1, f 2 , ••• , fk las correspondientes operaciones elementales entre columnas. Supongamos que E; y F; son las matrices elementales asociadas. Segun el Corolario 4.14,

MATRICES CUADRADAS. MATRICES ELEMENTALES

123

Por el algoritmo anterior,

ya que Ia mitad derecha I de M solo es alterada por las operaciones entre filas. Por otra parte, Ia mitad izquierda A de M es transformada por las operaciones tanto entre filas como entre columnas; por consiguiente,

D = Ek ·· · E 2 E 1 AF 1 F 2 ••• Fk = = (Elt · · · E2 E 1 )A(Et · · · E2 E 1)T = QAQT = PTAP

EJEMPLO 4.14.

Supo,gamo• A

~ -~ (

=

=;),una mat

0 0

1

0

R 3 para (A i 1) y despues las mrrespondientes

(~

0 2

-2

~)

y Iuego

(:

I I

0

1

0 :-2

-5

0

+ C 3 --> C 3

- 2C 2

0 0

0

0 : 2 :-2 -1 1 3

+ R 3 ---+ R 3 y entonces Ia correspondiente

0 0

~)

y luego

~)

0

~4

7

I

0 1

-2

para obtener

~)

Se ha diagonalizado A. Tomemos

P~(: ~6tese

4.12.

que B ticne p

=

-2 1 0

-~)

B~ P'AP~(:

y entonces

2 entradas positivas y n

=

0 1 0

-~)

I entrada negativa.

FORMAS CUADRATICAS

Una forma cuadratica q en las variables x 1 , x 2 ,

... ,

q(xl, x2, ... , xn)

=

xn es un polinomio LC;jX;Xj i R 2 .

MATRICES CUAD RA DAS. MATRI CES ELEM ENTAL ES

(1 00)

f

Efectuamos las o peraciones sob re Ia ma triz iden tidad I 3 =

E1 =

4.18.

0 1 0) ( 1 0

0

0 0

1

~)

0

0

139

0

1

0

0

0 para obtener 1

E3 = (-~

-7

0

0

0

~)

Demostrar el Teorema 4.9. Sea R 1 Ia fila i-esima de A. lo que denotamos escribiend o A= ( R 1 , ••• , R,). Si B es una matriz pa ra Ia que AB esta delinida, se sigue directa mente de Ia definicio n de producto matricial que AB = (R 1 B, ... . RmB). To mamos adema s e1 = (0, ... , 0 , 1, 0, . . . , 0),

= i

Aqui " = i significa que I es Ia componente i-esima. Por el Problema 4.8 sabemos que e1 A Hacemos no ta r tam bien que 1 = (e 1 • ..• • e.. ) es Ia matriz identid ad. i)

=i y

Sea e Ia ope ra cion elemental entre lilas R 1 +-+ R i. Ento nces. para " E

R

= R1•

=j,

= e(I ) = (e 1 , ••• , e;, ... ,~...., e...)

y e(A) = (R 1,

••• ,

-" ~ R1 , ... , R 1 , ••• ,

R,J

De estc modo, ~

,.........,_

EA = (e 1A , . .. , e1 A, ... , e1 A , ... ,e., A) = (R 1,

ii)

~

............

•.• ,

R1 ,

.. . ,

R 1,

•• • ,

R..J = e(A)

Aho ra sea e Ia operacio n elemental entre filas kR1 - R1, k # 0 . En ta l caso , para " = i,

E = e(I) = (e 1,

/'..

••• ,

ke1 ,

•• • ,e.,)

/'..

y

e(A ) = (R" . . . , kR, .. . , R.,)

Asi /'..

EA = (e 1 A, ... , ke1 A , ... ,e.. A) = (R 1 ,

iii)

/'..

... ,

kR;. ... , R..J = e(A)

Finalmcnte, sea e Ia operacion elemental entre filas kR1

E = e(I) = (e 1,

• •• ,

~ •••• , e...)

Usando (ke1 + e1) A = k(ei A) EA

+ R1 --+ R 1•

Entonces, para "

= i,

y

+ e1 A + k Ri + R 1 tenemos

.......--......

...............

= (e 1A, .. . , (ke1 ~ e1)A, . .. , e., A) = (R ~o ... , kR1 + R 1 , • •• ,

R..J = e(A)

Po r tanto, el teorema queda dcmostrado. ~. 1 9.

Pro ba r las siguientes aserciones: a)

Cada una de las o peraciones elementales entre filas expuestas a continuaci6n tiene una operaci6 n inve rsa del mismo ti po. [£ t1

Intercambiar las filas i-esima y j -esima: R 1 +-+ R1.

140

ALGEBRA LINEAL

[£ 2 ]

Multiplicar Ia fila i-esima por un escala r no nulo k: kR;-+ R h k =I= 0.

(£3 ]

Sustituir la fila i-esima por ella misma mas k veces Ia j -esima: kRi

+ R;-+ R;.

b)

Toda matriz elemental E es invertible y su in versa es una matriz elemental.

a)

Se trata cada operaci6n por separado . I . Intercambiando dos veces el rnismo par de filas obtenemos Ia rnatriz o riginal; esto es. esta operacion es su propia inversa.

b)

2.

Multiplicando Ia fila i-esirna por k y despues p or k - 1 , o por k - 1 y luego por k , obtenemos Ia matriz original. En otras palabras, las operaciones kR;-> R , y k- 1 R; -> R 1 son inversas.

3.

Efectuando Ia operacion kRi + R 1 -> R 1 y a continuacion Ia - kRi + R; ..... R 1, o prirne ro Ia -kRi + R; ..... R; y despues Ia kRi + R; ...... R ., tendremos Ia matriz o riginal. Dicho de otro modo, las operaciones kRi + R 1 -> R; y - kRi + R; ...... R 1 son inversas.

Sea E Ia matriz elemental asociada a Ia operacion elemental entre filas e: e(/) = E. Sea e' Ia operacion inversa de e y £ ' su matriz elemental co rrespondiente. Entonccs

1 = e' (e(I)) = e'(£) = E' E

e

I

= e(e'(l)) = e(E') =

EE'

Por consiguientc, E' es Ia inversa de £.

4.20.

Demostra r el Teorema 4.1 0. Supongamos que A es invertible y equivalente por filas a una matriz B, en forma canonica por filas. En tal caso, existen matrices elemcntales £ 1 , £ 2 , ••• ,£,tales que E, :·· E2 E 1 A = B. Dado que tanto A como cada E; son invert ibles, nccesariamente lo es B. Pero si 8 f:. I, B tiene una fila nula y por ende no es inve rtible. En consecuencia, B = I y a) implica b). Si se verifica b) , existen matrices elementales £ 1 , £ 2 • ••• , E, tales que E, · ·· E 2 E 1 A =I y por tanto A = (E, · · · E2 E 1 ) - 1 = E ~ 1 £2 1 • · · E; 1 • Pero las E;- 1 son tambien matrices elernentales. De este modo, b) implica c). Si se cumple c), A = E 1 £ 2 · • • £, . Las E; son matrices invertibles; de aqui que tam bien lo sea su producto, A. Asi c) implica a). De acuerdo con ello, el teorema queda demostrado .

4.21.

Demostrar el Teorema 4.11. Supongamos que A no es invertible, de forma que no es equivalente por filas a Ia matriz identidad, sino que lo es a una matriz con una fila nula. Dicho de otro modo, existen matrices elementales £ 1 , ••• , E, tales que E, ··· E 2 E 1 A tiene una fila nula . P or consiguiente, E, ··· E 2 E 1 A B = = E, ··· £ 2 £ 1 , q ue es una matriz invertible, tiene a simismo una fila nula. Pero las matrices invertibles no pueden tener filas nulas; por tanto, A es invertible, con inversa A - 1 . Ademas, B

4.22.

= 1B = (r

1

A) 8

=

A- 1 (A B)

= A - 1I = A - 1

Demostrar el Teorema 4.12. SiB .~ A , ento nces 8 = e,( ... (e 2 (e 1 (A))) ... ) = E, ··· E 2 E 1 A = PA , donde P = E, ··· E 2 E 1 es no singul ar. Reciprocamente, supongamos que B = P A con P no singular. Segun el Teorema 4. 10, P es un producto de matrices elementales y en consecuencia 8 puede obtenerse a partir de A mediante una sucesi6n de operaciones elernentales entre filas, es decir, B ~ A. Queda asi probado el teorema.

4.23.

Probar que B es equivalente a A si y solo si existen m a trices invertibles P y Q tales que B = PAQ . Si 8 es equivalente a A, e nto nces B = E, ··· E 2 E 1 AF 1 F 2 ··· F, = PAQ, donde P = E, ··· E 2 E 1 y Q = F 1 F 2 ••• F, so n invertibles. El reciproco deriva del hecho de que cada paso es reversible.

MATRICES CUADRADAS. MATRICES ELEMENTAL ES

4.24.

141

Pro b a r que la equivalencia de matrices, escrita ::::: , es una relaci6n de equivalencia: a) A::::: A. b) Si A ::::: B, entonces B ::::: A. c) Si A ::::: 8 y B::::: C, entonces A :::::C. a)

A= /AI , donde I es no singular; de aqui A::::: A.

b)

Si A ;:::: B, necesariamente A = P BQ , siendo P y Q no singulares. En ese caso, B = P- 1 AQ - 1, do n de P - l y Q- 1 son no singulares. Po r consiguiente, B ~ A. Si A~ By B;:::: C, entonces A = PBQ y B = P'CQ' , donde P, Q, P', Q' son no singulares. En consecuencia,

c)

A= P(P'CQ')Q = (PP')C(QQ') siendo PP' y QQ' no singula res. De aqui se Jlega a A:::::: C.

4.25.

Demostrar el Teorema 4.17. La demostracion es constructiva, en forma dt; algoritmo.

Paso I.

Reducir A a forma canonica por filas, con entradas principales no nulas a 11 , a 2i,• ... , a,i,·

Paso 2.

lntercambiar C 2 y C1,. C 3 y Ci,· .... y C, y Cj,· Esto proporciona una matriz de Ia forma

B)

J,; d . . ·I ( -0- ,1- 0- , con entra as pnnc1pa es no nul as a 1 1> a 2 2 ,

.•. ,

a,.

Paso 3. Utilizar operacio nes entre columnas. con los a11 como pivotes, para sustituir cada ent rada de B por un cero: csto es. para i = I , 2, . .. , r

efectuar Ia operacion -biiC,

y

j = r

+

I, r + 2, ... , n

+ Ci --+ Cr 1

I 0). La matriz fin al tiene Ia forma deseada: ( -~-:0

TIPOS ESPECIALES DE MATRICES 4.26.

Encontrar una matriz triangular superior A tal que A3 = Tomemos A

=

(0x zy) . E ntonces A

z 3 = 27, por Io que z

Al =

=

Por tanto,

4.27.

19y

=

tiene Ia forma

*)

(x30

13

3. Seguidamente, calculamos A3 usando x

(2 yx2 0 3

3

y)

0 "3

-57, o y

=

(4

= -;- 3.

0

Sy) 9

y

Al =

(20

De acuerdo con esto, A =

2 (0

-57)·

(~ .

27

Asi x 3 = 8, por lo que x = 2;

=

yx4

3

0

- 33)·

Demostrar el Teorema 4.3 iii). Sea AB = (cii). Entonces

.

y

Cu

= Lark bu t=l

2 y z

=

3:

Sy) = (8 19y) 9

0

27

142

ALGEBRA LINEAL

Supongamos que i > j. En tal caso. para cua lquier k, es i > k o k > j, de modo que bien a;k = 0 o bien hki = 0. Siendo asi, c;i = 0 y AB es triangular superior. Supongamos ahora que i = j . Entonces. para k < i, a;k = 0; y para k > i. bk; = 0. Por consiguientc. C;; = aiib;;, como se pretendia.

4.28.

j,Que matrices son simultaneamente triangulares superiores e inferiores? Si A es tanto triangular s uperior como triangular inferior, 'toda entrada fuera de Ia diagonal principal debe scr nula. Por tanto. A es diagonal.

4.29.

Demostrar el Teorema 4.4. i)

(A+ A 1 Y

ii)

(A- A 1 ) 1 = A 1 -(A 1 l=A" - A=-(A-A 1 ).

iii)

Elegimos B

=

A 1 + (A 1 ) 1 =A'/' + A= A+ AT

= i(A + Ar) y C =1 - 1/Jf>

Demostrar el Teorema 4.7. Supongamos A=(;

~). Entonces AAT = (:

~)(~

ATA = (:

~)(:

c) (a ++ 2

d =

ac

1

b

ac + bd)

bd

c2

+ d2

Dado que AAr = Ar A , llegamos a

ac + bd = ab + cd

144

A LGEBRA LINEA L

La primera ecuacion conduce a b2 = c 2 ; por tanto, b = c o b

= c (que incluye e1

=

-c.

caso b = -c = 0). Obtenemos Ia matriz simetrica

A=(: :).

Caso i):

b

Caso ii):

b = - c ~ 0. Entonces ac + bd = b(d - a) y ah + cd = b(a- d). Asi b(d- a)= b(a- d) y por tanto 2b(d- a) = 0. Como b ;1: 0, obtenemos a = d. Asi A tiene Ia fo rma ·

que es Ia suma de una matriz escalar y una a ntisimetrica.

MATRICES COMPLEJAS 4.36.

Ia conjugada . . A = (2 +_i. 3 - 5i 4 + 8i) _ . D etermmar de la matnz 6 - 1 2 - 9i 5 + 6i Tomamos cl conjugado de cada elcmento (siendo a

(2 + i 3 - 5i 4 + Si) (2 - i 3 + 5i 4 - Si) 6 - i 2 - 9i 5 + 6i = 6 + i 2 + 9i 5 - 6i

_ A=

4.37.

=

..:F,

Ia traspuesta conjugada de A. Po r tanto, H _

A -

4.38.

2- 3i 5 + 8i) -4 3- 1i . ( -6 - i Si

Hallar A 11 cuando A = AH

+ bi = a - bi):

..

Escnbu A=

(2 - 3i

-4

-6 -

-----

5

+ Si 3 -

5i

7i

j) -_(2 + 3i 5 - Si

- 4 3 + 7i

-6 + -5i

i)

(2 + 6i 5+ 3i) en la forma A = B + C, donde B es hermitica y C anti9-i

4- 2i

hermitica. Comenzamos calculando AH =

(2- 6i 9++ i) 5 - 3i 4

A+AH= (

2i

4 14 +8 4i) 14 - 4i

H

A -A =

l2i

(

4

+ 2i

En consecuencia, las matrices requeridas son B =!(A

2

4.39.

+ AH) =

(

2

7-2i

7

+ 2i) 4

y

I c = -(A 2

AH)

= ( 6i . - 2 +. 2+I

-21

-4 +

-4i

2i)

i)

Definir un conjunto ortonormal de vectores en C" y demostrar el analogo complejo al Teorema 4.5:

Teorema: Sea A una matriz compleja. Las siguientes afirmaciones son equivalentes: a) A es unitaria. b) Las filas de A forman un conjunto ortonormal. c) Las columnas de A forman un conjunto ortonormal.

MATRICES CUADRADAS. MATRICES ELEMENTALES

Los vectores u 1 , u1 , . .. , u, de C" constituyen un conjunto ortonormal si u, ·ui = producto escalar en C" se define segun {a 1 ,

a2, ...

,a..)· (b 1 , b 2 ,

•..

,b..)= a 1 ~ + a 2 b2

oii,

145

don de cl

+ · · · + a.b.

y bij es Ia delta de Kronecker. [Vease Ejemplo 4.3 a).] Denotemos por R 1 , ... , R. las filas de A; entonces .R[, ... , R~· son las column as de A H. Sea AAH = (cij). De acuerdo con Ia definicion de producto matricial, cii = R,RJ' = R,· Ri. En ese caso. AA u = 1 si y solo si R, · R i = lo que se verifica si y solo si R 1 , R 2 , . .. , R. forman un conj unto ortonormal. Asia) y b) son equivalentes. De forma similar, A es unitaria si y solo si A 11 es unitaria, lo que se veri fica si y solo si las filas de A H son ortonormales. para lo que es necesario y suficiente que lo sean las conjugadas de las columnas de A, lo que se da, finalmente, si y solo si las columnas de A son ortonormales. De este modo, a) y c) son equivalentes y queda probado el teorema.

o,i,

4.40.

Mostrar que A

=

l· .l. 2 - 31 (

-fi

)I 2·

_ 1 _ li 3

.

)

.

es umtana.

3

Las filas constituyen un conjunto ortonormal:

(j - ji, ji) . ( t

- ji, ji) = (~ + ~) + &= 1 H - ti, ji) · 0 para todo vector no nulo Yen R", de modo que a) implica b). Reciprocamente, supongamos ak < 0. Sea ek = (0, ... , I, .. . , 0) el vector cuyas entradas son todas 0 exceptuando un 1 en Ia k-esima posicion. En tal caso, q(ek) = ak < 0 para ek '# 0. Asi b) implica a). De acuerdo con esto, a) y b) son equivalentes.

SIMILARIDAD DE MATRICES 4.61.

Considerese el plano R 2 con los ejes usuales x e y. La matriz 2 x 2 no singular

P=(_;

D

determina un nuevo sistema de coordenadas en el plano, digamos con ejes s y t. (Vease Ejemplo 4.16.)

a)

Trazar los nuevos ejes s y r en el pla no R 2 •

b)

Hallar las coordenadas de Q( 1, 5) en el nuevo sistema.

152

ALGEBRA LINEAL y

4

s

Figura 4-2. a)

Trazamos el eje s en Ia direccion de Ia primera columna u 1 = {1, -J)T de P con unidad de longitud igual a Ia longitud de u 1 • De forma similar, trazamos el eje t en Ia direccion de Ia segunda columna u2 = (3, 2)T de P con unidad de longitud igual a Ia lo ngitud de u2 . Vease Ia Figura 4-2.

b)

Encontramos

p-I =(! -;)

usando, por ejemplo, Ia formula para Ia inversa-de una ma-

triz 2 x 2. Luego m ultiplicamos eJ vector (columna) de coordenadas de Q por P- 1 :

Asi Q'(-.If,

4.62.

Definase f: R 2

1) representa Q en el -+



nuevo sistema

R 2 segun f(x , y) = (2x - 5y, 3x

f

+ 4y).

a)

Utilizando X = (x, y)r, escribir tal que f(X) = AX.

b)

Refiriendose a los nuevos ejes coordenados s y t de R 2 introducidos en el Problema 4.61 y usando Y = (s, t)T, hallar f(s , t) encontrando primero la matriz B tal que f(Y) = BY.

a)

Aqui

b)

Calculamos B =p-I AP

1(:) G -5)(x) (!

Asi f(s, t)

=

y ; por consiguiente, A

4

= (l'fs- ¥-c.

en uotaci6n matricial, esto es, hallar la matriz A

=

~s

+ .1ft).

=

(2

3

-~). E ntonces

MATRICES CUADR ADAS. M ATR ICES ELEM ENTALES ·

4.63.

153

Considerese el espacio R 3 con los ejes x, y, z usuales. La matriz 3 x 3 no singular

P~H -~

-;)

determina un nuevo sistema de coordenadas para R\ digamos con ejes r, s, 1. [Aiternativamente, P define Ia sustituci6 n lineal X= PY, donde X = (x, y, z)r e Y = (r, s, tf.] Hallar las coordenadas del punto Q(l, 2, 3) en el nuevo sistema . Empezamos calculando P forma can6 nica por lilas:

M ~H

1

Construimos Ia mat riz por bloques M = (P i I) y Ia reducimos a



-2 2 - 5 2 3

-(~ -(~

I

l

0

0 0

l

-2 II 1 -2 : 2 I 0 l I I

0

0 II -9 01I 4

-7

I

0

1 :

-7

-~)

3

0

~)-(~ ~)- (~

0

3

1

3

-2:

2

I

3: - 1

0

I

0 0

2 3

0

1

- I

3

~) :) -

0

- 2: I I

3 4

I

~:)

De acuerdo con esto,

p-1 =

(-9

~

3 1

Siendo asi, Q'(

4.64.

-47.

-7 y

3

-4)(1) (-47) 2

2 =

1

3

16 6

16, 6) representa Q en el nuevo sistema.

Definase f: R 3 --+ R 3 segun f(x, y, z)

= (x + 2y -

3z, 2x + z, x - 3y + z)

• y sea P Ia matriz no singular de cambio de variables del Problema 4.63. [De este modo, X = PY, siendo X = (x, y, z)T e Y = (r, s, tf.] E ncontra r: a) Ia matriz A tal que f(X) =AX, b) Ia matriz B tal que f(Y) =B Y, c) f(r, s, £). a)

Los coelicientcs de x, y y : proporcio nan Ia matriz A:

{)~(i b)

2 0

- 3

-:)(;)

y po r tanto

A ~(:

2 0

-3

-:)

B es similar a A con respecto a P, esto es,

-~~ -~~) 15

-11

154

ALGEBRA LINEAL c)

Utilizamos Ia matriz B para llegar a

f(r, s, t) = (r- 19s + 58t, r

4.65.

12s - 27t, 5r + l5s- llt)

+

Sup6ngase que B es similar a A. Mostrar que tr B

= tr A.

Siendo B similar a A, existe una matriz no singular P tal que B rema 4.1, tr 8

=

p - t AP. Utilizando el Teo-

tr p - 1 AP = tr PP- 1 A = tr A

=

FACTORIZACION LV

4.66.

~

=(

Encontrar Ia factorizaci6n LU de A

3

5 -2

-3

Reducimos A a forma triangular por medio de las operaciones - 2R 1 + R 2 ->R 2 y 3R, + R 3 -+ R 3 :

+ R 3 ->R 3

y luego 7R 2

1 A- 0 (

.

0

3 -1 7

2) (1 3

2 13

0 0

-1 0

Empleamos los opuestos de los multiplicadores -2, 3 y 7 de las operaciones entre filas precedentes para construir Ia matriz L, y Ia forma triangular de A para conseguir Ia matriz U: esto es,

L=( -3~

~)

0

1

-7

y

1

3

U= 0

-1

(0

0

(Como comprobaci6n, multipliquense L y U para verificar que A

4.67.

=

LU.)

Hallar Ia factorizaci6n LDU de Ia matriz A del Problema 4.66. La factorizaci6n A = LDU sc refiere a Ia situacion en Ia que L cs una matriz triangular inferior con unos en Ia diagonal (como en Ia factorizad6n LU de A), D una matriz diagonal y U una matriz triangular superior con unos en Ia diagonal. De este mod o, bastara sacar com o factores las entradas diagonales de Ia matriz U en Ia factorizaci6n LU anterior para obtener las matrices D y U. Por consiguiente,

L~( 4.68.

:

-3

0 1

-7

;)

Hallar Ia ractorizaci6n L U de B

D~(~ ~ ~ (

-5

0 -1

0

4 8

-9

~)

-/,

-3)

1 .

7

u~(~

3 1

0

-~)

MATRICES CUADRADAS. MAT RICES ELEMENTA LES

Red ucimos B a fo rma triangular efectuand o primero las operacioncs - 2R 1 5R 1 + R 3 --+ R 3 :

155

+ R 2 --+ R 2

y

4-3) 0

7

11 -8 Obscrvese que Ia segunda entrada diagonal es 0. Siendo asi, B no podni llevarse a forma triangular sin operaciones de intercambio de filas. Dicho de otro modo. B no es factorizablc L V.

4.69.

Enconuar Ia factorizaci6n LU de

A ~ (f

~)

2 -3 3 -8 3 8

1 -I

por un mttodo directo.

13

Comenzamos por construir las siguientes matrices L y V:

0

L+' La

p~rte

131

Ill

/41

l.n

0 0 0 l 0 1,3 1

")

V=

y

r~·

uu uu u22 un 0 u3J 0 0

0 0

"") Uz•

U34

u,.

del producto L V que determina Ia primera fila de A conduce a las cuatro ecuaciones

u13 = -3 y Ia que determina Ia primera columna a las ecuaciones 0

Llegando a este punto, las matrices L y V presentan Ia fo rma

L~(i

0 0

0 0

132 142

143

~)

U

y

=

("

-3 Uz3

0 Uzz 0 0 0 0

U33

0

.:.) U34 U44

La parte del producto LV que determina el resto de las entradas en Ia segunda fila de A proporciona las ecuaciones 0

4 + u21 Uzz

= 3 = -1

- 6 + u23 = -8 Uz3

8 + u 24 =

= -2

U 24

5

= -3

y Ia que determina el resto de las entradas de Ia segunda columna nos !leva a

2 + l32 u22 = 3,

6 + 142 Uzz = 8

0

131 =-1,

142

= -2

De este modo, L y V tiencn ahora Ia forma

L~(i

0 1

0 0

-1

-2

l.,

;)

y

u~(~

2 -1

0 0

-3 -2 u33 0

4)

-3

u34

U44

156

ALGEBRA LINEAL

Continuando con Ia tercera fila, tercera columna y cuarta fila de A obtenemos t/33

= 2,

despues

t/34 = - 1,

/43

= 2,

y, por ultimo,

t/44

=3

Asi

L~(i 4.70.

0

0

1

0

-1

1

-2

2

~)

-3

_;)

- ( 0 . -12 -2 u- 0 0 2 - 1 0 3 0 0

y

Hallar Ia factorizaci6n LDU de Ia matriz A del Problema 4.69. Aqui U debe tener unos en Ia diagonal y D ser una matriz diagonal. Asi, usando Ia factorizaci6n LU precedente, sacamos como factores las entradas diagonales de aquella U llegando a

D{

-1 2

J

u{

y

2

-3 2

-;)

La matriz L coincide con Ia del Problema 4.69.

4.71.

Se da Ia factorizaci6n A = LU, donde L = Clu) y U = (uii). Considerese el sistema AX= B. Se pide determinar: a) ei algoritmo para encontrar L - t B, b) el _algoritmo que resuelve UX = B via sustituci6n hacia atnis. a)

La entrada lij de Ia matriz L corresponde a Ia operaci6n elemental entre filas - lijRi + Ri-+ Ri. Por e!lo, el algoritmo que transforma B en B' es: Afgoritmo P4.88A: Eva/uaci611 de L -lB. Paso I.

Repetir para j

Paso 2.

=

I a

11 -

Repetir para i = j

I:

+

I a

11:

b/= -lub; + bi [Fin del bucle interne Paso 2.] [Fin del bucle externo Paso 1.] Paso 3.

Salir.

[La complejidad de este algoritmo es C(n) ~ b)

11

2

/ 2.]

El algoritmo de sustitucion hacia atnl.s es el que se ex pone a continuaci6n: Afgoritmo P4.88B: Sustituci6n hacia atras para el sistema U X =B. Paso I. Paso 2.

x.

= b.fu••. Repetir para j

Paso 3.

Salir.

= 11-

I, n - 2, ... , I

xi= (bi - uj.j + lxi+ 1

-

[Tambien aqui Ia complejidad es C(n);::;

... -

1!

2

uinx.)fuii

/2.]

MATRICES CUADRADAS. MATRICES ELEMENTALES

4.72. Encontm Ia factorizaci6n

L U de Ia matriz A

~(

~)·

2 3 -10

;

-3

157

Reducimos A a forma triangular mediante las operaciones I.

2.

-2R 1 +R 2 -+R 2 ,

A-(~ L~( ~

Por tanto.

- 3

0

1

4

2 -1

-4

~)

3R1

+ R 3 -+ R3 ,

!)-(~ y

3.

2 -1 0

u~(~

-4R 2 + R 3 -+ R 3

;) 2 -1

0

;)

Las entradas 2, - 3 y 4 de L son los opuestos de los multiplicadores en las operaciones entre filas precedentes.

4.73.

Resolver el sistema AX= B para B 1 , B2 y B 3 , donde A es Ia matriz del P roblema 4.72 B 2 = B 1 + X 1 , B3 = B 2 + X 2 (aqui Xi es Ia soluci6n cuando B =B).

y B 1 = (1, 1, 1),

a)

Calculamos L - t 8 1 o, equivalentemente. efectuamos las operaciones entre lilas (I), (2) y (3) sobre B 1 , Io que nos conduce a

Resolvemos U X= 8 para 8 = (1 , - I, 8)r por sustituci6n hacia atras obteniendo X 1 =

(-

25, 9, 8l.

b)

Hallamos 8 2 = 8 1 +X 1 = (1, I, 1) + ( - 25, 9, 8) = ( - 24, 10, 9). Efectuamos las operaciones (I), (2) y (3) sobre 8 2 llegando a ( - 24, 58, -63)r y luego a B = (-24, 58, - 295)r. Resolvemos U X = B por sustituci6n hacia atnis obteniendo X 2 = (943, -353, - 295).

c)

Calculamos 8 3 = 8 2 + X 2 = (-24, 10, 9) + (943, - 353, - 295) = (9 19, - 343, - 286). Efectuamos las operaciones (1), (2) y (3) sobre 8 3 llegando a (919, -2 187, 267l)r y despues a B = (9 19, - 2181, 11 .395)T. Resolvemos UX = B por sustituci6n hacia atnis obteniendo X 3 = ( - 37.628, 13.576, 11.395).

PROBLEMAS SUPLEMENTARIOS ALGEBRA DE MATRICES 4..:"4.

-s.

..&...

Sea A =

G~}

Calcular A" .

Sup6ngase que Ia matriz 2 x 2 B conmuta con cualquier matriz 2 x 2 A. Probar que B = para algun escalar k, es decir, 8 cs una matriz escalar.

(~ ~)

158

ALGEBRA LINEAL

~.76.

Sea A a)

4.77.

~.78.

=(5

2) , , d eI po ,.momw . k . Encontrar todos los numeros k para los que A es una ratz

0

f(x) = x 2

Sea B = ( I 26

+ 10,

7x

-

0 ). Hallar una matriz 27

(

0

0

0

-

25,

~ tal que A

3

c)

h(x ) = x 2

-

4

= B.

110

0 l 0 0) 0010

Sean A =

g(x) = x 2

b)

y (o B =

1

1). Calcular: a) A" para todos los enteros positives n.

1

° n.

01

0000

b) B" para todos los enteros positivos 4.79.

Imponer sobre las matrices A y B las condiciones necesarias para que A 2

:\'~ATRICES

4.80.

Hallar Ia inversa de cada una de las matrices:

3 8 7

-~

' b)

1

~

2 2

-1) ('

-~

' c)

-2 -3

~

!)

2

1 0

1

0

0

1

i)·b)(t

-1

3 4

1

-2

-~)

Expresar cada una de las siguientes matrices como producto de matrices elementales: a)

b) (

4.83.

-2) (2

Hallar Ia inversa de cada una de las matrices:

a)(~ 4.82.

B 2 = (A+ B )(A - B).

INVERTIBLES. INVERSAS. MATRICES ELEMENTALES

a)(: 4.81.

-

-~

(~

!).

- :).

2 0) 1 3 8 1

como producto de matrices elementales.

4.84.

Sup6ngase que A es invertible. Demostrar que si A B = AC, necesariamentc B de una m at riz no nula A tal que AB = AC pero B =f. C.

4.85.

Si A es invertible, demostrar que k A es in vertible para k =f. 0. con in versa k - 1 A -

4.86.

Sup6ngase qne A y B son invertibles y que A necesariamente invertible.

+ B =f. 0.

= C.

Dar un ejemplo

1.

Probar, con un ejemp lo, que A

+B

no es

159

MATRICES CUADRADAS. MATRICES ELEMENTALES

TIPOS ESPECIALES DE MATRICES CUADRADAS 4.87.

Utilizando solo los elementos 0 y I, hallar todas las matrices triangulares superiores 3 x 3 no singulares.

4.88.

Utilizando solo los elementos 0 y I, determinar el numero de: a) matrices diagonales 4 X 4, b) matrices triangulares superiores 4 x 4, c) matrices triangulares superiores 4 x 4 no singulares. Generalizar el resultado a matrices n x n.

4.89.

4.90.

=(~

Encontrar todas las matrices reales A tales que A 2 = B, donde: a) 8

Sea 8

=

(~

:

~).

~~), b) 8 = ( ~

_ ;) .

Hallar una matriz A con entradas diagonales positivas tal que A 2 = B .

0 0 4 4.91.

Supo ngase A8 = C, siendo A y C triangulares superiores. a)

Demostrar, con un ejemplo, que B noes necesariamente triangular superior, ni siquiera cuando A y C son matrices no nulas.

b)

Demostrar que B es triangular superior cuando A es invertible.

4.92.

Probar que AB no es necesariamente simetrica incluso en el caso de que A y 8 io sean.

4.93.

Sean A y B matrices simetricas. Demostrar que A8 es simetrica si y solo si A y B conmutan.

4.94.

Supongase que A es una matriz simetrica. Pro bar que: a) A 2 y, en general, A" son simetricas; b) .f(A) es simetrica para cualquier polinomio f(x); c) pr APes simetrica.

4.95.

Encontrar una matriz ortogonal 2 x 2 P cuya primera fila sea a) (2/f o, 5/}29), b) un multiplo de (3, 4).

4.96.

Hallar una matriz ortogonal 3 x 3 P cuyas dos primeras lilas sean multiplos de a) (1 1 2, 3) y (0, - 2, 3), respectivamente; b) (I, 3, I) y (2, 0 , - I), respectivamente.

4.97.

Supongase que A y 8 son ortogonales. Probar que AT, A - 1 y AB tambien lo son.

4.98.

(.Cmiles de las siguientes matrices son normales?

A=(!

4.99.

3 ,

3 ,

1 1 0

:).v~(: 2 -1

1

-3

-1

~)

Supongase que A cs una inatriz normal. Demostrar que: a) AT, b) A 2 y, en general, A", c) B = kl +A tambien lo son.

.1.100. Unz m"dz ~101.

-4) . B=G -2) c~G

E" ;d''"P"""" •i E'

~

E. Pwb" qo'

~

E (-:

-2 3

-4) 4

- 2 - 3

Demostrar que si AB = A y BA = B, entonces A y B son idempotentes.

es idempotente.

160

ALGEBRA LINEAL

4. 102.

U na matriz A es nilpotence de clase p si AP = 0 pero AP- I

~ 0.

~

Pro bar que A = (

1 2

-2 -1 es nilpotente de clase 3.

4.103.

Sup6ngase que A es nilpotente de clase p. Probar que Aq = 0 para q > p pero A q ~ 0 para q < p.

4. 104.

U na matriz cuadrada es tridiagonal si las entradas no nulas aparecen unicamente en Ia diagonal situada directa mente sabre Ia d iagonal principal (en Ia superdiagonal), o directamcnte bajo Ia diagonal principal (en Ia subdiagonal). Exhibir las matrices tridiagonales genericas de ordenes 4 y 5.

4. 105.

Pro bar que el producto de matrices trid iagonales no es necesariamente tridiago nal.

MATRICES COMPLEJAS 4.106.

Encontrar tres nLlmeros reales x, y y z tales que A sea hermitica, siendo a)

X+ yi ))

A =

b)

( 3 + zi 0 '

A = (3

~ 2i ~

2

X

1:

j

1- xi

yi

zi)

-1

4.107.

Supongase que· A es una matriz compleja arbitraria. Demostrar que A AH y AH A son ambas hermiticas.

4.108.

Sup6ngase que A es cualquier matriz compleja. Demostrar que A + An es hermitica y que A - AH es antihermitica.

4.109. l,Cuales de las siguientes matrices son unitarias?

A- (

i/2

- j3;2

4.110.

4.11 1.

-J3f2) - i/2 '

B

=

(1 + i 1- i) 2 l - i I +i '

~

1 C= 2(

- i

1 . I

1+ i

- 1+i

i)

-1 + l+i 0

Sup6ngase que A y B son matrices unitarias. Proba r que: a) AH es unita ria, b) A c) AB es unitaria.

L

es unita ria ,

l .) , B = ( 1 . 0) Determinar cmi les de las siguientes matrices son normales: A = ( 3 +. 4i . . I 2 + )J I- I !

4.112.

Sup6ngase que A es una matriz no rmal y U una unitaria. Probar que B = normal.

4.113.

Recuerdense las siguientes operaciones elem entales entre filas:

[E 1 ]

R 1 +-> R1 , [E 2 ]

kR1 --> R 1 ,

k

~

0, [E 3 ]

uuAU

es tambien

kR1 + R1 --> R1

Para matrices complejas, las respectivas operaciones entre columnas hermiticas correspond ientes son: [GtJ C 1 +-> C1 , [G 2] kC1 --> C 1, k # 0, [G3] kC1 + C1 -> C, Demostrar que Ia matriz elemental correspondiente a [G1] es Ia traspuesta conjugada de Ia ma triz elemental asociada a [E1].

MATRICES CUADRADAS. M ATR ICES ELEMENTALES

161

MATRICES CUADRADAS POR BLOQUES 4.114.

Usando lineas verticales, completar Ia partici6n de cada una de las siguientes matrices pa ra que sea una matriz cuadrada por bloques:

-~ . -}-i -{--~-)

(

A= 9 8 2 2 3 3

7 6 2 2 3 3

5 , 2 3

B

=

-- -- ~-- ----

4.1 15.

(

~--~- ~-;- -:_

9 8 7 6 5

- -- -- -- -- -i

2 2 2 2 3 3 3 3 3

Partir cada una de las siguientes matrices para convertirla en una matriz d iagonal por bloques. con Iantos bloques diagonales como sea posible:

A~(~

0 0 0

1 3 B= 0 0 0

~)·

2 0 0 0 0 0 0 4 0 0 5 0 0 0 0

0 0 0 0 6

c -(~ ~) 1

0 2

Calcular M 2 y M 3 para cada matriz M:

4.JI6.

a}

0'0) M~ (''0 m~D.

M

b)

~ ;_;_!_~_ -~) (

0 0 :1 2 o o:4 5

o . o 0,3

Sean M = diag(A 1, •••• Ak) y N = diag(B 1, ••• , Bk) matrices diagonales por bloques, donde cada par de bloques A;, B; tienen el mismo tamaiio. Pro bar que M N es d iagonai po r bloques y que

4.117.

MN = d iag (A 1 8 1 , A 2 B 2 ,

••• ,

AkBd

VIATRICES REALES SIMETRICAS Y FORMAS CUADRATICAS

4.1 18.

Sea A = (

.

~ ~ =~ =:).

-2 -3

- 5 - 1

6 9

9 11

Hallar una matriz no si ngular P tal que B

=

p-r AP sea diagonal.

.

Asimismo, determinar B y sig· A. 4.119.

Para cada forma cuad ratica q(x, y, z). encontrar una sustitucio n lineal no sin gular que exprese las variables x, y, z en lerminos de variables r. s. t tales que q(r, s, r) sea diagonal. a)

q(x, y, z) = x 2

+ 6xy + 8y2 -

b)

q(x, y, z) = 2x

2

-

3y2

4xz

+ 2yz -

9z 2 .

+ Sxz + 12yz + 25z2 .

162

ALGEBRA LINEAL

4.120.

Encontra r aquellos valo res de k para los que Ia fo rma cuadra tica dada es definida positiva:

a)

b) c)

+ ky 2 • 2 q(x, y) = 3x2 - kxy + l2y • 2 2 2 q(x, y, z) = x + 2xy + 2y + 2xz + 6yz + kz . q(x, y) = 2x

2

-

5xy

=0y

= 0 pero q(u + v) =I 0.

4.121.

Dar un ejemplo de un a forma cuad nitica q( x, y) tal que q(u)

4.122.

Demostrar que cualquier matriz real simetrica A es congrue nte a una matriz diagonal en Ia q ue cada ent rada diagonal es 1, ~ I 6 0.

4.123.

Demostra r que Ia congruencia de matrices es una relaci6 n de equivalencia.

q(v )

SIMILARIDA[) DE MATRICES

4.124.

Considerese el espacio R 3 con los ejes x, y, z usuales. La ma triz no singular P =

(~ =~ =~) 1

dett!rmina un nuevo sistema de coordenadas pa ra R3 , digamos con ejes r. s.

4.125.

a)

Las coordenadas del punto Q (l, I , I ) en el nuevo sistema.

b)

f( r. s, t) c uando f (x, y, z) = (x

z).

c)

g(r, s, t) cuando g(x, y, z)

2x

=

+ y, y + 2z. x (x + y- z. x- 3z.

t.

1

-7

Hallar:

+ y ).

Demostr a r qut: Ia similaridad de matrices es una relaci6 n de equivalencia.

FACTORIZACION LV 4.126.

Hallar las factorizaciones L V y LDU de cada matriz:

a)

4.127.

A~(i

3

5 4

-1)

1 ' 2

b)

·~(~

A ~ (~

a)

Encontrar Ia factorizaci6 n L U de A.

b) Den6tese por Bt - 1 = Bt

:)

-1)

s"

- 1

- 4 -3

3 7 5

-2 . -2

xk Ia soluci6n de

+ Xt

para k > 0.

AX= Bk. Calcular XI, X 2, X J,

x4

cuando Bl = (1, I,

ll

y

MATRICES CUADRADAS. MATRICES ELEMENTALES

163

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS

4.74.

G~)

4.76.

\a) k = 2,

4.77.

G~)

b) k

=

-5,

c)

ninguno.

A'~(~ ~ H°) ' ~ (HH' A' ~ 0

4.78.

a)

b)

~~ ~

5

-I)

0 0 1)

0 1

A'

(

0 pa" k> 3;

n n(n

10

-~ 1)/ 2)

4.79. . AB = BA.

4.80.

4.81.

4.82.

!.1 l

a)

(-1 -!)·

.a)

(~

-

~ -2

-1 0 1 - 1 0 0

a) ( • 0)(1 3 1 0

0

_

( 8-3 -5 10

2 -4

r-IO-

-~}

- 1)(1 1 0

tiene inversa.

b)

o) 2

-I)

1 ' -1

o) I

.

- 21l 6 8

\

2

3

0

(1 Oxl 3 0 0

4 -1 - 2

c)

(-8-i

t -! -t t

') -2 -3

- 1 - 1

_ Oxl 2 0

2)1 .

b)

No hay tal producto: Ia matriz no

164

ALGEBRA LINEAL

4.87.

Todas las entradas diagonales deben ser I para que sean no singulares. Hay ocho elecciones posibles para las entradas sobre Ia diagonal:

b)

-4.90.

r ~)

4.91.

a)

4.91.

3) ( 9 5) 2 3 1 = 12 8 G2x3

4.95.

a)

4.96.

4.98.

4.104.

4.105.

ninguna.

2 3

a)

~ = (~ ~).B = G !).c=(~ ~)

( 2/./29 5/fo)

-51./29 2/fo.

b)

(

! !!)

-!

3/fo )

2/fo - 2/fo 3/.jlj ' 12/Jm -3/fo -2/.jm

(''fo

A, C.

all all a 32

all

(""

all a 33 a43

c ...)

b)

("fil t;J2

b2l b23 b,

bll

bJl

a••

b33 b43

b34

bu b., b,. b,

2 3 2

x

= a(pariunetro), y

4..109. A, B, C . .(.111. A .

0

3/.fii -2/.fii

(~ :x~ :) ~(: ~)

4.106. a)

3/JTi

=

0, z

=

0;

b)

x = 3, y

= = 0, z

3.

•tfo)

-t;J2

3/.fii

M A TRI CES CUADRA DAS. M ATRIC ES ELEM ENTA LE S

165

4.114.

4.115.

A = ~~+~--i). B =

\o :o 3

(C ya es una matriz diagonal por bloques; no es p osible ninguna particion ulterior de C.)

M '{ b) M'{

8 4 9

9

4.116. a)

)M'{

25 44 22 25

)M'-(~

4 11

15 41

J 51 18)

12 •

9

24 33

4.118. p =

4.119. a)

(' 0 0

-11 0

0

0

~:)

-1 3 1 0

9 ,B --

('

156 213

). ,;g A- 2

-7

7

469

x =r - 3s + 19t,y =s + 1t,z = t, = r2 - s 2 + 36t2 , rango q = 3, sig q

q(r, s, t)

b) x

=r-

2t, y

= I.

= s + 2t, z = t, 2 1 - 3s + 29t , rango q = 3, sig q = I.

q(r, s, t ) = 2r 2

c)

x = r - 2s +l8t, y=s - 1t,z= t , = r 2 + s 2 - 62t2 , rango q = 3, sig q

q(r, s, t) d)

x

=

r - s - t , y = s - t, z = t, = r 2 + 1s2 , rango q = 2, sig q

= 2.

lf;

c)

q(x, y, z)

4.120. a ) k > 4.121.

q(x, y)

= x2 -

b) k < - 12 0 k > 12;

= 1.

k > 5.

yl , u = ( 1, 1), v = ( 1, -1).

4.122. Supongamos que A se ha diagonalizado a pr A P = diag (a;) . Oefi nase Q = diag (b 1) por s~ a; 0 . Entonces B = Qr p r APQ = (PQ)r A(PQ) tiene Ia forma requerida. I I s1 a 1 = 0

b-={'IM

"*

166

ALGEBRA LINEAL

4.124. a) Q(17, 5, 3~ (b) f(r, s, t) = (17r- 61s + 134l, 4r- 41s + 46t, 3r- 25s + 2St), c) g(r, s, t) = (61r + s - 330t, 16r + 3s- 91t, 9r - 4s - 4t).

4.126. .a)

A =(~

3

b)

8

4.127. a)

A

s

X

~ G~ =

l

1 )( -l

1

x ~ =~)

-10

-!

I

1

)C

!

::)

(~ ~ ~)(~ =~ - ~) 2

b) X, =

1

(J.

1

B,

0

0

- 1

~m. X,~(~)· =(:).X, =(i~)· B,-(_~).x.~(~) B,

CAPITULO

5

Espacios vectoriales

5.1.

INTRODUCCION

Este capitulo introduce la estructura algebraica subyacente al algebra lineal, Ia de espacio vectorial de dimension finita. La definicion de espacio vectorial involucra un cuerpo arbitrario (vease el Apendice) cuyos elementos se denominan escalares. Se utilizani Ia siguiente notaci6n (a menos que se establezca o implique otra cosa): K

a, b, co k

v u, v, w

el cueq)o -9e escalares los elemetitos de K el espacio vectorial dado los elementos de V

No se perdeni nada esencial si el lector supone que K es el cuerpo real R o el complejo C. El capitulo no abarca conceptos como lo ngitud y o rtogonalidad, ~:mesto que no se consideran parte de Ia estructura·fundamental de un espacio vectorial. Se incluiran como estructura adicional en el Capitulo 6.

5.2.

ESP ACIOS VECTORIALES

A continuaci6n se define la noci6n de espacio vectorial o lineal.

Definicion: Sean K un cuerpo dado y V un conjunto no vacio, con reglas de suma y producto por un escalar que asignan a cad a par u, v e V · una suma u + v e V y a cada par u e V, k E K un producto ku E V. V recibe el nombre de espacio vectorial sabre K (y los elementos de V se Haman vectores) si se satisfacen los siguientes axiomas (vease el Problema 5.3). 167

168

ALGEBRA LINEAL

[A 1] [A 2] [A 3 ]

Para toda terna de vectores u, v, w E V, (u + v) + w = u + ( v + w). Existe un vector en V, denotado por 0 y denorninado el vector cero, tal que u + 0 = u para to do vector u E V. Para todo vector u e V existe un unico vector en V, denotado por -u, tal que u+( - u)=O.

[A 4] [M 1 ] [M 2 ] [M 3 ]

[M 4 ]

Para todo par de vectores u, v e V, u + v = v + u. Para todo escalar k e K y todo par de vectores u, ve V, k(u + v) = ku + kv. Para todo par de escalares a, bEK y todo vector U E V, (a+ b)u =au+ bu. Para todo par de escalares a, be K y todo vector u e V, (ab) u = a(bu ). EI escalar unidad I e K curnple I u = u para todo vector u e V.

Los axiomas precedentes se desdoblan de forma natural en dos categorias. · Los cuatro primeros atanen unicamente a Ia estructura aditiva de V y pueden resumirse diciendo que V es un grupo conmutativo (vease el Apendice) bajo Ia surna. De ello se deriva que cualquier suma de vectores de Ia forma

no requiete parentesis y no depende del orden de los sumandos, que el vector cero, 0, es (mico, que el opuesto - u de u es unico y que se verifica Ia ley de cancelacion;· esto es, para tres vectores cualesquiera u, v, we V. u+w=v+w

implica

u=v

Asimismo, la resta se define segun u - v = u + ( - v)

..

·

· Por otra parte, los cuatro axiomas restantes se refieren a Ia «acci6n» del cuerpo K sobre V. Observese que la rotulaci6n de los axiomas refleja · este desdoblamiento. Empleando estos axiomas adicionales probarernos (Problema 5.1) las siguientes propiedades elementales de un · espacio vectorial. Teorema 5.1:

Sea V un espacio vectorial sobre un cuerpo K.

Para todo escalar k EK y Oe V, kO = 0. ii) Para 0 E K y todo vector u e V, Ou = 0. iii) Si ku = 0, donde k E K y u E V, entonces k = 0 o u = 0. iv) Para todo keK y todo ue V, ( - k)u = k(-u) = -ku. i)

5.3.

EJEMPLOS DE ESPACIOS VECTORIALES

Esta secci6n enumera una serie de ejernplos importantes de espacios vectoriales que se utilizarim a to largo de todo el texto.

ESPACIOS VECTORIALES ·

169

ESPACIO K" Sea K un cuerpo arbitrario. La notaci6n K" se usa frecuentemente para designar el conjunto de todas las n-plas de elementos de K. Aqui K" se ve como un espacio vectorial sobre K, en el que Ia suma vectorial y el producto por un escalar se definen segun

y

El vector cero en K" es Ia .n-pla de ceros 0 = (0, 0, .:., 0)

y el opuesto de un vector se define por

La demostraci6n de que K" es un espacio vectorial es identica a Ia del Teorema 2.1, que ahora puede considerarse como Ia afirmaci6n de que R", con las operaciones alii definidas, es un espacio · vectorial sob~e R.

ESPACIO DE MATRICES M,,,. La notaci6n Mm."n• o simplemente M, se utilizani para designar el conjunto de todas las matrices m x n sobre un cuerpo arbitrario K. Mm.n es un espacio vectorial sobre K con respecto a las operaciones usuales de suma matricial y producto por un escalar. (Vease el Teorema 3.1.)

ESPACIO DE POLINOMIOS P(t) Denoteinos por P(t) el conjunto de todos los polinomios

con coeficientes a; en algun cuerpo K. (Vease el Apendice.) P(t) es un espacio vectorial sobre K con respecto a las operaciones usuales de suma de polinomios y producto de un polinomio por una constante.

F.SPACIO DE FUNCIONES F(X) Sean X un conjunto no vacio y K un cuerpo arbitrario. Consideremos el conjunto F(X) de lodas las funciones de X en K. [N6tese que F(X) es no vacio por serlo X.] La suma de dos funciones f, g E F(X) es Ia funci6n f + g E F(X) definida por

. (f + g)(x) = f(x)

+ g(x)

VxeX

170

ALGEBRA LINEAL

y ei producto de un escalar k E K por una funci6n

f E F(X)

es Ia funci6n kf E F(X) definida por

(kf)(x) = kf(x)

.

(EI simbolo ' 1 tal que · vk

EJEMPLO 5.6.

= clvl + CzVz + ··· + ck -

lvk-1

Consideremos Ia siguiente matriz en forma escalonada:

0 0

2

A= 0

0

3 4 0

0 0

0 0

0 0

0

4 -4 0 0 0

5 4 7 0 0

6

7

-4

4

8 6

9 -6 0

0

Observemos que las filas R 2 , R 3 y R4 tie_nen ceros en Ia segunda columna (bajo el elemento pivote de R 1 ) y que, por tanto, cualquier combinaci6 n lineal de R 2 , R 3 y R 4 debe tener un cero como segunda componente. Siendo asi, R 1 no puede ser una combinaci6n lineal de las filas no nulas si tuadas bajo ella. De forma similar, las filas R 3 y R~ tienen ceros en Ia tercera columna, bajo el elemento pivote de R 2 ; por consiguiente, R 2 no puede ser una combinaci6 n lineal de las filas no nulas situadas bajo ella. F inalmente, R3 no puede ser un multiplo de R 4 , puesto que esta tiene un cero en Ia quinta columna, bajo el elemento pivote de aquella. Mirando las filas no nulas de abajo a arriba, R 4 , R 3 , R 2 , R 1 , constatamos que ninguna de elias es combinaci6n lineal de las precedentes. De este modo, las filas no nulas son linealmente independientes, de acuerdo con el Lema 5. 10.

178

ALGEBRA LINEAL

El argumento del ejemplo anterior puede aplicarse a las fil:- 5 no nulas de cualquier matriz escalonada. Asi pues, tenemos el siguiente resultado (demostrado en el Problema 5.37), muy util. Teorema 5.11: pendientes.

5.7.

Las lilas no nulas de una matriz en forma escalonada son linealmente inde-

BASES Y DIMENSION

Comenzamos estableciendo dos caminos equivalentes (Problema 5.30) para delinir una base de un espacio vectorial V. Definicion A: Un conjunto S = { u1 , u2 , dos condiciones: 1.

u 1 , u2 ,

••• ,

2.

u 1, u2 ,

•• • ,

••• ,

u"} de vectores es una base de V si se verifican las

u. son linealmente independientes. u. generan V.

Definicion B: Un conjunto S = {u 1 , u 2 , ... , u"} de vectores es una base de V si todo vector v E V puede escribirse de forma unica como combinacion lineal de sus vectores. Se dice que un espacio vectorial V es de dimension .finita n o que es n-dimensional, escrito dim V

=n

si V tiene una base como Ia anterior, con n elementos. La dimension esta bien definida; ··a Ia vista del siguiente teorema (demostrado en el Problema 5.40). Teorema 5.12: Sea V un espacio vectorial de dimension finita. Entonces todas las bases de V tienen el mismo numero de elementos. El espacio vectorial {0} tiene dimension 0, por definicion. Cuando un espacio vectorial no es de dimension finita, se dice que es de dimension infinita. EJEMPLO 5.7 a)

Consideremos el espacio vectorial M 2 • 3 de todas las matrices 2 x 3 sobre un cuerpo K. Las seis matrices siguientes forman una base de M 2 • 3 :

(01 00 0)0

(00 01 0)0

(00 00 01)

0 0 0) (1 0 0

0 0 0) (0 1 0

(0 0 0) 0

0

1

Con mayor gencralidad, en el espacio vectorial M,,, de las matrices r x s, sea Eij Ia matriz cuya entrada ij es I, siendo 0 las restantes. Todas las matrices Eij tales constituyen una base de M,.,, denominada su base usual. Consecuenteme nte, dim M,.., = rs. En particular, e 1 = (1, 0, ... , 0), e 2 = (0, I, 0 , ... , 0),

... , e. b)

=

(0, 0, ... , 0, I) forman Ia base usual de K".

Consideremos el espacio vectorial P.(t) de los polinomios de grado 5.n. Los polinomios 1, t, t 2 , fo rman una base de P.(t) y por tanto dim P.(t) = n + I.

•.. ,

t"

ESPACIOS VECTORIALES

179

El teorema fundamental anterior sobre dimension es una consecuencia del importa nte «lema de sustituci6n» (demostrado en el Problema 5.39) que sigue: Lema 5.13: Supongamos que {v1 , v2 , ... , u.} genera V y que {w 1 , w 2 , ••. , wm} ~s linealmente independiente. En ese caso, m ~ n y Vesta g'erierado por un conjunto de Ia fotni.a '..:

"

. Asi, en particular, n

+ 1o

mas vectores en V son linealmente dependientes.

Observemos, en el lema precedente, que hemos sustituido m vectores del conjunto generador po r los m vectores independientes y aun conservamos un conjunto geuerador. Los teoremas enunciados a continuaci6n (y demostrados en los Problemas 5.41, 5.42 y 5.43, respectivamente) se utilizaran con frecuencia . Teorema 5.14: i) ii)

iii)

Sea V un espacio vectorial de dimension finita n.

n + 1 0 mas vectores en v son linealmente dependientes. Todo conjunto linealmente independiente S = {u 1 , u 2 , ••• , u.}, conn elementos. es una base de V. T odo.conjunto generador T = {u1 , u2 , .. . , v.} de V, con n elementos, es una base de V.

Teorema 5.15:

Supongamos que S genera un espacio vectorial V.

i)

Cualquier numero maximo de vectores linealmente independientes en S es una base de V.

ii)

Si se suprime deS todo vector que sea combinaci6n lineal de los precedentes, los vectores que quedan constituyen una base de V.

Teorema 5.16: Sean V un espacio vectorial de dimension finita y S = {u 1 , u2 , ... , u,} un conjunto de vectores linealmente independientes en V. En ese caso, S es parte de una base de V, es decir, S puede extenderse a una base de V. EJEMPLO 5.8 a) Consideremos en R 4 los cuatro vectores: (1, I, I, I)

(0, 1, I , I)

(0, 0, 1, I)

(0, 0, 0, I)

N6tesc que los vecto res formaran ·una matriz escalonada, por lo que son linealmente independientes. Mas aun, dado que dim R 4 = 4, los vectores constituyen una base de R 4 b)

Consideremos los

11

+

I polinomios en P.(t): I, r- I , (t - 1)1 ,

... ,

(t- I}"

El grado de (t - I )k es k, luego ningun polinomio puede ser combinaci6n lineal de los precedentes. Ademas, constituyen una base de P~(t ) porque dim P .(t) = 11 + I.

180

ALGEBRA LINEAL

DIMENSION Y SUBESPACIOS

El siguiente teorema (demostrado en el Problema 5.44) nos da Ia relaci6n basica entre Ia dimension de un espacio vectorial y Ia de un subespacio. Teorema 5.17: Sea W un subespacio de un espacio n-dimensional V. Entonces dim W en particular, dim W = n, necesariamente W = V.

$: n.

Si.

EJEMPLO 5.9. Sea W un subespacio del espacio real R 3 . Tenemos dim R 3 = 3; por consiguiente, segtin el Teorema 5.17, Ia dimension deW solo puede ser 0, 1, 2 6 3. Podemos distinguir los casos: i) dim W = 0, con lo que W = {0}, un punto.

ii) dim W

=

1, con lo que W es una recta por el origen.

iii) dim W

=

2, con lo que W es un plano por el origen.

iv)

=

3, con lo que W es el espacio R 3 entero.

dim W

RANGO DE UNA MATRIZ

Sea A una matriz m x n arbitraria sobre un cuerpo K. Recordemos que el espacio fila de A es el subespacio de K" generado por sus filas y que el espacio columna de A es el subespacio de K"' generado por sus columnas. El ranga par filas de una matriz A es igual al numero maximo de filas linealmente independientes o, equivalentemente, a Ia dimension del espacio fila de A. Analogamente, el ranga par calumnas de A es igual al numero m