Algebra Lineal Basica Uned

Descripción completa

Views 118 Downloads 4 File size 197MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Descarga mas libros en: http://librosdejoe.blogspot.com

o busca en la web: librosdejoe

4L6 14(1)

I

)Qld...

ERRATAS DETECTADAS LA PRIMERA EDICIÓN DEL LIBRO "ÁLGEBRA LINEAL BÁSICA". Ya están corregidas las erratas en este libro Debe decir ............................................. .

Pág

Renglón

Dice

9

8

AU

11

3

22

último

:l algún A¡

-.¡;

23

7

:l algún A,

-.¡;

26

18

Si U¡

Si U¡

38

12

¡.iii +flu

flU+flV

(f + g)(x) + f(x) + g(x)

(f + g)(x)

44 45

último

49

20

(A(flf))(x)

°

°

= A(flf)(x) + A¡((X)

:l algún A¡

-.¡;

:l algún A¡

-.¡;

° °

= f(x) + g(x)

(A(flf))(x) = A(¡()(X) = A¡((X)

Página 50, renglones 12 y último; página 51, renglones 3, 9,16,23 Y página.52, renglones 2 y 10, hay que cambiar el dato 40 por 10 56

= x3

x2

2

X3 ;X2

x2 56

18 Y 20

1

x2

=a

x2 x4

60 Süs'iituir

1

1

x3

1

=a

1 1 1

x4

1

e -parrato-completo a pa

XI x2

Ir na TIñea 14 poteT1>átTaflributiva de vectores respecto a escalares: (A. + fl) ¡¡ = AU + flU -\,ociativa : CAfl) ¡¡ = }.(¡.JU) .' iste el escalar unidad. 1, que cumple ¡¡¡ = ¡¡

9

1 Espacios vectoriales

~

Hemos

enunciado las propiedades que tienen las operaciones con los vectores de IR", pero alguna de las cosas que hemos dicho podría no ser correcta, aunque lo parezca. Para tener la celteza de que alguna proposición que enunciamos es cierta, necesita ser demostrada. En cada demostración se pueden utilizar ax iomas (verdades evidentes) , u otras verdades demostradas con anterioridad, es el método lógico-deductivo utilizado desde los griegos. Un enunciado y su demostración forman un teorema o una proposición.

1.1.6 Teorema En (IR", + IR) se verifica: a) La operación de sumar vectores de IR" tiene las propiedades 11.I.3J b) La operación de mult iplicar vectores de IR" por esca lares tiene las propiedades

1l.l.5J Demostración: a) La operac ión de sumar vectores de IR" tiene las propiedades [1.1.3] porque las tiene la suma de los escalares que forman las n-uplas. b) Para demostrar que la operación de multiplicar vectores de IR" por escalares cumple las propiedades [1.1.5J , hay que ir comprobando cada una de las igualdades. Vamos a hacerlo con una de ellas, con las demás, se hace de la misma manera.

r s O

Una forma de demostrar la veracidad de una igualdad es, desarrollar los miembros de manera que se llegue en ambos al mismo resultado.

Vamos a utilizar esta técnica para demostrar la propiedad distributiva de vectores respecto a escalares. Queremos demostrar que: (A. + Ii)u = A.U + liU.

10

1. 1. El espacio vectorial real (lR

n

,

+, IR)

DesarroUamos el primer miembro aplicando la definición [1.1.4]:

(A + Il )u = (A + 11)(11.\, U" .. . , u,,) = «A + Il)u¡, (A + 11)11." ... , (A + Il)u,,) = = (Au¡1'llu\, AU, + IlU" ... , AU" + 1111.,,) Desarrollamos el segundo miembro aplicando la defini ción [1.1.4] a cada uno de los dos sumandos: AU + Ilu = A(u¡, u, ,... , u,,) + Il(u¡, u, ,... ,u,,) = = (Au¡, AU, ,... , AU,,) + (;¡u" IlUz ,... , Ilu,,)

Si utilizamos la definición [1 .1.2J para sumar los vectores resultimtes, comprobamos que es lo que queríamos demostrar. Es muy fácil repetir este procedimiento para cada una de las propiedades, cuando lo hayamos hecho podremos decir que hemos demostrado el teorema [1.1.6].

11

1 Espacios vectoriales

1.2 La estructura algebraica de espacio vectorial

.A

Es muy frecuente que, al realizar una determinada operación en un conjunto y otra operación en otro conjunto, ambas operaciones tengan las mismas propiedades. La razón es que tienen una estructura común. La importancia que tiene el estudio de las estructuras radica en que es mucho más eficiente analizar de una sola vez las propiedades que derivan de una estructura abstracta y aplicarlas a los conjuntos concretos que la tienen, independientemente del tipo de elementos que forman los conjuntos y de la operación que se haya definido en eUos. Las estructuras se utilizan en Informática con mucha frecuencia, por ejemplo, al hacer un programa se asigna a cada variable la estructura a que pertenece (INTEGER, REAL, CHARACTER, LOGICAL, .. .).

1.2.1 Definición de estructura algebraica (A.*.o.... ) es una estructura algebraica A es un conjunto en el que hay definidas una o más operac iones: *. 0....

Ejemplo 1.2.1 (1I\l' , +) es una estructura algebraica. Los elementos con que se opera son vectores suma de vectores.

E

1I\l' , y la operación "+" es la

Ejemplo 1.2.2 Si A = {1 ,2,5} Y i.a operación "." asigna a (a, b) e l resto de ah / 3, (A,-), es una estructura algebraica.

12

1.2. La estructura algebraica de espacio vectorial

Cuando la operación se realiza en un conjunto finito, se pueden dar los resultados de la

o peración entre todos sus elementos, es decir, puede tabu lar:

l

2

5

1

1

l

I

2

2

1

2

5

2

1

2

Hay algunas estructuras que se repiten con frecuencia, incluso formando parte de otras; este es el caso de los grupos.

Definición de grupo lene estructura de grupo'" La operación * en e l conjunto A (no vacío) tiepropiedades : .oeiativa: (a * b) * e = a * (h * e), V a. /J, e E A ,te un elemento ncutro e E A, que veri fica a * e = a, Va E A . E rI. :la' E A que verifica a * u ' = e: ,,' es el elemento simétrico o inverso de a un grupo conmutativo si además tiene la propiedad conmutativa V a. b E A '.eri fica a * h = b * a

l1li'\'11 01 0

1.2.3

(IR", +) tiene estructura algebraica de grupo. La operación + en IR", cumple las propiedades: asociativa, ex iste un vector neutro y todo vector tiene un simétrico, como hemos visto en [1 .1.6]. Se suele llamar opuesto de a al elemento simétrico para la operación de sumar, y se representa como -a. El estudio de las propiedades de (IR", +, IR) se ha ido incorporando a las matemáticas desde el sig lo XlX, y ha sido tan significati vo, que ha dado nombre a la estructura algebraica que tiene: espacio vectoriaL

13

1 Espacios vectoriales

Hay muchos conjuntos que tienen las mi smas propiedades, es decir, la mi sma e,\lUC\Ul'a que óefmimos oe ~orm a general.

1.2.3. Definición de espacio vectorial (V, * , · IR) tiene estructura de espacio vecto rial sobre IR "" (V, *) es grupo conmu tati vo y (V, *, · IR) tiene las propiedades : Di stributiva de las escalares respecto a los vectores: iI. • (Ti * \') = iI. • Ti * iI. • \'

Di stributiva de los vectores respecto a la suma de escalares: (i1. +¡¡ ) · ¡¡ =i1. · Ti *¡¡ · Ti Asociativa respecto al producto de escalares: (i1.¡¡) • Ti = iI. • (¡¡ • Ti) Existe un escalar unidad. I E IR, que verifica I • ¡¡ = Ti Los elementos de cualquier conjunto con estructura de espacio vectori al se llaman vectores y normalmente se representan con una barra sobre una letra latina. Los elementos de IR se llaman escalares y se suelen representar con una letra griega minúscula. El lugar de IR puede ser ocupado por un cuerpo dife rente, el de los complejos, o cualquier otro cuerpo IK, entonces (V, *, · IK) es un espac io vectorial sobre IK. En este curso, si no decimos lo contrario, nos referiremos siempre a (V, *, · IR) y omitiremos el símbolo " ." para la ley de composición externa que indicaremos mediante una sinlple yustaposición.

Ejemplo 1.2.4 El conjunto de polinomios de grado menor o igual que 2 con coeficientes reales y una variable (P,(x), +, IR) es un espacio vectorial sobre IR. La operación interna es la suma de polinomios y la operación extellla es la multiplicación de un polinomio por un escalar. Los polinomios son los vectores y los números reales los escalares.

14

1.2. La estructura algebraica de espacio vectorial

Ambas operaciones nos resultan familiares, las utilizamos con frecuencia y conocemos sus propiedades.

1.2.5 EJ conj unto de polinomios de grado 2 con coeficientes reales y una variable (P2(X) , +, IR) no es un espacio vectorial sobre IR. La suma de dos polinomios de grado 2, puede no ser un polinomio de grado 2. Por ejemplo: (x' + 2x - l) + ( - x' + x + 3) = 3x + 2; 3x + 2 "P,(x), ya que, de grado 1. En el mismo conjunto se pueden definir distintas operaciones y según las propiedades que verifiguen, tendrán una estructura diferente.

_~ . .... v

1.2.6 . ." ., . . { (UI' u,) + (VI , v,) = (u, + V" u, + V2) . SI en ( .. , +, .. ) defLmmos , sIendo A/l = (AU " u,)

= (UI' u,), ji = (v" v, ) E IR' , A E IR, entonces (IR' , +, IR) no es un espacio vectorial. Veamos que no tiene la propiedad (A + l1 )u = AU + l1u:

Ü

(A + l1 }ü = ((A + l1 )u" 11,) = (AU I + l1u " 11, ) AU + l1u = (AU " u, ) + (PU l, lI,) = (AU , + I1UI , 2u,)

Los resultados obtenidos en ambos miembros son diferentes, es decir, CA. + l1 )u ;qu + 11". Hay propiedades que se deducen directamente de la defmición de espacio vectorial, y es más eficiente demostrarlas una sola vez de forma general, que comprobar su veracidad para cada caso concreto. Algunas de las más utili zadas son las siguientes:

15

1 Espacios vectoriales

1.2.4. Consecuencias

En cualquier espacio vectorial (V,

*. IR) se veri fica:

l. Aa = a 2. Ou=O

3. (- A)U = A(-U) = -(AU) 4. SiAu=O =>A = OÓU=O 5. Si AU = J1u. u;t => A = J1 6. SiAu = A\'. A ;t o => u = l'

o

Demostraciones: _ { =AU+ AO _ _ l. A (Ji + O) = => AO = O = A¡¡

Para obtener AU + AO hemos aplicado la propiedad distributiva de los vectores respecto a la suma de escalares y para obtener AU hemos realizado primero la suma de vectores.

2. (A

+ O)u = {

= AU + Ou =>

=AU

_ Ou = O

3. a = { = H + A)U = (-A)U + AU => (-A)U = -(AU) = A(-¡¡ + u) = A(-U) + AU => A(-U)= - (AU)

4. En AU = O, puede ocurrir A = O6 A ;t O; si A;t O, 3X l E

r\w) = {

16

=rl(a)=a (A- 1A)U = l u =

_ =>

u

U=

o

R

1.2. La estructura algebraica de espacio vectorial

. Si AU =pu => AU - pu = (A - p)u = 0, como u # 0, aplicando la propiedad 4 => A - p = O => A = 11 . 6. Si AU = AV => AU - AV =A(U - v) =0, como A # O, aplicando la propiedad 4 =>

u- V =

° u= =>

V.

17

1 Espacios vectoriales

1.3. Subespacios vectoriales

En el organi grama de este capítulo, después de saber qué es un espacio vectorial , nos hacemos la pregunta : ¿Hay subconjuntos de un espacio vectori al V que sean a su vez espacios vectoriales? La respuesta siempre es sí. Cualquier espacio vectorial V tiene, al menos, dos subconjuntos que con las mismas operac iones tienen también estructura de espacio vectorial; son el elemento neutro (O), y el mismo conj unto V se llaman subespacios impro pios. Si algún otro subconjunto de Ves espacio vectorial, diremos que es un subespacio propio de V

1.3.1. Definición de subespacio vectorial

U es un subespacio vectorial del espacio (V *, de V y (U , *, ~) es espacio vectorial

~)

*'* U es subconjunto no vacío

A

Para ver si un subconj un to U de Ves un subespac io, O no , se puede ir comprobando que verifi ca todas y cada una de las propiedades que definen un espacio vectori al, o bien, buscar una carac teri zac ión, es decir, un a o va-

rias condiciones equi valentes, el símbolo que se utili za para la eq ui va lencia es

*'*.

Con

*'* debemos entender: Tener las propiedades

~

Cumplir la caracteri zac ión y

Cumplir la caracterización

18

~

Tener las propiedades

1.3. Sub espacios vectoriales

Teorema: Caracterización de subespacio vectorial

'¡fU. v E

V

=>

U

*V E V

{ '¡fuE V, '¡f,lEIR

Y siendo U un =>

,luE V

no vacío de V. Demostración: Es evidente; por ser (V, *. IR) espacio. se veri fica /i _ v E V y,lu E U. =) Para los elementos de V se cump len automáticamente las propiedades la multiplicación por elementos de IR, ya que los elementos de V lo son bién de V Lo mismo ocurre con las propiedades asociativa y conmutativa de (V, _). El vector neutro Opertence a U. En efecto, '¡f/i E V, Ou = OE V. Para cada elemento /i de V, hay un simétrico -u que también pertenece a l: ' AIi * ¡LV E U

Ambas caracterizaciones son equivalentes: Demostración: Por cumplirse [1.3,2.], podemos afirmar que Vu, v E U; VA, j.1 E IR => =>AU' j.1V E U. U,V E U. Si en [1.3.3], hacemos Vu, v E U; VA E 1R,j.1 = O=> AIi E U. En [1.3.3] hemos utili zado un tipo especial de expresiones: las que son de la forma AU , j.1V E U; son muy importantes y reciben el nombre de combinaciones lineales =»

20

1.3. Subespacios vectoriales

3.4. Definición de combinación lineal

una combinación lineal o depende linealmente de los vectores de 5 . Ti l

* A,Ti, * ... * A"Ti" ; 5 =

{Ti¡, Ti, .. ... Ti,, }

e

e

\1

espac io vectorial \1; Al. A, ...., A" E IR

El conjunto formado por todas las combinaciones lineales de los elementos de 5, recibe diversos nombres, como envolvente lineal de 5, o clausura de 5 y e representa generalmente como (5). Los múltiples colores de la pantalla de un monitor se definen como combinación lineal de los colores primarios rojo, verde y azul.

Definición de sistema de generadores de un espacio vectorial

n sistema de generadores de U o U está generado por 5 "" U = (5)

IIjIIrrlp lo 1.3 .3

Cualquier vector de la forma v = Al (1, 0, 1) + A, (2, 0,1) es combinación lineal de los vectores de 5 = { ( 1, 0, 1), (2, 0, I) } e IR 3 5 es el sistema de genedores de (5). El subespacio de IR' generado por 5 es (5) = {(A l + 2.:\" 0, Al + A,)lA¡, A, E IR ). Gráficamente, vemos que, cualqu ier vector del plano que contiene los vectores dados, es una combinación lineal de ellos. Dicho plano es el subespacio más pequeño que los contiene.

21

1 Espacios vectoriales

Ejemplo 1.3.4 Compruébese que S' = {( 1, O, 1), (3, O, 2) I genera el mismo subespacio de

1R3 que el generado por S del ejemplo anterior. La ecuación del plano generado por S es x, = O. La ecuación del plano generado por S' es x, = O. (S), = (S') se forman con todas las combinaciones lineales de dos vectores del plano x, = O. Ambos sistemas de vectores son sistemas equi valentes porque generan el mismo subespacio. Consecnencia:

Para ge/lerar U/I sllbespacio /lO hay U/I sistema único.

1.3.6. Definición de vectores linealmente dependientes S

= {Ul. u, ..... upl e \/ es un sistema linealmente dependiente o ligado *"

*" Al menos uno de los ¡¡, E S depe nde linealmente de los otros vectores de S

1.3.7. Caracterización de vectores linealmente dependientes

s = {¡¡" u, .... , ¡¡I' I e Ves un si stema linealmente dependiente + A,¡¡, + ... + AI'¡¡P: Al , A, ..... Al' E IR '" '3 algún Al O

*

22

*"

Si O= Al¡¡l +

1.3. Subespacios vectoriales

Demostración Si S = I¡¡" ¡¡, ,..., ¡¡p} es un sistema linealmente dependiente, la defi nición [1.3.6] nos asegura que, al menos uno de los Ui E S depende linealmente de los otros vecto res de S. Podemos suponer sin pérdida de generalidad (bastaría reordenar) que es ¡¡, el vector que depende linealmente de los otros, entonces, U, = A.o¡¡, +...+Apup, y por tanto O= - 1¡¡, + A.ou, +...+ Ap¡¡p (A, O). = ) Si O= A,U, + A.o¡¡, +.. .+ ApUp; A" A2 ,... , Al' E ~ => 3 algún A, O. Podemos suponer sin pérdida de generalidad (bastaría reordenar) que es A, O como A, E ~, 3 A,', O=A'tA,' u , + A, A, ' ¡¡, +...+ ApA,' ¡¡p; ¡¡, =J12U, +...+ J1 pu p. =»

*

* *

3 .8. Definición de vectores linealmente independientes ¡¡" ¡¡, .... , ¡¡I' } e l' es un sistema linealmente independiente o libre

=A,¡¡, + A,¡¡, + ... + A¡,up; A,. A,... .. Ap E ~

=>

A,

=A2 = ... =Al' = O

Compruébese que, de entre los siguientes conjuntos de vectores, son libres o linealmente independientes B y C: A

= {( I, 2, O), (O, O, O), (4, S, 6)} ;

B = l (l, O, O, O), (0. 1, O, O), (O, 0, 1, O), (O, O, O, I) };

C = {(l,4, 7), (S - 3, 4)}

=>

A+ 4y= O 2A + Sy = O => A = O; Y { 6y = O

= O;

23

1 Espacios vectoriales

La igualdad es cierta Vf.l Ligado.

E

IR

=>

A es un sistema linealmente dependiente o

Si Opertenece a un sistema de generadores, éste es linealmente dependiente.

A

Los vectores deberían escribirse verticalmente para distinguirlos de los puntos, pero está admitido que se escriban también horizontalmente por comodidad, nosotros lo haremos indi stintamente depend iendo de la situación, cuando haga falta especificar más, haremos la precisión correspondiente.

B es la base canónica o estándar de 1R4

(1) (s) (0)°°

c) A 4 +f.l -3 = 7 4

=> {

A=Sf.l =0 O => A=O;f.l=O; 4A3f.l = 7.1 +4,/= 0

=>

e es un sistema libre.

1.3.9. Proposición Si S = Iu" u" ..., ul' } es un s istema linealmente independiente e V, y v ) Si O= A,u, + A2u, + ... + Ap¡¡p+ f.lv; tiene que ser f.l = O, porque si f.l # O, se podría escribir v como combinación lineal de los elementos de S, yeso va contra la hipótesis de que v A, = A, = ... = Ap = 11 = O, que es la condición necesaria para poder decir que S U {ji} es un sistema libre contenido en V Se pueden escribir más proposiciones relati vas a la dependencia e independencia lineal, pero son consecuencia directa de lo que ya hemos aprendido, y se demuestran utilizando las mismas técnicas .

1 Espacios vectoriales

1.4. Transformaciones en un sistema de generadores. Espacios vectoriales finitos. Bases

En 1.3 hemos visto que los espacios vectoriales se pueden generar mediante las combinaciones lineales de un sistema de generadores cualquiera, pero en general. es más inreresanres considerar los sistemas de generadores linealmente independientes. Las proposiciones siguientes expresan propiedades relacionadas con la dependencia y la independencia lineal de los vectores Ui, que forman el sistema de generadores G = ¡u" u" ... , l/p I de un espacio vectorial, V. Además de la importancia intrínseca que tienen las propiedades que vamos a enunciar, tienen un valor añadido porque serán utilizadas en las demostraciones de teoremas posteriores. La proposición siguiente expresa que, la cantidad de vectores de un sistema de generadores ligado, se puede reducir sin que varíe el espacio vectorial generado.

1.4. 1. Proposición

Si u, E G es combinación lineal de vectores de G, (G = de 11). entonces, e l e.pac io generado por G - {Ui I es 11

¡u" u, ..... I/p ) generador

Demostración: Supongamos sin perder generalidad que u, = J1'u" + ... + Jliip' Si v E V. v = + A,2U2 + ... + Ápu p = íiiJhü2 + + J.1 pTip ) + Al fi2 + ... + ApUp = riU2+ ... + Ypu¡,. Es decir, cualquier vector de 11 se puede generar prescindiendo de los vectores de G que dependan linealmente de otros vectores de G.

= AIU[

26

o ••

4. Transformaciones en un sistema de generadores

P""P" U 1.4.1

°

En el sistema e = 1(0. 1), (3, O), (0, 2)}, el vector (0, 2) =2 (0, 1) + (3, O). El espacio que genera e es el mismo que genera e, = e - 1(0, 2) } = 1(0, 1), 3. O) }, ambos generan ~'. Obsérvese que cualquier vector de ~' se puede expresar con los vectores de G, pero no de fonna única. Los colores de la pantalla de un monitor se pueden definir como una combinación lineal de rojo, azu l y verde, pero no se pueden definir con ninguna mbi nación lineal de rojo, azul y morado, porque el morado depende linealmente de rojo y azul. La proposición siguiente expresa que se puede sustituir un vector del sistema de generadores e, por cualquier combinación lineal de los vectores de e donde intervenga dicho vector con coefi ciente no nulo.

Proposición e

es combinación lineal de vectores i/, de e. (e = IU,. i/, .... , ¡¡p) generador de lOces. al sustituir un ¡¡, (con coeficiente", en la combinación lineal que sa ,,) por" en e. el sistema obtenido e, sigue siendo generador de ji

°

Demostración: Sea v = A,¡¡, + A,¡¡, + .. . + Apup, y supongamos que es A, '" 0, entonces, ¡¡, =

=

,-,- ,-,,-

/1.1 V -1\. 1 fVl U2 -

0'_ -

,-',/\"pu". -

/1.-1

Cualquier vector x E V verifica x = Il'¡¡" Il' ¡¡' , + .. . + Il"¡¡,, = fl ,(A,'v - A,'A.,¡¡, - ... - A,'Xpi/p) + Il' ¡¡' + ... + IIp¡¡p = y,v + y,¡¡, + ... + Yp¡¡p·

_molo 1.4.2 Sea e = I ( 1,0, O), (O, 1, O)} generador del plano de ~3, z = O. V=2(1 , 0, O) + 0(0, 1, O) = (2, 0,.2) ¡wede sustituir a ( 1, 0, O) en e = I( l , 0, O), (0, 1, O)}, obteniendo e, = 1(2, 0, O), (O, 1, O) }, generador del mismo plano z =O.

27

1 Espacios vectoriales

Sin embargo, (2, 0, O) no puede sustituir a (0, 1, O) porque el sistema e 2 = = 1( 1, 0, O), (2, 0, O) I no genera el plano z = 0, sino la recta y = O; z = O. El teorema siguiente expresa que el número de vectores de un sistema generador libre es menor o igual al de cualquier otro sistema generador.

1.4.3. Teorema fundamental de la independencia lineal Si / = 11'" 1'" ....1', 1 es sistema libre de generadores de Vy sistema generador de \ : entonces, /¡ :; p

e = Iu" u" ... ,upl un

Demostración:

e

=> ) V; son vectores de un sistema libre de V, es generador de V, por tanto V, = A,u, + Á,Uz + ... + Apup con algún Ai '" 0, supongamos A, '" 0, utilizando la proposición anterior podemos asegurar que e, = Iv" U2 ,... , ¡¡pi es generador de V

(Observemos que hemos sustituido un vector del sistema de generadores por un vector del sistema libre). Por ser e, = {v" ¡¡2 ,... , ¡¡pI generador de V y V2 vector de un sistema libre de V, V2 = JI ,v" Jl2¡¡2 + ... + Jip¡¡p con algún Jli '" 0, supongamos Jl2 '" 0, utilizando la proposición anterior podemos asegurar que e 2 = {v" ¡¡2 ,.. ., up I es generador de V Este proceso 10 podemos repetir, como máximo, p veces, obteniendo p = = {v" V2, ... , vp), si P < h todavía quedan vectores {Vi.', Vi. 2, .. ., V, } de /, que se pueden expresar como combinaciones lineales de ep = {v" V2, ... , vp ), que es un sistema generador, la suposición de que p < h nos ha llevado a una contradicción, porque / = {v" V2,.. ., v, } es un sistema libre, como consecuencia, la suposición era falsa y p ~ h.

e

A

Para hacer esta demostración, hemos utilizado una forma de razonar muy frecuente, es la reducción al absurdo. Consiste en suponer que es cierto 10 contrario a aquello que queremos demostrar (queremos demostrar que p ~ h y suponemos que p < fI ), seguir el razonamiento lógico, y llegar a una contradic-

28

1.4. Transformaciones en un sistema de generadores

ción con la hipótesis (concluimos que I = {VI, V2 , ... , V, } no es libre, en contra de la hipótesis de que partimos). Al repetir el proceso de sustituc ión de un vector del sistema de generadores, por un vector del sistema libre, hemos sustituido parcialmente los vectores de un sistema de generadores por los de un sistema libre cualquiera, sin que varíe el espacio generado.

4 4. Definición 1E· ) Cualquier ji E V. se puede expresar como combinación lineal de los elementos de B . Por tanto. B genera V. ¡¡ E V se puede expresar como combinación lineal de los elementos de B. ¡¡ = ,1, ,e, + A."e, + ... + ,1,,,e.; dado que de ¡¡ = De, + De2 + ... + De. Y los vectores se pueden ex presar de manera única. O =,1" =,1,2 = ... = ,l•• es dec ir. B es un sistema libre.

Ejemplo 1.4.2 El ejemplo más sencillo de base en [J;l. es la base canónica: B = 1(1. O. .... O), (O. l . .... O) . ..., (O, O, ... , l) }.

30

1.4. Transformaciones en un sistema de generadores

Cualquier vector x = (x,. x, ..... x") de IR" es combinación lineal de los elementos de B, (x" x, • ...• x") =x, ( l . O•... • O) +x, (O. l •.. .• O) + ... +X" (O. O, ...• 1). luego B genera IR". Si x , (1. O•... • O) + x, (O. l . .... O) + ... + x" (O. O• ...• 1) = (O. O• ...• O) => x, = = x, = ... = x" = O. por tanto. B es libre => B generador y libre. es base.

Consecuencia:

La segunda definición de base IIOS permite decir que, x= (x/, X 2, .. . , x,,) se puede expresar de forma lÍnica mediante los coeficientes X¡, X2, .. " XII' respecto a la base canónica, dichos coeficientes reciben el nombre de coordenadas del vector x respecto a la base dada. Las relaciones que ex isten entre las distintas bases de un espacio vectori al dan lugar a diversos teoremas que reciben el nombre genérico de teoremas de la base,

4 8. Teorema de existencia de la base 'luier espacio vectorial finito V"" TI tiene base Demostración Sea G = I¡¡l. il, •...• ilp} un sistema finito de generadores de V"" TI. Si sus vectores son independientes. G es base y está demostrado el teorema. Si sus vectores no son independientes. es porque alguno depende linealmente de otros. es decir. se cumple la hipótesis de la proposición [1.4.11. y por tanto. es cierta la conclusión de dicha proposic ión: Se genera el mi smo V sustituyendo G por G,. (G, se ha obtenido quitando en G los vectores que no son in dependientes). El nuevo sistema de generadores linealmente independientes. G" es una base.

31

1 Espacios vectoriales

1.4.9. Teorema de la dimensión Todas las bases de un espacio vectorial V tienen el mismo número de elementos Demostración SeaB= {elo e2•...• e" 1 una base de Vy seaB' = {e'l. e'2 •...• e'ml otra base de V. B es sistema libre de generadores. B' es sistema de generadores. por [1 .4.3J => => n ~ m. Además. B' es sistema libre de generadores. B es sistema de generadores. por [1.4.3J => ni::; /l. Por tanto. ni = /l. Todas las bases de un espacio tienen el mismo número de elementos. que recibe el nombre de dimensión del espacio.

1.4.10. Definición de dimensión de un espacio vectorial Dimensión de un espacio vectorial V", {O 1, finito . Dim V. es el número de vectores de cualquiera de sus bases

Ejemplo 1.4.3 La base canónica de U;¡' es {(l. O. O). (O. l . O). (O. O. I)}. tiene tres elementos. los vectores (l . O. O), (O, l . O). (O. O. 1), portanto. cualquier base de U;¡' tiene tres elementos y tres es la dimensión del espacio vectorial u;¡3 Si el espacio es V = O. por convenio se toma Dim V = O.

32

1.4. Transformaciones en un sistema de generadores

4. 11. Consecuencias 1. Si Dim V = n => No puede haber en V más de i/ldependientes.

/l

vectores linealme/lte

Demostración: B=

{e" e, ,... , e. } es base, por tanto, es sistema de generadores}

S=

{v" v" ... , vp } es un conjunto de vectores linealmente

n

=> p ':;'

independientes Hemos utilizado [1 .4.3].

2. Si Dim V = n => En cualquier sistema de generadores de V /lO puede haber menos de n vectores. Demostración: B=

{el , e" ..., e. } Sus vectores ei son linealmente independientes } (es base)

=> I! ':;'

P

G = {¡¡" ¡¡" .. .,¡¡,, } es sistema de generadores

3. Si Dim V = /l => Cualquier conju/lto S de n vectores linealmente i/ldependientes forma U/la base. Demostración: Recordemos que en la proposición [1.4.3], habíamos concluido que, los vectores de un sistema de generadores pueden ser sustituidos parcialmente por los de un sistema libre cualquiera. Por tanto, los n vectores linealmente independientes de S, pueden sustituir a los n. vectores de cualquier base (son generadores), y el resultado sigue siendo generador y linealmente independiente, es decir, es otra base.

33

1 Espacios vectoriales

4. Si Dim V = /1

=>

Cualquier cOl1jU/lto de /1 gel1eradores forma ulla base.

Demostración: Si G = {u" u, ,..., u, } es sistema de generadores de V, y en G hay un sistema G' con p vectores l. i. (p ~ 11), entonces, el espacio que genera G' también es V, por tanto, G' es base de V. Como la dimensión de Ves 11, el número de vectores de G' es 11 ::::) P = ". => G = G' es base de V.

5. Si Dim V = 11 => Todo cOlljullto de vectores S = {v" v, ,..., vpl de V COII P < /1, lillealmellte illdepe/ldie/lte, se puede completar con p - /1 vectores de V hasta con vertirse e/l base (Teorema de la base i/lcompleta). Demostración: Por [I.4.8J podemos afirm ar que en V existe una base de dimensión /l. En B hay al menos un vector que no pertenece a (S), porque si no, S generaría una base de V y como consecuencia V, y esto no es posible porque p < /1 como sabemos por [1.4.11-1]. Formemos S' añadiendo a S el vector encontrado en B. Si 11 = P + I => S' es la base buscada porque es un sistema de 11 vectores linealmente independientes en un espacio de dimensión /l. Si 11 > P + I => Partiendo del sistema generador S' que tiene p + I vectores, obtenemos S" con p + 2 vectores repitiendo lodos los pasos que hemos dadO para S. Será necesario repetir este proceso n - p veces.

1.4.12. Definición de coordenadas de un vector

x, .... , x, ) son las coordenadas dexE Vrespecloa la baseB= {e" e, ..... e,, } {::::} x=x¡el +X'1eZ + ... +.xnen

(x "

34

**

1.4. Transformaciones en un sistema de generadores

plo 1.4.4

Cuando decimos que las coordenadas de un vector de ~2 respecto a la base canónica B = [( 1, O), (O, 1) 1son (2, 3), estamos expresando que (2, 3) =2(1, O) + +3(0,1). Si hubiéramos tomado B' = [(2, O), (0,1) 1como base de ~2 , el mi smo veclor se expresaría como 1(2, O) + 3(0, 1), Y diríamos que sus coordenadas respecto a B' son (1 , 3).

35

1 Espacios vectoriales

1.5. Dimensión de los subespacios de un espacio vectorial finito

Los subespacios vectoriales son a su vez espacios vectoriales, y por tanto, tienen dimensión. Vamos a estudiar la relación que existe entre la dimensión de distintos subespacios de un espacio vectorial V de dimensión n.

1.5.1. Proposición. La intersección de subespacios es subespacio La intersección de subespacios Vi con i = 1, ....

11

de V. es un subespacio de V

Demostración:

n

Si U, V E 1= 1 Vi

=> AV

+ /1U E r'\ V" ya que todos los Vi son subespacios de V. ,::1

Además, la intersección no es vacía porque Opertenece a todos los V i. Hemos demostrado que la intersección de subespacios cumple la cond.ición necesaria y suficiente para ser un subespacio.

1.5.2. Teorema El conjunto (S) es el menor de todos los subespac ios de V que contienen S Demostración: Es claro que es el menor, porque para ser subespacio que contenga S debe contener todas las combinaciones Lineales de los elementos de S, es decir, debe

36

1.5. Dimensión de los subespacios de un espacio ...

contener (S), Y (S) es espacio vectorial porque su definición evidencia que se cumple [1.1.3].

Proposición. La unión de subespacios puede no ser subespacio lión de subespacios U, de V, puede no ser un subespacio de l' Demostración: Es suficiente encontrar un ejemplo en el que la unión de subespacios no sea un subespacio, eso es lo que haremos en el ejemplo siguiente.

1.5.1

Sean los subespacios del espacio IR', U , = eje de las y, U, = eje de las x, si U , U U, fuera espacio, -'.(0, 1) + /1(1, O) = (-'., /1) debería pertenecer a U , U U" porque (O, 1), (I , O) pertenecen a U , U U, Y -'., /1, E IR, pero, es evidente que (-'., Jl) El' U , U U, porque si -'. '" O YJl '" O (-'., /1) no está en ningún eje.

Es importante observar que, para comprobar que una afirmación es cierta, no es suficiente verificarla en un caso particular o ejemplo, hay que hacer una demostración, es decir, ver que la afirmación es cierta para todos los casos. Sin embargo, para ver que una afi rmación no es correcta, es suficiente que no lo sea, al menos, en un caso, y por tanto, vale con encontrar un ejemplo que no verifique la afirmación . Dicho ejemplo se llama contrae jemplo . Sabemos que U , U U, es el conjunto más pequeño que contiene U , y U" pero con frecuencia es interesante utilizar, no el conjunto mínimo, sino el

37

1 Espacios vectoriales

subespacio mínimo de V, que contiene U, y U" ese subespacio se llama subespacio suma.

1.5.4. Definición de suma de subespacios Suma de los subespacios U, y U,. de l' es el conj unto U , + U, : U,+U, = (ü, + Ü, /ü, E U ,. Ü, E U, )

1.5.5. Proposición. La suma de subespacios es subespacio La suma de subespacios de Ves un subespacio de V

Demostración: Sean Ü, v E U = UI _ { _

v=

+

\/ 1 +

VI

+ U2, entonces

[[21 U ¡ E VI, U 2 E U2 _ _ _ => \/ 2/ VI E VI. \/ 2 E U2

A.Ü

Ilü

= A.(ü, + ü, ) + 11 (v, + v,) =

= (A.Ü, + Ilv,) + (A.lt, + Ilv,) E U, + U,.

Ejemplo 1.5.2 Dados los subespacios V, = { (a, [3, O) ) e IR' y V, = {(O, A., ¡t) ) e 1I\l' , (U, es el plano z = O: (plano XY) y U, es el plano x = O; (plano YZ)).

38

1. 5. Dimensión de los subespacios de un espacio .. .

Los vectores que forman U, + U, son de la forma (a, todos los vectores de IR'-

f3 + A, 11), es decir, son

La descomposición de un vector IR' en suma de uno del plano z = O Y otro del plano x = O no es única.

plo 1.5.3 (2, S, 3) = (2, O, O) + (O, S, 3)

= (2, 2, O) + (O, 3, 3) = (2, 1, O) + (O, 4, 3) = ...

La dimensión de los subespacios está relacionada con la dimensión del subespacio suma mediante la expresión conocida como fórmula de dimensión o fó rmula de Grassmann.

5.6. Teorema (fórmula de Grassmann) ('-, + U, ) + Dim (U,

n U,) = Dim U , + Dim U,

Demostración:

Si Bo = (e" e, ,... , ep } es base de U, n U,), sabemos que se puede ampliar hasta conseguir una base B, = (e" e" ... , ep, u, ,... , u,} de U" y por otra parte, se puede ampli ar hasta conseguir otra base B, = (e" e, ,... , el" v, ,... , v., } de U, . Podemos construir B = Iel, e2,.. ., ep , u] ,... , ur l VI, .. ., vs }, y demostraremos que es base de U, + U,. Para que B sea base hace falta que sea un sistema libre y que genere U, + U,.

B genera U I + U2 : Vu E U, + Uz, u = u, + u" u, E U" u, E U, Como B, es base de U, y B, es base de U" u, se puede escribir como combinación lineal de B, = (e" e2,... , ep , u, ,... , u,}, y U2como combinación lineal de los elementos de B2= (e" e, ,... , ep , v, ,... , v, }, por tanto, u se puede escribir como combinación lineal de los elementos de '8.

39

1 Espacios vectoriales

B es un sistema libre: Sea \Vo + \V, + \V, = 0, una combinación lineal de los vectores \VO = A,e, +",+ + Apep, WI = a¡u¡ + ... + a rUn W2 = /3¡v¡ + + f3svs; podemos escribir Wo + w¡ = = -\V" como \VO + \V, depende linealmente de B, Y \V, depende linealmente de B, se deduce que, \Vo + \V, E U, n U" y como consecuencia, se puede expresar como combinación lineal de vectores de Bo: \Vo + \V, = Ole, +." +opep. Si formamos la combinación \Vo + \V, + \V, = Ole, + ". +opep+ p,v, + ". + p,v,= = 0, hemos tomado un vector de U, n U2, y otro de U2 , es decir, un vector generado por B2, que es un sistema libre por ser base" O, = ". = op= p, = ". = p, = O. Por ser p, = " . = p, = O la expresión \Vo + \V, + \V2 = 0, se transforma en \VO + + w¡ = O~ A.le] + + A.pep+ G¡u¡ + + a;iir = O~ Al = = A.p= al = ... = a , = 0, con lo que hemos demostrado que B es un sistema libre. Como antes habíamos demostrado que B es un sistema generador podemos afi rmar que B es base de U, + U2 • Para que la descomposición de un vector sea única debemos movernos en una clase especial de sumas: las sumas di rectas, de ellas hablaremos muy pronto. o,,

o ••

o ••

o ••

1.5.7. Definición de suma directa de subespacios

Suma de directa de los subespacios U, y U" de Ves el conjunto U, t±l U2 = {ji = = u, + u, / u, E V" U, E U, }. tal que la descomposición de cada vector Ti es única.

Ejemplo 1.5.4 Dados los subespacios V, = { (a,

p, O) } e

es el plano z = O; (plano Xl') y U2 es la recta

IR' y U2 = {(O, O, JI) }

[x= O;

e

IR' (U,

(eje 2)), los vectores que

LY =O

form an U, + V, son de la forma (a, p, JI), es decir, son todos los vectores de IR' .

40

1.5. Dimensión de los subespacios de un espacio .. .

La descomposición de un vector de [J;l3 en suma de uno del plano XY y otro del eje Z es única. Así (2, 5, 3) = (2, 5, O) + (O, 0, 3), siendo (2, 5, O) E plano z = y (O, 0, 3) E E

°

{x= o y =O

5 8. Caracterización I de la suma directa

V, es suma de directa de los subespacios V , + V, ~ TI

-=0. 'd TlE V, i±l V ,

=TI , + TI, = O => TI , =

Demostración ¡¡ = ¡¡, + TI, = O+ 0, como la descomposición de TI es única, ¡¡, = ¡¡, = O. )

Otra forma de ver que una suma es directa es comprobar que la intersección de los dos subespacios es {O).

5.9. Caracterización 11 de la suma directa

V, es suma de dilecta de los subespacios V,

y V,

~

TI

E

V , n V,

=>

TI =

° 41

1 Espacios vectoriales

Demostración: =» ¡¡ E U, n U, => ti E U, Yti E U, ; U, . U, son espacios vectoriales -Ti E U,. Como (¡¡) + (- ¡¡) = O. aplicando [1.5.8.J => Ti =O. ti = O. Sea Ti = ti, + Ti, = O. un vector de U, + U,. ti , E U" Ti, E U,. U[ E U h como u[:;;: - U2 ~ - U2 E V I. ~ U2 E V I _ U2

e

U2• como U 2 =

- U I ~ -U1 E V I. =>

ni E U2.

Por tanto. los vectores Ti" ti, . son de U, n U,. cuyo único vector es O. Hemos demostrado que la suma es suma directa.

1.5. 10. Definición y existencia de subespacio suplementario Dado un subespacio fi nito U" exiqe un subespacio U,. tal que \1 = U, (B U, U, es el slIbespacio slIplemel/ftlrio de U,

Demostración de la ex istencia de U, : Si Ie" e, ..... ep ) es base de U,. y le" e, ..... ep • ela l •... • e,, }es base de \l. entonces podemos construir U, = (ep • , ••• •• e,,). que cumple la condición requerida.

ro

Una buena fonna de demostrar que un conjunto existe. es constru irlo. eso lo que hemos hecho para demostrar que ex iste U,.

En el ejemplo 1.5.4. e l complementari o del plano XY (Subespacio U,) es el eje Z (Subespacio U,). Es ev idente que si U, y U, son suplementarios. sus dimensiones están re lacionadas por la expresión: DimU, + DimU, = Dim \!.

42

Ejercicios

Consecuencias Si V, es el subespacio suplementario de V, en V, se deducen las siguientes consecuencias de fomla inmed iata al aplicar la definición de subespacio suplementari o dada en {1 .5.1O): 1. ReLaciólI entre Las dimellsiolles de subespacios supLementarios:

Dim V, + Dim V, = Dim V Demostración: Como Dim (VI

n V , ) = 0, el resultado es consecuencia directa de [1.5.6.].

2. Caracterización de subespacio supLemelltario de UII subespacio:

U I + U,

= V Y U I n V, =O

Demostración: La primera afinmación es consecuencia de la definición de suma directa y la segunda de la caracterización Il de suma directa. 3. Si B = (el, ez ,..., e.J es base deLespacio V .. V = (e,)

8J tez) 8J ... 8J

8J te.). Demostración: Es consecuencia inmediata de las defUliciones de base y suma directa.

cicio 1.1 Demuéstrese que el conjunto de funciones operaciones:

~

: IR

--+

IR con las siguientes

43

(j + g)(x) + f(x) + g(x), siendo j, g E ~. 2. Multiplicación por escalares, defini da como (Aj)(X) = Af(x), siendo A E E R f E ~ , es un espacio vectorial sobre lIt

Solución: Tenemos que demostrar que las funciones tienen una serie de propiedades; para ello, sabiendo que dos funciones son iguales si sus imágenes son iguales para cada elemento del dominio de defini ción, trasladamos las comprobaciones al campo de las imágenes, cuyas propiedades conocemos por ser números reales. (~, +) es grupo conmutativo. La operación + en el conjunto ~ verifica todas las pro-

piedades necesarias: • Asociati va: (j + g) + h = f + (g + h), Vj, g, h E ~ . Primer miembro (!f+ g) + " )(x) = (j + g)(x) = j(x) + g(x) + h(x)

Segundo miembro

+ " (x) =

• Propiedad conmutativa :Vj, g

(j+(g + " »(x) = j(x) = jlx) + g(x) + h(x)

E ~

Primer miembro (j + g)(x) = f(x) + (g)(x)

+ (g + h)(x) =

se veri fi caf + g = g + f Segundo miembro

(g + j)(x) = g(x) + j(x)

• Ex iste un elemento neutro: O E ~ , que veri ficaf + O = f, Vf E ~ La función O es la función nula, es decir, O(x) = O, 'Ix E IR Primer miembro (j + o)(x)

44

=f(x) + O(x) =j(x) + O =f(x)

Segundo miembro j(x)

Ejercicios

• Existe un e lemento simétrico para cada elemento del conjunto: :J(-IJ E ~ definido como (-IJ(x) =-f(x), que verifica f + (-IJ = O Primer miembro fJ)(x)

Vf E

~,

Segundo miembro

=j(x) + (-IJ(x) =O

O

- Rl tiene las propiedades: • Distributi va de escalares respecto a elementos de

Primer miembro ~)(.r)

" r)

= ).(j(x) + g(x) =

+ ).(g(x))

~:

).lf + g) = V + ).g

Segundo miembro

W + ).g)(x) = ().j)(.r) + ().g)(x) = = ).j(x)

+ ).g(x)

• Distributiva de elementos de ~ respecto a escaleres: (). + /1)f = ).f + /1f

Primer miembro - .u lj)(x) = (). + p )f(x) = . r)

+ /11(x)

Segundo miembro

W + pIJ(x) = ().IJ(x) + (¡lIJ(x) = =).1(x) + pf(x)

• Asociativa respecto al producto de escalares : ()./1)f= ).(¡lIJ

Primer mjembro

Segundo miembro

_. ,f)(.r) = (Ap)1(X) = Ap1(X)

= ).(/1IJ(x) + Apf(x)

45

1 Espacios vectoriales

• Existe un escalar unidad, 1, que verifica 1/=/ Primer miembro ( Ij)(x) = I/(x) =/(x)

Segundo miembro Jtx)

Podemos decir que las funciones son vectores por ser elementos de un espacio vectorial, y los elementos de IR son los escalares.

Ejercicio 1.2 (A, *, IR) es una estructura algebraica, tal que, en el conjunto A = Ix I x son dígitos impares I se han defmido las siguientes operaciones :

* es una operación, tal que, a * b = e, siendo e la cifra de las unidades de l producto ab. 2. Multiplicación estándar por elementos de IR. l.

Se pide hacer la tabla de (A, *) y comprobar si (A, *, IR) es, o no es, espacio vectorial. Solución: • (A, *) no es grupo, porque no tiene alguna de las propiedades necesarias.

*

I

3

5

7

9

I

I

3

5

7

9

3

3

9

5

I

7

5

5

5

5

5

5

7

7

l

5

9

3

9 9 7

5

3

I

46

-

Es ley de composición interna: (1 * b E A, V a, b E A Es asociati va por serlo el producto de números enteros Es conmutativa a * b = b * a, Va, b E A Existe e lemento neutro: l E A; I * (1 = (1, V a E A No todos los elementos de A tienen simétrico Poseen simétrico 1, 3,7,9. No tiene simétrico 5

Ejercicios

• (A , *, IR) no es un espacio vectorial, ya que no es grupo.

• Observación: En la tabl a se pueden ver algunas de las propiedades, por ejemplo: Es ley de composición interna: No aparece ningún número di stinto a los elementos de A. Es conmutati va: La tabla es simétrica. Existe elemento neutro: 1 E A ; La l' fi la y la primera columna, correspondientes a la multipl icación por 1, permanecen invariables. Poseen simétrico 1, 3,7, 9. No tiene simétrico 5: En cada fil a (no hace falla especificar columna porque es simétrica) hay un l , excepto en las correspondientes a 5.

1.3 Si en el conjunto IR' se definen las operaciones:

(x" x,) + (y " y, ) = (X I + y" x, + y, ) . X + Ay = (x, + AY" x, + AY" x, + AY,); (x , + AY,) + (x, + AY,) + (x, + AY3) =(x, + x, + X3) + A(y, + Y2 + Y3) = 1 + lA

Como 1 + A no tiene por qué ser 1 => V , no es subespacio vectorial. 2. Si X, Y E V, => X + Ay = (x , + AY" x, + AY" x, + AY3); (t, + AY,) + (x, + AY,) + (X3 + AY3) = (x, + x, + X3) + A(y, + y, + Y3) = O+ DA. = O Como x + Ay E V, => V , es subespacio vectorial.

3. Si x, y E V 3 => X + Ay = (x , + AY" x, + AY" x, + AY,); (x, + AY,) + (x, + AY,) = (x, + x, ) + A(y, + y,), que no tiene por qué verificar la condición que caracteriza a este subconjunto, como ocurre en el ejemplo siguiente: (-1, 0, 1) + 5(0, 1, 2) = (- 1, 5,11 )

x, y E V,

=>

V 3 no es un subespacio vectorial.

X + Ay = (x, + AY" x, + AY" x, + AY,); Ax,y, + Ax2Y' + A' y,y, = I + Ax,y, + AX2Y' + A' Como I + AX,y, + Ax2Y' + A' no tiene por qué ser 1 => V, no es subespacio

4. Si

=>

(x , + AY,) + (x, + AY,) vectorial .

5. Si x, y E V , => X + Ay = (x, + AY" x, + AY" X3 + AY3); (x, + AY,)' + (x, + AY,)' = x; + 2AX,y , + A' y; + x¡ + 2AX2Y' + A' y¡ Como la expresión anterior no tiene por qué ser ~ 1, Vx, y E V, => V , no es ubespacio vectori al.

49

1 Espacios vectoriales

• En los conj untos .V" V" no haCÍa falta haber hecho nada más que observar que (O, O, O) no pertenece a ellos para aftnmar que no son espacios vectoriales. • (O, O, O) sí pertenece a V 3 , V s, que tampoco son subespacios. • La no pertenencia del Oal subconj unto garantiza que no es subespacio vectoriaJ, pero su pertenencia no garantiza que lo sea.

Ejercicio 1.5

En un almacén se dispone de tres tipos diferentes de abonos A, B, C, envasados en pastillas de 300 gramos. Cada pastilla contiene fósforo, potasio, nitrógeno, calcio y hierro. Las cantidades en gramos de cada componente por pastilla, según la clase, son: 100,90,60 de fósforo, 50, 50, 50 de potasio, 100, 105, 120 de nitrógeno, 50, 45 , 30 de calcio y O, 10,40 de hierro. a) Un agricultor necesita para un cultivo determinado, una mezcla que contenga 500 de fósforo, 100 de potasio, 500 de nitrógeno, 2.500 de calcio y 150 de hierro. ¿Se puede conseguir con los productos que hay en el almacén sin romper las pastillas? ¿Y rompiéndolas? b) La ex igencia de otro cu lti vo es una mezcla sum inistrada en bloques, tales que, cada uno contenga 290 g de fósforo, 150 g de potasio, 10 g de hierro y no importa la cantidad de nitrógeno y calcio. ¿Es posible hacer el compuesto pedido con los productos A, B, C? c) DetenmJnese la cantidad de cada componente por bloq ue de compuesto, el peso de cada bloque y la cantidad de pastillas de A, B, C que intervienen en él.

P

K

N

Ca

Fe

Abono A

100

50

100

50

O

Abono B

90

50

105

45

10

AbonoC

60

50

120

30

40

50

Ejercicios

Solución: a) Las cantidades de cada elemento en los distintos compuestos básicos se pueden representar mediante los vectores 11 = (100, 50, 100, 50, O); Y, = (90, 50, 105,45, 10); e = (60, 50, 120, 30, 40) . La mezcla pedida debe fonnarse tomando una cantidad de cada compuesto , B, e, es decir, para que se pueda formar debe haber una combinación lineal de los vectores dados. La habrá si existen coeficientes reales a, [3, y que verifiquen la igualdad: (500, LOO, 500, 2.500, 150) = a ( 100, 50, LOO, 50, O) + [3 (90, 50, LOS , 45 , LO) + + y (60, 50, 120, 30, 40) . Para que dos vectores sean iguales, lo deben ser todos sus componentes, por tanto, el sistema siguiente debe tener solución. 500 = LOOa + 90[3 + 60y; 100 = 50a + 50[3 + SOy; 500 = looa + 105[3 + 120y; 2.500 = 50a + 45[3 + 30y; 150 = Oa + LO[3 + 40y; El sistema no tiene solución porque looa + 90[3 + 60y = 2(50a + 45[3 + 30y), mientras que 500 # 2 x 2500 (2.' Y 4.' ecuaciones). No se puede fonnar el abono pedido, ni partiendo ni sin partir las pastillas. b) Igual que en el apartado a), será posible hacer la mezcla si existen coeficientes reales a, [3, y que verifiquen la igualdad: (290, 150, l/3, 1/4, 10) = a ( 100, 50, 100, 50, O) + [3 (90, 50, LOS , 45 , LO) + 120, 30, 40).

+ y (60, 50,

Es decir, si tiene solución e l sistema siguiente: 290 = 100a + 90[3 + 60 y; 150 = 50a + 50[3 + SOy; " 3 = LOOa + L05fJ + 120y;

51

1 Espacios vectoriales

114 = 50a + 45{3 +30y; 10 = Da + 10{3 + 40r;

El sistema formado por las ecuaciones 1' ,2 ' Y 5 .. tiene como solución a = 2, {3= 1, r= O. Para que tenga solución el sistema formado por las cinco ecuaciones, los valores a = 2, {3 = 1, r = O deben ser solución también de las ecuaciones 3' y 4 ", Y por tanto, 11, = 305, l/, = 145. Como consecuencia, se puede formar la mezcla porque el vector (290, 150, "3, 11,, 10) es combinación lineal de los vectores ( 100, 50, LOO, 50, O), (90, 50, 105, 45 , 10), (60, 50,120,30,40). c) Los valores", = 305 , 114 = 145 , indican las cantidades de nitrógeno y calcio que lleva cada bloque, e l vector que indica la cantidad de cada com ponente por bloque de compuesto que se va a suministrar al agricultor es: (290, 150,305 , 145 , 10), siendo el peso de cada bloq ue 290 + 150 + 305 + 145 + + 10 = 900 g. Los coeficientes a = 2, {3 = 1, r = O, indican el número de pastillas de tipo A, B, C respectivamente que hay que tomar para formar cada bloque del compuesto pedido. El peso del bloque también lo podíamos haber calcul ado sabiendo que cada bloque se forma con dos pastillas del tipo A y una pastilla del tipo B, de 300 g de peso cada una, es decir, 3 x 300 = 900 g.

Ejercicio 1.6

Sea V = lf: IR -+ IR l. Se pide determinar si el conjunto W = IJ(x) = e" ; g(x) = 3 = x ; h(x) = x 1es libre, o ligado. Solución: Sea ",e" + {3x' + rx = O, esta igualdad debe ser cierta para todos los va lores dex. Para cada uno de ellos obtendremos una ecuación:

52

Ejercicios

Si x = o => A= O Si x = I => f3 + r= O Si x = 2 => 8f3 + 2r = o Del sistema de ecuaciones formado por f3 + r = O Y 8f3 + 2r = O, se deduce que f3 = r = O, es decir, es un sistema libre o linealmente independiente.

cicio 1.7

Si P, es el espacio vectorial real de los polinomios de grado menor que 3. Se pide: a) Decidir razonadamente si {x', x' + x, x + t} es una base de dicho espacio vectorial. b) Calcular las coordenadas de 5/ + 3x + l respecto a la base {J, .,) + x, x + + I ¡. e) Encontrar una base del espacio vectorial real de los polinomios de grado menor o igual que 3, que contenga a la base dada. d) Calcu lar las coordenadas de 5x' + 3x + I respecto a la base encontrada en el apartado anterior. Solución: a) Cualquier base B del conjunto P, {ax' + bx + e I a, b, e E IR } debe ser un sistema libre de vectores de P" tal que, todo polinomio de grado meoor o igual que tres, se pueda escribir como combinaci ón lineal de los vectores de B. Vamos a comprobar si {x', x' + x, x + I } cumple estas dos condiciones : a l ) {x', x' + x, x + I } es un sistema libre:

aJ +{J(x' +x) + 8(x+ 1) =0 un sistema libre. a2)

=>

a= 0,{J =0, 8 = 0

=>

{x2 ,x' + x,x+ 1} es

{J, x' + x, x + l } es un sistema generador de P, :

53

1 Espacios vectoriales

Cualquier elemento de P, es de la forma al + bx + e; para que {x', x' + x, x + + l } sea generador la ecuación (Lt' + bx + e = a! + f3(x2 + x) + o(x + 1) debe tener oluciones reales para a, 13, o. En efecto, (Lt' + bx + e =al + f3(x' + x) + o(x + 1) =x'{a + fJ) + x(f3 + O) + + o => a = a - b + e; => 13 = b - e; o = e; a, 13, o existen y son reales para cualquier polinomio de P2, porque existen y son reales, a, b, c. b) En 5x' + 3x + 1, los coeficientes son: a = 5; b = 3; e = 1 => a=5 - 3 + l =3 ; 13=3 - 1 =2; c = l => 5x' +3x+ l =3x'+2(x' +x)+ + I(x+ 1). Las coordenadas de 5 X2 + 3x + 1 respecto a la base dada son (3, 2, 1). c) Para que {x', x' + x, x + 1} sea base de P" nos falta añadir x' ; el conjunto {x' , x', x' + x , x + 1) puede generar P" y los vectores que lo forman son un conjunto de vectores linealmente independientes. Hemos añadido x' , pero hay otras muchas posibilidades como por ejemplo, x' -x', x' - x' + x, x' + 1, .. . d) El polinomio 5x' + 3x + 1 también pertenece a P" por tanto, se puede expresar como combinación lineal de los elementos de cualquiera de sus bases. En particular, 5x' + 3x + 1 = ax' + f3x' + o(x' + x) + r(x + 1) = ax' + (f3 + + O)x' + (o + r)x + r => a = O, 13 = 3, 0= 2, r = 1. Las coordenadas de 5x' + 3x + 1 respecto a la base {x', x', x' + x , x + 1) son (0,3,2, 1).

Ejercicio 1.8

Sea S = {(2, -1,2,3), (1, 3, 2, 1)}

e lit. Se pide:

a) Escribir unas ecuaciones paramétricas de (S); b) Determinar si el vector (11 , -2, 12, 16) pertenece a (S), y si es así, encontrar la combinación lineal que lo genera; c) Determinar el valor de los parámetros ni. y n para que el vector ü = (1, m, 4, n) pertenezca al subespacio de lit generado por los vectores, v = (2, - 1, 2, 3) yw = ( 1, 3, 2,1).

54

(

Ejercicios

Solución: a) Ecuaciones paramétricas:

(S) = (A(2, -1, 2, 3) + /1(1 , 3, 2,1) I A,/1

4

E

III )

=> {

X,

= 2A +/1

X2 X,

= - A + 3/1 = II + 2/1

x4=3A+/1

b) Para que (11, -2, 12, 16) pertenezca a (S), deben existir soluciones en el sistema formado por las ecuaciones paramétricas:

~

II =ll+/1 -2 = -A + 3/1 12=ll+2/1 16=3A+/1

Los valores de A, /1 obtenidos como solución de las dos primeras ecuaciones son A = 5, /1 = 1; que convierten en identidades las dos últimas ecuaciones, por tanto, (11 , -2, 12, 16) E (S), Y la combinación lineal que lo genera es : ( 11 , -2, 12, 16) = 5(2, - 1, 2,3) + 1(1 ,3,2, 1). c) Del mismo modo que en el apartado anterior, para que (1, ni, 4, n) pertenezca a (S), deben existir soluciones en el sistema de ecuaciones formado por las ecuaciones paramétricas:

l=ll+/1 =-A + 3/1 4 { = 2. Lz G:l L3 = ~4. Cualquier vector de ~4 se puede obtener como suma de un vector de Lz y otro de L3.

t

¡ = X2

L¡ n 0, está fonnado por los vectores que verifican las ecuaciones X2 = X3 Y X 3 = X4

X2 = 2~4 { X4 = 2 L¡ n 0, {(O, O, O, O)} => L¡ + 0, es suma directa. Cálcu.lo de L¡ G:l L 3: Base deL¡ = {( I , 1, 1, I) } Base de 0, = { ( 1, O, O, O), (O, 4, 1, 2) ) Si v E L¡ G:l L3 => V = V¡ + V3 / V¡ E L¡ Y V3 EL-,.

= a + f3 x2=a+48 .. " ' que elLm lX3 = a + u x4=a +28

Xl

. . Unas ecuacIones paramétncas de L¡ G:l L3 son: {

nando los parámetros dan lugar a las ecuaciones cartesinas X2 + 2 j(-v) = - j(v)

3. Si dos vectores son linealmente dependientes, sus imágenes mediante una aplicación lineal también lo son. Demostración: Sea {U ¡, U2} un sistema ligado => Si A¡U¡ + ,A, = ... = Aq = O => {fiu ,)•. ..•f(uq) } es un conjunto libre. y la dimensión de la imagen defes q. Hemos demostrado que p + q = 11.

77

2 Aplicaciones lineales

• Ala dimensión de la imagen de/ se la llama Rango de la aplicación lineal: rglf).

Ejemplo 2.2.2

En el ejemplo 2.2. 1 se verifica dim Nuclf) + dim lmlf) = dim V. En efecto: La dimensión de M = {(

+ G I2

~:', G~')} es tres porque (~;: G O') = (¿ ~) + Gil

(~ ¿) + (~ ~) y {( ¿~),( ~ ¿),(~ ~ ~ es un sistema libre, es deG2I

cir, es una base de M formada por tres elementos. dim Nuc lf) = O, porque Nuc lf) = (~

~)

dim 1m lf) = 3, porque: Imlf)

= {(x"

(x" x"

x"

X 3,

X 3, X4) E

ihl' / X4

=O} = {(x"

x"

X 3,

O)

E

ihl

4 }

O) = x, (1, O, O, O) + x, (O, 1, O, O) + X 3 (O, O, 1, O)

como { {(l , O, O, O), (O, 1, O, O), (O, O, 1, O) I es un sistema libre

junto es una base de lmlf)

e

=

este CQn-

ihl' formada por tres elementos.

A

Ya conocemos la importancia de las demostraciones en matemáticas, pero además de su valor intrínseco, a lo largo de ellas, se utilizan y demuestran propiedades importantes que tienen valor fuera de dicha demostración. Como parte de la demostración anterior ha quedado demostrada la propiedad expresada en la proposición siguiente:

78

2.2. Subespacios distinguidos: núcleo e imagen

2.2.6. Proposición

aplicación linealf : \1-. W conserva la independencia lineal si e l núcleo de la Icación lineal es { O}

.1

La parte de la demostración anterior que demuestra esta proposición es: "Debernos comprobar que {u" ... , uq } linealmente independientes ~ lf(u ,), ... , f(u q)} son linealmente independientes si el núcleo de la aplicación lineal es {O}; .1,U, + ... + .1qUq = O ~ f(.1 ,U, + ... + .1qUq) = .1J{u,) + ... + + .1J(uq) = f(O) = O. Corno .1, = ... = .1q = O porque {u" ... u q } son linealmente independientes ~ f (u,), ...,f (uq) son linealmente independientes." ~

79

2 Aplicaciones lineales

2.3. Aplicaciones lineales y matrices

fi

Determinar una aplicación /: V ---7 We s dar un procedimiento que pennita calcular las imágenes de los elementos de V. Hay distintos procedimientos para determinar una aplicación: • Si el conj unto tiene un número finito de elementos (no es lo mismo que de dimensión finita), se pueden dar las imágenes de todos y cada uno de ellos. • Se puede dar una ley de formación que pemuta asignar a cada elemento de V un elemento de W, de modo que/verifica las condiciones dadas en [2.1.1J como hemos hecho en 2.2 . • Si la aplicación es lineal, no es necesario dar esa ley de formación ni las imágenes de todos los elementos, es suficiente dar las imágenes de los vectores de una base, porque por ser lineal, con ello quedan determinadas las imágenes de todos los vectores de V, es dec ir, queda determinada la aplicación. Las imágenes de los elementos de V son elementos de W, y vienen dados respecto a una base de W, que hay que fijar prev iamente.

2.3.1. Teorema Si V, W son dos espacios vectoriales sobre IR; B = {e" e" .... e,, ) es una base de V y S = {W" w" ... , W,, ) un subconjunto de W, entonces, existe una aplicación lineal única/ : V ---7 W , tal que,f(e,) = w, ,f(e,) = w" ....f(e") = W"

Demostración: Como hemos hecho en otras ocasiones para demostrar que algo existe, lo construimos. Queremos demostrar que existe una aplicación lineal /: V ---7 W, vamos a construirla:

80

2.3. Aplicaciones lineales y matrices

Cuando se fija la base B en V. cualquier vector x E V. se puede escribir dando sus coordenadas respecto a la base: x = (x¡. x, • .... x,). es decir. x = x¡e¡ + +X2 ez + +x,;e". Construimos de la siguiente manera la imagen de cada elemento de la aplicación: o •



j(x) = j(x¡e¡ + x,e, + ... + x,e, ) = x¡j(e¡) + x,f(e,) + ... + xJ(e,) = = x¡w ¡ + x,w , + ... + x,w , => La aplicaciónf existe.

Como las coordenadas (x¡, x, • ... • x,) de un vector x son únicas respecto a una base B => la aplicación f es única. Para ver que es lineal debemos comprobar que la aplicación construida así. verifica las condiciones dadas en (2.J.J]: j(Xi

+ liy) = ).j(x) + J.lfl.Y); 'Vx. y

E V; 'V),. J.l E

IR

En efecto.

+ J.lYJ = j(M¡ + J.ly¡)e ¡ + ... + (M, + J.ly,)e,) = = [(M¡ + J.ly¡)w¡ + ... + (M, + J.ly,)w,l = = (M¡W¡ + ... + M,W,) + (uy¡w¡ + ... + J.ly,w,) = = (M¡j\e ¡) + ... + MJ(e,)) + (uyJ\i! ¡) + ... + J.lyJ(e,)) = =)'(x¡j\e¡) + ... + xJ(en)) + J.l(y¡j\e ¡) + ... + yJ(e,)) = = ).j(x¡e¡ + ... + x,e,) + J.lj(y¡e¡ + ... + y,e,) = ).j(x) + J.lfl.Y)

j(Xi

=>

La aplicación f es lineal.

2.3.1 Seaf: IR' -7IR J / j(l. O) = ( l. 2, 1);j(0. 1) = (1. 1, O) una aplicación lineal. Determínense unas ecuaciones de dicha aplicación. Solución: B= {(l. O). (O. l)} es una base de IR'. {(l. 2. 1). (l . l . O)} e IR • (no es base) (x¡, x,) = x¡(I. O) + x, (O. 1); por ser f lineal podemos escribir: J

81

2 Aplicaciones lineales

y, = x, +x, =>

y, = 2x, + x, son unas ecuaciones de la aplicación lineal dada, que

{ Y3 = x , permiten calcular la imagen (y" y" Y3) de cualquier elemento (x" x, ) de 1I\l'.

Ejemplo 2.3.2

¿Se puede determinar alguna aplicación lineal f: 1I\l' ~ 1I\l', tal que,.I(2, 3) = (O, l);.I(-2, - 3) = ( l , O)? Solución: No puede haber una aplicación lineal que cumpla las condiciones dadas, ya que, si fuera lineal, debería cumplirse: .1(-2, -3) = j [-(2, 3)] = - 11\2, 3) = = -( 1, O), mientras que, en el enunciado aparece.l(-2, - 3) = (1, O). Una aplicación lineal se puede determinar dando sus ecuaciones, como hemos hecho en el ejemplo anterior, pero también se puede hacer dando una matriz que va asociada a cada aplicación lineal cuando hemos fijado una base en el conjunto V y otra en el conjunto W.

2.3.2. Matriz asociada a una aplicación lineal

Si \ . W son dos espacios vectoriales sobre R B = ¡¡'l. e, . ... , e" I es una base de V. S = {u ,. u,. .... uml una base de W y f una aplicaci ón lineal dc \ en W. Se Uama matriz asociada a la aplicación Iinealfrespecto a las bases B y S, al conjunto A de elementos ordenados en una tabla rectangular de /Jl filas y 11 columnas

82

2.3. Aplicaciones lineales y matrices

J se puede escribir como combinación lineal de los elementos de fl.B).

fl.x) =fl.x ,e, + x,e, + ... + x,en)

=x,fl.e,) + xW,) + ... + xJ(e,)

2.3.4. Definición Rango de una matriz es el rango de la aplicación lineal asociada denotada rg (A)

2.3.5. Teorema El rango de una matriz es el número de vectores columna linealmente independientes que hay en ella

84

2.3. Aplicaciones lineales y matrices

Demostración:

Si f(B) es la imagen de una base de V, es un sistema generador def(V), por tanto, la dimensión de f(V) será el número de vectores linealmente independientes que haya enf(B). Las columnas de la matriz A son los vectores de f(B), por tanto, el número de vectores linealmente independientes que hay en f(B) será el número de veclores columna linealmente independientes que hay en A. El rango de la aplicación lineal se puede definir como la dimensi6n de imagen o el rango de la matriz asociada.

SI/.

Ejemplo 2.3.4

En la aplicación del ejemplo 2.3. 1, la dimensión del subespacio imagen es 2, porque

(

~;

) =

X,

(~

)

+ X,

(l ),

es decir

(~ ) y ( l)generan la imagen; además, co-

mo son linealmente independientes, son base de Im (f) y su dimensión es 2.

85

2 Aplicaciones lineales

2.4. los espacios vectoriales (L( V, W), +, 1Ri ) Y (Mmxn ,+, 1Ri) Llamaremos L(Y; W) el conjunto de todas las aplicaciones lineales posibles entre dos espacios vectoriales sobre lRi : V de dimensión 11, y W de dimensión /1/ . Estamos acostumbrados a sumar aplicaciones, multiplicar aplicaciones por escalares y componer dos aplicaciones. En este apartado vamos a ir viendo las propiedades que tienen las operaciones citadas, y como consecuencia, la estructura algebraica que tiene L(V, W) con las distintas operaciones definidas con sus elementos.

2.4. 1. Teorema (L(\. W).

+. IRiJ es un espacio vectorial sobre lRi

Demostración: Si I y g pertenecen a (L(Y; W). +), la suma de aplicaciones se defin e como: !J + g)(v) = f(v) + g(v)

La suma es una aplicación lineal: !J + g)(av , + {Jv, ) = f(av, + {Jv,) + g(av, + {Jv,) = f(av ,) +f({Jv, ) + g(aV,) + + g({Jv,) =!J + g)(av,) + !J + g)({Jv,) = a!J + g)(v.) + f3!J + g)(v,)

Es evidente que, tiene las propiedades conmutati vas, asociati va, existencia de neutro (la función nula, tal que 0(\1) = 0, ';Iv E V), y elemento opuesto de 1: -1, tal que (-.fJ(Ti) = -f(Ti) . Por tanto, (L(Y; W), +) es un gr upo con m utativo.

86

2.4. Los espacios vectoriales (L(V, W), + IR) Y (Mmxn ,+, IR)

El producto de una aplicación lineal por un escalar se define como: (Af)(V) = Aj(V), siendo f E L (Y, W) YA E IR.

El producto de escalar por aplicación lineal es aplicación lineal: (Af)(av, + {IV, ) = Af(av, + {IV, ) = A[f(av,) + j(fJV2)] = A[aj(V,) + jJj(v, )] = = aAf(v ,) + jJAj(V,) = a(Af)(v ,) + a(Af)(v, )

Es claro que esta operación tiene las propiedades que sirvieron para definir un espacio vectorial en [1 .2.2]: l. 2. 3. 4.

Distributiva de escalares respecto a aplicaciones: A(f + g) = Af + Ag. Distributiva de aplicaciones respecto a escalares: (A + ¡¡.)! =).f + pI Asociati va: (Ap )! = ).,(¡¡.f). Existe e l escalar unidad, 1, que cumple lf = I

Hemos demostrado que (L (Y, W), +, IR) es un espacio vectorial sobre IR. Por ser (L (Y, W) , +, IR) un espac io vectorial, las aplicaciones lineales de l espacio vectorial V (cuyos elementos son los vectores de V) en el espacio vectorial W (cuyos elementos son los vectores de W) son vectores. Sea f E L (Y, W) , recordemos que dim(V) = n y dim(W) = m, y que si fijamos una base en V y otra en W , cada aplicación f: V -) W lleva asociada una matriz de orden ni x 11. Representaremos por Mm"" el conjunto de todas las matrices de orden ni x 11. Recordemos que, una ap licación tal que su inversa también es apli cación, es una biyección o cOlTespondencia biyectiva. Este es e l caso de la correspondencia que existe entre las aplicaciones lineales y las matrices, cada aplicación lineal de L (Y, W) lleva asociada una matriz única de Mm~" y cada matriz de MmX. determina una aplicación lineal única de L(V, W). g

L (Y, W)

87

2 Aplicaciones lineales

La correspondencia biyectiva existe entre el objeto de estud.io L(V, W) Y la herramienta utilizada, M"",,,, nos induce a analizar la estructura de ambos conjuntos simultáneamente.

2.4.2. Teorema (Mm",,, +. IR) es un espacio veclOrial sobre IR

Demostración:

Mmx" x Mmxll

~

Mmrn : Operación de sumar matrices de orden

In X 11.

Si A = (aij) es la matriz asociada afA : V ---7 W y B = (b'j) es la matriz asociada af. : V ---7 W, llamaremos matriz suma A + B a la matriz asociada a la aplicación f A+ f . : V ---7 W Basta ver la definición de suma de aplicaciones para establecer que A + B = = (aij + b,). La expres ión analítica de f A + fB es y = (A + B)X Por la correspondencia biyectiva existente entre L(V, W) Y M_ , tal que conserva la operación de sumar, podemos asegurar que (M"""" +) tiene las mismas propiedades que (L(V, W), +), es decir, es un grupo conmutativo. M mXn x IR - - 7 M mXn por un escalar A E IR .

:

O per ación de multiplicar una matriz A

E

M mXn ,

Si A = (aij) es la matriz asoc iada afA : V ---7 W, la operación de multiplicar la matriz A E Mn ",,,, por el escalar A E IR, da como resultado la matriz AA E MmXn , que es la matriz asociada a AfA. Uti lizando la definición de aplicación por escalar => AA = (Aa,). Por la correspondencia biyectiva existente entre L(V, W) Y Mm",,, tal que conserva la operación de mu ltiplicar por escalares, podemos asegurar que am-

88

2.4. Los espacios vectoriales (L(V, W), + IR) Y (Mmxn ,+, IR)

bos conjuntos tienen las mismas propiedades al multipLicar sus elementos por un escalar: l. 2. 3. 4.

Distri butiva de escalares respecto a matrices: A(A + 8 ) = AA + AB Distri buti va de matrices respecto a escalares: (A + ¡.t)A = AA + ¡.tA Asociativa: (A¡.t)A = A(¡.tA) Existe el escalar unidad, 1, que cum ple LA = A

La aplicación f: L (V, W) --. M """" que asocia a cada apLicación Lineal una matriz, es una aplicación biyecti va que transforma la suma de aplicaciones en suma de matrices, y al producto de escalar por aplicación en escalar por matri z, es decir, conserva las operaciones del espacio vectorial. Una apLicación biyectiva que conserva la estruc tura de espacio vectorial recibe el nombre de isomorfismo entre los espacios vectoriales. Hemos demostrado que el conjunto (Mm",,, +, IR) es un espacio vectorial isomor fo a (L(V, W), +, IR).

Ejemplo 2 .4 .1 1

2

Dadas las aplicaciones lineales asociadas a las matrices A = ( O - S

-3 4)

l -1 Y

. , ana 1JIJca ' · de las ap l·IcaclO. B= ( 3 2 -SO - 62 -- 31 ) ,se PI·d e esta blecer la expreslOn nes lineales asociadasfA.!B, la aplicac iónfA+ 2f8' Y la matriz correspondiente a esta aplicación. Solución: 1 2 ( O- S

-3 4) 1- 1

es la matriz de la aplicación LinealfA : IR' -.IR' , cuya expresión es:

89

2 Aplicaciones lineales

(~ -~ _~

=;)

es la matriz de la aplicación linealfB : lit --7 ~', cuya expresión es:

- 5X2 + 6X3 - Ix, (y,y, )=(32 - O5 -26 --31 )( ;:X3 ) .,. {y,Y2 =3x, 2y, + OX2 - a 3- 3X4 =

X4 fA : ~4 --7 ~'I (x" X2, X3, X4) fB : ~

4

--7 ~

2

fM2B : ~4 --7

--7

( Ix, + a , - 3X3 + 4X4, OX , - 5X2 + IX3 - IX4)

I (x" X" X3, x,) --7 (3x, - 5X2 + 6X3 - Ix" a, + OX2 - a 3- 3X4) ~2 I (x" X2, X3, X4) --7 (7x , - 8X2 + 9X3 + a4, 4x, - 5X2 - 3X3 - 7X4)

(3-56 - 1) (7-892) . .. 1 2-34) ( 0 - 5 1 - 1 + 2 2 0 - 2 -3 = 4 - 5 - 3 - 7 es la matriz de la aplIcaC ión lineal fA+2B '

2.4.3. Teorema

I Dim(L(\. W), +. ~) =dim(Mn~n. +. 1Il;) =

ni X 11

Demostraci ón: Para saber la dimensión de (Mmx., +, ~), es suficiente conocer el número de elementos de una de sus bases.

90

2.4. Los espacios vectoriales (L(V, W), + IR) Y (Mmxn ,+, IR)

{E'j' i = l, ..., m,j = l , ... , /11 es una base si cada Eij es la matriz de orden m x x n que tiene O todos los elementos, excepto el que ocupa la fila i, columna j , que vale 1. La base así construida es la base canónica y tiene m X 11 matrices E'j' y por tan to, la dimensión de (Mm"", +, IHI) es m x /l.. La dimensión de (L (V, W), +, IHI) es también m X 11 por ser isomorfo a (Mil/xli) +, IR:) .

Ejemplo 2.4.2 La base canónica de M"" es:

~(lOO OO O) ' (OOO 10) 1)' (00 0) (O 00) (00 o)il . L O' (OOO OO I O O ' O I O ' O O I IJ' tiene 6 matrices linealmente indepedientes.

91

2 Aplicaciones lineales

2.5. Composición de aplicaciones lineales y producto de matrices A veces hay que realizar una serie sucesiva de transformaciones a un elemento de un conjunto inicial , de manera que el transformado mediante una aplicación es el elemento a transformar mediante la siguiente aplicación; ese proceso es e l de componer apl icaciones. Si V, W, U son tres espacios vectoriales reales, g y f son las siguientes aplicaciones lineales, se puede construir la aplicación lineal f o g (se lee g compuesta conJ), de modo que, la imagen mediante la aplicación sucesiva de g y f a cualquier vector de V, dé el mi smo resultado que la aplicación de f o g a dicho vector.

y = g(X) • Obsérvese que se escriben en orden inverso a como se aplican. La forma de multiplicar matrices parecería artificiosa si no fuera la expresión analítica de la composición de aplicaciones; vamos a ver por qué está definida de esa extraña manera.

2.5.1. Teorema La composición de dos aplicaciones lineales es una aplicación lineal

92

2.5. Composición de aplicaciones lineales y producto ...

Demostración: Si g y f son las aplicaciones del gráfico anterior. por ser lineales podemos escribir:

Jo

=

=

=

g(AV, + jiV,) j[g(AV, + jiV,)] f (Ag(V,) + jig(v,)) Aj(g(V,)) + jij(g\v,)) = = A(j o g)(v,) + ji(j o g)(v,). quedando demostrado que f o g es lineal. Si dim(V) = n. dim(W) = p y B es la matriz asociada a la aplicación lineal

respecto a las bases canónicas. g : V -7 W "" B E Mpxn • Si dim(W) = P. dirn(U) = m y A es la matriz asociada a la aplicación lineal. respecto a las bases canónicas.!: W -7 U "" A E Mrnxp' Como dim(V) = n, dim(U) = m la matriz asociada a la aplicación lineal. respecto a las bases canónicas.! o g : V -7 U será de orden m x n. En estas condiciones definimos el producto de matrices como la matriz de la aplicación composición.

2.5.2. Definición de producto de matrices ,u¡ es la matriz asociada a f o g : l' -7 U. siendo A la matriz asociada a f: W -7 U B la mauiz asociada a g : V -7 W

2.5.3. Cálculo del producto de matrices La aplicación lineal g : V ne por ecuaciones:

-7 W,

cuya matriz asociada es B = (b ij ) M pxn , tie-

, (y" y, • ... , Yp) h=l •...• p .

=g (x"

x" ...• x,); Cada Yh

=bhlx, + bh7.X,'+ ... + bh,x, =Lbhjxj; J=I

93

,1

2 Aplicaciones lineales

La aplicación lineal f : W tiene por ecuaciones:

~

U, cuya matriz asociada es A = (aU)

E

Mn.xp,

p

(z"

Z" ... ,

Zm)

=fu"

... , m

Y2, ..., Yp) ; Cada Z; =adY' + a,1J!2 + ... + a;pYp =h:::\ ¿a;hYh; i

Las ecuaciones de la aplicación IUleal f es AB = (Cu) E M _ , tendrá por ecuaciones: (Z" z" ... , zm) p

Cada Z;

=fu" Y2, .. ., Yp) =fIg(x" p

n

n

=h=¿a;h.Yh =h=1 ¿a;h ( ¿ b;¡,X) = ¿ 1 j= l

o

= 1,

g : V ~ U, cuya matriz asociada

X2, ..., x n ) ] =f o g(x" X2, ... , x n ) l'

( ¿a;"bhj)Xj para i

j= \ 11=1

= 1, ... , m

En Informática el uso de expresiones de este tipo equivale al uso de bucles (De i = 1, ..., m; For i = 1, ..., m), son válidos también para expresar flujos condicionales (i está entre 1 y m, con i '" j ) o para flujos repetitivos (i está entre m y 11).

A

Uti lizar el símbolo L simpl ifica la escritura de una suma, aunque puede hacer más difícil la interpretación de la expresión, por ello, vamos aclarar su significado. Al escribir la matriz asociada a la aplicac ión lineal que tiene estas ecuaciones, se obtiene una matri z tal que, el elemento que ocupa la fi la i, columna j : C;j de AB = (Cu) E M mx", se ha obtenido haciendo la siguiente manipulación: " Primer elemento de la fila i de la matriz A por primer elemento de la columnaj de la matriz B, más segundo e lemento de la fija i de la matriz A por segundo elemento de la columna j de la matriz B, más ... , más elemento p -esimo de la fila i de la matriz A por elemento p -esimo de la colunma j de la matriz B". Todo este proceso se puede escribir con la siguiente expresión: p

e = (Cij) E M,nXn, siendo cij = ail bl} + a,'2b2j + ... + a¡pb¡,j = k-L1aik b .

kj ;

i = 1, 2 .. .

m;} = 1, ,." n..

94



2.5. Composición de aplicaciones lineales y producto .. .

Esta es la fonna en que el estudiante ha visto siempre el producto de matrices, Abusando del lenguaje, se dice que se obtiene el elemento do la fila i de A por la columnaj de 8,

c ij

multiplican-

x x Fi laideA

Qi2

.. . .. . .. . ..... .

Columna } de B • Obsérvese que para poder componer aplicaciones, el espacio final de la primera transformación que se aplica, debe ser e l inicial de la segunda transformación, que en lenguaje de matrices equi vale a decir "sólo se pueden multiplicar dos matrices cuyos órdenes son m X p YP X 1/" ,

2.5,4. Teorema

,.:omposic ión de dos aplicaciones lineales verifica: 'io es conmu tati va: f o g puede ser 1'- g "f - Ex iste la aplicac ión identidad: ¡ of= f \ sociati va: if o g) " h = f o (g " /) Di stributiva respecto a la suma por la izquierda: h ,, (f + g) = h of + /¡ " g Distributi va respecto a la Suma por la derecha: if + g) o h = f o /¡ + g" h Asociati va con escal[U'es )jf o g) = (A./) o g = f o (A.g)

95

2 Aplicaciones lineales
(g o j) (X" x,) = (XI + X" X, + x,)

IR' --'.. '-

-7)

IR'

- "'_-7)

IR'

(X" x,) -7 (XI, x ,) -7 (2):, , O) => (f o g) (XI , x,) = (2):,, O)

Por tanto, (g o f) # (f o g).

v

2. i es la aplicación identidad definida en 2.1 como i(V) = Vv. 3 . [(f o g) o h](x) (f o g)(h(x» j(g(h(x») [f o (g o h)](x) = j[(g o h)(x)] = g(h(x))) 4. [h o (f + g)](x) = h«(f + g)(x)) = h«(f(x) + g(x» = h(f(x» + h(g(x» (h o f + h o g)(x) = (h o j)(x) + (h o g)(x) = h(f(x» + h(g(x»

=

=

5. Es idéntica a la 2. 6. [A.(f o g)] (x) = A.(f o g)(x) = A.(f(g(x» = A.j(g(x» [(A.j) o g ](x)

96

=(A.j)g(x) =A..f(g(x»

2.5. Composición de aplicaciones lineales y producto ...

2.5.5. Teorema El producto de matrices verifica: l . No es conmutativo: AB puede ser BA _. Existe la matriz identidad: J E M,x. tal que 1.A = A Y I E Mp,,:" 3xI + 4x,);f.(x" x,) =(x" XI) f.!flo(x" x,» = (3xl + 4X2, XI + 2>:,) fA!f.(.t " X2» = (X2 + 2>:" 3x, + 4xl)

*

Para ver que la 6 es cierta, es suficiente construir la aplicación i de los gráficos siguientes:

i(x) =

x

Cuando en un conjunto hay defInidas dos operaciones, de modo que, respecto a una de ellas es grupo conmutativo, la segunda es asociativa y es distributiva respecto a la primera, tenemos la estructura algebraica llamada anillo. Podemos recopilar las propiedades que hemos visto en el siguiente teorema:

100

2.6. Álgebras de endomorfismos y matrices cuadradas

2.6.3. Teorema conjunto de endomorli smos de \ es un anillo no conmutativo con elemento ,IlrO

el conjunto L(Y, V) hay definidas dos operaciones: +, , V). +) es un grupo conmutativo \ \'), o) verifica la propiedad asociativa

o

distributiva respecto a + por la derecha y por la izquierda ) es conmutativa 'Iemento neutro

El conjunto de endomorfi smos de V tiene estructura de ani llo considerando las operaciones +, o, y estructura de espacio vectorial considerando las operaciones +, y multiplicación por escalares, además verifica la condición de asociati vidad con escalares. Esta estructura tan compleja se llama álgebra. El hecho de que los endomorfismos de un espacio vectorial se puedan componer siempre, nos permite multiplicar siempre sus matrices asociadas. Si A es la matriz asociada afA y B es la matriz asociada af., siempre es posible hacer AB, que es la matriz asociada afA o f •.

V

J,

)V

J,

)V

X --- fn(x) ---Mi.(x))

plo 2.6.2

En el contraejemplo que pusimos anteriormente para la no conmutatividad, establecimos los siguientes endomorfismos de IR' : f A(x" x, ) = (x, + 2x" 3x, + 4x, );f.(x" x, ) = (x" x,).

La composiciónf. o f A es:

101

2 Aplicaciones lineales

¡,

¡,

IR' - - - t ) IR' -----=--'---7) IR' (X i>

x,) ---7 (x, + 2x" 3x, + 4x, ) ---7 (3x, + 4x" x, + 2x, )

Las matrices asociadas afA y f8 son A

=

(j ;)

y B

= (~

6) respecto a las

bases canónicas. Su producto es siempre posible, porque siempre es posible componer los endomorfi smos en este caso la matriz asociada af8 o fA es:

Hemos estudiado el conjunto de endomorflsmos, cada uno de ellos lleva asociada una matriz cuadrada. En el conjunto M n",,, (matrices cuadradas de orden 11), están definidas las operaciones de sumar, multiplicar matrices por escalare y multiplicar matrices por matrices con las propiedades que se derivan del isomorfismo L(V, V) (

f

) Mnxn

¡-' Por ello, podemos asegurar que Mnx., tiene estructura de álgebra, y como consecuencia, (M nxn, +,.) es un anillo.

102

2.7. Matriz asociada a un cambio de base en V. Matriz...

2.7. Matriz asociada a un cambio de base en V. Matriz asociada a una aplicación lineal cuando cambian las bases

Recordemos que fij ada una base B = {e" e" ... , e,, }, cualquier vector x E V, se puede expresar en función de los vectores de dicha base x = x,e, + x,e, + ... + + x"e" y llamamos coordenadas del vector :X respecto a la base dada a los coeficientes X¡, X2, .. " X II ' Elegir una base diferente B' = {e' " e'" ... , e',, } en V, significa que el vector x E V se puede expresar de la forma l: :::: Xle'! + X'2e'2 + + :t'/le'n, y sus coordenadas respecto a la nueva base son: XI! X2, XII' El número de coordenadas respecto a las dos bases en el mismo, porque todas las bases de un espacio vectorial tienen el mismo número de elementos, su dimensión, pero las coordenadas podrán ser distintas respecto a una base y a otra. Establezcamos el endomorfi smo identidad, de modo que, la imagen de cao• •

o ."

(\1; B')

) (\1; B)

Las imágenes de los vectores de B' mediante el endomorfismo i vienen dadas por las expresiones siguientes:

-Ce' ,) = e' , = q"e, + q2le, + ... + q",e"

{

i(~~~) ~.e/~.~ :.1.2~1..+ ~~2~~ .+ :: : ~. :n~~n ; i(e'n) :::: e'n = qlne¡ + q2ne2 +

o ••

+ qnnen

... q,,, )

q" q~,

Q=

(

q",

... q", CJn2

o • •

(j ,,,,

La matriz Q es la matriz asociada a i, se llama matri z del cambio de base Las columnas de Q son las coordenadas de los vectores de la base B' respecto a B.

103

2 Aplicaciones lineales

Las ecuaciones de la aplicación identidad que penniten pasar de las coordenadas de un vector respecto a la base B' a las coordenadas respecto a la base B se llaman ecuaciones de cambio de base , y son:

Ejemplo 2.7.1. Siendo B' = le'¡ = (1 , O, O, - 1), e'z= (O, 1,2, O), e'3= ( 1, - 1, 2, -2), e'4 = (O, O, 1, - I) } y B la base canónica, detennínense la matriz de cambio de base en ~4 , las ecuaciones del cambio de base que penniten pasar de las coordenadas respecto a B' a las coordenadas respecto a B , y la imagen respecto a B del vector (1, -3, 4, - 5)8'. Solución: (V, B') - - - ' " 7 ) (Y, B) vectores de B' respecto a B' (1 , O, O, 0) -(0, 1, O, O) (O, O, 1, O) (O, O, 0, 1)

Matriz Q del cambio de base: Q = (

vectores de B' respecto a B (l, O, O, - 1) ) (O, 1,2, O) ) ( 1, - 1, 2, -2) ) (O, O, 1,-1)

-'"7)

~ ? -\ ~) 2

- 1

104

2

1

° -2 - 1

2.7. Matriz asociada a un cambio de base en V. Matriz...

Ecuaciones del cambio de base:

X, =x', + x', XIX2) = (1°°I - 11 ° 0)(x'x'21) .,. X2 = x', -x', 2x', +2x', +x'4 2 2 1 x', {x,X4 ==-X',-2X', (X4X, - °J ° -X'4 -2 - 1 x'4 El vector conocido es x = (1, -3, 4, -5)8', para calcular X debemos hacer la sustitución de ( 1, -3, 4, - 5)8' en la expresión anterior:

XI ) (1°°1 - 1 1 ° -3.,. {XI x, =5 =-7 0) (1) 1 4 = -3 ° 2 2 (X4 - 1 ° -2 - 1 - 5 X4 =-4 X,

_

X,

-

X,

Comprobemos que (1, - 3, 4, -5)8' = (5, -7, -3, -4).:

x = ( 1, -3, 4, -5)8' = (1 , 0, 0, - 1) -3(0, 1,2, O) + 4(1, - 1, 2, - 2) -

x= (5, - 7, - 3, -4)8 = 5( 1, 0, 0, O) -7(0, 1, 0, O) -

5(0, 0, J, - 1) 3(0, 0, 1, O) -4(0, 0, 0, 1)

De la misma manera que hemos actuado para expresar en base B los vecto· res que están en base B', podemos repetir el proceso y obtener en base B' los vectores que están en base B.

(V, B)

) (V, B')

Cada vector de B pertenece a V, y su imagen mediante el endomorfismo i establecido, es el mismo vector expresado como combinación lineal de los vectores de la base B' de V:

:(~I) ~I Pll~:' P21~:2

t

P"'~:"

= = + + .. . + ¡(e2) == e2 == Pl 2e l + P22e2 + + pn2en; o • •

o ••

o ••

o • •

o • •

o ••

o ••

o • •

o ••

o •••••

iCen) ell = PII;e'¡ + P2ne'2 + ',- + PIUre'"

Pll P12 ,.. PI " ) P = P21 P22 ,.. p", ( o..

• ..

o ••

o ••

P nl Pn2 ... Pnll

105

2 Aplicaciones lineales

La matriz P también es una matriz de cambio de base. Las ecuaciones de este cambio de base son: x' = PI Es evidente que, si tenemos un vector expresado respecto a B', pasamos mediante Q a su expres ión respecto a B, y la imagen obtenida la expresamos respecto a B' utilizando P, el resultado es el vector original. Si utilizamos iQ para representar la identidad cuando es Q la matriz del cambio de base en V, podemos escribir: (Y, B')

IQ

)

(V, B) __i,--p--» (V, B')

)x=Qx'---~)X'= Px= PQx'

X'

La expresión X' = PI = P QX', demuestra que las matrices de cambio de base tienen inversa porque son matrices cuadradas, tales que PQ = 1 .

. - 1

Y por tanto, I Q = I p e

.

lp

**{~: ~~,',

. - 1

= IQ

.

En [2.3.2] vimos que " Si V, W son dos espacios vectoriales sobre IR, B es una base de V, S una base de W y f: V --7 Wes una aplicación lineal, la aplicación f lieva asociada una matriz A". ¿Cómo varía esa matriz si en V hacemos un cambio de la base B por la base B' , y en W cambiamos la base S por la base S'? Los cam bios producidos se ven en el diagrama siguiente:

(V, B)

fA

x i'Q (V, B') Xl

) (W, S) !(X) ." . I p.j,

fA-

ilp

) (W, S') (j(x))'

Para expresar la imagen de los vectores de (V, B') mediante la aplicación linealf en (W, S'), tenemos que hacer la composición de aplicaciones ¡p' o fA o iQ•

106

2 7. Matriz asociada a un cambio de base en V. Matriz...

La matriz asociada a la aplicación lineal al cambiar las bases es P-'AQ si Q es la matriz del cambio de base B' por B en V y P es la matriz de cambio de S' por S en W. La expres ión A' = p-' AQ es la fórmula de ca mbio de la matriz A asociada a una a plicación lineal cuando cambian a mbas bases.

e mplo 2.7.2

1R 3 es la aplicación lineal tal que,j( 1, 2) = (1, O, 1) Y1(0, 1) = (2, 1, O). Los vectores (l , 2), (O, l) están referidos a una base B = {elo e, l e IR', B' = = {e, + e" e, - e2l es otra base de IR'; los vectores ( 1, O, 1), (2, 1, O) están referidos a una base S = {5lo S2, 53l e 1R 3, S' = {s, + S3, S, - S2, s, l es otra base de 1R 3. Se pide la matriz asociada a la aplicación lineal respecto a las base B e 1R2 y 3 S e 1R • Se pide la matriz asociada a la aplicación lineal respecto a las bases B e IR' y S e 1R3 , la matriz asociada a la aplicación lineal respecto a las bases B' e IR' y S' e IR" y la imagen respecto a S' de un vector cuyas coordenadas /: IR'

---7

respecto a B' son (2, 3) . Soluc ión: 1(0, 1) = 1(Oe, H , ) = /(e,) = (2, 1, O); 1( 1,2) =1( 1e, + 2e2) = I}(e,) + 21(e2) "'" "'" 1(e,) = 1( 1,2) - 2f(e,) = (l , O, 1) -2(2, 1, O) = (-3, -2, 1)

I (IR', B) ---7 (1R 3, S) lleva asociada la matriz A = La matriz del cambio de la base B' es Q =

-f 2)b (-3

= {e, + e" e, - e, l a la base B = {e" e2l

U_~).

I I La matri z del cambio de base de S' a S es P = 0 - 1 (

1 O

n.

Necesitamos la

matri z de l cambio de la base S = {s" S2, s3l a la base S' = {s, + s" s, - s" S2 },

107

2 Aplicaciones lineales

que es p-', S en funci6n de las de S':

=>

OO 1) (1 1 - 1

p-' = 1 O - 1

La matriz asociada a la aplicaci6n lineal referida a las bases B' y S' es

1 10)-'(-32) O1)(-32 1) A' =(0-11 -2l O1 (: _:)= (O10-1 -21 O1)(:- :)= (1-2-6 1 OO 1 1- 1 -3 - 9 (j(2, 3» ,. =

(-~ J) m = (-2~ ).

-3 -9

-33

Si no hubiéramos utilizado la f6rmula encontrada, los pasos seguidos serían: 1. Expresar x

=(2, 3) respecto a B : x =Qx;

2. Calcular la imagen por1 de (5, 1) respecto a S : j(x) = Ax;

-3 2) (-n= (-1 1(5,-1)= (-;¿ -I~7) 3. Ex presar j(:y = (-17, - 11 , 5) respecto a S' : P-'I.f(X);

1)(-17) ( 5) 0-1 -11 = -22 . (00 1 1- 1 5 -33 1

108

2.8. Operaciones elementales en una matriz

2"S. Operaciones elementales en una matriz. Matriz elemental

Sabemos que una matriz A E M"Xn está asociada a un endomorfismo de V cuando se han fijado unas bases; decimos que son matrices equivalentes todas las matrices que representan el mismo endomorfismo aunque cambiemos las bases en V. Las sucesivas operaciones que permiten el paso de una matriz a otra equivalente se llaman operaciones elementales en las fiJ as o en las columnas, según donde se efectúen. Dichas operaciones son: 1. Permutación, o intercambio entre filas. 2. Sustitución de una fila por su suma con una combinación lineal de otras. 3. Multiplicación de una fi la por un escalar.

Ejemplo 2.S.1

1 -2

I)

(1O-21-11) (2

La matriz A = O I 3 es equivalente a la matriz B = porque ( 2 -2 I O I 3 se puede pasar de una a otra mediante las siguientes operaciones elementales en las filas.

1 -2

1) (1 -21) (1O -22 - 1)1 r (1Ol-2 -11)(2 O 1 3 O 1 3

A = O 1 3 rOl 3 r ( 2 -2 1 O 2- 1 F, ~F, -2F,

F, HF,

F, ~

=B

1/2F,

Obsérvese que todas las matrices que se van obteniendo en pasos intermedios son equivalentes.

109

2 Aplicaciones lineales

De entre las matrices equivalentes a una matriz dada, algunas son especialmente interesantes, porque es más fác il trabajar con ellas que con la original. Esto ocurre con las matrices escalonadas por fi las. A = (aij) es una matriz esca lonada por fil as (también lJamadaforma canónica de H ermite) cuando: 1. El e lemento a" = 1 (aunque muchos autores admiten la misma definición im poniendo sólo que a" '" O). 2. Cada f,la, excepto la primera, se inicia con una sucesión de ceros. 3. La sucesión de ceros que inicia cada fi la tiene algún cero más que la que inicia la fila anterior. 4. El primer elemento distinto de cero de cada fija, si lo hay, es un uno (o distinto de cero si sólo se pide que a" '" O) Y se llama cabecera de fi la. 5. Las filas cuyos elementos son todos ceros, si las hay, son las últimas. 6. En cada columna, los elementos que quedan por debajo del que sirve de cabecera de fil a, son ceros.

De fo rma intuitiva podemos resumir todas estas condiciones dibujando la fo rm a que ha de tener una matriz escalonada: De orden dos: ( 1 a 12 ); a22 puede ser O ó l . O a 22 1 al2 al ) ) De orden tres: O a22 a23 ; ( O O a33

2.8.1. Teorema Toda matril se puede transformar en otra equivalente escalonada por filas mcdiante transformacioncs elementales.

110

2.8. Operaciones elementales en una matriz

Una vez más, para ver que algo es posible es suficiente hacerlo; vamos a construir el algoritmo que pernlite esta transformación. l . Conseguir que el primer elemento de la primera columna sea distinto de O. Para ello, si all = O, se intercambia la fila uno con alguna cuyo primer elemento sea distinto de O. 2. Convertir e l pivote en uno. Se sustituye la fila que contiene el elemento elegido en el paso anterior por ella misma dividida por dicho elemento. Llamaremos pivore al primer elemento distinto de cero (queda situado en la cabecera de la fil a) . 3. Hacer que sean ceros todos los elementos de la columna del pivote que quedan por debajo de él. Se consigue sustituyendo la fi la en cuestión por ell a misma menos su coeficiente multiplicado por la fi la del pivote. 4. Se repite el procedinliento partiendo de la fi la siguiente.

Ejemplo 2.8.2

Dada la matriz: A =

2-1 O) 6 ~ i ,para encontrar una matriz equivalente de ( -3

5 I

forma escalonada, procederemos de la siguiente manera: 1. Tomamos all = 2 como elemento a transformar en elemento pivote. 2. Para que el pivote sea 1, hacemos la sustitución F , -7 1/2 F ,. 3. Para que queden ceros en la columna del pivote por debajo de é l, hacemos las sustituciones: F, -7 F, - 3F , Y F4 -7 F, + 3F,. 4. Volvemos a comenzar el ciclo tomando como elemento para convertir en pivote G" = 7/2.

Las transformaciones a aplicar son: F,

-7

2nF,; F,

-7

F, -7 F,; F,

-7

F,

-7/2 F,.

111

2 Aplicaciones lineales

~0-~7~ )-,2>(0 ~ -1~ ~ )-,>\~ -~~ 7207

A=(

-3 5 1

-3

5

o

1

O) (1-1(2 O) (1 - 1(2 O ) 1-,>0 12n-,>0 12n

2072000 7(2 1 O 7(2 l O O O

La matriz última es escalonada como queríamos. El uso de matrices escalonadas pennite obtener algunas conclusiones fácil mente, por ejemplo, el cálculo del número de vectores linealmente independientes que forman sus vectores filas y sus vectores columnas. Si A = (a;j) es una matriz de orden m X n, puede ser considerada como un conjunto de m vectores fila o como un conjunto de n vectores columna. De A se puede obtener una matriz escalonada B con un número r de fil as no nulas: all a'2

a21 a22

A

... a," ... a 2n

=

a • • • • O b • • O O O O e • • ... ... .. . ...... -'> O O O O O ... r • O O O O O ... O O ... ... O O O O O ... O O • ••

ami a m2 · · ·

...

amI!

o •





=B

• •

El símbolo "." expresa cualquier escalar, y debe entenderse que hay r fil as (o escalones) no nulas, con tantos pivotes: a, b, ..., r, como "escalones". La relación que hay entre las fi las linealmente independientes, las columnas linealmente independientes y el número de escalones viene dada por el teorema siguiente:

2.8.2. Teorema El número de vectores fila de una matriz A que son linealmente independientes coincide con el de columnas linealmente independientes y es igual al número de filas no nulas de su matri z escalonada

112

2.8. Operaciones elementales en una matriz

El teorema enunciado se puede desglosar en dos afirmaciones que demostraremos sucesivamente. Esta técnica también es empleada a menudo en programación, cuando un problema se divide en subproblemas que son resueltos mediante subrutinas. 1. El nlÍmero de vectores fila de una matriz, A, que son linealmente in-

dependientes coincide con elnlÍmero de filas no nulas de su matriz escalonada, r.

Demostración: Los vectores fila de B se han obtenido mediante operaciones elementales realizadas en los vectores fil a de A, y estas operaciones que consisten en cambiar el orden de los vectores, multiplicar los vectores por escalares y sustituir un vector por él más una combinación lineal de los otros, no modifican el número de vectores linealmente independientes según vimos en el capítulo uno. Por tanto, el número de vectores fila linealmente independientes que hay en B, es igual a r .

2. ElnlÍmero de vectores columna de una matriz A que son linealmmte independimtes coincide con elnlÍmero de columnas no nulas, r, de su matriz escalonada. Demostración: Para hacer esta demostración suponemos que el lector recuerda la teoría relativa a sistemas de ecuaciones que vio en cursos anteriores. Si no fuera así, puede saltar las demostraciones y volver a e Uas cuando haya estudi ado el capítulo cuatro. Sean el, e" ... , en los vectores columna de la matriz A correspondiente a las r columnas que contienen los pivotes en B ; para ver que son linealmente independientes, de la expresión: A¡e¡ + A,e, + ... + A.c, = Ose debe deducir A¡ = ít, =

= ... = A, = O. La expresión A¡e¡ + A,e, + ... + A.c, = Oexpresada componente a componente es un sistema de ecuaciones lineal homogéneo equivalente al planteado con las columnas correspondientes de la matri z escalonada B, ya que las opera-

113

2 Aplicaciones lineales

ciones que se han hecho son las operaciones e lementales, y en el sistema 8 es ev idente que la única solución es la trivial: Al = A2 = ... = A, = O. Además, no puede haber r + 1 vectores columnas de A que sean independientes, ya que la matriz escalonada 8 , tiene solo r fijas no nulas, pasmamos el vector columna C>"+I detrás del signo igual, A>"+I actuaría de parámetro, y como consecuencia, en el sistema de ecuaciones anterior habría infinitas soluciones para A,.

Ejemplo 2.8 .3

2 - 1 0)

En el ejemplo 2.8.2 la matriz A =

(

¿~

~

se puede considerar como el

-3 5 1 conjunto de vectores fila: F = {(2, - 1, O), (3 , 2, 1), (O, 7, 2), (-3, 5, 1) 1, o el conjunto de vectores columna e = {(2, 3, 0, - 3), (- 1, 2, 7, 5), (O, 1, 2, 1) l. De la matriz A se pasa a la 8 mediante transformaciones elementales, y por tanto, podemos afirmar que, el número de vectores linealmente independientes de F es igual al número de vectores linealmente independientes de e, igual al número de escalones de 8 , igual a dos. Si la matriz A es cuadrada, puede obtenerse como matriz escalonada por filas una matriz triangular superior, aunque algún elemento de la diagonal puede ser cero. Además, si todas las fi las son linealmente independientes, la diagonal principal de la escalonada tendrá todos los elementos di stintos de cero. En este último caso, se puede seguir transfomlando la matriz obtenida hasta llegar mediante operaciones elementales en sus fil as, a una matriz diagonal y posteriormente a la matriz unidad /.

2.8.3. Teorema Si el rango de los vectores fil a de una matriz cuadrada A es igual al orden de la matriz, entonces, se puede transformar A en la matri z unidad mediante operaciones elementales en sus fi las

114

2.8. Operaciones elementales en una matriz

Para demostrar este teorema es suficiente construir el algoritmo que permi te el paso de una a otra, de la mi sma manera que se hizo en el teorema anterior. Las operaciones elementales que hemos visto, se pueden realizar mu lti plicando la matriz dada por una matriz de una forma determ inada, las matrices que sirven para expresar el cambio se llaman matrices e lementales.

8.4. Definición de matriz elemental llama matriz e lementa l a la matriz cuadrada que se obtiene de la matriz unid ad efectuar una so la operación elemental en las filas (o co lumnas)

~ E

Mm"" Y E

Iquiera

=>

E

Mm"'" es una matriz elemental y T es una operación elemental

I

T

)E

A -'..1"_-» EA {

EA E Mm" es la matriz que se obtiene de A med iante la misma operac ión elemental que permite obtener E desde l . Demostración: Se puede hacer comprobando que es cielta la afirmación para cada una de las operaciones elementales al construir la matri z elemental correspondi ente. Demostrar por casos, sería equi valente en lnfonn ática a la verifi cación de un programa con condicionantes.

115

2 Aplicaciones lineales

l. Supongamos que T es la operación e lemental " intercambio de filas", y E la matriz elemental que se obtiene de 1 al intercambiar dos fijas, si elegimo las filas 1 y 2 no restamos generalidad al resultado (podíamos haber elegido

cualquier otro par).

a" al2 ... a,. ) ( O l ... O) A = a.~~ a~~. ....'. a~.~ ,E = ,I.. ~. :~: .~. ( O O 1 a mi G m2

EA =

o ••

Gmn

o..

(~.

que es la matriz que se deduce de A al efectuar en e lla la misma operación e lemental en las fi las que habíamos efectuado en E. 2. Supongamos que T es la operación elemental " multiplicar una fij a por un escalar A", si la fi la multiplicada es la dos, por ejemplo, la matriz elemental E obtenida desde 1 es:

1 O ... O) E = ~. ~...... ~. => ( OO

I

( 1 O... O) (all

EA

= ~.~.

:::?

O O ... 1

a~~

al2 ... a,,, ) ( all a" ... a,.)

a22 ::: a.",

a mi Gm2 ' "

G,nn

= A.a.~ ~ Aa" a mI

Om2

::: A.a.~ o. ,

G mn

3. Si T representa la operación elemental sustituir una fi la (elijamos la uno) por ella misma más una combinación lineal de otras (elijamos A veces la dos, por ejemplo), la matriz elemental E obtenida desde 1 al efectuar esa operación elemental es

E= (

~. ~ ~ ) . .:..

O O ... J

116

2.8. Operaciones elementales en una matriz

l A ...

~ EA =

(

°)(

O I

o..

O

o• •

'"

o..

o• •

O O o..]

(t" al2 ... a 21 o ••

a l" )

o. .

ami am2

=

(a " + Aa" al2 + Aa" ... a, ,, + Aa,,,) a 21

a 22

o..

o.,

o.,

o. .

...

o..

o•.

amll

ami

(1m2

0 22 ... a 2n

O"

a 2n O"

amI!

Ejemplo 2 .8 .4 La matriz unidad I se convierte en la matriz elemental E mediante la

siguiente operación elemental en las fil as: I =

100) (100) 1° O 1 O = E. (°001 111 ~

Cada operación elemental en las fi las de I t.iene, por tanto, su matriz elemental correspondiente. En el ejemplo, E es la matriz elemental correspondiente a la operación elemental "Sustituir la fi la tres por la fi la tres más la fi la uno más la fi la dos".

Si se realizan las operaciones elementales en las columnas se obtiene IUI resultado análogo, pero el producto es AE en vez de EA .

2..8.6. Teorema

M".x", es una matriz elemental y E' E M"""" es la matri z elemental de la ope'Ión inversa entonces, ambas son regulares y E' = [';' FE

117

2 Aplicaciones lineales

Demostración: Es evidente. sólo hay que observar la forma de los tres tipos de matrices elementales. cada uno de ellos corresponde a una operación elemental realizada en las fil as de la matriz unidad.

2.8.7. Teorema

I A E Mm~" tiene inversa.,. rg(A) =

/1

Demostración: Si A tiene inversa. es equivalente a la matriz unidad del mismo orden; los vectores fil a independientes que hay en / son I! (ya que el rango no varía por la aplicación de operaciones elementales) => En A también hay /1 vectores fil a independientes. en A hay n fi las independientes => A se puede transformar en la matriz unidad mediante operaciones elementales => A tiene => )

mversa.

Además es muy fácil el cálculo de dicha in versa: Sean E" E, • ...• En las matrices elementales correspondientes a cada operación elemental que llevan a la matriz A hasta la unidad / => En... E, · E, . A = / . multiplicando a la derecha por A- I ambos lados de la igualdad => En ... E, · E, . = A-l.

EJERCICIOS

Ejercicio 2.1

Determínese si!: ~' ~ ~'I j(X,. x,. x,) = (X I - 2x, . x, + X3) es una transformación lineal.

118

Ejercicios

Solución: Conserva la suma: f(x + y) = f(X) + (y) : (x,. X2. x,) ---7 (x, - 2t2. X2 + x,) (Y,. Y2. y,) ---7 (y, - 2Y2. Y2 + y,) (x, + y,. x, + Y2. x, + Y3) ---7 (x, + y, X2 + x,) + (y, - 2Y2. Y, + y,)

a2 - 2Y2. X2 + Y2 + X, + y,) = (x, -

a 2.

Conserva el producto por un escalar: f(XX) = Af(X): A(X" X2. x,) = (AX" Ax2. Ax,) ---7 (Ax, - 2Ax2• AX2 + Ax,) (x" X2. x,) ---7 (x, - a 2. X2 + x,) ; A(X, -a2. x, + x,) = (Ax, - 2Ax2. Ax, + Ax,)

Por conservar la suma y el producto es una transformación lineal.

Ejercicio 2.2 Determínese si! : [J;l' ---7 [J;l3 I f(x ,. X2. x,) = (a" x, + X2. O) es una aplicación lineal. y si lo es. estúdiense su núcleo y su imagen. Solución: Es una aplicación o transformación del espacio vectorial [J;l' en sí mismo. Las aplicaciones lineales de un espacio vectorial en sí mismo se llaman endomorlismos. Conserva la suma:f(x + y) = f(x) + f(Y)

(x" X2. x,) ---7 (2t" x, + x,. O) (y, . Y2. y,) ---7 (2y" y, + Y2. O) (x, + y" x, + Y2. X, + y,) ---7 (a , + 2y,. x, + X2 + y, + Y2. O) = (a" x, + X2. O) + + (2y,. y, + Y2. O) Conserva el producto por un escalar: f(XX) = J.f(x)

(x" X2. x,) (a,. x, + X2. O) A(a" x, + X2. O) = (2Ax" AX, + Ax2. O) A(X" X2. x,) = (Ax" Ax2. Ax,) ---7 (2Ax,. Ax, + AX2. O)

119

2 Aplicaciones lineales

Observación: estas dos condiciones se podían haber comprobado a la vez utilizando la caracterización de aplicaciones lineales. • Por conservar la suma y el producto, la tra nsformaci ón es lineal.

• •



El núcleo es ['(O, O, O) = [(x" x" x,)/(2x" x, + X2, O) = (O, O, O) 1 2x,

x,

=O}

=> Xl

=-

X2

=O

+X2 =0



Un subespacio vectorial se puede determinar nediante sus ecuaciones cartes ianas, paramétricas o mediante una base.

• . di ' 1 • Las ecuacIones cartesoanas e nuc eo son:

de

[t, L + x,X2 == OO Ejercicic X '=O

• Las ecuaciones para métricas del núcleo son: x, = O { x, =A

pid de I

Ya hemos encontrado unas ecuaciones, determi nemos una base:

aSOI

• El vector (O, O, J) es un sistema generador del núcleo; por ser sólo uno, es independiente => [(O, O, J) 1 es una base del núcleo. • El núcleo tiene dimensión 1 (recordemos que es el número de elementos de sus bases = número de parámetros en las ecuaciones paramétricas). 1m(/)

= [flx"

x" x, ) = (2x" x,

+ X2, O) 1 )

120

Ejercicios

• Los vectores (2, 1, O) Y (O, 1, O) generan la imagen de f y son linealmente independientes, por tanto B = {(2, 1, O), (O, 1, O)} es una base de Im(f). • La dimensión de la imagen es 2 • Unas ecuaciones paramétricas de la imagen son:

• Las ecuaciones cartesianas de la imagen son: x, = O Comprobamos que se cumple la relación entre las dimensiones del núcleo, de la imagen y del espacio origen IR' : dim(IR' ) = dim Nuc(f) + dim Im(f).

Ejercicio 2.3

Sif : IR'

IR' / 1(3, 1) = ( 1, 2);1(- 1, O) = ( 1, 1) es una aplicación li neal. Se pide: a) Determinar la matriz asociada af tomando la base canónica como base de IR' . b) Las ecuaciones de la aplicación. c) La imagen de (2, 4). --7

Solución: a) La base canónica de IR' es B = { ( 1, O), (O, I) }, para calcular la matri z asociada af hay que calcular 1( 1, O) Y1(0, 1):

(1 , O) = x(3, I) + y(- I , O)

[ 1 =3x -y

=> ~ = x

=> x =O;y =- 1

Por ser f lineal, se verifica: 1( 1, O) =j[O(3, 1)-1(-1, 0)] = 01(3, 1)- 11(- 1, 0) =0(1,2) - 1(1 , 1) =(- 1, - 1)

[ O= 3x - y=>

(O, 1) = x(3, I) + y(- I , O) => l l = x

x=1; y = 3

121

2 Aplicaciones lineales

Por ser f lineal, se verifica: 1(0, 1) = fIl(3, 1) + 3(-1, O)] = 11(3, 1) + 31(-1, O) = 1( l , 2) + 3( 1, 1) = (4, 5) Matriz asociada a J: ( - 1 4) -1 5 b) Ecuaciones de la aplicación:

+ 4X2 (YYI)2 =(-1- l 4)5 (XX2I) {YIY2 ==-X, -X, + 5X2 =>

c) La imagen de (2, 4) se puede calcular utilizando la definición de aplicación lineal y las imágenes de los elementos de la base. (2, 4) = 2( 1, 0) +4(0, 1). Por serf lineal, se verifica: fI2(1, O) + 4(0, 1)] = 21(1, O) + 41(0, 1) = 2(- l, - 1) + 4(4, 5) = (14, 18) También podíamos haber uti lizado las ecuaciones de la aplicación :

Y,

= -X, + 4X2 Y2 = -X, + 5X2

=>

{YIy, == -- 22 ++ 4.4 = 14 5.4 = 18

o podíamos haber determinado 1(2,4) a partir de la matriz:

f( ~ ) (=:~) (~ ) =

= ( :: )

Ejercicio 2.4

Sif: IR' ~ 1R' ¡1(I, 0, O) = O) = (1,1);1(0, 0, 1) = (1, O) es una aplicación lineal . Se pide: a) Determinar la matriz asociada aftomando las ba-

122

Ejercicios

ses canónicas de [J;l3 y [J;l2 b) Determinar las ecuaciones de la imagen del subespacio x, + x, - X 3 = O. Solución: a) Matriz asociada af: Es la matriz cuyas columnas son las imágenes de la base dada en [J;l3:

A=

1 1)

110

Las ecuaciones de la aplicación son: (

~;) = ( ~

I 1) (X')

1 O

X,

X3

b) Unas ecuaciones paramétricas del subespacio x, + X ,

"t'

x, := /1A. X3 -

A. + /1

'"

- X3

= O son:

(x,) I ) + /1 (OI ) X2 = A. ( O X3

1

I

{(1,0, 1),(0, 1, 1)) es una base dex , + X, -X3=0, portanto Ifl l , O, 1),.1(0, 1, 1) es un sistema de generadores de .l(x, + x, - X 3 = O),

=>

x, -

X3

= O) está generado por (J, 1)

Unas ecuaciones paramétricas de .l(x, + x, -

X3

= O) son:

(~; ) = A. ( T) '"

",Ix, = U I¿' = A.

Unas ecuaciones paramétricas son: x, = 2x2 •

123

2 Aplicaciones lineales

Ejercicio 2.5

Determínese las condiciones que deben cumplir dos matrices de igual tamaño para que su producto sea una matriz simétrica. Solución: Tienen igual tamaño Se pueden multiplicar matrices de orden m

} X

p YP X m

=>

m=p=n

• La primera condición es que sean cuadradas. Si plirse

e = A.,,,,B.,," = (Cij) E M.,,", para que el producto sea simétrico debe cum cij

=

Cj ¡

siendo

c ¡j

=



:¿ a¡,h'j r= 1

y

cji

=



:¿ a j ,h,¡ para r- l

todos los valores de i, j.

• Luego la segunda condición es que se verifique que, la fi la i de A por la columna} de B sea igual a la fila} de A por la columna i de B.

Recordemos la forma de multiplicar matrices: X X

Fila i de A

a il

a i2

....... . .......

a jn

b"j Columna} de B

124

Ejercicios

Ejercicio 2.6

Seaf : IR' ~ IR' una aplicación lineal tal que .fl:x¡, x" x, ) = (x, - x" x, + x,), y sea g : IR' ~ IR', una aplicación lineal tal que g(x" x, ) = (x, + x" x, - X 2, 2

(x,) x, = (2/3 - 2/3 ) x,

13/3

Para cambiar de coordenadas un solo vector no está justificado el esfuerzo de calcular las ecuaciones del cambio. Lo haríamos directamente: a(l,2, 3) +¡J(3, 4, O)+y(I, I, O)= 2(l , 1,0) + 1(0,1 , 1) + 1( 1, 0, 1) => a=

= 2/3; ¡J = - 2/3;

r = 13/3

Ejercicio 2.8

Dada la matriz A = ( (

31)

2 O ,se pide: a) Encontrar una matriz equiva1 3

lente escalonada por filas. b) Transformar la matriz obtenida en la matriz identidad mediante operaciones elementales. Solución: a)

1 31 11) ~ ( O 1 31 1) A= 131) 1 2 O ~ (131) O - 1 - 1 ~ (O 1 ~ (131) O 1 1 ( 1- 1 3 O -4 2 1 -4 2 OO6 OO 1

F, -7 F, - F , F, -7F, - F ,

F, -7 - F,

F, -7 F, + 4F,

F, -7 1/6 F,

129

2 Aplicaciones lineales

b)

131) 1 31 I1) ---) ( O 1 30) O 1 1 ---) ( O I O ---) (100) O 1 O =f ( 006 001 001 001

I

I

F, -7 1/6 F,

I

F, -7 F , - F, F, -7 F, - F,

F , -7 F , -3F,

Ejercicio 2.9

Demuéstrese que cuando se verifica a' + b' + e' = I con a. b, e E

a' ab ae )

las potencias de la matriz a.b b' b~ son iguales a ella misma. ( ae be e Solución:

a' ab ae)" (a' ab ae )

Queremos probar que ab b' b~ = ab b' be ,V 11 E IR

(

ae be e

ae be e'

Las tres etapas del método de inducción son: • Comprobar que es cierto para n = l .

a' ab ae) (a' ab ae)

Es ev idente que ab b' b~ = ab 1/ b~ ( ae be e ae be e

130

,

~

R todas

Ejercicios

• Suponer que es cierto para

(

ti -

l.

a' ab ae )'_1 (a' ab ae ) ab b' be = ab b' be ac be

(?

ac be e2

• Comprobar que también es cierto para n.

(:::~ :~)~I(;~ :~ :~) ae be e'

ae be e'

= (::

:~ :~) 1:: :~ :~) =

ae be e'

~e

be e'

a4 + a' b' + a' e' a'b + ab' + abe' a3e + ab'e + ae3) ' = a b + ab + abe- a' b' + b' + b'e' a' be + b'e + be' = ( a'e + ab' e + ae' a' be + b'e + be' a 2c2 + b2c2 + c4

,

,

a'(a' + b' + e') = ab(a' + b' + e') ( , ae(a + b-' + e-)

,

ab(a' + b' + e' ) ae(a' + b' + e'») (a' ab ae) b'(a' + b' + e') ae(a' + b' + e') = ab b' be be(a' + b' + e') e' (a' + b' + e') ae be e'

Cuando una matriz A tiene la propiedad A' = A se llama idempotente

Ejercicio 2.10 Demúestrese que si A es una matriz que veri fi ca la relación A' - A - 1 = O, entonces existe A- 1 Solución: A' - A - I = O => I =A' -A=A (A-I)

=>

A-1=A - 1

Existe y vale A - l .

131

,

l'

3 DETERMINANTE DE UNA MATRIZ CUADRADA

RODUCCIÓN Los determinantes aparecen en Matemáticas en relación con los problemas de eliminación y resolución de sistemas lineales. En 1693, Leibniz usó un conj unto sistemático de índices para designar los coeficientes de un sistema de tres ecuaciones lineales con dos incógnitas. Por un proceso de eliminación, obtuvo una expresión (la resultante del sistema, que no es más que el determinante de los coefi cientes), cuya anulación era condición necesaria y suficiente para que el sistema tuviera solución. La búsqueda de fórmulas explícitas de resolución de sistemas lineales, ini ciada por MacLaurin en 1729 parece ser el origen más directo de la teoría de determinantes. Vandermonde, en una Memoria aparecida en 1772, fue el primero en dar una exposición sistemática y detallada de la teoría. Demuestra las propiedades generales de los determinantes, como el hecho de que son funciones multilineales alternadas de sus filas y de sus columnas, la igualdad de un determinante y su transpuesto y también la regla para desarrollar un determinante por una fi la o columna. Como la mayor parte de los algebristas de la época. Vandermonde se contenta con verificar las propiedades para valores pequeños de n. El nombre de determinante se debe a Cauchy, quien también introdujo el uso de dobles subíndices y la disposición de los elementos en un cuadrado de n' puntos (las líneas verticales fueron introducidas posteriormente por Cay-

133

3 Determinante de una matriz cuadrada

ley). Como en muchos otros temas, es Cauchy quien establece la teoría general , dando demostraciones rigurosas y completas. Establece también la fórm ula general que da el producto de dos determinantes como otro determinante así como las relaciones entre los determinantes formados con los menores de distintos órdenes de un determinante dado. A partir del trabajo de Cauchy, los detenn inantes van a convertirse en una herramienta bás ica en todos los problemas de Álgebra Lineal, y su estudio fue objeto preferente de atención de los matemáticos del siglo XlX.

134

Cauchy (1789-1879)

CAUCHY (1789-1879) Cauchy nació el 2 1 de agosto de 1789 en un París convulso por la Revolución Francesa y las revueltas populares. La ejecución de rey en 1793 en la guillotina, los cambios impulsados por Robespierre que también termina en la guillotina y la llegada de Napoleón, propician una época de organización del estado y de estabilidad para los científicos. En 18 14, Napoleón abdica y se instaura en Francia, de nuevo, la monarquía en la persona de Luis xvrn. Las contrarreformas que inicia el rey, producen un gran descontento popular. Napoleón se hace con el poder de nuevo. Las monarquías europeas forman un ejército y derrotan a Napoleón en Waterloo. En este período, desarrolla Cauchy su actividad, que a grandes rasgos es la siguiente: En 1805 entró en la Escuela Politécnica de París donde se formó. A lo largo de su vida fue coherente con sus ideas políticas y religiosas, así, cuando en 1830 fue requerido para que jurase lealtad al nuevo régimen se negó a hacerlo y perdió los puestos académicos que tenía. Su brillantez como científi co no le acompañaba como docente y cuando daba clases, sus alumnos se quejaban de que no podían entenderlas. Entre otros alumnos, tuvo al nieto de Carlos X, pero dadas las limitaciones de uno como alumno y de otro como profesor, el resultado no fue bueno y Cauchy regresó a París en 1838, volvió a la Academia pero no a la enseñanza, porque se negó a jurar lealtad al régimen. Regresó a su puesto en la Universidad en l848, cuando Luis Felipe fue derrocado. Murió: 23 de mayo de 1857 en Sceaux (París-Francia). Con 789 trabajos distribuidos en 27 volúmenes, es uno de los matemáticos más prolíficos de la historia. Su nombre aparece ligado a gran cantidad de campos: teoría de funciones complejas, series, ecuaciones, ~o lución de ecuaciones diferenciales, creó la teoría de las funciones analíticas, desarrolló la teoría de determinantes. Graciau.B,~Lanáli si s infinitesimal adquiere bases .ólidas, adoptando métodos rigurosos que el mismo describe: "He tratado de dar a los métodos todo el rigor que se ex ige en geometría, sin acudir jamás a los argumentos tomados de la generalidad del álgebra ..."

135

Organigrama

CAPÍTULO 3 \1atriz cuadrada . de M"""

Endomorfismo de un e.v. de ~3dimen s ión n

n vectores de

Determinante de una matriz eMIIXIl

Determinante de un endomorfismo de un e.v. de dimensión n

Determinante de tl vectores de ~"

,,

,,, Cálculo de !determinantes ,,

, ,,, ,,

,, ,,

,,

~1atriz

inversa

Rango de una matriz

~"

,,

Endomorfismo inverso

Rango de un endomorfismo

Rango de un sistema de vectores

137

3 Determinante de una matriz cuadrada

3.1 . Determinante de una matriz cuadrada

Hasta aquí hemos estado trabajando con vectores y matrices, y las herramientas de que hemos dispuesto para su estudio han sido poco eficientes. En este capítulo vamos a utili zar los determinantes como herramienta que facilita muchas de las tareas cuyo estudio hasta ahora ha sido poco ágil, como la dependencia e independencia lineal, el rango de una matriz, el cálculo de la matriz inversa, etc. Vamos a estudiar el determinante de la matriz asociada a un endomorfismo, por ello, es conveniente repasar con detenimiento [2.6J antes de seguir adelante. Dos conjuntos formados por los mismos elementos, pero ordenado de forma diferente, decimos que son dos permutaciones o sustit uciones diferentes del mismo conjunto.

3.1.1. Definición de permutación a es una pennutación de S = { 1, 2 . ... , 11) '" a es una aplicación biyectiva de S ~ S

La imagen de cada elemento i

E

S es o(i)

E

S.

Es frecuente expresar la permutación de la siguiente manera:

( 1

2

...

I! )

J.. J.. ... J.. , 0( 1)0(2) ... 0(1l)

o simplemente

(~I) ~I) ::: aZll))'

Dos elementos están en inversión cuando el orden en que figuran es distinto del de la permutación principal (1 ,2, .. ., 11) Una permutación se ll ama par si tiene un número par de inversiones, e impar si tiene un número impar de inversiones. A las permutaciones pares se les asigna el signo +, y a las perm utaciones impares se les as igna el signo-.

138

3.1. Determinante de una matriz cuadrada

Ejemplo 3.1 .1

Si (J es una permutación de S = {l, 2, 3 }, en el gráfico siguiente se detallan todas las permutaciones posibles, así, como, el número de inversiones, el tipo de permutación y el signo.

Original ~ Imagen --? N.o de inversiones --? Tipo de permutación Signo

1,2, 3

~

1,2,3

O

Par

1, 2,3

~

1, 3. 2

1

Impar

1,2,3

~

LL3

+

Impar

~

1,2,3 --..J4 2, U

i"--

1, 2, 3 --..J4 U , 2

2

Par

+

2

Par

+

3

Impar

.L"--..

1,2, 3 --..J4 3,2.....1

El número de permutaciones que se puede hacer con un conjunto de 3 elementos es 3! = 3.2.1 . Si el conjunto S tiene n elementos, el número de permutaciones es n! = = 1I.(n- 1)00 . 3.2.1. Recibe el nombre de determinante la aplicación que asigna a cada matriz el escalar obtenido de la form a siguiente: La imagen de una matri z cuadrada A = (aul E M,xn es el escalar obtenido al sumar algebraicamente II! sumandos, tales que: Cada sumando es el producto de n factores. Cada factor es un elemento de la matriz perteneciente a una fila distinta del conjunto {1 , 2, oo. , II}, (colocadas en el orden natural), y a una columna di stinta perteneciente al conjunto {o( 1), 0(2), oo. , o(n)}. Cada sumando estará afectado del signo + o -, según que la permutación de las columnas 0( 1), 0(2), oo ., 0(11), sea par o impar.

139

3 Determinante de una matriz cuadrada

La aplicación deftnida da lugar a la siguiente deftnición:

3.1.2. Definición de determinante de una matriz Determinante de una matriz A es la aplicación :

M"""

del)

A = (a,})

lI\l

del

) det(A)

= lA l ='"~ (si8"o o-)al"",o'0(2) ' " a"",,,1

Con el fin de aclarar los pasos dados, vamos a analizar detenidamente el proceso para una matriz de orden 2.

M2X1

de l )

lI\l del)

lA l = \

a" a,,\ a 2 1 a 22

Como n. =2, el número de sumandos es: 2!

=2.1 =2.

Cada sumando debe tener 2 factores:

En el sumando a"a22, el factor a" es de la fija 1, columna 1; el factor a22 es de la fLla 2 columna 2. En el sumando a"a21, el factor a" es de la fi la 1, columna 2; el factor a 21 de la fila 2 columna 1.

140

3. 1. Determinante de una matriz cuadrada

El sumando a"a22 lleva signo más porque una vez colocados sus factores de modo que las fIJas estén en el orden natural (1 , 2), la permutación que representa las columnas (1, 2) no presentan ninguna inversión. El sumando a 12 a 21 lleva signo menos porque una vez colocados sus factores de modo que las filas estén en el orden natural (1, 2), la permutación que representa las columnas (2, 1) presenta un número impar de inversiones (1). En los órdenes pequeños estamos acostumbrados a utilizar la defmición dada, aunque en general, no decimos que es la definición, sino que utilizamos la "Regla de Sarrus".

MM

det

lTll

)"

I

del ) lA I = a" a 21

a l] G I2

del ) I A I =

al3

a 21 0 22 a 23

=

G3\ 0 32 a 33

El determinante de orden 4 tiene 4!

=24 sumandos, el de orden 5 tiene 5! =

= 120 sumandos, y para matrices de órdenes superiores, el número de suman-

dos n! es muy elevado, de modo que, aunque la definición iJldica un algoritmo de fácil programación para resolver en ordenador, cuando n sea grande se necesita un ordenador muy potente y mucho tiempo. Por ello, es conveniente recurrir a otros procedimientos de cálculo derivados de las propiedades de los determinantes. La form a de algunas matrices permite el cálculo sencillo de sus determinantes medi ante la utilización directa de la defini ción.

Consecuencias

1. El detemlinante de una matriz triangular es el producto de los elementos de la diagonal principal.

141

3 Determinante de una matriz cuadrada

Al utilizar la defmi ción encontramos que el único sumando que no contiene un factor cero es el prod ucto de los elementos de la diagonal.

o o

a" O O a",

2. E l determinante de una matriz diagonal es el producto de los elementos de la diagonal principal.

Sale como consecuencia de lo anterior. 3. El determinante de la matriz unidad es 1: 1/ 1 = 1.

La matriz 1 es un caso particular de las matrices diagonales. Sabemos que cada matriz corresponde a un endomorfismo. Si A = (a;) es la matriz asociada al endomorfismo J : V -7 V, llamaremos detenninante del endormorfi smo al determinante de la matriz asociada A.

3.1.4. Definición de determinante de un endomorfismo Detelminante de un endomorfismof: V -7 V .,. IJI ciada af

= 1A l. siendo A la matriz aso-

También vimos en [2.3] que si! : V -7 V, la matriz asociada A tiene 11 columnas, cada columna es la imagen de un vector de una base de V, expresada en la misma u otra base de V, y por tanto, cada columna tendrá n coordenadas, que dan lugar a n filas. Se llama determinante de un conjunto de n vectores de 11 coordenadas cada uno al detenninante de la matriz que forman.

142

3.1. Determinante de una matriz cuadrada

3.1.5. Definición de determinante de un conjunto de vectores de ~" Delenllinante de

{x" x" ... , x") =

lA 1, siendo A la matriz cuyas columnas son x"

-__ ""xn

Ejemplo 3.1 .2 En el ejemplo 2.6. 1, habíamos defmido el enfomorfismo de ~2,f: ~' ~ ~2 / f(x" x,) = (2x" O), calcul ado la matriz A asociada al respecto a la base canónica de ~2, cuyas columnas son las imágenes de la base canónica {(l , O), (O, 1) 1,f(0, 1) = (2, O) Yf( 1, O) = (O, O). El detenninanle de f, el detenninante de A y el detenninante de los vectores columna tienen la misma expresión: 1I1 = 1Al =

16 g1= o.

143

3 Determinante de una matriz cuadrada

3.2. Cálculo de determinantes

Hemos visto que la definición de determinante de una matriz hace muy largo su cálculo si la matri z es de un orden elevado, vamos a dedicar esta secci y la siguiente al estudio de las propiedades que permiten desarrollar procedImientos efi cientes, tanto para el cálculo manual, como para su incorporación programas de ordenador. Cuando elegimos los elementos que forman la intersección de algunas fil y algunas columnas de una matriz, sin variar la disposición en que estaban, hemos formado una submatriz de la matriz dada. Si la submatri z es cuadrada, se puede calcular su determinante, y ese determinante se llama menor.

3.2.1. Definición de menor

Menor de una matri z A E M"xn es el determinante de cualquier submatri z cuadrada suya B.

3.2.2 . Definición de menor complementario

Menor complementario de la submatriz B de una matriz A E M"xn es el determ inante de la submatriz cuadrada de A que resulta de el iminar en A las filas y columnas a las que pertenece B. Se designa por aBo

144

3.2. Cálculo de determinantes

3.2.3. Definición de adjunto dJunto o cofactor de la submatriz B de una matriz A E M,,,,, es el menor de B afeco del signo correspondiente, se designa por A B y su valor es: AB = (_1)'" + 'iJ aB .

En la definición anterior 2.i es la suma de los subíndices que indican las filas, 2.j la suma de los indices que indican las columnas, que contiene la submatriz B en la matriz A E M,,,,,. Cuando la submatriz B elegida está fonnada por un solo elemento, estamos ante un caso particular de los conceptos anteriores, y las definiciones de menor, menor complementario y adjunto no varían.

plo 3.2.1

Sea la matriz A =

2-1 3~ ~3) 1 -i ( 1

E

M,x4, la submatriz B = ( \

i ) está fonna-

1 1O

da por los elementos que están en negrita y cursiva, es la intersección de las filas 2 y 3 Y las columnas 1 y 4 de A. El menor correspondiente es : lB I = \

i ~\

El menor complementario de B es:

= \-: ~ \=-4.

aB

= l.

El adjunto de B es: AB = (_ 1)(2+3)+{1

~c(AD) =CI

=C} (CA)D =ID =D

"",C=D .

3. Si A Y B son matrices regulares, también lo son sus productos AB y BA; Y se verifica (A· Br' = B-'A-'. Demostración: Si utilizamos la ley asociativa del producto de matrices podemos escribir las siguientes cadenas de igualdades:

160

3.4. Cálculo de la matriz inversa

El cálculo de la inversa de una matriz cuadrada se puede hacer utilizando distintos métodos, haremos un ejemplo o daremos sólo una indicación de cada procedimiento, excepto del último que es el más útil y generalizado. • Utilizando la defini ción.

Ejemplo 3.4.1

Determínese la matriz inversa de / - A en fun ción de las potencias de A , sabiendo que A es una matriz regular, tal que, A' = O. Solución: (I - A)' (I-A)(I -Ar l = (I - A)' (I - A)3 =/ -3A+3A 2 - A3 =/ - 3A+ 3A 2 l

(1 - 3A + 3A') (I -Ar = (I -A)'

[/ - 3A(I - A)] (/ - Ar l = /(I-Ar l -3A(I-A)(I - At = (I - A)'

(I - Ar l = (I - A)' + 3A = / - 2A +A' + 3A = A' +A + /

• Resolviendo un sistema de ecuaciones lineales. I

Si A- = (X ij) E M,,,,, inversa de A = (aij) E M,,,,, es la matriz a hallar, debe verificarse AA - 1 = /

XI,) (1 a'l al, ...al,)(XII .~.) (~.l.l ~~.2 ~~ ~~.I ~~~ ~~~ = .~.O ~.O ::: ... 1 X I2 ...

:: :

a nl a n 2 .. . Q nn

:: :

Xnl X n 2 ... X""

Si realizarnos el producto de las dos matrices e igualamos los valores de los elementos que ocupan la misma posición en ambos miembros, obtenemos un sistema lineal de n' ecuaciones lineales con /1' incógnitas, que es laborioso de resolver, aunque no tiene ninguna dificultad técnica.

161

3 Determinante de una matriz cuadrada

Ejemplo 3.4.2 Determínese la inversa de A =

1 2 XII XI 2 1 O ( O 3 ) ( X21 X 22 ) = ( O 1)

(ó ~) , utilizando un sistema de ecuaciones. XII

+ 2x21 = 1 3X21

=>

{

X I2

+ 2

X I2 X 22

=1

=O

= -2/3

= 1/3

Para comprobarlo basta hacer los siguientes productos:

1 2)( 1-2/3)=(1-2/3) ( 1 2) = ( 1 O ) (O 3 O 1/3 O 1/3 O 3 O 1 • Med iante transformaciones elementales. Es conveniente repasar [2.8] antes de hacer el ejemplo siguiente, porque vamos a utilizar los resultados que obtuvimos allí. Si A tiene inversa, mediante transformaciones elementales de ftlas en A se obtiene la matriz unidad 1, si aplicamos esas mismas transformaciones en 1, se obtiene una matriz M , de manera que M . A = 1, es decir M = A- I (teorema [2.8.5/).

Ejemplo 3.4.3 Se desea calcular la inversa de A =

(~

-

t ~)

utilizando operaciones

elementales. Solución :

1 O2 (A I/) = 2 - 1 3 ( 111

I O O)

(1 O 2

OO 1

F2~ F,- 2F¡

F3 ~F3 - F¡

162

(1

1OO) O 2 -2I O 1 O) O ~ O 1- 1 - 1 O 1 --7 O 1- 1 - 1 O 1 0- 1 - 1 -2 1 O

010~0 - 1 - 1

3.4. Cálculo de la matriz inversa

1 o 2 ---70 1 - 1 ( o 0-2

1 o O) ( 1o 2 J o O ) (1 oo - 2 1 1) - 1 0 1 ---7 01 - 1 - 1 o 1 ---7 o 1 o 1/2-1/2 1/2 o o 1 3/2-1/2-1/2 o o 1 3/2 - 1/2 - 1/2 -3 1 1

FI ---7 FI - 2F3 F, ---7 F, + F j

La matriz inversa es A- J =

-2 1 1) 1/2 -1/2 1/2 ; para comprobarlo hay que ver: (3/2 - 1/2 - 1/2 OO)

1 1/2 1 ) = (-2 1 1/2 1 ) ( 21 - O 1 1 O =1 21 - O 1 2) 3 (-2 1/2 -1/2 1/2 - 1/2 1 2) 3 = (O ( 1 1 J 3/2 - 1/2 - 1/2 3/2 - 1/2 - 1/2 1 1 1 O O 1 • Mediante determinantes. Para poder hacerlo vamos a introducir algunos conceptos más.

3.4.5. Definición .4 E M,y." es la matri z adjunta de A .,. A es la matriz que resulta de sustituir cada elemento por su adjunto correspondiente

Ejemplo 3.4.4

Determínese la matriz adjunta A de A =

(-f ? i) 163

3 Determinante de una matriz cuadrada

Solución: Los adjuntos de los distintos elementos son:

A=+ 10133 1=-3,. A'=_1-23 1=9' 13,

A 13

=JI I1 21 I =l ''

A 31

II

L

A 22 =

1 1 1 = 2' 1

A,, =

I 3

'

A,_3

=1-201 111 =_2', A,, =_1213II=-S' =12 11=6' A =-1111=-S'

°

3

'

32

-2 3

'

21 =4 1-21° -3

9-2)

X= - S 2 1 . ( 6-S 4

3.4.6. Teorema El producto de una matriz cuadrada A por la transpuesta de su adjunta es el valor de su determinante por la matriz unidad. A(X)' = 1Al/

Demostración

Sea la matriz A =

(~~.: ~~ a nl

Gn l

A"

A22 ...

A nl )

A~2

la tras-

A", ... Ann

puesta de su adj unta. Al hacer el producto de ambas se ve que A(X)' =(bij) siendo bij =]í A 1si i ~ j , SI ¡ ~ J

19

aplicando la propiedad 3 de [3.3.1].

164

3.4. Cálculo de la matriz inversa

IAI A (A)' =

(

:.

o IAI

o

.~.

)=IAI / .

IAI

De la misma manera se deduce que, (A)' A = lA 1/, por tanto, A(A)' = (A)' A = IAI / .

3.4.7. Teorema Una matriz cuadrada A tiene inversa (es regular) '" lA l;t O

Demostración: =» Si A regul ar => lA I ;t O Si A regular, ex iste matriz inversa A- 1, tal que, A A- 1= A- 1A = I Como el determinante de un producto es el producto de los determinantes => IAIIA-11= IA-'IIA I= I, necesariamente ha deser IAI ;tOo

A es regular 1 _ Si lA I ;t Oexiste una matriz B = - - . (A)' (basta construirlo como hemos hecho en el teorema anterior). lA I Al aplicar el teorema [3.4.5J, se obtienen los resultados siguientes: AB =A - I (A) -') = - l ( A ·(A) -') = - I · I AI ·I = I ( IAI IAI IAI BA = --(A) 1 - ') A= - l ((A)·A -' ) = - ·I I A I · I = I ( IAI IAI IA I

esta expresión nos proporciona otra forma de calcular la inversa de una matriz cuando ex iste, es decir, de una matriz regular.

165

3 Determinante de una matriz cuadrada

3.4.8. Cálculo de la matriz inversa de la matriz A

I B es la IIlversa de A "" B = A

I

-, = _I_ (A) o

IA I

Ejemplo 3.4.5 1

Detennínese la matriz inversa A- de la matriz A

=

(-f 21) O3 13

del ejemplo

3.4.4.

Solución: Habíamos detenninado la matri z adjunta A=

(-3 9-2) -5 2

I

=>

(A)' =

6 -5 4

=

-3 -5 6) (- 2 1 9

I 2I

(-3 -5 6)

2 -5 ;IAI = -2 0 3 = 13;A- 1 = 1/13 9 2 -5 . 4 1 I 3 -2 1 4

(

I 21)(-3-5 9 2-56) (1 OO 1 O O).

Podemos comprobar que 1/ 13 -2 O 3 I I 3

=

-2 1 4

OO1

3.4.9. Consecuencias 1) SiA es una matriz regular de ordell

166

11,

eIltollces, I A - 1 I = _ 1_ IA I

3.4. Cálculo de la matriz inversa

Demostración: Si A tiene inversa A-' , se verifica A A-'= /, Y lA II A-'I =1/ 1= 1 =

=>

I A-' I

=

1

IAI'

2) Para toda matriz A de orden n se verifica I A I I (A)' I = I A I n,

Demostración: La matriz producto lA I ,/ es diagonal, su determinante es lA 1",

167

3 Dete;minante de una matriz cuadrada

3.5. Rango de una matriz; rango de un endomorfismo; rango de un sist ema de vectores En [1.3.6J vimos la definición de vectores linealmente independientes y en [1.3.7.J su caracterización, así podíamos seleccionar los vectores que dependían de otros, o saber que el sistema de vectores dado es libre. En [2.8.1.J utilizamos las matrices escalonadas para conseguir el mismo fin, y después de estudiar los determinantes disponemos de una herramienta poderosa que facilita otros criterios para hacer lo mi smo. El teorema siguiente contiene una condición de independencia lineal de vectores.

3.5. 1. Teorema Un sistema S de 11 vectores de un espacio vectori al de di mensión 11 es libre R El detemünante de la matriz cuyas fil as o columnas son los vectores de S es ~ O Demostración Supongamos que un sistema S de 11 vectores de un espacio vectorial de dimensión 11 es libre, si utilizamos [2.8.7J => Si A es la matriz cuyas filas son los vectores de S, A tiene inversa al tener rango máximo, uti lizando [3.4. 7J => => )

=>IAI~O.

E l rango es, al menos, 2. 17 -2 1

El menor

Las posibles submatrices ampliadas de ( I~

: :á) son:

(5-1-3) (5-1-2) 17 - 2 5 Y 17 - 2 1 19 - 1 1 19 - 1 8

Sus determinantes son:

5 - 1 -3 17 -2 19 - 1

5 =O 1

5 - 1- 2 17 - 2 1 = O

19 - 1 8

Como ninguno es '" O=> rg(A) = 2 . En [2.3.4] defmimos el rango de un matriz como el de la aplicación asociada, los endomorfismos son un caso particular de las aplicaciones lineales y como es natural la definición es válida. En el teorema [2.3.5] demostramos q ue, "el rango de una matri z es el número de vectores columna linealmente independ ientes que hay en ella", y a este número de vectores independientes le llamamos rango del sistema de vectores; como consecuencia, podemos concluir con el resultado: Rango de un endomorfismo = Rango de la matriz asociada sistema de vectores que forma la matriz.

= Rango del

171

3 Determinante de una matriz cuadrada

EJERCICIOS Ejercicio 3.1. a) Calcúlese mediante determinantes la inversa de la matriz A =

11 1l - 1l- 11). ( 1-1 l - 1 l - 1- 1 1

b) Determínense las relaciones existentes entre A y A- ' ; A' e l . Solución: a) Matriz inversa: La matriz tiene inversa porque su determinante es distinto de cero . • Cálcu lo de lA 1. Como es un determinante de orden cuatro, e l cálculo mediante la aplicación directa de la definición es muy largo, utilizaremos las propiedades necesarias para reducirlo a otros de menor orden. Los pasos a seguir son: 1. Hacer ceros los elementos de la primera columna. Mediante la sustitución de cada fila por ella misma menos la primera fila . 2. Desarrollar el determinante por los dos adjuntos de los elementos de la l.' columna. 3. Hacer cero el elemento a33 de la nueva matriz sustituyendo la 3.' fila por sí misma menos la 2.' fila. 4. Desarrollar el determinante por los adjuntos de los elementos de la l.' columna.

172

Ejercicios

IAI=

I I I I I -1 I - 1-

I 111

I 1 1 = I

I

I

I

o 0-2 - 2 o -2 0 -2 o -2 - 2 o

0-2 - 2 0 - 2 -2 = -2 0 -2 = -2 0 -2 = 0 -2 2 -2-2 O

= - 2· (- 1) .1 - 2 -21 = - 16

-2

2

• Cálculo de la matriz adjunta de A. Los adjuntos de cada elemento de la matriz son:

I - 1- 1 AlI = - 1 1 - 1 =-4; - 1- 1 I

1 I A" = A33 =A44 =

I -1- 1

A 12 = I

1 - 1 =-4; I -1 I

A 14 =

I 1-1 1-11=-4; I - 1-1

I I A" = I - 1 I =-4; I - 1- 1

A" =

I 1 - 1 =-4; I -1 I

1 1- 1 I - 1 - 1 =-4; I -1 I

1 I A2J =

A34 =

- 1 - 1 = -(-4) = 4; -1 I

I I 1-1 =-{-4) = 4; -1- 1

Observemos que la matriz es simétrica, y por tanto, el adjunto de un elemento coincide con el del simétrico respecto a la diagonal principal A ij = A ji .

173

3 Determinante de una matriz cuadrada

La matriz adjunta A es: A = (

La matriz in versa A- '

-4 -4 -4 -4) -4-444 -4 4 -4 4 -4

4 4 -4

= _ I _(A)' = IAI

1/4 1/4 1/4 1/4 ( 1/4 - 1/4 1/4 - 1/4-

1/4 1/4 1/4 1/4

1/4) 1/4 = ~A . 1/4 4 1/4

· , que eXIste . entre A y A- 1es : A- 1 = -A b, L a re l aCJOn 4

La relación que existe entre A' e / es: 4/ = A' , porque / = AA - 1 = A

~= 4

= -

4

.

Ejercicio 3.2

Descompóngase en producto de factores el siguiente determinante:

x' xy y' 2r x + y 2y I

I

I

Solución: 2 2 2 2 x' xy Y2 x-y-,y-y Y 2x x + y 2y = 2x-2y x-y 2y I I I O O I

_

- (x-y

174

)'1x +2 y

{I

= (x_y) J

=

x2 -y' xy-y' 1= x-y

12x - 2y

Ejercicios

Hemos hecho las transfonnaciones C I ~ C I -C 3 y C, ~ C, - C3 en la primera matriz, y posteriormente hemos sacado factor común (x -y) en cada una de las fi las (o col umna).

Ejercicio 3.3

Demuéstrese, aplicando las propiedades (sin resolver) que el sigu;ente de-

tenninante es múltiplo de 246:

1 2 3 2 4 6

8 6 Solución: El número 246 = 2 X 123 Sustituyendo C I ~ 100C I + IOC, + C3 , se obtiene una matriz cuya primera colum na está fonnada por múltiplos de 123, y la segunda columna por mú ltiplos de 2. 1 23

2 4 6 8 6

=

123 2 3 I 1 3 2464 6 = 123·2 2 2 6 861 6 7 3

Ejercicio 3.4

Hállase el rango de la matriz: A = (

~

a-1 -1 a 10 -6

~)

para los distintos valo-

res de a.

175

3 Determinante de una matriz cuadrada

Solución: El rango es al menos 2, ya que e l menor:

Ii ~ I = I ct O.

Ampliando ese menor con fi las y columnas de A se obtienen los dos siguientes:

I

t.,

a 2

I -1 2

t. 2 =2a5

= 2 -1 5 ; 1 10 1

1 -6 1

cuyos valores son:

a 2 t., = 2 - 1 5 1 lO

=

a 2 O - 1-2a I = - 1 -2a I [ =1+2a- l O + a = 3a- 9 = [ 10 -a- I O 1O-a- 1

= 3(a-3);

~

-1 2 1 1'.2= 2 a 5 = O a-:. 2 =[a+2 1 [= _ a + 3; O -5 - 1 - 5 -1 1 -6 Si a = 3

=>

t. , = O Y1'.2 = O => rg(A) = 2.

Si a ct 3

=>

rg(A) = 3

Ejercicio 3.5

Demúestrese que la condición necesaria y suficiente para que una matriz cuadrada regular A de orden 11 y elementos enteros, tenga por inversa otra matriz A-, con elementos enteros es que lA I = ± 1.

176

Ejercicios

Solución: Demostrar una condic ión necesaria y suficiente es demostrar una doble implicación. En este caso, para demostrar que "Los elementos de A- l son enteros lA I= ± 1", hay que ver que:

"*

• Si los elementos de A- l son enteros

=>

lA I = ±l.

Si los elementos de A y A- l son números enteros, también los son lA I y lA-JI. Como IA- JI= _ 1_, se deduce que lA I = ±l , ya que, los únicos enteros IAI que admiten inverso entero también son ± l. • Si lA 1= ±l y los elementos de A son enteros enteros.

=>

los elementos de A- l son

Si la matriz A tiene sus elementos números enteros, también los tendrá su matriz adjunta, A, y la transpuesta de la adjunta (A)'. Por tanto, al ser lA 1= ±l, y A- J = _ 1_ . (A)' la matriz A- J tiene todos sus elementos enteros. lA I

Ejercicio 3.6

a) Calcúlese el determinante:

b) Basada en la respuesta a), escríbase una solución para

1 a a2 a3

1 l 1 b c d b2 c2 b3 e3

tf cf

y compruébese después.

177

3 Determinante de una matriz cuadrada

Solución: a)

o

I I 1 O a h e = a b- a e- a a 2 b2 (,-2 a 2 b2_ a2 (? _ a2 = (h - a)(e - a) [(e

+ a) - (h + a)] = (h - a)(e - a)(e - h).

b) El detenninante dado es de la misma fo rma que el primero, todos lo que tienen dicha forma se llaman de Vandennonde. Podemos aventurar sin miedo a error que: 1

e e'

d = (h - a)(e - a)(d - a)(e - h)(d - h)(d - e) cf

e'

d

3

porque el proceso seguido es válido, sea cual sea el orden del determinante. Se deja al lector la comprobación del resultado. Los determinantes de Vandermonde tienen aplicación en interpolación poli nómica de curvas, muy empleada en diseño gráfico por ordenador.

Ejercicio 3.7

Demuéstrese uti lizando sus propiedades que los determinantes de los siguientes cuadrados mágicos tienen el mismo valor absoluto:

6 1 8 .1, = 7 S 3

2 9 3

178

.1, =

8 I 6 3 S 7 4 9 2

.1, =

276

672

9 S I 4 3 8

.1' " 1 S 9 834

Ejercicios

49 2 65 = 3 5 7 8 l 6

2 94 6,;= 7 5 3 6 l 8

8 3 4

438 68= 9 5 1 276

6 7 =15 9

672

Solución:

e, con e 3 => tienen el mi smo valor ab-

6, ( soluto.

) 6 2 se pasa intercambiando

63 ( soluto.

)

6, ( soluto.

) 6,; se pasa intercambiando

e, con e 3 => tienen el mi smo valor ab-

67 ( soluto.

)

6 8 se pasa intercambiando

e, con e 3 => tienen e l mi smo valor ab-

)

6 6 son traspuestos

=>

tienen e l mismo valor absoluto.

) 6 8 son traspuestos

=>

tienen el mismo valor absoluto.

63

(

6, ( 6,( luto .

t.. se pasa intercambiando e, con

e3 => ti enen el mismo valor ab-

) 6,; se pasa intercambiando F , con F3 tienen el mismo valor abso-

• Estos cuadrados considerados mágicos desde la antigüedad porque su suma da el mismo resultado en todas las direcciones son los únicos que se pueden formar con los nueve primeros números enteros y positi vos.

Ejercicio 3.8

I+ x l I -x Calcúlense las raíces reales de la ecuación: l l

l l

= 81.

I +x I

I- x

179

3 Determinante de una matriz cuadrada

Solución

l+ x 1 I I -x I I

I I

1+ x I 1 1 l 1+ x 1 I -x O O 1 -x -x O O -x x -x x O = O-x = 0 = -x O x l+ x 1 -x O -x -x O -x I I -x -x O O - x I +x 1 1

= _x 3 -xxx

-1 1 O - 1

_x3 +

= _X3 _ X 3

0 -1

_1 - 1

1

I O

O- 1

1=

x 3 = x4• x 4 = 81 => x = ±3. re-

sultado son: 1. Sustituir las fijas 2.' y 3.' Y4." por ellas mismas menos la l.' fila. 2. Desarrollar por los adjuntos de la segunda columna. 3. Sacar factor común una x en la 2.' fi la y otra x en la 3.' fila del segun determinante de orden tres. 4. Sustituir la l.' fila por la 1.' fija más la 3." fija en dicho determinante de orden tres. 5. Desarrollar ese determ inante por los elementos de la última columna.

Ejercicio 3 .9

Dado el sistema de vectores {(I, 2, 3), (2, 1, 5), (2, 3, a) E 1R 3 }, se pide valor que debe tener a para que el sistema sea una base de IR'. Solución: Para que fonnen base de 1R 3 deben ser tres vectores linealmente independientes, y por tanto, el rango del sistema de vectores deben ser tres, es decir

180

Ejercicios

1 2 2 I 2 3

3 5 *0. a

Si a = 17/3, los tres vectores forman base. Si a = 17/3, e l tercer vector es combinación lineal de los otros y no forman base.

Ejercicio 3.10

O, siendo A = ( li

;2)'

Solución: La condición necesaria es que lA I = O, ya que si no, ex iste A- I y se verifica: A-I(AB ) = lB = => B = O.

°

Si lA 1=

1112 .~21 = °

=>

x = ± 6.

181

4 SISTEMAS DE ECUACIONES LINEALES

INTRODUCCiÓN Las ecuaciones lineales aparecen en los primeros testimonios escritos de que tenemos noticia. Ya los babilonios habían desarrollado métodos concretos de resolución de sistemas lineales sencillos basados en la "eliminación" sucesiva de incógnitas hasta reducir el problema a una sucesión de "reglas de tres", es decir, ecuaciones de una sola incógnita. Distintas reglas prácticas se establecen a lo largo de la Historia para mejorar el proceso y aligerar los cálculos, pero hasta el siglo XV III nadie parece preocuparse de caracterizar cuándo es posible este proceso de reducción. En todo caso, si no se obtiene la solución, se dice que el problema es " imposible" o " indeterminado". Solamente cuando, al estudiar ciertos problemas de Geometría Algebraica y Mecánica, aparecen sistemas de ecuaciones lineales cuyos coeficientes son, a su vez, funciones de parámetros variables, empieza a desarrollarse a partir de 1750 una teoría general de tales sistemas. La primera fórmula de cálculo explícito de la solución de un sistema de n ecuaciones lineales con n. incógnitas, con coeficientes indeterminados, se debe a MacLaurin en 1729. MacLaurin obtuvo las fórmulas para n = 2 Yn = 3 Ytrató de encontrar una regla general. En 1750, aparentemente sin conocer el trabajo de MacLaurin, G. Cramer describe explícitamente la fórmula para n. cualquiera, dando la solución como cociente de 2 expresiones polinomiales en los coeficientes. Con el desarrollo de la teoría de determinantes, estos resultados

183

4 Sistemas de ecuaciones lineales

toman la fo rma definitiva que conocemos en la actualidad. La introducción por parte de Frobenius de la noción de rango de una matriz en 1879, le permitió formular el criterio general de resolución de un sistema lineal de ni ecuaciones con 11 incógnitas, que hoy conocemos como teorema de Rouché-Frobenius. Salvo la determ inación de métodos más efectivos y directos de cálculo (método de Gauss, O métodos iterati vos: Gauss, Seidel, Jacobi , etc.), la teoría general de resolución de sistemas lineales en dimensión finita se encuentra ya. alrededor de 1870, en el mismo estado que en la actualidad.

184

Ada Augusta Lovelace (1815-1852)

ADA AUGUSTA LOVELACE (1815-1852)

Hija del poeta romántico Lord Byron fue una niña enfermiza pero, con una gran fuerza de voluntad, superó la enfermedad y la adicción a la droga que le produjeron las medicinas que le suministraron para curarla. Su madre había estudiado Matemáticas y tenía gran fe en el papel redentor del estudio, por ello procuró a Ada una buena educación científica, que la niña asimiló rápidamente. A los 17 años se interesó e impresionó por la máquina de diferencias fmitas de Babbage, comenzó a estudiar y quiso ser matemática, pero como Babbage estaba muy ocupado en recaudar fondos para su máquina, y no prestaba atención a sus trabajos, abandonó la idea. Ayudada por su esposo, el conde de Lovelace, consiguió que Babbage " Ia entrenara".

El ingenio &nalítico o máquin a de Babbage tenía un dispositivo de entrada (parecido a las tarjetas perforadas del telar de Jacquard), un almacén (Memoria), un molino (procesador) y un dispositivo de salida en fnrma de tarjetas. En unas notas sobre el ingenio, Ada tu vo la idea de reutilizar las tarjetas encargadas de un procedimiento todas las veces que hiciera falta dentro del mismo programa, incorporando con ello la herramienta de las subrutinas al programa principal. La ingeniería de la época no era suficientemente avanzada para construir la máquina, ella creyó que sus cálculos le harían ganar en las carreras de caballos, y con las garantías, tener dinero para construir la máquina, pero los continuos fall os llevarían a la fami lia a la banca rota, por ello, quemó todos sus trabajos. Está considerada precursora de la programación de ordenadores porque ideó varios programas para hacer cálculos matemáticos avanzados en la máquina analítica. Ha dado nombre a un lenguaje de alto nivel basado en el Pascal que fue desarrollado a palt ir de 1977 en el Departamento de Defensa de EE.UU . En 1843 enferma gravemente y sufre dolores horribles, nuevamente es tratada con opiáceo alternando con morfina, que contrarrestaba con grandes cantidades de brandi .

185

4 Sistemas de ecuaciones lineales

En 1844 está convencida de que un exceso de matemáticas ha perjudicado su salud, y abandona definitivamente las matemáticas, pero no el juego; nada le ayudaba a superar el dolor que le producía un cáncer terminal. La máquina de Babbage y sus teorías fueron olvidadas, y con ellas Ada Byron, hasta que 10 I años después son rescatadas del olvido por Bowden, un pionero inglés de la reinvención de los ordenadores.

186

Organigrama

CAPÍTULO 4 Cálculo del original de un vector dado conociendo su imagen mediante una aplicación lineal

Clasificación de sistemas. Teorema de Rouché

Sistemas de Cramer. Regla de Cramer.

Método de Gauss. Factorización LV Matrices mal condicionadas

187

4 Sistemas de ecuaciones lineales

4.1. Sistemas de ecuaciones lineales

En este capítulo queremos alcanzar los siguientes objeti vos: • • •

Determinar cuándo el sistema tiene solución y cuando no. En caso de tener soluc ión, detenninar cuántas soluciones tiene. Dar un procedimiento para encontrar todas las soluc iones.

Antes de abordar la fonna de alcanzar los objeti vos propuestos con la herramienta que nos proporcionan los conocimientos adquiridos en capítulos anteriores, es conveniente recordar, aunque sea brevemente, algunos conceptos y defini ciones básicas para poder unificar las distintas notaciones utilizadas anteriormente por el lector.

4.1.1. Definición de sistema de ecuaciones lineales

Un sistema de m ecuaciones lineales con ciones de la forma: aIlX¡

+ a¡,x, + ... + a¡~r"

G::!1X¡

+ l121X! +

O",IX¡

+ O",2X'1 +

{

o • •

o ••

/1

incógnitas es todo conjunto de ecua-

=b¡

+ G2nXn = b2



+ Gm,,).'n = bm

a", b, E IR Yx, son las incógn itas (i = lo ... , m y j = l ... ., n)

Cuando todos los términos independientes b ¡, b2, .. . , bm son cero, el sistema se Uama homogéneo, y en caso contrario no homogéneo.

188

4. 1. Sistemas de ecuaciones lineales

Para todo sistema existe un sistema homogéneo asociado que resulta de hacer cero los términos independientes del mismo. Se llama solución del sistema a toda n-upla (al, a" ... , a,) de elementos de R, tales que sustituidos en (XI, x" ..., x,), todas las ecuaciones del sistema se convierten en identidades. Resolver el sistema es encontrar todas las (a" a" , ... , a,,) que lo verifican. Dos sistemas de ecuaciones con el mismo conjunto de soluciones, se ll aman equivalentes. Convertir un sistema lineal en otro equivalente, pero más sencillo de resolver es una técnica habitual para buscar sus soluciones. Como veremos más adelante también aquí utilizaremos esa técnica. El sistema lineal de ni ecuaciones con n incógnitas defi nido en [4.1 .1] se puede expresar tanlbién en fom1a matricial.

4. 1.2. Expresión matricial de un sistema de ecuaciones lineales

donde A es la matriz de los coeficientes de las incógnitas, y X, B son los vectores columna de las incógnitas y de los términos independientes. respectivamente.

Esta expresión matricial de un sistema de ecuac iones lineal es la expresión analítica de una apl icación lineal, como se vio en el capítulo 2, el vector imagen Y de un vector original X es ahora el vector de los términos independientes B.

189

4 Sistemas de ecuaciones lineales

4.1.3. Un sistema de ecuaciones lineales es la expresión analítica de una aplicación lineal El sistema AX = B de ni ecuaciones lineales con 11 incógnitas es la expresión analítica de una aplicac ión Iinea1: / : V ~ W, donde: Ves un espacio vectorial real de dimensión 11 (n.o de incógnitas) W es un espacio vectori al real de dimensión m (n.o de ecuaciones) y cada columna i de su matriz asociada A es el vector formado por los coeficientes de la variable Xi en las ni ecuaciones.

Ejemplo 4.1.1

2- X3=' de ecuacIOnes . l'meaIes {3XI+2x El sIstema ~.. _ 5 1 ' se pue de expresar ""-Al

matricialmente:

(;

~

- :) (

+X3 -

:~~ ) = ( -!)

Esta expresión indica que la imagen del vector (XI, cación cuya matriz asociada es

(~ ~

-

X" X3)

mediante la apli-

t)es el vector (- 1, 5).

Si en la expresión matricial cambiamos el vector (-~ ) por el vector (;;), obtenemos:

(~ ~ - : ) (~:) = U;), que es la expresión analítica de la aplica-

ción lineal asociada a la misma matriz: . (X I, X2, X3)

190

YI

_

~ (y, ) -

3 2-1

X) . ( 2 O 1 )( ~: I

4. 1. Sistemas de ecuaciones lineales

Recordemos que las columnas de la matriz son las imágenes de los vecto· res de una base de ~3 respecto a una base de ~2 (las canónicas, si no se especi· fica lo contrario).

f:

~3 ~ ~2

f(1, O, O) = (3, 2);J(0, 1, O) =(2, O) ;f(O, O, 1) = (-1, 1)

en las bases 8 = {(l , O, O), (O, 1, O), (O, O, 1)1 de ~3 , y S = (e l , O), (O, 1) 1 de ~2.

Una solución del sistema

O6-])UJ

=(

~ ) es (l, o, O).

Una solución del sistema

( ~ 6-:)(~:) = ( 6) es (O, 1, O).

Una solución del sistema

( ~ 6-\) (~:) = ( -

n

es (O, o, 1).

La comprobación de los resultados anteriores es muy fácil. El hecho de que un sistema de ecuaciones lineales sea la expresión analíti· ca de una aplicación lineal, nos permite decir que una solución de un sistema de ecuaciones es un original de un vector dado, 8 . Por tanto, la existencia o no, de soluciones depende de que dicho vector pertenezca, o no, respectivamente a la im agen de la aplicación.

4.1.4. Cálculo del original de un vector en una aplicación lineal

El conjunto de soluciones del sistema AX = 8 es e l conj unto original del vector 8 E W en la aplicación linealf: V ~ W de expresión analítica AX = Y.

191

4 Sistemas de ecuaciones lineales

Ejemplo 4.1.2 En el ejemplo anterior, hallar el conjunto de soluciones del sistema, eq ui vale a encontrar el conjunto original del vector B = (-1, 5) en la aplicación lineal correspondiente. La solución del sistema es

El conjunto S de soluciones S =

~x" x" X3) = (A, 4 ;5.1 ,-U + 5),A E ~

es el conjunto original del vector B = (- 1, 5) en la aplicación linealf dada. Recordemos que el núcleo de una aplicación linealf : V -> W es Nuc(f) = = (v E V, tales que j(v) = OJ , es decir, el conjunto de vectores que forman el núcleo de una aplicación lineal es el conjunto de sol uciones del sistema homogéneo asociado al sistema que la define.

4. 1.5. Cálculo del núcleo de una aplicación lineal

El núcleo Nuc(f) de la aplicación lineal f : V -> W de expresión analítica AX = Y es el conjunto de so luciones del sistema homogéneo AX = O

192

4.1. Sistemas de ecuaciones lineales

Ejemplo 4.1.3

El núcleo de la aplicación de los ejemplos anteriores es la solución del sistema homogéneo

3Xl {

2x 1

+ 2x2 - x, = O + x, = O

Es decir:

4.1.6. Proposición El conjunto de soluciones de un sistema lineal, si e l sistema tiene solución, es igual al conjunto de soluciones del sistema homogéneo asociado más una solución particular del no homogéneo

Demostración: Sea AX = B un sistema lineal no nomogéneo y ¡ la aplicación lineal correspondiente,f: V --. W de matriz asociada A. Si S = IX E V / f{X) = B Ies el conjunto de soluciones del sistema, y G una solución particular del mismo, se verificaf{G) = B. Sabemos que el conjunto de soluciones del sistema homogéneo AX = Oasociado es el núcleo Nuc(f) . Por tanto, S = IX E V / ¡(X) = BI = IX E V / ¡(X) = = f{G) 1= {X E V / f(X - G) = 01= {X E V / (X - G) E Nuc(f)}, como consecuencia S = Nuc(f) + G.

193

4 Sistemas de ecuaciones lineales

Ejemplo 4.1.4 En el sistema analizado en ejemplos anteriores, Nuc(f)

= ~í1.,

-; í1.,

-2íI.),

í1. E ~} Una solución particular del sistema

{2x + 2x,+-X3: -51 es G = (2, -3, 1), 3X 1 I

ya que

X3 -

(~ ~ -:)H) = (-~) .

Por tanto, el conjunto de soluciones del sistema es:

S = {(2, -3, 1) + (í1., -; í1.,

194

-2íI.), íI. E ~}-

4.2. Clasificación de sistemas de ecuaciones lineales

4.2. Clasificación de sistemas de ecuaciones lineales

En cualquier algoritmo para buscar soluciones de un sistema, parece natural comprobar en primer lugar si existen, porque si no es así, se evitan todos los pasos intermedios que conducen a encontrarlas. Los sistemas se pueden clasificar en dos grupos: compatibles e incompatibles, según tengan, o no, solución; en el primer caso puede ser determinado o indeterminado dependiendo de que tenga una solución o más. El criterio para resolver e l problema de ex istencia de soluciones viene dado por el Teorema de Rouché-Frobenius, con e l que el lector está muy familiarizado.

4.2.1. Teorema de Rouché-Frobenius El sistema AX = B tiene solución .,. El rango de A = rango de la matriz A ampliada con la columna B

Demostración: Dado el sistema de m ecuaciones lineales con n incógnitas:

+ al 2X2 + ... + a¡nXn a x,. + .a2~t2 +.: " . ~ a.2 "t~:

al IXI {

2l

OmIX¡

=



:b2

+ Qm2-t 2 + ... + G m"x n - bm

de expresión matricial AX = B, es posible la siguiente expresión vectorial:

195

4 Sistemas de ecuaciones lineales

Si llamamos A" A 2 , •.. , A", a los vectores col umna de la matriz A (cada vector columna A¡ tiene como elementos los coeficientes de la incógnita X ¡ en todas las ecuaciones del sistema) y B es e l vector de los términos independientes, podemos escribir el sistema mediante la siguiente expresión : x ,A , + x,A, + ... +

xA ,, =B. Evidentemente, existirán valores de x" X2, .. . , x" que hagan cierta esa igualdad si, y sólo si el vector B es combinación lineal de los vectores A " A2 , .. . , A";

..

.

a ll al2

... a,,, )

Q ? ! Q 22

o ••

. ~.

es decir, S I las matnces: A =

...

Q 2n

all al2 ... al"

y (A IB) = a2'

(

( a mI a m2

o ••

a mI a m2

Q "uz

b')

~2 : a~ ~2 Q mn

tie-

bn

nen el mismo rango.

4.2.2. Proposición Un sistema lineal compatible tie ne so lución única (es determinado) dim Nuc(f) + rg (Al = n.

196

11

[2.2.5J Y rg (Al = dim 1m(f)

4.2. Clasificación de sistemas de ecuaciones lineales

El cumplimiento de esta igualdad abre dos posibilidades: l. rg (A) = 11, entonces dim Nuc(f) = O, el conjunto de soluciones es sólo la solución particular G, y el sistema es determinado. 2. rg (A) < n, entonces dim Nuc(f) > O Y el sistema tiene infInitas soluciones; es un sistema indeterminado. El siguiente cuadro resume los criterios dados en el teorema de Rouché y la proposición anterior: Determinado (solución única) Rango de A = Número de incógnitas 11 istema Compatible (tiene solución) Rango de A = Rango de la matriz A ampliada con la columna B de términos independientes Indeterminado (infinitas soluciones) Rango de A < Número de incógnitas 11

Ejemplo 4.2.1

ax + y+z= I x + ay + z = I , se pide c1asifi{ x + y + az= 1 cario en función del valor del parámetro real a. Dado el sistema de ecuaciones lineales

Solución: La matriz de los coefI cientes de las incógnitas es A =

(1f l),

y la ma-

triz ampliada con e l vector de los términos independientes es

197

4 Sistemas de ecuaciones lineales

(A lB) =

l l 1)

a l a 1 1 . ( l l a 1

IAI =(a+2)(a - l)2 => IAI = 0 sia = -2oa= 1. Vamos a analizar qué ocurre con los rangos de ambas matrices en cada caso: Si a =- 2 => A =

-21 1) ( 1-2 1 1 l -2

Y rg(A)

=2; (A lB) =

(-2 11 1- 2 1 1 1- 2

rg(A lB) = 3. Como los rangos de A y A lB son distintos, el sistema es incompatible. Si a = 1 => rg (A) = rg (A lB)

=l

Como los rasgos de A y A lB son iguales, el sistema es compatible. En este caso, el rango es menor que el número de incógnitas n = 3 => es un sistema compatible e indeterminado.

4.2.3. Sistemas lineales homogéneos Un sistema homogéneo es siempre compatible. Un sistema homogéneo es indetenninado (tiene soluciones distintas de la trivial) .,. El rango de A < Número de incógnitas n

Los sistemas homogéneos son un caso particular de los sistemas lineales. En ellos el vector B de los términos independientes es el vector 0, por tanto, el rango de la matriz A de las incógnitas coincide con el rango de la matriz ampliada A I 0, es decir, el sistema es siempre compatible; este hecho es evidente porque

198

4.2. Clasificación de sistemas de ecuaciones lineales

un sistema homogéneo tiene siempre la solución trivial: X l = X2 = ... = X, = O. El interés es el caso de este tipo de sistemas radica en el conocimiento de soluciones distintas de la trivial . que ex.istirán cuando el rango de la matriz de coeficientes sea menor que el número de incógnitas. Para los sistemas homogéneos una solución particular es G = (O. O•...• O) => => S =G + Nuc(/) =Nuc(/).

Ejemplo 4.2.2

El sistema

{

X - 2z =0 - x + y + Z = O es compatible por ser homogéneo. y es inde- x+ y - 3z = O

(

10-2)

terminado. ya que rgA = rg - 1 1 1 = 2 < n.o incógnitas = 3. 1 1-3

199

4 Sistemas de ecuaciones lineales

4.3. Cálculo de soluciones

Cuando se tiene la certeza de la existencia de soluciones de un sistema lineal (sistema compatible), el paso siguiente en cualquier algoritmo efi ciente corresponde al cálculo de las mismas. Vamos a exponer dos métodos concretos de resolución de sistemas; consideraremos en primer lugar la regla de Cramer, el segundo procedimiento a que nos referimos es el Método de Gauss. Como vamos a ver, teóricamente con el primer procedimiento queda zanjado de forma definitiva el problema de la resolución de sistemas de ecuaciones, pero sólo de forma teórica, porque cuando el orden es grande, el método de Cramer (o, lo que es lo mismo, la obtención de la inversa de la matriz de los coefi cientes) no es práctico por el elevado número de operac iones que necesita. Valga como ejemplo decir que, la resolución de un sistema de Cramer de orden I! por la regla de Cramer, conlJeva un total del orden de (I! + 1)! sumas, ( I! + 2)! productos y n divisiones. Esto supone, por ejemplo, que para I! = 10 se requieran aproximadamente 400.000.000 operaciones.

4.3.1. Definición de sistema de Cramer

Un sistema de ecuaciones lineales se llama de Cramer si tiene el mismo número de ecuaciones que de incógnitas y la matriz de los coeficientes es regular

Estamos analizando el caso particular en el que f es un isomorfismo, o lo que es lo mismo, A es una matriz cuadrada inversible.

200

4.3. Cálculo de soluciones

Ejemplo 4.3.1.

El sistema

X - 2Y + Z= l 3x + y + z = -2 es de Cramer, porque el número de ecuacio{ x +y +z = 1

nes = número de incógnitas = 3. Además, la matriz A es regular 1 -2 lA I = 3 l 1

l

1 l = -Q ;t O A es regular. l

Para los sistemas de Cramer es obvio que ex iste solución, y es única: X = = A-'B. Vamos a utilizar los desarrollos matriciales apropiados para obtener la conocida regla que enunciamos a continuación.

4.3.2. Regla de Cramer Todo sistema de Cramer tiene solución úni ca que viene dada por la expresión x, = = ~ (e, es el valor del determinante dc la matriz que resulta al reemplazar en IAI A su columna k -ésima por el vector columna B de los términos independientes)

Demostración: Considérese el sistema de Cramer, cuya matriz A es de orden n. GIIXI

+ G¡2X2 + .. . + G II,..\"n ;;;;: b¡

~2IX,. +.a22~2 ~. { Q,¡lX¡

":.+ .a.',~~ ~.b2 , su expresión matricial es AX = B, con A

+ an ~2 + ... + am,x/l = bn

regular.

201

4 Sistemas de ecuaciones lineales

Como consecuencia del teorema de Roucbé, se deduce que el sistema es compatible y determinado (tiene solución única). Por ser A regular, existe K', Y se pueden multiplicar por ella por la izquierda ambos miembros de la igualdad AX = B, obteniendo como resultado: X =A-'B = _ 1- (A)' B.

IAI

(Recordemos que A es la matriz adjunta de A, obtenida al sustituir en A cada elemento a ¡j por su adjunto A¡J Ahora bien, el producto de matrices (A)' B es una matriz columna. Si e" e" ,... , e, son sus elementos, podemos escribir: AII (A )' B =

A" ) ( b') ::: ~.~' ~~ = (e,'.~ ),siendo eK =b,A'K + b,A2K + ...+

~.'.' ( A"

o ••

Ann

bn

e,

¡

Esta expresión coincide con el valor del determinante de la matriz que resulta al sustituir en A su col una k por la columna de términos independientes B , all .. . b, como es evidente al desarrollar el determinate e, = a12 ... b,

a" a"

por los

elementos de dicha columna Por tanto: X =

x, ) X '

...

( X n

I -, I = - - (A) B = - -

IAI

IAI

(e,e, ). .. ·

en

Sabemos que para que dos vectores sean iguales, las coordenadas correspondientes han de ser iguales

202

=>

x, = ~. IAI

I

I

4.3. Cálculo de soluciones

Ejemplo 4.3.2

Resuélvase el sistema

3XI - 4x, { XI +5x,

=1

=- 1

Solución: Es un sistema de Cramer, tal que lA I =

I~ -~ I= 19

-4 19

El caso general de un sistema compatible se reduce a uno de Cramer, eligiendo un subsistema principal de rango máximo en el que aparecen como parámetros en el término independiente las variables no principales. La reducción de un sistema compatible a uno de Cramer es siempre posible, sin más que eliminar las ecuaciones que sean combinación lineal de otras y sustituir por parámetros las incógnitas que no sean necesarias para que la submatriz de A que define el nuevo sistema sea regular (la forma de elegir esta sumatriz no es única, pero las soluciones obtenidas sí lo son por ser sistemas equivalentes). En el ejemplo siguiente indicaremos paso a paso el proceso indicado.

Resuélvase el sistema

2x-3y+z= 2 utilizando la regla de Cramer. X - Y- z = - 1 { 3x - 5y + 3z = 5

203

4 Sistemas de ecuaciones lineales

Solución:

1) (2 -3 I 2) A= (2-3 1 - 1-1 );(AI B) = 1 - 1-1 - 1 ; rg(A) =rg(A lB) =2. 3-5 3 3-5 3 5 2-31 1

Un menor de A de orden 2, no nulo es, por ejemplo 1 _ 1 = 1 # O Por tanto, la tercera fi la es combinación lineal de las otras dos. Eliminando . . Iente esta tercera fil a obtenemos e I sistema eqUlva

{2xx--3y +

Z= 2 y-z = - I

Haciendo z = A (incógnita que no intervien en el menor no nulo) y pasándola como término independiente, resulta el sistema de Cramer 2x- 3Y =2 - A { x- y = - I + A

En dicho sistema se puede aplicar la regla con los siguientes resultados:

X=

2- -3 1 2 2-A 1 1 1 -1 + A 1 2 -31 =4A - 5 ; Y = 12 -31 3A - 4; 1-1 11 - 1 A -1 + A - 1

Z

=A.

Si tuviéramos un sistema cuya matriz de coeficientes fuera trangular supeaIlXI

+ al2X2 + ... + al"..t"'l = b]

rior el sistema~22~2~ .:.:. ~~'.=:' {

=~2

se resolvería fácilmente, des-

a nnXn = bn

pejando X n de la última ecuación, después sustituyendo este valor en la penúltima y calculando X n_" etc. Este método de cálculo, por razones obvias, lo designaremos como retrosustitución. Un sencillo cómputo muestra que el número de operaciones nece-

204

4.3. Cálculo de soluciones

sarias en este caso es del orden de lI(n- 1)/2 sumas algebraicas, el mismo número de productos y 11 divi siones. El fundamento del método de Gauss para la resolución práctica de un sistema de Cramer AX = B, con A inversible, consiste en la determinación de un sistema equivalente (es decir, con las mismas soluciones) en el que la matriz de coeficientes sea triangular.

4.3.3. Método de Gauss Este método se utiliza para la resolución de sistema de Cramer (o de sistemas que pueden transformarse en un sistema de ese tipo); consta de las siguientes fases: a) Eliminación gaussiana. Se basa en la determinación de una matriz no singular M tal que U = MA sea triangular superior. La matriz M se obtiene como composición de matrices asociadas a transformaciones elementales. b) Cálculo simu ltáneo de (UIC) = (MA 1MB) med.iante la aplicación de las transformaciones elementales a las filas de la matriz ampliada. c) Solución del sistema equivalente MAX = MB por retro-sustitución.

Ejemplo 4.3.4

Resuélvase por el método de Gauss el sistema

a, + x, -x, = - l x, - 3x, = - 7 { x,-x, +a, = 10

) (? -1I -32 -7-1 10 1-1

(A l B) =

a) Reducción de (A l B ) a (U IC) mediante transformaciones elementales en las fIlas.

205

-

4 Sistemas de ecuaciones lineales

Utilizando como pivote el elemento a ll = 2 Y haciendo cero los situados debajo en la misma columna, se obtiene:

2

1-1 -1) (2 1 -1

(A IB)= O 1 - 3 ( 1-1 2

-7 10

I ~

O 1 -3 0 - 3/2 5/2

--7 1 )

2 1/2

De la misma forma, con o" = 1 como pivote se hacen cero los elementos situados debajo de él en la misma columna.

1-1) 2O ll -1 -3 -7 ~ (O -3/2 512 21/2

O 1 -3 O O -2

1-1)

-7 =(UIC) O

Las transformaciones elementales utilizadas son: 1. Sustitución de la tercera fil a por la suma de ella misma más la primera fila multiplicada por - 1/2. 2. Sustitución de la tercera fil a por ella más la segunda fila multiplicada por 312.

Esta última matriz ya tiene la matriz de coeficientes triangular superior. Corresponde a un sistema equivalente al primero. (Hemos aplicado las transformaciones elementales simultáneamente al vector columna de término independientes.)

2x1 +x,- x3= - 1 X , - 3X3 =- 7.". MAX = MB { 2x3 = O La última fase a aplicar es la de retro-sustitución: De la 3.' ecuación X3 = O, sustituyendo este valor en la 2.' ecuación => x, = = -7 Y sustituyendo ambos en la primera => XI = 3. Por tanto, la solución única es (3, - 7, O). Si recorremos el camino seguido para resolver por este procedimiento el mismo sistema AX = B de orden n, y vamos contando el número de operacio-

206

4.3. Cálculo de soluciones

nes ejecutadas, podemos comprobar que son del orden de 3n'f2 sumas, 3n'f2 multiplicaciones y n divisiones. Para n = 10 da un total de unas 300 operaciones, lo que supone una tremenda mejora sobre las 400.000.000 necesarias para la resolución del mismo sistema por la regla de Cramer. Además presenta la ventaja de ser fác ilmente programable y la ejecución del programa es posible en cualquier P.C, recomendamos al lector que esboce el programa del algoritmo en cualquier lenguaje que conozca. Quizá el lector se pregunte la razón para elegir Ada Byron como personaje paradigmático del capítulo cuatro, la respuesta la encontrará al saber que es autora del primer programa para resolver sistemas de ecuaciones en una máquina. Cuadro resumen del conjunto de instrucciones dadas por las tarjetas y resultados intermedios obtenidos en el programa de Ada Byron:

Dado el sistema

{n;~: ,7{:~,

,llamaremos V; a las diferentes columnas

de ruedas cifradas y supondremos los coeficientes m, n, d, m', n', d' en las ocho primeras columnas de la manera siguiente:

Número de la operación

Nalllrale:a de la operaciólI

1

*

2

3 4 5

* * *

6 7

f

Columnas sobre las que se efectúa la operación

* V. * VI * Vo VI * V,

V, V, V,

Vg - V. VIO - VII V 12 - V13

Columnas que reciben los resultados

Resultados de la operación

V, V. VIO

dn' d'N n'm

VII V 12 VIJ

V"

11m'

dn'-d'n n'm-nm' (dn' - d'lI)f(n'm- 11m')

207

4 Sistemas de ecuaciones lineales

El valor de x está dado por la columna VI'. Un cálculo suplementario permite calcular y de la misma manera. Como en los ordenadores actuales, el molino va a buscar en la columna apropiada el dato que necesita para efectuar la operación en curso, y la reinscribe para que esté disponible para una operación posterior.

208

-

4.4. Otro método de resolución. La factorización LU

4.4. Otro método de resolución. La factorización LU

Aunque como hemos visto el método de Gauss representa una mejora considerable frente a la regla de Cramer, cuando el número de variables de un sistema es muy grande, tampoco resulta operativo. Parece natural la búsqueda de otros métodos de resolución basados en algoritmos programables que reduzcan considerablemente el tiempo invertido por el ordenador. Uno de estos métodos es la factorización LV. que consiste en la creación de una matriz, llamada matriz L, que contiene información sobre las transformaciones que es necesario realizar en A para convertirla en una matriz triangular superior U, para poder, mediante esa información, resolver el sistema por el método de Gauss.

4.4.1. Obtención de la matriz L Sea el sistema AX = B (A de orden n) que se va a resolver por el método de Gauss. Se prepara la matriz A de modo que tenga el elemento a" '" O, para que de esta manera las únicas operaciones elementales que haya que realizar para transformar A en la matriz triangular superior U, sean sustituciones de filas por su suma con otra multiplicada por un determinado número, es decir, que no sea necesario efectuar intercambio de ftlas. La información sobre esas operaciones elementales necesarias para transformar A en la matriz triangular superior U, se va a guardar en una matriz llamada "matriz LOO para que el ordenador lo pueda utilizar siempre que sea necesario, por ejemplo para resolver al mismo tiempo distintos sistemas con la misma matriz A y términos independientes IAI =Oparab=Oóa= 1. l l O Para que existan soluciones el sistema ha de ser compatible, es decir, rg(A) = rg(A lB); analicemos por separado qué ocurre con los rangos de las matrices en función de los valores de a y b:

1. Si b = O => (A l B) =

1 a O 2 O O

( l

l

O

rg(A) = rg(A lB ) = 2 para todo valor de a.

1 1 O 1. Si a = 1 => (A lB) =

2 O -b ( 1 l O

rg(A) = rg(A lB) = 2 para todo valor de b. Por tanto, el sistema cumple la condición adicional indicada, si a = l ó b = O.

Ejercicio 4.4 Sea A una matriz cuadrada de orden 2. Demuéstrese que la condición necesaria y suficiente para que A sea singular es que exista otra matriz cuadrada M de orden 2 no nula y tal que AM = O. Solución: Vamos a ver primero la implicación: A es singular => Existe M AM=O.

220

* O con

Ejercicios

(a

. A = a'lll a" a 12 ) smg • ul aro En e f ecto, sea la matrIz

Si A es singular, el sistema homogéneo AX = (a ll a 12 ) (XI) = ( 00) a 2l a 22

soluciones distintas de la trivial porque lA 1=0 tas = 2. Sea e = ( ~;)

=>

X2

tiene

rg(A) < número de incógni-

* (~ ) una de las soluciones, es decir, se verifica

al lcl +al 'c, =O ,YSeaM lamatriZM= (CI O) { a' lcI + anC, = O C, O

que evidentemente

es una matriz no nula. Por ser e solución del sistema, la matriz producto AM = ( a ll al,) (CI O) = ( a llc l + a l'c, O) = ( O

a' l a"

C,

O

a' lc I + a"c, O

Veamos ahora que si A no es singular Utilicemos la reducción al absurdo:

=> No

O

existe M

* O con AM = O.

Supongamos que A es regular, entonces existe la matriz inversa A-l . Si AM = O => KIAM = O. Es decir, M = O.

Ejercicio 4.5

Aplicando el teorema de Rouché, analícese la compatibilidad del sistema

ax+ y + z =a' + Y + az = a para los distintos valores de a. { x+ y +2az=2 X

221

4 Sistemas de ecuaciones lineales

Solución: Cálculo del rango de las matrices de coeficientes (A) y ampliada (A lB):

(A)

=

lA I=

all) 1 I I ; (A lB) ( 112a

=(a11 1 1 a 1 1 2a

a I 1 I I a = ala - 1); lA 1= O para a = O, a = 1. 1 1 2a

Analicemos cada caso por separado: Para a = O, (A lB) =

rg(A)

O l 1 1 l O ( 1 1 O

~)

=2; rg(A lB) =3, el sistema es incompatible.

Para a = 1, (A lB)

=

1 1 1 1 l 1

( 1 1 2

rg(A) = 2; rg(A lB) = 2, el sistema es compatible e indeterminado. Para a '" O Y a '" 1, al ser lA 1"'0 patible y determinado.

=>

rg(A)

= rg(A lB) = 3, el sistema es com-

Ejercicio 4.6 Sea el espacio vectorial real V y E = re¡, e" e,} una base del mismo. Se considera la familia de endomorfismos lf} determinados de la siguiente forma:

1(e,) = ae, + be, + be, f(e,) = be, + ae, + be, 1(e,) = be, + be, + ae,

222

Ejercicios

Se pide detenninar: a) Valores de a, b para los quefes biyectiva. b) Para los endomorfismos no biyectivos, analizar si el vector ü = 3el - 3e, pertenece al conjunto 1m(/), siendo f cualquier endomorfismo de la familia dada. Solución: Expresión analítica de la familia de endomorfismos, en la base E:

YI) b bb)(XI) y, = (ab a x, ( y, b b a x, que corresponde al sistema de ecuaciones lineales

YI = aXI + bx, + bx, y, = bXI + ax, + bx, { y, = bXI + bx, + ax,

XI) e Y = (YI) donde X = ;~ ~! están expresados en la base E, y f(X) = Y. (

a b b Detenninantede la matriz A de la familia: IAI= b a b b b a

= (a + 2b)(a-b)'

lA 1= O para a =-2b, a = b. a) Los endomorfismos biyectivos son aquellos cuya su matriz es regular. Es decir, para a '" -2b Y también a '" b. b) Analicemos los no biyectivos. Valores de a =-2b ó a = b. Se supone que b '" O, en caso contrario no existe el sistema. El vector ¡;¡ pertenece a Im(/) si el sistema que define la aplicación es compatible, es decir si:

223

4 Sistemas de ecuaciones lineales

rg(Al = rg(A IBl. siendo B = (

-~ ) .

Analicemos cada caso. Si a = -2b. rg (A) = rg

= rg

- 2b b b b -2b b ( b b - 2b

-2b b b) b - 2b b = 2 porque b ct O. y rg(A IBl = ( b b - 2b

3)

-3 = 2 O

El sistema es compatible. existen vectores que son antiimagen de Ü. es decir: ü E Im(f) para cualquier f perteneciente a la familia.

t t)

Sia=b.rg(Al=rg(t bbb

= l;rg(AIBl=rg(

tt t bbb

_303 ) =2

El sistema es incompatible. ü .. Im(f) para ningúnfperteneciente a la familia.

Ejercicio 4.7

x+3y +z-I=2 Compruébese la compatibilidad del sistema

{

2x + 7y + 3z - 41 = l . Y re-

x +y+2z +l= I

suélvase por el método de Gauss cuando sea compatible. Solución:

Matriz ampliada: (A IBl =

224

(~ ~

I -1

3-4 2

1

Ejercicios

1 3

1

rgA = rg(A lB) = 3. Por ejemplo, es 2 7

3 = 3 '# O 1 1 2

El sistema es compatible e indeterminado al ser 4 el nOde incógnitas. Haciendo t = .

x·x y.y .. x·y 11 xii' = l Y 1 y 11' = l , podemos escnblr: 2 ± 2 11 x Ilb 11 ~ O **

O,

•E

5.2. Norma de un vector y ángulo entre dos vectores

3. Desigualdad de Minkowski. IIH yll ' = (H y). (H y) = Ilxll ' + Ilyll ' + 2(x· y) Aplicando la desigualdad de Schwartz resulta: Ilx + yll' $ Ilxll ' + lIyll' + + 211xlllly ll = (lIxll + Ilyll)' , y extrayendo la raíz cuadrada, obtenemos la desigualdadde Minkowski: Ilx+yll$llxll+ Ilyll. Si ahora expresamos la desigualdad de Schwartz: Ix· yl $ IIxllllyll en la forma equivalente: -lIxllllyll $ x . Y $ Ilxlll lyll, y suponiendo que IIxll , Ilyll 0, dividimos por IIxllllyllobtenemos:

*

- 1$

x·y Ilxllllyll

< 1.

Podemos ver que el cociente anterior toma los mismos valores que el coseno de un ángulo. Además para x = y se tendría un ángulo igual a cero y el valor del cociente anterior resulta igual a uno. Aunque, en general los vectores del espacio vectorial euclídeo V no serán vectores geométricos, las consideraciones anteriores permiten llegar a la siguiente definición:

5.2.4. Definición de coseno del ángulo entre dos vectores Dados dos vectores no nulos x.

y pertenecientes a un espacio vectorial euclídeo V

se define como coseno del ángulo entre dichos vectores a: cos(x, r) -

=

x·v11 x 1111 y 11

Ejemplo 5.2.3.

Calcúlese el coseno del ángulo que forman los vectores p(x) = x; q(x) = 1 - x, para el producto escalar defmido en el ejemplo 5.1.2, teniendo en cuenta los valores obtenidos en los ejemplos 5.1.3 y 5.2.2.

245

5 Producto escalar de vectores y espacio euclídeo

Solución: 1 p' q 1/6 cos (p , q) = ----'----''---- = = II p II 11 q 11 ( 1;V3)( I;V3) 2

5.2.5. Definición de ortogonalidad

Dos vectores :r, y son ortogonales .,. El producto escalar siendo :r,:V distintos del vector nulo.

x . y es igual a cero,

De acuerdo con la definición anterior, para que dos vectores sean ortogonales debe cumplirse que cosO', y) = O. Esta definición coincide con la dada para perpendicularidad de vectores geométricos, en la que el ángulo que detenninan ambos vectores debe ser recto. Observemos que se ha definido la ortogonalidad para vectores no nulos. También podemos ver que el vector nulo es ortogonal a cualquier vector X, ya que O':x = O. Dados dos vectores de un espacio euclídeo x, y, se verifica:

IIH y112 = (H y) . (H y) = x · H 2(x · y) + y . y pero si dichos vectores son ortogonales, es: presión del teorema de Pitágoras:

IIx+yI12= Ilx112+ lIyl12

x+y

x . y = O, se obtiene la conocida ex-



5.2. Norma de un vector y ángulo entre dos vectores

Ejemplo 5.2 .4.

En el espacio vectorial euclídeo 1R 3 , con el producto escalar usual, determínese un vector que sea ortogonal a los vectores: u = (1, 2, 1); v = (O, -1 , 1); IV=O,l,2).

Solución : Sea x = (a, b, e) el vector a determinar. Como x debe ser ortogonal a u entonces: x . u = O ~ a + 2b + e = O También debe ser ortogonal a v : x . v =O ~ -b + e = O. Por último, debe ser ortogonal a IV : x . IV = O ~ a + b + 2e = O Por lo tanto, el vector buscado debe ser la solución del sistema:

a + 2b+e=0 - b+c=O

{ a + b+2e =0 Sistema que tiene por solución: a = - 3a; b = a, e = a ~ x = (-3a, a, a), es decir, el espacio vectorial generado por (-3, 1, 1). Volviendo al caso de los vectores geométricos, de gran utilidad en física, cuando se habla de la proyección de un vector sobre otro, en general se hace referencia al módulo del vector proyección, pero si lo que se requiere es el vector que se obtiene como proyección ortogonal de un vector ti sobre otro vector v, tendremos que determinarlo como la composición de u con otro vector IV ortogonal a v. Sea u' el vector proyección de u sobre v. El módulo de u' resulta: 11 u' 11 = 11 u 11 cos (u, v) =

(¡¡ . v)

IIvll

¡¡

u

247

5 Producto escalar de vectores y espacio euclídeo

Multiplicando por el vector unitario de la dirección de v: ne el vector ¡¡' =

(¡¡ . V)

_

11 V 11'

v

v

11 v11 ' se obtie-

Es posible extender este concepto para cualquier par de vectores de un espacio vectorial euclídeo y decir que la proyección ortogonal de un vector ¡¡ sobre otro vector v de dicho espacio es: -

(¡¡.v)

Proy " . =

11 vii'

v

Ejemplo 5.2.5. Detennínese el vector que se obtiene como proyección ortogonal del vector p(x) =x sobre el vector q(x) = 1 - x, con la definición de producto escalar dada en el ejemplo 5.1.2 y teniendo en cuenta los res u.\tados obtenidos en los ejemplos 5.1.3 y 5.2.2. Solución: Proy pq =

248

(p. q)

Il qll' q

=

1/6

(1/V3)'

l

1

2

2

(I-x)=- - - x

5.3. Expresión del producto escalar en una base dada

5.3. Expresión del producto escalar en una base dada

Si Ves un espacio vectorial euclídeo de dimensión 11, y B = {el, e" ... , e,,} una base cualquiera de V, entonces, cualquier pareja de vectores x, y E V se pueden expresar como:

Si conocemos los n' productos escalares el . ej (para i,j = 1,2, ... , ti), el producto escalar x . y se puede expresar de la siguiente fonna:

x . y = (x¡e¡

+ x,e, + ... + x"e,,) . (y¡e¡ + y,e, + ... + y"e,,)

Luego, utilizando las propiedades del producto escalar:

x . y = x¡y¡(e¡ . el) + x¡y,(e¡ . e,) + ... + x¡y,,(e¡ . e,,) + X¡)l¡(e, . el) + + x¡)l, (e, . e,) + ... + x¡)l,,(e, . e,,) + ... + x,.y¡(e,, · el) + x,.y,(e" . e, ) + ... + x,.y"(e,, . e,,) Si para todo i, j se denota el producto el . ej = ducto escalar x . y de fonna matricial:

- ._ _ (.

x y-

Xl X2 ."

Xn

gll ) g,¡ : (

gnl

g¡, g22 :

gn2

glj,

es posible escribir el pro-

... g¡,, ) ( y¡ ) ... g,,, y, ",:

o. .

gnn

:

Yn

De manera abreviada se puede expresar como x . y = XGY'. donde X e Y son las matrices fila de las coordenadas de los vectores x e y, respectivamente y G es la llamada matriz métrica del producto escalar o matriz de Gram . Es un sencillo ejercicio demostrar que, para que la expresión XGY ' represente el producto escalar de los vectores x e y, respecto de una base dada, es condición necesaria y suficiente que se verifiquen las siguientes condiciones:

249

5 Producto escalar de vectores y espacio euclídeo

*

1. gij = gji, 'ti j (La matriz G debe ser simétrica). 2. gij> 0, 'ti = j (Todos los elementos de la diagonal principal deben ser positivos). 3. g~ ~ 0, 't i•j •

g"gjj -

Ejemplo 5.3.1.

El producto escalar de los vectores:X = (x" x,) e y = (y" y,) de un espacio euclídeo bidimensional, referidos a la base B = fe" e, } está defInido por:

:x . y = 4x,y, + x,y, + x2Y' + 9x2Y, 1. Hállese la matriz que caracteriza a ese producto escalar y verifíquese que cumple con las condiciones anteriormente expresadas. 2. Calcúlense las normas de los vectores de la base. 3. Determínese el coseno del ángulo que forman los vectores de la base. 4. Determínese el producto escalar ü . ü, siendo ü = (2, 1).

a) Si la base primitiva B es la formada por los vectores e, = (0, 1). b) En otra base B' dada por los vectores e', = (

+,

O);

e,

e', = ( 0,

= (1, O);

+).

Solución:

1.

gil g,,)(y,) y, =(x,g" + x,g"

x· y =(x, x,) ( g" g"

Por tanto,

(y, ) =

x,g" + X28,,) y,

\j ~~.

gil = 4; g" = g" = 1; g" =9=> G =

5.3. Expresión del producto escalar en una base dada

G cumple las condiciones requeridas: 1. gl2 = g2¡ = 1. 2. gl1 = 4 > O; g" = 9 > O. 3. gl1 . g22 - g¡2 = 4.9 -1 ~ O.

2. Para calcular la norma de los vectores de la base basta hacer:

lIedl 2 = e¡ . e¡ = g¡¡ = 4

=>

Ile¡11 = ~ = 2

2

11 e2 11 = e2' e2 = g22 = 9 => IIe2 11 =..¡g;. = 3

e¡ . e2

1

g¡2

3. cos(e lo e,) = -c--c--c--::- = = Ile¡lIlle2 11 lIe¡ 11 IIe2 11 6

4. a) En la base canónica B el vector u queda expresado como u = 2e¡ + e2. luego: ¡¡. ¡¡ = UGU' = (21) (

i ~ )(i) = (911)( i) = 29.

También podríamos haber calculado el producto escalar a partir de la expresión original. b)

e'¡ =

Como x . y = 4x¡y¡ + X¡Y2 + X2Y¡ + 9X2Y2. si los vectores de la base B' son:

(+- O) Y

eí =

(O. +)

e'¡.e'¡=4.(~r+2.~

. 0+9.0 =1

eí . eí = 4.02 + 2 . O.

+ 9.

_/_/

_1_1

e¡ · e2= e2' e¡ =4. -

1 1 +9.0. - = -

3

2

+ (+r

1

= l

11

.0+-.-+0.0+ 2 2 3

6

251

5 Producto escalar de vectores y espacio euclídeo

Por tanto, la matriz métrica que caracteriza el producto escalar en la base

l

B' es G' = ( 1/6

1/6 ) 1

En la base B' el vector ¡¡ queda expresado como ¡¡ = 4e', + 3e,

=>

Como podemos ver, el valor del producto escalar es el mismo, independientemente de la base elegida.

252

5.4. Sistemas ortogonales y ortonormales de vectores

5.4. Sistemas ortogonales y ortonormales de vectores

Sea V un espacio vectorial euclídeo y S un subconjunto de V, diremos que S es un sistema ortogonal si cualqu;er vector de S es ortogonal a todos los demás vectores de S.

5.4.1. Definición de sistema ortogonal El sistema S = {u" u" ... , u,, }

e

11 es ortogonal

$O

u,' uJ = O, 'if i

*j

5.4.2. Proposición S = lu" u" .... u"} te independiente.

e, un sistema ortogonal de vectores no nulos =>S es linealmen-

Demostración: Sea S = I¡¡" ¡¡" ... , u,, } un sistema ortogonal de vectores no nulos, tal que, A,¡¡, + A,u, + ... + A"¡¡,, = O con A, E lIt Por las propiedades del producto escalar:

u, . (A ,¡¡, + A2¡¡, + ... + A"u,,) =Adl udl' + 0+ ... + O = O =>A,

=O

De manera similar, comprobamos que A2 =A, = ... = A" = O; luego los vectores del sistema ortogonal S son linealmente independientes. Si S es un subconjunto de un espacio vectorial euclideo con todos sus vectores unÜarios se dice que es un sistema normado

253

5 Producto escalar de vectores y espacio euclídeo

5.4.3. Definición de sistema normado El sistema S = {UI' ¡¡" ... , ¡¡n} es nonnado

*" II¡¡, 11 = I. 1 S ¡Sil

Si un sistema de vectores S, contenido en un espacio vectorial euclídeo, es ortogonal y además nonnado, entonces se dice que es un sistema ortononnado.

5.4.4. Definición de sistema ortonormado

El sistema S = {Ti"

¡¡2, ..., Ti.} es ortononnado

*" Ti,' Ti, = {~

Ejemplo 5.4.1.

En el sistema S = {I, senx, cosx} cuyos vectores son las funciones : 1, sen x, cos x, se define el producto escalar de la siguiente fonna: /(x) . g(x) = J.:f(X) . g(x)dx.

a) Verifíquese que S es un sistema ortogonal. b) Encuéntrese un sistema ortononnado a partir de S. Solución: a) Si h(x) = 1; k(x) = sen x; m(x) = cos x h(x) . k(x) =

254

J) .sen

x dx = [- cos xI. = - 1 - (-1) = O

5.4. Sistemas ortogonales y ortonormales de vectores

h(x) . m(x) =

i> .

cos x dx = [sen x[ = O

k(x) . m(x) = {' sen x · cos xcix = (X sen x d(sen x) = [_1 sen'x] , = O Ltr LI[ 2 -IC Por tanto, el sistema es ortogonal. b) Para encontrar un sistema que, además de ortogonal, sea normalizado es necesario calcular primero la norma de cada uno de los vectores dados :

1: 1:

11"(x)11 = y

Ilk(x)11 =y

sen'x cIx =

Il m(x)11 = y

El

S'=

1.1 cIx = y[x

1:

V[+ (x -

cos'x dx =

sistema

sen x

V[+

ortonormado

rL~ ' --v;¡-' Vn ' l

J:. = V2ñ senx . cos

x{

=

Vn

(x + sen x· cos x{= Vn

(ortogonal

y

normalizado)

es:

cosx}

5.4.5. Método de ortonormalización de Gram-Schmidt Como el valor del producto escalar es invari ante cualquiera que sea la base considerada, es conveniente elegir una base en la que dicho producto tenga la expresión más sencilla posible. Esta expresión la podremos obtener cuando la matriz métrica G sea la matriz unitaria /, porque entonces: x . y = XfY' = x¡y ¡ + + x2Y' + ... + xxY•. (Es decir, el producto escalar usual.) Esto es lo que ocurre cuando la base es ortononnada.

255

5 Producto escalar de vectores y espacio euclídeo

Bases ortononnadas hay infinitas. pero el problema que se plantea es. a partir de una base cualquiera del espacio vectorial euclídeo. encontrar otra base que sea ortononnada. Este problema es fácil de resolver con el método de Gram-Schmidt. que nos pennite obtener una única base fonnada por vectores ortogonales. que después se nonnalizan. • Sea B = le.. e" .... en } la base primitiva y B' gonal a detenninar. • Primero fonnamos las siguientes relaciones:

= IUI. 1 c - a - b = O q(x) . r(x)

=O =>

4a - b =O

e- -

3

De donde se obtiene que: a = O, b = e

=>

V" = (1 + x).

Ejercicio 5.10

Con el producto escalar usual , se quiere encontrar el complemento ortogonal en IR' (una de cuyas bases es B = {e" e2, e, }) del subespacio V = {(x" X2, X3)/X, = x21 de un espacio euclídeo a partir de la base formada por los vectores u, = ( 1, 1, O), U2 = (O, O, 1).

271

Ejercicios

Solución: Un elemento y pertenece a V" (complemento ortogonal de V), si y sólo si y es perpendicular a UI ya u,. Como y = Ylel + y,e, + YJeJ, debe ser:

YI~I + y,~, + YJ~J) 01 + e,) =YI + y, =o {~y . ~I'" == ((Ylel + he, + YJeJ) . eJ =YJ =O .

.

obteniéndose un sistema homogéneo con tres incógnitas que determina un subespacio cuyas ecuaciones son:

_ YI :(/' { Y3

= - ,t { ( YI) .,. {Yy,I =,t.,. y, =,t (- 11) Y3=0 Y3 O

por tanto, está generado por el vector:

272

ji

= (-1, 1, O) y es de dimensión l.

6 MATRICES SEMEJANTES

INTRODUCCiÓN La noción de valor propio y de vector propio de una matriz (o de la aplicación lineal que representa) había surgido en el siglo XV III en la teoría de sistemas de ecuaciones diferenciales lineales homogéneas con coeficientes constantes, de la mano de Lagrange y Laplace, y su identificación con los ejes de una cuádrica cuando A es real y simétrica era bien conocida por Cauchy, quien también conocía su coincidencia con las raíces del polinomio característico. Cauchy obtiene los primeros invariantes, probando, por ejemplo, que si A y B son matrices semejantes, tienen los mismos valores propios. Sylvester, en sus trabajos sobre los haces de cuádricas, y poco después, en 1868, Weierstrass que extendió los resultados de Sylvester para matrices no necesariamente simétricas, dieron un importante impulso a la teoría de los invariantes. Utilizando la noción de matrices semejantes, Jordan en su monumental Traité des substitutiolls (1870) demostró que toda matriz cuadrada era semejante a otra más sencilla. El papel sistematizador en la teoría de clasificación y reducción de matrices lo lleva a cabo Frobenius en varias memorias publicadas entre 1877 y 1880. En particular, da la demostración general del teorema de Cayley-Harnilton y plantea el problema de determinar el polinomio de menor grado que satisface la matriz (el polinomio mínimo). Afirma que está formado por factores

273

6. Matrices semejantes

del polinomio característico, y que es único, lo que no fue demostrado hasta 1904 por Hensel. Señalemos fmalmente que Metzler introdujo en 1892 la exponencial y otras funciones transcendentes de matrices, por medio de series de potencias, que son de gran aplicación en el estudio de sistemas de ecuaciones diferenciales lineales. Para su cálculo efectivo tienen gran importancia la diagonalización de matrices y la descomposición de Jordan, ya que las potencias sucesivas de dichas matrices se calculan muy fácilmente.

274

Arthur Cayley (1821-1895)

ARTHUR CAYLEY (1821-1895) Arthur Cayley nació en Inglaterra de padre inglés y madre rusa y desde su adolescencia mostró su fac ilidad para las matemáticas . Estudió en el King's College, en el Trinity College de Dublín, donde ingresó con la calificación " por encima del primera", y en la Universidad de Cambridge. Junto con su coetáneo HamiJton, encabezó la prestigiosa escuela de matemáticos ingleses del siglo XIX. Después de realizar serias investigaciones en matemáticas, se olvidó de ella y se dedicó al turismo por Europa. En 1846 comenzó a estudiar Derecho, mientras ejercía la abogacía entabló amistad con Sylvester, y las matemáticas salieron beneficiadas de esta relación. Simultáneamente declinaba el interés de ambos por la jurisprudencia. Por entonces se creó una cátedra de matemáticas en Cambridge, de ella se encargó Cayley y a partir de ese momento no abandonó su interés por esa disciplina. Sus contribuciones más importantes a las matemáticas son: • • • •

Importantes descubrimientos en la teon a de los detenninantes. Creó la teoría de los invariantes. Es autor de la primera definición abstracta de grupo finito . Desarrolló el álgebra de matrices, que sirvió como fundamento para la mecánica cuántica. • Hizo importantes contribuciones a la teoría de curvas y superficies en geometría analítica.

Sus trabajos en geometría cuatridimensional, proporcionaron a los físicos del siglo xx , especialmente a Albert Einstein, la estructura para desarrollar la teoría de la relatividad. Su desarrollo de la geometríat no dimensional ha sido aplicada en la física al estudio del espacio-tiempo continuo. Está considerado como el . tercer escritor más prolífico de matemáticas, siendo sólo superado por Euler y Cauchy. Sus trabajos matemáticos se publicaron en Cambridge Cl889A 8)._ _ _ •_ _

275

Organigrama

CAPÍTULO 6

La clase de equivalencia de matrices semejantes

Autovalores y Autovectores

Diagonalización de endomorfismos

Endomorfismos simétricos Diagonalización de endomorfismos simétricos

277

6. 1. Matrices semejantes

hacemos idéntica pregunta a la anterior y a establecer los teoremas necesarios para probar la posible existencia de una matriz diagonal en la clase correspondiente a una matriz de aquel conjunto.

6. 1. 1. Definición de matrices equivalentes A. B E M~M son matrices equivalentes Existen dos matrices regulares M. N. tales que. A = MBN

Es evidente que, la relación entre matrices asf defmida en Mm"" constituye una relación de equivalencia. La demostración se deja al lector como ejercicio. Atendiendo a esta definición de matrices equivalentes, se verifica la siguiente propiedad.

6.1.2. Proposición: Si A, B E Mm" con A = CB Y C es una matril regular. entonces, A y B tienen el mismo rango.

Demostración: Al hacer la multiplicación de matrices A = CB:

(

a"

al2

a 2l

G 22

al') (cn Cn

a mi

a m2

~::n

QZn

_

e 21 C22

~::1 ~~2

279

6. Matrices semejantes

+ c 12 b2J + + c,mbml = cllb 12 + C1 2b 22 + ." + cl m hm2

al1 = a ll

=>

{

cll b ll

o ••

....... ..... .. . . .. . .. . . .... al l!

=

cIlb 1n + c 12 b2n +

o ••

+ c,mbmn

Expresión que podemos escribir como:

Las filas de la matriz A son combinaciones lineales de las flIas de la matriz B, por tanto, el rango de A es menor o igual que el rango de B. Recíprocamente, como e es regular existe C-' y es regular. por tanto, B = = C-' A. razonando de la misma forma, podemos afirmar que el rango de B será menor o igual que el rango de A. Por lo que concluimos que el rango de A es igual que e l rango de B.

6. 1.3. Proposición

Los rangos de las matrices A y B coinciden M_,

** A YB son matrices equivalentes en

Demostración:

I1

Si A Y B son equivalentes, entonces A = MBN, donde M y N son regulares, y por la proposición [6.1.21. rg(A) = rg(MBN) = rg(BN) = rg(B), que es lo que queríamos demostrar.

280

6. 1. Matrices semejantes

6.1.4. Definición de matrices congruentes A, B E M""" son matrices congruentes que,A =P'BP

*"

Existe una matriz regular P E M,,,,. tal

De esta definición se deducen las siguientes consecuencias:

6.1.5. Consecuencias l. Si A Y B son congruentes, entonces A y B son equivalentes. Demostración: Evidentemente es trivial , sin más que considerar M

=P' y N =P.

2. Si A Y B son congruentes, entonces rg(A) = rg(B). Demostración: Sale inmediatamente de [6.1.3J y de la consecuencia anterior. 3. La congruencia de matrices es una relación de equivalencia en M ,,,,,.

Demostración: En efecto, se cumplen las tres propiedades que caracterizan a las relaciones de equivalencia: l. A = l' Al (Reflexiva) 2. A = P' BP, B = (P'r' Ar' = (¡r')'. (Simétrica).

*" B = (¡r')' A¡r', pues como sabemos, (P'r' =

281

6. Matrices semejantes

3. A = p' BP Y B = Q'CQ => A = P'Q'CQP (QPl' = P'Q'. (Transitiva).

= (QPl' CQP, en virtud de que

6.1.6. Definición de matrices semejantes A, B E M""" son matrices semejantes Si f es un endomorfismo de un espacio vectorial. tal que en una base

?11 ° ... .0) 0. asociada afes dia-

B = {elo e, • ...• e,, } de V. la matriz A =

l.,. :::

(

° ° . . 1"

gonal. se verificará: lA -MI = (l l-A)(l, - A) ... (1" - A) = O=> 11. 1, •...• 1" son valores propios de A. y se debe cumplir:j(e¡) = l lhj(e,) = 12e2•...• j(e,,) = I"e" con (i = 1. 2 • ...• n). Entonces ex iste una base de V formada por los vectores propIos.

i

)

=(

b)

a e d

'(

1 -1

2 O)

(

b)-

a e d

' 1

=

(

-1 4

-1 2

~) (1.

)(

rcgu b

e d

)

;;;

De esta expresión se obtiene el sistema de ecuaciones Ji.

2a '.' 2b - 4c ;;; O O con e1 rango d ' de caef lClen" aQ _- be + + 2d 4d ;:: ;;; O e aI matnz

2d - b ." e;;; O

tes tres, por tanto, tiene soluci6r distinta de la tr\rial, una el as es, por ej e mplo,

la que da lugar a la mat"iz (~

~) = (

]

6) ,

= Ambas matrices representéu el mismo endomorfismo pero c"f)tán referidas a distintas bases.

Ejercicio 6.7

Demuéstrese que dos matrices cmcjanles A}, U, 'cncr la misma ecuación característica.

311

6. Matrices semejantes

Solución: Las ecuaciones características de las dos matrices son lA - A/ I = O Y 18 - A/ I = O. Si A Y8 son semejantes, existe una matriz reguJar P, tal que, 8 = = P-' AP. Entonces se verifica 18 - A/ I = I p-' AP - A/ I = I P-' AP - AP-' P I = l

= IP-' (A - AI)P Ip-'I IA - AI P I , y como, Ip-'I = - - => 18 -A/ I = lA - A/ I ,

que es lo que queríamos demostrar.

I PI

Ejercicio 6.8

Estúdiese la existencia de una matriz diagonal semejante a A = ( para los distintos valores de

6 ~ ~)

-2 O

r y o.

o

Solución:

La ecuación característica es lA - A/ I =

3- A O O O l -A r - 2 O O- A

=

= (3 - A)(1 - A)(o - A) = O, cuyos valores propios son A = 3, A = I , A = o.

o'"

o'"

Si 3Y 1, los tres valores propios son distintos y A es diagonalizable. Veamos qué ocurre cuando 0= 3. (En cada caso podemos utilizar el criterio de la columna derecha o el de la columna izquierda indistintamente.) Entonces A = 3 Y se trata de un valor propio doble.

(A - 31) = (

L~O ~) => rg (A - 31) = O

-2

=2 '" 3 - 2 = 1 => A no es diagonalizable.

312

En este caso la multiplicidad algebraica de A = 3 es 2, y la multipLicidad geométrica es L independientemente del valor de r => A no es diagonalizable.

Ejercicios

Si 8 = 1, entonces A = I es un valor propio de mu ltipbcidad algebraica 2, de matriz laA ,yA- /=

2 O O) r .

O O

(-2

O O

Con 8 = 1, si r '" O => rg(A - f) = = 2 '" 3 - 2 = 1 => A no es diagonalizable.

En este caso las dos multiplicidades no coinciden => A no es diagonalizable .

Con 8 = 1, si r = O, entonces rg(A - f) = I = 3 - 2 = 1, Y la matriz es diagonal izable.

En este caso las dos multiplicidades coinciden => A es d.iagonalizable.

Ejercicio 6.9

La matriz A =(

~ -~

J)

liene por vectores propios: (1,0, 1),(-1, 1,0),

(O, 1, - 1). Calcúlense: a) La matriz A, y los valores propios correspondientes a los tres vectores anteriores. b) Compruébese si es diagonalizable la matriz A. c) Escnbese la matriz de paso P. Solución: Como los vectores (1, O, 1), (- 1, 1, O), (O, 1, - 1) son vectores propios de la

matriz

a -1 e

( e

b) , se verifica:

2 d I f

c =--

O

O

--a- I = - v -c+2=v { -e +1 = 0

=>

{ a+ c= I -1

e-

-1 b)( O) (O) {-I-b =O { b=-l 2 d I

f

I

= 10

-1

I

2-d=:e

=>

I - f- -€

-1

=>

d +f = 3

La solución de las ecuaciones anteriores es:

lO

a = 3, b = - 1, e = 0.

=-2, d =2, e = l ,f = 1, Y los valores propios" =2, v = 4,

b) La matriz A es diagonalizable por tener 3 valores propios diferentes.

1 -11 O)1 . ( 0 -1

c) La matriz de paso P será P = O I

La matriz diagonal es A =

4 O O),y se verifica que A (8 O OO

es fáci lmente comprobable.

Ejercicio 6.10

Dada la matriz simétrica A = (

~ ~ ~ ), se pide:

1. Diagonalizar A . 2. Calcular la matriz ortogonal de paso. 3. Comprobar la ortogonalidad de los vectores propios .

314

= PM -

I

,

como

Ejercicios

Solución: l . La ecuación característica de la matriz A es IA-A/ I =

o

1- .1 1 O 2 -.1 O I O 1-.1

= (2-A) [(1-A)' -

1] =(2 -

= ( 1-.1)' (2-.1) - (2 - .1)[(1 -.1)'- 1]=

A)(A' - U)

=(2 - A)A(A- 2) =O.

Los valores propios son: A, = 2 con multiplicidad algebraica 2 y A, = O con multiplicidad algebraica l . El subespacio asociado a A, = 2 es:

1- 2 O 1)( XI) (O) ( O1 2 -O2 1-O2 XX,3 = OO *'>

X, -

X3= O *'> { XI X, := f3a *'> (XI) X, = a ( OI ) + X3- a X3 1

El subespacio asociado a A, = O es (

*'>

~ O~ b) (~~) = ( O~ ) ....IXI ~ X3=O*'> 1 X3 ~lx, - O

1) *'> (XI) 1) X, = a ( O

XIX, := O a *'> (XI) X, = a ( O { X3- -a X3 1 => La

X3

-1

matri z diagonal equ ivalente a A es A = (

2 O) O . ~ O

O O

2. Para calcular la matriz ortogonal de paso, hay que nonnaJizar los autovectores que la van a fonnar: Vector nonnalizado equivalente a (1, O, 1): (

*, .Jz). O,

315

6. Matrices semejantes

Vector normalizado equivalente a (0, 1, O): (0, 1, O) . Vector nonnalizado equivalente a (1, 0, - 1): (

1

Matriz de paso:

i , 0)· 0,

I

° V2 ° ° V2 ° Vi

V2

1

1

-1

3. Los vectores (1, 0, 1) Y (O, 1, O) son ortogonales entre sí y ortogonales a (1,0, -1). Ya que se verifica: ( 1,0, 1) . (0, 1, O) = (1, 0, 1) . (1, 0, - 1) = = (0,1,0)·(1, 0,-1)=0.

316

7 FORMAS BILlNEALES

INTRODUCCiÓN Los resultados más profundos acerca de la clasifi cación y red ucción de matrices (y por tanto de sistemas lineales), tuvieron su origen no en el estudio de tales sistemas, sino en el de formas bilineales y cuadráticas. El problema de la reducción de las formas bilineales y cuadráticas a formas canónicas, 10 más simple posible, fu e el principal impulsor de las investigaciones sobre reducción y clasificación de matrices. Fermat ya había identificado las cónicas con las curvas planas definidas por ecuac iones de segundo grado, y procedido a su clasificación. El problema análogo para las cuádricas fue abordado por Euler, quien trató de reducir las ecuaciones de la cuádrica a la forma ax' + by' + cz' + d = O; (a, b, c ~ O) por medio de un cambio de ejes rectangulares. Se dio cuenta de que e llo es posible si, y sólo si, el detemlinante de la matri z de la fonna cuadrática es no nu lo, en cuyo caso los números a, b, e son los valores propi os de esta matri z. Euler refi ere la cuádrica res pecto a un nuevo sistema de coordenadas rectangulares de manera que se anulen los términos "rectangulares" en la nueva ecuación de la cuádrica. Poco después, en 1765, Euler trata un problema equivalente (aunq ue aparentemente sin advertirlo), al estudiar los ejes de inercia de un sólido. Lagrange, Cauchy y otros abordaron el problema de reducir una forma cuadrática en n variables a suma de cuadrados.

317

7 Formas bilineales

Puede decirse, pues, que a partir de la segunda mitad del siglo XVIII aparece con asiduidad en Álgebra el problema de la detemlinación de transformaciones lineales (con coeficientes reales o simplemente enteros, según los casos) que permiten reducir las formas cuadráticas de dos o tres variables a unos cuantos tipos simples, y tratar entonces de clasificar éstos en términos de invariantes bajo las transformaciones consideradas, lo que permitirá clasificar las formas generales.

318

Gauss (1777-1855)

GAUSS (1777 - 1855) Gauss es uno de los matemáticos más grandes de la historia y estaba convencido de ello. se llamaba a sí mismo matemático total, le llamaban príncipe de las matemáticas, ambos caliticativos se quedaban cortos. Una anécdota muy conocida. describe cómo a la edad de 7 años asombró a su profesor al entregar en tiempo récord el resultado de sumar desde el número I hasta el número lOO con la respuesta correcta. El profesor le preguntó cómo lo había hecho. Gauss le dijo" I + lOO = 10 1, 2 + 99 = 101,3 + 98 = 101 , siempre suman 101. Como son 50 sumas de 101. el total es 5050". Esto fue sólo el principio; durante sus estudios de Bachi llerato y universitarios redescubrió varios teoremas y aunque algunos eran conocidos. él los ignoraba. Su pasión era la Aritmética. pero, a lo largo de su vida, trabajó en muchos campos, y en todos hizo aportaciones inestimables. Siendo muy joven resolvió el problema de la construcción de un polígono regular de 17 lados con regla y compás. Obsesionado por el rigor y las demostraciones, aficionado al estudio de idiomas y a la literatura inglesa, seguidor de La política mund.ial, acomplejado hasta el extremo de no querer publicar ni dejar huellas de los pasos intermedios que le llevaban a sus conclusiones por miedo al ridículo, tenía su seUo y su lema: un árbol con pocos frutos (pocos pero maduros) y estaba patrocinado por su mecenas: el Duque de Brunsvic. De su trabajo científico destacaremos aquí la primera demostración deL teorema fundamental del Álgebra (1799). Su pasión por las matemáticas le llevó a intercalar otro tipo de actividades. como sus estudios sobre las geometrías no euclídeas por las que se interesó desde muy joven. Discutió el tema con Farkas Bolyai y otros, sin embargo no publicó nada porque creía que su reputación se pondría en entredicho. Más tarde, cuando Lobachevsky publicó su trabajo sobre el tema, dijo en una carta a Schumacher que él estaba convencido desde hacía 54 afios. Nunca abandonó los trabajos de Astronomía y desde 1845 hasta L851 se encargó. con gran éxito de las finanzas de la Universidad de Gottingen. Murió el 23 de febrero de 1855 en Gottingen (Alemania).

319

Organigrama

CAPÍTULO?

Aplicaciones ortogonales Endomorfismos ortogonales

Matrices ortogonales

Fonnas cuadráticas sobre IR" Reducción de fonnas cuadráticas

Criterio de Sylvester

321

7 Formas bilineales

7.1. Formas bilineales

En el capítulo dos estudiamos las aplicaciones lineales, que son las apli cac iones que conservan la estructura de espacio vectorial. Cuando el conj unto inicial es un producto de dos espacios vectori ales hay unas aplicaciones , las aplicaciones bilineales, que son de gran interés, porque a través de ellas abordaremos el estud io de las fo rm as bilineales y las formas cuadráti cas.

El hecho de haber tratado el lector los conceptos de producto escalar, matrices simétricas de elementos reales, vectores ortogonales y bases ortonormales nos permitirá entrar de forma sencilla y natural en este estudio de tanto interés en aplicaciones matemáticas, físicas y tecnológicas. Si f es una aplicación de un producto de espacios vectoriales en otro espacio vectorial, tal que la aplicaciónf: E x F -7 V cuando mantenemos fija la primera variable es lineal y la aplicac iónf: E x F -7 V cuando mantenemos fija la segunda variable es lineal, af se la llama aplicación bilineal.

7. 1.1. Definición de aplicación bilineal

Sean E. F. \1 espacios vectoriales reales, una aplicaciónf: E x F -7 Ves una apli cación bilincal "* "1 x E E, "1 Y E F. "lA. E ~ la aplicaciónfve rifica:

{

N +X. Y) = f(x, Yl +fi,x', Yl 1(4-f..VJ = A.N, Yl

y

{

N, Y +)1') = N, Yl + (x. )1') f(x, A.y) = A.f(x. Yl

En el caso particular de las aplicaciones bilineales de un espacio vectori al real por sí mismo en ~, a la aplicaciónfse la llama forma bil ineal.

322

7 Formas bilineales

Sil : E x E ---7 IR es una fonna biJineal y B = podemos enunciar las siguientes proposiciones:

{e" ..., e. J es una base de E,

7.1.3. Proposición \;I(:\,. y) E E x E. el valor dej(:\'. :n se puede expresar en función de los valores Jee¡. e)=a¡j.coni, j= 1. .... 11 .

Demostración: En efecto, si E es un espacio vectorial de dimensión 11 y está referido a una base B = {e" .. ., e. }, en el cual los vectores:X e y tienen por expresiones respectivas: x = x]e1+ X2eZ+ o., + xnen =





Lx¡ e¡ e y = Ylel + Y2eZ+ ... + Ynell = )=~1 yj~. i= 1

Entonces:

y apLicando sucesivamente las propiedades vistas en [7.1.2J se obtiene la ex-

presión: j(:X, y)





=ij=2,1x,yJf(e¡ , el} =ij=2,a¡jX,y. 1 J

donde j(e¡, e¡) = a ij (i , j = 1, 2, ..., 11), que es el resultado de la proposición que queríamos demostrar. A esta altura del texto, el lector debe estar acostum brado a manejar con soltura las expresiones deLtipo anterior, pero si no fuera así, es conveniente que desarrolle algunos sumandos de la expresión, e intente después hacerlo en la fonna en que aparece en el libro.

324

7. 1. Formas bilineales

7. 1.4. Proposición Fijada una base, toda forma bilineal se puede representar por una matriz cuadrada, y recíprocamente, a toda matriz cuadrada corresponde WlU forma bilineal única. La proposición [7.1.3J se puede escribir en forma matricial de la siguiente manera:

f(x, y) = '2,ai¡XIYi = I ,}

2: XI (2: aliYi) = X' AY. '

J

expresión que en forma desarrollada resulta:

_

_

_

f(x.Y)-(XI ,X2, ... , X,)

a l2 a 22

......

a" I

G n2

o..

:

(

al, a 2n ) (Y Y2I) :: :

all a 21

:

a/Ifl

Yn

donde Xi e Yi representan las coordenadas de x e y, siendo X e Y las matrices columna de las coordenadas de x e y respectivamente y A = (ali)' es la llamada matriz de la forma bilinealf en la base B = ¡-e" .... e, }, siendo a ij = f(el, e). De esta forma , fijada una base B = {e" ... , e,}, a una forma bilinealfdada , le corresponde una matriz cuadrada A, y só lo una, con lo cual hemos verificado la proposición [7.1.4]. Obsérvese que todos los pasos dados para hacer esta demostración son reversibles, por ello quedan demostradas simultáneamente la implicación directa y su recíproca.

7.1.5. Proposición La matriz asociada a una forma bilinealf: E x E ~ IR con la base B = {e, .... , en) es congruente con la matriz asociada a[cuando se efectúa un cambio de base.

325

7. 1. Formas bilineales

luego la matriz asociada A tendrá la forma :

1-40 )

(-1

Y la expresión analítica de la forma es : f(Ji, y) =

O O 6

0 -3

(XI X,

x,)

) 6 ( YI y,. (- Ol1 -4OO -3O) y,

Ejemplo 7.1.3

( ~ ~ ) la matriz que caracteriza a una form a biljneal en la base B = lelo e, l con el = (1, O), e, = ( 1, 1). Determínese la matri z A' que caracteriza a dicha forma bilineal en la base B' = le'¡, e,l, con e'l = (O, 1), e, = (1, 2), obteSea A =

niendo previamente la matriz de cambio de base P. Solución: Para obtener la matriz de cambio de base, P, hay que encontrar las coordenadas de una base respecto a la otra: (O, 1) =a(l, O) + P(l, 1) (1,2) = 8( 1, O) + re l, 1)

=(- 1, 1)

=>

(a, Pl

=>

(8, y) = (-1, 2)

1 2) . Portanto:P = (- 1l - 21) yA'=P'A P= (- 11 1 2 )( 1l 21)(-1l - 21) = ( 25 Es fáci l verificar este resultado calculando la matriz A' directamente, es decir, hallando las imágenes de y

e', e,.

• Recordemos que las coordenadas de el = ( 1, O) respecto a la base canónica son (l, 0)8 (respecto a la base B) y las coordenadas respecto a B' son:

327

7 Formas bilineales

Las coordenadas de e, = (1, 1) respecto a la base canónica son (0, 1)8 (respecto a B) y las coordenadas respecto a B' son:

7.1.6. Definición de formas bilineales simétricas

f:

E x E ~ IR es fonna bilineal simétrica .,. /(x . y)

=/(y, x), 'V(x. y) E E x E.

7.1.7. Definición de formas bilineales antisimétricas

f: E x E -7 IR es fOn11a bilineal antisimétTica .,. /(x. y) = -/(y. x), 'V(x. y)

E

E x E.

Si el espacio vectorial E es IR" y la matriz asociada A, es simétrica, la forma bi lineal es simétrica real. Un caso particular de apl icaciones bilineales simétricas es el producto escalar.

7.1.8. Teorema La condición necesaria y suficiente para que una forma bilineal sea simétrica es que la matriz asoc iada correspondiente sea simétrica.

328

7.1. Formas bilineales

Demostración: =» En efecto,

si fes simétrica, de la defmición se deduce que:

f(e;, e) = filb e;) (i, j = 1, 2, ... , fI), es decir, a;j = aj;

pero esta es la condición para que la matriz A = (a ;j) sea simétrica. en la matriz A será a'2 = a2) = -3.

7.2.2. Rango de una forma cuadrática R,mgo de una forma cuadnítica Q(x)

= Rango de la matri/ A asociada a dicha for-

ma.

La expresión de una forma bilineal depende de la base elegida en el espacio vectorial , lo mismo ocurre con la forma cuadrática generada por ella.

7.2.3. Definición de forma cuadrática canónica

,

Q es fonna cuad rática canónica si es de la fonna QCr) =

2:, k,r;

331

7 Formas bilineales

Es evidente que la matriz correspondiente a una forma cuadrática canónica es una matriz diagonal. Según lo visto en el capítulo 6, por ser A una matriz simétrica existe un cambio de base definido por una matriz ortogonal que transform a la matriz simétrica A en una matriz diagonal A'. Es decir, cualquiera que sea una forma cuadrática, se puede reducir a una suma de cuadrados (forma canónica) medi ante una transformación ortogonal. Dado que existen diferentes transformaciones ortogonales que reducen una forma cuadrática a una forma canónica nos podemos preguntar si la transformación elegida influye en dicha fonna reducida. El teorema de Sylvester (también denominado ley de inercia) da solución a esta pregunta.

7.2.4. Teorema de Sy/vester

Al transformar una forma cuadrát ica X'AX en suma de cuadrados. el número de estos cuadrados, y el de los términos afectados de coeficientes positivos y negativos. son independientes de la base utilizada.

Demostración: En efecto, los coeficientes kj son los términos de la diagonal principal de la matriz diagonal A' = p' AP, siendo P la matriz de paso del cambio de base; dichos coeficientes coinciden con las raíces características A.j de A' y con las de A, pues no se modifican con un cambio de base. Por tanto, las diversas reducciones de la forma cuadrática X' AX corresponden a diferentes ordenaciones de los coeficientes A.j, lo que no altera el número de ellos, ni el signo de los que sean distintos de cero.

332

7.2 . Formas cuadráticas

7.2.5. Definición de signatura Signatura de la forma cuadrática Q = Nu' mero de coefic ientes k, > O.

7.2.6. Formas cuadráticas defim'das y semidefinidas positivas Una fomla cuadrática Q es de fin ida pos iti va si Q(x)

=X'AX > O. V x * O.

Una fonna cuadrática Q es semidefinida Ilositiva si QCO

=X'AX O Vx E E cualesquiera que sean las compo· nentes, no todas nulas del vector x, lo que exige que todas las;ti sean positivas.

333

~

7 Formas bilineales

sig(Q) = 2 lA I ;t O => rg(Q) = 2

A,

b) La matriz asociada a la forma de expresión Q(x" x,) = xi + 2r~ + 4x,x, + + 2t~, es:

IA-A1 1 =

1- A O O 2- A

O

2

O 2 = (2-A)' (I - A) -4( I- A) =(1-A)A(A - 4) =0 2- A

Los autovaJores son:

A, = 1, A, = O, A, =4

=>

sig(Q) = 2

además, rg(Q) = 2. e) Matriz asociada a la forma de ex presión Q(x" x" x,) = 3x; + a ,x, +

+ a ,x, + 4x,x,: A =

3 1 1) (1l 2O O2 343

7 Formas bilineales

IA - Al I =

1 1) = ,1,' (3-,1,) + 4+2,1,-4(3-,1,)=

3-,1, 1 -A 2 ( 1 2 -,1,

= (3 _,1,)(,1,' - 4) + 2(,1, + 2) = (3 -,1,)(,1, + 2)(,1, - 2) + 2(,1, + 2) = = (A + 2)(_,1,' + 5,1, - 4) = o

Luego los autovalores son : Al = -2; A, = 1; ,1,3 = 4

=> sig(Q)

= 2, además

rg (Q) = 3.

Ejercicio 7.8

Clasifíquense las formas cuadráticas del ejercicio anterior. Solución: A partir de los resultados obtenidos en el ejercicio anterior, llegamos a que: a) La forma cuadrática es definida positi va, pues: rg(Q) = sig(Q) = 2 =

11

b) La forma cuadrática es semidefinida pos itiva, pues: rg(Q) = sig(Q) = 2 < 11 = 3

c) La forma cuadrática es indefinida, pues existen autovalores positivos y autovalores negativos.

Ejercicio 7.9

Clasifíquese la forma cuadrática asociada a la matriz: A = ( para los di stintos valores de x

344

E ~.

-"~

-X) ,

l x-x O O I +x

Ejercicios

Solución:

IA - Al I =

l- A x -x x (I - x)--A O -x O (1 + x)-A

=

l- A x -x x (I - A) - x O = -x O (I - A)+ x

= (1 - A) [(1 - A) - x][( J - A) + x ] - x' [(l - A) - xl - x' [(J - A) + x ] =

= (1 - ,1.)[(1 - A)' - x' ] - 2x'(l - A) = (1 _ ,1.)[,1.' - 2,1. + (- 3x' + 1)] = O

Por tanto es:

A, = 1; A, = l + \Í3x; ,1.3 = l - \Í3x Para que la form a cuadrática sea definida positiva debe ser: rg(Q) = sig(Q) = 11 . Luego:

,1.3 = l - \Í3x > O => x