AS

Álgebra Superior Facultad de Matemáticas, UADY Dr. Victor M Bautista A c 2019 Victor Bautista Copyright Licensed unde

Views 331 Downloads 3 File size 2MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Álgebra Superior Facultad de Matemáticas, UADY

Dr. Victor M Bautista A

c 2019 Victor Bautista Copyright Licensed under the Creative Commons Attribution-NonCommercial 3.0 Unported License (the “License”). You may not use this file except in compliance with the License. You may obtain a copy of the License at http://creativecommons.org/licenses/by-nc/3.0. Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an “AS IS ” BASIS , WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. Versión 1.0, Enero 2019

Índice general

I

Álgebra Superior I

1

Lógica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.1

Proposiciones y variables lógicas

1.2 1.3

Conectores lógicos Cuantificadores

11 20

1.4

Razonamientos lógicos

23

1.4.1

Un ejemplo sobre los números naturales . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2

La demostración en Matemáticas . . . . . . . . . . . . . . . . . . . . . . 33

3

Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

3.1

Conjuntos

4

Relaciones y Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

4.1 4.2

Relaciones Funciones

5

Cardinalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

5.1 5.2 5.3

Cardinalidad de conjuntos Conjuntos contables y no contables Conjuntos finitos

9

44

53 59

71 73 76

6

Combinatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

6.1 6.2

Técnicas de conteo El teorema del binomio

II

81 84

Álgebra Superior II

7

Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

7.1

El anillo de polinomios K[X]: Generalidades

89

7.2

Divisibilidad, Algoritmo de la división y m.c.d. en K[X]

91

7.3

El Teorema fundamental de la Aritmética para polinomios

97

7.4

Evaluación y raíces

97

7.5 7.6 7.7 7.8 7.9

Multiplicidad de las raíces Polinomios en C[X] Polinomios en R[X] Polinomios en Q[X] PROBLEMAS

8

Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

8.1 8.2

Definición formal Operaciones con matrices

113 113

8.3 8.4 8.5

Multiplicación de matrices por vectores (Opcional) Matrices Elementales Matriz escalonada y matriz escalonada reducida

117 119 122

8.6 8.7 8.8 8.9

Métodos de Gauss y de Gauss-Jordán La inversa de una matriz El rango de una matriz Ejercicios

122 124 128 129

9

Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

9.1

Cálculo de determinantes de matrices de 2 × 2

137

9.2

Cálculo de determinantes de matrices de 3 × 3

139

9.3 9.4 9.5

Cálculo de determinantes de matrices de n × n Matrices invertibles y determinantes Ejercicios

141 144 148

99 101 102 104 108

10 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 155 10.1

Sistemas de ecuaciones lineales y la inversa de una matriz

155

10.1.1 Definición de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . 156

10.1.2 Representación Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 10.1.3 Operaciones elementales de renglón . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

10.2

Sistemas Equivalentes

159

10.3 10.4 10.5 10.6

Métodos de Gauss y de Gauss-Jordán para resolver un sistema de ecuaciones lineales 160 Rango y consistencia 162 La regla de Cramer 165 Los cuatro espacios fundamentales de una matriz 167

10.7 10.8

Uso de la factorización PA = LU para resolver el sistema Ax = b Ejercicios

167 173

I

Álgebra Superior I

1

Lógica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.1 1.2 1.3 1.4

Proposiciones y variables lógicas Conectores lógicos Cuantificadores Razonamientos lógicos

2

La demostración en Matemáticas 33

3

Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . 43

3.1

Conjuntos

4

Relaciones y Funciones . . . . . . . . . 53

4.1 4.2

Relaciones Funciones

5

Cardinalidad . . . . . . . . . . . . . . . . . . . . . 71

5.1 5.2 5.3

Cardinalidad de conjuntos Conjuntos contables y no contables Conjuntos finitos

6

Combinatoria . . . . . . . . . . . . . . . . . . . . 81

6.1 6.2

Técnicas de conteo El teorema del binomio

1. Lógica

La lógica es un esquema de reglas que permite deducir verdades a partir de otras. El medio que nos permite obtener conclusiones verdaderas si uno a comenzado con proposiciones verdaderas se llama razonamiento lógico. La lógica estudia, precisamente, los razonamientos lógicos, estableciendo cuándo un razonamiento es válido, independientemente del contenido de las verdades que se enuncien. Solo le interesan las manipulaciones que se hacen con los enunciados, no con su contenido.

1.1

Proposiciones y variables lógicas Puesto que la lógica busca deducir verdades a partir de otras verdades, su materia prima son las proposiciones. Intuitivamente, una proposición es cualquier enunciado que se puede juzgar si es verdadero o falso. 

Ejemplo 1.1 El enunciado

√ 2 es un número racional es una proposición; sin embargo, el enunciado “los números enteros son interesantes” no lo es.  

Ejemplo 1.2 Considere la frase

Esta frase es falsa, esta es una frase rara puesto que habla de sí misma, no es una proposición ya que no se puede decidir si es falsa o verdadera. (Piense en lo siguiente: cuando uno declara la frase como falsa, inmediatamente algo nos dice que resulta verdadera. Pero en el momento en que la juzgamos por verdadera, se vuelve falsa.) 

Capítulo 1. Lógica

10

Ejercicio 1.1 Determine cuáles de las siguientes oraciones son proposiciones.

El 7 de diciembre de 1941 fue domingo. Algunos números enteros son negativos. Si todas las mañanas fueran tan soleadas y despejadas como ésta! El número 15 es un número par. Esta frase es falsa. ¿Qué hora es? Todos los círculos del mismo radio son iguales. En los números enteros, 11 + 6 6= 12. La tierra es redonda. 

Ejercicio 1.2 Determinar √ el valor (verdadero o falso) de las siguientes proposiciones:

11 es entero y 3 es irracional. π √ es complejo y −2 es natural. 5 es racional o π es complejo. 2 2 3 es complejo y 3 es racional. 1 + i es real o 1 + i es entero. 2 7 real. 5 es complejo o 3 es√ Si i es real entonces 2 es natural.√ Si √ todo complejo es real entonces 5 es entero. Si 2 es complejo entonces no es real. i es real si, y solamente si, π es entero. Todo real es complejo si, y solo si, todo complejo es real.



Deliberadamente no escribimos una definición formal del concepto de proposición por dos razones: la primera es que en muchos casos es cuestión de opinión si un enunciado se puede juzgar como verdadero o falso, o simplemente, el juicio no sería unánime; la segunda razón es que las proposiciones no son parte de la lógica. Son los ladrillos con los que se construyen los razonamientos lógicos. Sin embargo, no son parte de la lógica. La lógica se ocupa de las relaciones entre las proposiciones, no de su contenido. No nos interesa, pues, estudiar cada proposición en particular. Por ello debemos usar símbolos que representen proposiciones cualesquiera y estudiar las relaciones entre estos símbolos, independientemente de su contenido particular. Utilizaremos letras latinas minúsculas, especialmente p, q, r, s,t, . . . para representar proposiciones cualesquiera. La única característica que nos recuerda que representan proposiciones es que estos símbolos pueden tener dos valores: verdadero o falso. Y como representan proposiciones cualesquiera, pueden tomar cualquiera de los dos. Estos símbolos no son proposiciones sino variables, y sí damos una definición formal de ellos. Definición 1.1.1 — Variable lógica. Una variable lógica o variable proposicional

es un símbolo que puede tomar dos valores: verdadero (representado por 1) o falso (representado por 0). Sin embargo, una vez aclarada la diferencia entre proposiciones y variables lógicas, y puesto que una variable lógica representa una proposición cualquiera, emplearemos los

1.2 Conectores lógicos

11

dos términos indistintamente. En definitiva, nuestro estudio de la lógica va a consistir en analizar variables lógicas y describir las relaciones entre ellas. La relación más sencilla es la de variables dependientes e independientes. Definición 1.1.2 — Variables lógicas independientes. Dos variables lógicas son

dependientes si el valor que tome una condiciona el valor que puede tomar la otra. Son independientes si no son dependientes. Si en una expresión aparecen las variables p y q, ambas pueden tomar los valores 0 y 1, y tenemos un total de cuatro combinaciones posibles de los valores de p y q. Si tenemos tres variables, hay ocho posibilidades. Una tabla de verdad, es una representación en filas y columnas de los valores de algunas variables lógicas. Cada columna representa una variable, y cada fila una posible combinación de los valores de las mismas. La siguiente tabla muestra todas las posibles combinaciones de los valores 1 y 0 de tres variables. p 1 1 1 1 0 0 0 0

q 1 1 0 0 1 1 0 0

r 1 0 1 0 1 0 1 0

Como ya se ha dicho, una variable lógica puede, en principio, tomar los valores 0 o 1. Sin embargo, es posible que una variable dependa de otras, cuyo valor queda condicionado por éstas, tome siempre el valor 1 (verdadero) para cualquier situación de las variables de las que depende. O bien, otra variable que tome siempre el valor 0 (falso). Las variables con este comportamiento reciben un nombre. Definición 1.1.3 — Taulotología. Se llama tautología a la variable lógica, dependiente

de otras, la cual toma el valor 1 independientemente del valor de las variables de las que depende. Definición 1.1.4 — Contradicción. Se llama contradicción a la variable lógica, de-

pendiente de otras, la cual toma el valor 0 independientemente del valor de las variables de las que depende.

1.2

Conectores lógicos Los conectores lógicos permiten construir nuevas proposiciones a partir de otras. La nueva proposición es dependiente de las proposiciones con las que se construye. Vamos a estudiar un conector monario (el cual a partir de una sola proposición se construye otra) llamado negación y varios conectores binarios (los cuales a partir de dos proposiciones se contruye una tercera): conjunción, disyunción, implicación y doble implicación. En los cinco casos daremos una explicación intuitiva seguida de una definición formal. La definición formal consiste en describir exactamente cómo depende la nueva

Capítulo 1. Lógica

12

proposición de las proposiciones con que se construye. Hacemos esta descripción mediante tablas de verdad en las que aparecen todas las combinaciones posibles de valores que toman las variables independientes. Negación

Empezamos por la negación de una proposición, que es otra proposición con valor opuesto a la primera. Si la primera es cierta, su negación es falsa y viceversa.  Ejemplo 1.3 La negación de la proposición “−5 es un número entero” es la proposición “−5 no es un número entero”. 

En términos de variables lógicas, la negación de una variable es otra variable dependiente de la primera porque su valor está determinado por el de ella. Definición 1.2.1 — Negación. La negación de una proposición p, denotada por ¬p,

es la proposición cuyo valor es el opuesto al de p. Se puede definir la negación mediante la siguiente tabla. En ella se indica, para cada valor de la proposición p, el valor que toma la proposición ¬p. p 1 0

¬p 0 1

Conjunción

La conjunción es un conector binario que funciona como el “y” del español. La conjunción de dos proposiciones, entonces, es una proposición que es cierta si ambas son ciertas, y es falsa si alguna de ellas lo es. Ejemplo 1.4 “3 es menor que 5 y 5 menor que 7” es una proposición cierta, porque las dos proposiciones que la componen son ciertas, pero “3 es menor que 5 y 8 es menor que 4” es falsa porque una de ellas es falsa. También es falsa “5 menor que 3 y 8 menor que 4”.  

Definición 1.2.2 — Conjunción. La conjunción de dos proposiciones p, q, denotada

p ∧ q, es la proposición que solo es cierta si ambas son ciertas. La definición mediante una tabla consiste ahora en ilustrar, para cada valor que pueden tomar las proposiciones p y q, el valor que resulta en la proposición p ∧ q. p 1 1 0 0

q 1 0 1 0

p∧q 1 0 0 0

Disyunción

La disyunción es el conector que opera de forma parecida a la conjunción disyuntiva “o” del español. La disyunción de dos proposiciones es otra proposición que es cierta si alguna de las dos originales es cierta. Es decir, basta que una de ellas sea cierta para que la disyunción lo sea. 

Ejemplo 1.5 “3 es menor que 5 o 9 es menor que 7” es cierta ya que una de las dos

afirmaciones es cierta.



1.2 Conectores lógicos

13

En el lenguaje cotidiano, la conjunción disyuntiva “o” se suele emplear en sentido excluyente: solo es cierta si una de las proposiciones es cierta y la otra es falsa. Así ocurre, por ejemplo, cuando decimos “voy al cine o me quedo en casa”. Sin embargo, en lógica se emplea en sentido inclusivo. Definición 1.2.3 — Disyunción. La disyunción de dos proposiciones p, q, denotada

p ∨ q, es la proposición que solo es falsa si ambas son falsas. La definición mediante una tabla consiste ahora en ilustrar, para cada valor que pueden tomar las proposiciones p y q, el valor que resulta en la proposición p ∨ q. p 1 1 0 0

q 1 0 1 0

p∨q 1 1 1 0

Implicación

El siguiente conector que introducimos es la implicación, que tiene gran importancia en la lógica pues es la base del razonamiento deductivo. Requiere un poco de atención para entender bien su definición formal que, al principio, no parece responder a la intuición. Cuando decimos que una proposición implica otra queremos expresar el hecho de que si la primera es cierta, entonces la segunda debe ser cierta también. 

Ejemplo 1.6 “Si 2 < 3, entonces 10 < 15” es una implicación.



En el lenguaje habitual se usa la expresión “Si..., entonces...”. Las dos proposiciones que aparecen en la implicación se llaman antecedente y consecuente. El antecedente es la condición que, si es cierta, asegura que se cumple el consecuente. En el Ejemplo 1.6, 2 < 3 es el antecedente, mientras que 10 < 15 es el consecuente. Para dar una definición formal debemos, como en las definiciones anteriores, decir qué valor tiene la implicación en cada caso de los posibles valores de antecedente y consecuente. Es claro que se quiere decir que una implicación es cierta si el antecedente es cierto y el consecuente también, como ocurre en el Ejemplo 1.6. Si el antecedente es verdadero y el consecuente falso no se está dando la implicación y, por tanto, se dice que es falsa, como en la implicación “si 2 < 3 entonces 5 < 4”. Quedan los dos casos en que el antecedente es falso, como la implicación “Si 3 < 2 entonces...”. Pero, siendo falso el antecedente, no obliga a nada al consecuente así que ambas opciones (consecuente verdadero o falso) son válidas y debemos considerar que la implicación se ha cumplido (ya que no se ha incumplido). Definición 1.2.4 — Implicación. La implicación de dos proposiciones p, q, denotada

p → q, es la proposición que solo es falsa si p es verdadera y q es falsa. La definición mediante una tabla consiste ahora en ilustrar, para cada valor que pueden tomar las proposiciones p y q, el valor que resulta en la proposición p → q.

Capítulo 1. Lógica

14 p 1 1 0 0

q 1 0 1 0

p→q 1 0 1 1

Es fácil convencerse de que la proposición p → q no es la misma que q → p. Basta ver la tabla de la Definición 1.2.4 o analizar un ejemplo sencillo: mientras que la implicación “si un número es real entonces su cuadrado es real” la damos por buena, al darle la vuelta obtenemos “si el cuadrado de un número es real, entonces dicho número es real”, la cual no es cierta porque el número complejo i, que no es real, cumple que i2 = −1. Esta observación es suficientemente importante como para asignar nombres a cada una de estas implicaciones. Definición 1.2.5 Dada una implicación p → q, otorgamos nombres a las siguientes

implicaciones: p→q q→ p ¬p → ¬q ¬q → ¬p

implicación directa, implicación inversa, implicación recíproca, implicación contrapositiva.

Ejercicio 1.3 Para cada una de las siguientes implicaciones, construir su inversa, recí-

proca y contrapositiva y dar el√ valor de verdad cada una de ellas. Si −2 < −1 entonces − 5 < 1. Si 45 es complejo entonces π es entero. Si i es entero entonces 4 es complejo. Si −1 es natural entonces 32 es es entero. 

Doble implicación

El último conector que introducimos es el de doble implicación o bicondicional. Como su nombre indica, si dos proposiciones están relacionadas con el conector doble implicación, significa que una implica la otra y la otra la una. Entonces, si una de ellas es cierta, la otra debe serlo también, que es lo mismo que decir que si una es falsa la otra también. Definición 1.2.6 — Doble implicación. La doble implicación de dos proposiciones p, q, denotada p ↔ q, es la proposición que solo es verdadera si ambas coinciden en su valor. La definición mediante una tabla consiste ahora en ilustrar, para cada valor que pueden tomar las proposiciones p y q, el valor que resulta en la proposición p ↔ q. p 1 1 0 0

q 1 0 1 0

p↔q 1 0 0 1

Una definición que podemos enunciar a partir de la doble implicación es la de variables

1.2 Conectores lógicos

15

lógicas equivalentes. La idea es que dos variables son equivalentes si son dependientes de modo que siempre toman el mismo valor. Si una es verdadera, entonces la otra también y viceversa. Es claro que el conector de doble implicación puede ayudar a expresar esta idea. Una forma de hacerlo es decir que la doble implicación entre dos proposiciones equivalentes es siempre cierta. Definición 1.2.7 — Proposiciones equivalentes. Dos proposiciones p y q son equi-

valentes, y se denota p ⇔ q, si p ↔ q es una tautología. Es claro que en cualquier expresión podemos sustituir una proposición por otra equivalente, y la nueva expresión que se obtiene es equivalente a la original (pues los valores de verdad son los mismos). De aquí que el concepto de proposiciones equivalentes sea muy importante y utilizado en lógica. Ejercicio 1.4 Verifique que [p ∧ (p → q)] → q es una tautología.



Ejercicio 1.5 Verifique que (p → q) → ¬p no es ni tautología ni contradicción.



Ahora podemos enunciar un primer resultado muy útil en la teoría y en la práctica de la lógica. Es la relación entre las implicaciones directa, inversa, recíproca y contrapositiva. Teorema 1.2.1 Las implicaciones directa y contrapositiva son equivalentes, y las impli-

caciones inversa y recíproca son equivalentes. Simbólicamente, p → q ⇔ ¬q → ¬p, q → p ⇔ ¬p → ¬q. Demostración. Probamos la primera equivalencia, pues la demostración de la otra es similar. Para ello basta con elaborar una tabla de verdad con todos los casos posibles y ver que, efectivamente, en todos los casos las proposiciones directa y contrapostiva toman el mismo valor. Observemos que las columnas ¬p y ¬q son auxiliares en esta tabla, pues el objetivo es comparar las columnas etiquetadas como p → q y ¬q → ¬p. p 1 1 0 0

q 1 0 1 0

¬p 0 0 1 1

¬q 0 1 0 1

p → q ¬q → ¬p 1 1 0 0 1 1 1 1

(p → q) ↔ (¬q → ¬p) 1 1 1 1

donde se ve que la bicondicional es una tautología, pues en cualquiera de los cuatro casos el resultado es la constante 1.  Ejercicio 1.6 Concluye la demostración del Teorema 1.2.1. 



Ejemplo 1.7 Fijémonos en la implicación “si un número es mayor que 10 entonces es

mayor que 5”. Es equivalente a decir “si un número no es mayor que 5 entonces no es mayor que 10”, que es su contrapositiva. Sin embargo no es equivalente a su implicación inversa, que es “si un número es mayor que 5 entonces es mayor que 10”, pues cualquier número entre 5 y 10 muestra que no es cierta, mientras que la original sí lo es. Tampoco es

Capítulo 1. Lógica

16

equivalente a la recíproca,“si un número no es mayor que 10 entonces no es mayor que 5”. 

Otro teorema relacionado con el concepto de equivalencia es el que dice que el conector doble implicación se puede definir en términos de la implicación directa, la implicación inversa y la conjunción. Teorema 1.2.2 La doble implicación es equivalente a la conjunción de las implicaciones

directa e inversa. Es decir, ((p → q) ∧ (q → p)) ⇔ (p ↔ q). Demostración. Como antes, basta elaborar las tablas de verdad de ambas proposiciones y comprobar que sus resultados son iguales para todos los valores posibles de p y q. En este caso, las dos últimas columnas debes ser iguales, mientras que las columnas p → q y q → p son auxiliares. p 1 1 0 0

q 1 0 1 0

p→q 1 0 1 1

q→ p 1 1 0 1

(p → q) ∧ (q → p) 1 0 0 1

p↔q 1 0 0 1 

Por ser la doble implicación como dos implicaciones, se acostumbra a leer p ↔ q como “p si, y solamente si, q”.  Ejemplo 1.8 La proposición “el número entero a es mayor que b si, y solamente si, la diferencia a − b es positiva” significa que si a es mayor que b, entonces tenemos la seguridad de que la diferencia a − b es un número positivo y, al revés, que si la diferencia a − b es positiva, entonces sabemos que a es mayor que b. 

Los conectores entre proposiciones (negación, conjunción, disyunción, etc.) se pueden ver, desde un punto de vista algebraico, como operaciones definidas en el conjunto de las proposiciones. Se toma una proposición (en el caso de la negación) o dos proposiciones (en los otros casos) y se operan, obteniendo como resultado otra proposición. Bajo este punto de vista, resulta imperativo estudiar algunas propiedades algebraicas de estas operaciones como son la aplicación reiterada, asociatividad, conmutatividad, existencia de elemento neutro, etc. Como primer paso veamos que los conectores de implicación y doble implicación se pueden escribir en términos de la negación, conjunción y disyunción. Entonces bastará con estudiar las propiedades algebraicas de estas tres operaciones. (En realidad, también el conector de disyunción se puede expresar en función del de conjunción y el de negación, pero estos tres en conjunto tienen más y mejores propiedades algebraicas). Teorema 1.2.3 La implicación de dos proposiciones es equivalente a la disyunción de

la negación de la primera con la segunda. (p → q) ⇔ (¬p ∨ q).

1.2 Conectores lógicos

17

Demostración. Construimos las tablas de verdad de ambas columnas con la columna auxiliar ¬p. p 1 1 0 0

q 1 0 1 0

¬p 0 0 1 1

p→q 1 0 1 1

(¬p ∨ q) 1 0 1 1

La coincidencia de las dos últimas columnas en todos los casos demuestra que ambas proposiciones son equivalentes.  Por tanto, en cualquier expresión podemos sustituir p → q por ¬p ∨ q y viceversa. Y puesto que ya vimos en el Teorema 1.2.2 que la doble implicación es equivalente a la implicación directa y la inversa, entonces la doble implicación también se puede expresar solo con negación, conjunción y disyunción. Propiedades de la negación

Debido a que la negación es una operación monaria, la única propiedad que en este caso puede analizarse es la aplicación reiterada. El resultado es evidente por estar trabajando con proposiciones que sólo pueden tomar dos valores. La negación es cambiar el valor de una proposición, y como solo hay dos posibilidades, si se cambia dos veces regresamos al valor original. Teorema 1.2.4 La negación de la negación es equivalente a la proposición original. Es

decir, ¬(¬p) ⇔ p. Ejercicio 1.7 Usando una tabla de verdad, verifique el Teorema 1.2.4.



 Ejemplo 1.9 Es interesante constatar que la propiedad de la doble negación no se respeta en muchas expresiones del lenguaje coloquial. Por ejemplo, puesto que “nadie” es la negación de “alguien”, la proposición “no hay nadie” es la doble negación de “hay alguien” y, por tanto, deberán ser equivalentes. Sin embargo, normalmente se usan como opuestas. 

Propiedades de la conjunción

La conjunción es una operación binaria y en ella sí procede estudiar más propiedades. La idempotencia, por ejemplo, da el resultado de operar una proposición consigo misma. La asociatividad nos indica cómo podemos efectuar la conjunción de tres proposiciones. La conmutatividad muestra que el orden de las proposiciones en una conjunción es irrelevante. Existe un elemento neutro (la proposición con valor 1, que denotaremos simplemente como 1) que al operarlo con cualquier proposición da como resultado la misma proposición. Existe también un elemento dominante (la proposición con valor 0, que denotaremos simplemente como 0) que operado con cualquier proposición arroja el resultado 0. El Teorema 1.2.5 resume estos hechos. Teorema 1.2.5 La conjunción de proposiciones satisface las propiedades de idempoten-

cia, asociatividad, conmutatividad, existencia de un elemento neutro y de un elemento

18

Capítulo 1. Lógica

dominante. Simbólicamente, si p, q y r son proposiciones cualesquiera se cumple: 1. Idempotencia: p ∧ p ⇔ p. 2. Asociatividad: (p ∧ q) ∧ r ⇔ p ∧ (q ∧ r). 3. Conmutatividad: p ∧ q ⇔ q ∧ p. 4. Elemento neutro (1): p ∧ 1 ⇔ p. 5. Dominación (por 0): p ∧ 0 ⇔ 0. Ejercicio 1.8 Usando tablas de verdad, verifique el Teorema 1.2.5.



La presencia de la propiedad asociativa permite definir el símbolo p ∧ q ∧ r, sin paréntesis, como (p ∧ q) ∧ r o bien p ∧ (q ∧ r), puesto que son iguales. El resultado en ambos casos es que p ∧ q ∧ r sólo es cierta si las tres proposiciones p, q y r son ciertas. Generalizando esta idea definimos la conjunción de las variables p1 , p2 , . . . , pn , denotada p1 ∧ p2 ∧ · · · ∧ pn , como la variable que sólo es cierta si todas las variables p1 , p2 , . . . , pn son ciertas. Propiedades de la disyunción

El estudio de la disyunción sigue los mismos pasos que el de la conjunción pues las propiedades que satisfacen son las mismas. La única diferencia es que los papeles de 1 y 0, como elementos neutro y dominante respectivamente, se invierten. Teorema 1.2.6 La disyunción de proposiciones satisface las propiedades de idempoten-

cia, asociatividad, conmutatividad, existencia de un elemento neutro y de un elemento dominante. Simbólicamente, si p, q y r son proposiciones cualesquiera se cumple: 1. Idempotencia: p ∨ p ⇔ p. 2. Asociatividad: (p ∨ q) ∨ r ⇔ p ∨ (q ∨ r). 3. Conmutatividad: p ∨ q ⇔ q ∨ p. 4. Elemento neutro (0): p ∨ 0 ⇔ p. 5. Dominación (por 1): p ∨ 1 ⇔ 1. Ejercicio 1.9 Usando tablas de verdad, verifique el Teorema 1.2.6.



Como en el caso de la conjunción, podemos definir el símbolo p ∨ q ∨ r como (p ∨ q) ∨ r o bien p ∨ (q ∨ r), puesto que son iguales. El resultado es que p ∨ q ∨ r es cierta si alguna de las tres es cierta, o bien, es falsa sólo si todas son falsas. Generalizando esta idea definimos la disyunción de las variables p1 , p2 , . . . , pn , denotada p1 ∨ p2 ∨ · · · ∨ pn , como la variable que sólo es falsa si todas las variables p1 , p2 , . . . , pn son falsas. Propiedades de las operaciones combinadas

Ahora estudiamos algunas propiedades que surgen al considerar expresiones con dos o las tres operaciones combinadas. Teorema 1.2.7 Las siguientes proposiciones son válidas para cualesquiera proposicio-

nes p, q, r: 1. Complementariedad de la negación: p ∧ ¬p ⇔ 0 p ∨ ¬p ⇔ 1

1.2 Conectores lógicos

19

2. Leyes distributivas: p ∧ (q ∨ r) ⇔ (p ∧ q) ∨ (p ∧ r) p ∨ (q ∧ r) ⇔ (p ∨ q) ∧ (p ∨ r) 3. Absorción: p ∧ (p ∨ q) ⇔ p p ∨ (p ∧ q) ⇔ p 4. Leyes de De Morgan: ¬(p ∧ q) ⇔ ¬p ∨ ¬q ¬(p ∨ q) ⇔ ¬p ∧ ¬q Ejercicio 1.10 Usando tablas de verdad, verifique el Teorema 1.2.7.



Las leyes demostradas en los Teoremas 1.2.3, 1.2.4, 1.2.5, 1.2.6 y 1.2.7 permiten hacer manipulaciones algebraicas con las proposiciones y probar algunos resultados sin necesidad de recurrir a las tablas. Los Ejemplos 1.10 y 1.11 muestran ésta situación. Ejemplo 1.10 — Simplificación de una proposición mediante manipulaciones algebraicas. Supongamos que queremos mostrar que 

(p ∧ q) ∨ ¬(q ∨ ¬p) ⇔ p. Partiendo de la proposición (p ∧ q) ∨ ¬(q ∨ ¬p), mediante pasos algebraicos llegaremos a que es equivalente a p. (Cada proposición es equivalente a la anterior por la ley algebraica que se indica a su lado): ⇔ ⇔ ⇔ ⇔ ⇔

(p ∧ q) ∨ ¬(q ∨ ¬p) (p ∧ q) ∨ (¬q ∧ ¬¬p) (p ∧ q) ∨ (p ∧ ¬q) p ∧ (q ∨ ¬q) p∧1 p

proposición a simplificar segunda ley de De Morgan doble negación y conmutatividad distributividad complementaridad de la negación 1 neutro de ∧. 



Ejemplo 1.11 — Verificación algebraica de la ley de absorción. Partiendo de la

proposición p ∧ (p ∨ q), mediante pasos algebraicos queremos llegar a que es equivalente a la proposición p. (Cada proposición es equivalente a la anterior por la ley algebraica que se indica a su lado):

⇔ ⇔ ⇔ ⇔ ⇔ ⇔ ⇔ ⇔

p ∧ (p ∨ q) (p ∧ (p ∨ q)) ∨ 0 (p ∧ (p ∨ q)) ∨ (q ∧ ¬q) (p ∨ (q ∧ ¬q)) ∧ ((p ∨ q) ∨ (q ∧ ¬q)) (p ∨ q) ∧ (p ∨ ¬q) ∧ (p ∨ q ∨ q) ∧ (p ∨ q ∨ ¬q) (p ∨ q) ∧ (p ∨ ¬q) ∧ (p ∨ q) ∧ (p ∨ 1) p ∨ (q ∧ ¬q) ∧ 1 p∨0 p

0 neutro de ∨ complementaridad de la negación distributividad distributividad idempotencia y complemento distributiva, idempotencia y 1 neutro de ∧ complemento y 1 neutro de ∧ 0 neutro de ∨. 

20

1.3

Capítulo 1. Lógica

Cuantificadores A continuación, introducimos los enunciados abiertos y, tras ellos, los cuantificadores. Son elementos muy habituales en la formulación de definiciones y resultados en matemáticas en expresiones de la forma “para todo número entero...” o “existe un número natural tal que...”. Definición 1.3.1 — Enunaciado abierto. Llamamos enunciado abierto a un enuncia-

do que contiene variables que toman valores en un conjunto dado, al cual llamaremos universo, de forma que para cada valor que tomen las variables, el enunciado se convierte en una proposición. 

Ejemplo 1.12 Si la variable x toma valores en el universo de los dígitos (los números

0, 1, 2, 3, 4, 5, 6, 7, 8, 9), el enunciado “el número x es mayor que 5” es abierto.



Un enunciado abierto no es una proposición por sí mismo, sino que se convierte en una cuando las variables toman un valor. En el ejemplo anterior, el enunciado puede ser verdadero o falso según los valores que tome la variable. Puesto que las proposiciones las representamos por letras p, q, r, . . . , los enunciados abiertos los representamos por símbolos como p(x), q(x, y), r(x, y, z), . . . donde x, y, z son las variables que contiene el enunciado. Los cuantificadores son unos prefijos que, antepuestos a enunciados abiertos, los convierten en proposiciones. Utilizaremos dos: el cuantificador universal y el cuantificador existencial. El primero se simboliza por ∀, y se suele leer “para todo”, indica que el enunciado que le sigue debe ser cierto para todos los posibles valores de la variable. El segundo se simboliza por ∃, y se lee “existe algún”, indica que el enunciado que sigue es cierto para, al menos, uno de los valores que puede tomar la variable. Tomamos su propiedad de convertir enunciados abiertos en proposiciones como base para dar una definición. Definición 1.3.2 — Cuantificadores. Si p(x) es un enunciado abierto que depende

de la variable x la cual toma valores en un conjunto universo dado, definimos el símbolo ∀x, p(x) como la proposición que es cierta solo si el enunciado abierto es verdadero para todos los valores que la variable puede tomar en su universo. Asimismo definimos el símbolo ∃x, p(x) como la proposición que es cierta si el enunciado abierto es verdadero para algún valor de los que la variable toma en su universo. La proposición ∀x, p(x) no es en realidad otra cosa que una conjunción, mientras que ∃x, p(x) se trata de una disyunción como se aprecia en el siguiente ejemplo. 

Ejemplo 1.13 Continuando el Ejemplo 1.12, donde la variable x toma valores en los

dígitos, es decir, puede valer 0, 1, 2, . . . , 9, llamamos p(x) a la proposición “x es mayor que 5”. Entonces, la proposición ∀x, p(x) equivale a p(0) ∧ p(1) ∧ · · · ∧ p(9) y, claro está, es falsa. Por otro lado, la proposición ∃x, p(x) equivale a p(0) ∨ p(1) ∨ · · · ∨ p(9) y sí es cierta.  La necesidad de introducir los cuantificadores aparece cuando los posibles valores de la variable x no se pueden enlistar como en el Ejemplo 1.13: por ejemplo, si suponemos ahora que x toma valores en los números reales. Para usar cuantificadores basta recordar que un cuantificador junto a un enunciado abierto es una proposición y, a partir de ahí, se maneja como cualquier otra proposición.

1.3 Cuantificadores

21

Ejercicio 1.11 Indicar el valor de las siguientes proposiciones construídas con cuantifi-

cadores. El conjunto universo para la variable x es el de los números enteros Z. ∀x, x < 1000. ∃x, x < 1000. ∀x, x3 > 0.

∃x, x3 < 0. ∀x, x2 < x. ∃x, x2 = 1. 

Sin embargo, hay algunas reglas que simplifican el uso de proposiciones que contienen cuantificadores. En concreto analizaremos dos de ellas: la negación de proposiciones con cuantificadores y la combinación de cuantificadores. Una proposición que comienza con el cuantificador universal necesita que el enunciado abierto sea cierto para todos los valores de la variable, por tanto basta con que en un valor sea falso para que toda la proposición sea falsa. Por ello, la negación con un cuantificador universal nos lleva a un cuantificador existencial y viceversa. Si recordamos que ∀x, p(x) es una conjunción y ∃x, p(x) es una disyunción, esto no es otra cosa que las leyes de De Morgan vistas en el Teorema 1.2.7. Teorema 1.3.1 Si p(x) es un enunciado abierto, con x una variable, entonces se cumplen

las siguientes equivalencias ¬(∀x, p(x)) ⇔ ∃x, ¬p(x) ¬(∃x, p(x)) ⇔ ∀x, ¬p(x) Demostración. Como se ha dicho, se trata de las leyes de De Morgan. Verifiquemos la primera de ellas: la negación de la proposición ∀x, p(x) es cierta si el enunciado p(x) no se cumple en algún valor de la variable. Pero eso es precisamente, ∃x, ¬p(x).  Ejercicio 1.12 Concluya la demostración del Teorema 1.3.1.



Si un enunciado abierto contiene varias variables, se necesita un cuantificador para cada una. Así, si p(x, y) es un enunciado abierto con las variables x e y, entonces ∀x, p(x, y), ∃x, p(x, y) son enunciados abiertos con una variable: y. Pero ∀x, ∀y, p(x, y), ∀x, ∃y, p(x, y) son proposiciones. La combinación de varios cuantificadores tiene algunas reglas que permiten simplificar su escritura, pero requiere atención pues no todos los casos son simplificables. Ejercicio 1.13 Indicar el valor de las siguientes proposiciones construidas con dos

cuantificadores. El conjunto universo para las variables x e y es el de los enteros Z. ∀x, ∃y; x < y. ∃y, ∀x; x < y. ∀x, ∃y; x = y + 1. ∃x, ∀y; x + y = y.

∀x, ∃y; x + y = y. ∀x, ∃y; xy = x. ∀x, ∃y; xy = y.



Capítulo 1. Lógica

22

Ejercicio 1.14 Escribir la negación de cada una de las proposiciones del Ejercicio 1.13. 

Las primera y segunda reglas del Teorema 1.3.2 nos dicen que combinar cuantificadores universales y combinar cuantificadores existenciales es conmutativo. Teorema 1.3.2 Si p(x, y) es un enunciado abierto que depende de dos variables, x, y, se

cumplen las siguientes equivalencias entre proposiciones. ∀x, ∀y, p(x, y) ⇔ ∀y, ∀x, p(x, y) ∃x, ∃y, p(x, y) ⇔ ∃y, ∃x, p(x, y) Demostración. La proposición ∀x, ∀y, p(x, y) solo es verdadera si dado cualquier x, podemos elegir cualquier y y obtener que p(x, y) es verdadero. Pero en tal caso el valor de y elegido es independiente de x, y se puede escoger primero. Entonces, dado cualquier y, podemos elegir cualquier x y tendremos que p(x, y) verdadero, lo cual es la proposición ∀y, ∀x, p(x, y). Con esto se ha probado que cuando la primera es cierta, la segunda también. El mismo razonamiento pero a la inversa muestra que cuando la segunda es cierta la primera también. En total ambas tienen siempre el mismo valor y, por tanto, son equivalentes. Análogamente la proposición ∃x, ∃y, p(x, y) afirma que existe algún x de modo que se puede encontrar una y tal que p(x, y) es verdadero. Podemos tomar los valores en orden inverso: escoger primero el valor de y encontrado antes, luego el de x y tendremos p(x, y) verdadero. Hemos probado, pues, que si ∃x, ∃y, p(x, y) es cierta, entonces ∃y, ∃x, p(x, y) también lo es. El mismo razonamiento se aplica a la inversa y llegamos a que ambas son equivalentes.  Gracias al Teorema 1.3.2 podemos escribir sin ambiguedad ∀x, y o ∀y, x en lugar de ∀x, ∀y, así como ∃x, y o ∃y, x en lugar de ∃x, ∃y, y el orden de las variables x e y es irrelevante. Sin embargo, hay que tener cuidado pues el orden sí es importante cuando se combinan cuantificadores de ambos tipos, como muestra el siguiente ejemplo. Ejemplo 1.14 Consideremos el enunciado abierto “x 6= y”, donde x, y toman valores en el conjunto de los números enteros. Entonces la proposición ∀x, ∃y, x 6= y afirma que dado un número entero cualquiera, x, existe al menos un número, y, que es distinto que él, lo cual es cierto. Sin embargo, la proposición ∃x, ∀y, x 6= y afirma que existe un número entero, x, tal que cualquier número entero, y, es distinto que él, lo cual es falso.  

Ejercicio 1.15 Indicar el valor de las siguientes proposiciones construidas con dos

cuantificadores. El conjunto universo para las variables x e y es el de los enteros Z. ∀x, y; x > y. ∀x, y; x + 1 = y. ∀x, y; (x > y ∧ y > x). ∀x, y; (x > y ∨ x < y).

∃x, y; xy < x. ∃x, y; (x > y ∧ y > x). ∃x, y; x + y < xy.



1.4 Razonamientos lógicos

23

Ejercicio 1.16 Escribir la negación de cada una de las proposiciones del Ejercicio 1.15. 

Aunque es útil saber que existe un elemento que hace verdadero un enunciado, a veces es interesante preguntarse si dicho elemento es el único que lo cumple. Para esto introducimos el cuantificador de existencia y unicidad, simbolizado ∃!, y la forma de enunciar la unicidad de un elemento es diciendo que si hay dos elementos que cumplen la propiedad, entonces son el mismo. Definición 1.3.3 Si p(x) es un enunciado abierto, el símbolo ∃!x, p(x) es la proposición

definida por (∃x, p(x)) ∧ ∀a, b, (p(a) ∧ p(b) → a = b). 

Ejemplo 1.15 La proposición ∃!x, x2 = x, donde x toma valores en los enteros, significa

que existe un entero, y solamente uno, que verifica que elevado al cuadrado se queda igual. Se trata de una proposición falsa puesto que, aunque cumple la existencia (x = 1 lo verifica), no cumple la unicidad (porque x = 0 también lo verifica).  

Ejemplo 1.16 La proposición ∃!x, ∀y, x + y = y, donde tanto x como y toman valores

enteros, enuncia que hay un número entero, y solo uno, que sumado a cualquier otro lo deja igual; es decir, un elemento neutro de la suma. Esta proposición sí es cierta, lo cual se demuestra en dos pasos. Primero, la existencia: el 0 cumple lo dicho. Segundo, la unicidad: hay que probar que si hay dos elementos neutros, llamémoslos x1 y x2 , entonces son iguales. Ahora bien, puesto que x1 es neutro, sumado con x2 resulta x1 + x2 = x2 . Por la misma razon, pues x2 también es neutro, tenemos x2 + x1 = x1 . Por último, por la propiedad conmutativa de la suma sabemos que x1 + x2 = x2 + x1 , de donde concluimos que x1 = x2 .  Ejercicio 1.17 Indicar el valor de las siguientes proposiciones construidas con cuantifi-

cadores. El conjunto universo para la variable x es el de los enteros Z. ∃!x, x2 = 1.

∃!x, x2 = 0. 

Ejercicio 1.18 Escribir la negación de cada una de las proposiciones del Ejercicio 1.17. 

1.4

Razonamientos lógicos Abordamos finalmente el objetivo de la lógica: obtener proposiciones verdaderas a partir de otras proposiciones verdaderas ya conocidas. Esta deducción se efectuá mediante lo que se llama un razonamiento lógico. Por ello, en esta sección vamos a definir qué es un razonamiento lógico y veremos cómo construirlo. Como se señaló en la introducción, la finalidad de este capítulo y, en particular de esta sección, no es desarrollar la capacidad de crear nuevos razonamientos lógicos, sino poder analizar razonamientos ya hechos y determinar si son correctos.

Capítulo 1. Lógica

24

Lo que se pretende con un razonamiento lógico es deducir una proposición verdadera nueva a partir de otras proposiciones verdaderas ya conocidas. Analicemos esta idea, empezando por nombrar sus elementos. Las proposiciones que son conocidas se llaman hipótesis o premisas. La proposición que se deduce es la tesis, resultado o consecuencia. El hecho de que las premisas nos lleven a deducir la consecuencia se puede expresar por medio de una implicación: si las premisas son ciertas, entonces la consecuencia debe ser cierta. Si p1 , p2 , . . . , pn son las premisas y q es la consecuencia, queremos expresar la idea de que si todas las premisas son ciertas, entonces la consecuencia es cierta. Es decir p1 ∧ p2 ∧ · · · ∧ pn → q. Ahora, la idea clave. Nos interesa el razonamiento lógico independientemente del contenido de las proposiciones. Si es cierto que de las premisas p1 , p2 , . . . , pn se sigue necesariamente la consecuencia q, entonces la expresión p1 ∧ p2 ∧ · · · ∧ pn → q debe ser siempre verdadera. Definición 1.4.1 Una proposición de la forma p1 ∧ p2 ∧· · ·∧ pn → q es un razonamiento

lógico si es una tautología. Entonces el razonamiento se denota p1 ∧ p2 ∧ · · · ∧ pn ⇒ q, las proposiciones p1 , p2 , . . . , pn se llaman premisas y la proposición q consecuencia. 

Ejemplo 1.17 Consideremos las proposiciones “si un número entero no es cero, entonces

su valor absoluto es positivo” y “−4 no es cero”. Podemos deducir que el valor absoluto de −4 es un número positivo. Pero la deducción no depende de que estemos hablando acerca del valor absoluto de números enteros, sino de su estructura lógica. Las premisas son p → q (“si un número entero no es cero, entonces su valor absoluto es positivo”) y p (“un número entero, −4, no es cero”), es decir, (p → q) ∧ p, y la consecuencia es q (“su valor absoluto, | − 4|, es positivo”). El razonamiento ha sido (p → q) ∧ p ⇒ q y es válido sean quienes sean p y q. Por ello tiene nombre propio: modus ponendo ponens (del latín, que se puede traducir como el razonamiento que afirmando p (ponendo) afirma q (ponens)).  

Ejemplo 1.18 Con la misma implicación de antes “si un número entero no es cero,

entonces su valor absoluto es positivo” y además con la proposición “el valor absoluto del número a no es positivo”, se puede deducir que “el número a es cero”.  El razonamiento del Ejemplo 1.18 en este caso ha sido (p → q) ∧ ¬q ⇒ ¬p, y se llama modus tollendo tollens (el razonamiento que negando q (tollendo) niega p (tollens). 

Ejemplo 1.19 Un último ejemplo con estas proposiciones. Si tenemos las dos implica-

ciones “si un número entero no es cero, entonces su valor absoluto es positivo” y “si un número entero a es positivo, entonces a es mayor que su opuesto, −a”, se puede deducir que “si un número entero a no es cero, entonces |a| > −|a|”.  El razonamiento del Ejemplo 1.19, cuya estructura es (p → q) ∧ (q → r) ⇒ (p → r), se llama silogismo. La pregunta ahora es, dado una expresión de la forma p1 ∧ p2 ∧ · · · ∧ pn → q, ¿como saber si es un razonamiento lógico o no? Las dos formas de probar que es un razonamiento lógico son: primera, demostrar directamente que dicha proposición es una tautología, por ejemplo mediante una tabla. Es útil para razonamientos sencillos, cuyas tablas no

1.4 Razonamientos lógicos

25

sean grandes. Segunda, descomponer el razonamiento en razonamientos más simples ya conocidos. Es decir, partiendo de las premisas y aplicando razonamientos simples conocidos ir deduciendo nuevas proposiciones ciertas hasta llegar a la que se enunciaba como consecuencia. Este segundo es el método habitual de probar la validez de razonamientos lógicos complejos. Para poder utilizar cadenas de razonamientos simples en la prueba de un razonamiento complicado necesitamos tener algunos razonamientos ya demostrados de forma directa. En el siguiente teorema se exponen algunos de estos razonamientos que son muy habituales y, prácticamente, podríamos decir que responden en gran medida al sentido común: se llaman reglas de inferencia y tienen nombres propios. Teorema 1.4.1 Para proposiciones cualesquiera p, q, r, s los siguientes son razonamien-

tos lógicos: 1. Modus ponendo ponens: ((p → q) ∧ p) ⇒ q. 2. Modus tollendo tollens: ((p → q) ∧ ¬q) ⇒ ¬p. 3. Silogismo: ((p → q) ∧ (q → r)) ⇒ (p → r). 4. Demostración por contradicción: (¬p → 0) ⇒ p. 5. Demostración por casos: ((p → r) ∧ (q → r)) ⇒ ((p ∨ q) → r). 6. Silogismo disyuntivo: ((p ∨ q) ∧ (¬p)) ⇒ q. 7. Conjunción: (p) ∧ (q) ⇒ (p ∧ q). 8. Simplificación conjuntiva: (p ∧ q) ⇒ p. 9. Amplificación disyuntiva: p ⇒ (p ∨ q). 10. Especificación universal: ∀x, p(x) ⇒ p(a), con a un elemento cualquiera del universo de x. 11. Generalización universal: (p(a)∧(a es arbitrario)) ⇒ ∀x, p(x). 12. Especificación existencial: ∃x, p(x) ⇒ p(a), con a el elemento al que se refiere la existencia. Demostración. Todas estas reglas de inferencia se pueden probar elaborando la tabla correspondiente, pero también mediante manipulaciones algebraicas. En cualquier caso son todas muy similares, por lo cual expondremos la prueba de tres de ellas con todo detalle, a modo de muestra, dejando el resto como ejercicio. 1. (Prueba del modus ponendo ponens mediante una tabla): para probar ((p → q) ∧ p) ⇒ q debemos probar que ((p → q) ∧ p) → q es una tautología. Construimos la tabla con todos los ingredientes de esta última expresión. p 1 1 0 0

q 1 0 1 0

p→q 1 0 1 1

(p → q) ∧ p 1 0 0 0

((p → q) ∧ p) → q 1 1 1 1

La última columna muestra que, efectivamente, la implicación es una tautología y por tanto el razonamiento es válido. 4. (Prueba del razonamiento por contradicción mediante manipulaciones algebraicas): para probar que la implicación (¬p → 0) → p es un razonamiento, debemos probar que es equivalente a la proposición 1 (tautología) mediante una cadena de proposiciones equivalentes entre sí. En cada paso se da la razón que lo justifica.

26

Capítulo 1. Lógica (¬p → 0) ⇒ p ⇔ ¬(¬¬p ∨ 0) ∨ p Teorema 1.2.3 ⇔ ¬(p ∨ 0) ∨ p doble negación ⇔ ¬p ∨ p 0 neutro de ∨ ⇔ 1 complementariedad de la negación

10. (Prueba del razonamiento especificación universal mediante otros razonamientos lógicos): la proposición ∀x, p(x) es equivalente a la conjunción de la proposición p(x) cuando x toma todos los valores posibles. Entonces, por la regla de simplificación conjuntiva, de la premisa deducimos que cualquiera de las proposiciones es cierta, en particular, si a es un valor posible de x, p(a) es cierta.  Problema 1.1 Probar las reglas de inferencia lógica enunciadas en el Teorema 1.4.1 que no han sido probadas en el texto. Problema 1.2 Consideremos las siguientes proposiciones como premisas: “Todos los días, si no llueve, Paco va al parque a correr y, si llueve, no va”, “Paco compra el periódico solo si sale a correr” y “los domingos, Paco no compra el periódico”. 1. Llamando p(x), q(x), r(x) a los enunciados “el día x llueve”, “el día x Paco sale a correr” y “el día x compra el periódico”, respectivamente,; donde x toma valores en los días de la semana, escribir las premisas con estos enunciados, cuantificadores y conectores lógicos. 2. Probar que la proposición “Si el sábado Paco compra el periódico, entonces es que no ha llovido” es una consecuencia lógica de las premisas. Analizar las reglas de inferencia que permiten deducir el resultado. 3. Consideramos la proposición “Si el sábado no llueve, Paco compra el periódico” y su justificación en los siguientes pasos: a) Puesto que el sábado no llueve, Paco va a correr. b) Ya que sale a correr y no es domingo, entonces compra el periódico. La conclusión no es válida, por tanto esta justificación es incorrecta. Encontrar el error. La matemática deduce resultados nuevos a partir de otros ya conocidos usando la herramienta de la lógica. Una teoría matemática se compone de axiomas, definiciones y teoremas, así que veamos qué es cada uno de ellos. Axiomas: Son las proposiciones de partida de una teoría y, por tanto, no pueden ser probadas dentro de ella. La idea es que los axiomas van a ser las primeras premisas que permitan deducir consecuencias de ellas, es decir, obtener los primeros resultados. Es claro que toda teoría que se construya mediante razonamientos lógicos debe tener axiomas, ya que los razonamientos parten de premisas ciertas para deducir una consecuencia cierta. Es decir, en todo caso necesitamos partir de algunas premisas. Ejemplo 1.20 La proposición “el conjunto N de los números naturales contiene al menos un elemento” se utiliza como axioma en la construcción de los números debida a Peano.  

Definición: Es la asignación de un nombre a una proposición y por ello tiene forma de equivalencia. Obsérvese que el papel de las definiciones en una teoría matemática no es determinante, pues solo sirven para simplificar la escritura (aunque ciertamente sería impensable escribir una teoría sin la ayuda de las definiciones). Es interesante hacer notar que, por ser una equivalencia, una definición deberá leerse “... si y solamente si...”, sin

1.4 Razonamientos lógicos

27

embargo es costumbre escribir únicamente “... si ...” como si se tratara de una implicación, aún sabiendo que es algo más. 

Ejemplo 1.21 La proposición “un número natural es primo si (y solo si) es mayor que 1

y sus únicos divisores son 1 y él mismo” es una definición. Simbólicamente, p primo , ↔ p > 1 ∧ ∀n, (n | p → (n = 1 ∨ n = p)). Sirve para sustituir en cualquier punto de la teoría la proposición p > 1 ∧ ∀n, (n | p → n = 1 ∨ n = p) por la otra más breve “p es primo”.  Teoremas: Son los resultados de la teoría y, por tanto, el objetivo de las matemáticas. Son proposiciones que pueden tener diversas formas. Un tipo habitual de teorema es un razonamiento lógico, de la forma descrita anteriormente ((p1 ∧ p2 ∧ · · · ∧ pn ) ⇒ q), en el cual las premisas son los axiomas de la teoría o bien otros teoremas ya probados en la teoría. La consecuencia es otra proposición relativa a la teoría. Todo teorema de una teoría debe ser probado rigurosamente. 

Ejemplo 1.22 El resultado “si m y n son primos distintos, entonces su máximo comu´n

divisor es 1” es un teorema, que podemos escribir también como m primo ∧ n primo ∧ m 6= n ⇒ mcd(m, n) = 1. Otros teoremas tienen forma de equivalencia (⇔) en lugar de implicación (⇒). Pero, como se ha visto en el Teorema 1.2.2, un teorema de doble implicación equivale a dos teoremas de una implicación. Esto es, un teorema de la forma p ⇔ q es equivalente a p ⇒ q ∧ q ⇒ p. 

Por tanto, la exposición de una teoría matemática debe observar dos reglas imprescindibles: un estricto orden de presentación, para que cada teorema use como premisas solo resultados anteriores, ya probados, y que cada teorema vaya seguido inmediatamente de su demostración, que consiste en verificar el razonamiento lógico. Es conveniente señalar que, en ocasiones, se dan otros nombres a resultados de la teoría. Algunos nombres muy utilizados son los de proposición, lema y corolario. Todos ellos son sinónimos de teorema en cuanto a que son resultados de la teoría. Los distintos nombres se utilizan para agrupar los resultados por categorías. Una proposición es un resultado de no mucha importancia. Se suele llamar lema a un resultado cuya única aplicación es en la prueba de algún otro resultado posterior. La palabra teorema se reserva para los resultados más importantes de la teoría. Por último, corolario es un resultado cuya prueba es inmediata a partir de un teorema anterior. Como se puede apreciar, llamar a los resultados de una teoría teoremas, lemas, proposiciones o corolarios es una cuestión subjetiva que queda a gusto del autor en cada caso. 1.4.1

Un ejemplo sobre los números naturales A continuación construimos un ejemplo de un desarrollo matemático. Introducimos algunos elementos de la teorá de la divisibilidad de números naturales con el formato explicado: axiomas, definiciones, teoremas y su demostración. En concreto ilustramos un axioma de los naturales, el de inducción, y cuatro teoremas demostrando cada uno con un estilo de prueba diferente: una prueba de la implicación directa (Teorema 1.4.2), una

Capítulo 1. Lógica

28

prueba usando la implicación contrapositiva (Teorema 1.4.3), una prueba por inducción (Teorema 1.4.4) y una prueba por contradicción (Teorema 1.4.5). Para éste ejemplo asumimos conocidas las propiedades algebraicas de la suma y el producto de los naturales como son la asociatividad, conmutatividad o propiedad distributiva o que n + 1 es el sucesor del número n. C

[Axioma de inducción de los naturales] Si el natural 1 verifica una propiedad y para cada natural n que cumple dicha propiedad también el sucesor de n la cumple, entonces la propiedad se verifica para todos los naturales. Simbólicamente, si p(x) es un enunciado abierto y la variable x toma valores en los naturales, p(1) ∧ ∀n, (p(n) → p(n + 1)) ⇒ ∀x, p(x).

Definición 1.4.2 Un natural a divide a otro b, y lo denotamos a | b, si existe un número

c tal que se verifica b = ac. Es decir, a | b ⇔ ∃c, b = ac. En tal caso decimos que a es divisor de b y que b es múltiplo de a. 

Ejemplo 1.23 3 | 12 pues 12 = 3 · 4, pero 5 - 12.



Es obvio que 1 divide a cualquier número b y que todo número es divisor de sí mismo. Algunos números únicamente tienen estos divisores y por ello merecen especial atención. Definición 1.4.3 Un natural p mayor que 1 es primo si 1 y p son sus únicos divisores.

Simbólicamente p primo ⇔ p > 1 ∧ ∀a, (a | p → a = 1 ∨ a = p). Un natural mayor que 1 que no es primo se llama compuesto. 

Ejemplo 1.24 Los números primos menores que 100 son

2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 73, 79, 83, 89, 97. 

Teorema 1.4.2 — Propiedad transitiva de los divisores. Si a divide a b y éste, a su

vez, divide a c, entonces a divide a c, que lo podemos escribir como a | b ∧ b | c ⇒ a | c. Demostración. Se trata de un teorema con forma de implicación y mostramos una prueba directa, es decir, que partiendo de las premisas y resultados anteriores (propiedades de los números naturales), llegamos a la conclusión mediante las reglas de inferencia enumeradas en el Teorema 1.4.1. 1. Por hipótesis a | b. 2. Por la Definición 1.4.2, y por la regla de especificación existencial, existe un número, y lo llamamos k1 , que cumple b = k1 · a.

1.4 Razonamientos lógicos

29

3. Por hipótesis b | c. 4. Por la Definición 1.4.2, y por la regla de especificación existencial, existe un número, y lo llamamos k2 , que cumple c = k2 · b. 5. Sustituyendo la igualdad del punto 2 en la del punto 4 tenemos c = k2 (k1 · a). 6. Por la propiedad asociativa del producto de números naturales, la igualdad anterior se puede escribir como c = (k2 k1 )a. 7. El número k2 k1 hace que se verifique la definición de divisibilidad para a y c, luego concluimos que a divide a c.  Teorema 1.4.3 El natural a divide a b solo si a es menor o igual que b. Simbólicamente,

a | b ⇒ a ≤ b. Demostración. Este teorema tiene de nuevo la forma de una implicación, pero ahora vamos a probar la implicación contrapositiva, que es equivalente a la enunciada: a > b ⇒ a - b. Ahora los pasos para demostrar ésta. 1. Por hipótesis a > b. 2. Consideremos un natural arbitrario c. 3. Por las propiedades del orden de los naturales c ≥ 1. 4. Por las propiedades del orden de los naturales ac ≥ a. 5. Por los puntos 4 y 1 y las propiedades del orden tenemos ac > b, y por tanto, ac 6= b. 6. Por generalización universal, teniendo en cuenta el punto 2, tenemos ∀x, ax 6= b. 7. La proposición anterior es equivalente a ¬∃x, ax = b. 8. Por la Definición 1.4.2 llegamos a a - b y la implicación contrapositiva queda probada.  Teorema 1.4.4 Todo número natural cumple que, o bien es 1, o bien es divisible por un

primo, y lo expresamos como sigue ∀n, n = 1 ∨ ∃p, (p primo ∧ p | n). Demostración. Aquí presentamos una típica prueba por inducción, que hace uso del Axioma 1.4.1. Para probar que la propiedad enunciada en el teorema es válida para todos los naturales hay que probar que se cumple para el 1 y que para todo número n que la verifica, la propiedad es válida para el sucesor. Al asumir que se cumple para un número n se puede asumir también que se cumple para todos los menores a él. 1. Llamamos P(n) al enunciado n = 1 ∨ ∃p, (p primo ∧ p | n). 2. La proposición P(1) es cierta, ya que se cumple 1 = 1. 3. Para probar P(n) → P(n + 1) consideramos un número n arbitrario y la hipótesis P(n). Entonces el número n, si no es 1, es divisible por un primo y lo mismo cumplen todos los números menores que n. Puesto que el número n + 1 no puede ser 1, hay que probar que es divisible por un primo. Separamos esta parte en dos casos. 4. (Caso 1) Si n + 1 es primo entonces, puesto que n + 1 | n + 1, es divisible por un primo y la proposición P(n + 1) es cierta.

30

Capítulo 1. Lógica

5. (Caso 2) Si n + 1 no es primo entonces, por la Definición 1.4.3, tiene un divisor diferente de 1 y de sí mismo. Por la regla de especificación existencial llamamos a a este divisor. 6. Por el Teorema 1.4.3, a < n + 1. 7. Por conjunción de los puntos 5 y 6 tenemos a 6= 1 ∧ a < n + 1. 8. Por la hipótesis de inducción (punto 3) aplicada al número a, y por la regla de especificación existencial, existe un número primo, y lo llamamos p, que cumple p | a. 9. Por conjunción de los puntos 5 y 8 tenemos p | a ∧ a | n + 1. 10. Usando el Teorema 1.4.2 concluimos p | n + 1, es decir, P(n + 1) es cierta también en este caso. 11. Por la regla de inferencia de demostración por casos aplicada a los puntos 4 y 10 concluimos que ∀n, P(n) → P(n + 1) es cierta. 12. Por conjunción de los puntos 2 y 11 y el Axioma 1.4.1 llegamos a que el enunciado P(n) es cierto para todos los naturales, luego el teorema queda probado.  Por último enunciamos un famoso teorema y su, no menos famosa, prueba debida a Euclides: la infinitud de los números primos y su demostración por contradicción. Teorema 1.4.5 — Euclides. La cantidad de números primos es infinita.

Demostración. Aquí presentamos la prueba debida a Euclides, que procede por contradicción (también conocido como reducción al absurdo). 1. Negamos el teorema: La cantidad de números primos es finita. 2. Por ser finita, podemos denotar los números primos como p1 , p2 , . . . , pn . 3. Consideremos el número q = p1 p2 · · · pn + 1. 4. Por su construcción y las propiedades del orden de los naturales q > 1, por lo cual q 6= 1. 5. En este punto demostramos que p1 no divide a q utilizando también un razonamiento por contradicción: negamos la afirmación, asumiendo entonces que p1 sí divide a q. Entonces q = p1 · k para algún número k y, operando en la definición de q, podemos escribir 1 = p1 (k − p2 p3 · · · pn ). Esta igualdad indica que p1 divide a 1. Por el Teorema 1.4.3 tenemos que p1 ≤ 1. Sin embargo, por hipótesis p1 es primo y, por la Definición 1.4.3, esto supone p1 > 1. Tenemos la contradicción p1 ≤ 1 ∧ p1 > 1. Por tanto, concluimos que la negación es falsa y queda probado que p1 - q. Análogamente (por la generalización universal) tenemos p2 - q, . . . , pn - q. 6. Por conjunción de los dos puntos anteriores tenemos que el número q no es 1 y no es divisible por ningún primo, lo cual es una contradicción con el Teorema 1.4.4. 7. Por la regla de contradicción concluimos que el enunciado original es cierto.  Las demostraciones que aquí se han puesto como ejemplo han sido ilustradas con mucho detalle, pero habitualmente la redacción de pruebas de teoremas se hace mucho más breve. Las cuatro pruebas anteriores, en un lenguaje habitual, se reducirían a unas pocas líneas cada una, especialmente porque no se mencionan las reglas de inferencia que se usan en cada paso ya que son ampliamente conocidas.

1.4 Razonamientos lógicos

31

Problema 1.3 Dar una prueba directa (no por la contrapositiva como se ha hecho) del

Teorema 1.4.3. Problema 1.4 Probar el siguiente teorema de la teoría de la divisibilidad de números

naturales. Teorema. Si c es un divisor común de a y b, entonces c divide a cualquier número de la forma ma + nb con m y n naturales arbitrarios. Simbólicamente c | a ∧ c | b ⇒ ∀m, n; c | (ma + nb). Problema 1.5 En este ejercicio enunciamos un supuesto teorema (y su supuesta demos-

tración). Se trata de una versión del recíproco del teorema del Ejercicio 1.4. “Teorema” Si un entero divide a una suma de enteros, entonces divide a cada sumando. Simbólicamente, k | (m + n) ⇒ k | m ∧ k | n. “Demostración”. Puesto que k divide a (m + n), existe un entero p tal que m+n = p·k. Ahora bien, si uno de los enteros, m, es divisible entre k, entonces existe otro entero q tal que m = k · q. Por tanto, operando, n = k(p − q), y como (p − q) es un entero, entonces k también divide a n. Se pide: 1. Describir los pasos lógicos que se siguen en la demostración y señalar exactamente cuál es el incorrecto. 2. Demostrar que el teorema es falso. Para ello, escribir la negación del teorema y demostrar que es cierta. En este caso, esto se denomina dar un contraejemplo. Definición 1.4.4 Si x es un número real, se define el valor absoluto de x como

( x |x| = −x

si x ≥ 0 si x < 0.

Problema 1.6 Utilice la demostración por casos para probar que |xy| = |x| · |y| para todos

los números reales x e y. Problema 1.7 Demuestre la desigualdad −|x| ≤ x ≤ |x|, donde x es un número entero.

Para ello divida la demostración en dos casos: x ≥ 0 y x < 0.

2. La demostración en Matemáticas

En matemáticas se utilizan por lo general tres formas básicas para demostrar: la contradicción, la inducción matemática y la demostración por deducción. La decisión del método que se decida usar resulta ser difícil, e incluso en ocasiones podría requerirse de la implementación de dos o tres métodos diferentes. No obstante, siempre es bueno hacer varios intentos antes de elegir el camino a seguir. Al final del día, la decisión de cada quien y el estilo de prueba que uno desarrolla es único. En ocasiones una demostración no necesita seguir un método ó procedimiento establecido, y por el contrario solo se necesitan empatar ideas que pongan en clara evidencia la veracidad del problema que enfrentamos. Esto se hace mediante resultados que son conocidos. La demostración por deducción es una manera muy usual de abarcar un problema, en la que de manera intuitiva se pretenden usar o aplicar ciertos teoremas para justificar los pasos que llevan a la demostración. La idea es observar que las hipótesis de nuestro problema son justamente las hipótesis requeridas y necesarias de los teoremas que se quieren utilizar. En este sentido, una demostración por deducción es un estilo “libre” de demostración. 

Ejemplo 2.1 Demostrar que para cualquier número natural se tiene que

1+2+3+···+n =

n(n + 1) 2 

Demostración. Sea n ∈ N y S = 1 + 2 + 3 + · · · + n. Notemos que 1 2 n−1 + n n+1 n+1

··· ··· ···

n−1 n = 2 1 = n+1 n+1 =

S S 2S

del lado izquierdo de la igualdad tenemos n números iguales a n + 1, entonces su suma tendrá que ser n(n + 1), así que 2S = n(n + 1) y entonces S = n(n+1)  2 .

Capítulo 2. La demostración en Matemáticas

34 

Ejemplo 2.2 ¿Será posible encontrar una selección adecuada de signos + o − de tal

forma que ±1 ± 2 ± 3 ± · · · ± 2013 = 0? 

Demostración. La respuesta es que no, no existe una elección adecuada de signos. Los primero es notar que dentro de los números del 1 al 2013 hay 1007 números impares y 1006 pares. Así que sin importar la elección de los signos de los números impares, al final siempre obtendremos un número impar, de igual manera sin importar la elección de los signos de los números pares, el resultado siempre será par. De esta forma, al realizar la suma completa de pares con impares el resultado siempre será un número impar, de manera que el resultado de la suma nunca podrá valer 0.  

Ejemplo 2.3 Demostrar que el único número natural n que cumple que n4 + 4 es primo,

es cuando n = 1.



Demostración. Sea n un número natural de tal forma que n4 + n es primo. Notemos que n4 + 4 = n4 + 4n2 + 4 − 4n2 = (n2 + 2)2 − (2n)2 = (n2 + 2 − 2n)(n2 + 2 + 2n) Como n4 + 4 es primo, luego n2 − 2n + 2 = 1 o n2 + 2n + 2 = 1. Si n2 − 2n + 2 = 1 entonces n2 − 2n + 1 = 0, así que (n − 1)2 = 0 y n = 1. Si n2 + 2n + 2 = 1 entonces n2 + 2n + 1 = 0, la cual no tiene soluciones positivas para n. En conclusión el único valor que puede tomar n es n = 1, además 12 + 4 = 5 es primo, que es lo que queríamos probar.  

Ejemplo 2.4 Demostrar que si n es un número natural de tal forma que 2n + 1 es un

cuadrado perfecto, entonces n + 1 es la suma de dos cuadrados perfectos consecutivos.



Demostración. Como 2n + 1 es impar y es un cuadrado perfecto, entonces existe un número p tal que 2n + 1 = (2p + 1)2 , así que n=

(2p + 1)2 − 1 4p2 + 4p + 1 − 1 = = 2p2 + 2p, 2 2

de donde n + 1 = 2p2 + 2p + 1 = p2 + p2 + 2p + 1 = p2 + (p + 1)2 , que es suma de dos cuadrados perfectos consecutivos, lo que se pedía mostrar.  Problema 2.1 Sea n un número impar. Demostrar que el número n2 − 1 siempre es

divisible por 8. Problema 2.2 Consideremos la ecuación ax2 + bx + c = 0, donde a 6= 0, y sea ∆ =

b2 − 4ac. Demostrar que 1. Si ∆ > 0 entonces la ecuación tiene exactamente dos soluciones reales. 2. Si ∆ = 0 entonces la ecuación tiene exactamente una solución real. 3. Si ∆ < 0 entonces la ecuación no tiene soluciones reales.

35 Ahora examinamos una prueba alternativa a la prueba directa llamada prueba por contrapositiva. Como la prueba directa, la técnica de la prueba por contrapostiva es usada para probar enunciados condicionales de la forma “Si p entonces q”. Aunque es posible usar el método directo exclusivamente, hay ocasiones donde la contrapositiva es mucho más fácil. Recuerde que un enunciado del tipo “Si p entonces q” es lógicamente equivalente a “Si ¬q, entonces ¬p”, esto significa que si queremos demostrar que “Si p entonces q” es verdadero, es suficiente demostrar que “Si ¬q, entonces ¬p” es verdadero. Si usamos la demostración por el método directo para demostrar “Si ¬q, entonces ¬p”, debemos de partir del hecho que 6= q es verdad y deducir de aquí que 6= p es verdadero. 

Ejemplo 2.5 Supongamos que x ∈ Z. Si 7x + 9 es par, entonces x es impar.



Demostración. (Directo) Supongamos que 7x + 9 es par, entonces 7x + 9 = 2a para algún entero a. Restando 6x + 9 a ambos lados, tenemos x = 2a − 6x − 9. De aquí, x = 2a − 6x − 9 = 2a − 6x − 10 + 1 = 2(a − 3x − 5) + 1. Consecuentemente, x = 2b + 1 donde b = a − 3x − 5 ∈ Z. Por lo tanto, x es impar. (Contrapositiva) Supongamos que x no es impar, es decir, x es par, digamos que x = 2a para algún entero a. Entonces 7x + 9 = 7(2a) + 9 = 14a + 8 + 1 = 2(7a + 4) + 1. De aquí, 7x + 9 = 2b + 1 donde b = 7a + 4. Consecuentemente, 7x + 9 es impar. Por lo tanto, 7x + 9 no es par.  A primera vista, ambas pruebas son de la misma longitud. Pero al realizar las dos, uno termina convencido de que la prueba por contrapositiva corre más suavemente. Para nuestro próximo ejemplo, consideremos la siguiente proposición que concierne a un entero x: 

Ejemplo 2.6 Si x2 − 6x + 5 es par, entonces x es impar.



El lector puede comenzar a desarrollar una prueba por el método directo y observará, después de unos pasos, que es problemática (pues hay que despejar x en una ecuación cuadrática). Sin embargo, la prueba por contrapositiva es muy simple. Demostración. Supongamos que x no es impar, es decir, x es par. Digamos que x = 2a ara algún entero a. Así, x2 − 6x + 5 = (2a)2 − 6(2a) + 5 = 4a2 − 12a + 5 = 2(2a2 − 6a + 2) + 1. Es decir, x = 2b + 1 donde b = 2a2 − 6a + 2. Consecuentemente, x2 − 6x + 5 es impar y de aquí, x2 − 6x + 5 no es par.  

Ejemplo 2.7 Supongamos que x, y ∈ R. Si y3 + yx2 ≤ x3 + xy2 , entonces y ≤ x.



Demostración. Supongamos que no es verdad que y ≤ x, es decir, supongamos que y > x. Entonces y − x > 0. Multiplicando ambos lados de y − x > 0 por el valor positivo x2 + y2 , tenemos que (y − x)(x2 + y2 ) > 0(x2 + y2 ), y yx2 + y3 − x3 − xy2 > 0, así que y3 + yx2 > x3 + xy2 . De aquí, se sigue el resultado.  Para demostrar que un enunciado es verdadero, algunas veces tenemos que examinar múltiples casos antes de mostar que el enunciado es cierto en todos los casos posibles. Por ejemplo, considere la expresión 1 + (−1)n (2n − 1). Hacemos una tabla donde mostramos algunos valores para enteros n:

36

Capítulo 2. La demostración en Matemáticas n 1 + (−1)n (2n − 1) 1 0 2 4 3 −4 4 8 5 −8 6 12

¿Es 1 + (−1)n (2n − 1) siempre un múltiplo de 4? Vamos a demostrar que la respuesta es sí. Peron antes observemos que la expresión muy profundamente depende de si n es par o impar, para el primer caso (−1)n = 1 y para el segundo (−1)n = −1. Así que examinemos ambas posibilidades separadamente. 

Ejemplo 2.8 Si n ∈ N, entonces 1 + (−1)n (2n − 1) es un múltiplo de 4.



Demostración. Como n ∈ N, entonces n puede ser par o impar. Vamos a considerar ambos casos de manera separada. Caso 1. Supongamos que n es par. Entonces n = 2k para alguna k ∈ Z, y (−1)n = 1. De aquí, 1 + (−1)n (2n − 1) = 1 + (1)(2 · 2k − 1) = 4k, el cual es un múltiplo de 4. Caso 2. Supongamos que n es impar. Entonces n = 2k +1 para alguna k ∈ Z, y (−1)n = −1. De aquí, 1 + (−1)n (2n − 1) = 1 + (−1)(2 · (2k + 1) − 1) = −4k, el cual es un múltiplo de 4. Estos casos muestran que 1 + (−1)n (2n − 1) es siempre un múltiplo de 4.  Ahora vamos a examinar el caso contrario. Hemos probado que 1 + (−1)n (2n − 1) es siempre un múltiplo de 4, pero ¿es cierto que cada múltiplo de 4 es de esta forma? La siguiente proposición y su prueba nos dice que la respuesta es sí. 

Ejemplo 2.9 Cada número de 4 es igual a 1 + (−1)n (2n − 1) para alguna n ∈ N.



Demostración. Lo que queremos probar es si k es un múltiplo de 4, entonces existe una n ∈ N para el cual 1 + (−1)n (2n − 1) = k. Así que partimos del hecho que k es un múltiplo de 4, es decir, k = 4a para alguna a ∈ N. Procedemos a realizar la prueba por casos, dependiendo su a es cero, positivo o negativo. Caso 1. Supongamos que a = 0. Sea n = 1. Entonces 1 + (−1)n (2n − 1) = 1 + (−1)1 (2 − 1) = 0 = 4 · 0 = 4a = k. Caso 2. Supongamos que a > 0. Sea n = 2a, el cual está en N porque a es positiva. También n es par, así que (−1)n = 1. De aquí, 1 + (−1)n (2n − 1) = 1 + (2n − 1) = 2n = 2(2a) = 4a = k. Caso 3. Supongamos que a < 0. Sea n = 1 − 2a, la cual es un elemento N porque a es negativa haciendo que 1 − 2a es positiva. También n es impar, así que (−1)n = −1. De aquí, 1 + (−1)n (2n − 1) = 1 − (2n − 1) = 1 − (2(1 − 2a) − 1) = 4a = k. Los casos anteriores muestran que no importa que un múltiplo k = 4a de 4 es cero, positivo o negativo, k = 1 + (−1)n (2n − 1) para alguna n ∈ N.  La demostración por contradicción, también conocida por reducción al absurdo, consiste en lo siguiente: si p es la proposición a demostrar, entonces se supone por cierta la proposición ¬p y mediante una serie de implicaciones (usando resultados ciertos de la teoría) se obtiene una contradicción con algo verdadero. Debido a que lo único que se tomó por falso fue p, entonces p tuvo que ser cierto en un principio.

37 

Ejemplo 2.10 Demostrar que la suma de dos números impares es un número par.



Demostración. Haremos la prueba por contradicción. Supongamos que existen dos números impares a y b, de tal forma que a + b es impar. Como a y b son impares entonces existen números enteros p y q tales que a = 2p + 1 y b = 2q + 1, luego a + b = (2p + 1) + (2q + 1) = 2(p + q + 1). Además, como a + b es impar, entonces a + b = 2r + 1, para algún entero r. De lo anterior se tiene que 2(p + q + 1) = 2r + 1 y entonces 1 = 2(p + q − r + 1), lo cual es una contradicción al hecho de que 1 es un número impar. En conclusión, a + b tiene que ser par, que es lo que se pedía demostrar.  Unas observaciones precisarán con más detalle la forma en que se realizó la prueba: lo primero es notar que al inicio se aclaró que la prueba se haría por contradicción, esto le permite al lector darse una idea de como se abordará el problema y por lo tanto se enfocará a encontrar el absurdo necesario. Lo segundo es que la negación de nuestra proposicion p = “la suma de dos números impares es un número par” es justamente ¬p = “existen dos números impares de tal forma que su suma es un número impar”, la palabra existe aparece debido a que es la negación de un para todo. Por último, dado que lo único que se tomó por cierto en la prueba fué ¬p (esto es porque todo lo demás que está incluido son simplemente propiedades de los números y ciertas igualdades algebraicas), y se llegó al absurdo de que 1 se puede escribir como un múltiplo de 2, entonces ¬p tiene que ser falsa y por lo tanto la que tiene que ser verdadera es p, es decir que la suma de dos números impares es par. 

Ejemplo 2.11 Demostrar que el 0 no tiene inverso multiplicativo.



Demostración. La prueba se hará por contradicción. Supongamos que 0 tiene un inverso multiplicativo. Dado que 0 tiene inverso multiplicativo, existe un número real x de tal forma que 0 · x = 1, pero 0 · x = 0, luego 1 = 0 · x = 0 y entonces 1 = 0 lo cual es una contradicción. En conclusión, 0 no tiene inverso multiplicativo.  Unas observaciones precisarán con más detalle la forma en que se realizó la prueba: demostrar que el 0 no tiene inverso multiplicativo, es equivalente a mostrar que, para todo número real x, 0 · x 6= 1; es por ello que la negación es precisamente que existe un número real x tal que 0 · x = 1. 

Ejemplo 2.12 Sea n un número entero de forma que n2 es un número par, entonces n

tiene que ser par.



Demostración. Procederemos por contradicción. Supongamos que n2 es un número par y que n es impar. Ya que n es impar, entonces existe un número entero m tal que n = 2m + 1 y así n2 = (2m + 1)2 = 4m2 + 4m + 1 = 2(2m2 + 2m) + 1. De esta última ecuación se concluye que n2 es impar, lo que es una contradicción al hecho de que se supuso que era par.  

Ejemplo 2.13 Sean a, b, c y d números enteros diferentes de cero de tales que

1 1 1 1 + + + = 1. a b c d Demostrar que el producto abcd es un número par.



38

Capítulo 2. La demostración en Matemáticas

Demostración. La prueba se hará por contradicción. Supongamos entonces que abcd es impar, luego necesariamente a, b, c y d son números impares, además de que abc, bcd, cda y dab también lo son, así que su suma abc + bcd + cda + dab tiene que ser par. De la hipótesis obtenemos que abcd = abc + bcd + cda + dab, lo cual es una contradicción al hecho de que abcd es impar, por lo tanto abcd tiene que ser par.  Aunque en estos ejemplos sencillos la contradicción es muy fácil de observar, existen otros en los no siempre es posible, es por ello que se aconseja que, en el momento que se tome el camino de usar la contradicción, dicho absurdo sea lo bastante claro. Problema 2.3 Demostrar que el producto de dos números impares siempre es un número impar. Problema 2.4 Sea n ∈ N tal que n2 es impar. Demostrar que n es impar. Problema 2.5 Sean a, b ∈ R de tal forma que a2 + b2 = 0. Demostrar que a = b = 0. Problema 2.6 Sea n un número entero tal que 3n + 2 es un número par. Demostrar que n es par. Problema 2.7 Sea n ∈ Z. Demostrar que n es par si y solo si n2 es par. Problema 2.8 Sea k ∈ Z y supongamos que k2 − 2k + 7 es par. Demostrar que k es impar. Problema 2.9 Mostrar que ∀n, m ∈ Z, n2 − 4m 6= 2. Existen muchos problemas matemáticos en los que es necesario realizar algunas o varias pequeñas demostraciones que consisten en seguir el mismo patrón o modelo de prueba, y lo que únicamente varía es cierto número n. Un ejemplo muy sencillo es el siguiente: Sea n un número natural, demostrar que n2 − n siempre es un número par. Aunque hagamos ciertos casos particulares, como n 1 2 3 4

n2 − n 0 2 6 12

la prueba no estaría completa, porque realizar casos particulares no siempre permite concluir que todos los demás casos restantes son ciertos. La pregunta es, ¿Si suponemos que para cierto valor de k se cumple que k2 − k es par, será posible demostrar que (k + 1)2 − (k + 1) también lo es?. En efecto, debido a que (k + 1)2 − (k + 1) = k2 + 2k + 1 − k − 1 = (k2 − k) + 2k, y los números k2 − k, 2k son pares, entonces (k + 1)2 − (k + 1) tendrá que ser par. En este sentido, si quisiéramos probar el caso cuando k = 2013, bastaría con mostrar que el caso k = 2012 se cumple, y a su vez bastaría con probar el caso k = 2011. De manera sucesiva tendríamos que llegar hasta el caso k = 1, y si este resulta ser cierto, todos los anteriores también lo sería. La inducción matemática consiste en exactamente seguir la misma idea que en el proceso anterior, es decir, suponemos cierto que para un caso n = k la afirmación se cumple, y entonces el objetivo es mostrar que el siguiente caso n = k + 1 también se cumple. Después de ello, simplemente habrá que demostrar cierto caso base se cumple (como fue en el ejemplo anterior con k = 1), y así habremos concluído la demostración. Una

39 prueba por inducción consta de tres partes fundamentales: la base de la inducción (el caso base), la hipótesis de inducción (suponer que cierto caso es verdadero) y la demostración del caso siguiente a la hipótesis de inducción. 

Ejemplo 2.14 Sean n un número natural. Demostrar que

1+2+···+n =

n(n + 1) . 2 

Demostración. La prueba se hará por inducción sobre n. Observemos que para n = 1 se cumple que 1 = 1(1+1) (base de inducción). Supongamos que para cierto k (hipótesis de 2 inducción) se cumple que 1+2+···+k =

k(k + 1) . 2

Demostremos que para el siguiente caso, es decir el caso k + 1, se cumple que 1 + 2 + · · · + (k + 1) =

(k + 1)(k + 2) . 2

Notemos que 1 + · · · + (k + 1) = |1 + 2 + {z· · · + k} +(k + 1) =

k(k+1) 2

=

k(k+1)+2(k+1) 2

=

(k+1)(k+2) 2

+ (k + 1)

y con esto último se concluye la prueba.



En la prueba anterior se resaltan las tres partes fundamentales de la inducción. Como observación adicional, al inicio de la prueba se mencionó que la prueba se haría por inducción y que ésta se haría sobre n. Esto es importante debido a que en muchas situaciones se tienen diferentes variables en las que la inducción podría realizarse, de manera que resulta importante aclarar sobre cuál de ellas se hará la inducción. 

Ejemplo 2.15 Demostrar que para cada n natural se cumple que 2n > n.



Demostración. Lo demostraremos por inducción matemática sobre n. Notemos que para el caso n = 1 se cumple que 21 > 1 y supongamos que para el caso n = k se cumple que 2k > k. Observemos que 2k+1 = 2 · 2k = 2k + 2k > k + 1, pues 2k > 1 para todo natural k y 2k > k por hipótesis de inducción, en conclusión 2k+1 > k + 1. Con ésto último se termina la prueba.  

Ejemplo 2.16 Sea a 6= 1 un número real y n un número natural. Demostrar que

1 − an+1 1+a+a +···+a = . 1−a 2

n



Capítulo 2. La demostración en Matemáticas

40

Demostración. Haremos la prueba por inducción sobre n. Para el caso n = 1 se tiene que (1 + a)(1 − a) 1 − a2 = . 1+a = (1 − a) 1−a Supongamos que para el caso n = k se cumple que 1 + a + · · · + ak =

1−ak+1 1−a .

Notemos que

1 + a + · · · + ak+1 = 1| + a +{z· · · + a}k +ak+1 =

1−ak+1 1−a

=

1−ak+1 +(1−a)(ak+1 ) 1−a

=

1−ak+1 +ak+1 −ak+2 1−a

=

1−ak+2 1−a

+ ak+1

y con esto se concluye la demostración.



El siguiente ejemplo nos permitirá ver que la base de inducción no siempre tiene que ser para el caso n = 1, sino que simplemente hay que mostrar el caso inicial. Definición 2.0.1 Sea n ∈ N, definimos el factorial de n, por

n! = n · (n − 1) · · · 3 · 2 · 1. Además, tomamos la convención de que 0! = 1. 

Ejemplo 2.17 Demostrar que para n ≥ 4 se tiene que n! > 2n .



Demostración. Haremos la inducción sobre n. Para el caso inicial n = 4 se tiene que 4! = 4 · 3 · 2 · 1 = 24 > 16 = 24 , entonces 4! > 24 . Supongamos que k! > 2k para cierto valor de k (k > 4) y demostraremos que (k + 1)! > 2k+1 . Notemos que 2k < k! 2 · 2k < 2 · k! < (k + 1)k! entonces 2k+1 < (k + 1)!, que es lo que queríamos demostrar.



Usualmente los problemas que se resuelven por inducción aparecen cuando los casos se pueden numerar de alguna forma, cuando hay que probar alguna fórmula recursiva o que depende de algún número natural, etc. Problema 2.10 Demostrar que para todo número natural 1 + 3 + 5 + · · · + (2n − 1) = n2 . Problema 2.11 Demostrar que para todo número natural

12 + 22 + 32 + · · · + n2 =

n(n + 1)(2n + 1) . 6

41 Problema 2.12 Demostrar que para todo número natural 3

3

3

3



1 +2 +3 +···+n =

n(n + 1) 2

2 .

Problema 2.13 Demostrar que para todo número natural se tiene que

1 1 n 1 + +···+ = . 1·2 2·3 n(n + 1) n + 1 Problema 2.14 Definimos Sn+1 = Sn + 2n + 1, para n ∈ N y S1 = 1. Demostrar que

Sn = n2 ∀n ∈ N. Problema 2.15 Problema 2.16 Problema 2.17 Problema 2.18

Probar que el número n(n + 1) siempre es un número par, para todo n ∈ N. Demostrar que para todo n ∈ N se cumple que 3 divide a n3 − n. Demostrar que 4 divide a 5n − 1, para n ∈ N. Sea x > −1 un número real. Mostrar que

(1 + x)n ≥ 1 + nx para toda n ∈ N. Problema 2.19 Sea x 6= 1 un número real y n ∈ N. Demostrar que

1 + x + x2 + · · · + xn =

1 − xn+1 . 1−x

Problema 2.20 Demostrar que para todo número natural n ≥ 5 se cumple que 2n > n2 . Problema 2.21 Demostrar que para todo n ∈ N, existen números enteros distintos x, y, z

de manera que x2 + y2 + z2 = 14n . Problema 2.22 Sean n ∈ N \ {1} y a1 , a2 , . . . , an ∈ N. Si p es primo y p divide a a1 · a2 · · · an , entonces existe j ∈ {1, . . . , n} tal que p divide √ n a a j. √ n Problema 2.23 Demostrar que el número (3 + 5) + (3 − 5) es un número entero par, para cada n ∈ N.

3. Conjuntos

El álgebra de la teoría de conjuntos se desarrolló durante los siglos diecinueve y veinte. En Inglaterra, George Peacock (1806-1858) fue un pionero en reformas matemáticas y uno de los primeros en revolucionar el concepto del álgebra y la aritmética. Sus ideas fueron desarrolladas más tarde por Duncan Gregory (1813-1844) , William Rowan Hamilton (1805-1865) y Augustus de Morgan (1806-1871), quien intentó eliminar la ambiguedad del álgebra elemental para ponerla en forma de postulados estrictos. Sin embargo, fue en 1845, año en que Boole logró formalizar el álgebra de conjuntos y la lógica y se extendió el trabajo de Peacock y sus contemporáneos. El enfoque intuitivo de la teoría de conjuntos se realizó en tiempos del matemático ruso Geroge Cantor (1845-1918), quien definió un conjunto, en 1895, en forma intuitiva. En la década de 1870, cuando Cantor estaba estudiando las series trigonométricas y las series de números reales, necesitaba una forma para comparar el tamaño de los conjuntos infinitos de números. Su estudio de lo infinito como una realidad, que está en el mismo nivel de lo infinito, fue en su momento revolucionario. Parte de su trabajo fue rechazado ya que resultó ser más abstracto de lo acostumbrado por muchos matemáticos de su tiempo. Pero con el tiempo, ganó aceptación para que en 1890 la teoría de conjuntos, tanto finita como infinita, fuera considerada una rama de las matemáticas como derecho propio. Al terminar el siglo XIX la teoría era aceptada. Sin embargo, en 1901 Russell mostró que esta teoría de conjuntos, propuesta originalmente, tenía una inconsistencia interna: la falta de restricción para definir los conjuntos (paradoja de Russell). Los matemáticos británicos Lord Bertrand Arthur William Russell (1872-1970) y Alfred North Whitehead (1861-1947) desarrollaron una jerarquía en la teoría de conjuntos conocida como la teoría de tipos. Con esta teoría, se definían los conjuntos. El descubrimiento de la paradoja de Russell aun cuando se pudo remediar, tuvo un profundo impacto en la comunidad matemática, ya que muchos comenzaron a preguntarse si había otras contradicciones ocultas. En 1931, el matemático austriaco Kart Goel (19061978) formuló la idea de que en una condición de consistencia dada, cualquier sistema

Capítulo 3. Conjuntos

44

axiomático formal suficientemente fuerte debe de contener una proposición tal que ni ésta ni su negación sea demostrable y tal que cualquier demostración de consistencia del sistema debe usar ideas de métodos que están más allá de los propios del sistema en sí. Esto quiere decir que no podemos establecer que no existen contradicciones en matemáticas. La importancia del papel de la teoría de conjuntos en el desarrollo de las matemáticas del siglo XX la define el matemático alemán David Hilbert (1862-1943) al decir: “Nadie podrá expulsarnos del paraíso que Cantor ha creado para nosotros”.

3.1

Conjuntos Los conjuntos se han convertido en los objetos matemáticos fundamentales, sobre los que se construye el resto de las matemáticas. Y la teoría de conjuntos, a su vez, se edifica sólidamente sobre axiomas mediante las leyes de la lógica de las que se ha hecho un esbozo en el Capítulo 1.1. Cualquier intento de definir el concepto de conjunto está condenado a enumerar sinónimos como son colección, familia, agregado, agrupación, etc. Lo importante de la idea que asociamos al término conjunto es que contiene elementos y debemos poder expresar si un elemento pertenece o no a un conjunto: la pertenencia es el concepto sobre el que se construye la teoría de conjuntos, es el concepto primitivo (es decir, que no se define). El símbolo que indica que x pertenece al conjunto A es x ∈ A, y decimos que x es elemento de A, mientras que x 6∈ A es su negación. La teoría de conjuntos tiene esencialmente dos actividades: comparar conjuntos y construir nuevos conjuntos a partir de unos dados (para, después, comparar los nuevos con los originales). En cualquiera de los dos casos, la teoría usa conjuntos ya existentes, no puede crear un conjunto de la nada. Por ello el primer axioma que enunciamos es el que dice que, al menos, existe un conjunto de modo que toda la teoría no se quede vacía. C

[De existencia] Existe un conjunto.

La primera tarea es, por tanto, comparar conjuntos. La comparación más básica es saber si dos conjuntos son iguales o no, que es lo que resuelve el segundo axioma. C

[De igualdad] Dos conjuntos son iguales si, y solo si, contienen los mismos elementos. De manera simbólica lo escribimos A = B ⇔ ∀x, (x ∈ A ↔ x ∈ B).

Lo que dice este axioma es que un conjunto queda completamente caracterizado por los elementos que contiene, y no importa si los elementos los guardamos en una caja o en una bolsa, si los ordenamos o están desordenados; solo importa cuáles son los elementos. También se llama axioma de extensión porque permite definir un conjunto describiendo todos y cada uno de sus elementos, es decir, describiendo su extensión. Para definir un conjunto por extensión se escriben sus elementos entre llaves, por ejemplo A = {1, 2, 3, 4, 5}. 

Ejemplo 3.1 En vista del axioma de igualdad, es claro que {1, 2, 3} = {2, 3, 1} ya que

los dos conjuntos tienen exactamente los mismos elementos. Más aún, también se cumple {a, a} = {a} por la misma razón. 

3.1 Conjuntos

45

Ahora podemos definir otra forma de comparar conjuntos más poderosa que la mera igualdad: la inclusión, en la que definimos cuándo un conjunto está contenido en otro y lo llamamos subconjunto. Definición 3.1.1 Un conjunto B es subconjunto de otro conjunto A, y se denota B ⊂ A,

si todo elemento de B es elemento de A. Es decir, B ⊂ A ⇔ ∀x, (x ∈ B → x ∈ A). Para ver que la inclusión es una comparación más poderosa que la igualdad, en el siguiente resultado se indica cómo verificar la igualdad de conjuntos usando la inclusión: la igualdad es una doble inclusión. Teorema 3.1.1 Dos conjuntos son iguales si, y solo si, cada uno es subconjunto del

otro, o bien, A = B ⇔ (A ⊂ B) ∧ (B ⊂ A). Demostración. Primero, la implicación directa: si A = B entonces, por el Axioma 3.1 todo elemento de A es elemento de B y viceversa. Pero, según la Definición 3.1.1, esto es equivalente a decir A ⊂ B ∧ B ⊂ A. Segundo, la implicación inversa: si A ⊂ B ∧ B ⊂ A, entonces todo elemento de A está en B y todo elemento de B está en A, lo cual se puede escribir ∀x, (x ∈ A ↔ x ∈ B). Pero esta proposición es precisamente el antecedente del Axioma 3.1, por lo cual A = B.  En particular, todo conjunto es subconjunto de sí mismo: A ⊂ A. Problema 3.1 Sean U = {a, b, c} y su subconjunto V = {a, b}. Determinar si las siguien-

tes proposiciones son verdaderas o falsas. V ∈U a⊂U

a⊂V

Problema 3.2 Sean los siguientes conjuntos A = {1, 2}, B = {3, 4}, C = {A, B}. Determinar si cada una de las siguientes proposiciones es verdadera o falsa.

1∈A 1∈B 1∈C {1, 2} ∈ A {1, 2} ∈ B

{1, 2} ∈ C {1, 2} ⊂ A {1, 2} ⊂ B {1, 2} ⊂ C {1, 2, 3, 4} = C

Los siguientes tres axiomas son para construir nuevos conjuntos a partir de conjuntos ya conocidos. El primero de ellos, el axioma de especificación utiliza un enunciado abierto p(x) y construye el conjunto formado por los elementos que hacen cierto el enunciado. C

[De especificación] Dado un conjunto A y un enunciado abierto p(x) existe el conjunto de los elementos de A que hacen cierto el enunciado. Es decir, existe el conjunto B que cumple ∀x, (x ∈ B ↔ x ∈ A ∧ p(x)).

Capítulo 3. Conjuntos

46

El conjunto recién definido en el Axioma 3.1 se representa mediante el símbolo B = {x ∈ A | p(x)}. Es claro que el nuevo conjunto B es subconjunto de A. El Ejercicio 3.3 se explica la necesidad de exigir que los elementos del nuevo conjunto B se escojan únicamente entre los elementos de algún conjunto A ya conocido. Problema 3.3 El Axioma 3.1 construye el conjunto B = {x ∈ A | p(x)} siempre como un subconjunto de A, que es un conjunto conocido pero, ¿no podría enunciarse simplemente como B = {x | p(x)} sin necesidad del conjunto A. La respuesta es no, porque en ese caso aparece la paradoja de Russell que fue la que dio inicio al esfuerzo de axiomatizar rigurosamente la teoría de conjuntos. La paradoja de Russell consiste en considerar como enunciado p(x) el siguiente: x 6∈ x, donde x es cualquier conjunto. Construyamos el conjunto B = {x | x 6∈ x}, es decir, el formado por los conjuntos que no se contienen a sí mismos. Ahora preguntémonos ¿B se ´ contiene a smismo (B ∈ B)? Muéstrese que al intentar responder esta pregunta se comprueba que la existencia de este conjunto B es una contradicción. Es decir, si la respuesta es afirmativa, llegamos a contradicción y si la respuesta es negativa también llegamos a contradicción. Compruébese ahora que, al definir el conjunto B con el axioma de especificación (exigiendo que haya un conjunto A), ya no hay contradicción. Por último, pruébese que no puede existir un conjunto universal (el que contiene a todos los conjuntos) ya que de nuevo se cae en la paradoja de Russell. Vamos a utilizar el Axioma 3.1 para definir un conjunto con nombre propio, el conjunto vacío, que es un conjunto sin elementos. Una definición por especificación es elegante y útil, más que una por extensión. Definición 3.1.2 Sea A un conjunto cualquiera. Definimos el conjunto vacío como

0/ = {x ∈ A | x 6= x}. ´ Obsérvese que para definir el vacío ashace falta la existencia de, al menos, un conjunto. Pero el axioma de existencia asegura que s´lo tenemos. Por su definición resulta inmediato que el vacío es subconjunto de cualquier otro. Teorema 3.1.2 El conjunto vacío es subconjunto de cualquier conjunto. Esto es, si B es

un conjunto arbitrario, 0/ ⊂ B Demostración. Queremos probar la proposición ∀x, (x ∈ 0/ → x ∈ B). Pero el antecedente es siempre falso pues, por definición del conjunto vacó, ∀x, x 6∈ 0. / Entonces la implicación es siempre cierta, independientemente del consecuente, y el teorema queda probado.  Problema 3.4 Demostrar por contradicción el Teorema 3.1.2. Es decir, asuma que existe

un conjunto A, distinto de 0, / para el cual no se cumple 0/ ⊂ A, y deducir de ahí una contradicción. En el axioma de especificación se construye, a partir de uno dado, un conjunto más pequeño. En los siguientes axiomas la construcción es al revés: se construyen conjuntos más grandes. En ambos aparecen conjuntos cuyos elementos también son conjuntos.

3.1 Conjuntos C

47

[De la unión] Dada una familia de conjuntos F, existe un conjunto que contiene los elementos de los elementos de F.

Sea E el conjunto al cual se refiere el Axioma 3.1, entonces podemos definir el conjunto llamado unión de F utilizando el axioma de especificación. Definición 3.1.3 Dada una familia de conjuntos F , la unión de la familia F es el

conjunto formado exactamente por los elementos de los conjuntos que están en F: ∪F = {x ∈ E | ∃A ∈ F, x ∈ A}. 

Ejemplo 3.2 Sean los conjuntos X = {1, 2, 3} e Y = {3, 4, 5} y con ellos la familia

F = {X,Y }. Entonces la unión de F es el conjunto F = {1, 2, 3, 4, 5}.



Por último, si consideramos familias de conjuntos, hay una muy natural y útil: la familia formada por todos los subconjuntos de un conjunto. Pero de nuevo es necesario un axioma que asegure que tal cosa es un conjunto: éste es el quinto y último axioma que utilizamos. C



[Del conjunto potencia] Dado un conjunto A, existe el conjunto cuyos elementos son los subconjuntos de A, llamado conjunto potencia y denotado P(A).

Ejemplo 3.3 El conjunto potencia de A = {1, 2, 3} es

P(A) = {0, / {1}, {2}, {3}, {1, 2}, {2, 3}, {3, 1}, {1, 2, 3}}. 

Problema 3.5 Escribir el conjunto potencia de los conjuntos 0, / I1 = {1}, I2 = {1, 2},

I3 = {1, 2, 3} e I4 = {1, 2, 3, 4}. Probar por inducción que el conjunto potencia de In = {1, 2, . . . , n} tiene 2n elementos. En esta sección definimos las operaciones de complemento, unión e intersección y estudiamos sus principales propiedades, que constituyen el álgebra de conjuntos. También mencionamos las operaciones de diferencia y diferencia simétrica que escribiremos en función de las otras. La operación de unión de conjuntos no es más que el Axioma 3.1 y la Definición 3.1.3. Sin embargo lo volveremos a enunciar en el caso particular de dos conjuntos, que es la forma más habitual de manejarla. De hecho, el axioma de la unión es el que permite establecer los resultados algebraicos que aparecen en esta sección. Si tenemos dos conjuntos A y B, dicho axioma nos permite hablar de un conjunto E que contiene todos los elementos de A y todos los elementos de B. Utilizaremos el conjunto E para escribir la definición de las operaciones y deducir sus propiedades. Al definir las tres operaciones en el marco de un conjunto E ocurre que son una traducción directa de las operaciones entre proposiciones lógicas: el complemento corresponde a la negación, la unión a la disyunción y la intersección a la conjunción. Hay una representación gráfica de los conjuntos que es particularmente apropiada para visualizar las operaciones entre conjuntos: los diagramas de Venn. Un diagrama de Venn representa al conjunto E por un rectángulo, y cualquier subconjunto del mismo por una curva cerrada dentro del rectángulo. Si es posible, los elementos del conjunto E se marcan

Capítulo 3. Conjuntos

48

como puntos dentro del rectángulo y la curva que representa a un subconjunto encierra sus elementos. La primera operación que abordamos es el complemento. Definición 3.1.4 El complemento de un subconjunto A del conjunto E es el conjunto

de todos los elementos de E que no están en A. Se denota Ac y se puede describir como Ac = {x ∈ E | x 6∈ A}. 

Ejemplo 3.4 En el conjunto E = {1, 2, 3, 4, 5}, el complemento del conjunto A = {1, 2}

es Ac = {3, 4, 5}.



A continuación nos ocupamos de la unión y la intersección. En la unión de dos conjuntos se consideran los elementos que están en, al menos, uno de los dos conjuntos. En la intersección, sin embargo, se consideran los elementos que están en ambos conjuntos. Definición 3.1.5 La unión de dos conjuntos A y B es el conjunto formado por los

elementos que están en A o que están en B. Se denota por A ∪ B. Simbólicamente, A ∪ B = {x ∈ E | (x ∈ A) ∨ (x ∈ B)}. Definición 3.1.6 La intersección de dos conjuntos A y B es el conjunto formado por

los elementos que están en A y que están en B. Se denota por A ∩ B. Simbólicamente, A ∩ B = {x ∈ E | (x ∈ A) ∧ (x ∈ B)}. 

Ejemplo 3.5 Dados los conjuntos A = {1, 2} y B = {2, 3} tenemos A ∪ B = {1, 2, 3}y

A ∩ B = {2}.



Problema 3.6 Demuéstrese la equivalencia de las siguientes proposiciones:

1. A ⊂ B. 2. A ∩ B = A.

3. A ∪ B = B 4. Bc ⊂ Ac .

Por tanto, cualquiera de las otras tres puede ser utilizada para caracterizar un subconjunto. Sugerencia: basta con probar 1. → 2. → 3. → 4. → 1. Problema 3.7 Probar que la unión de dos conjuntos es el menor conjunto que contiene a ambos. Es decir, si C es un conjunto tal que A ⊂ C y B ⊂ C entonces A ∪ B ⊂ C. Problema 3.8 Probar que la intersección de dos conjuntos es el mayor conjunto contenido en ambos. Si dos conjuntos verifican A ∩ B = 0/ se dice que son disjuntos porque no tienen elementos en común. Las operaciones de diferencia y diferencia simétrica consisten, como indica el nombre, en quitar elementos a un conjunto. Definición 3.1.7 La diferencia del conjunto A menos el conjunto B es el conjunto for-

mado por los elementos que están en A pero no en B. Se denota A \ B. Simbólicamente, A \ B = {x ∈ E | (x ∈ A) ∧ (x 6∈ B)}. 

Ejemplo 3.6 Las diferencias de los conjuntos A = {1, 2} y B = {2, 3} son A \ B = {1}

y B \ A = {3}.



3.1 Conjuntos

49

Problema 3.9 Consideramos el conjunto de los números naturales, N, como referencia y

definimos los siguientes subconjuntos del mismo: dado un natural m, el conjunto mN está formado por los números naturales múltiplos de m; por otro lado el conjunto P es el de los números naturales primos. Describir los conjuntos siguientes. 1. 2N y (2N)c . 2. 2N ∩ 4N y 2N ∪ 4N. 3. 2N \ 4N y 4N \ 2N.

4. ∪k∈N (2k)N y ∩k∈N (2k)N. 5. 2N ∩ 3N y 2N ∪ 3N. 6. ∪ p∈P pN y ∩ p∈P pN.

La diferencia de conjuntos, como en los números, no es conmutativa; en general A \ B 6= B \ A. Sin embargo, la diferencia simétrica se construye de forma que sí lo es. Definición 3.1.8 La diferencia simétrica de dos conjuntos A y B es el conjunto formado

por los elementos que están en A o que están en B excepto los comunes a ambos. Se denota A4B y se puede escribir como A4B = (A \ B) ∪ (B \ A). 

Ejemplo 3.7 La diferencia simétrica de los conjuntos A = {1, 2} y B = {2, 3} es A4B =

B4A = {1, 3}.



Después de ver las definiciones de las operaciones estudiemos algunas propiedades que satisfacen: las llamadas leyes del álgebra de conjuntos. Para empezar veamos que la diferencia y la diferencia simétrica se pueden escribir en función de unión, intersección y complemento. Como en el caso de proposiciones lógicas, también la unión se puede expresar en términos del complemento y la intersección, o la intersección en función del complemento y la unión pero es habitual considerar estas tres por el paralelismo con las proposiciones. Problema 3.10 Exprésese la unión de conjuntos en términos del complemento y la intersección. Teorema 3.1.3 Dado un conjunto E y subconjuntos A y B del mismo

A \ B = A ∩ Bc , A4B = (A ∩ Bc ) ∪ (B ∩ Ac ). Demostración. Para probar la primera igualdad escribimos la definición de cada miembro y comprobamos que son iguales: A \ B = {x ∈ E | (x 3 A) ∧ (x 6∈ B)}, A ∩ Bc = {x ∈ E | (x ∈ A) ∧ (x ∈ Bc )} = {x ∈ E, (x ∈ A) ∧ (x 6∈ B)}, donde se ha sustituido x ∈ Bc por su proposición equivalente x 6∈ B (dada en la Definición 3.1.4). Para probar la segunda igualdad basta usar la definición de diferencia simétrica.  Entonces, las leyes del álgebra de conjuntos son las leyes del álgebra de las operaciones complemento, unión e intersección. A continuación enumeramos algunas de tales leyes. No son todas, pues se pueden deducir otras nuevas a partir de éstas. Tampoco son independientes entre ellas, pues algunas de la lista se pueden deducir de otras. Es una elección arbitraria de las más útiles y habituales.

Capítulo 3. Conjuntos

50

Teorema 3.1.4 Sea E un conjunto y A, B,C subconjuntos arbitrarios de él. Entonces se

cumple: 1. Ley del doble complemento: (Ac )c = A. 2. Leyes de idempotencia: A ∪ A = A, A ∩ A = A. 3. Leyes conmutativas: A ∪ B = B ∪ A, A ∩ B = B ∩ A. 4. Leyes asociativas: (A ∪ B) ∪C = A ∪ (B ∪C), (A ∩ B) ∩C = A ∩ (B ∩C). 5. Elementos neutros de la unión y la intersección: A ∪ 0/ = A, A ∩ E = A. 6. Elementos dominantes de la unión y la intersección: A ∪ E = E, A ∩ 0/ = 0. / 7. Leyes del complemento: A ∪ Ac = E, A ∩ Ac = 0. / 8. Leyes distributivas: A ∪ (B ∩C) = (A ∪ B) ∩ (A ∪C), A ∩ (B ∪C) = (A ∩ B) ∪ (A ∩C). 9. Leyes de absorción: A ∪ (A ∩ B) = A, A ∩ (A ∪ B) = A. 10. Leyes de De Morgan: (A ∪ B)c = Ac ∩ Bc , (A ∩ B)c = Ac ∪ Bc . Demostración. Las diecinueve propiedades enunciadas se demuestran de manera similar y se pueden trazar hasta las propiedades equivalentes de proposiciones del Capítulo 1.1. Por ejemplo, la propiedad del doble complemento no es más que la propiedad de la doble negación, las propiedades que afectan sólo a la unión son exactamente las mismas que las de la disyunción y las de la intersección aquéllas de la conjunción. Analicemos en detalle una de las propiedades como muestra: la primera ley de De Morgan. Escribimos el conjunto de la izquierda según su definición: (A ∪ B)c = {x ∈ E | x 6∈ (A ∪ B)}. La proposición x 6∈ (A ∪ B) significa 6 ((x ∈ A) ∨ (x ∈ B)). Ahora aplicamos la ley de De Morgan de proposiciones lógicas y llegamos a que es equivalente a (x 6∈ A) ∧ (x 6∈ B). Pero esta proposición define, precisamente, el conjunto Ac ∩ Bc y la propiedad queda demostrada. 

3.1 Conjuntos

51

La existencia de la propiedad asociativa permite definir el símbolo A ∪ B ∪ C como cualquiera de A ∪ (B ∪C) o bien (A ∪ B) ∪C, pues son iguales. El conjunto A ∪ B ∪C está formado por los elementos que pertenecen, al menos, a uno de los tres conjuntos y, por tanto, coincide con la unión de la familia {A, B,C} tal y como se enunció en el axioma de la unión. Una forma habitual de escribir la unión de una familia grande de conjuntos es mediante índices: {Aα }α∈I es una familia formada por los conjuntos Aα , donde el subíndice α toma diferentes valores (para cada valor de α, Aα es un conjunto). Los valores que puede tomar α forman el conjunto de índices, que hemos llamado I. Con esta notación la unión de esta familia se escribe ∪α∈I Aα . 

Ejemplo 3.8 Sea I = {1, 2, 3, 4, 5} un conjunto de índices, y sea {Ak }k∈I una familia de

intervalos de la recta real dada por Ak = [k, 3k]. Entonces ∪k∈I Ak = [1, 15].



Del mismo modo podemos pensar en la intersección de tres conjuntos, pues también hay asociatividad. El conjunto A ∩ B ∩C está formado por los elementos que pertenecen a todos y cada uno de los tres conjuntos. Análogamente, si {Aα }α∈I es una familia de conjuntos, definimos la intersección de la familia, escrita , ∩α∈I Aα como el conjunto de los elementos que pertenecen a todos y cada uno de los Aα . 

Ejemplo 3.9 Con los mismos datos del Ejemplo 3.8, ∩k∈I Ak = 0. /



En las propiedades enunciadas se puede observar el llamado principio de dualidad. Éste asegura que dado un teorema de la teoría de conjuntos con los símbolos ∪, ∩, E, ó 0, / su expresión dual (la que se obtiene al cambiar ∪ por ∩ y cambiar E por 0) / también es un teorema de la teoría de conjuntos. El producto cartesiano de dos conjuntos es el conjunto formado por parejas ordenadas, con un elemento de cada conjunto. Pero no hemos definido qué es una pareja ordenada. Obsérvese que el símbolo {a, b} denota el conjunto cuyos elementos son a y b; es una pareja. Pero no es ordenada ya que, según el Axioma 3.1, {a, b} = {b, a} pues tienen los mismos elementos. Necesitamos definir el símbolo (a, b) en el que, en general, (a, b) 6= (b, a). ¿Cómo hacerlo? Podemos usar el símbolo {a, b} y añadir la información de cuál de los dos elementos es el primero. Una forma de hacerlo es la siguiente definición. Definición 3.1.9 La pareja ordenada (a, b) es el conjunto {{a}, {a, b}}.

Es correcto llamar conjunto a (a, b) pues obsérvese que si a ∈ A y b ∈ B, entonces {a, b} es un subconjunto de A ∪ B, es decir, un elemento de P(A ∪ B). Entonces (a, b) es subconjunto de P(A ∪ B) y, por tanto elemento de P(P(A ∪ B)), todo ello apoyado en la existencia del conjunto potencia que asegura el Axioma 3.1. Problema 3.11 Usando la Definción 3.1.9 de pareja ordenada y el Axioma 3.1, demuestre que (a, b) = (c, d) ⇔ a = c ∧ b = d. Con el concepto de pareja ordenada, que es diferente del símbolo {a, b} (ver Ejercicio 3.11) podemos definir el producto cartesiano como un subconjunto de P(P(A ∪ B)). Definición 3.1.10 El producto cartesiano de dos conjuntos A y B, denotado A × B, es el

conjunto formado por todas las parejas ordenadas cuyo primer elemento es del conjunto

Capítulo 3. Conjuntos

52 A y cuyo segundo elemento es del conjunto B. A × B = {(a, b) | a ∈ A ∧ b ∈ B}.

Ejemplo 3.10 Sean los conjuntos A = {1, 2} y B = {a, b}. Entonces, su producto cartesiano es el conjunto A × B = {(1, a), (1, b), (2, a), (2, b)}. 



Obsérve que, puesto que las parejas ordenadas, A × B no es lo mismo que B × A. Problema 3.12 Dados los conjuntos Im = {1, . . . , m} e In = {1, . . . , n}, describir los conjuntos Im × In e In × Im . Problema 3.13 Describir gráficamente los conjuntos N × N, [0, 1] × [0, 1], N × [0, 1] y [0, 1] × N, con [0, 1] ⊂ R el intervalo unitario de la recta real, interpretando las parejas ordenadas como coordenadas de puntos del plano cartesiano. / 0/ × A, A × 0, / donde A es un conjunto Problema 3.14 Describir los conjuntos 0/ × 0, cualquiera no vacío. Problema 3.15 Demostrar que el producto cartesiano se distribuye sobre la operación unión, es decir, que para cualesqueira conjuntos A, B,C se cumple: A × (B ∪C) = (A × B) ∪ (A ×C). Sin embargo, la unión no se distribuye sobre el producto cartesiano, es decir, en general A ∪ (B ×C) 6= (A ∪ B) × (A ∪C). Problema 3.16 Sea D el conjunto de las palabras que aparecen en un diccionario. Consi-

deremos los siguientes subconjuntos que corresponden a los capítulos: A es el subconjunto de las palabras que comienzan con la letra a, B el de las palabras que comienzan con la letra b, etc. Además consideremos la familia de subconjuntos Ln n∈N donde Ln contiene las palabras que tienen n o menos letras. Describir el resultado de las siguientes operaciones. 1. 2. 3. 4. 5. 6.

A ∪ B. A ∩ B. A ∩ (B ∪C ∪ · · · ∪ Z). (F ∩ G)c . (L2 )c . (A ∪ L3 )c .

7. 8. 9. 10. 11.

(A ∩ L3 )c . Ln ∪ Ln+1 . Ln ∩ Ln+1 . ∪n∈N Ln . ∩n∈N Ln .

4. Relaciones y Funciones

En la teoría desarrollada hasta este punto la única referencia que se ha hecho a los elementos de un conjunto es la pertenencia a dicho conjunto. No hay ninguna conexión entre los elementos de un conjunto (aparte de la de pertenecer al mismo) y, mucho menos, entre elementos de diferentes conjuntos. El papel de las relaciones y las funciones es, precisamente, establecer dichas conexiones. Las relaciones son la forma más básica (y por ello de más alcance) de imponer una estructura en un conjunto. En este capítulo estudiamos la definición general de relación y enseguida nos concentramos en los dos tipos más importantes: las relaciones de equivalencia y las relaciones de orden. Las equivalencias son las que permiten clasificar los elementos de un conjunto. El objetivo del estudio de las equivalencias es ver el resultado de que toda equivalencia da lugar a una clasificación de los elementos del conjunto y viceversa, toda clasificación (o partición) de un conjunto procede de una relación de equivalencia. Los órdenes son los que ordenan los elementos de un conjunto. El objetivo del estudio de los órdenes es conocer diferentes tipos de órdenes que existen y, en particular, entender la estructura de orden de los naturales, de los enteros, de los racionales y de los reales. Para ello enunciaremos las propiedades que distinguen cada uno de estos órdenes de todos los demás.

4.1

Relaciones Partamos de un ejemplo considerando el conjunto de habitantes de una ciudad. En él podemos relacionar entre sí a los habitantes que viven en el mismo barrio, con lo cual cada habitante estará conectado con algunos otros -sus vecinos- y no lo estará con algunos más. Podemos pensar en otro ejemplo en la misma ciudad si relacionamos a cada habitante con sus hijos, si los tiene y viven en la misma ciudad. Definimos relación como un objeto matemático para describir conexiones entre los elementos de un conjunto. En

Capítulo 4. Relaciones y Funciones

54

particular estudiamos dos tipos de especial importancia: las relaciones de equivalencia y las relaciones de orden. Éstas son, respectivamente, la forma matemática de establecer clasificaciones, como ocurre en el caso de los barrios de la ciudad, y de ordenar objetos, que es lo que ocurre entre padres e hijos. Se trata, por tanto, de decir qué elementos están relacionados con cuáles, y una forma es escribiendo parejas ordenadas (a, b) que signifiquen que el elemento a está relacionado con el b. Por los ejemplos anteriores vemos que el orden es importante (no es igual que a sea padre de b o que b lo sea de a). Por todo ello, damos la siguiente definición. Definición 4.1.1 Una relación R en un conjunto A es un subconjunto no vacío del

producto cartesiano A × A. Para denotar que un elemento a está relacionado con otro b por la relación R escribimos (a, b) ∈ R o también aRb (y su negación a 6Rb). 

Ejemplo 4.1 En el conjunto A = {1, 2, 3}, R1 = {(1, 2), (1, 3), (2, 3)} es una relación

que podríamos llamar la relación del orden habitual, ya que indica que el primer elemento del par precede al segundo según el orden habitual de los números. Otra relación es R2 = {(1, 1), (1, 3), (2, 2), (3, 1), (3, 3)}, que podríamos llamar la relación de paridad, pues los elementos de cada pareja son ambos pares o ambos impares.  En la definición no se exige que todos los elementos del conjunto estén relacionados con algún otro, ni que todos reciban la relación de alguno. Por ello definimos el dominio y el contradominio a continuación. Definición 4.1.2 El dominio de una relación R en el conjunto A es el subconjunto de A de elementos que están relacionados con algún otro. Lo denotamos D(R) y lo podemos expresar como D(R) = {x ∈ A | ∃y, xRy}. Definición 4.1.3 El contradominio de una relación R en el conjunto A es el subconjunto

de A de elementos con los que alguno está relacionado. Lo denotamos D0 (R) y lo escribimos como D0 (R) = {x ∈ A | ∃y, yRx}. Definición 4.1.4 La relación inversa de una relación R es la relación formada por las

parejas de R invirtiendo el orden de los elementos en cada pareja. Se denota por R−1 . Es decir, R−1 = {(a, b) ∈ A × A | bRa}. De la definición se desprende inmediatamente que D(R−1 ) = D0 (R) y D0 (R−1 ) = D(R). Hay una forma de representación gráfica para relaciones que es muy intuitiva e ilustrativa (cuando se puede poner en práctica). Se representa el conjunto y sus elementos como en un diagrama de Venn, y cada pareja (a, b) de la relación se representa por una flecha que nace en el punto a y muere en el punto b. El estudio matemático de las relaciones se concentra en la estructura que impone la relación en el conjunto, independientemente de cómo se haya definido. Para ello estudia propiedades de las relaciones que se definen independientemente del significado de la

4.1 Relaciones

55

relación. A continuación describimos formalmente tales propiedades. Definición 4.1.5 Una relación definida en un conjunto se llama reflexiva si cada ele-

mento del conjunto está relacionado consigo mismo. Es irreflexiva si ningún elemento se relaciona consigo mismo. R reflexiva R irreflexiva

⇔ ∀x ∈ A, xRx, ⇔ ∀x ∈ A, x 6Rx.

 Ejemplo 4.2 La relación “vivir en la misma ciudad” es reflexiva, ya que todo el mundo vive en la misma ciudad que sí mismo, mientras que “ser madre de”, es irreflexiva, pues nadie es madre de sí mismo. Por otro lado, la relación “ser empleado de” no es ni una ni otra, pues algunos empresarios son empleados de sí mismos, mientras que muchos trabajadores son empleados de otra persona y no de ellos mismos. 

Definición 4.1.6 Una relación es simétrica si para cada pareja de la relación, la pareja

en orden inverso también forma parte de la relación. Es asimétrica si para toda pareja en la relación se cumple que su inversa no está en la relación. Por último, una relación antisimétrica es aquélla en que las únicas parejas cuyas inversas también son parte de la relación son las parejas de elementos iguales. R simétrica R asimétrica R antisimétrica 

⇔ ∀x, y (xRy → yRx), ⇔ ∀x, y (xRy → y 6Rx), ⇔ ∀x, y ((xRy ∧ yRx) → x = y).

Ejemplo 4.3 La relación entre mercancías de una tienda de “tener el mismo precio” es

simétrica. “Ser más caro que”, es una relación asimétrica.



Definición 4.1.7 Una relación es transitiva si siempre que un elemento se relaciona

con un segundo elemento, y éste con un tercero, entonces el primero está relacionado con el tercero. R transitiva ⇔ ∀x, y ((xRy ∧ yRz) → xRz). 

Ejemplo 4.4 La relación de parentesco “ser descendiente de” es una relación transitiva.

Sin embargo, “ser padre de” no lo es.



Estas propiedades no son todas independientes. Para empezar, por ejemplo, las propiedades reflexiva e irreflexiva son incompatibles, al igual que las propiedades de simetría y antisimetría. Además, tenemos las dependencias que se indican en el Ejercicio 4.2. Problema 4.1 Sea el conjunto A = {a, b, c, d}. Estudiar las propiedades de las siguientes relaciones definidas en él. En particular, describir sus dominios y contradominios y verificar si son reflexivas, irreflexivas, simétricas, asimétricas, antisimétricas y/o transitivas. 1. R1 = {(a, a), (a, b), (b, a), (b, b), (b, c), (c, b), (c, c)}. 2. R2 = {(a, b), (a, c), (a, d)}. 3. R3 = {(a, a), (a, b), (a, c), (b, a), (b, b), (b, c), (c, a), (c, b), (c, c), (d, d)}. 4. R4 = {(a, c), (a, d), (b, a), (b, c), (b, d), (c, d)}. Problema 4.2 Demuéstrense los siguientes teoremas, que señalan algunas dependencias entre las propiedades definidas en las relaciones.

Capítulo 4. Relaciones y Funciones

56

1. Toda relación asimétrica es antisimétrica. 2. Toda relación asimétrica es irreflexiva. 3. Si R es una relación reflexiva en el conjunto A, su dominio y contradominio coinciden y son todo el conjunto A. En las siguientes secciones estudiamos los dos tipos más importantes de relaciones. La relación de equivalencia, o simplemente equivalencia, es la herramienta matemática para hacer clasificaciones. Primero definimos equivalencia; luego definimos clasificación o, como se le suele llamar, partición; finalmente vemos el teorema fundamental, que afirma que ambas son la misma cosa. Definición 4.1.8 Una relación es una equivalencia si es reflexiva, simétrica y transitiva.

Si el elemento a está relacionado con b, lo denotamos a ∼ b. 

Ejemplo 4.5 Consideremos el conjunto de los polígonos regulares y la relación de

semejanza, en la que un polígono se relaciona con otro si tienen el mismo número de lados, sus ángulos respectivos son iguales y sus lados proporcionales. Es una relación reflexiva, pues un polígono es semejante a sí mismo. Es simétrica, pues si un polígono es semejante a otro, el otro lo es al uno ya que los ángulos son iguales y los lados proporcionales con el factor de proporcionalidad inverso del primero. Por último, si un polígono es semejante a un segundo y éste a un tercero, el primero es semejante al tercero, pues tienen el mismo número de lados, ángulos iguales y lados proporcionales con factor el producto de los dos factores originales.  Problema 4.3 Dado un entero n definimos en el conjunto de los números enteros la

relación de congruencia módulo n diciendo que a es congruente con b módulo n si ambos tienen el mismo residuo al dividirlos entre n. Probar que la congruencia es una equivalencia. Problema 4.4 En el conocido juego infantil Piedra, papel o tijera se establece una relación en el conjunto {piedra, papel, tijera} que determina el vencedor de cada encuentro. Describir esta relación y estudiar sus propiedades. ¿Es una equivalencia? Teorema 4.1.1 La relación inversa de una equivalencia es ella misma.

R equivalencia ⇒ R−1 = R. Demostración. En realidad es un resultado más general, pues vale para cualquier relación simétrica. Por ser R simétrica, D(R) = D0 (R) = D(R−1 ) = D0 (R−1 ), y para cada pareja (a, b) ∈ R también (b, a) ∈ R y, por tanto, ambas están en R−1 .  Representando gráficamente una equivalencia se observa enseguida que los elementos se agrupan en subconjuntos disjuntos entre sí. Este es el resultado central de la teoría de equivalencias. Una equivalencia produce una clasificación de los elementos del conjunto. Cada clase contiene elementos que están relacionados todos entre sí y no están relacionados con ningún otro fuera de su clase. Estas clases se denominan clases de equivalencia. Definición 4.1.9 Dada una equivalencia R definida en A y un elemento a del conjunto

A, la clase de equivalencia de a es el subconjunto de los elementos relacionados con él. La denotamos por [a], y decimos que a es un representante de dicha clase. Se puede escribir como [a] = {b ∈ A | a ∼ b}.

4.1 Relaciones

57

El representante de una clase es parte de la clase (como era de esperar), ya que la relación es reflexiva. Pero, por otro lado, cualquier elemento de la clase puede ser un representante. Finalmente, elementos no relacionados entre sí están en clases diferentes. Escribimos estas ideas en un teorema. Teorema 4.1.2 Sea R una equivalencia definida en un conjunto A, entonces

1. cada elemento del conjunto está en la clase que representa, es decir ∀a ∈ A, a ∈ [a], 2. dos elementos están relacionados si, y solamente si, están en la misma clase de equivalencia, es decir ∀a, b ∈ A, a ∼ b ⇔ [a] = [b]. Demostración. El primer punto es consecuencia inmediata de que toda equivalencia es reflexiva y la defición de clase de equivalencia. Para el segundo punto, separamos en dos la doble implicación. Primero veamos que a ∼ b ⇒ [a] = [b] demostrando la igualdad de [a] y [b] por una doble contención. Si un elemento c está en [b] es porque b ∼ c. Ahora bien, por ser la relación transitiva y tener a ∼ b por hipótesis, entonces se cumple a ∼ c, con lo cual c ∈ [a]. Hemos probado [b] ⊂ [a]. Como, además, la relación es simétrica, entonces b ∼ a y el mismo argumento nos lleva a [a] ⊂ [b]. Por tanto [a] = [b]. Por último veamos que [a] = [b] ⇒ a ∼ b. Como [a] y [b] son una misma clase, entonces a y b están en dicha clase, por el primer punto de este teorema. Entonces, por definición de los símbolos [a] y [b], se cumple tanto a ∼ b como b ∼ a.  Problema 4.5 — Continuación del Ejercicio 4.3. Para la congruencia módulo 4, hallar

la clase de equivalencia de los números 8 y 13. El principal resultado de la teoría de equivalencias, como se ha dicho, es que las clases de equivalencia constituyen una clasificación de los elementos del conjunto. Es decir, todo elemento está en una clase de equivalencia y solo en una. Enunciamos primero una definición precisa del concepto de clasificación o partición para, después, enunciar y demostrar el teorema. Nótese que la definición de partición no habla de elementos, sino de subconjuntos, pero es equivalente a decir que cada elemento está en uno, y sólo uno, de tales subconjuntos. Definición 4.1.10 Una partición de un conjunto A es una familia de subconjuntos de A,

{Aα }α∈I , donde I es un conjunto de índices, tal que la unión de todos los subconjuntos es el conjunto A y la intersección de dos diferentes cualesquiera es vacía. Es decir, {Aα }α∈I es una partición de A si 1. ∀α ∈ I, Aα ⊂ A, 2. ∪α∈I Aα = A, y 3. ∀α, β ∈ I (α 6= β → Aα ∩ Aβ = 0). / 

Ejemplo 4.6 Dado el conjunto A = {1, 2, 3, 4, 5, 6}, las familias P1 = {{1, 2}, {3, 4, 5}, {6}}

y P2 = {0, / A} son particiones de A, mientras que P3 = {{1, 2, 3, 4}, {4, 5, 6}} y P4 = {{1, 2}, {6}} no lo son. 

Capítulo 4. Relaciones y Funciones

58

Teorema 4.1.3 Si R es una equivalencia en el conjunto A, sus clases de equivalencia

constituyen una partición de A. Demostración. Debemos probar que las clases de equivalencia verifican las tres condiciones de la Definición 4.1.10. 1. Las clases de equivalencia son, obviamente por su definición, subconjuntos de A. 2. Todo elemento de A está en alguna clase de equivalencia pues, por el Teorema 4.1.2, a ∈ [a]. Entonces, es claro que la unión de todas las clases de equivalencia contiene todos los elementos de A, y no más, por el punto anterior. 3. Para probar que clases de equivalencia diferentes son disjuntas nos fijamos en la contrapositiva: si tienen un elemento en común, entonces son iguales. Pero, precisamente esta implicación también se ha probado en el Teorema 4.1.2.  

Ejemplo 4.7 En el conjunto de polígonos del plano definimos la relación “tener el mismo

número de lados”. Se trata de una relación de equivalencia que crea en el conjunto de polígonos la partición en triángulos, cuadriláteros, pentágonos, ...  La conexión entre equivalencias y particiones que establece el Teorema 4.1.3 queda totalmente complementada por el Teorema 4.1.4, que es su recíproco. En definitiva, toda equivalencia produce una partición y toda partición procede de una equivalencia. Teorema 4.1.4 Dada una partición de un conjunto, existe una equivalencia definida en

dicho conjunto cuyas clases de equivalencia son los subconjuntos que constituyen la partición. Demostración. Sea el conjunto A en el que hay definida una partición. Definamos en A la relación R de modo que dados dos elementos a, b ∈ A, a está relacionado con b si a está en el mismo subconjunto de la partición que b. Primero veamos que esta relación es una equivalencia. Es reflexiva, pues, obviamente, cualquier elemento está en el mismo subconjunto que él mismo. Es simétrica, pues si a está en el mismo subconjunto que b, entonces b está en el mismo subconjunto que a. Es transitiva, pues si a ∼ b y b ∼ c significa que tanto a como c están en el mismo subconjunto que b, y b solo puede estar en uno, ya que los subconjuntos de una partición son disjuntos. Entonces a y c están en el mismo subconjunto y por tanto a ∼ c. Ahora veamos que las clases de equivalencia de esta relación son exactamente los subconjuntos de la partición. Por la definición de la relación, la clase [a] está formada por los elementos que se hallan en el mismo subconjunto que a. Es, pues, dicho subconjunto.  

Ejemplo 4.8 Podemos partir la recta real en intervalos de la forma

R = ∪n∈Z [n, n + 1) = . . . [−1, 0 = ∪[0, 1) ∪ [1, 2) . . . Esta partición define en R la relación de equivalencia “tener la misma parte entera”.



Finalizamos el estudio de las equivalencias introduciendo un concepto muy sencillo pero de gran alcance en matemáticas: el conjunto cociente. Este concepto atrapa la esencia de la estructura adquirida por un conjunto cuando se define en él una equivalencia: su partición en clases. El conjunto cociente es, precisamente, el conjunto de las clases de equivalencia en que queda dividido el conjunto original (por ello el término cociente).

4.2 Funciones

59

Definición 4.1.11 Dada una equivalencia R definida en un conjunto A, el conjunto

cociente, denotado A/R (o también A/ ∼) es el conjunto de las clases de equivalencia de la relación, esto es A/R = {[a] ∈ P(A) | a ∈ A}. Problema 4.6 — Continuación del Ejercicio 4.5. Para la congruencia módulo 4, des-

cribe el conjunto cociente. Ejemplo 4.9 En el conjunto de los números enteros definimos la relación de congruencia módulo 3 (ver Ejercicio 4.3) en la que dos números enteros están relacionados si tienen el mismo residuo al dividirlos entre 3. Se trata de una equivalencia con tres clases de equivalencia: los enteros múltiplos de 3, cuyo residuo en la división es cero y que podemos ¯ los enteros cuyo residuo en la división es uno, que denotamos 1, ¯ y los enteros denotar 0, ¯ cuyo residuo es dos, 2. ¯ 1, ¯ 2} ¯ que se suele denotar Z3 . El conjunto cociente es, por tanto, {0,  

Problema 4.7 En el conjunto de los números enteros sin el cero, Z∗ = Z \ {0}, definimos

la relación R por la siguiente expresión: x ∼ y ↔ xy > 0. Se pide: 1. Probar que es una equivalencia. 2. Hallar las clases de equivalencia de los números 1, 7, −4 y −5. 3. Describir el conjunto cociente Z∗ /R. Problema 4.8 En el conjunto de parejas de números reales, R × R, definimos varias relaciones. En cada una de ellas se pide razonar si es o no una equivalencia y, en caso afirmativo, representar gráficamente en el plano cartesiano las clases de equivalencia y describir el conjunto cociente. 1. (x1 , y1 ) ∼ (x2 , y2 ), x1 = y2 . 2. (x1 , y1 ) ∼ (x2 , y2 ), x1 = x2 . 3. (x1 , y1 ) ∼ (x2 , y2 ), x1 − y1 = x2 − y2 . 4. (x1 , y1 ) ∼ (x2 , y2 ), x12 − y1 = x22 − y2 . Problema 4.9 En el conjunto de los números reales, R, definimos la relación S por la siguiente expresión: x ∼ y ↔ x − y ∈ Z. Se pide: 1. Probar que es una equivalencia. 2. Hallar las clases de equivalencia de los números 1,67, 3 y π. 3. Describir el conjunto cociente R/S. 4. Intentar repetir el problema cambiando Z por N. 5. Intentar repetir el problema cambiando Z por Q.

4.2

Funciones Las funciones son herramientas para relacionar elementos de un conjunto, llamado inicial, con elementos de otro conjunto, llamado final. El concepto es parecido al de

Capítulo 4. Relaciones y Funciones

60

relación, donde se relacionan elementos de un conjunto entre sí. Sin embargo hay una diferencia esencial. En una función se exige que cada elemento del conjunto inicial esté relacionado solo con uno del conjunto final. La consecuencia inmediata es que la inversa de una función (es decir los elementos del conjunto final asociados con los que les corresponden del inicial) no es, en general, una función. Este capítulo tiene dos objetivos, que se alcanzan a través de los conceptos de función inyectiva, función suprayectiva y función biyectiva. El primero es caracterizar las funciones que tienen inversa, que resultan ser las biyectivas. El segundo es mostrar la descomposición canónica de una función como composición de una función inyectiva, una biyectiva y una suprayectiva. Queremos utilizar las funciones como herramientas para asignar a cada elemento de un conjunto un elemento de otro. Como en el caso de las relaciones, vamos a expresar esta asignación por parejas, pero ahora formadas por un elemento del conjunto inicial y un elemento del conjunto final. Como se ha dicho, exigiremos además que a cada elemento del conjunto inicial no se le asigne más de uno del final. Definición 4.2.1 Una función f del conjunto A al conjunto B es un subconjunto del

producto cartesiano A × B en el que no hay dos parejas que tengan el mismo primer elemento. El conjunto A se llama inicial, y el conjunto B, final y se denotan con el símbolo f : A → B.  Ejemplo 4.10 Sea A = {a, b, c} y consideremos los subconjuntos de A×A, f = {(a, a), (b, b), (b, c)}, g = {(a, b), (b, c), (c, a)}, h = {(a, a), (b, a)}. Los tres conjuntos son relaciones en A, pero f no es una función porque el elemento b aparece como primer elemento en dos parejas. Sin embargo, g y h sí son funciones. 

Ejemplo 4.11 Pensemos en el subconjunto de R × R, representado como el plano cartesiano con ejes X, Y , dado por los puntos de la circunferencia de radio 1 centrada en el origen. Este subconjunto no define una función R → R ya que las parejas de puntos (x, y+ ) y (x, y− ) tienen la primera coordenada igual. Sin embargo sí podemos definir una función si nos restringimos a la semicircunferencia superior. En este caso no hay dos parejas de puntos (x, y) en las que coincida la primera coordenada. Como sabemos que las coordenadas cumplen la ecuación x2 + y2 = 1, podemos igualmente describir esta √ 2 función como la que asocia a cada número real x entre −1 y 1 el número√real 1 − x . (Si hubiésemos considerado la semicircunferencia inferior, hubiera sido − 1 − x2 ).  

Como en el caso de las relaciones, no se ha exigido en la definición que todo elemento del conjunto inicial esté relacionado con alguno del final ni que todo elemento del final reciba la relación de alguno del inicial. Por ello definimos los conceptos de dominio y contradominio de una función, que tendrán mucha más importancia que en el contexto de las relaciones. Definición 4.2.2 El dominio de una función f : A → B es el subconjunto de A de elementos relacionados con algún elemento de B. Lo denotamos D( f ). D( f ) = {x ∈ A | ∃y ∈ B, (x, y) ∈ f }. Definición 4.2.3 El contradominio de una función f : A → B es el subconjunto de B

4.2 Funciones

61

de elementos con los que algún elemento de A está relacionado. Lo denotamos D0 ( f ). D0 ( f ) = {y ∈ B | ∃x ∈ A, (x, y) ∈ f }. 

Ejemplo 4.12 Sea la función f : A → B, donde A = {1, 2, 3}, B = {a, e, i, o, u} dada por

f = {(1, e), (3, e)}. Entonces D( f ) = {1, 3} y D0 ( f ) = {e}.



 Ejemplo 4.13 En la función f : R → R que a cada número real x asocia el número 1 real √x−1 , el dominio está formado por los reales mayores que 1 ya que si x < 1 la raíz cuadrada no está definida como número real, y si x = 1 el denominador sería nulo, lo cual tampoco está definido. Por otro lado el contradominio lo constituyen todos los reales positivos. 

Problema 4.10 Para cada una de las siguientes parejas de conjuntos A y B, escribir

explícitamente todas las funciones posibles de la forma A → B, donde el dominio debe coincidir con el conjunto inicial A. 1. A1 = {1, 2, 3, }, B1 = {a}. 2. A1 = {1, 2, 3}, B1 = {a, b}. 3. A1 = {1, 2}, B1 = {a, b, c, d}. 4. A1 = {1, 2, 3}, B1 = {a, b, c}. Existe una representación gráfica intuitiva que ilustra bien algunos conceptos de la teoría de funciones, aunque no sirve como medio de demostración. En ella se representan por diagramas de Venn los conjuntos inicial y final, enfrentados, y por flechas las parejas que forman la función. El dominio es el subconjunto de puntos del conjunto inicial de los que parte una flecha. El contradominio es el subconjunto de puntos del conjunto final que reciben alguna flecha. Merece la pena dedicar unas líneas a comentar cómo se define una función (una en concreto, no el concepto de función). Lo que hay que definir son las parejas de A × B que la conforman. En la práctica esto se lleva a cabo de dos formas que corresponden a las dos maneras de definir conjuntos: primera, por enumeración de todos los elementos del dominio indicando qué elemento del conjunto final le corresponde a cada uno; segunda, dando una regla o fórmula que permita saber qué elemento corresponde a cada uno. 

Ejemplo 4.14 Entre los conjuntos A = {0, 1, 2} y R definamos la función que asocia a

cada número su cuadrado. Podemos definirla por enumeración: f = {(0, 0), (1, 1), (2, 4)}. También podemos escribirla como f = {(x, y) ∈ A × R | y = x2 }.  Una vez establecidas las definiciones de partida, introduzcamos los conceptos de imagen y preimagen, que permiten simplificar mucho el discurso de las funciones. Puesto que cada elemento del dominio aparece en una sola pareja de la función, el elemento del conjunto final que le corresponde está determinado sin ambiguedad y se le da un nombre: imagen. Definición 4.2.4 Dada una función f : A → B, la imagen bajo f de un elemento x del

dominio es el único elemento y del contradominio con el que x está relacionado. Se denota y = f (x) o bien x 7→ y. Generalizando el concepto anterior definimos ahora la imagen de un subconjunto, que no es otra cosa que reunir las imágenes de sus elementos.

Capítulo 4. Relaciones y Funciones

62

Definición 4.2.5 Dada una función f : A → B, la imagen bajo f de un subconjunto

X del dominio es el subconjunto del contradominio formado por las imágenes de los elementos de X. Se denota f (X). Es decir, f (X) = {y ∈ B | ∃x ∈ X, f (x) = y}. Problema 4.11 Dada una función f : A → B y los subconjuntos del dominio X1 , X2 , probar

lo siguiente: 1. f (X1 ∪ X2 ) = f (X1 ) ∪ f (X2 ). 2. f (X1 ∩ X2 ) ⊂ f (X1 ) ∩ f (X2 ), pero en general f (X1 ∩ X2 ) 6= f (X1 ) ∩ f (X2). 3. f (X1 \ X2 ) ⊃ f (X1 ) \ f (X2 ), pero en general f (X1 \ X2 ) 6= f (X1 ) \ f (X2 ). Esto indica que las imágenes no se comportan bien respecto a las operaciones de conjuntos. Análogamente podemos definir la preimagen de un conjunto. Pero, cuidado, no podemos definir la preimagen de un elemento. Definición 4.2.6 Dada una función f : A → B, la preimagen bajo f de un subconjunto

Y de B es el subconjunto del dominio de los elementos cuyas imágenes están en Y . Se denota f −1 (Y ). Esto es, f −1 (Y ) = {x ∈ A | f (x) ∈ Y }. 

Ejemplo 4.15 Consideremos la función f : R → R que relaciona cada número real con

su cuadrado. Entonces, por ejemplo, f (0) = 0, f (2) = 4, f (−π) = π 2 . Podemos escribir, entonces, ∀x, f (x) = x2 . Por otro lado, tenemos f ([0, 1]) = [0, 1], f ([−1, 0]) = [0, 1], f (R− ) = R+ . Por último, algunos ejemplos de preimágenes: f −1 ({0}) = {0}, f −1 ({4}) = {−2, 2}, f −1 ([0, 1]) = [−1, 1], f −1 ([−2, −1]) = 0. /  Problema 4.12 Dada una función f : A → B y Y1 ,Y2 son subconjuntos de B, probar lo

siguiente: 1. f −1 (Y1 ∪Y2 ) = f −1 (Y1 ) ∪ f −1 (Y2 ). 2. f −1 (Y1 ∩Y2 ) = f −1 (Y1 ) ∩ f −1 (Y2 ) 3. f −1 (Y1 \Y2 ) = f −1 (Y1 ) \ f −1 (Y2 ). Esto indica que las preimágenes sí tienen un comportamiento óptimo (respecto a las operaciones de conjuntos). Con la notación introducida podemos escribir las siguientes relaciones entre dominio y contradominio. f (D( f )) = D0 ( f ) ∧ f −1 (D0 ( f )) = D( f ). Presentamos dos funciones muy sencillas de definir y que sirven como ejemplos muy versátiles: la función constante (definible entre dos conjuntos cualesquiera) y la función identidad (definible entre un conjunto cualquiera y él mismo). Definición 4.2.7 Una función se llama función constante si su dominio coincide con el

conjunto inicial y su contradominio contiene un único elemento, es decir, f : A → B es constante si D( f ) = A ∧ D0 ( f ) = {y} para algu´n elemento de B.

4.2 Funciones

63

Definición 4.2.8 La función identidad de un conjunto A, denotada idA es la función

del conjunto A a sí mismo, cuyo dominio es todo el conjunto A y en la que la imagen de cada elemento es él mismo, lo que podemos escribir como D(idA ) = A y f (x) = x para todo elemento x de A. Por último en esta sección vamos a introducir la composición de funciones, que a partir de dos funciones permite construir otra nueva. Si una función lleva los elementos de A a B y otra función, a su vez, lleva los elementos de B a C, entonces la función compuesta es la que lleva los elementos de A a C haciendo el camino a través de B. En la definición hay que tener en cuenta un detalle respecto a los dominios de las funciones, para asegurar que un elemento de A pueda hacer el viaje completo hasta C pasando primero por B. Definición 4.2.9 Dadas las funciones f : A → B y g : B → C donde el contradominio de

f está incluido en el dominio de g, la composición de f con g es una función, denotada g ◦ f , que tiene por conjunto inicial a A, por final a C y asocia a cada elemento de D( f ) ⊂ A el elemento de D0 (g) ⊂ C que es la imagen bajo g de su imagen bajo f . Es decir, (g ◦ f )(x) = g( f (x)). Existe una forma de representar la composición de funciones gráficamente mediante los llamados diagramas conmutativos. El diagrama que representa la composición de f y g es el siguiente: A f

g◦ f



B

g

 /C

Este diagrama ilustra los dos caminos para ir desde A hasta C; se llama diagrama conmutativo porque ambos caminos tienen el mismo resultado, que es lo que expresa la composición. 

Ejemplo 4.16 Sean los conjuntos A = {1, 2, 3}, B = {a, b, c, d}, C = {X,Y } y las fun-

ciones f : A → B y g : B → C dadas por f (1) = 2 f (2) = b

g(a) = X, g(b) = Y, g(c) = Y.

Entonces se cumplen las condiciones de la definición, pues D0 ( f ) = {a, b} ⊂ D(g), y la función compuesta está definida para los elementos de D( f ) = {1, 2} ⊂ A. (g ◦ f )(1) = g( f (1)) = g(a) = X, (g ◦ f )(2) = g( f (2)) = g(b) = Y.  

Ejemplo 4.17 Sean las funciones f : R → R y g : R → R dadas por

f (x) = x2 + 1,

g(x) = sen(x).

Capítulo 4. Relaciones y Funciones

64

Se cumple que D0 ( f ) ⊂ D(g) y por tanto tiene sentido definir la composición g ◦ f que resulta (g ◦ f )(x) = g( f (x)) = sen(x2 + 1). 

Problema 4.13 Probar que la composición de funciones es asociativa. Es decir, dadas las

funciones f : A → B, g : B → C y h : C → D que cumplen D0 ( f ) ⊂ D(g) y D0 (g) ⊂ D(h), entonces h ◦ ( f ◦ g) = (h ◦ f ) ◦ g Problema 4.14 Probar que la composición de una función con la función identidad tanto por la derecha como por la izquierda (en cada caso con la función identidad adecuada) es la misma función. Problema 4.15 En cada inciso calcular la función g ◦ f indicando los conjuntos inicial y final y la imagen de un elemento arbitrario. Además, dibujar un diagrama conmutativo de cada composición. f :N→Z g:Z→Q 1. n 7→ −n m 7→ 31 m f :N→Z g:Z→Z 2. n 7→ n − 5 m 7→ m2 f :Z→N g:N→Z 3. n 7→ |n| + 1 m 7→ m − 1 donde |n| denota el valor absoluto de n. f :R→Z g:Z→ ( {0, 1} 0 si m es par, 4. x 7→ bxc m 7→ 1 si m es impar. donde bxc es la función piso de x. f :R→C g:C→C 5. x 7→ ix z 7→ z¯ donde z¯ es el conjugado de z. Dada una función f : A → B, ya sabemos cómo es su dominio: un subconjunto del conjunto inicial donde cada elemento tiene una imagen, y solo una, en B. En esta sección nos ocupamos del contradominio. Según sea la relación entre el contradominio y el conjunto final tenemos tres tipos de funciones especialmente interesantes: inyectivas, suprayectivas y biyectivas. Definición 4.2.10 Una función es inyectiva si su dominio es todo el conjunto inicial y

las imagénes de elementos diferentes son diferentes, que lo expresamos como x 6= y → f (x) 6= f (y) para elementos x, y de A. Definición 4.2.11 Una función f : A → B es suprayectiva si el contradominio coincide

4.2 Funciones

65

con el conjunto final: D0 ( f ) = B. Definición 4.2.12 Una función es biyectiva si es inyectiva y suprayectiva.

En otras palabras, una función es inyectiva si el dominio es todo el conjunto inicial y cada elemento del conjunto final es imagen de, a lo sumo, un elemento del inicial. Es suprayectiva si todo elemento del conjunto final es imagen de, al menos, un elemento del inicial. Es biyectiva si cada elemento del final es imagen de exactamente un elemento del dominio (que coincide con el inicial). 

Ejemplo 4.18 Sean los siguientes conjuntos y funciones con dominio en A = {1, 2, 3}:

f 1 : A → B1

f 2 : A → B2

f 3 : A → B3

f 4 : A → B4

donde B1 = {a, b, c, d} f1 (1) = b f1 (2) = c f1 (3) = a donde B2 = {a, b} f2 (1) = a f2 (2) = a f2 (3) = b donde B3 = {a, b, c} f3 (1) = c f3 (2) = b f3 (3) = a donde B4 = {a, b, c, d} f4 (1) = b f4 (2) = b f4 (3) = a

Entonces, la función f1 es inyectiva, pero no es suprayectiva. La función f2 es suprayectiva, pero no es inyectiva. En tercer lugar, f3 es biyectiva. Por último, f4 no es ninguno de los tres tipos.  Veamos otro ejemplo, pero ahora con conjuntos mayores. 

Ejemplo 4.19 Consideremos las siguientes funciones de N = {1, 2, . . .} a 2N = {2, 4, . . .},

Capítulo 4. Relaciones y Funciones

66

en las que el dominio coincide con el conjunto inicial. f1 : N → 2N f2 : N → 2N f3 : N → 2N f4 : N → 2N

definida por f1 (n) = 4n. ( n definida por f2 (n) = n+1

si n es par, si n es impar.

definida por f3 (n) = 2n. ( n + 2 si n es par, definida por f4 (n) = n + 1 si n es impar.

Entonces, f1 es inyectiva, pero no es suprayectiva. Por contra, f2 no es inyectiva pero sí es suprayectiva. La función f3 es biyectiva y, finalmente, f4 no es de ninguno de los tres tipos. 

Problema 4.16 — Continuación del Ejercicio 4.10. Indicar justificadamente, cuáles de

ellas son inyectivas, cuáles suprayectivas, y cuáles biyectivas. Problema 4.17 Sea P el conjunto de todos los polígonos, y consideremos la función f : P → N que asocia a cada polígono su número de lados. 1. Estudiar si la función es inyectiva, si es suprayectiva y si es biyectiva. 2. Hallar las imágenes de los siguientes subconjuntos de P: T , el subconjunto de los triángulos; R el subconjunto de los polígonos regulares; Q, el subconjunto de los polígonos cuyos lados son paralelos dos a dos. 3. Hallar las siguientes imágenes inversas: f −1 ({3}), f −1 ({2}), f −1 ({3, 4, 5}) y f −1 ({2, 3}). Problema 4.18 En cada inciso razonar si la función correspondiente es inyectiva, si es suprayectiva y si es biyectiva. 1. f : Z → Z: m 7→ m + 1 . 2. f : N → N: m 7→ m + 1 . 3. f : [0, 1] → [0, 1]: x 7→ 12 x, donde [0, 1] ⊂ R es el intervalo unitario cerrado de la recta real. 4. f : R → R: x 7→ x2 . 5. f : N → N: n 7→ n2 . 6. f : N → P ∪ {1} donde P es el conjunto de lo números primos, que a cada natural asocia el menor primo que aparece en su factorización en primos, y al 1 asocia el 1. 7. f : R → Z: x 7→ bxc donde bxc es el piso de x, es decir, el mayor entero menor o igual a x. 8. f : C → R: a + bi 7→ a + b . 9. f : C → C: z 7→ z¯, donde z¯ es el conjugado de z. Para finalizar esta sección enunciamos un teorema sobre la composición de funciones inyectivas y suprayectivas. Teorema 4.2.1 La composición de funciones inyectivas es inyectiva, la de funciones

suprayectivas es suprayectiva, y la de funciones biyectivas es biyectiva. Demostración. En el primer caso, el dominio de g ◦ f es el de f pero, por ser f inyectiva, éste es todo el conjunto inicial. Por otro lado, dados dos elementos x, y ∈ A, x 6= y, sus imágenes bajo f cumplen f (x) 6= f (y), pues f es inyectiva. Igualmente, por ser g inyectiva, g( f (x)) 6= g( f (y)), que es lo mismo que escribir (g ◦ f )(x) 6= (g ◦ f )(y). Por tanto, es inyectiva.

4.2 Funciones

67

Sean ahora f : A → B y g : B → C dos funciones suprayectivas donde D0 ( f ) = B = D(g). Dado un elemento z ∈ C, existe un elemento y ∈ B tal que g(y) = z, debido a que g es suprayectiva. Puesto que f también es suprayectiva, existe x ∈ A tal que f (x) = y. Combinando ambas expresiones, tenemos que existe x ∈ A tal que (g ◦ f )(x) = z, luego g ◦ f es suprayectiva. Por último, si f y g son biyectivas, entonces ambas son inyectivas y suprayectivas y por tanto g ◦ f también es biyectiva.  Problema 4.19 — Continuación del Ejercicio 4.15. Argumentar si las funciones f , g

y g ◦ f son inyectivas, suprayectivas o biyectivas. En esta sección definimos el concepto de función inversa y función invertible, es decir, aquélla que tiene inversa. Como en el caso de las relaciones, es de esperar que la función inversa esté formada por las parejas de una función con los elementos en orden inverso. El problema es que el conjunto de las parejas con los elementos en orden inverso no es, en general, una función. El Ejemplo 4.20 muestra el porqué. Ejemplo 4.20 Sea la función f : A → B, donde A = {1, 2, 3} y B = {a, b, c, d} dada por f = {(1, a), (2, a), (3, b)}. Entonces, el conjunto de las parejas con los elementos en orden inverso es {(a, 1), (a, 2), (b, 3)}, que no es una función porque el elemento a aparece en dos parejas, es decir, tendría dos imágenes.  

Problema 4.20 — Continuación del Ejercicio 4.16. En los casos de funciones biyecti-

vas, además, escribir la función inversa. Voltear las parejas, en general, no sirve. Hay que estudiar antes cuándo sí es válido. Para ello, sin embargo, enunciamos la idea de función inversa de otro modo. Queremos una función que deshaga lo que hace la original. Una función que permita volver desde el conjunto final hasta el inicial y dejar las cosas como estaban. Definición 4.2.13 Dada una función f : A → B, una función g : B → A es inversa de

f si la composición de f con g y la composición de g con f son ambas funciones identidad. Es decir, si g ◦ f = idA ∧ f ◦ g = idB . Obsérvese que ambas composiciones son funciones diferentes, pues g ◦ f : A → A mientras que f ◦ g : B → B. Por ello es necesario exigir las dos condiciones. De hecho se pueden distinguir los conceptos de inversa derecha e inversa izquierda. También hay que hacer notar que la definición exige D( f ) = A y D(g) = B, pues de otro modo no se consigue la función identidad en A o la identidad en B. Veamos ahora un primer resultado importante respecto a la función inversa: su unicidad. Teorema 4.2.2 Si una función tiene inversa, entonces ésta es única.

Demostración. Dadas f : A → B, g : B → A y h : B → A tales que tanto g como h son inversas de f , debemos probar que g = h. Consideremos las composiciones h ◦ ( f ◦ g) y (h ◦ f ) ◦ g. En el Ejercicio 4.13 vimos que son la misma función h ◦ ( f ◦ g) = (h ◦ f ) ◦ g.

68

Capítulo 4. Relaciones y Funciones

Ahora bien, como f ◦ g = idB y h ◦ f = idA resulta h ◦ idB = idA ◦ g, de donde h = g puesto que una función compuesta con la identidad es ella misma (Ejercicio 4.14).  Entonces podemos dar un símbolo a la función inversa. También un nombre a las funciones que tienen inversa. Definición 4.2.14 Si una función f tiene inversa se dice que es invertible, y denotamos

por f −1 la única función que es inversa de f . El símbolo f −1 es el mismo que se ha usado para la preimagen de un subconjunto del final, pero no hay ambiguedad pues el contexto indica qué acepción usar. Conviene tener claro, en cualquier caso, que f −1 como preimagen se puede usar en cualquier función, mientras que como inversa, solo en las invertibles. Además, si la función es invertible, las dos acepciones del símbolo f −1 coinciden en su significado. Acabamos de ver que si una función tiene inversa, es única y podemos asignarle un nombre. Es el problema de la unicidad. El siguiente paso es el de la existencia, es decir, saber si la función inversa existe. El teorema central de esta sección responde a la pregunta anterior diciendo que las funciones biyectivas son invertibles y son las únicas funciones invertibles. Teorema 4.2.3 Una función es invertible si, y solamente si, es biyectiva.

Demostración. Empecemos por la implicación directa. Sea f : A → B una función invertible. Entonces existe f −1 : B → A de modo que f ◦ f −1 = idB y f −1 ◦ f = idA . También sabemos que D( f ) = A y D( f −1 ) = B. Veamos que f es inyectiva usando la contrapositiva de la Definición 4.2.10. Sean x, y dos elementos de A que cumplen f (x) = f (y). Debemos mostrar que estos elementos son iguales. Para ello actuamos con la función inversa, con lo cual f −1 ( f (x)) = f −1 ( f (y)), pero por definición de inversa f −1 ( f (x)) = x y f −1 ( f (y)) = y, de donde x = y y f es inyectiva. Ahora veamos que f es suprayectiva. Sea y ∈ B, entonces f −1 (y) es un elemento de A y cumple que su imagen es f ( f −1 (y)) = y. Por tanto todo elemento de B es imagen de alguno de A. En segundo lugar hay que probar la otra implicación. Sea, pues, f : A → B una función biyectiva. Por definición de biyectividad, dado un elemento cualquiera de B existe un, y solo un, elemento de A cuya imagen es el elemento dado de B. Demostramos que tal función es invertible construyendo explícitamente la función inversa: f −1 : B → A es la función que a cada elemento de B asocia el único elemento de A cuya imagen por f es dicho elemento de B. Por su construcción es una función y es una inversa de f , por lo tanto es la inversa de f y f es invertible.  Como consecuencia inmediata de este resultado podemos observar que si una función es biyectiva, y por tanto invertible, entonces su inversa también es biyectiva. 

Ejemplo 4.21 La función f : R → R dada por f (x) = x2 no es inyectiva, pues hay

elementos diferentes con la misma imagen, por ejemplo f (2) = f (−2) = 4. Tampoco es suprayectiva, pues su contradominio no contiene a los reales negativos. Por tanto, no es biyectiva y no es invertible. Ésta es la causa de que al intentar utilizar como supuesta función inversa √ la raíz cuadrada nos encontramos con la disyuntiva de que hay dos posibles respuestas: 4 = ±2.

4.2 Funciones

69

Sin embargo g : R → R dada por g(x) = x3 sí es biyectiva y, por tanto, sí admite inversa 1 que es g−1 (x) = x 3 .  Ahora recordamos que la composición de funciones biyectivas también es biyectiva y, por tanto, invertible. ¿Es posible expresar la inversa de una composición a partir de las inversas de cada función que se compone. La respuesta es el último teorema de esta sección. Teorema 4.2.4 La composición de funciones invertibles es invertible y su inversa es la

composición de las inversas en orden opuesto. Esto es, si f : A → B y g : B → C son invertibles, entonces g ◦ f es invertible y (g ◦ f )−1 = f −1 ◦ g−1 . Demostración. Sean f : A → B y g : B → C invertibles. Por ser invertibles D0 ( f ) = B = D(g), la composición g ◦ f está bien definida y es invertible (por ser composición de funciones biyectivas). Ahora probemos que f −1 ◦ g−1 es, efectivamente, la inversa de g ◦ f . Sea x ∈ A al que aplicamos la composición ( f −1 ◦ g−1 ) ◦ (g ◦ f ). La aplicación de la definición de inversa nos lleva directamente a ( f −1 ◦ g−1 ) ◦ (g ◦ f ) = x, luego es la identidad en A. Del mismo modo se ve que la composición en el otro orden es la identidad en B. Por tanto, f −1 ◦ g−1 es la inversa de g ◦ f . 

5. Cardinalidad

Cuando hablamos del tamaño de un conjunto, intuitivamente nos referimos a “cuántos” elementos tiene. Para ciertos conjuntos (finitos) es posible “contar” sus elementos uno a uno. Sin embargo, existen otros conjuntos para los cuales, siguiendo la idea de “contarlos” uno por uno, esto no puede hacerse. A estos conjuntos se les llama infinitos y lo único que podemos hacer con ellos es “compararlos” con otros para tener una idea de qué tan grandes son. Precisemos un poco la idea de contar, que es algo que hacemos en nuestra vida diaria. Sea A = {a, b, c}, donde a, b y c son distintos entre sí. Al contar los elementos de A lo que hacemos es asociar 1 con a, 2 con b y 3 con c para llegar a la conclusión de que tiene tres elementos. Lo que en realidad hicimos fue establecer una función biyectiva f de I3 = {1, 2, 3, } en A, donde f (1) = a, f (2) = b y f (3) = c.

5.1

Cardinalidad de conjuntos Definición 5.1.1 Sean A y B conjuntos. Decimos que A y B tienen la misma cardinali-

dad si existe una función f : A → B biyectiva. Lo denotamos por |A| = |B|.

C

En P(U) donde U es el conjunto universo, tener la misma cardinalidad es una relación de equivalencia, i.e., A ∼ B si y solamente si |A| = |B|.

La idea de la demostración es la siguiente: ∼ es reflexiva vía la función identidad, es simétrica vía la función inversa y es transitiva pues la composición de funciones biyectivas es una función biyectiva. Definición 5.1.2 Sea A un conjunto. Decimos que A es un conjunto infinito si existe

un subconjunto propioa B de A y una función biyectiva f : A → B. Decimos que A es

Capítulo 5. Cardinalidad

72 un conjunto finito si no es infinito. a Recuerde

C

que B es un subconjunto propio de A si B ⊆ A pero B 6= A.

0/ es finito por vacuidad, al no tener subconjuntos propios.

Proposición 5.1.1 Sean A y B conjuntos finitos de la misma cardinalidad y sean f : A → B

una función. Los siguientes enunciados son equivalentes: 1. f es inyectiva 2. f es suprayectiva 3. f es biyectiva Demostración. (1) →(2): supongamos que f es inyectiva y que f no es suprayectiva. Esto implica que Im( f ) es un subconjunto propio de B. Sea f1 : A → Im( f ) dada por f1 (a) = f (a) para toda a ∈ A. Tenemos que f1 es claramente una biyección. De aquí, |A| = |Im( f )| y por hipótesis, |A| = |B|, así que |B| = |Im( f )| y tendríamos que B es infinito (ontradicción) Por lo tanto, f es suprayectiva. (2) →(3): supongamos que f es suprayectiva, esto implica que existe g : B → A tal que f ◦ g = 1B y como 1B es biyectiva, en particular es inyectiva, lo que implica que f ◦ g es inyectiva y g es inyectiva. Por lo demostrado anteriormente, esto implica que g es suprayectiva y de aquí biyectiva. De aquí, g tiene inversa y entonces f = g−1 . Lo que hace a f intectiva. (3) →(1): se sigue de lo anterior.  Observe que la Proposición 5.1.1 es falsa para conjuntos infinitos: |N| = |Z| y si consideramos f : N → Z dada por f (n) = n. Observe que f es inyectiva, pero no es suprayectiva ya que −1 6∈ Im( f ). 

Ejemplo 5.1 Mostremos que |N| = |Z|. Para ver esto, note que

  1 2 3 4 5 6 7 8 9 ··· 0 1 −1 2 −2 3 −3 4 −4 · · · describe una biyección f : N → Z.



El hecho que N y Z tengan la misma cardinalidad nos da la idea de querer comparar cardinalidades de otros conjuntos infinitos. Sin embargo, George Cantor (1845-1918) fué el primero en dar un ingenioso argumento que mostraba que no hay funciones suprayectivas f : N → R. Esto mostraría que no hay funciones biyectivas y por supuesto, que |N| 6= |R|. Lo anterior nos hace pensar en que hay diferentes tipos de infinito. Los siguientes ejemplos muestran que los intervalos (0, ∞) y (0, 1) sobre R tienen la misma cardinalidad. Y que su cardinalidad es la misma que la de R. Ejemplo 5.2 Demostremos que |(0, ∞)| = |(0, 1)|. Necesitamos hallar una biyección f : (0, ∞) → (0, 1). Describimos esta función geométricamente: consideremos el intervalo (0, ∞) como la parte positiva del eje x de R2 . Sea el intervalo (0, 1) en el eje y como lo muestra la Figura 5.1, así que (0, ∞) y (0, 1) son perpendiculares entre sí. Tomando el punto P = (−1, 1), definamos f (x) como el punto en (0, 1) donde la línea de P a x ∈ (0, ∞) intersecta al eje y. Por similitud de triángulos, tenemos 

1 f (x) = , x+1 x

5.2 Conjuntos contables y no contables

73

Figura 5.1: Una biyección f : (0, ∞) → (0, 1).

y de aquí, f (x) =

x . x+1

Es claro que f : (0, ∞) → (0, 1) es biyectiva. 



Ejemplo 5.3 Mostremos que |R| = |(0, 1)|. Por la biyección natural g : sR → (0, ∞)

dada por g(x) = 2x , tenemos que |R| = |(0, ∞)|. Y usando el Ejemplo 5.2, se obtiene el resultado deseado. 

5.2

Conjuntos contables y no contables Definición 5.2.1 — Conjunto infinito contable. Sea A un conjunto. Entonces A es

infinito contable si |N| = |A|, esto es, si existe una biyección N → A. El conjunto A es infinito no contable si es infinito y |N| 6= |A|, esto es, si A es infinito y no existe una biyección N → A. 

Ejemplo 5.4 Z es infinito contable y R es infinito no contable.



Definición 5.2.2 La cardinalidad de los números naturales es denotado como ℵ0 . De

aquí, |N| = ℵ0 . Cualquier conjunto infinito contable tiene cardinalidad ℵ0 . Notación 5.1. El símbolo ℵ es la primera letra del alfabeto hebreo, y se lee “aleph”. El símbolo ℵ0 se lee “aleph naught”). Por lo tanto, |Z| = ℵ0 y |R| 6= ℵ0 . 

Ejemplo 5.5 Sea 2Z = {2k | k ∈ Z} el conjunto de los enteros pares. La función f : Z →

2Z definido por f (n) = 2n es una biyección, así que tenemos que |Z| = |2Z|. De aquí, como |N| = |Z| = |2Z|, el conjunto 2Z es infinito contable y |2Z| = ℵ0 .  Observe que si A es infinito contable, entonces hay una biyección f : N → A. Esto nos permite escribir al conjunto A como una lista infinita f (1), f (2), f (3), f (4), . . . Recíprocamente, si los elementos de A pueden ser escritos en forma de lista infinita como a1 , a2 , a3 , . . . entonces la función f : N → A definida como f (n) = an es una biyección, y de aquí, A es infinito contable. En resumen, Teorema 5.2.1 Un conjunto A es infinito contable si y solamente si sus elementos

Capítulo 5. Cardinalidad

74

Figura 5.2: Q.

pueden ser ordenados en una lista infinita a1 , a2 , a3 , a4 , . . . Como un ejemplo de como este teorema puede ser usado, sea P denotando el conjunto de todos los números primos. Dado que podemos enlistar los elementos como 2, 3, 5, 7, 11, 13, . . ., se sigue que P es infinito contable. Como otra consecuencia del Teorema 5.2.1, note que podemos interpretar el hecho que el conjunto R no es infinito contable porque no podemos poner los elementos de R en una lista infinita. Esto nos lleva a la siguiente pregunta: ¿es posible escribir los elementos de Q como una lista infinita? La respuesta, no es obvia, pero es afirmativa. Teorema 5.2.2 El conjunto Q de los números racionales es infinito contable.

Demostración. Necesitamos encontrar una manera de escribir el conjunto Q en forma de lista ordenada infinita. Para hacer esto, comencemos colocando todos los números racionales en un arreglo rectangular infinito: primero, colocamos en la fila superior a todos los enteros, comenzando con el 0 y alternando los signos mientras vamos incrementando en 1. A continuación, llenamos cada columna que tiene a la cabeza al entero k colocando todas las fracciones (en forma reducida) con numerador k. Por ejemplo, la columna encabezada por 2 contiene las fraccciones 21 , 23 , 25 , 27 , . . .. El lector debe examinar la Figura 5.2 y convencerse de que contiene todos los números racionales. Ahora, dibujemos un camino infinito en este arreglo, iniciando en 01 y siguiendo el camino como se muestra en la Figura 5.3, y obtenemos la siguiente lista infinita de números racionales: 1 1 2 2 1 1 1 1 2 2 2 2 3 0, 1, , − , −1, 2, , , − , , , − , , − , − , − , −2, 3, , . . . 2 2 3 5 3 3 4 4 7 7 5 3 2

5.2 Conjuntos contables y no contables

75

Figura 5.3: Un camino infinito iniciando en 01 .

Por el Teorema 5.2.1, se sigue que Q es contable infinito.



Teorema 5.2.3 Si A y B son infinitos contables, entonces A × B es infinito contable.

Demostración. Supongamos que A = {a1 , a2 , a3 , a4 , a5 , . . .} y B = {b1 , b2 , b3 , b4 , b5 , . . .} son dos conjuntos infinitos contables. Por el Teorema 5.2.1, podemos escribir a A y a B en forma de lista infinita: a1 , a2 , a3 , a4 , a5 , . . . b1 , b2 , b3 , b4 , b5 , . . . La Figura 5.4 muestra como los elementos de A × B se pueden colocar en un arreglo rectangular infinito y como podemos dibujar un camino infinito iniciando con (a1 , b1 ) y obtener la siguiente lista infinita de elementos de A × B: (a1 , b1 ), (a1 , b2 ), (a2 , b2 ), (a2 , b1 ), (a3 , b1 ), (a3 , b2 ), (a3 , b3 ), (a2 , b3 ) . . . De aquí, A × B puede ser escrito en forma de lista, así que por lo tanto es contable infinito.  Una consecuencia del Teorema 5.2.3 es que el conjunto Q × Q es infinito contable. En general, podemos mostrar que el producto de un número finito de conjuntos infinitos contables es también infinito contable. Corolario 5.2.4 Dados n conjuntos infinitos contables A1 , A2 , . . . , An con n ≥ 2, el

producto cartesiano A1 × A2 × · · · × An es también contable infinito.

Capítulo 5. Cardinalidad

76

Figura 5.4: Un camino infinito iniciando en (a1 , b1 ). Teorema 5.2.5 Si A y B son infinitos contables, entonces A ∪ B es infinito contable.

Demostración. Supongamos que A = {a1 , a2 , a3 , a4 , a5 , . . .} y B = {b1 , b2 , b3 , b4 , b5 , . . .} son dos conjuntos infinitos contables. Por el Teorema 5.2.1, podemos escribir a A y a B en forma de lista infinita: a1 , a2 , a3 , a4 , a5 , . . . b1 , b2 , b3 , b4 , b5 , . . . Podemos “barajar” A y B en una nueva lista infinita A ∪ B como sigue: a1 , b1 , a2 , b2 , a3 , b3 , a4 , b4 , a5 , b5 . . . De aquí, A ∪ B es infinito contable.

5.3



Conjuntos finitos Definamos In para n ∈ N como In = {k ∈ N : 1 ≤ k ≤ n} = {1, 2, 3, 4, . . . , n}. En particular I0 = 0/ puesto que 0 < 1. Esto es equivalente a la fórmula recursiva ( 0/ si n = 0 In = In−1 ∪ {n} si n > 0. La verificación se puede hacer por inducción usando que para todo n ∈ N no existe m ∈ N tal que n < m < n + 1. (Esto se debe a que si existiera tal m, entonces existirían p, q ∈ N, p, q ≥ 1 tales que n + p = m y m + q = n + 1; pero entonces n + (p + q) = n + 1 lo cual es una contradicción porque p + q 6= 1.)

5.3 Conjuntos finitos

77

Ejercicio 5.1 Verifique que, en general,

Im+n = Im ∪ {m + 1, m + 2., . . . , m + n}. 

Definición 5.3.1 — Conjunto finito. Un conjunto A es finito si existe exactamente una

n ∈ N tal que A ∼ In (esto incluye el caso A = 0/ ya que A ∼ I0 ), es decir, si existe una función biyectiva f : A → In . En este caso, decimos que A es finito de cardinalidad n, y escribimos |A| = n. Teorema 5.3.1 — Principio básico de la suma. Si A y B son conjuntos finitos y

disjuntos, entonces |A ∪ B| = |A| + |B|. Demostración. Puesto que A y B son finitos, existen m, n ∈ N tal que |A| = m y |B| = n y funciones biyectivas f : A → Im y g : B → In . Usando el Ejercicio 5.1, definamos la función h : A ∪ B → Im+n de la siguiente manera: ( f (x) si x ∈ A h(x) = g(x) + m si x ∈ B. Esta función h es una biyectiva. Por lo tanto, |A ∪ B| = m + n = |A| + |B|.  En general, Ejercicio 5.2 Si A1 , A2 , . . . , An son conjuntos mutuamente disjuntos; es decir, Ai ∩ A j =

0/ para todo 1 ≤ i < j ≤ n, entonces n

| ∪ni=1 Ai | = ∑ |Ai |. i=1



Corolario 5.3.2 Sean A y B conjunto finitos tales que A ⊆ B, entonces |A| ≤ |B|.

Demostración. Ya que B = A ∪ (B \ A) con A y B \ A conjuntos disjuntos, por el principio básico de la suma (Teorema 5.3.1) tenemos |B| = |A ∪ (B \ A)| = |A| + |B \ A| y se sigue que |A| ≤ |B|.



Capítulo 5. Cardinalidad

78

Teorema 5.3.3 — Principio básico del producto. Si A, B son conjuntos finitos, en-

tonces |A × B| = |A| · |B|. Demostración. (Por inducción sobre |B|). En el caso base |B| = 0 se tiene que A × B = 0; / por lo tanto |A × B| = 0 y |A| · |B| = 0. Ahora, si |B| = 1, sea B = {b} y tenemos que la función f : A × B → A definida por f (a, b) = a es biyectiva y por lo tanto |A × B| = |A|. Ya que |B| = 1, se tiene que |A × B| = |A| · |B|. Ahora consideramos B con |B| > 1 y tomamos b ∈ B, entonces podemos escribir B = B0 ∪ {b} donde B0 = B \ {b}. Por hipótesis de inducción |A × B0 | = |A| · |B0 |. Observemos que podemos escribir A × B como la unión disjunta A × B = (A × B0 ) ∪ (A × {b}), y por el principio básico de la suma (Teorema 5.3.1) tenemos |A × B| = = = = =

|(A × B0 ) ∪ (A × {b})| |A × B0 | + |A × {b}| |A| · |B0 | + |A| · 1 |A| · (|B0 | + 1) |A| · |B|. 

En general, Ejercicio 5.3 Si A1 , A2 , . . . , An son conjuntos finitos; entonces n

|A1 × A2 × · · · × An | = ∏ |Ai |. i=1



Problema 5.1 Sean A, B conjuntos finitos. Entonces |A ∪ B| = |A| + |B| − |A ∩ B|. Problema 5.2 Si A1 , A2 , . . . , An son conjuntos mutuamente disjuntos; es decir, Ai ∩ A j = 0/

para todo 1 ≤ i < j ≤ n, entonces n

| ∪ni=1 Ai | = ∑ |Ai |. i=1

5.3 Conjuntos finitos

79

Teorema 5.3.4 — Principio básico del producto. Si A, B son conjuntos finitos, en-

tonces |A × B| = |A| · |B|. Demostración. Por inducción sobre |B|. En el caso base |B| = 0 se tiene que A × B = 0; / por lo tanto |A × B| = 0 y también |A| · |B| = 0. En el caso base |B| = 1, sea B = {b} y entonces la función f : A × B → A definida por f ((a, b)) = a es biyectiva y prueba que |A × B| = |A|. Por tanto, dado que |B| = 1, se tiene que |A × B| = |A| · |B|. Ahora consideramos B con |B| > 1. Entonces tomando cualquier b ∈ B, tenemos B = B0 ∪ {b} donde B0 = B \ {b}. Por hipótesis de inducción |A × B0 | = |A| · |B0 |. Entonces de la igualdad A × B = (A × B0 ) ∪ (A × {b}), donde la unión es disjunta, se obtiene |A × B| = = = = =

|(A × B0 ) ∪ (A × {b})| |A × B0 | + |A × {b}| |A| · |B0 | + |A| · 1 |A| · (|B0 | + 1) |A| · |B|. 

Problema 5.3 Si A1 , A2 , . . . , An son conjuntos finitos; entonces n

|A1 × A2 × · · · × An | = ∏ |Ai |. i=1

Problema 5.4 Sean A, B conjuntos finitos. Entonces |A ∪ B| = |A| + |B| − |A ∩ B|. Problema 5.5 Muestra que los siguientes pares de conjuntos tiene la misma cardinalidad

dando una biyección de uno en otro. Describe la biyección por medio de una fórmula. 1. R y (0, ∞). 2. R y (0, 1). 3. A = {3k | k ∈ Z} y B = {7k | k ∈ Z}. 4. Z y S = {. . . , 81 , 14 , 21 , 1, 2, 4, 8, 16, . . .} 5. {0, 1} × N y N 6. [0, 1] y (0, 1) Problema 5.6 Demuestra que {ln(n) | n ∈ N} ⊂ R es contable infinito. Problema 5.7 Prueba que el conjunto {(5n, −3n) | n ∈ Z} es contable infinito. Problema 5.8 Decida si los siguiente enunciados son verdero o falso: 1. Existe un subconjunto contable infinito del conjunto de los números racionales Q. 2. El conjunto Q100 es contable infinito. 3. El conjunto {0, 1} × N es contable infinito. 4. Si A = {X ⊂ N | X es finito}, entonces |A| = ℵ0 .

80

Capítulo 5. Cardinalidad

Si es verdadero exhiba una prueba y si es falso exhiba un contraejemplo. Problema 5.9 Describe una partición de N que divida a N en ocho subconjuntos infinitos contables. Problema 5.10 El Teorema 5.2.3 implica que N × N es infinito contable. Construye una prueba de este hecho mostrando que la función φ : N × N → N definida como φ (m, n) = 2n−1 (2m − 1) es biyectiva.

6. Combinatoria

6.1

Técnicas de conteo Definición 6.1.1 — Ordenación con repetición. Sea A un conjunto con m elemen-

tos, una n-ordenación (con repetición) de A es una función f : In → A. Denotamos por ORnm el número de n-ordenaciones. Teorema 6.1.1 Sea A un conjunto con m elementos, entonces

ORnm = mn . Demostración. Primero demostremos que ORnm = m · ORn−1 m : si A tiene m elementos y f : Im−1 → A es una función, entonces habrán m funciones de Im → A que extienden a f . Es decir, por cada función de Im−1 en A hay n funciones de Im en A, lo que demuestra la fórmula. Ahora podemos demostrar el teorema por inducción sobre n. El caso n = 1 es trivial pues OR1m = m pues I1 = {1} y cada función queda determinada por un elemento de A. n−1 . Supongamos que la fórmula es cierta para n − 1, es decir, ORn−1 m =m n−1 = mn . Entonces ORnm = m · ORn−1  m = m·m Definición 6.1.2 — Ordenación sin repetición. Sea A un conjunto con m elementos,

una n-ordenación (sin repetición) de A es una función inyectiva f : In → A. Denotamos por Onm el número de n-ordenaciones. Observe que el principio del palomar nos dice que f : In → A es inyectiva si y solamente si n ≤ m. Ahora, observe que si n = 1, O1m = m pues hay m funciones inyectivas de I1 → A. Para el caso cuando n = 2, observemos que I2 = I1 ∪ {2}, cada función inyectiva f1 : I1 → A se

Capítulo 6. Combinatoria

82

puede extender a una función inyectiva f : I2 → A de m − 1 formas (pues f (2) ∈ A solo puede tomar m − 1 valores posibles), en conclusión, O2m = O1m · (m − 1) = m(m − 1). Para el caso general, n ≤ m procedemos de manera similar, cada función inyectiva f1 : In−1 → A se puede extender a una función inyectiva f : In → A de m − (n − 1) formas (pues f (n) ∈ A solo puede tomar m − (n − 1) valores posibles), en conclusión, Onm = On−1 m · (m − n + 1) = m(m − 1)(m − 2) · · · (m − n + 1). Hemos demostrado el siguiente Teorema 6.1.2 Si A es un conjunto con m elementos y n ≤ m

Onm = m(m − 1)(m − 2) · · · (m − n + 1). Definición 6.1.3 — Permutación. Sea A un conjunto con m elementos, una permu-

tación de A es una función biyectiva f : A → A. Denotamos por Pm el número de permutaciones. Teorema 6.1.3 Si A es un conjunto con m elementos, entonces

Pm = m! = m(m − 1)(m − 2) · · · 1. Demostración. Sabemos que toda función inyectiva entre conjuntos finitos de la misma cardinalidad es biyectiva. Entonces por el Teorema 6.1.2 tenemos Pm = Om m = m(m − 1) · · · 2 · 1.  

Ejemplo 6.1 ¿De cuántas maneras se pueden acomodar cinco libros en un librero? Como

son cinco libros que se quieren acomodar en el librero, entonces necesitamos calcular permutaciones, por lo tanto, P5 = 5! = 120. Los libros se pueden acomodar de 120 maneras distintas.



Definición 6.1.4 — Combinación. Sea A un conjunto con n elementos, una combi-

nación de k elementos de A es un subconjunto B ⊆ A con k elementos. Al n úmero de combinaciones de k elementos de A lo denotamos por nk o por Cnk . 3  Ejemplo 6.2 Sea A = {a, b, c}. Entonces / es el único conjunto de 0 0 = 1 porque 0  3 elementos y de manera análoga, 3 = 1 pues A ⊆ A. Calculemos 31 : para esto necesitamos calcular todos los subconjuntos de A que contienen únicamente un elemento,   dichos subconjuntos son {a}, {b} y {c}. Por lo tanto, 31 = 3. De manera similar, 32 = 3.  Lema 6.1.4

1. Si f : X → Y es sobre, { f −1 (y)}y∈Y es una partición de X.

6.1 Técnicas de conteo

83

2. Si X, Y son finitos y f : X → Y es suprayectiva y | f −1 (y)| = k (constante) ∀y ∈ Y entonces |X| = k|Y |. Demostración. (1) Demostremos que { f −1 (y)}y∈Y es una partición de X. Observemos primero que para y ∈ Y , f −1 (y) 6= 0/ porque f es suprayectiva. Ahora, supongamos que para y1 , y2 ∈ Y con y1 6= y2 tales que f −1 (y1 ) ∩ f −1 (y2 ) 6= 0, / entonces existe x ∈ f −1 (y1 ) ∩ f −1 (y2 ), por lo tanto, f (x) = y1 y f (x) = y2 y de aquí, y1 = y2 (contradicción). Solo nos resta probar que X = ∪y∈Y f −1 (y). Para esto, sea x ∈ X, entonces f (x) ∈ Y y x ∈ f −1 (( f (x)) = ∪y∈Y f −1 (y). Lo que concluye la demostración. (2) Se sigue de (1) y del principio básico de la suma (Teorema 5.3.1).  Sea A un conjunto con n elementos, denotemos por Ok (A) al conjunto de todas las k- ordenaciones de A. Denotemos por Ck (A) el conjunto de todas las combinaciones de k elementos de A. Definamos una función φ : Ok (A) → Ck (A) de la siguiente manera: k primero observe que una k-ordenación se puede escribir como f = a11 a22 a33 ··· ··· ak . Ya que f es inyectiva, ai 6= a j ∀i 6= j. Así que definimos φ de la siguiente manera: φ ( f ) = {a1 , a2 , a3 , . . . , ak } Claramente φ es suprayectiva, pues si {b1 , b2 , b3 , . . . , bk } ∈ Ck (A), definimos f = b11 b22 b33 ··· ··· Además, por cda {a1 , a2 , a3 , . . . , ak } ∈ Ck (A), observe que | f −1 (a1 , a2 , a3 , . . . , ak )| = k!. Por el Lema 6.1.4, {φ −1 ( f )} f ∈Ck (A) es una partición de Ok (A) y por lo tanto, Ok (A) = ∪ f ∈Ck (A) φ −1 ( f ). Además: Okn

= |Ok (A)| =



f ∈Ck (A)



−1

  n ( f )| = ∑ k! = k!|Ck (A)| = k! . k f ∈C (A)

De la ecuación anterior, despejando

k

n k

se tiene:

  n Okn n(n − 1) · · · (n − k + 1) n(n − 1) · · · (n − k + 1)(n − k)! = = = k k! k! (n − k)!k! Hemos probado el siguiente teorema: Teorema 6.1.5 Sea A un conjunto con n elementos. Para k ≤ n,

  n n! = . k (n − k)!k!

C

En la prueba del Teorema 6.1.5 obtuvimos la siguiente fórmula que relaciona las permutaciones, las combinaciones y las ordenaciones: Okm = Cmk · Pk

Proposición 6.1.6   — El teorema de Pascal. Sean n, k ∈ N, k ≤ n. Tenemos n 1. nk = n−k . n 2. Si n ≥ 2, k =

n−1 n−1 + k−1 k .

k bk

 .

Capítulo 6. Combinatoria

84

Demostración. (1) Sea A un conjunto con n elementos, para cada subconjunto B de A de cardinalidad k, se tiene que |Bc | = n − k (pues A = B ∪ (B \ A) forman una partición). De aquí, |Ck (A)| = |Cn−k (A). Y el resultado se sigue. (2) Se sigue realizando un cálculo directo. 

6.2

El teorema del binomio Teorema 6.2.1 — El binomio de Newton. Sea n ∈ N. n

  n n−k k (a + b) = ∑ a b. k=0 k n

Demostración. Recuerde que (a + b)n = (a + b)(a + b) · · · (a + b) (n veces). Para obtener el coeficiente de an−k bk tenemos n − k paréntesis para obtener an−k . De los restantes k paréntesis, obtenemos bk . Multiplicando tenemos an−k bk . Esta elección lapodemos hacer    n n de n−k maneras. Pero n−k = nk . Así que an−k bk lo obtenemos de nk maneras. Y el resultado se sigue.   Debido a que los números nk aparecen como los coeficientes en el binomio de Newton, a estos números también se les conoce como los coeficientes binomiales. Problema 6.1 Cuántos números telefónicos de seis cifras hay que comiencen con 1, 2, 3, 4, 5 o 6? Problema 6.2 Cuántas banderas tricolores pueden formarse con siete colores distintos? Problema 6.3 Cuántas placas de automóvil pueden hacerse que consten de dos letras y tres cifras (considere 27 letras)? Problema 6.4 Cuántas placase de automóvil hay que consten de dos letras y tres cifras si la primera es la A y la segunda letra de la A a la F? Problema 6.5 Entre un grupo de 30 personas se debe elegir una comisión formada por cuatro. De cuántas maneras se puede seleccionar dicha comisión? Problema 6.6 Entre un grupo de 30 personas se debe elegir una mesa directiva que conte de un presidente, un secretario, un tesorero y un vocal. De cuántas maneras se puede hacer la selección? Problema 6.7 Entre un grupo de 30 personas se debe elegir una mesa directiva que conte de un presidente, un secretario, y dos vocales. De cuántas maneras se puede hacer la selección? Problema 6.8 Cuántas placas de 7 cifras distintas pueden formarse si la primera, la cuarta y la séptima deben ser cifras impares? Problema 6.9 Cuántos subconjuntos con tres elementos hay del conjunto A = {a, b, c, d, e} tales que contengan al elemento a? Escríbalos. Problema 6.10 Cuántos subconjuntos hay del conjunto A = {a, b, c, d, e} tales que contengan al elemento a? Problema 6.11 Sea A un conjunto con n elementos (n ≥ 4) y a un elemento de A. Cuántos subconjuntos de A con 4 elementos hay tales que contengan al elemento a? Problema 6.12 Cuántos subconjuntos con cuatro elementos hay del conjunto A = {a, b, c, d, e} tales que contengan a los elementos a y b? Escríbalos.

6.2 El teorema del binomio

85

Problema 6.13 Sea A un conjunto con n elementos y B un subconjunto de A con r

elementos. Cuántos subconjuntos S de A hay con m elementos, tales que S contenga a B? (n ≥ m ≥ r.) Problema 6.14 Cuántos subconjuntos con tres elementos hay del conjunto A = {a, b, c, d, e} tales que contengan al elemento a o al elemento b (pero no a ambos)? Problema 6.15 Entre un grupo de 30 personas se debe “elegir” una comisión formada por cuatro. Pero, por ciertas razones, en él debe figurar forzosamente Don Perpetuo o su hermano, pero no los dos, pues “se vería mal”. Cuántas comisiones pueden resultar “electos”? Problema 6.16 Consideremos una baraja simplificada con seis cartas numeradas del 1 al 3 y con dos palos únicamente: corazones y diamantes. 1. Cuántas manos de tres cartas hay que no contengan dos cartas con el mismo número? 2. Cuántas manos de tres cartas hay que tengan dos cartas del mismo número? 3. Cuántas manos de tres cartas hay que tengan exactamente un par? Problema 6.17 Sean S y T dos conjuntos con s y t elementos, respectivamente. Sea p : S × T → S la proyección (es decir, la función dada por p(x, y) = x, en donde (x, y) ∈ S × T ). Sea, como antes, Im = {1, 2, . . . , m} y supongamos que m ≤ s. Cuántas funciones f : Im → S × T hay tales que la composición Im → S × T → S sea inyectiva? Problema 6.18 La baraja completa consta de 52 cartas (13 “números”: 1, 2, 3, 4, 5, 6, 7,

8, 9, 10, J, Q, K y cuatro palos ♥, ♦, ♣, ♠). Una mano de póker consta de cinco cartas. 1. Cuántas manos posibles de póker hay? 2. Cuántas manos de póker hay que no tengan dos cartas del mismo número? 3. Cuántas manos de póker hay que tengan exactamente un par? (Es decir, que tengan dos cartas y solamente dos de un mismo número.) 4. Cuántas manos de póker hay que tengan exactamente dos pares (distintos)? 5. Cuántas manos de póker hay que tengan al menos tres cartas del mismo número? 6. Cuántas manos de póker hay exactamente una tercia (y que no sea full)? 7. Cuántas manos de póker hay que tengan full (es decir, que tengan un par y una tercia)? 8. Cuántas manos de póker hay que tengan póker (es decir, que haya cuatro cartas del mismo número.)? 9. Cuántas manos de póker hay tengan flor (es decir, que las cinco cartas sean del mismo palo.)? 10. Cuántas manos de póker hay que tengan corrida (es decir, que las cinco cartas tengan números consecutivos1 )? 11. Cuántas manos de póker hay que sean flor imperial (es decir, que sea flor y corrida.)? Problema 6.19 Cuántas diagonales se pueden trazar en un pentágono regular? Problema 6.20 Cuántas diagonales se pueden trazar en un polígono regular de n lados? Problema 6.21 En el dominó hay 28 fichas, de las cuales 7 son dobles. Una mano consta de siete fichas. 1. Cuántas manos posibles de domió hay? 1 la

numeración 10, J, Q, K, 1 se considera también una corrida

Capítulo 6. Combinatoria

86

2. Cuántas manos de dominó hay que tengan exactamente cuatro fichas dobles? 3. Cuántas manos de dominó hay que tengan por lo menos tres fichas dobles? Problema 6.22 — Propiedad de la suma-fila de Pascal. Demuestre que n   n ∑ k = 2n . k=0 Problema 6.23 — Propiedad de la suma-columna de Pascal. Use inducción sobre

n y demuestre que, para c ≥ 0, se tiene   n   k n+1 = . ∑ c+1 k=0 c Problema 6.24 — Propiedad de la suma-sureste de Pascal. Demuestre que: n

    r+k r+n+1 . ∑ k = n k=0 Problema 6.25 — Propiedad de la suma-noreste de Pascal. Para cualquier entero

no-negativo m tal que 0 ≤ m ≤ n, los coeficientes binomiales satisfacen la ecuación:    m  n−k n+1 = . ∑ m k=0 m − k Problema 6.26 — Propiedad de absorción. ¿Es cierto que:

    n n−1 k=n ? k k−1 Demuestre o de un contraejemplo. Problema 6.27 — Propiedad subconjunto-de-un-subconjunto. Demuestre que para

0 ≤ k ≤ m ≤ n,       n m n n−k = . m k k m−k

II

Álgebra Superior II 7

Polinomios . . . . . . . . . . . . . . . . . . . . . . . . 89

7.1 7.2

7.4 7.5 7.6 7.7 7.8 7.9

El anillo de polinomios K[X]: Generalidades Divisibilidad, Algoritmo de la división y m.c.d. en K[X] El Teorema fundamental de la Aritmética para polinomios Evaluación y raíces Multiplicidad de las raíces Polinomios en C[X] Polinomios en R[X] Polinomios en Q[X] PROBLEMAS

8

Matrices . . . . . . . . . . . . . . . . . . . . . . . . . 113

8.1 8.2 8.3 8.4 8.5 8.6 8.7 8.8 8.9

Definición formal Operaciones con matrices Multiplicación de matrices por vectores (Opcional) Matrices Elementales Matriz escalonada y matriz escalonada reducida Métodos de Gauss y de Gauss-Jordán La inversa de una matriz El rango de una matriz Ejercicios

9

Determinantes . . . . . . . . . . . . . . . . . . . 137

9.1 9.2 9.3 9.4 9.5

Cálculo de determinantes de matrices de 2 × 2 Cálculo de determinantes de matrices de 3 × 3 Cálculo de determinantes de matrices de n × n Matrices invertibles y determinantes Ejercicios

7.3

10 Sistemas de ecuaciones lineales 155 10.1 10.2 10.3 10.4 10.5 10.6 10.7 10.8

Sistemas de ecuaciones lineales y la inversa de una matriz Sistemas Equivalentes Métodos de Gauss y de Gauss-Jordán para resolver un sistema de ecuaciones lineales Rango y consistencia La regla de Cramer Los cuatro espacios fundamentales de una matriz Uso de la factorización PA = LU para resolver el sistema Ax = b Ejercicios

7. Polinomios

En este capitulo generalizaremos los polinomios que hemos estudiado en Álgebra Intermedia utilizando las técnicas que hemos estudiado en Álgebra Superior I.

7.1

El anillo de polinomios K[X]: Generalidades Sea K un campo, por ejemplo, K = Q, R, C o Z/pZ, donde p es un número primo (positivo). Se dice que f es un polinomio con coeficientes en K si es de la forma n

f = an X n + an−1 X n−1 + · · · + a1 X + a0 = ∑ ai X i , i=0

para algún n ∈ N0 = N ∪ {0}, donde X es una indeterminada sobre K (es decir, X 6∈ K) y ai ∈ K para algún 0 ≤ i ≤ n. Por convención, hacemos X 0 = 1. Los elementos ai se llaman los coeficientes de f . Decimos que dos polinomios son iguales si y solamente si coinciden en todos sus coeficientes, es decir, f = ∑ni=0 ai X i y g = ∑ni=0 bi X i , entonces f = g si y solamente si ai = bi , 0 ≤ i ≤ n. El conjunto de todos los polinomios f con coeficientes en K lo denotaremos por K[X]. C

K ⊆ K[X] ya que si a ∈ K entonces a = ∑ni=0 ai X i donde a0 = a y n = 0.

El polinomio nulo es el elemento 0K[X] , es decir, el polinomio 0K[X] = an X n +an−1 X n−1 + · · · + a1 X + a0 donde ai = 0 ∀i. Si el contexto es claro, denotamos al polinomio nulo simplemente como 0. Si f no es el polinomio nulo, es decir f 6= 0, entonces se puede escribir para algún n ∈ N0 en la forma n

f = ∑ ai X i con an 6= 0. i=0

Capítulo 7. Polinomios

90

En ese caso, decimos que n es el grado de f y lo denotamos por gr( f ), an es el coeficiente principal de f y lo denotamos por cp( f ), a0 es el coeficiente constante (o término independiente) de f . Tomamos el acuerdo que, el polinomio nulo tiene grado −∞. Cuando el coeficiente principal de un polinomio f es igual a 1, decimos que f es mónico. Notemos que para todo f ∈ K[X] \ {0}, se tiene que gr( f )∈ N0 . Las operaciones + y · del campo K se trasladan al conjunto K[X] en forma natural, en el anillo de polinomios se suma coeficiente a coeficiente y se multiplica aplicando la distributividad: Si f = ∑ni=0 ai X i , g = ∑ni=0 bi X i ∈ K[X], entonces n

f + g = ∑ (ai + bi )X i ∈ K[X]. i=0

Si f = ∑ni=0 ai X i , g = ∑mj=0 b j X j ∈ K[X], entonces n+m

f ·g =

∑ ck X k donde ck = ∑ k=0

ai b j .

i+ j=k

Ejemplo 7.1 Sean f = 5X 4 − 2X 3 + 3X 2 − X + 1 y g = 3X 3 − X 2 + X − 3. Entonces



f + g = 5X 4 + X 3 + 2X 2 − 2 y f · g = 15X 7 − 11X 6 + 16X 5 − 23X 4 + 13X 3 − 11X 2 + 4X − 3. Observe que gr( f + g)= 4 =máx {gr( f ), gr(g)} y que gr( f · g)=7 = gr( f )+gr(g). Además, tenemos que cp(f· g) = 15 = 5 · 3 = cp( f )· cp (g) y que cp( f + g) 6= cp( f )+ cp(g).  

Ejemplo 7.2 Sean f = 2X 3 + 3X − 1, g = −2X 3 + 2X 2 − 1 y h = −3X 3 − 2. Entonces

f + g = 2X 2 + 3X − 2 y f + h = −X 3 + 3X − 3. En este caso, gr( f + g) = 2 m. Observe que ai = 0 por ser i > m y bi = 0 pues i > m ≥ n. De aquí se sigue que ai + bi = 0 para cada i > m. 

7.2 Divisibilidad, Algoritmo de la división y m.c.d. en K[X] Ejercicio 7.1 Si gr( f ) 6= gr(g), entonces gr( f + g) = máx{gr( f ), gr(g)}.

91 

Teorema 7.1.2 El grado del producto de dos polinomios no nulos es la suma de los

grados de los factores. Demostración. Sean f = ∑ni=0 ai X i con an 6= 0 y g = ∑mj=0 b j X j con bm 6= 0, por definición el coeficiente de X m+n es a0 bm+n + a1 bm+n−1 + · · · + an−1 bm+1 + an bm + an+1 bm−1 + · · · + an+m b0 Observe que en la suma anterior aparece an bm el cual no es cero, pues an 6= 0 y bm 6= 0. Ahora, el resto de los sumandos ai b j son cero, puesto que i + j = m + n, lo que implica que o i > n o j > m. En el primer caso, ai = 0 y en el segundo b j = 0. Por lo tanto, concluimos que el coeficiente de X m+n es an bm , el cual es distinto de cero. Resta demostrar que el coeficiente de X s en el producto es cero para cada s > m + n. Dicho coeficiente es la suma de los ai b j con i + j = s > m + n. Lo que implica que i > n o que j > m, y en ambos casos ai b j = 0.  Ejercicio 7.2 Para todo k ∈ N se tiene que f k = 6 0 si f 6= 0. Además, gr( f k ) = k gr( f ). 

Como consecuencia del Teorema anterior, deducimos inmediatamente quiénes son los polinomios en K[X] que tiene inverso multiplicativo. Teorema 7.1.3 Sea K un campo. Entonces f ∈ K[X] es inversible si y solamente si

f ∈ K × . O sea, los elementos inversibles en K[X] son los polinomios no nulos de grado cero. Demostración. Sea f ∈ K[X] inversible. Por lo tanto, f 6= 0 y existe g ∈ K[X] tal que f · g = 1. Esto implica que g 6= 0 también y que gr(1) =gr( f · g), esto es, 0 = gr( f ) + gr(g). Como gr( f ), gr(g) ∈ N0 , la única posibilidad es gr( f ) = 0 = gr(g) y por lo tanto, f , g ∈ K y son no nulos. Es decir, f , g ∈ K × . Recíprocamente, sea f ∈ K × . Entonces, como K es un campo, f es inversible. 

7.2

Divisibilidad, Algoritmo de la división y m.c.d. en K[X] En resumen, lo que mostramos en la sección anterior es que K[X] es un anillo conmutativo (específicamente, un dominio entero) y que, al igual que Z, no es un campo (el Teorema 7.1.3 muestra que los únicos polinomios inversibles son los polinomios no nulos de grado 1), así que tiene sentido estudiar la divisibilidad en K[X] (al igual que lo hacemos en Z). Definición 7.2.1 Sean f , g ∈ K[X] con g 6= 0. Decimos que g divide a f (lo denotamos

por g | f ), si existe un polinomio q ∈ K[X] tal que f = q · g. Es decir, g | f ⇔ ∃q ∈ K[X] tal que f = q · g.

Capítulo 7. Polinomios

92

En caso contrario, se dice que g no divide a f y lo denotamos por g - f . La divisibilidad de polinomios tiene las siguientes propiedades: Todo polinomio g 6= 0 satisface que g | 0. g | f si y solamente si cg | f para toda c ∈ K × . Sean f , g no nulos tales que g | f y gr(g) = gr( f ). Entonces g = c f para algún c ∈ K ×. Si g | f y f | g si y solamente si f = cg para algún c ∈ K × . Para todo f ∈ K[X], f ∈ / K, tenemos c | f y c f | f , para todo c ∈ K × . Definición 7.2.2 Sea f ∈ K[X].

Decimos que f es irreducible en K[X] cuando f 6∈ K y los únicos divisores de f son de la forma g = c o g = c f para alguna c ∈ K × . O sea, f tiene únicamente dos divisores mónicos (distintos), que son 1 y cp(1 f ) f . Decimos que f es reducible en K[X] cuando f 6∈ K y f tiene algún divisor g ∈ K[X] con g 6= c y g 6= c f , para toda c ∈ K × , es decir, f tiene algún divisor g ∈ K[X] (no nulo por definición) con 0 < gr(g) < gr( f ). Notemos que la noción de irreducible en K[X] es análoga a la noción de primo en Z. Proposición 7.2.1 Sea f ∈ K[X], f 6= 0. Si gr( f ) = 1 entonces f es irreducible.

Demostración. Sabemos que f 6= 0 y, como gr( f ) = 1 entonces f no puede ser constante. Veamos cuáles son los divisores de f : sea g ∈ K[X] tal que g | f . Entonces f = gh para algún h ∈ K[X]. Ahora, tomando grados en la igualdad, resulta que 1 = gr( f ) = gr(g) + gr(h). Luego gr(g) = 0 o gr(g) = 1. Si gr(g) = 0, entonces g es constante. Y si gr(g) = 1 entonces gr(h) = 0 y h es constante. El resultado se sigue.  También notemos que todo polinomio de grado 1 es irreducible. Pero no solamente ellos, dependiendo del campo K podemos “perder” irreducibilidad. 

Ejemplo 7.3 El polinomio X 2 + 1 ∈ R[X] es irreducible en R[X], pues si fuera reducible,

tendría un divisor mónico de grado 1 y por lo tanto, se tendría que X 2 + 1 = (X + a)(X + b) con a, b ∈ R, lo que implica que a + b = 0, i.e., b = −a y ab = 1, i.e. −a2 = 1, lo cual es imposible en R. Sin embargo, es reducible en C[X] ya que X 2 + 1 = (X − i)(X + i), i.e., X − i | X 2 + 1 en C[X].  

Ejemplo 7.4 El polinomio X 2 − 2 ∈ Q[X] es irreducible en Q[X], pues si fuera reducible,

tendría un divisor mónico de grado 1 y por lo tanto, se tendría que X 2 − 2 = (X + a)(X + b) con a, b ∈ Q, lo que implica que a + b = 0, i.e., b = −a y ab = −2, i.e. a2 = 2, lo cual es imposible es reducible en R[X] y en C[X] ya que √ para a√∈ Q. Sin embargo, √ 2 2 X − 2 = (X − 2)(X + 2), i.e., X − 2 | X − 2 en R[X] y en C[X].  La divisibilidad de polinomios cumple exactamente las mismas propiedades que la divisibilidad de números enteros, como es mostrado en la Figura 7.1. Problema 7.1 Demuestra cada una de las afirmaciones de la Figura 7.1. Teorema 7.2.2 Dados f , g ∈ K[X] no nulos, existen únicos q, r ∈ K[X] que satisfacen

f = q · g + r con r = 0 o gr(r) < gr(g)

7.2 Divisibilidad, Algoritmo de la división y m.c.d. en K[X]

93

Figura 7.1: Comparativa entre las propiedades de divisibilidad entre Z y Z[X].

Se dice que q es el cociente y r es el resto de la división de f por g, que denotaremos por rg ( f ). Demostración. Existencia de q y r: Dado f , g ∈ K[X] no nulos, consideramos el conjunto A = { f − qg ˜ | q˜ ∈ K[X]} ⊂ K[X], que es claramente un conjunto 6= 0/ pues, por ejemplo, f ∈ A tomando q˜ = 0. Si 0 6∈ A, elijamos un polinomio r ∈ A de grado mínimo, y si 0 ∈ A, elijamos r = 0. Es decir, ∃q ∈ K[X] tal que r = f − qg y r = 0 o gr(r) ≤ gr(˜r), ∀˜r ∈ A. Por lo tanto, f = qg + r y se afirma que si r 6= 0, entonces gr(r) < gr(g). Pues si fuera que gr(r) ≥ gr(g), podemos considerar el polinomio cp(r) gr(r)−gr(g) X g cp(g) cp(r) gr(r)−gr(g) X g = f − qg − cp(g)   cp(r) gr(r)−gr(g) = f − q+ X g ∈ A. cp(g)

r˜ = r −

Es fácil verificar que los dos sumandos tienen el mismo grado, y en esta resta, se cancela el coeficiente principal de r. Por lo tanto gr(˜r) < gr(r), lo que contradice el hecho que r tenía grado mínimo en A. Unicidad de q y r: Supongamos que existen q1 , r1 , q2 , r2 ∈ K[X] con r1 = 0 o gr(r1 ) < gr(g) y r2 = 0 o gr(r2 ) < gr(g) tales que f = q1 g + r1 = q2 g + r2 . Entonces (q1 − q2 )g = r2 − r1 implica g | r2 − r1 . Pero si r2 − r1 6= 0, se tiene que gr(r2 − r1 ) < máx{gr(r2 ), gr(r1 )} < gr(g),

Capítulo 7. Polinomios

94

luego no puede ser divisible por g. Por lo tanto, r2 − r1 = 0, i.e., r1 = r2 de lo que se deduce que q1 = q2 pues (q1 − q2 )g = 0 con g 6= 0 implica que q1 − q2 = 0.  

Ejemplo 7.5 Sean f = X 5 + X 4 − 3X 3 + 4X 2 + 2X y g = X 4 + 3X 3 − X 2 − 6X − 2,

entonces f = (X − 2)g + r con r = 4X 3 + 8X 2 − 8X − 4. 

Definición 7.2.3 Sea f , g ∈ K[X] no ambos nulos. El máximo común divisor entre

f y g, que se denota por ( f : g), es el polinomio mónico de mayor grado que divide simultáneamente a f y a g.

C

No es obvio en este caso que este polinomio es único, de hecho es una consecuencia de las propiedades siguientes que se cumplen para un polinomio mónico de mayor grado que es divisor común de f y g , y de los resultados que se deducen de esas propiedades. ( f : 0) = cp(f f ) , ∀ f ∈ K[X] no nulo. Sean f , g ∈ K[X] con g nulo. Si f = qg + r para q, r ∈ K[X], entonces ( f : g) = (g : r).



Ejemplo 7.6 Sean f , g ∈ K[X], g 6= 0. Entonces:

Sea c ∈ K × , (c : g) = 1. Si g | f , entonces ( f : g) =

g cp(g) . 

Teorema 7.2.3 — Algoritmo de la división. Sean f , g ∈ K[X] no nulos. Entonces

( f : g) es el último resto rk no nulo (dividido por su coeficiente principal para volverlo mónico) que aparece en la sucesión de divisiones siguiente f = q1 g + r1 con gr(r1 ) < gr(g) g = q2 r1 + r2 con gr(r2 ) < gr(r1 ) r1 = q3 r2 + r3 con gr(r3 ) < gr(r2 ) .. . rk−2 = qk rk−1 + rk con gr(rk ) < gr(rk−1 ) rk−1 = qk+1 rk Luego, despejando rk en el Teorema 7.2.3 de la anteúltima igualdad, y volviendo hacia arriba despejando paso a paso rk−1 , rk−2 , . . . , r2 , r1 en las desigualdades anteriores, se logra escribir rk en la forma rk = s0 f + t 0 g. Finalmente, dividiendo toda la expresión por la constantes cp(rk ), se obtienen s,t ∈ K[X] tales que ( f : g) = s f + tg. 

Ejemplo 7.7 Sean f = X 5 + X 4 − 3X 3 + 4X 2 + 2X y g = X 4 + 3X 3 − X 2 − 6X − 2. Se

7.2 Divisibilidad, Algoritmo de la división y m.c.d. en K[X]

95

tiene: f = (X − 2)g + r1 con r1 = 4X 3 + 8X 2 − 8X − 4   1 1 g = X+ r1 + r2 con r2 = −X 2 − 3X − 1 4 4 r1 = (−4X + 4)r2

r2 = = = =

r2 cp(r2 )

= X 2 + 3X + 1 y   1 1 X+ g− r1 4 4   1 1 g− X+ ( f − (X − 2)g) 4 4       1 1 1 1 X+ X+ − f + 1+ (X − 2) g 4 4 4 4     1 1 1 2 1 1 − X+ f+ X − X+ g 4 4 4 4 2

Luego ( f : g) =

Así ( f : g) = −r2 = −( 14 X + 14 ) f + ( 14 X 2 − 14 X + 12 )g.



Ejercicio 7.3 Calcular el grado y el coeficiente principal de f ∈ Q[X] en los casos

77 1. f = 4X 6 − 2X 5 + 3X 2 − 2X + 7 . 4 7 2. f = −3X 7 + 5X 3 + X 2 − X + 5 − 6X 4 + 2X 3 + X − 2 . 4 3. f = −3X 5 + X 4 − X + 5 − 81X 20 + 19X 19 .



Ejercicio 7.4 Calcular el coeficiente de X 20 de f en loscasos:

1. 2. 3. 4.

f f f f

= X 18 + X 16 + 1 X 5 + X 4 + X 3 + X 2 + X + 1 en Q[X] y en (Z/2Z) [X]. = (X − 3i)133 en C[X]. = (X − 1)4 (X + 5)19 + X 33 − 5X 20 + 7 en Q[X]. 7 = X 10 x5 + 4 en (Z/5Z) [X] . 

Ejercicio 7.5 Hallar, cuando existan, todos los f ∈ C[X] tales que

1. 2. 3. 4.

f 2 = X f + X + 1. f 2 − X f = −X 2 + 1. (X + 1) f 2 = X 3 + X f . f 6= 0 y f 3 = gr( f ) · X 2 f .



Ejercicio 7.6 Hallar el cociente y el resto de la división de f por g en los casos

1. f = 5X 4 + 2X 3 − X + 4, g = X 2 + 2 en Q[X] , R[X] y C[X]. 2. f = 8X 4 + 6X 3 − 2X 2 + 14X − 4, g = 2X 3 + 1 en Q[X] , R[X] y C[X]. 3. f = 4X 4 + X 3 − 4, g = 2X 2 + 1 en Q[X] , R[X] y C[X].

Capítulo 7. Polinomios

96 4. f = X 5 + X 3 + X + 1, g = 2X 2 + 1 en (Z/3Z) [X]. 5. f = X n − 1, g = X − 1 en Q[X] , R[X] y (Z/pZ) [X].



Ejercicio 7.7 Determinar todos los a ∈ C tales que

1. X 3 + 2X 2 + 2X + 1 sea divisible por X 2 + aX + 1. 2. X 4 − aX 3 + 2X 2 + X + 1 sea divisible por X 2 + X + 1. 3. El resto de la división de X 5 − 3X 3 − X 2 − 2X + 1 por X 2 + aX + 1 sea −8X + 4. 

Definición 7.2.4 Sea K un campo y sea h ∈ K[X] un polinomio no nulo. Dados f , g ∈

K[X], se dice que f es congruente a g módulo h si h | f − g. En tal caso se escribe f ≡ g (mód h). Ejercicio 7.8 Probar que:

1. ≡ (mód h) es una relación de equivalencia en K[X]. 2. Si f1 ≡ g1 (mód h) y f2 ≡ g2 (mód h) entonces f1 + f2 ≡ g1 + g2 (mód h) y f1 · f2 ≡ g1 · g2 (mód h) 3. Si f ≡ g (mód h) entonces f n ≡ gn (mód h) para todo n ∈ N. 4. r es el resto de la división de f por h si y solamente si f ≡ r (mód h) y r = 0 o gr(r) < gr(h). 

Ejercicio 7.9 Hallar el resto de la división de f por h para

1. f = X 353 − X − 1 y h = X 31 − 2 en Q[X] , R[X] y C[X]. 2. f = X 1000 + X 40 + X 20 + 1, h = X 6 + 1 en Q[X] , R[X], C[X] y (Z/pZ) [X]. 3. f = X 200 − 3X 101 + 2, h = X 100 − X + 1 en Q[X] , R[X] y C[X]. 

Ejercicio 7.10 Sea n ∈ N, sea a ∈ K. Probar que en K[X] se tiene que:

1. X − a | X n − an . 2. Si n es impar, entonces X + a | X n + an . 3. Si n es par, entonces X + a | X n − an . Calcular los cocientes en cada caso.



Ejercicio 7.11 Calcular el máximo común divisor entre f y g.

1. f = X 5 + X 3 − 6X 2 + 2X + 2, g = X 4 − X 3 − X 2 + 1. 2. f = X 6 + X 4 + X 2 + 1, g = X 3 + X. 3. f = X 5 + X 4 − X 3 + 2X − 3, g = X 4 + 2X + 1. En cada caso, hallar u, v ∈ K[X] tal que ( f : g) = u · f + v · g.



Ejercicio 7.12 Sea f ∈ Q[X] tal que f (1) = −2, f (2) = 1 y f (−1) = 0. Hallar el resto

de la división de f por X 3 − 2X 2 − X + 2.



7.3 El Teorema fundamental de la Aritmética para polinomios

7.3

97

El Teorema fundamental de la Aritmética para polinomios Sea f un polinomio irreducible en K[X]. Entonces:

C

Para todo g ∈ K[X], ( f : g) = cp(f f ) si f | g y ( f : g) = 1 si f - g. Para todo g, h ∈ K[X], f | gh implica que f | g o f | h.

Teorema 7.3.1 — El Teorema fundamental de la Aritmética para polinomios. Sea

K un campo, y sea f ∈ K[X] un polinomio no constante. Entonces existen únicos polinomios irreducibles mónicos distintos g1 , g2 , . . . , gr en K[X] tales que mr 1 f = cp( f ) · gm 1 · · · gr

donde m1 , . . . , mr ∈ N. (La unicidad de los factores irreducibles gi es salvo el orden de los factores.) 

Ejemplo 7.8 El polinomio (X 2 + 1)(X 2 − 2) está factorizado en factores irreducibles en

Q[X] (pues en R[X] es√(X 2 + 1)(X − √ √ambos factores son irreducibles) pero su factorización √ 2)(X + 2) y su factorización en C[X] es (X + i)(X − i)(X + 2)(X − 2). Notemos que en Q[X] el polinomio (X 2 + 1)(X 2 − 2) es reducible, pues X 2 + 1 | f en Q[X] pero sin embargo no tiene raíces en Q. Pero de todos modos como veremos en lo que sigue la búsqueda de raíces de f ayuda para la factorización. 

7.4

Evaluación y raíces Sea f = an X n + an−1 X n−1 + · · · + a1 X + a0 ∈ K[X]. Entonces f define, de manera natural, una función f : K → K,

f (α) = an α n + an−1 α n−1 + · · · + a1 α + a0 .

que se llama función evaluación. La función evaluación cumples las dos propiedades siguientes para todo f , g ∈ K[X]: ( f + g)(α) = f (α) + g(α)

y

( f · g)(α) = f (α) · g(α).

En particular, si f = gq + r con q, r ∈ K[X], entonces f (α) = g(α)q(α) + r(α), para toda α ∈ K. 

Ejemplo 7.9 Sea f = X 2 + X − 2 ∈ Q[X]. Entonces f (3) = 32 + 3 − 2 = 10, f (0) = −2

y f (1) = 12 + 1 − 2 = 0.





Ejemplo 7.10 Sea f = ∑ni=0 ai X i ∈ K[X]. Entonces f (0) = a0 y f (1) = ∑i = 0n ai .



Ejemplo 7.11 Sea f = c un polinomio constante en K[X]. Entonces f (α) = c, para toda

α ∈ K. 





Ejemplo 7.12 Determinar todos los polinomios f ∈ R[X] de grado ≤ 2 (o nulo) tales

que f (0) = 1 y f (1) = f (2): El polinomio f es de la forma f = aX 2 + bX + c ∈ R[X]. Se tiene f (0) = 1 si y solamente si c = 1; además, f (1) = f (2) si y solamente si a + b + c = 4a + 2b + c, es decir, 3a + b = 0. Por lo tanto, b = −3a y c = 1, lo que implica que f = aX 2 − 3aX + 1 con a ∈ R. 

Capítulo 7. Polinomios

98

Ejemplo 7.13 Sea f ∈ Q[X] tal que f (0) = 1 y f (1) = f (2) = 3.Calcular el resto de dividir f por X(X − 1)(X − 2): El polinomio f se escribe por el Algoritmo de División como f = q · X(X − 1)(X − 2) + r con r = 0 o gr(r) < 3, o sea r = aX 2 + bX + c ∈ Q[X]. Por lo tanto, dado que el polinomio X(X − 1)(X − 2) se anula en 0, 1 y 2, si evaluamos en α = 0, α = 1 y α = 2 obtenemos f (0) = r(0), f (1) = r(1) y f (2) = r(2). O sea r(0) = 1, r(1) = r(2) = 3. Por el Ejemplo 7.12, r = aX 2 − 3aX + 1, con r(1) = a − 3a + 1 = 3, es decir −2a = 2, o sea a = −1. Se concluye que r = −X 2 + 3X + 1.  

Definición 7.4.1 Sea f ∈ K[X] un polinomio y α ∈ K. Si f (α) = 0, decimos que α es

una raíz de f (en K). Proposición 7.4.1 — El Teorema del Residuo. Dados f ∈ K[X] y α ∈ K. Tenemos que

rX−α ( f ) = f (α). Demostración. Si dividimos al polinomio f entre el polinomio X − α ∈ K[X], obtenemos f = q · (X − α) + r con r = 0 o gr(r) < gr(X − α), o sea r = c ∈ K es un polinomio constante. Evaluando la expresión en α ∈ K se obtiene f (α) = q(α) · (α − α) + c = c.  Corolario 7.4.2 α ∈ K es raíz de f si y solamente si f (α) = 0 si y solamente si

(X − α) | f si y solamente si f = (X − α)q para algún q ∈ K[X]. Ejemplo 7.14 Si f tiene grado 0, es decir, f es una constante, es decir, f = c con c ∈ K. Entonces, o bien c = 0 y todo x ∈ K es raíz de f , o bien c 6= 0 y f no tiene ninguna raíz en K.  

Ejemplo 7.15 Si f tiene grado 1, es decir, f = aX + b con a, b ∈ K y a 6= 0. Como f tiene grado 1, su expresión en irreducibles es    b f = aX + b = a X − − = a(X − α) a



con α = − ba la única raíz de f . 



Ejemplo 7.16 Si f es de grado 2, es decir, f = aX 2 + bX + c con a, b, c ∈ K, a 6= 0.

Como f tiene grado 2, es reducible si y solamente si f tiene un factor en K[X] de grado 1, el cual podemos asumir que es mónico y es de la forma X − α con α ∈ K. Así que en este caso f es reducible en K[X] si y solamente si f tiene una raíz α en K. Observe que: !    2 2 b c b b c f = a X2 + X + =a X+ − 2+ a a 2a 4a a !  2 b b2 − 4ac = a X+ − 2a 4a2

7.5 Multiplicidad de las raíces

99

Definimos el discriminante de f como ∆ = ∆( f ) := b2 − 4ac ∈ K. Observe que, si existe ω ∈ K tal que ω 2 = ∆, se tiene que: !   b 2  ω 2 f = a X+ − 2a 2a    −b − ω −b + ω = a X− X− 2a 2a y por lo tanto, dado que K es un campo, f (α) = 0 si y solamente si α = − −b+ω 2a = 0 o −b−ω α = − 2a = 0. Es decir, f tiene dos raíces (puede ser la misma, pero repetida, esto pasa si ω = 0): α± =

−b ± ω 2a 

7.5

Multiplicidad de las raíces Hemos visto en ejemplos anteriores que una raíz puede “aparecer repetida”. Por ejemplo, consideremos el polinomio f = 10(X − 1)2 (X + 1)(X − 2)3 tenemos que la raíz 1 “aparece” dos veces, la raíz −1 una sola vez y la raíz 2 tres veces. Esto sugiere la noción de multiplicidad de una raíz de un polinomio. Definición 7.5.1 Sea f ∈ K[X] no nulo.

Sea m ∈ N0 . Se dice que α ∈ K es una raíz de multiplicidad m de f si (X − α)m | f pero (X − α)m+1 - f , o equivalentemente, existe q ∈ K[X] tal que f = (X − α)m · q con q(α) 6= 0. Escribimos mult(α; f ) = m. Decimos que α ∈ K es una raíz simple de f si mult(α; f ) = 1. Decimos que α ∈ K es una raíz múltiple de f si mult(α; f ) > 1. Decimos que α ∈ K es una raíz doble de f si mult(α; f ) = 2 y que es una raíz triple de f si mult(α; f ) = 3. Está claro de la definición que dado un polinomio f ∈ K[X] no nulo y α ∈ K una raíz de f , su multiplicidad m siempre está acotada por el grado del polinomio: mult(α; f ) ≤ gr( f ). 

Ejemplo 7.17 Si f = 10(X − 1)2 (X + 1)(X − 2)3 entonces 1 es raíz doble de f , −1 es

raíz simple y 3 es triple. 



Ejemplo 7.18 mult(α; f ) = 0 si y solo si α no es raíz de f .

Observemos que si α es raíz múltiple de f , es decir f entonces



= (X − α)2 q para algún q ∈ K[X],

f 0 = 2(X − α)q + (X − α)2q0 = (X − α)(2q + (X − α)q0 ).

Capítulo 7. Polinomios

100

Por lo tanto f 0 (x) = 0 también. O sea no solo vale que f (x) = 0 si no también f 0 (x) = 0. Esto es la base de la siguiente proposición que relaciona la multiplicidad con las derivadas de f . Proposición 7.5.1 Sea f ∈ K[X] y sea α ∈ K. Entonces

1. α es raíz múltiple de f si y solamente si f (α) = 0 y f 0 (α) = 0. 2. α es raíz simple de f si y solamente si f (α) = 0 y f 0 (α) 6= 0. Demostración. Es suficiente con probar el primer enunciado. Sabemos que α ∈ K es una raíz de f si solamente si f = (X − α)q para algún q ∈ K[X]. Derivando, f 0 = q + (X − α)q0 satisface f 0 (α) = q(α). En particular, f 0 (α) = 0 si y solamente si q(α) = 0. Por lo tanto, f (α) = 0 y f 0 (α) = 0 implica que (X − α)2 | f . El recíproco es verdadero según la discusión anterior a esta proposición: si (X − α)2 | f entonces f (α) = f 0 (α) = 0.  

Ejemplo 7.19 Probar que el polinomio f = 2X 15 + 7X 7 + 2X 3 + 1 no tiene raíces

múltiples reales. Supongamos que α ∈ R es una raíz múltiple, i.e., f (α) = f 0 (α) = 0. En particular, dado que f 0 = 30X 14 + 49X 6 + 6X 2 , se tendría 0 = f 0 (α) = 30α 14 + 49α 6 + 6α 2 . Lo que implica que α = 0 dado que todos los exponentes en f 0 son pares. Pero claramente, f (0) = 1 6= 0. Una contradicción.  

Ejemplo 7.20 Hallar los valores a ∈ C para los cuales el polinomio f = X 8 − 2X 4 + a

tiene raíces múltiples en C. Sea α ∈ C una raíz múltiple. Equivalentemente, f (α) = f 0 (α) = 0. Es decir, dado que f 0 = 8X 7 − 8X 3 = 8X 3 (X 4 − 1), por lo tanto, f 0 (α) = 8α 3 (α 4 − 1) = 0, lo que implica que α = 0 o α 4 = 1. Si α = 0, f (0) = 0 si y solamente si a = 0: en este caso f = X 8 − 2X 4 = X 4 (X 4 − 2), o sea f tiene la raíz 0 con multiplicidad 4. Si α 4 = 1, entonces f (α) = α 8 − 2α 4 + a = (α 4 )2 − 2α 4 + a = 1 − 2 · 1 + a = −1 + a implica que f (α) = 0 si y solamente a = 1. Por lo tanto, f = X 8 − 2X 4 + 1 = (X 4 − 1)2 tiene a 1 como una ráiz múltiple. 

Teorema 7.5.2 Sea f ∈ K[X] de grado n > 0 y sea m un entero positivo. α es una raíz

de multiplicidad m de f si y solamente si f (α) = f 0 (α) = · · · = f (m−1) (α) = 0 pero f (m) (α) 6= 0. Demostración. ⇒: (Inducción sobre m) Supongamos que m = 1, entonces f (x) = (x − α)g(x) con (x − α) - g(x). Entonces f 0 = (x − α)g0 + g(x) y por lo tanto, f 0 (α) = g(α) 6= 0. Lo que concluye el caso base. Supongamos que el enunciado es cierto para m. Ahora demostremos el caso m + 1, así que supongamos que f (x) = (x − α)m+1 g(x) con (x − α) - g(x). Derivando obtenemos f 0 = (m + 1)(x − α)m g(x) + (x − α)m+1 g0 (x) = (x − α)m [(m + 1)g(x) + (x − α)g0 (x)]. Y ya que (x − α) - (m + 1)g(x) + (x − α)g0 (x) (pues si lo dividiera, se seguiría que (x − α) | (m + 1)g(x), una contradiccón), se sigue que α es

7.6 Polinomios en C[X]

101

raíz de multiplicidad m para f 0 y por la hipótesis de inducción (aplicada a f 0 ) tenemos: f 0 (α) = · · · = f (m) (α) = 0 pero f (m+1) (α) 6= 0. Lo que concluye la demostración. ⇐: (Inducción sobre m) Supongamos que m = 1, entonces f (α) = 0 y f 0 (α) 6= 0, lo que implica que f (x) = (x − α)g(x) con (x − α) - g(x). Se sigue entonces que (x − α)2 - f (x) pues en caso contrario, f (x) = (x − α)2 h(x) y por lo tanto, f 0 (x) = 2(x − α)h(x) + (x − α)2 h0 (x) y f 0 (α) = 0 (una contradicción), el caso base está concluído. Supongamos que el resultado es cierto para m. Ahora demostremos el caso m + 1: supongamos que f (α) = f 0 (α) = · · · = f (m) (α) = 0 pero f (m+1) (α) 6= 0. Aplicando la hipótesis de inducción a f 0 , α es raíz de multiplicacidad m para f 0 , es decir, f 0 = (x − α)m g(x) con (x − α) - g(x). Como f (α) = 0, entonces f = (x − α)s g1 (x) con (x − α) - g1 (x) y s ≥ 1. Derivando, f 0 = (x − α)s−1 [(x − α)g1 (x) + sg01 (x)]. Igualando ambas expresiones para f 0 obtenemos que s = m − 1, esto implica que s = m + 1 y el resultado se sigue.  Corolario 7.5.3 Sea K un campo, α ∈ K y m ∈ N. mult(α; f ) = m si y solamente si

mult(α, f 0 ) = m − 1.

Demostración. mult(α; f ) = m; si y solamente si f (α) = f 0 (α) = · · · = f (m−1) (α) = 0 y f (m) (α) 6= 0; si y solamente si f 0 (α) = · · · = ( f 0 )(m−2) (α) = 0 y ( f 0 )(m−1) (α) 6= 0; si y solamente si mult(α; f 0 ) = m − 1. 

7.6

Polinomios en C[X] El Teorema Fundamental del Álgebra dice que: todo polinomio no constante en C[X] tiene (al menos) una raíz en C, o, lo que es equivalente aplicando divisiones sucesivas, todo polinomio de grado n ≥ 1 en C[X] tiene exactamente n raíces contadas con multiplicidad. (Se dice que C es algebraicamente cerrado.) Teorema 7.6.1 — El Teorema Fundamental del Álgebra. Sea f ∈ C[X] un poli-

nomio no constante. Entonces existe z ∈ C tal que f (z) = 0. Equivalentemente, todo polinomio no constante en C[X] de grado n tiene exactamente n raíces contadas con multiplicidad en C. El Teorema Fundamental del Álgebra es equivalente a que los únicos polinomios irreducibles en C[X] son los de grado 1, de lo cual se deduce la factorización de polinomios en C[X]. Teorema 7.6.2

Sea f ∈ C[X]. Entonces f es irreducible en C[X] si y solamente si gr( f ) = 1, es decir f = aX + b ∈ C[X] con a 6= 0. Sea f ∈ C[X] \ C. Entonces la factorización en irreducibles de f en C[X] es de la forma f = cp( f ) · (X − z1 )m1 · · · (X − zr )mr donde z1 , . . . , zr ∈ C son distintos, m1 , · · · , mr ∈ N.

Capítulo 7. Polinomios

102

El Teorema Fundamental del Álgebra (del cual no exhibimos una demostración) fue enunciado y demostrado en varias etapas a lo largo del tiempo, empezando con el matemático francés Albert Girard quien lo enunció en alguna forma en 1629. Una primera demostración, incompleta, fue esbozada por Jean le Rond D0 Alembert en 1746. Aparecieron luego muchas demostraciones entre 1749 y 1795, pero con “agujeros” (argumentos no claros, que necesitan una demostración en sí mismo) ya que todas asumían que las raíces existían en “algún lado”. Gauss también presentó una demostración con un agujero en 1799. En 1814, el librero y matemático amateur de origen suizo Jean-Robert Argand publicó la primer demostración completa, y luego Gauss presentó otra en 1816. Existen hoy en día numerosas demostraciones distintas de este teorema, aunque todas ellas usan de alguna u otra manera resultados de una de las muchas ramas de la matemática: el Análisis.

7.7

Polinomios en R[X] Sabemos que un polinomio en R[X] de grado n ≥ 1 tiene a lo sumo n raíces contadas con multiplicidad. También sabemos que si f ∈ R[X] tiene grado ≥ 2 y tiene una raíz α ∈ R, entonces f es reducible en R[X] pues X − α | f . Pero ser reducible en R[X] no implica tener raíz en R: existen polinomios reducibles en R[X] de cualquier grado (par) que no tienen raíces reales, como por ejemplo el polinomio (X 2 + 1)n , ∀n ∈ N. Sin embargo no existen polinomios irreducibles en R[X] de cualquier grado. Es lo que estudiaremos a continuación, gracias al estudio ya realizado de los polinomios en C[X]. Proposición 7.7.1 Sea f ∈ R[X] de grado impar. Entonces f tiene al menos una raíz en

R. Demostración. Sea f = an X n + · · · + a1 X + a0 ∈ R[X], con n impar. Si an > 0, entonces: l´ım f (x) = +∞ y l´ım f (x) = −∞,

x→+∞

x→−∞

y si an < 0, se tiene: l´ım f (x) = −∞ y l´ım f (x) = +∞.

x→+∞

x→−∞

En ambos casos los signos son opuestos, y por lo tanto, por el Teorema de Bolzano (y dado que f : R → R define una función continua), debe existir c ∈ R tal que f (c) = 0, i.e, f tiene una raíz real.  Pero podemos ser más explícitos y precisar un poco más sobre cuántas raíces puede tener f . Proposición 7.7.2 Sea f ∈ R[X] y sea z ∈ C \ R un número complejo no real. Entonces

1. f (z) = 0 si y solamente si f (¯z) = 0. 2. Para todo m ∈ N, mult(z; f ) = m si y solamente si mult(¯z; f ) = m. 3. (X − z)(X − z¯) es un polinomio irreducible de R[X]. Demostración.

7.7 Polinomios en R[X]

103

1. Sea f = an X n + · · · + a1 X + a0 ∈ R[X]. Entonces f (z) = 0 ⇔ an zn + · · · + a1 z + a0 = 0 ⇔ an zn + · · · + a1 z + a0 = 0 ⇔ a¯n z¯n + · · · + a¯1 z¯ + a¯0 = 0 ⇔ an z¯n + · · · + a1 z¯ + a0 = 0 pues a0 , a1 , . . . , an ∈ R ⇔ f (¯z) = 0. 2. Por el Teorema 7.5.2: z es una raíz de multiplicidad m de f si y solamente si f (z) = f 0 (z) = · · · = f (m−1) (z) = 0, f (m) (z) 6= 0. Pero, f 0 , . . . , f (m−1) , f (m) son polinomios en R[X]. Usando el inciso anterior: f (z) = f 0 (z) = · · · = f (m−1) (z) = 0, f (m) (z) 6= 0 si y solamente si f (¯z) = f 0 (¯z) = · · · = f (m−1) (¯z) = 0, f (m) (¯z) 6= 0 si y solamente si z¯ es una raíz de multiplicidad m de f . 3. (X − z)(X − z¯) = X 2 − 2Re(z) + |z|2 ∈ R[X].  La proposición anterior significa que las raíces complejas no reales de un polinomio real f vienen de a pares de complejos conjugados, o sea que un polinomio real f de grado n, que tiene exactamente n raices complejas contadas con multiplicidad, tiene un número par de ellas que son complejas no reales, y el resto automáticamente tienen que ser (complejas) reales. Por ejemplo, un polinomio real de grado impar tiene un número impar de raíces reales. Más aún, existen algoritmos que calculan la cantidad exacta de raíces reales que tiene un polinomio en R[X] (como por ejemplo el Algoritmo de Sturm), pero no los vamos a ver aquí. Además permite caracterizar los polinomios irreducibles de R[X] y como es la factorización de polinomios en R[X]. Proposición 7.7.3 Los polinomios irreducibles en R[X] son los siguientes:

Los de grado 1, o sea de la forma aX + b ∈ R[X] con a 6= 0. Los de grado 2 con discriminante negativo, o sea, los de la forma aX 2 bX + c ∈ R[X] con a 6= 0 y ∆ := b2 − 4ac < 0. Demostración. Claramente, los polinomios de grado 1 y los de grado 2 con discriminante negativo son irreducibles. Probemos que son los únicos. Si f es de grado impar > 1, por la Proposición 7.7.1, tiene una raíz real y por lo tanto es reducible. Si f es de grado 2, sabemos que es reducible si y solamente si tiene discriminante ≥ 0. Si f tiene grado par ≥ 4, o bien tiene alguna raíz real, y en tal caso es reducible, o bien todas sus raíces son complejas no reales y vienen en pares conjugados. Por lo tanto, si z es una de esas raíces, el polinomio real (X − z)(X − z¯) divide a f en R[X], y f resulta ser reducible.  Teorema 7.7.4 Sea f ∈ R[X] \ R. Entonces la factorización en irreducibles de f en

R[X] tiene la forma f = cp( f ) · (X − α1 )m1 · · · (X − αs )ms (X 2 + b1 X + c1 )n1 · · · (X 2 + bt X + ct )nt

Capítulo 7. Polinomios

104

donce cp( f ) ∈ R× , s,t ∈ N0 , mi , n j ∈ N para 1 ≤ i ≤ s, 1 ≤ j ≤ t, α1 , · · · , αs , b1 , c1 , . . . , bt , ct ∈ R y ∆ j := b j − 4c j < 0 para cada j. Demostración. Por el Teorema 7.6.2, podemos escribir f de la forma f = cp( f ) · (X − α1 )m1 · · · (X − αs )ms (X − αs+1 )ms+1 · · · (X − αr )mr Supongamos que α1 , . . . , αs ∈ R, αs+1 , . . . , αr 6∈ R. Entonces las r − s raíces complejas aparecen por parejas de conjugados, es decir, r − s = 2t y podemos suponer que αr+i+t = α¯ r+i para i = 1, . . . ,t; podemos escribir entonces s

t

t

f (x) = cp ∏(X − αi ) ∏(X − αs+i )ms+i ∏(X − α¯ s+i )ms+i i=1 s

i=1 t

i=1

i=1

i=1

= cp ∏(X − αi ) ∏(X 2 + bi X + ci )ms+i donde 

X2 + b

iX

+ ci = (X − αs+i )(X − α¯ s+i )



4 3 2 Ejemplo 7.21 √ Factorizar en R[X] y en C[X] el polinomio f = X − 2X + X − 4X − 2

sabiendo que 2i es raíz de f : √ √ Como f ∈√R[X], entonces tenemos que f ( 2i) = 0 si y solamente si f (− 2i). Por √ 2 2 lo tanto, (X − 2i)(X + 2i) = X 2 + 2 divide √ a f . De √ hecho, f = (X + 2)(X − 2X − 1). 2 Las raíces de X − 2X − 1√son reales:√1 + 2 y 1 − √ 2. Por lo tanto, √ En C[X]: f = (X − 2i)(X + 2i)(X − (1 + 2))(X − (1 − 2)). √ √ En R[X] f = (X 2 + 2)(X − (1 + 2))(X − (1 − 2)). 

7.8

Polinomios en Q[X] Sabemos que un polinomio en Q[X] de grado n ≥ 1 tiene a lo sumo n raíces contadas con multiplicidad. También sabemos que si f ∈ Q[X] tiene grado ≥ 2 y tiene una raíz x ∈ Q, entonces f es reducible en Q[X] pues X − α | f . Pero ser reducible en Q[X] no implica tener raíz en Q: existen polinomios reducibles en Q[X] de cualquier grado que no tienen raíces racionales, como por ejemplo los polinomios (X 2 − 2)n y (X 2 − 2)n (X 3 − 2), ∀n ∈ N. Sin embargo la situación no es como en R[X]: en Q[X] se puede probar que existen polinomios irreducibles de cualquier grado, como por ejemplo el polinomio X n − 2, ∀n ∈ N : no solo el polinomio X n − 2 no tiene raíces en Q para todo n ≥ 2, pero más aún no tiene ningún factor en Q[X] de cualquier grado d, 1 ≥ d ≥ n − 1. También se puede probar que para p primo, el polinomio X p−1 + · · · + X + 1 es irreducible en Q[X]. La situación parece desesperada. Pero al menos en Q existen algoritmos para encontrar (en forma exacta) todas las raíces racionales, y también para decidir si el polinomio es irreducible o no en Q[X], y en caso de ser reducible, determinar su factorización en irreducibles de Q[X]. A pesar de que la situación en Q[X] parece mucho más complicada que en C[X], se puede encontrar todas las raíces racionales de un polinomio f ∈ Q[X] por medio de un

7.8 Polinomios en Q[X]

105

algoritmo. Este hecho es una consecuencia de que todo número entero a ∈ Z \ {0} tiene un número finito de divisores posibles, que se pueden calcular. Teorema 7.8.1 — Lema de Gauss. Sea f = an X n + · · · + a0 ∈ Z[X] con an , a0 6= 0. Si α β

∈ Q es una raíz racional de f , con α y β enteros coprimos (es decir, sin factores en común), entonces α | a0 y β | an . Demostración.    n  n−1   α α α α f = 0 ⇔ an + a0 + an−1 + · · · + a1 β β β β an α n + an−1 α n−1 β + · · · + a1 αβ n−1 + a0 β n ⇔ =0 βn ⇔ an α n + an−1 α n−1 β + · · · + a1 αβ n−1 + a0 β n = 0 Por lo tanto, α(an α n−1 + an−2 α n−1 β + · · · + a1 β n−1 ) = −a0 β n . Esto implica que α | −a0 β n en Z. Pero al ser α y β coprimos, entonces α es coprimo de β n también, y por lo tanto, α | a0 . De la misma manera, β (an−1 α n−1 + · · · + a0 β n−1 ) = −an α n implica que β | −an α n pero esto implica que β | an . 

C

En las condiciones del Teorema 7.8.1, el Lema de Gauss implica que si se construye el conjunto (finito) N de los divisores positivos y negativos de a0 y el conjunto D de los de an , las raíces del polinomio f se encuentran en el conjunto de todas las fracciones coprimas αβ , eligiendo α ∈ N y β ∈ D. Verificandopara cada fracción αβ así construída si f ( αβ ) = 0, se obtienen todas las raíces racionales de f . Simplemente hay que tener un poco de cuidado en que este procedimiento no aclara la multiplicidad de cada raíz.



Ejemplo 7.22 Hallar las raíces racionales del polinomio racional

8 1 14 14 4 f = X 8 + x7 + X 6 − X 5 − X 4 − X 3 . 3 3 3 3 3 Solución: Limpiando los denominadores de f se obtiene el polinomio g ∈ Z[X] con las mismas raíces: g = 3X 8 + 8X 7 + X 6 − 14X 5 − 14X 4 − 4X 3 = X 3 (3X 5 + 8X 4 + X 3 − 14X 2 − 14X − 4) Claramente, mult(0; g) = 3 (y por lo tanto mult(0; f ) = 3 también, pues g = 3 f ), y las raíces restantes racionales de g (o f ) son las de h = 3X 5 + 8X 4 + X 3 − 14X 2 − 14X − 4. Aquí a0 = −4 y an = 3. Entonces N = {±1, ±2, ±4} y D = {±1, ±3}, luego las raíces 1 2 4 racionales se buscan en el conjunto ± 1, ±2, ±4, ± 3 , ± 3 , ± 3 . Checando todos los  cocientes, obtenemos que h(−1) = 0 y h − 23 = 0, y estas son las únicas raíces racionales

Capítulo 7. Polinomios

106

(distintas) de h. Lo único que nos falta por saber, es la multiplicidad de cada una de las raíces. Observemos que h0 = 15X 4 + 32X 3 + 3X 2 − 28X − 14  y se tiene que h0 (−1) = 0 y h0 − 23 6= 0. Es decir, −1 es raíz múltiple y − 23 es una raíz simple. Volviendo a derivar: h00 = 60X 3 + 64X 2 + 6X − 28 y h00 (−1) 6= 0. Y concluímos que −1 es una raíz doble de h. Finalmente, obtenemos que    2 2 h = 3 (X + 1) X + x2 − 2 3 ya que X 2 − 2 es irreducible en Q[X]. Y dado que f = 31 X 3 h, obtenemos la factorización de f en Q[X]:    2 2 3 f = X (X + 1) X + x2 − 2 . 3 

Ejercicio 7.13

− 12

3 5.

1. Hallar todos los f ∈ Q[X] de grado 3 cuyas raíces complejas son

1, y 2. Hallar todos los f ∈ Q[X] de grado 4 cuyas raíces complejas son 1, − 12 y 35 . 

Ejercicio 7.14 Hallar las raíces en C y factorizar en C[X] los polinomios cuadráticos:

1. 2. 3. 4.

X 2 − 2X + 10. X 2 − 3 − 4i. X 2 + (1 + 2i)X + 2i. X 2 + (3 + 2i)X + 5 + i.



Ejercicio 7.15 Hallar las raíces en Q y factorizar en Q[X] los polinomios cuadráticos:

1. X 2 + 6X − 1. 2. X 2 + X − 6.



Ejercicio 7.16 Hallar las raíces en Z/7Z y factorizar en (Z/7Z)[X] los polinomios

cuadráticos: 1. X 2 + 6X + 1. 2. X 2 + X + 6. 

7.8 Polinomios en Q[X]

107

1. Sean f , g ∈ C[X] y sea a ∈ C. Probar que a es raíz de f y g si y solamente si a es raíz de ( f : g). 2. Hallar todas las raíces complejas de X 4 + 3X − 2 sabiendo que tiene una raíz común con X 4 + 3X 3 − 3X + 1.

Ejercicio 7.17



Ejercicio 7.18 Determinar la multiplicidad de a como raíz de f en los casos:

1. 2. 3. 4. 5.

f f f f f

= X 5 − 2X 3 + X , a = 1. = 4X 4 + 5X 2 − 7X + 2 , a = 21 . = X 6 − 3X 4 + 4 , a = i. = (X − 2)2 (X 2 − 4) + (X − 2)3 (X − 1) , a = 2. = (X − 2)2 (X 2 − 4) − 4(X − 2)3 , a = 2. 

Ejercicio 7.19 Sea n ∈ N. Determinar todos los a ∈ C tales que f = nX n+1 − (n +

1)X n + a tiene solamente raíces simples en C.



Ejercicio 7.20 Determinar todos los a ∈ R para los cuales f = X 2n+1 − (2n + 1)X + a

tiene al menos una raíz múltiple en C.



Ejercicio 7.21 Sea f = X 20 + 8X 10 + 2a. Determinar todos los valores de a ∈ C para

los cuales f admite una raíz múltiple en C. Para cada valor hallado determinar cuántas raíces distintas tiene f y la multiplicidad de cada una de ellas.  Ejercicio 7.22

1. Probar que para todo a ∈ C, el polinomio f = X 6 − 2X 5 + (1 + a)X 4 − 2aX 3 + (1 + a)X 2 − 2X + 1

es divisible por (X − 1)2 . 2. Determinar todos los a ∈ C para los cuales f es divisible por (X − 1)3 . 

Ejercicio 7.23 Determinar todos los a ∈ C tales que 1 es raíz doble de X 4 − aX 3 −

3X 2 + (2 + 3a)X − 2a.



Ejercicio 7.24 Factorizar en C[X] los polinomios:

1. 2. 3. 4. 5. 6.

X 6 − 8. X 4 + 3. X 7 − (−1√ + i). √ 11 X − 2i( 2 − 6i)−1 . X 6 − (2 − 2i)12 . X 12 + X 6 + 1.



Capítulo 7. Polinomios

108

Ejercicio 7.25 Factorizar en C[X], R[X] y Q[X] los polinomios:

1. 2. 3. 4.

X3 − 1 X4 − 1 X6 − 1 X8 − 1



Ejercicio 7.26 Factorizar en R[X] y Q[X] los polinomios:

1. X 6 − 8 2. X 4 + 3 3. X 12 + X 6 + 1



Ejercicio 7.27 Hallar todas las raíces racionales de

1. 2X 5 + 3X 4 + 2X 3 − X. 2. X 5 − 12 X 4 − 2X 3 + 12 X 2 − 27 X − 3. 3. 3X 4 + 8X 3 + 6X 2 + 3X − 2. 

Ejercicio 7.28 Cuántos polinomios mónicos de grado 2 hay en (Z/7Z)[X]? Cuántos

de ellos son reducibles y cuántos irreducibles?

7.9



PROBLEMAS Problema 7.2 (Propuesto en Prueba de Desempeño 2015) Sean f (x), h(x), g(x) ∈ C[x] tal que f (x) = h(x)g(x) con deg( f )=4 y deg(g)= deg(h)= 2. Demostrar que si cualesquiera dos polinomios de f (x), h(x), g(x) están en R[x], entonces el tercero también está en R[x]. Problema 7.3 (Propuesto en Prueba de Desempeño 2015) ¿Para qué valores de c ∈ C es x + i un factor de x6 − 2ix + c en C[x]? Problema 7.4 (Propuesto en Prueba de Desempeño 2015) Demuestre que toda raíz racional del polinomio f (x) = xn + an−1 xn−1 + · + a1 x + a0 es entera, si f (x) ∈ Z[x]. Problema 7.5 (Propuesto en Prueba de Desempeño 2015) Sea k un campo. Suponga que m y n son dos enteros positivos con m ≤ n. Pruebe que existe un polinomio de grado n con exactamente m raíces distintas. Problema 7.6 (Propuesto en Prueba de Desempeño 2015) Factoriza el polinomio x5 − 3x4 + 2x3 − 6x2 − 8x + 24 sobre C[x]. Problema 7.7 (Propuesto en Prueba de Desempeño 2015) Sea f (x) un polinomio de grado n con coeficientes en un campo k. Muestre que si p(x) tiene n raíces distintas, entonces p(x) y p0 (x) no pueden tener raíces en común. Problema 7.8 (Propuesto en Prueba de Desempeño 2015) Demuestre que cada polinomio de grado impar con coeficientes reales tiene (al menos) una raíz real. Problema 7.9 (Propuesto en Prueba de Desempeño 2015) Sea f (x) ∈ R[x] con grado par y con al menos una raíz real. Demuestre que f (x) tiene al menos dos raíces reales. Problema 7.10 (Propuesto en Prueba de Desempeño 2015) Bosqueje la gráfica de un polinomio cuadrático irreducible en R[x].

7.9 PROBLEMAS

109

Problema 7.11 (Propuesto en Prueba de Desempeño Final 2015) Sea p un primo y

√ √ Q( p) = {a + b p | a, b ∈ Q} √ 1. Demostrar que Q ⊂ Q( p). √ 2. Demostrar que Q( p) es un campo Problema 7.12 (Propuesto en Prueba de Desempeño Final 2015) Un subconjunto I de R[X] se llama ideal de R[X] si 0 ∈ I. f , g ∈ I entonces f + g ∈ I. f ∈ R[X], g ∈ I entonces f g ∈ I. Sea a ∈ R, demuestre que { f ∈ R[X] | f (a) = 0} es un ideal de R[X]. Problema 7.13 (Propuesto en Prueba de Desempeño Final 2015) Demuestre que si un polinomio f está acotado en [a, b] con a < b, entonces f está acotada en [a, c] si a ≤ c ≤ b. Problema 7.14 (Propuesto en Prueba de Desempeño Final 2015) Sean f (x), g(x) ∈ R[X] tal que f (x) | g(x). Hallar el mcd( f (x), g(x)). Problema 7.15 (Propuesto en Prueba de Desempeño Final 2015) Sean α0 , α1 , · · · , αn , β0 , β1 , · · · , βn ∈ C tal que αi 6= α j si i 6= j. Demostrar que existe un único polinomio f (x) ∈ C[x] tal que f (αi ) = βi y grado de f (x) ≤ n. Sugerencia: Si f (x) = a0 + a1 x + · · · + an xn , entonces resover el sistema ( f (αi ) = βi ) en las indeterminadas ai . Problema 7.16 (Propuesto en Prueba de Desempeño (Acompañamiento) 2015) Factoriza el polinomio x5 − 3x4 + 4x2 − 4x − 4 sobre C[x]. Problema 7.17 (Propuesto en Prueba de Desempeño (Acompañamiento) 2015) Sean f (x), h(x) ∈ C[x] dos polinomios mónicos. ¿El producto f (x)h(x) es mónico? Si f (x)h(x) es mónico, ¿entonces f (x) y h(x) son mónicos? Problema 7.18 (Propuesto en Prueba de Desempeño (Acompañamiento) 2015) Halle todos los polinomios irreducibles con coeficientes complejos. Problema 7.19 (Propuesto en Prueba de Desempeño Final 2016) Factoriza el polinomio x5 − 3x4 + 2x3 − 6x2 − 8x + 24 sobre C[x] sabiendo que una de sus raíces divide al término independiente del polinomio. Problema 7.20 (Propuesto en Prueba de Desempeño Final 2016) ¿Para qué valores de c ∈ Q, X − 1 | X 3 + 2X 2 + X + c? Problema 7.21 (Propuesto en Prueba de Desempeño Final 2016) Sea z ∈ C. Demostrar que f (X) = (X − z)(X − z¯) ∈ R[X]. Problema 7.22 (Propuesto en Prueba de Desempeño Final 2016) Sea  f (x) = a (X − b)2 + c2 ∈ R[X] con a 6= 0 y c 6= 0. Mostrar que f (x) es irreducible en R[X]. Problema 7.23 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Sea A ⊂ C un conjunto. En C[X], definamos una relación P ∼ Q si y solo si P(a) = Q(a) para todo a ∈ A. 1. Pruebe que ∼ es una relación de equivalencia. 2. Si A = {a1 , a2 , . . . , an } es finito, muestre que P ∼ Q si y solamente si P − Q es divisible por el polinomio DA (X) = (X − A1 )(X − a2 ) · · · (X − an ).

110

Capítulo 7. Polinomios

3. Pruebe que si A es infinito, la clase de equivalencia de cualquier polinomio P ∈ C[X] es {P}. Problema 7.24 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Sea f (x) ∈ R[X] un polinomio mónico de grado 7 tal que: f (0) = 0 y f (i) = −3i; f 0 (0) = 0 y f 0 (i) = −21. Halla 1. las raíces no reales del polinomio f (x) − 3x7 y su multiplicidad. 2. todas las posibles factorizaciones de f (x) − 3x7 en C[X]. Problema 7.25 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) 1. Halla todos los f ∈ Q[X] de grado 3 cuyas raíces complejas son exactamente 1, − 12 y 35 . 2. Halla todos los f ∈ Q[X] de grado 4 cuyas raíces complejas son exactamente 1, − 12 y 35 . Problema 7.26 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Sean f1 (x) = a1 x2 + b1 x + c1 , f2 (x) = a2 x2 + b2 x + c2 y supóngase que f1 (α) = f2 (α) para toda α ∈ C. Demuestre que f1 (x) = f2 (x). Problema 7.27 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Supóngase que f (x), g(x), h(x) tienen coeficientes enteros, que f (x) = g(x)h(x) y que g(0) = −3. ¿Es posible que f (0) = 1234567? Problema 7.28 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Demuestre que si x − a divide a f (x) pero no divide a g(x), entonces x − a no divide a f (x) + g(x). Argumente su respuesta utilizando el Teorema del residuo. Problema 7.29 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Demuestre que las únicas raíces de x5 − ix4 + 2x3 − 2ix2 + x − i son i y −i. Problema 7.30 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Exprese los polinomios x4 − 1 y x6 − 1 como productos de polinomio con coeficientes reales de grados uno y dos. Problema 7.31 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Sean p(x) y q(x) dos polinomios con coeficientes reales tales que p(α) = q(α) para toda α ∈ R. Demuestra que p(β ) = q(β ) para toda β ∈ C. Problema 7.32 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Determine todos los polinomios p(x) con coeficientes reales de grado dos tales que p(x2 ) = p2 (x). Problema 7.33 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Sea p(x) un polinomio mónico. Demuestre que si p(x) tiene una raíz racional, entonces esta raíz tiene que ser entera. Problema 7.34 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Sea √ p(x) un polinomio con coeficientes racionales. Sea a + b √ √ c una raíz de p(x) donde a, b son racionales y c es irracional. Demuestre que a − b c es también raíz de p(x). (Sugerencia: el caso b = 0 es trivial. Para el caso b 6= 0, construya el polinomio √ √ t(x) = (x − (a + b c))(x − (a − b c)). Muestre que t(x) ∈ Q[x]. Utilize el algoritmo de la división y analize el residuo.) Problema 7.35 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) ¿Existe un polinomio no nulo f (x) = a + bx + cx2 tal que f (0) = f (1) = f (−1) = 0?

7.9 PROBLEMAS

111

Problema 7.36 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Sea

f (x) de grado 9 y supóngase que f (x) = f1 (x) f2 (x) f3 (x) f4 (x) donde fi (x) es de grado > 0 para i = 1, 2, 3, 4. Demuéstrese que dos de los fi (x) tienen el mismo grado. Problema 7.37 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Decimos que f (x) y g(x) son asociados si f (x) | g(x) y g(x) | f (x). Demuéstrese que f (x) y g(x) son asociados si y solamente si f (x) = c · g(x) para algún complejo c 6= 0. Problema 7.38 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Demuestre que x5 − 5x4 + 1 no tienen ninguna raíz de multiplicidad 4.

8. Matrices

8.1

Definición formal Definición 8.1.1 Sea K un campo y sean n, m enteros positivos. Una matriz con n

renglones y m columnas es una colección de nm elementos de K, llamados las entradas (o elementos o coeficientes) de la matriz, en donde cada uno de los nm elementos se identifica por medio de dos indices. El primer indice indica el número del rengón y el segundo, el número de la columna. Al número n × m se le llama la dimensión (o el tamaño) de la matriz. Al conjunto de matrices de tamaño n × m sobre un campo K lo denotamos por Mn×m (K) o K n×m . Comúmente, usamos letras mayúsculas A, B,C, . . . para denotar matrices, Ai, j , Bi, j , . . . para denotar las posiciones y ai, j , bi, j , . . . para denotar sus elementos. Existe una manera más formal de definir las matrices. Esto se muestra en la definición 8.1.2. Definición 8.1.2 Una matriz de tamño n × m con elementos en un campo K es una función {1, 2, . . . , n} × {1, 2, . . . , m} −→ K. Observe que dos matrices A y B son iguales si y solamente si sus dimensiones coinciden y además ai, j = bi, j para toda i, j.

8.2

Operaciones con matrices Sean A = (ai, j ) y B = (bi, j ) dos matrices del mismo tamaño. Sea λ ∈ K. Entonces (A + B)i, j = ai, j + bi, j . (λ A)i, j = λ ai, j . Observe que la suma de matrices está bien definida si y solamente si sus dimensiones coinciden.

Capítulo 8. Matrices

114

Teorema 8.2.1 La suma de matrices es conmutativa, es decir, si A, B ∈ Mn×m (K),

entonces A + B y B + A están bien definidas y además A + B = B + A. Demostración. La igualdad en las dimensiones nos asegura que A + B y B + A están bien definidas. Ahora, (A + B)i, j = ai, j + bi, j = bi, j + ai, j = (B + A)i, j .  Teorema 8.2.2 Sean n y m enteros positivos y sea K un campo. Tenemos que el conjunto

de matrices Mn×m (K) tiene un neutro único y cada matriz tiene un inverso aditivo. Demostración. Definamos 0i, j = 0K , entonces (A + 0)i, j = ai, j + 0i, j = ai, j + 0K = ai, j = Ai, j . Supongamos que existe una matriz C tal que A +C = C + A = A para toda A ∈ Mn×m (K). En particular, 0 +C = C + 0 = 0 De aquí, C = 0. Y por lo tanto, el inverso es único.



Problema 8.1 Concluye la prueba del Teorema 8.2.2.

Sean A ∈ Mn×m (K) y B ∈ Mm×t (K). Definimos la multiplicación de matrices está dada por la siguiente fórmula: (AB)i, j = ∑m k=1 ai,k bk, j . Observe como trabajan las dimensiones de las matrices a multiplicar y la dimensión del producto resultante. 

Ejemplo 8.1



1 2 3 4



5 6 7 8



 =

19 22 43 50



 

Ejemplo 8.2



    1 0  0 1 2 3  0 2  0 1 2 3 =  0 −2 2 0  0 −1 1 0 −1 1 0 −2 −1 −3 

La multiplicación de matrices no es conmutativa. De hecho, pudiera ni siquiera estar definida en algunos casos. Por ejemplo, sea A ∈ M5×3 (K) y B ∈ M3×2 (K). Entonces el producto AB está bien definido, pero BA no está definido (no existe). Problema 8.2 Calcule AB y BA si     3 −4 5 2 −3 A =  1 5 ,B = −5 1 4 1 −2

8.2 Operaciones con matrices

115

Problema 8.3 Sean A y B matrices tales que existen ambos productos AB y BA, ¿Qué

podemos concluir sobre las dimensiones de A y B? ¿Tienen que ser cuadradas estas matrices o no necesariamente? Proposición 8.2.3 Sean A ∈ Mn×m (K) y B,C ∈ Mm×t (K). Entonces

A (B +C) = AB + AC.

Demostración. Las dimensiones de las matrices nos asegura que los productos y sumas están definidas. Ahora,

m

[A(B +C)]i, j =

∑ ai,k (B +C)k, j k=1 m

=

∑ ai,k (bk, j + ck, j ) k=1 m

=

∑ (ai,k bk, j + ai,k ck, j ) k=1 m

=

m

∑ ai,k bk, j + ∑ ai,k ck, j k=1

k=1

= (AB)i, j + (AC)i, j = (AB + AC)i, j .



A la Proposición 8.2.3 se le conoce como la ley distributiva por la derecha. Problema 8.4 Enuncia y demuestra la ley distributiva por la izquierda. (Sugerencia: Sé cuidadoso con las dimensiones.) Demostremos que, bajo las condiciones de dimensión apropiadas, la multiplicación de matrices es asociativa: Teorema 8.2.4 Sean A ∈ Mn×m (K), B ∈ Mm×t (K) y C ∈ Mt×s (K). Entonces

A (BC) = (AB)C.

Demostración. Las dimensiones aseguran que todos los productos están bien definidos.

Capítulo 8. Matrices

116 Además, m

[A (BC)]i, j =

∑ ai,k (BC)k, j k=1 m

=

ai,k k=1 m t



=

!

t

∑ bk,l cl, j l=1

∑ ∑ ai,k bk,l cl, j k=1 l=1 t m

=

∑ ∑ ai,k bk,l cl, j l=1 k=1 t m

=

∑ ∑ ai,k bk,l l=1 t

=

! cl, j

k=1

∑ (AB)i,l cl, j l=1

= [(AB)C]i, j .  Una matriz se dice que es una matriz cuadrada si su número de filas es igual a su número de columnas. Una consecuencia trivial de este hecho, es que el producto matrices cuadradas del mismo tamaño siempre está definido. De lo anterior, deducimos entonces que las potencias de una matriz cuadrada siempre están definidas y escribimos: A2 = AA y recursivamente An+1 = An A y por completez, A1 = A. Decimos que una matriz cuadrada A es nilpotente si existe una k ∈ N tal que Ak = 0. Decimos que una matriz cuadrada A es idempotente si A2 = A. 

Ejemplo 8.3 La matriz



 0 −1 3 2  0 0 3 5   A=  0 0 0 −4  . 0 0 0 0 es nipotente, ya que A4 = 0. Por otro lado, la matriz   0 1 . 1 0 es idempotente.



Problema 8.5 Si

 A=

1 1 1 1

 .

Demuestre que, para k > 0  k−1 k−1  2 2 k A = . k−1 2 2k−1

8.3 Multiplicación de matrices por vectores

117

Sea A una matriz cuadrada: A ∈ Mn (K). La traza de A se define mediante la fórmula: n

tr(A) =

∑ Ak,k . k=1

Problema 8.6 Demuestre las siguientes propiedades de la traza:

tr(A + B) = tr(A) + tr(B). tr(αA) = αtr(A) para α ∈ K. tr(AB) = tr(BA). Sea A ∈ Mm×n (K). Entonces la matriz transpuesta de A, que denotamos por AT , se define mediante la regla AT = (A j,i ) con 1 ≤ i ≤ n, 1 ≤ j ≤ m. Esto es, AT ∈ Mn×m (K) y (AT )i, j = A j,i . Problema 8.7 Demuestre las siguientes propiedades de la transpuesta: (AT )T = A para toda A ∈ Mm×n (K). (A + B)T = AT + BT para toda A, B ∈ Mm×n (K) . (λ A)T = λ AT para toda A ∈ Mm×n (K) y λ ∈ K. (AB)T = BT AT para toda A ∈ Mm×n (K) y B ∈ Mn×p (K). Una matriz cuadrada A ∈ Mn (K) se dice simétrica si AT = A y se dice antisimétrica si AT = −A. Problema 8.8 Determine si las siguientes matrices son simétricas o antisimétricas: 

8.3

7 3 3 1





       3 −5 1 0 −2 7 3 0 0 0 8 2 , 2 0 0 , , 5 , . 0 −5 0 0 −1 −2 4 −7 0 0

Multiplicación de matrices por vectores Es cómodo identificar los elementos de K n con los elementos de Mn×1 : un vector aritmético x con componentes x1 , . . . , xn corresponde a la matriz tamaño n × 1 cuyo (i, 1)ésima entrada es xi . En otras palabras, los elementos de K n se consideran habitualmente como vectores-columnas. Definición 8.3.1 Sean A ∈ Mm×n (K), x ∈ K n . Consideramos x como una matriz de n × 1. Entonces el producto Ax está bien definido, es una matriz de tamaño m × 1, y su (i, 1)-ésima entrada es n

(Ax)i,1 =

∑ Ai,k xk,1. k=1

Al escribir xk en vez de xk,1 y (Ax)i en vez de (Ax)i,1 , obtenemos la siguiente fórmula: n

(Ax)i =

∑ Ai,k xk . k=1

Capítulo 8. Matrices

118 Problema 8.9 Calcule los siguientes productos:



2 3 −1 4 −1 5





 3 5   1  1 −7  5   −2  ,   4 8  −4 , 5 0 2 



Definición 8.3.2 Sean x ∈ K m y A ∈ Mm×n (K). Entonces x se identifica como una

matriz de m × 1 y xT es una matriz de 1 × m que se llama vector-renglón (o vector-fila). El producto xT A se define según la regla general como una matriz de tamaño 1 × n, y su (1, j)-ésima entrada es n

(xT A)1, j =

n

∑ (xT )1,k Ak, j =

∑ xk,1Ak, j .

k=1

k=1

Al escribir xk en vez de xk,1 y (xT A) j en vez de (xT A)1, j , obtenemos la siguiente fórmula: n

(xT A) j =

∑ xk Ak, j . k=1

Problema 8.10 Calcule los siguientes productos:



   1 5   4 5 −6 3 −5 1  3 2  , 2 −1 , 3 2 0 −4 3 Sean A ∈ Mm×n (K), i ∈ {1, . . . , m}. Denotemos por Ai,∗ al i-ésimo renglón de la matriz A. Formalmente, Ai,∗ ∈ M1×n (K) y (Ai,∗ ) j = Ai, j . Sean A ∈ Mm×n (K), j ∈ {1, . . . , n}. Denotemos por A∗, j a la j-ésima columna de la matriz A. Formalmente, A∗, j ∈ Mm×1 (K) y (A∗, j )i = Ai, j . Definición 8.3.3 Sean A ∈ Mm×n (K) y B ∈ Mn×p (K). Consideremos la fórmula del

producto AB: m

(AB)i, j =

∑ ai,k bk, j . k=1

Si dejamos fijo el renglón i obtenemos una fórmula muy conveniente para el i-ésimo renglón del producto, a saber, (AB)i,∗ = Ai,∗ B. Si dejamos fijo la columna j obtenemos una fórmula muy conveniente para el j-ésima

8.4 (Opcional) Matrices Elementales

119

columna del producto, a saber, (AB)∗, j = AB∗, j .

8.4

(Opcional) Matrices Elementales Definición 8.4.1 La función δ : Z × Z → {0, 1} definida mediante la regla

 δi, j =

si i = j si i 6= j

1 0

es llamado el símbolo de Kronecker o la delta de Kronecker. 

Ejemplo 8.4 δ2,5 = δ5,2 = 0, δ4,4 = 1, δ−3,−3 = 1, δ7,1 = δ1,7 = 0.



Problema 8.11 Calcular las siguientes sumas: k ∑10 k=1 2 δk,4 , δ7,k ∑10 k=1 k , 2 ∑10 k=1 k δk,12 , 10 ∑k=1 δi,k δk, j con 1 ≤ i, j ≤ 10.

Definición 8.4.2 Sea K un campo, y sea n un entero positivo. La matriz identidad de

tamaño n, denotada por In o simplemente I (cuando es claro en el contexto que todas las matrices son de n × n), es la matriz de n × n cuya entrada (i, j)-ésima es 1 si i = j, y 0 si i 6= j. Más formalmente, (In )i, j = δi, j . Definición 8.4.3 La matriz canónica de n × n de coordenadas (r, s), denotada Enrs (o

simplemente E rs si es conocido el valor de n), es la matriz cuya entrada (i, j)-ésima es 1 si el par ordenado (i, j) es igual al par ordenado (r, s), y 0 en cualquier otro caso. Más formalmente, (Enrs )i, j = δr,i δs, j . 

Ejemplo 8.5

E212 =



0 1 0 0





0 0 0 0  0 , E333 =  0 0 0  , E432 =   0 0 0 1 0 



0 0 1 0

0 0 0 0

 0 0  . 0  0 

Definición 8.4.4 Una matriz elemental es una matriz cuadrada que tiene alguna de las

siguientes formas: Tipo I. I − E rr − E ss + E rs + E sr , con r 6= s; Tipo II. I − E rr + aE rr para algún a ∈ K, a 6= 0; Tipo III. I + aE rs con a ∈ K, a 6= 0 y i 6= j.

Capítulo 8. Matrices

120 

Ejemplo 8.6 Del tipo I:



     0 1 0 0 0 1 1 0 0  1 0 0 , 0 1 0 , 0 0 1 . 0 0 1 1 0 0 0 1 0 Del tipo II:       7 0 0 1 0 0 1 0 0  0 1 0 , 0 1 0 , 0 5 0 . 0 0 1 0 0 −8 0 0 1 Del tipo III:       1 2 0 1 0 −7 1 0 0  0 1 0 , 0 1 0 , 0 1 0 . 0 0 1 0 0 1 0 9 1 

Esto nos lleva a la siguiente definción: Definición 8.4.5 Sea A una matriz de n × m. Una operación elemental de renglones

(o también llamada operación elemental de filas) de A es una de las tres siguientes operaciones: Tipo I. (Intercambio) Intercambiar los renglones r-ésimo y s-ésimo, con r 6= s. Tipo II. (Escalamiento) Reemplazar el renglón r-ésimo por a veces el renglón i-ésimo, con a 6= 0. Coloquialmente, decimos que multiplicamos el renglón r-ésimo por a. Tipo III. (Reemplazo) Reemplazar el renglón s-ésimo de A por la suma del renglón s-ésimo más a veces el renglón r-ésimo, con s 6= r y a 6= 0. Coloquialmente, decimos que le sumamos al renglón s-ésimo a veces el renglón r-ésimo. En lo siguiente, a las operaciones elementales de renglones las llamaremos, simplemente, operaciones gaussianas. Denotamos por Ri al renglón i y compactamos las operaciones gaussianas de la siguiente manera: A la operación de intercambiar los renglones i y j, la denotamos Ri ↔ R j . A la operación de multiplicar el renglón i por un número k 6= 0, la denotamos por Ri ↔ kRi . A la operación de reemplazar el renglón j con la multiplicación por k 6= 0 de la ecuación i y la suma del renglón j la denotamos por R j ↔ R j + kRi . 

Ejemplo 8.7 Considere la matriz

 A=

1 0 −1 3

 ,

Sumando 2 veces el segundo renglón al primer renglón de A nos da la matriz   −1 6 A= , −1 3 Intercambiando el primero y el segundo renglón de A nos da   −1 3 A= , 1 0

8.4 (Opcional) Matrices Elementales

121

Multiplicando el segundo renglón de A por −2 nos da   1 0 A= . 2 −6 

Teorema 8.4.1 Sea R una matriz elemental de n × n del Tipo i, con i = 1, 2, 3. Entonces

R se obtiene de realizar una única operación elemental de renglón de Tipo i a la matriz identidad In . Debido a esto, a la operación elemental de renglón de arriba se le llama la operación elemental de renglón asociada a la matriz elemental R. Inversamente, si se realiza una operación elemental de renglón a I, se obtendrá una matriz elemental del mismo tipo. Más aún, si A es una matriz de n × m, entonces el producto RA es igual al resultado de realizar a A la operación elemental de renglón asociada a R. Demostración. Observe que (E rs A)i∗ = (E rs )i∗ A Ahora, (E rs )i∗ es un vector renglón y tenemos  n 0 rs rs [(E )i∗ A]i j = ∑ (E )ik Ak j = ∑nk=1 (E rs )rk Ak j = As j k=1

si i 6= r si i = r

Ahora, veamos que pasa con las matrices del tipo I, es decir, [(I − E rr − E ss + E rs + E sr ) A]i j y calculemos su entrada (i. j)-ésima:   Ai j Ar j − Ar j − 0 + As j + 0 = As j [A − E rr A − E ss A + E rs A + E sr A]i j =  As j − 0 − As j + 0 + Ar j = Ar j

si i 6= s, r si i = r si i = s

ahora es claro el teorema para las matrices del tipo I. Para las matrices del tipo II, i.e., [(I − E rr + aE rr ) A]i j :  Ai j si i 6= r rr rr [A − E A + aE A]i j = Ar j − Ar j + aAr j = aAr j si i = r y vemos que el teorema se sigue para matrices del Tipo II. Finalizar el teorema requiere de un analisis similar y se deja al lector.  Definición 8.4.6 Sean A y B matrices de n × m. Decimos que A y B son equivalentes

por renglones (o equivalentes por filas) si B se puede obtener de A realizando un número finito de operaciones elementales de renglones. 

Ejemplo 8.8 Las matrices

 A=

1 2 3 8



 ,B =

son equivalentes por renglón.

0 1 1 2





Capítulo 8. Matrices

122

Teorema 8.4.2 Sean A y B matrices de n × m con entradas en un campo K. Entonces A

y B son equivalentes por reglones si y sólo si existe una matriz C de n × n tal que C es producto de matrices elementales y B = CA. Teorema 8.4.3 La relación “equivalente por renglones a” es una relación de equiva-

lencia en el conjunto de todas las matrices n × m con entradas en un campo K, es decir: 1. Toda matriz es equivalente por renglones a sí misma. 2. Si A es equivalente por renglones a B entonces B es equivalente por renglones a A. 3. Si A es equivalente por renglones a B y B es equivalente por renglones a C, entonces A es equivalente por renglones a C.

8.5

Matriz escalonada y matriz escalonada reducida Definición 8.5.1 Una matriz escalonada es una matriz cuyos renglones que consisten

únicamente de ceros, si los hay, están en la parte inferior de la matriz y, la primera entrada diferente de cero en el resto de los renglones está a la derecha de la primera entrada diferente de cero del renglón anterior. 

Ejemplo 8.9 La forma escalonada de una matriz luce como sigue:

       

* 0 0 0 0 0

∗ ∗ 0 0 0 0

∗ ∗ 0 0 0 0

∗ ∗ ∗ 0 0 0

∗ ∗ ∗ 0 0 0

∗ ∗ ∗ ∗ 0 0

∗ ∗ ∗ ∗ 0 0

∗ ∗ ∗ ∗ 0 0

    .    

Problema 8.12 ¿La matriz cero es escalonada? Definición 8.5.2 Una matriz escalonada reducida es una matriz que está en su forma

escalonada, todos los pivotes son 1 y cada pivote es la única entrada no cero es su columna. 

Ejemplo 8.10 La forma escalonada reducida de una matriz luce como sigue:

        

1 0 0 0 0 0

0 1 0 0 0 0

∗ ∗ 0 0 0 0

0 0 1 0 0 0

∗ ∗ ∗ 0 0 0

0 0 0 1 0 0

∗ ∗ ∗ ∗ 0 0

∗ ∗ ∗ ∗ 0 0

     .    

8.6

Métodos de Gauss y de Gauss-Jordán Brevemente, el algoritmo gaussiano consiste en llevar, mediante operaciones renglón, una matriz a su forma escalonada (o escalonada reducida).

8.6 Métodos de Gauss y de Gauss-Jordán 

123

Ejemplo 8.11 Encuentra la matriz escalonada reducida de



 1 2 −1  2 2 4 . 1 3 −3 

Solución: La eliminación de Gauss-Jordan produce     1 2 −1 1 2 −1 R2 ↔ (−2)R1 +R2   2 2 4  0 −2 6  R3 ↔ (−1)R1 +R3 1 3 −3 −−−−−−−−−−−−−→ 0 1 −2   1 2 −1 R2 ↔ (−1/2)R  0 1 −3  −−−−−−−−−−→2 0 1 −2   1 0 5 R1 ↔ (−2)R2 +R1  0 1 −3  R3 ↔ (−1)R2 +R3 −−−−−−−−−−−−−→ 0 0 1   1 0 0 R1 ↔ (−5)R3 +R1  0 1 0  R2 ↔ (3)R3 +R2 −−−−−−−−−−−−−→ 0 0 1 De aquí, I3 es la forma escalonada reducida de A. 

Ejemplo 8.12 Encuentra la forma escalonada de



 2 1 −4  −4 −1 6  . −2 2 −2 

Solución: La eliminación de Gauss produce     2 1 −4 2 1 −4 R2 ↔ (2)R1 +R2   −4 −1 6  0 1 −2  R3 ↔ (1)R1 +R3 −2 2 −2 −−−−−−−−−−−−→ 0 3 −6   2 1 −4 R3 ↔ (−3)R2 +R3  0 1 −2  −−−−−−−−−− −−→ 0 0 0   2 1 −4 De aquí,  0 1 −2  es la forma escalonada asociada a A. 0 0 0 Problema 8.13 Halle una matriz escalonada equivalente por renglones a las siguientes matrices:     1 −1 −1 2 1 0 2 3 8  2 3 1 5  ,  2 −2 −1 3 3  1 −1 −2 −5 −1 1 −1 0 −3

Capítulo 8. Matrices

124

Teorema 8.6.1 Sea A una matriz de n × m con entradas en un campo K. Entonces existe

una matriz escalonada que es equivalente por renglones a A. Problema 8.14 Halle una matriz escalonada reducida equivalente por renglones a las matrices del Ejercicio 8.13 Teorema 8.6.2 Sea A una matriz con entradas en un campo K. Entonces existe una

única matriz escalonada reducida que es equivalente por renglones a A.

8.7

La inversa de una matriz Comencemos calculando el producto de las siguientes matrices:     2 −4 −3 −1 2 9 3 ,B =  0 1 3  A =  −3 7 1 −2 −1 −1 0 2 Observemos que AB = I3 = BA. Este fenómeno motiva la siguiente definición. Definición 8.7.1 Sean A, B ∈ Mn (K). Se dice que B es la matriz inversa de A si AB = In y BA = In y decimos que A es invertible.

La pregunta que nos hacemos ahora es: ¿La matriz inversa es única? La respuesta afortunadamente es afirmativa y esto lo mostramos en el siguiente teorema. Teorema 8.7.1 Sean A, B,C ∈ Mn (K) tales que AB = BA = In y AC = CA = In . Entonces

B = C. Demostración. Usando el Teorema 8.2.4, calculamos el producto BAC de dos diferentes maneras. Por un lado, BAC = B(AC) = B(In ) = B. Por otro lado, BAC = (BA)C = (In )C = C. Entonces B = C.



El Teorema 8.7.1 muestra que la matriz inversa, si existe, es única. La matriz inversa a la matriz A se denota A−1 . 

Ejemplo 8.13 Un ejemplo trivial de una matriz no invertible es la matriz nula 0n .



Ejemplo 8.14 Sea

 A=

1 0 0 0

 .

Entonces para cualquier matriz   b1,1 b1,2 B= . b2,1 b2,2



8.7 La inversa de una matriz

125

tenemos que:   b1,1 b1,2 6= I2 . AB = 0 0 Por lo tanto, la matriz A es no invertible.



Má adelante, daremos condiciones para determinar si una matriz es invertible o no de una manera rápida y eficiente. Mientras tanto, Proposición 8.7.2 Sea A ∈ Mn (K) una matriz cuadrada. Supongamos que (por lo menos)

una fila de A es nula, digamos, Ai,∗ = 0 para i ∈ {1, . . . , n}. Entonces A no es invertible. Demostración. Supongamos que B ∈ Mn (K), AB = I, BA = I. Entonces. en particular, (AB)i,∗ = Ai,∗ B 6= Ii,∗ . Una contradicción.  Problema 8.15 Enuncia y demuestra la versión para columnas nulas de la Proposición

8.7.2 La proposición 8.7.2 y el Ejercicio 8.15 implican que todas las filas y todas las columnas de una matriz invertible son no nulas. Esta condición es necesaria para la inversibilidad de una matriz pero en general no es suficiente. Existen matrices que no contienen ninguna fila (y ninguna columna) nula, pero no son invertibles. (El lector, ¿puede dar un ejemplo de este hecho?) Proposición 8.7.3 La inversa posee las siguientes propiedades:

In es invertible. Más aún, In−1 = In . Si A, B ∈ Mn (K) son invertibles, entonces la matriz AB también es invertible, y (AB)−1 = B−1 A−1 . Si A ∈ Mn (K) es invertible, entonces la matriz A−1 también es invertible, y (A−1 )−1 = A. Si A ∈ Mn (K) es invertible, entonces la matriz AT también es invertible, y (AT )−1 = (A−1 )T . Problema 8.16 Demuestra la Proposición 8.7.3. Teorema 8.7.4 — Opcional. Toda matriz elemental R es invertible, y su inversa es una

matriz elemental del mismo tipo. Demostración. Tenemos tres casos, según el tipo de la matriz elemental R. En cada caso sólo daremos la inversa, y se le dejará al lector demostrar que efectivamente lo es (Ejercicio de la Lista 04) Tipo I. R = I − E ii − E j j + E i j + E ji , con i 6= j; entonces R−1 = R; Tipo II. R = I − E ii + aE ii para algún a ∈ K, a 6= 0; entonces R−1 = I − E ii + a−1 E ii , Tipo III. R = I + aE i j con algún a ∈ K, a 6= 0, y i 6= j; entonces R−1 = I − aE i j . 

126

Capítulo 8. Matrices

Teorema 8.7.5 Sea A una matriz de n × n con entradas en un campo K. Tenemos que

son equivalentes las siguientes condiciones: 1. A es invertible. 2. A es equivalente por renglones a la matriz identidad In . 3. A es un producto de matrices elementales. Demostración. (1) ⇒ (2) : Suponga que A es invertible. Sea B una matriz escalonada reducida por renglones equivalente a A. Tenemos que existe una matriz C que es producto de matrices elementales, tales que B = CA. Como toda matriz elemental es invertible, su producto C también es invertible, por lo que CA = B también es invertible. Como B es una matriz escalonada reducida invertible, no puede tener renglones nulos y debe ser igual a la matriz identidad I. (2) ⇒ (3) : Suponga que A es equivalente por renglones a la matriz identidad In . Tenemos que existe una matriz C que es producto de matrices elementales, tales que I = CA. Como dijimos antes, C es invertible y multiplicando por C−1 por la izquierda nos queda C−1 = A. Pero el inverso de un producto es el producto de los inversos en el orden contrario, y como el inverso de una matriz elemental es otra matriz elemental, tenemos que A es producto de matrices elementales. (2) ⇒ (3) : Se sigue de que las matrices elementales son invertibles y producto de invertibles es invertible.  Corolario 8.7.6 Sea A una matriz invertible de n × n. Si una sucesión de operaciones

elementales de renglón nos lleva de A a I, la misma sucesión de operaciones elementales nos lleva de I a A−1 . Demostración. Como A es equivalente por renglones a la matriz identidad In , tenemos que existe una matriz C que es producto de matrices elementales, tales que I = CA. Entonces A−1 = C, de donde A−1 = C = CI.  Corolario 8.7.7 Sean A y B matrices de n × n. Entonces B es equivalente por renglones

a A si y sólo si existe una matriz invertible C tal que B = CA. Demostración. Para que B sea equivalente por renglones a A necesitamos que exista una matriz C que sea producto de matrices elementales y tal que B = CA. El resto se sigue de que una matriz es invertible si y sólo si es producto de matrices elementales.  Es posible realizar operaciones con renglones sobre A e I simultáneamente al construir una “matriz superaumentada” (A | I), ya que A es equivalente a I, podemos realizarle a la matriz (A | I) operaciones por renglón (esto nos aseguraría que, las mismas operaciones y en el mismo orden, son hechas tanto a A como a I) y llevar la parte izquierda de la matriz a la identidad, lo que obtendremos en la parte derecha es, como esperariamos, la matriz A−1 . En símbolos:  (A | I) → · · · → I | A−1 . Si A no puede ser llevada a I, entonces A no es invertible. El uso de la eliminación de Gauss-Jordan se ilustra con algunos ejemplos.

8.7 La inversa de una matriz 

127

Ejemplo 8.15 Encuentra la inversa de



 1 2 −1 A= 2 2 4  1 3 −3 si existe.



Solución: La eliminación de Gauss-Jordan produce   1 2 −1 1 0 0 (A | I) =  2 2 4 0 1 0  1 3 −3 0 0 1  1 2 −1 1 0 0 R2 ↔ (−2)R1 +R2  0 −2 6 −2 1 0 R3 ↔ (−1)R1 +R3 −−−−−−−−−−−−−→ 0 1 −2 −1 0 1   0 0 1 2 −1 1 R2 ↔ (−1/2)R2  0 1 −3 1 − 12 0  −−−−−−−−−−→ 0 1 −2 −1 0 1  1 0 5 −1 1 0 R1 ↔ (−2)R2 +R1  0 1 −3 1 − 12 0 R3 ↔ (−1)R2 +R3 1 −−−−−−−−−−−−−→ 0 0 1 −2 2 1  1 0 0 9 − 32 −5 R1 ↔ (−5)R3 +R1  0 1 0 −5 1 3 R2 ↔ (3)R3 +R2 1 1 −−−−−−−−−−−−−→ 0 0 1 −2 2 De aquí,   9 − 32 −5 3 . A−1 =  −5 1 1 −2 2 1 

 

   

Ejemplo 8.16 Encuentra la inversa de



 2 1 −4 A =  −4 −1 6  −2 2 −2 si existe. Solución: La eliminación de Gauss-Jordan produce   2 1 −4 1 0 0 (A | I) =  −4 −1 6 0 1 0  −2 2 −2 0 0 1  2 1 −4 1 0 0 R2 ↔ (2)R1 +R2  0 1 −2 2 1 0 R3 ↔ (1)R1 +R3 −−−−−−−−−−−−→ 0 3 −6 1 0 1  2 1 −4 1 0  1 R3 ↔ (−3)R2 +R3 0 1 −2 2 −−−−−−−−−−−−→ 0 0 0 −5 −3



   0 0  1

128

Capítulo 8. Matrices

En este punto se ve que no es posible reducir A a I, pues existe un renglón de ceros en el lado izquierdo de la matriz aumentada. De aquí, A no es invertible. Problema 8.17 Use el método de Gauss-Jordan para encontrar la inversa de la matriz dada (si  existe). 1 2 1. .  3 4  −2 4 2. .  3 −1  3 −4 3. . −6 8  1 a 4. .  −a 1  2 0 −1 5.  1 5 1 .  2 3 0  1 −1 2 2 . 6.  3 1  2 3 −1  1 1 0 7.  1 1 1 .  0 1 1  a 0 0  1 a 0 . 8.  0 1 a  0 a 0  b 0 c . 9. 0 d 0   0 −1 1 0  2 1 0 2   10.   1 −1 3 0 . 0 1 1 −1 √   √ 2 √0 2 2 0 √  −4 2 2 0 0  . 11.   0 0 1 0  0 0 3 1   1 0 0 0  0 1 0 0   12.   0 0 1 0 . a b c d

8.8

El rango de una matriz Definimos el rango de una matriz.

8.9 Ejercicios

129

Definición 8.8.1 Sea A ∈ Mn×m (K) y sea E su forma escalonada reducida. El rango

de A se define: rango(A) = =

número de pivotes de E. número de renglones distintos de cero de E.

Las columnas básicas de A (o también llamadas columnas base) son las columnas de A que contienen los pivotes. 

Ejemplo 8.17 Sea



 −2 −5 8 0 −17 1 3 −5 1 5   A=  3 11 −19 7 1  1 7 −13 5 −3 Usando operaciones gaussiandas llevamos a A a su forma escalonada reducida:   1 0 1 0 1 0 1 −2 0 3   A= 0 0 0 1 −5 0 0 0 0 0 Es claro que las columnas 1,2 y 4 son las pivotales y por lo tanto, las clumnas básicas de A son:       −5 0    −2    1   3  1  , ,   3   11  7      5 1 7 

Algunas propiedades de los determinantes tienen un impacto importante en el rango de la matriz, por ejemplo, las operaciones del Tipo I,II y III conservan el rango, al igual que suprimir las filas (columnas) de ceros o intercambiar dos filas (columnas).

8.9

Ejercicios 1. Si A, B,C y 0 tienen el orden adecuado y k, k1 y k2 son escalares. Demuestre que las siguientes propiedades se cumplen: a) A + B = B + A. b) A + (B +C) = (A + B) +C. c) A + 0 = 0 + A = A. d) k(A + B) = kA + kB. e) (k1 + k2 )A = k1 A + k2 A. f ) k1 (k2 A) = (k1 k2 )A. g) 0 · A = 0. h) k · 0 = 0. i) A(BC) = (AB)C.

Capítulo 8. Matrices

130

j) A(B +C) = AB + AC. k) (A + B)C = AC + BC l) k(AB) = (kA)B = A(kB). No se te olvide establecer correctamente las dimensiones de las matrices involucradas. 2. Sean A, B,C, por   D matrices  definidas      3 0 1 5 2 −3 −1 4 −1       1 ,D = A = −1 2 , B = −1 1 0 ,C = 2 2 0 1 1 −4 1 3 4 3 ¿Cuáles de las siguientes matrices están definidas? En caso de que lo estén, calcula la matriz resultante. A + B, A +C, AB, BA,CD, DC, D2 . 3. Sean A, B,C matrices de n × n. Halla contraejemplos para los siguientes enunciados. a) (A + B)2 = A2 + 2AB + B2 . b) A2 − B2 = (A − B)(A + B). c) A2 B2 = (AB)2 d) Si AB = 0 entonces A = 0 o B = 0. e) Si AB = 0 entonces BA = 0. f ) Si A j = 0 para alguna j > 1, entonces A = 0. g) Si A2 = A entonces A = 0 o A = In . 4. Dé un ejemplo de matrices A, B,C ∈ Mn (K) tales que AC +CB 6= (A + B)C. 5. Calcule el siguiente producto. Simplifique el resultado usando fórmulas trigonométricas:    cos (α) −sen (α) cos (β ) −sen (β ) . sen (α) cos (α) sen (β ) cos (β ) 6. Demuestre las siguientes propiedades acerca de matrices simétricas y antisimétricas: a) Todos los elementos diagonales de una matriz antisimétrica son iguales a cero. b) La suma y el producto por escalar de matrices simétricas también son matrices simétricas. Enuncie y demuestre la propiedad análoga para matrices antisimétricas. c) Sea A ∈Matn×m (K) una matriz simétrica y antisimétrica. Demuestre que A es nula. 7. Muestre que para cada matriz cuadrada A ∈Matn×m (K) existe un único par de matrices (B,C) tal que A = B + C, B es simétrica y C es antisimétrica. En otras palabras, cada matriz cuadrada se puede representar de manera unica como suma de una matriz simétrica y una matriz antisimétrica. 8. Sea A ∈Matn×m (K) una matriz escalar, esto es, A = λ In para algún λ ∈ K. Demuestre que A conmuta con todas las matrices de Matn×m (K). 9. Usando solamente la definición, demuestre que la matriz   α β A= 0 γ es invertible si y solamente si α 6= 0 y γ 6= 0. Calcule la matriz inversa.

8.9 Ejercicios

131

10. Calcule An 

 λ 1 0 A =  0 λ 1 . 0 0 λ

11.

12. 13. 14.

15.

La parte no trivial consiste en obtener la fórmula correcta para la (1, 3)-ésima entrada de An . Determina si los siguientes enunciados son verdadero o falso. (Justifique su respuesta exhibiendo una prueba o dando un contraejemplo.) a) Sea A, B ∈ Mn (K), entonces (AB)n = An Bn para cualquien n ∈ N. b) La matriz cuadrada cero es invertible. c) Sea A una matriz invertible tal que A es su propia inversa. Entonces A es la matriz identidad. d) Sea A una matriz invertible. Entonces An es invertible para todo entero positivo n. e) Sea A una matriz cuadrada tal que A2 es invertible. Entonces A es invertible. Sea A ∈ Mn (K). Supongamos que (por lo menos) una fila de A es nula, es decir, A posee (al menos) una fila de puros ceros. Demuestre que A no es invertible. Sea A ∈ Mn (R) una matriz tal que A7 = 4In . Demuestre que A es invertible y exprese A−1 en términos de A. Sea A ∈ Mn (R) una matriz tal que A5 es invertible, esto es, existe una matriz B ∈ Mn (R) tal que A5 B = BA5 = In . Demuestre que la matriz A es invertible y halle una fórmula para A−1 en términos de A y B. Una matriz cuadrada A ∈ Mn (K) se llama diagonal si todos los elementos fuera de la diagonal principal son cero, es decir, ∀i, j ∈ {1, 2, . . . , n} con i 6= j se tiene que Ai j = 0. Una matriz diagonal con elementos diagonales a1 , . . . , an se denota por diag (a1 , . . . , an ) :   a1 0 0 · · · 0  0 a2 0 · · · 0     0 0 a3 · · · 0  diag (a1 , . . . , an ) =  .  .. .. .. . . ..   . . .  . . 0 0 0 · · · an

Note que los elementos de la diagonal principal de una matriz diagonal pueden ser iguales o cero. Por ejemplo, la matriz identidad, la matriz cero o una matriz escalar (cf. Ejercicio 7 de la Lista 2) son diagonales. Muestre entonces las siguientes propiedades sobre matrices diagonales: a) diag (a1 , . . . , an ) + diag (b1 , . . . , bn ) = diag (a1 + b1 , . . . , an + bn ) . b) λ diag (a1 , . . . , an ) = diag (λ a1 , . . . , λ an ) . 16. Sea A ∈ Mn (K) una matriz diagonal, esto es, A = diag (a1 , . . . , an ). Entonces las siguientes condiciones son equivalentes: a) A es invertible; b) Todos los elementos diagonales de A son distintos de cero, esto es, a1 6= 0, . . . , an 6= 0. 17. Haga una búsqueda exhaustiva de todas las matrices elementales de 1 × 1 sobre un campo K y diga de que tipo son cada una.

132

Capítulo 8. Matrices

18. Para cada una de las siguientes matrices sobre Q, halle una matriz equivalente por renglones que sea escalonada reducida:         1 −2 1 −2 2 −3 1 0 0 −5 , , , . 0 1 5 3 1 0 7 0 2 1 19. Para cada una de las siguientes matrices, diga si es o no invertible. En caso de ser no-invertible, dé una justificación de porqué no lo es y en caso de ser invertible, halle su inversa de manera explícita.       2 4 6 2 4 6 2 4 6 ,  0 −1 −3  ,  0 −1 −3  . 0 −1 −3 0 0 0 0 0 4 20. Determina si los siguientes enunciados son verdadero o falso. (Justifique su respuesta exhibiendo una prueba o dando un contraejemplo.) a) La identidad es una matriz elemental. b) Toda matriz escalonada reducida por renglones es una matriz escalonada por renglones. c) Toda matriz escalonada por renglones es escalonada reducida por renglones. d) Sean A y B matrices de la misma dimensión. Si A y B son equivalentes por renglones y ambas son escalonadas por renglones, entonces A = B. e) Sea A una matriz. Realice primero una operación elemental de renglones a A para obtener una matriz B, y luego realice otra operación elemental de renglones a B para obtener una matriz C. Entonces C se puede obtener de A haciendo una única operación elemental de renglones. 21. Demuestre que una matriz elemental no puede ser de dos tipos diferentes. 22. Sea A ∈ Mn×m (K), y sea 0 la matriz cero de n × m con entradas en un campo K. Demuestre que A es equivalente por renglones a 0 si y sólo si A = 0. 23. Demuestra el siguiente teorema (que fue discutido previamente en clase): Toda matriz elemental R es invertible, y su inversa es una matriz elemental del mismo tipo. 24. Sean A, B ∈ M2 (K). Demuestre que si A y B son equivalentes por renglones y ambas son escalonadas reducidas por renglones, entonces A = B. 25. Sean A, B ∈ Mn (K) tales que BA = I. a) Sea C una matriz en su forma escalonada reducida por renglones equivalente por renglones a B. Demuestre que todos los renglones de C son no nulos.Concluya que C = I. b) Demuestre que B es invertible. c) Demuestre que A es invertible. 26. Una matriz cuadrada se llama matriz triangular superior si todas las entradas abajo de la diagonal principal son cero. Por lo tanto, la forma de una matriz triangular superior es   ∗ ∗ ··· ∗ ∗  0 ∗ ··· ∗ ∗    . . .. ..   . . .   0 0  . .   .. .. ∗ ∗  0 0 ··· 0 ∗

8.9 Ejercicios

133

donde las entradas   marcadas ∗ son arbitrarias. Una definición más formal de tal matriz A = Ai, j es que Ai, j = 0 si i > j. a) Demuestra que el producto de dos matrices triangulares superiores de n × n es triangular superior. b) Escribe la definición de matriz triangular inferior. 27. Sea F4 = {0, 1, a, b} consistiendo de 4 elementos. Defina la suma y la multiplicación en F4 por medio de las siguientes tablas: + 0 1 a b

0 0 1 a b

1 1 0 b a

a a b 0 1

b b a 1 0

· 0 1 a b

0 0 0 0 0

1 a b 0 0 0 1 a b a b 1 b 1 a

F4 es llamado el campo finito de cuatro elementos. Halla la forma escalonada reducida de la siguiente matriz sobre F4 :   1 a b a A= a b b 1  1 1 1 a 28. Use el método de Gauss-Jordan para encontrar la inversa de la matriz dada (si existe).     3 −4 0 a 0 a) d)  b 0 c   −6 8 0 d 0 1 a √  √  b) −a 1 2 0 2 2 0   √ √  −4 2 1 1 0 2 0 0    e)  0 c)  1 1 1  0 1 0  0 1 1 0 0 3 1

PROBLEMAS   4 −1 Problema 8.18 (Propuesto en Prueba de Desempeño 2015) Sea A = . Halla 8 −2 b y c tales que A2 + bA + cI2 = 0. Problema 8.19 (Propuesto en Prueba de Desempeño 2015) Cierto o falso: La suma de dos matrices antisimétricas es antisimétrica. Problema 8.20 (Propuesto en Prueba de Desempeño 2015) Sean A, B matrices de n×n. Dar condiciones para que A2 − B2 = (A − B)(A + B). Problema 8.21 (Propuesto en Prueba de Desempeño 2015) Verdadero o falso: Si A es una matriz de n × n tal que A2 = A, entonces A = 0 o A = In . Problema 8.22 (Propuesto en Prueba 2015) Sea A una matriz de 2 × 2  de Desempeño  a b con entradas reales; por ejemplo, A = . Halla un polinomio mónico p(x) de grado c d 2 con coeficientes reales tal que p(A) = 0. Problema 8.23 (Propuesto en Prueba de Desempeño 2015) Sean A y B dos matrices de 2017 × 2017 sobre R. Defina el conmutador de A y B como [A, B] = AB − BA.

134

Capítulo 8. Matrices

Halle la traza de I2017 − [A, B]. Problema 8.24 (Propuesto en Prueba de Desempeño 2015) Sea u ∈ Rn tales que uT u = 1 y sea A la matriz de n × n definida por In − 2uuT . 1. ¿Es A simétrica? 2. ¿Es A ortogonal? 3. Calcula Au y Aw, donde w ∈ Rn y uT w = 0. Problema 8.25 (Propuesto en Prueba de Desempeño 2015) Halla   π N 1 2N . limN→∞ π − 2N 1 Problema 8.26 (Propuesto en Prueba de Desempeño (Acompañamiento) 2015) Con-

sidere las siguientes matrices:     2 0 −1 7 −5 1 A= , B= , 4 −5 2 1 −4 −3      1 2 3 5 C= , D= , E = −5 3 . −2 1 −1 4 Calcule la suma o producto si la matriz está definida. Si alguna expresión no está definida, explique porqué. 1. A − 3B. 2. DA. 3. E T . 4. 2B − 3D. 5. EB. Problema 8.27 (Propuesto en Prueba de Desempeño (Acompañamiento)   2015) Halle 1 −i una matriz escalonada reducida por filas que sea equivalente a 2 2 . i 1+i Problema 8.28 (Propuesto en Prueba de Desempeño (Acompañamiento) 2015) Sean     2 3 1 9 A= yB= . ¿Qué valor(es) de k, si los hay, harán que AB = BA? −1 1 −3 k Problema 8.29(Propuesto en Prueba de Desempeño (Acompañamiento) 2015) Sea  0 1 1 M = 1 0 1. Halle M −6 . 1 1 0 Problema 8.30 (Propuesto en Prueba de Desempeño (Acompañamiento) 2015) Si B es una matriz antisimétrica de n × n, ¿es In − B invertible? Justifica claramente tu respuesta. Problema 8.31 (Propuesto en Prueba (Acompañamiento) 2016) De de Desempeño  2 −1 0 termina la inversa de la matriz A = −1 1 −2 1 0 −1 Problema 8.32 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Sea   λ 0 A= . Halla una fórmula para An y demuéstrala por inducción. 1 λ Problema 8.33 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Describe todas las matrices que sean simétricas y anti-simétrics al mismo tiempo. Si no existieran este tipo de matrices, demuestra porqué.

8.9 Ejercicios

135

Problema 8.34 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Esca-

lona la siguiente matriz   1 1 1 A = b + c c + a a + b bc ac ab donde a, b, c son números reales.

9. Determinantes

Históricamente, los determinantes precedían a las matrices, un hecho curioso a la luz de la forma como se enseña el Álgebra Lineal en la actualidad, con las matrices antes de los determinantes. No obstante, los determinantes surgen independientemente de las matrices en la solución de muchos probas prácticos, y la teoría de los determinantes estaba bien desarrollada casi dos siglos antes de que a las matrices se les otorgara un valor de estudio como tal. En este capítulo haremos un estudio de tal objeto matemático. El resultado principal relativo a los determinantes es que ellos codifican la propiedad de inversabilidad de una matriz cuadrada. Empezaremos este capítulo estudiando una regla práctica para el cálculo de determinantes de una matriz de 2 × 2 y 3 × 3 y luego pasaremos a la resolución de determinantes de órdenes superiores. Posteriormente, estudiaremos el rango y la inversión de matrices, transformaciones elementales para el cálculo del rango y de la matriz inversa, y, por último, el concepto de matrices equivalentes.

9.1

Cálculo de determinantes de matrices de 2 × 2 En el Ejercicio 16 del Capítulo 8 mostramos que si A ∈ Mn (K) es una matriz diagonal, esto es, A = diag(a1 , . . . , an ), entonces A es invertible si y solamente si todos los elementos diagonales de A son distintos de cero, es decir, a1 6= 0, . . . , an 6= 0. Este resultado es un caso particular del siguiente: Teorema 9.1.1 Si

 A=

a b c d

 ,

Capítulo 9. Determinantes

138 entonces A es invertible, si ad − bc 6= 0, en cuyo caso   1 d −b −1 A = . ad − bc −c a Si ad − bc = 0, entonces A no es invertible.

Prueba: Suponga que ad − bc 6= 0 y por cálculo directo:        a b d −b ad − bc 0 1 0 = = (ad − bc) . c d −c a 0 ad − bc 0 1 De igual modo,      d −b a b 1 0 = (ad − bc) . −c a c d 0 1 1 Dado que ad −bc 6= 0, podemos multiplicar ambos lados de la ecuación por ad−bc , de donde se sigue el primer enunciado. Por el contrario, suponga que ad − bc = 0. Consideraremos dos casos, cuando a 6= 0 y cuando a = 0. Si a 6= 0, entonces d = bc a , de modo que la matriz A se puede escribir         a b a b a b a b A= = = ac bc = c d ka kb c bc a a a

donde k = ac . En otras palabras, el segundo renglón de A es un múltiplo del primero y se sigue que A no es invertible. Si a = 0, entonces ad − bc = 0 implica que bc = 0, y por lo tanto b = 0 o c = 0. En consecuencia A es de la forma     0 0 0 b o . c d 0 d Y por lo tanto, la matriz no es invertible y se sigue el resultado. Observe que el Teorema 9.1.1 nos dá una fórmula explícita para el cálculo de inversas de 2 × 2. Definición 9.1.1 La expresión ad − bc del Teorema 9.1.1 se llama el determinante de A y se denota por det A.   1 2  Ejemplo 9.1 Calculemos el determinante de la matriz directamente de la 3 4 definición det(A) = (1)(4) − (2)(3) = 4 − 6 = −2. 

  −3 2 directamente de la  Ejemplo 9.2 Calculemos el determinante de la matriz −1 8 definición det(A) = (−3)(8) − (2)(−1) = −24 + 6 = −22.. 

9.2 Cálculo de determinantes de matrices de 3 × 3 139     1 2 12 −15 Problema 9.1 Halle los determinantes de A = yB= . 3 4 4 −5 Problema 9.2 ¿Como definiría el determinante deuna matriz de 1 × 1?    a b d −b 1 Por lo tanto, la fórmula de la inversa de (cuando existe) es det A . c d −c a Teorema 9.1.2 Una matriz de 2 × 2 es invertible si y solamente si det A 6= 0.

   1 2  Ejemplo 9.3 Calculemos la inversa de de la matriz , sabemos que det(A) = −2, 3 4 se sigue entonces que     1 −2 1 4 −2 −1 A = = 3 . − 12 −2 −3 1 2 Demostración. Se sigue del Teorema 9.1.1.



  −3 2 , sabemos que det(A) = −22,  Ejemplo 9.4 Calculemos la inversa de la matriz −1 8 se tiene    4 1 1 8 −2 − 22 11 −1 . A = = 1 3 − 22 −22 1 −3 22 

 Problema 9.3 Halle las inversas de A =

9.2

1 2 3 4



 yB=

 12 −15 . 4 −5

Cálculo de determinantes de matrices de 3 × 3 Aunque la definición de determinante se puede hacer en contextos muchos más generales por medio del uso de permutaciones, y demostrando que la función determinante es única, esto no será hecho aquí. Por ahora, es suficiente con saber que un determinante es una función que, a cada matriz le asigna un elemento del campo, específicamente, det : Mn (K) −→ K. Aunque esta función parece trivial, no lo es. Como vimos en la sección previa, el determinante de una matriz de 2 × 2 codifica el número de pivotes, el intercambio de filas y por supuesto, la inversibilidad de la matriz. Curiosamente, esto es también es cierto para matrices más generales. A continuación mostremos una forma para calcular el determinante de una matriz de 3 × 3, la llamada regla de Sarrus, cuya forma nemotécnica es la siguiente: de la cual obtenemos la siguiente fórmula:   a11 a12 a13 det  a21 a22 a23  = a11 a22 a33 + a21 a32 a13 + a12 a23 a31 a31 a32 a33 −a13 a22 a31 − a12 a21 a33 − a11 a23 a32 .

Capítulo 9. Determinantes

140



Ejemplo 9.5 El determinante de



 5 −3 2 A= 1 0 2  2 −1 3 se puede calcular usando la regla de Sarrus: det A = = = =

5 · ·0 · 3 + 1 · (−1) · 2 + (−3) · 2 · 2 − 2 · 0 · 2 − (−3) · 1 · 3 − 5 · 2 · (−1) 0 + (−2) + (−12) − 0 − (−9) − (−10) −2 − 12 + 9 + 10 5. 

Problema 9.4 Halle el determinante de la matriz



 3 3 4 A =  6 8 7 . −3 5 −9 Con el fin de “extender” la regla de Sarrus para calcular el determinante de matrices de n × n, observemo que podemos re-escribamos la Regla de Sarrus usando el determinante de matrices de 2 × 2. Es decir, si   a11 a12 a13 A =  a21 a22 a23  , a31 a32 a33 usando la regla de Sarrus obtenemos a11 a22 a33 + a21 a32 a13 + a12 a23 a31 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32 (a11 a22 a33 − a11 a23 a32 ) + (a21 a32 a13 − a12 a21 a33 ) + (a12 a23 a31 − a13 a22 a31 ) a11 (a22 a33 − a23 a32 ) + a12 (a23 a31 − a21 a33 ) + a13 (a21 a32 − a22 a31 ) a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 )       a22 a23 a21 a23 a21 a22 = a11 det − a12 det + a13 det . a32 a33 a31 a33 a31 a32

det A = = = =

Note que cada uno de los determinantes de 2 × 2 se obtiene al “eliminar” el renglón y la columna de A que contienen la entrada por la que se multiplica el determinante. Por ejemplo, el primer sumando es a11 multiplicado por el determinante de la submatriz

9.3 Cálculo de determinantes de matrices de n × n

141

obtenida al “borrar” el renglón 1 y la columna 1. Note también que los signos más y menos se alternan. Denotemos por A (i, j) la submatriz de una matriz A obtenida al “borrar” el renglón i y la columna j, entonces la regla de Sarrus se puede reescribir de la forma: det (A) = a11 det A (1, 1) − a12 det A (1, 2) + a13 det A (1, 3) . Para cualquier matriz cuadrada A, det A (i, j) se llama menor-(i, j) de A. 

Ejemplo 9.6 El determinante de



 5 −3 2 A= 1 0 2  2 −1 3 es 

     0 2 1 2 1 0 det A = 5 det − (−3) det + 2 det −1 3 2 3 2 −1 = 5 (0 − (−2)) + 3 (3 − 4) + 2 (−1 − 0) = 5 (2) + 3 (−1) + 2 (−1) = 5. 

9.3

Cálculo de determinantes de matrices de n × n  Sea A = Ai j una matriz de n × n, donde n ≥ 2. Entonces el determinante de A es el escalar det A = a11 det A (1, 1) − a12 det A (1, 2) + · · · + (−1)1+ j a1n det A (1, n) n

∑ (−1)1+ j a1 j det A (1, j) .

=

j=1

Es conveniente combinar un menor con su signo. Para este fin, se define el cofactor-(i, j) de A como C (i, j) = (−1)i+ j det A (i, j) con esta notación, la definición de determinante se convierte en n

det A =

∑ a1 jC (1, j) .

j=1

Esta expresión es llamada expansión por cofactores a lo largo del primer renglón. Es un hecho impresionante que el determinante no cambie si expandemos a lo largo de cualquier renglón o columna. Este resultado se resume como teorema. Teorema 9.3.1 — Teorema de expansión de Laplace. El determinante de una

matriz A de n × n, donde n ≥ 2, puede calcularse como det A = ai1C (i, 1) + ai2C (i, 2) + · · · + ainC (i, n) n

=

∑ ai jC (i, j)

j=1

Capítulo 9. Determinantes

142

(que es la expansión por cofactores a lo largo del i−ésimo renglón) y también como det A = a1 jC (1, j) + a2 jC (2, j) + · · · + an jC (n, j) n

=

∑ ai jC (i, j)

i=1

(que es la expansión por cofactores a lo largo de la j−ésima columna). Dado que C (i, j) = (−1)i+ j det A (i, j) cada cofactor es más o menos el correspondiente menor, donde (−1)i+ j proporciona el signo correcto. Una forma rápida de determinar si el signo es + o − es recordar que los signos forman un patrón de “tablero de ajedrez”:   + − + − ···  − + − + ···     + − + − ···     − + − + ···    .. .. .. .. . . . . . . . 

Ejemplo 9.7 Calcule el determinante de la matriz

 2 −3 0 1  5 4 2 0   A=  1 −1 0 3  . −2 1 0 0 

Notemos que el Teorema de expansión de Laplace nos permite calcular el determinante usando cualquier renglón o columna. ¿Que renglón o columna nos reduce los cálculos? Observe que la tercera columna sólo tiene una entrada distinta de cero; por lo tanto, es deseable que expandamos a lo largo de dicha columna. Esto es, det A = a13C (1, 3) + a23C (2, 3) + a33C (3, 3) + a43C (4, 3) = 0 ·C (1, 3) + 2 ·C (2, 3) + 0 ·C (3, 3) + 0 ·C (4, 3) Así que solo es necesario calcular el cofactor-(2, 3) de A. Por definición: C (2, 3) = (−1)2+3 det A (2, 3)   2 −3 1 = (−1)5 det  1 −1 3  −2 1 0   2 −3 1 Ahora, para hallar el det 1 −1 3  podemos usar la Regla de Sarrus pero si usamos −2 1 0 el Teorema de expansión de Laplace a lo largo de tercer renglón (o columna) reducimos los cálculos, así       2 −3 1 −3 1 2 1 det  1 −1 3  = −2 det − det = −2 (−8) − (5) = 11 −1 3 1 3 −2 1 0

9.3 Cálculo de determinantes de matrices de n × n

143

De aquí, C (2, 3) = −11 y det A = −22. 

La expansión de Laplace es particularmente útil cuando la matriz es triangular (superior o inferior). 

Ejemplo 9.8 Calcule el determinante de

   A=  

2 −3 1 0 4 0 3 2 5 7 0 0 1 6 0 0 0 0 5 2 0 0 0 0 −1

   .  

Expandamos a lo largo de la primera columna para obtener   3 2 5 7  0 1 6 0   det A = 2 · det   0 0 5 2  0 0 0 −1 (se omitieron todos los cofactores correspondientes a las entradas cero).s Ahora expanda nuevamente a lo largo de la primera columna:   1 6 0 det A = 2 · 3 · det  0 5 2  0 0 −1 Al seguir expandiendo a lo largo de la primera columna, se completa el cálculo:   5 2 det A = 2 · 3 · 13 · det 0 −1 = 2 · 3 · 13 · (5 (−1) − 2 (0)) = 2 · 3 · 13 · 5 · (−1) = −30 

El Ejemplo 9.8 debería convencerlo de que el determinante de una matriz triangular es el producto de sus entradas diagonales. ¿Puede exhibir una prueba? El resultado se registra como teorema. Teorema 9.3.2 El determinante de una matriz triangular es el producto de las entradas

en su diagonal principal. Específicamente, si A = diag (a11 , a22 , . . . , ann ) ,

Capítulo 9. Determinantes

144 entonces det A = a11 a22 · · · ann .

En general, a menos que la matriz sea triangular o tenga una forma especial, calcular un determinante mediante expansión por cofactores no es eficiente. Por ejemplo, el determinante de una matriz de 3 × 3 tiene 6 = 3! sumandos, y cada uno requiere dos multiplicaciones, y luego se necesitan cinco sumas y restas para terminar los cálculos. Para una matriz de n × n habrá n! sumandos, cada uno con n − 1 multiplicaciones, y luego n! − 1 sumas y restas. El número total de operaciones es por lo tanto T (n) = (n − 1) n! + n! − 1 > n! Incluso la más rápida de las supercomputadoras no puede calcular el determinante de una matriz moderadamente grante con el uso de la expansión por cofactores. Para ilustrar: suponga que necesita calcular un determinante de 50 × 50 (matrices mucho más grandes que 50 × 50 se usan para almacenar los datos de las imágenes digitales como las que se transmiten en internet o las que se toman con una cámara digital.) Calcular el determinante directamente requeriría, en general, más de 50! operaciones y 50! ≈ 3×1064 . Si tuviera una computadora capaz de realizar 1012 operaciones por segundo, tardaría aproximadamente 3 × 1052 segundos o casi 1045 años en terminar los cálculos. Para poner esto en perspectiva, considere que los astrónomos estiman la edad del universo en al menos 10 mil millones de años. Por ende, incluso en una supercomputadora muy rápida, ¡calcular el determinante de una matriz de 50 × 50 mediante expansión por cofactores tardaría mas de 1030 veces la edad del universo! Por fortuna, existen métodos mejores y más efectivos para calcular determinantes.

9.4

Matrices invertibles y determinantes 1. El determinante de una matriz A y el de su traspuesta AT son iguales, det A = det AT . 2. Sea A una matriz. Entonces a) Si B es una matriz obtenida de A después de hacer un intercambio de renglón (o de columna), entonces det B = − det A. En otras palabras, si se intercambian dos filas o dos columnas de un determinante, éste cambia de signo. b) Si C es una matriz obtenida de A después de multiplicar por a 6= 0 un renglón (o columna) entonces det C = a det A. En otras palabras, si todos los elementos de una fila (columna) contienen un factor común, éste puede sacarse fuera del determinante.

9.4 Matrices invertibles y determinantes

145

c) Si D es una matriz obtenida de A al sumarle a una fila un múltiplo (no cero) de otra, entonces det D = det A. Si en un determinante, se añade a una fila (columna) una combinación lineal de las otras filas (columnas) el valor del determinante no varía. 3. Si un determinante tiene dos filas (o dos columnas) iguales, es igual a cero. 4. (La fórmula de Cauchy) El determinante del producto de dos matrices cuadradas del mismo orden es igual al producto de los determinantes: det AB = det A det B. 5. Si A tiene un renglón (columna) cero, entonces det A = 0 

Ejemplo 9.9 Sea



 2 3 −1 5 3  A= 0 −4 −6 2 hallemos el det(A). Al hacer la operación R3 ↔ 2R1 + R3 , el determinante no cambia, entonces 

   2 3 −1 2 3 −1 5 3  = det  0 5 3  det(A) = det  0 −4 −6 2 0 0 0 y por la propiedad 5: 

 2 3 −1 det  0 5 3  = 0 0 0 0 Por lo tanto, la determinante de la matriz A es 0. 



Ejemplo 9.10 Sea



 0 2 −4 5  3 0 −3 6   B=  2 4 5 7  5 −1 −3 1 hallemos el det(B). Par esto, reducimos la matriz B a su forma escalonada, escribiendo en

Capítulo 9. Determinantes

146

cada paso, como va cambiando la determinante en cada uno de los pasos:    0 2 −4 5 3 0 −3  3 0 −3 6   0 2 −4 =  det(B) = det  − det   2 4  2 4 5 7  R2 ↔ R1 5 − − − − − − → 5 −1 −3 1 5 −1 −3   1 0 −1 2  0 2 −4 5  =  − 3 det  1  2 4 5 7  R1 ↔ 3 R1 −−−−−−−→ 5 −1 −3 1   1 0 −1 2 =  0 2 −4 5   R3 ↔ R3 −2R1 − 3 det   0 4 7 3  R4 ↔ R4 −5R1 0 −1 2 −9 −−−−−−−−−−→   1 0 −1 2  0 −1 2 −9  =  − (−3) det   0 4 R2 ↔ R4 7 3  −−−−−−→ 0 2 −4 5   1 0 −1 2 =  0 −1 2 −9   R3 ↔ R3 +4R2 − (−3) det   0 0 15 −33  R4 ↔ R4 +2R2 0 0 0 −13 −−−−−−−−−−→

 6 5   7  1

Entonces 

   0 2 −4 5 1 0 −1 2  3 0 −3 6     = 3 det  0 −1 2 −9  det(B) = det   2 4   5 7 0 0 15 −33  5 −1 −3 1 0 0 0 −13 = 3 (1) (−1) (15) (−13) = 585. 

Observe que por las propiedades de los determinantes también puede usar operaciones elementales con columnas en el proceso de calcular determinantes, incluso puede “mezclar y combinar” operaciones elementales en renglones y columnas. Por ejemplo, en el Ejemplo 9.9, podría comenzar con la suma de la columna 3 a la columna 1 para crear un 1 como pivote en la esquina superior izquierda. De hecho, el método que se utilizó fue más rápido, pero en otros ejemplos las operaciones por columna pueden acelerar los cálculos. Tenga esto en mente cuando calcule determinantes a mano. El Teorema 9.4.1 es el resultado principal de esta sección y se trata de una generalización del Teorema 9.1.1. En este punto hacemos la aclaración que en la prueba del Teorema 9.4.1 usamos fuertemente la notación y algunos resultados de matrices elementales cubiertos en la Sección 8.4. Así que, si el lector no domina el tema, entonces solo trate de entender los alcances del Teorema 9.4.1.

9.4 Matrices invertibles y determinantes

147

Teorema 9.4.1 Una matriz cuadrada es invertible si y solamente si det A 6= 0.

Demostración (Opcional). Sea A una matriz de n × n y sea R la forma escalonada reducida por renglones de A. Primero se demostrará que det A 6= 0 si y solo si R 6= 0. Sean E1 , E2 , . . . , Er las matrices elementales correspondientes a las operaciones elementales con renglones que reducen A a R. Entonces Er · · · E2 E1 A = R. Al sacar determinantes de ambos lados y aplicar repetidamente la propiedad 4, se obtiene (det Er ) · · · (det E2 ) (det E1 ) (det A) = (det R) . Ahora, ¿cual es valor de det Er para r = 1, . . . , r? Observe que: 1. Si E es una matriz del tipo I, entonces a In le realizamos una operación del Tipo I . Y por la Propiedad 3a : det E = − det In = −1. ¿Le es claro que det In = 1? Pienselo un momento (Sugerencia: recuerde el Teorema 9.3.2.) 2. Si E es una matriz del tipo II, entonces a In le realizamos una operación del Tipo II, suponga que multiplicamos una fila por α 6= 0, entonces por la propiedad 2a : det E = k. 3. Si E es una matriz del tipo III, entonces a In le realizamos una operación del Tipo III. Y por la propiedad 3c : det E = 1. Regresando a nuestro cálculo original, (det Er ) · · · (det E2 ) (det E1 ) (det A) = (det R) , los determinantes de las matrices elementales son distintos de cero. Se concluye que det A 6= 0 si y solamente si det R 6= 0. ⇒: Ahora suponga que A es invertible. Entonces R = In (¿porqué?). De modo tal que det R 6= 0 (de nuevo, ¿porqué?). En consecuencia, también det A 6= 0. ⇐: Si det A 6= 0, entonces det R 6= 0, de modo que R no puede contener un renglón cero. Se tiene que R debe ser In (¿porqué?), de modo que A es invertible (de nuevo, ¿porqué?).  Una pregunta natural es la siguiente: ¿qué relación, si la hay, existe entre los determinantes y las operaciones matriciales básicas? Observe que la fórmula de Cauchy nos dice que la función determinante se comporta “bien” con el producto, pero ¿qué pasa con las demás operaciones matriciales?

Capítulo 9. Determinantes

148 Teorema 9.4.2 Si A es una matriz de n × n, entonces

det (kA) = kn det A. Problema 9.5 Dar una demostración del Teorema 9.4.2.

Por desgracia, no hay una fórmula simple para det(A + B) y, en general det (A + B) 6= det A + det B. (¿Puede encontrar dos matrices de 2 × 2 que verifiquen lo anterior?). El siguiente teorema ofrece una amigable relación entre el determinante de una matriz invertible y el determinante de su inversa. Teorema 9.4.3 Si A es una matriz invertible,

 det A−1 =

1 . det A

Demostración. Puesto que A es invertible, existe A−1 tal que AA−1 = In , por la Fórmula de Cauchy   1 = det In = det AA−1 = (det A) det A−1 y como det A 6= 0 (¿porqué?) el resultado se sigue inmediatamente (de nuevo, ¿porqué?). 

9.5

Ejercicios 1. Si 

 a b c det  d e f  = 4. g h i Hallar: 

 2a 2b 2c a) det d e f  .  g h i  a b c b) det 2d − 3g 2e − 3h 2 f − 3i  g h i 2. Halle todos los valores de k para los cuales la siguiente matriz es invertible   k −k 3  0 k+1 1  k −8 k − 1  3. a) Si B es invertible, demuestre que det B−1 AB = det(A) . b) Si A = A2 , encuentre todos los valores posibles de det(A). 4. En cada caso, el determinante de las siguientes matrices es cero.

9.5 Ejercicios  0  a) 0 0 2  b) 2 0 1  c) 7 7

149 7 6 3 3 2 1 5 5 5



 5 5 4 7 2 d)  2 −2 −2 −7  4 7 7 e) 3 7 6  7 14 13

 2 2 6  4 6 −2  3 4 4

De acuerdo a la lista siguiente, indique la opción que contiene el porqué. a) Tiene un reglón de ceros. b) Tiene una columna de ceros. c) Tiene un renglón repetido. d) Tiene una columna repetida. e) El último renglón se obtiene combinando los anteriores. f ) La última columna se obtiene combinando las anteriores. g) El último renglón es un múltiplo no cero de uno anterior. h) La última columna es un múiltiplo no cero de una anterior. 5. La matriz A es una matriz de 4 × 4 tal que al aplicarle en orden las operaciones elementales R1 7→ 6R1 R3 7→ R3 − 4R1 R2 7→ R3 R4 7→ R4 + 4R2 la convierten en la matriz escalonada:   −1 2 −3 5  0 1 −5 −4   0 0 4 0 0 0 0 3 Calcule la determinante de A. 6. Si A es una matriz de 3 × 3 tal que M11 = 1 M33 = 49 M22 = −13 M23 = −5

C32 = −17 M12 = −8 M13 = −19 M21 = −7

y a11 = 8 a33 = 1 a22 = 7 a23 = 3 Determine |A|.

a32 = 2 a12 = 7 a13 = 7 a21 = 1

Capítulo 9. Determinantes

150

Definición 9.5.1 Sea A una matriz de n × n y sea Ci j el cofactor (i,j). A la matriz

de n × n cuyo elemento (i, j) es el cofactor Ci j se le llama la matriz de cofactores de A. A la transpuesta de la matriz de cofactores de A se le llama matriz adjunta de A y se le simboliza por adj(A). 7. Sea A la matriz   2 −8 −4 −1 Calcule la matriz adjunta de A. 8. Sea A la matriz   2 −8 7  −4 5 −1  6 3 −9 Calcule la matriz adjunta de A. 9. Sea A una matriz de n × n con entradas en un campo. a) Demuestre que A(adj(A)) = det(A)I = (adj(A))A. b) Demuestre que si A es invertible, entonces A−1 =

1 adj(A). |A|

10. Utiliza la adjunta  para hallar las inversas de las siguientes matrices: 1 1 1 a) 0 1 1 0 0 1   1 0 −1 0 0 0 1 0   b)  2 1 −2 3 3 1 −1 3  cos θ -sen θ 0 c) sen θ cos θ 0 0 0 1   2 1 3 1 2 0 5 −1 8 2    d)  0 0 0 1 2  0 0 0 1 2  0 0 0 0 2

PROBLEMAS Problema 9.6 Calcule el determinante de cada una de las siguientes matrices de 2 × 2:

9.5 Ejercicios   −7 −3 1. 3 4 5 −7 2. −2 0

151   7 1 3. 1 5  −3 5 4. 4 −6

Problema 9.7 Calcular el valor de x para que los determinantes de cada una de las

siguientes matrices sea igual a 1:   x 1 1. 7 5

  3 x 2. 1 7

Problema 9.8 Calcule el determinante de cada una de las siguientes matrices de 3 × 3:



−1  1. −7 −4 −4  2. −5 −3

 −4 0 5 6 0 −3 −6 −1 −4 −1 −2 0



4  2 3. −1 −5  5 4. 2

2 6 −1 −4 −6 −4

 7 −4 −3 −6 −4 7

Problema 9.9 Si



 −4 −5 6 A =  3 −5 2 . −3 4 2 Determine los cofactores de las posiciones: 1. (1, 3) 2. (3, 2) 3. (2, 1)

4. (1, 2) 5. (1, 1)

Problema 9.10 Calcular el(los) valor(es) de λ que hacen cero los determinantes de las

siguientes matrices:   λ 1 1. 4 λ  1−λ 5 2. 2 10 − λ



 2−λ 0 0 3−λ 0  3.  1 0 1 1−λ

Problema 9.11 Si



4 3 A= 7 1

4 3 2 6

7 6 7 2

 4 5  2 2

Calcular |A| usando el método de cofactores. Problema 9.12 Si A es una matriz de 4 × 4 tal que M11 = 1 M12 = 1 M13 = 1 M14 = 1

Capítulo 9. Determinantes

152 y a11 = 8 a12 = 8 a13 = 5 a14 = 3 Determine |A|. Problema 9.13 Si A y B son matrices de 4 × 4 tales que

|A| = 3 y |B| = 3 calcule los determinantes de las siguientes matrices: 4. AB−1 5. ABT 6. BT AT B−1 A−1

1. 3A 2. A−1 3. A−1 B

Problema 9.14 Si |A| = 4 y sabiendo que A es una matriz de 4 × 4 determine |−5A|. Problema 9.15 La matriz A es una matriz tal que al aplicarle en orden las operaciones

elementales: R3 R1 R2 R4

7→ 7 → 7 → 7 →

R3 + 5R1 6R1 R3 R4 + 2R2

la convierten en la matriz:   5 2 4 1 3 0 0 1 1 2    0 2 5 5 1    0 0 0 4 5  0 0 0 4 7 Calcule la determinante de A. Problema 9.16 Sean A y B matrices de n × n. Indique la validez a cada una de las siguientes afirmaciones: 1. Si |A| T6= 0, entonces A es singular. 2. Si A A 6= 0, entonces A es invertible. 3. Si |A| = 0 entonces A es singular. 4. Si |AA| = 0, entonces AT es singular. 5. Si |AB| 6= 0, entonces B es invertible. dentro de las respuestas posibles: 1. Cierto 2. No se sabe 3. Falso Problema la determinante de las siguientes matrices:  9.17 Calcule  2 1 3  2 0 1 (usando la Regla de Sarrus) 1. −4 0 6

9.5 Ejercicios 153   2 1 5 2. −3 4 −1 (usando la Regla de Sarrus) 0 6 −1   1 0 3 2  4 −1 0 1   (usando cofactores) 3.  2 1 0 1 −1 2 3 −1   1 −3 2 6 4  0 13 0 1 5  4.  −2 1 2 3 4 (por el método que quieras) 1 1 4 5 9 Problema 9.18 Sea J la matriz de n × n con solo números 1, y considere A = (a − b)In + bJ; esto es,   a b b ··· b b a b · · · b    b b a · · · b     .. .. .. . . ..  . . . . . b b b ··· a demuestre que |A| = (a − b)n−1 [a + (n − 1)b]. como sigue: 1. Reste la fila 2 de la fila 1, la fila 3 de la fila 2, y así sucesivamente, y explique por qué esto no cambia el determinante de la matriz. 2. Con la matriz resultante del inciso (1), sume la columna 1 a la columna 2, después sume esta nueva columna 2 a la columna 3, y así sucesivamente, y explique por qué esto no cambia el determinante. 3. Encuentre la determinante de la matriz resultante en (2). Problema de las siguientes matrices:  9.19 Halla la determinante  1 2 3 ··· n −1 0 3 · · · n   −1 −2 0 · · · n 1.    .. .. .. . . ..   . . . . . −1 −2 −3 · · · n   x a a ··· a a x a · · · a   a a x · · · a 2.    .. .. .. . . ..  . . . . . a a a ··· x   0 1 1 ··· 1 1 1 0 x · · · x x    1 x 0 · · · x x    3.  .. .. .. . . ..  . . . . .    1 x x · · · 0 x  1 x x ··· x 0

Capítulo 9. Determinantes

154 

 2 1 0 0 ··· ··· 0 1 2 1 0 · · · · · · 0    0 1 2 1 0 · · · 0    4.  .. .. .. .. .. . . ..  . . . . . . .   0 · · · 0 1 2 1 0  0 ··· ··· ··· 0 1 2

10. Sistemas de ecuaciones lineales

Los sistemas de ecuaciones lineales son comunes en ciencias y en matemáticas. Los dos ejemplos de preparatoria siguientes darán sentido a cómo surgen.

10.1

Sistemas de ecuaciones lineales y la inversa de una matriz El primer ejemplo es de física. Suponga que tenemos tres objetos, uno de ellos de masa conocida de 2 kilogramos, y queremos conocer las masas de los dos objetos restantes. Supongamos además que la experimentación produce los siguientes dos balanceos de masas.

Se sabe que el momento de cada objeto es la masa por la distancia al punto de balance. Sabemos que para el balance debemos tener que la suma de momentos en el lado izquierdo debe ser igual a la suma de momentos de la derecha. Esto nos da el siguiente sistema de dos ecuaciones. 40h + 15c = 100 25c = 50 + 50h El segundo ejemplo de un sistema lineal es de química. Podemos mezclar, bajo condiciones controladas, tolueno C7 H8 y ácido nítrico HNO3 para producir trinitrotolueno

Capítulo 10. Sistemas de ecuaciones lineales

156

C7 H5 O6 N3 y agua (las condiciones tienen que ser muy controladas - trinitrotolueno es mejor conocido como TNT). ¿En que proporción mezclamos estos componentes? El número de átomos de cada elemento presente antes de la reacción x C7 H8 + y HNO3 −→ z C7 H5 O6 N3 + w H2 O debe ser igual al número presente después de la misma. Aplicando esto a los elementos C, H, N, y O obtenemos el sistema 7x 8x + 1y 1y 3y

= = = =

7z 5z + 2w 3z 6z + 1w

Concluir cada uno de estos ejemplos requiere saber resolver un sistema de ecuaciones. En cada sistema, las ecuaciones envuelven únicamente las primeras potencias de las variables. Este capítulo muestra como resolver cualquiera de estos sistemas. 10.1.1

Definición de sistemas de ecuaciones lineales Definición 10.1.1 Una combinación lineal de x1 , x2 , . . . , xn tiene la forma a1 x1 + a2 x2 + a3 x3 + · · · + an xn donde los números a1 , . . . , an ∈ K son los coeficientes de la combinación. Una ecuación lineal tiene la forma a1 x1 + a2 x2 + a3 x3 + · · · + an xn = d donde d ∈ K es la constante. Una n-tupla (s1 , s2 , . . . , sn ) ∈ K n es una solución de, o satisface, la ecuación si sustituyendo los números s1 , . . . , sn por la variables obtenemos un enunciado verdadero: a1 s1 + a2 s2 + . . . + an sn = d. Un sistema de m ecuaciones lineales con n variables a1,1 x1 + a1,2 x2 + · · · + a1,n xn = d1 a2,1 x1 + a2,2 x2 + · · · + a2,n xn = d2 .. . am,1 x1 + am,2 x2 + · · · + am,n xn = dm tiene la solución (s1 , s2 , . . . , sn ) si esta n-tupla es una solución de cada una de las ecuaciones en el sistema. El conjunto solución del sistema es el conjunto de todas las soluciones. 

Ejemplo 10.1 La combinación 3x1 + 2x2 de x1 y x2 es lineal. La combinación 3x12 +

√ 2 sen(x2 ) no es lineal, ni tampoco lo es − x2 + 3x25 = 0.





Ejemplo 10.2 El par ordenado (−1, 5) es una solución de este sistema.

3x1 + 2x2 = 7 −x1 + x2 = 6 En contraste, (5, −1) no es una solución.



10.1 Sistemas de ecuaciones lineales y la inversa de una matriz

157

Hallar el conjunto solución es lo que se requiere para resolver el sistema. Ni la adivinación o la buena fortuna son necesarias para resolver un sistema lineal. Existe un algoritmo que siempre funciona. Sin embargo, en R2 , podemos calcular o analizar las soluciones de los sistemas de ecuaciones lineales de manera geométrica. Por ejemplo, considere el siguiente sistema lineal x1 + x2 = 5 8x1 + 16x2 = 48 y graficamos en R2 cada una de las ecuaciones (por separado). Observe que las rectas se intersecan en exactamente un punto (4, 1), y que dicho punto es solución del sistema. La pregunta es: ¿Pueden haber más soluciones? La respuesta, por supuesto, es no y el conjunto solución es {(4, 1)}. Sin embargo, en esta situación podrían ocurrir casos extremos. 

Ejemplo 10.3 Grafiquemos el siguiente sistema de ecuaciones:

x1 + x2 = 5 16x1 + 16x2 = 48 Como podemos ver, las dos líneas rectas son paralelas. Intuitivamente, podríamos suponer que no existe solución del sistema.  

Ejemplo 10.4 Consideremos el siguiente sistema

x1 + x2 = 3 16x1 + 16x2 = 48 Graficando podemos ver que las dos lineas rectas son la misma. Y por lo tanto, las dos rectas se interceptan en cada uno de sus puntos. Entonces: ¿Que pasa con las soluciones?  Note que nunca podremos obtener (por ejemplo) únicamente dos puntos de intersección con únicamente dos líneas rectas. Problema 10.1 Gráficamente, analize la situación si perdemos la condición de linealidad y se nos permite usar ecuaciones no-lineales, por ejemplo, ecuaciones cuadráticas o cúbicas Problema 10.2 Dado n ∈ N, ¿puedes escribir un sistema de ecuaciones no-lineales que tenga n soluciones? Gráficamente, la linealidad de los sistemas de ecuaciones se encargan de que tengamos únicamente los tres siguientes casos: El sistema es inconsistente, es decir, no tiene solución. El sistema es consistente determinado, es decir, tiene solución y ésta es única. El sistema es consistente indeterminado, es decir, tiene infinitas soluciones. Más adelante, daremos condiciones necesarias y suficientes para determinar cuando un sistema de ecuaciones lineales es inconsistente o consistente. Por ahora, observe que esta idea geométrica puede no funcionar en dimensiones mayores. En el caso general, usamos lo siguiente: Realizando operaciones que no cambien el conjunto solución del sistema, lo transformamos en uno más simple, de tal manera, que ambos sistemas sean equivalentes (que tengan las mismas soluciones). En este enunciado, la palabra clave es: simple, en este contexto, simple no es equivalente a fácil. Este algoritmo es conocido como Eliminación Gaussiana (o Método de Gauss o Eliminación Lineal) y será nuestro objeto de estudio en la siguiente sección.

Capítulo 10. Sistemas de ecuaciones lineales

158 10.1.2

Representación Matricial Ahora, usando matrices mostramos una forma compacta (y muy útil) de escribir sistemas de ecuaciones lineales. Definición 10.1.2 Sea a1,1 x1 + a1,2 x2 + · · · + a1,n xn = c1 a2,1 x1 + a2,2 x2 + · · · + a2,n xn = c2 .. . am,1 x1 + am,2 x2 + · · · + am,n xn = cm un sistema de m ecuaciones con n incógnitas. La matriz asociada del sistema la definimos como   a1,1 a1,2 · · · a1,n  a2,1 a2,2 · · · a2,n     .. .. ..   . . .  am,1 am,2 · · · am,n La matriz aumentada del sistema es la matriz asociada con una columna adicional formada por lo términos constantes del sistema:   a1,1 a1,2 · · · a1,n c1  a2,1 a2,2 · · · a2,n c2     .. .. .. ..   . . . .  am,1 am,2 · · · am,n cm Problema 10.3 Halla la matriz asociada y la matriz aumentada del sistema

5x1 + 7x2 = 9 −x2 = 3 10.1.3

Operaciones elementales de renglón Comenzemos con el siguiente ejemplo. Supongamos que queremos resolver el sistema 3x3 = 9 x1 + 5x2 − 2x3 = 2 1 x1 + 2x2 = 3 3 Reescribamos el sistema intercambiando la fila 1 con la fila 3, en lo siguiente, a esta transformación le llamaremos del tipo I 1 x1 + 2x2 = 3 3 x1 + 5x2 − 2x3 = 2 3x3 = 9

10.2 Sistemas Equivalentes

159

Multiplicamos la primera ecuación por el número 3, en lo siguiente, a esta transformación le llamaremos del tipo II x1 + 6x2 = 9 x1 + 5x2 − 2x3 = 2 3x3 = 9 Multiplicamos ambos lados de la primera fila por −1 y se la sumamos a la segunda fila y escribimos el resultado como una nueva segunda fila, en lo siguiente, a esta transformación le llamaremos del tipo III x1 + 6x2 = 9 −x2 − 2x3 = −7 3x3 = 9 Después de la sucesión de pasos, el sistema está ahora en una forma más simple y ya podemos hallar los valores de cada variable usando la sustitución hacia atrás. Despejamos x3 en la tercera ecuación y obtenemos que x3 = 3, ahora sustituimos este valor en la segunda ecuación y obtenemos que x2 = 1. Por último, sustituimos ambos valores en la primera ecuación y obtenemos que x1 = 3. Concluímos entonces que el sistema es consistente determinado y su solución es {(3, 1, 3)}. El método ejemplificado anteriormente es llamado eliminación gaussiana y el Teorema 10.2.1 lo formaliza.

10.2

Sistemas Equivalentes Teorema 10.2.1 Si un sistema lineal es transformado por alguna de las siguientes

operaciones: Operación del Tipo I: Intercambiamos dos ecuaciones (o filas); Operación del Tipo II: Mutiplicamos una ecuación (o fila) por un número distinto de cero; Operación del Tipo III: Reemplazamos una ecuación (o fila) con la suma de ella misma y un múltiplo de otra ecuación (o fila). Entonces el conjunto solución no cambia.

Demostración. Primero notemos las siguientes restricciones: En la operación del Tipo II no se permite multiplicar por el cero, ya que esto elimina dicha ecuación, En la operación Tipo III, no se permite sumar un múatiplo de una fila a sí misma. Demostremos que la primer tipo de observación no altera el conjunto solución. Para esto,

Capítulo 10. Sistemas de ecuaciones lineales

160

consideremos el siguiente sistema de ecuaciones lineales: a1,1 x1 + a1,2 x2 + · · · + a1,n xn = d1 .. . ai,1 x1 + ai,2 x2 + · · · + ai,n xn = di .. . a j,1 x1 + a j,2 x2 + · · · + a j,n xn = d j .. . am,1 x1 + am,2 x2 + · · · + am,n xn = dm ahora, realizamos una operación del tipo I, y obtenemos a1,1 x1 + a1,2 x2 + · · · + a1,n xn = d1 .. . a j,1 x1 + a j,2 x2 + · · · + a j,n xn = d j .. . ai,1 x1 + ai,2 x2 + · · · + ai,n xn = di .. . am,1 x1 + am,2 x2 + · · · + am,n xn = dm La n-tupla (s1 , . . . , si , . . . , s j , . . . , sn ) satisface el sistema antes del intercambio si y solamente si al sustituir xi por si obtenemos enunciados verdaderos: a1,1 s1 + a1,2 s2 + · · · + a1,n sn = d1 y . . . y ai,1 s1 + ai,2 s2 + · · · + ai,n sn = di y . . . y a j,1 s1 + a j,2 s2 + · · · + a j,n sn = d j y . . . y am,1 s1 + am,2 s2 + · · · + am,n sn = dm . Al obtener enunciados unidos con un “y” podemos reordenar los enunciados, así que esto se cumple si y solamente si a1,1 s1 + a1,2 s2 + · · · + a1,n sn = d1 y . . . y a j,1 s1 +a j,2 s2 +· · ·+a j,n sn = d j y . . . y ai,1 s1 +ai,2 s2 +· · ·+ai,n sn = di y . . . y am,1 s1 + am,2 s2 + · · · + am,n sn = dm si y solamente si (s1 , . . . , s j , . . . , si , . . . , sn ) resuelve el sistema después del intercambio. Esto es, la operación del tipo I no cambia el conjunto solucioón.  Problema 10.4 Completar la prueba del teorema 10.2.1.

10.3

Métodos de Gauss y de Gauss-Jordán para resolver un sistema de ecuaciones lineales 

Ejemplo 10.5 Resolvamos el sistema usando operaciones gaussianas:

x+y = 0 2x − y + 3z = 3 x − 2y − z = 3

10.3 Métodos de Gauss y de Gauss-Jordán para resolver un sistema de ecuaciones lineales 161 hacemos R2 ↔ R2 − 2R1 y R3 ↔ R3 − R1 , obtenemos x+y = 0 −3y + 3z = 3 −3y − z = 3 ahora, hacemos R3 ↔ R3 − R2 , x+y = 0 −3y + 3z = 3 −4z = 0 Usando sustitución hacia atrás, obtemos z=0 y = −1 x=1 Por tanto, la solución es: (1, −1, 0).



Problema 10.5 Usando operaciones gaussianas y sustitución hacia atrás, halla la solución

del sistema: x+y+z = 9 2x + 4y − 3z = 1 3x + 6y − 5z = 0 Definición 10.3.1 En cada fila de un sistema lineal, la primera variable con coeficiente

distinto de cero es llamada variable lider de la ecuación (o fila). Un sistema está en su forma escalonada si cada variable lider está a la derecha de las variables lideres de las filas de arriba (excepto la variable lider de la primera fila). En resumen, el algoritmo gaussiano consiste en llevar el sistema a su forma escalonada y después hacer sustitución hacia atrás. 

Ejemplo 10.6 Considere el sistema:

x+y+z = 0 y+z = 0 Observe que el sistema se encuentra en su forma escalonada y también que, las variables lideres son x y y. Pero, ¿que pasa con la variable z? Ésta no es líder, pero la podemos usar para describir las variables lideres, esto es, y = −z x =0 Asi que el conjunto solución puede ser descrito como {(0, −z, z) | z ∈ R}. 

Del ejemplo anterior, podemos obtener la siguiente definición.

Capítulo 10. Sistemas de ecuaciones lineales

162

Definición 10.3.2 Las variables no líderes en un sistema lineal en su forma escalonada

son llamadas variables libres. 

Ejemplo 10.7 Considere el sistema

2x + z = 3 2−y−z = 1 3x − y = 4 reducimos el sistema a su forma escalonada y obtenemos el siguiente sistema equivalente: 2x + z = 3 1 3 −y − z = − 2 2 Observe que las variables líderes son x, y y la variable libre es z, entonces usamos a z para describir el conjunto solución. De la segunda ecuación obtenemos y = 21 − 32 z y de la primera x = 32 − 21 z. El conjunto solución es   3 1 1 3 − z, − z, z | z ∈ R}. { 2 2 2 2 

Problema 10.6 Resuelve el siguiente sistema

x+y+z−w = 1 y − z + w = −1 3x + 6z − 6w = 6 −y + z − w = 1

10.4

Rango y consistencia Sea A ∈ Mn×m (K). El sistema homogéneo asociado a A se denota como AX = 0 donde X ∈ Mm×1 (K), es decir, es un vector columna, y sus entradas son las variables del sistema de ecuaciones y 0 consiste del vector columna nulo. Una solución X0 ∈ Mm×1 (K) del sistema es un vector columna que cumple la ecuación matricial AX0 = 0 Ya que el vector nulo 0 siempre es una solución del sistema homogéneo, decimos que ésta es la solución trivial del sistema homogéneo. Teorema 10.4.1 Sean A y B matrices equivalentes por renglones. Entonces los sistemas

homogéneos de ecuaciones lineales asociados a A y B tienen las mismas soluciones. Demostración. Este es un caso particular del Teorema 10.2.1.



10.4 Rango y consistencia

163

Definición 10.4.1 Sea A una matriz escalonada reducida por renglones. Decimos que

una variable xi es libre si la i-ésima columna de A no contiene ningún pivote. Lema 10.4.2 Sea A ∈ Mn×m (K) escalonada reducida por renglones. Entonces

1. Si xi no es una variable libre, entonces xi aparece una única vez con coeficiente no nulo en el sistema AX = 0, y dicho coeficiente es un pivote de A. 2. Todas las soluciones del sistema homogéneo AX = 0 se obtienen asignando valores arbitrarios a las variables libres y luego encontrando los valores (que estarán determinados de forma única) de las variables no libres. 3. El sistema AX = 0 tiene al menos una solución no trivial si y sólo si A tiene al menos una variable libre. Demostración. 1. Si xi no es libre, entonces la i -ésima columna tiene un pivote, por lo que en esa columna la única entrada no nula es uno. 2. Si uno asigna valores arbitrarios a las variables libres, existe una única forma de asignar valores a las variables no libres para satisfacer el sistema, pues cada ecuación no nula del sistema es de la forma m

xi +



Ai,k xk = 0

k=i+1

donde xi es una variable no libre y todas las demás variables o son libres,o tienen coeficientes nulos. Inversamente, cualquier solución del sistema se obtuvo asignando valores a las variables libres y determinando los valores de las variables no libres. 3. Si al menos hay una variable libre, se puede asignar a todas ellas el valor 1 (o cualquier valor distinto de cero) y obtener una solución no trivial. Si no hay variables libres, todas las variables están en una ecuación de la forma xi = 0, y por lo tanto la única solución del sistema es la trivial.  Teorema 10.4.3 Sea A ∈ Mn×m con n < m (es decir, A tiene estrictamente más colum-

nas que renglones). Entonces el sistema homogéneo (el cual tiene más variables que ecuaciones) AX = 0 tiene al menos una solución no trivial. Demostración. Por el Teorema 10.4.1, podemos suponer sin pérdida de generalidad que A es una matriz escalonada reducida por renglones. Note que el número de pivotes de A es menor o igual a n; por hipótesis n < m, y m es el número de indeterminadas. Así, A debe tener variables libres.  Proposición 10.4.4 Sea A ∈ Mn×m (K). Entonces A es equivalente por renglones a la

matriz identidad si y sólo si el sistema de ecuaciones AX = 0 tiene solamente la solución trivial. Demostración. Si A es equivalente por renglones a la matriz identidad I, entonces AX = 0 y IX = 0 tienen el mismo conjunto de soluciones. Pero la única solución del sistema IX = 0 es la trivial, pues el sistema es xi = 0 para toda i , así que el sistema de ecuaciones AX = 0 tiene solamente la solución trivial. Recíprocamente, suponga ahora que la única solución del sistema AX = 0 es la trivial, es decir, X = 0. Sea B una matriz escalonada reducida por renglones equivalente (por

Capítulo 10. Sistemas de ecuaciones lineales

164

renglones) a A. Tenemos que la única solución del sistema BX = 0 también es la trivial. Sea m el número de pivotes de B. Por el Lema 10.4.2, B no puede tener variables libres, es decir, toda variable xi tiene un pivote en la columna i-ésima, y al menos debe haber n pivotes (puesto que hay n variables), es decir, m ≥ n. Por otro lado, no puede haber más pivotes que renglones, por lo que m ≤ n. Juntando ambas desigualdades obtenemos que m = n. Esto significa que el número de pivotes de B es igual al número de columnas de B. Como la matriz B es cuadrada, la única posibilidad es que el i-ésimo pivote aparezca en la i-ésima columna, ya que de lo contrario nos sobrarían pivotes si dejáramos columnas sin pivote. El resultado de esto es que B es la matriz identidad.  C

Un sistema no homogéneo de ecuaciones lineales usualmente se denota AX = Y donde X es el vector columna de indeterminadas, y Y es el vector columna de constantes.

Teorema 10.4.5 Sea A ∈ Mn (K). Las siguientes afirmaciones son equivalentes:

1. A es invertible. 2. El sistema homogéneo AX = 0 tiene solamente la solución trivial X = 0. 3. Para todo vector columna Y de n × 1, el sistema de ecuaciones AX = Y tiene una única solución, a saber, X = A−1Y . Demostración. (3) ⇒ (2) : Es el caso particular cuando Y = 0. (2) ⇒ (1) : Si el sistema homogéneo AX = 0 tiene solamente la solución trivial, entonces A es equivalente por renglones a la matriz identidad, por lo que A es invertible. (1) ⇒ (3) : Como A es invertible, tenemos que A−1 está bien  definida.  El vector −1 −1 −1 columna A Y es solución del sistema AX = Y , puesto que A A Y = AA Y = IY = Y . Por otro lado, si X es solución del sistema AX = Y , multiplicando por A−1 por la izquierda tenemos que A−1 (AX) = A−1Y , y después de unas simplificaciones llegamos a que X = A−1Y , por lo que la solución propuesta es única.  Lema 10.4.6 Considere un sistema no homogéneo de ecuaciones lineales

AX = Y. Sea B una matriz invertible tal que el producto BA está bien definido. Entonces el sistema AX = Y y el sistema (BA)X = BY tienen las mismas soluciones. Demostración. Si X es solución de AX = Y , multiplicando por la izquierda por B tenemos que B(AX) = BY . Ya que el producto de matrices es asociativo, esto último nos queda (BA)X = BY , es decir, X es solución del sistema (BA)X = BY . El regreso se obtiene aplicando el mismo argumento, ahora multiplicando por la matriz inversa B−1 .  Teorema 10.4.7 Considere un sistema no homogéneo de ecuaciones lineales

AX = Y Suponga que la matriz A es escalonada reducida por renglones. Entonces el sistema es

10.5 La regla de Cramer

165

consistente si y sólo si no hay ninguna ecuación de la forma 0 = ci con ci 6= 0, es decir, si todos los renglones nulos de A están igualados a cero en el sistema de ecuaciones. En este caso, todas las soluciones del sistema no homogéneo AX = Y se obtienen asignando valores arbitrarios a las variables libres y luego encontrando los valores (que estarán determinados de forma única) de las variables no libres. Demostración. Si un renglón nulo de A está igualado a algo diferente de cero, no hay manera de satisfacer esa ecuación, y el sistema es inconsistente. Supongamos que todos los renglones nulos de A están igualados a cero, por lo que los podemos ignorar. Si uno asigna valores arbitrarios a las variables libres de A, existe una única forma de asignar valores a las variables no libres para satisfacer el sistema, pues cada ecuación no nula del sistema es de la forma m

xi +



Ai,k xk, j = c ji

k=i+1

donde xi es una variable no libre y todas las demás variables o son libres, o tienen coeficientes nulos. Inversamente, cualquier solución del sistema se obtuvo asignando valores a las variables libres y determinando los valores de las variables no libres.  Proposición 10.4.8 Considere un sistema no homogéneo de ecuaciones lineales

AX = Y Sea X0 un vector columna que es solución de dicho sistema. Entonces todas las soluciones de este sistema son precisamente los vectores de la forma X0 + X1 donde X1 es una solución arbitraria del sistema homogéneo AX1 = 0. Demostración. Note primero que todo vector columna de la forma X0 + X1 es solución del sistema no homogéneo, puesto que A(X0 + X1 ) = AX0 + AX1 = Y + 0 = Y. Inversamente, si X2 es solución del sistema no homogéneo, entonces podemos escribir X2 como X2 = X0 + (X2 − X0 ), donde (X2 − X0 ) es solución del sistema homogéneo, pues A(X2 − X0 ) = AX2 − AX0 = Y −Y = 0. 

10.5

La regla de Cramer La regla de Cramer ofrece una fórmula para describir la solución de ciertos sistemas de n ecuaciones lineales con n variables completamente en términos de determinantes (recuerde la notación matricial del sistema lineal: AX = b). Aunque este resultado es de poco uso práctico más alla de sistemas de 2 × 2, incluso hasta de 3 × 3, es de gran importancia teórica.

Capítulo 10. Sistemas de ecuaciones lineales

166

Se necesitará una nueva notación para este resultado. Para una matriz A de n × n y un vector b ∈ Rn , sea Ai (b) que denota la matriz obtenida al sustituir la i−ésima columna de A por b. Esto es: Ai (b) = ( a1 · · ·

b · · · an ). ↑ columna i

Teorema 10.5.1 (La Regla de Cramer) Sea A una matriz de n × n invertible y sea b un

vector en Rn . Entonces la solución única X del sistema AX = b está dada por: xi =

det Ai (b) det A

para i = 1, . . . , n. 

Ejemplo 10.8 Use la Regla de Cramer para resolver el sistema

x1 + 2x2 = 2 −x1 + 4x2 = 1 En forma matricial,       2 x1 1 2 = 1 x2 −1 4 {z } | {z } | {z } | A X b Entonces 

 1 2 det A = det = 6, −1 4   2 2 det A1 (b) = det = 6, 1 4   1 2 det A2 (b) = det = 3. −1 1 Por el Teorema 10.5.1, det A1 (b) 6 = = 1, det A 6 det A2 (b) 3 1 = = = . det A 6 2

x1 = x2



Como se hizo notar anteriormente, la regla de Cramer es computacionalmente ineficiente para todos los sistemas de ecuaciones lineales, excepto para los pequeños, pues involucra el cálculo de muchos determinantes. El esfuerzo que se realiza para calcular sólo uno de dichos determinantes, usando incluso el método más eficiente, se emplearía mejor al usar la eliminación gaussiana para resolver directamente el sistema.

10.6 Los cuatro espacios fundamentales de una matriz

10.6

167

Los cuatro espacios fundamentales de una matriz En este sección iniciamos el estudio de los cuatro espacios fundamentales asociados con una matriz. Si A es una matriz de m × n, dos de estos subespacios son subespacios de K n y los otros dos de K m . Dada una matriz A ∈ K m×n se definen los siguientes conjuntos: R(A) N(A) N(AT ) R(AT )

= = = =

{b ∈ K m | ∃x ∈ K n , b = Ax}. {x ∈ K n | Ax = 0}. {y ∈ K m | AT y = 0}. {x ∈ K n | ∃y ∈ K m , x = AT y}.

Estos conjuntos se denominan espacio columna, espacio nulo, espacio nulo izquierdo y espacio renglón, respectivamente, de A. Estos cuatro conjuntos son los espacios fundamentales de A. Note que estos espacios surgen de manera natural al considerar sistemas de ecuaciones lineales. Dada una matriz A es natural preguntarnos para que b’s el sistema de ecuaciones Ax = b tiene solución. En el caso del espacio nulo, éste simplemente es el conjunto de todas las soluciones del sistema homogéneo Ax = 0. Si se conoce una solución particular del sistema Ax = b, entonces el conjunto de todas sus soluciones se obtiene sumando a la solución particular un elemento del espacio nulo. Un resultado de Álgebra Lineal es que cada vector de Rn se puede escribir de manera única como un vector del espacio nulo de A más un vector del espacio renglón de A. Una situación similar sucede en Rm. Definición 10.6.1 Un subconjunto S de Rn se dice que está generado por vectores {v1 , . . . , vl } si para todo s ∈ S existen constantes c1 , . . . , cl ∈ R tales que s = c1 v1 + · · · + cl vl . Algoritmo para el cálculo de los cuatro espacios fundamentales de una matriz 1. Lleve la matriz aumentada (A | Im ) a una dorma escalonada (U | P). 2. Particione la matriz (U | P) de la siguiente manera:   U1 P1 (U | P) = 0 P2 Entonces R(A) = R(AT ) = N(A) = N(AT ) =

10.7

{generado por las columnas que continen las posiciones pivotales de A}. R(U1T ). {generado por las n − r hi s´ en la solución general de Ux = 0} R(P2T ).

Uso de la factorización PA = LU para resolver el sistema Ax = b Así como es natural factorizar un número natural en un producto de otros números naturales, por ejemplo, 30 = 2 · 3 · 5, frecuentemente también es útil factorizar matrices como productos de otras matrices. Cualquier representación de una matriz como el producto

Capítulo 10. Sistemas de ecuaciones lineales

168

de dos o más matrices se llama factorización de matrices. Por ejemplo,      3 −1 1 0 3 −1 = 9 −5 3 1 0 −2 es una factorización de una matriz. No es necesario decir que algunas factorizaciones son más útiles que otras. En esta sección se presenta una factorización matricial que surge en la solución de sistemas de ecuaciones lineales mediante eliminación gaussiana y es particularmente adecuada para su implementación en computadora. Considere un sistema de ecuaciones de la forma AX = b donde A es una matriz de n × n. La meta es mostrar que la eliminación gaussiana implícitamente factoriza A como el producto de matrices que permiten resolver fácilmente el sistema dado (y cualquier otro sistema con la misma matriz asociada A). El siguiente ejemplo ilustra la idea básica de la factorización LU. 

Ejemplo 10.9 Sea



 2 1 3 A =  4 −1 3  −2 5 5 La reducción por renglones de A se realiza del modo siguiente:     2 1 3 2 1 3 R ↔ (−2)R1 +R2  0 −3 −3  A =  4 −1 3  2 R3 ↔ R1 +R3 −2 5 5 −−−−−−−−−−−−−→ 0 6 8   2 1 3  R3 ↔ (2)R2 +R3 0 −3 −3  = U −−−−−−−−−−→ 0 0 2 Las tres matrices elementales E1 , E2 , E3 que logran esta reducción de A a la forma escalonada U son (en orden):       1 0 0 1 0 0 1 0 0 E1 =  −2 1 0  , E2 =  0 1 0  , E3 =  0 1 0  . 0 0 1 1 0 1 0 2 1 Por lo tanto, E1 E2 E3 A = U Al despejar A obtenemos: A = E3−1 E2−1 E1−1U y tenemos 

     1 0 0 1 0 0 1 0 0 E1−1 =  2 1 0  , E2−1 =  0 1 0  , E3 =  0 1 0  0 0 1 −1 0 1 0 −2 1

10.7 Uso de la factorización PA = LU para resolver el sistema Ax = b

169

Por lo tanto, 

 1 0 0 1 0  = L. E3−1 E2−1 E1−1 =  2 −1 −2 1 Y por lo tanto: 

    2 1 3 1 0 0 2 1 3 1 0   0 −3 −3  = LU. A =  4 −1 3  =  2 −2 5 5 −1 −2 1 0 0 2 

El ejemplo anterior motiva a la siguiente definición: Definición 10.7.1 Sea A una matriz cuadrada. Una factorización de A como A = LU,

donde L es triangular inferior unitaria y U es triangular superior, se llama factorizaci´on LU de A. Aunque nuestra definición está enunciada a únicamente matrices cuadradas, la factorización LU puede generalizarse a matrices no cuadradas. Otra observación sobre nuestra definición es el requerimiento “unitaria”, en algunos textos, la definición omite esta palabra y solamente escribe: “Sea A una matriz cuadrada. Una factorización de A como A = LU, donde L es triangular inferior y U es triangular superior, se llama f actorizacion ´ LU de A.” Otra pregunta que surge de manerar natural es ¿cuales matrices se pueden factorizar de la forma LU? El siguiente teorema (sin demostración) nos aclara este tema. Teorema 10.7.1 Si A es una matriz cuadrada que puede reducirse a su forma escalonada

sin usar intercambios de renglón, entonces A tiene una factorización LU. Una forma sencilla de encontrar factorizaciones LU En el Ejemplo anterior se calculó la matriz L como un producto de matrices elementales. Por fortuna, L puede calcularse directamente a partir del proceso de Gauss sin la necesidad de calcular las matrices elementales, invertirlas, etc. Partimos de que A puede reducirse a su forma escalonada por renglones sin usar intercambio de renglón. Tenemos la siguiente definción: Definición 10.7.2 En la operación elemental de renglón Ri ↔ (−k) R j + Ri , el escalar

k se denominará el multiplicador de la entrada (i, j). En el Ejemplo anterior, las operaciones elementales que se usaron fueron: R2 ↔ (−2)R1 + R2 R3 ↔ R1 + R3 R3 ↔ (2)R2 + R3

multiplicador de la entrada (2, 1) es k = 2 multiplicador de la entrada (3, 1) es k = −1 multiplicador de la entrada (3, 2) es k = −2

¡Los multiplicadores de la entrada (i, j) son precisamente los elementos de la entrada (i, j)! De hecho,   1 0 0 1 0  L= 2 −1 −2 1 como habiamos encontrado antes.

Capítulo 10. Sistemas de ecuaciones lineales

170

Problema 10.7 Encuentre una factorización LU de la matriz



3  6 A=  3 −9

 1 3 −4 4 8 −10  . 2 5 −1  5 −2 −4

Para ver porqué es útil la factorización LU, considere un sistema lineal AX = b, donde la matriz de coeficientes tiene una factorización LU, A = LU. El sistema AX = b puede reescribirse como LUX = b ó L (UX) = b. Si ahora se define Y = UX, entonces es posible resolver para X en dos etapas: 1. Resolver LY = b para Y mediante sustitución hacia adelante. 2. Resolver UX = Y para X mediante sustitución hacia atrás. Cada uno de dichos sistemas lineales tiene solución directa porque las matrices coeficientes L y U son ambas triangulares. El siguiente ejemplo ilustra el método.   2 1 3 4 −1 3  para resolver el  Ejemplo 10.10 Use una factorización LU de A =  −2 5 5   1 sistema AX = b donde b =  −4 .  9 Solución: En el Ejemplo anterior hallamos que    1 0 0 2 1 3 1 0   0 −3 −3  = LU. A= 2 −1 −2 1 0 0 2 

 y1 Para resolver el sistema AX = b primero resolvemos el sistema LY = b para Y =  y2  . y3 Este es justamente sistema de ecuaciones lineales: y1 = 1 2y1 + y2 = −4 −y1 − 2y2 + y3 = 9 La sustitución hacia adelante (esto es, trabajamos de arriba para abajo) produce: y1 = 1, y2 = −4 − 2y1 = −4 − 2 = −6, y3 = 9 + y1 + 2y2 = 9 + 1 + 2 (−6) = −2. Por lo tanto, 

 1 y =  −6  . −2

10.7 Uso de la factorización PA = LU para resolver el sistema Ax = b 171   x1 Y ahora, resolvemos el sistema de ecuaciones lineales UX = Y para X =  x2 . Este x3 sistema de ecuaciones lineales es 2x1 + x2 + 3x3 = 1 −3x2 − 3x3 = −6 2x3 = −2 y la sustitución hacia atrás (esto es, trabajamos de abajo para arriba) produce: x3 = −1, −6 + 3x3 −6 + 3 (−1) −9 x2 = = = = 3, −3 −3 −3 1 − x2 − 3x3 1 − (3) − 3 (−1) 1 = = . x1 = 2 2 2 Por lo tanto, la solución del sistema de ecuaciones lineales dado es  1  2

X =  3 . 1 Teorema 10.7.2 Si A es una matriz invertible que tiene una factorización LU, entonces

L y U son únicas. Demostración. Suponga que A = LU y A = L1U1 son dos factorizaciones LU de A. Entonces LU = L1U1 donde L y L1 son triangulares inferiores unitarias y U y U1 son triangulares superiores. De hecho, U y U1 son dos formas escalonadas por renglones (posiblemente diferentes) de A. Entonces L1 es invertible (Ver Lista 06). Dado que A es invertible, entonces su forma escalonada reducida por renglones es la identidad. Por lo tanto, U se reduce por renglones a I (¿porqué?) y en consecuencia U también es invertible. Por lo cual, L1−1 (LU)U −1 = L1−1 (L1U1 )U −1 ,   L1−1 L UU −1 = L1−1 L1 U1U −1 , L1−1 L = U1U −1 . Pero L1−1 L es triangular inferior unitaria (Ver Lista 06) y U1U −1 es triangular superior (¿porqué?). Se tiene que L1−1 L = U1U −1 es tanto triangular unitaria como triangular superior. La única matriz de esta forma es la matriz identidad, de modo que L1−1 L = I y U1U −1 = I. Se tiene que L = L1 y U = U1 , de modo que la factorización es única.  Ahora se explorará el problema de adaptar la factorización LU para menejar casos donde son necesarios los intercambios de renglón durante la eliminación gaussiana. Por ejemplo, considere la matriz:   1 2 −1 A =  3 6 2 . −1 1 4

Capítulo 10. Sistemas de ecuaciones lineales

172

Una reducción por renglón directa produce   1 2 −1 A→B= 0 0 5  0 3 3 que no es una matriz triangular superior. Sin embargo, esto se puede convertir fácilmente en forma triangular superior al intercambiar los renglones 2 y 3 de B para obtener   1 2 −1 U =  0 3 3 . 0 0 5 Alternativamente, primero puede intercambiar los renglones 2 y 3 de A. Para este fin, sea P la matriz elemental   1 0 0  0 0 1  0 1 0 que corresponde a intercambiar los renglones 2 y 3, y sea E el producto de las matrices elementales que entonces reduce PA a U (de modo que E −1 = L es triangular inferior unitaria). Por tanto, EPA = U de modo que A = (EP)−1 U = P−1 E −1U = P−1 LU. Ahora, esto sólo maneja el caso de un solo intercambio de renglón. En general, P será el producto P = Pk · · · P2 P1 de todas las matrices que intercambian renglón P1 , P2 , . . . , Pk (donde P1 se realiza primero, etc) Tal matriz P se llama una matriz permutaci´on. Observe que una matriz permutación surge de permutar los renglones de una matriz identidad en cierto orden. Por ejemplo, las siguientes matrices son todas matrices permutación:     0 1 0 0   0 0 1  0 0 0 1  0 1   , 1 0 0 ,  1 0 0 0 . 1 0 0 1 0 0 0 1 0 Por fortuna, el inverso de una matriz permutación es fácil de calcular (Lista 06) y lo establecemos en el siguiente Teorema 10.7.3 Si P es una matriz permutación, entonces P−1 = PT .

Por tanto, en general, puede factorizar una matriz cuadrada A como A = P−1 LU = PT LU. Definición 10.7.3 Sea A una matriz cuadrada. Una factorización de A como A = PT LU, donde P es una matriz permutación, L es triangular inferior unitaria y U es triangular superior, se llama factorizaci´on PT LU de A. 

Ejemplo 10.11 Encuentre una factorización PT LU de la matriz



 0 0 6 A =  1 2 3 . 2 1 4 

10.8 Ejercicios

173

Solución: Primero reduzca A a forma escalonada por renglones. Claramente, es necesario al menos un intercambio de renglón.       0 0 6 1 2 3 1 2 3  1 2 3  R1 ↔ R2  0 0 6  R3 ↔ (−2)R1 +R3  0 0 6  −−−−−→ − − − − − − − − − − − − → 2 1 4 2 1 4 0 −3 −2   1 2 3 R2 ↔ R3  0 −3 −2  . −−−−−→ 0 0 6 Se usaron dos intercambios de renglón (R1 ↔ R2 y luego R2 ↔ R3 ), de modo que la matriz permutación requerida es      1 0 0 0 1 0 0 1 0 P =  0 0 1  1 0 0  =  0 0 1 . 0 1 0 0 0 1 1 0 0 Ahora se encuentra una factorización LU de PA.    0 0 6 0 1 0 PA =  0 0 1   1 2 3  1 0 0 2 1 4     1 2 3 1 2 3 =  2 1 4  R2 ↔ (−2)R1 +R2  0 −3 −2  = U 0 0 6 −−−−−−−−−−−−→ 0 0 6 Por lo tanto, 

   0 0 1 1 0 0 1 2 3 A =  1 0 0   2 1 0   0 −3 −2  . 0 1 0 0 0 1 0 0 6

La discusión anterior justifica el siguiente teorema (el cual no demostraremos). Teorema 10.7.4 Toda matriz cuadrada tiene una factorización PT LU. Problema 10.8 Encuentre una factorización PT LU de la matriz



 0 −1 1 3  −1 1 1 2  . A=  0 1 −1 1  0 0 1 1

10.8

Ejercicios 1. Halle el conjunto solución de cada uno de los siguientes sistemas de ecuaciones lineales usando números reales: a)   x + 2y − 3z = 4 x + 3y + z = 11  2x + 5y − 4z = 13

Capítulo 10. Sistemas de ecuaciones lineales

174 b)

  x1 + x2 − 2x3 + x4 = 0 3x1 − 2x2 + x3 + 5x4 = 0  x1 − x2 + x3 + 2x4 = 0 c) {x + 2y − 3z = 4 d) 

x + 2y − 3z = 4 x + 3y + z = 11

2. Dado el sistema:   2x1 − x2 + x3 = a 3x1 + x2 + 4x3 = b  −x1 + 3x2 + 2x3 = c Determinar los valores de a, b, c ∈ R para los cuales el sistema sea consistente. 3. Sea a1 , a2 , . . . , an una sucesión arbitraria de números reales. Encuentre un sistema sobre R de n ecuaciones con n incógnitas cuyo conjunto solución sea el conjunto {a1 , a2 , . . . , an } . 4. Determina si los siguientes enunciados son verdadero o falso. a) Todo sistema inconsistente tiene al menos dos incógnitas. b) Todo sistema inconsistente tiene al menos dos ecuaciones. 5. Demuestre que todo sistema con una única ecuación y al menos una variable es consistente. 6. Determina si los siguientes enunciados son verdadero o falso. (Justifique su respuesta exhibiendo una prueba o dando un contraejemplo.) a) Si dos sistemas de ecuaciones tienen la misma matriz asociada, entonces los dos sistemas son iguales. b) Sean A y B matrices. Si existe un sistema de ecuaciones tal que tanto A como B son matrices asociadas a dicho sistema, entonces A = B. c) Sea A una matriz con entradas en un campo. Entonces A2 está definida si y sólo si A es una matriz cuadrada. d) Sea A una matriz de 2 × 2 con entradas en Q tal que A2 = I. Entonces A = I. e) No existe una matriz A de 2 × 2 con entradas en Q tal que A2 = −I. f ) Si dos sistemas homogéneos de ecuaciones tienen la misma matriz asociada, entonces los dos sistemas son iguales. 7. Para cada uno de los siguientes sistemas homogéneos sobre Q, encuentre el conjunto solución:   5x + 15y + 30z = 0 2y + 6z = 0 a)   4z = 0  5x + 15y + 30z = 20 2y + 6z = 2 b)  4z = 0

10.8 Ejercicios 175   3x + 5y + 3z = 0 3x − 5y + 3z = 0 c)   9x + 5y + 9z = 0  3x + 5y + 3z = 5 3x − 5y + 3z = −5 d)   9x + 5y + 9z = 5  3x + 5y + 3z = 0 3x − 5y + 3z = 0 e)   3x + 5y + 3z = 0  3x + 5y + 3z = 3 3x − 5y + 3z = 3 f)  3x + 5y + 3z = 3 8. Determina si los siguientes enunciados son verdadero o falso. (Justifique su respuesta exhibiendo una prueba o dando un contraejemplo.) a) Todo sistema de ecuaciones con más variables que ecuaciones es consistente. b) Todo sistema de ecuaciones con más ecuaciones que variables es inconsistente. c) Todo sistema consistente de ecuaciones con el mismo número de ecuaciones que de incógnitas tiene una única solución. d) El producto de dos matrices triangulares inferiores de n × n es triangular inferior. e) El producto de una matriz triangular superior y una matriz triangular superior es una matriz diagonal. 9. Considere un sistema no homogéneo de ecuaciones lineales

AX = Y

Sea A la matriz aumentada de dicho sistema, y sea B una matriz tal que el producto BA está bien definido. Demuestre que la matriz aumentada del sistema (BA)X = BY es BA. 10. Sean A, B ∈ Mn×m (K) dos matrices escalonadas reducidas por renglones. Suponga que A y B son equivalentes por renglones. a) Demuestre que si Xi fuera variable libre de A pero no de B, las matrices A y B no tendrían las mismas soluciones, contradiciendo el hecho de que son equivalentes por renglones. Concluya que A y B tienen las mismas variables libres. b) Demuestre que las matrices A y B tienen el mismo número de pivotes y en las mismas columnas. c) Demuestre que A = B. d) Demuestre que toda matriz de Mn×m (K) es equivalente por renglones a una única matriz escalonada reducida por renglones, llamada su forma escalonada reducida por renglones. 11. Encuentre LU de la matriz dada.  la factorización  2 2 −1 a)  4 0 4  3 4 4

Capítulo 10. Sistemas de ecuaciones lineales

176 

 2 2 2 1  −2 4 −1 2   b)   4 4 7 3  6 9 5 8 12. Encuentre PT LU de la de la matriz dada.  una factorización  0 1 4 a)  −1 2 1  1 3 3   0 0 1 2  −1 1 3 2   b)   0 2 1 1  1 1 −1 0 13. Resuelva los siguientes sistemas usando la factorización LU o PT LU (según sea el caso). 2x − 4y = 2  3x − y + 4z = 0 a)   −x + 2y + 2z = −5 y−z = 1  2x + 3y + 2z = 1 b)   x+y−z = 5  8x + 3y − 5z = 16 4x + y + 2z = −4 c)  4x + 3z = 4 14. Generalize la definición de factorización LU a matrices no cuadradas al simplemente requerir que U sea una matriz en forma escalonada por renglones. Con esta modificación, encuentre una factorización LU de la siguiente matriz:   1 2 0 −1 1  −2 −7 3 8 −2   .  1 1 3 5 2  0 3 −3 −6 0 15. Determina si los siguientes enunciados son verdadero o falso. (Justifique su respuesta exhibiendo una prueba o dando un contraejemplo.) a) El producto de matrices triangulares inferiores unitarias es una matriz triangular inferior unitaria. b) Toda matriz triangular inferior unitaria es invertible. c) Existen n! matrices permutación de n × n. 16. Resuelve los siguientes sistemas de ecuaciones lineales reduciendo la matriz aumentada en su forma escalonada reducida:   x1 + x2 − x3 + 2x4 = 10 −3x1 + x2 + x3 + x4 = 0     3x1 − x2 + 7x3 + 4x4 = 1 x1 − 3x2 + x3 + x4 = 0 a) c)  x + x2 − 3x3 + x4 = 0    −5x1 + 3x2 − 15x3 − 6x4 = 9  1 x 3x − y + 7z = 0 1 + x2 + x3 − 3x4 = 0.    1 2x − y + 4z = 2 b) x−y+z = 1    6x − 4y + 10z = 3

10.8 Ejercicios

177

17. Encuentre los valores de α para los cuales las siguientes ecuaciones tienen solución, y encuentre las soluciones   x − 3y + 2z = 4 2x + y − z = 1  3x − 2y + z = α 18. La matriz que se muestra abajo es la matriz aumentada para cierto sistema de ecuaciones. Encuentre los valores del parámetro k para el cual el sistema no tiene solución, tiene una solución, y tiene infinitas soluciones; cuando tiene infinitas soluciones, encuentre la forma general de la solución en términos de las variables libres, también determinar la solución cuando sea única.   1 −2 3 1  2 k 6 6  . −1 3 k − 3 0 19. Para qué valores de α el siguiente sistema no tiene soluci on? Exactamente una solución? Infinidad de soluciones?   x + 2y − 3z = 4 3x − y + 5z = 2   4x + y + α 2 − 14 z = α + 2 20. Para qué valor(es) de λ el siguiente sistema de ecuaciones tiene soluciones no triviales?  (λ − 3) x + y = 0 x + (λ − 3) y = 0 21. Determina los valores de k tales que el sistema  2x + 3y = −k kx − 6y = 2k a) tenga solución unica y halla la solución. b) tenga infinidad de soluciones y encuentrala. c) no tenga solución. 22. Halla los valores de t para los cuales el siguiente sistema es consistente y resuelve el sistema para estos valores de t.   x+y = 1 tx + y = t  (1 + t) x + 2y = 3 23. Para cuales números racionales λ , el siguiente sistema homogeneo  x + (λ − 3)y = 0 (λ − 3)x + y = 0 tiene solución no-trivial?

Capítulo 10. Sistemas de ecuaciones lineales

178

24. Determina los valores de a tales que el sistema   x + 2y − 3z = 4 3x − y + 5z = 2  4x + y + (a2 − 14)z = a + 2 a) tenga solución unica. b) tenga infinidad de soluciones y encuentrala. c) no tenga solución.

PROBLEMAS Problema 10.9 (Propuesto en Prueba de Desempeño 2015) Halla los valores de k para

los cuales el siguiente sistema  x + y + kz = 1 x + ky + z = 1 tiene 1. tiene solución única. 2. tiene infinidad de soluciones. 3. no tiene solución. Problema 10.10 (Propuesto en Prueba de Desempeño 2015) Verdadero o Falso. Si un sistema de ecuaciones lineales con coeficientes en R tiene al menos dos soluciones diferentes, entonces tiene infinidad de soluciones. Justifica CON DETALLE tu respuesta. Problema 10.11 (Propuesto en Prueba de Desempeño 2015) Dada una matrix A ∈ Rm×n se define el conjunto: N(A) = {x ∈ Rn | Ax = 0}. que se conoce como el espacio nulo de la matriz. Considere la siguiente matriz:   2 2 0 0 α =  3 4 −1 2  −1 1 −2 −4 Halle N(α). Problema 10.12 (Propuesto en Prueba de Desempeño 2015) Calcule la solución (en

los enteros) del siguiente sistema de ecuaciones lineales:  x + 2y − 3z = 4 x + 3y + z = 11 Problema 10.13 (Propuesto en Prueba de Desempeño 2015) El Súper Tazón XXXIX

se celebró el 6 de febrero de 2005, en Jacksonville, Florida. A lo largo de los años, los estados de Florida, California y Louisiana, en este orden, han sido anfitriones de la mayor cantidad de Súper Tazones. Estos tres estados han sido anfitriones del Súper Tazón un total de 32 veces. Florida ha tenido 3 Súper Tazones más que Louisiana. Juntos, Florida y Louisiana han tenido un Súper Tazón menos que el doble del número que ha tenido California. Determine el número de Súper Tazones que ha albergado cada uno de los estados. Fuente: NFL, USA Today.

10.8 Ejercicios

179

Problema 10.14 (Propuesto en Prueba de Desempeño 2015) Determine si las siguien-

tes afirmaciones son verdaderas (V) o falsas (F). Escribe una breve justificación. Es posible que la ecuación AX = b no tenga soluciones mientras que al 1. mismo tiempo AX = 0 tenga infinitas soluciones. 2. Todo sistema que posea una solución debe tener al menos dos ecuaciones. 3. Si un sistema de ecuaciones lineales tiene más variables que ecuaciones, entonces tiene un número infinito de soluciones. Si A es una matriz con un pivote en cada fila y B es una matriz con un 4. pivote en cada fila, entonces el producto AB tiene un pivote en cada fila. Si A contiene una fila de ceros, entonces la ecuación AX = b no tiene 5. soluciones. Problema 10.15 (Propuesto en Prueba de Desempeño 2015) Halla las soluciones del siguiente SEL usando A = LU o PT A = LU según consideres:   x + y + 3z = 1 x + 3y + 3z = 1  3x + y + 5z = 1 Problema 10.16 (Propuesto en Prueba de Desempeño 2015) Patito Computers fabrica

tres modelos de computadoras personales: cañon, clon y lenta-pero- segura. Para armar una computadora modelo cañon necesita 12 horas de ensamblado, 2.5 para probarla, y 2 más para instalar sus programas. Para una clon requiere 10 horas de ensamblaje, 2 para probarla, y 2 para instalar programas. Y por último, para una lenta-pero-segura requiere 6 para ensamblado, 1.5 para probarla y 1.5 para instalar programas. Si la fábrica dispone en horas por mes de 428 para ensamble, 93 para pruebas, y 86 horas para instalación de programas, ¿cuántas computadoras se pueden producir por mes? Problema 10.17 (Propuesto en Prueba de Desempeño 2015) Considere el siguiente sistema:   λx+y+z = 1 x+λy+z = 2  x+y+λz = 3 Halle los valores de λ para que el sistema tenga: 1. solución única. 2. no tenga solución. 3. soluciones infinitas. Problema 10.18 (Propuesto en Prueba de Desempeño (Acompañamiento) 2015) Halla los valores de k para los cuales el siguiente sistema   x + y + kz = 1 x + ky + z = 1  kx + y + 5z = 1 1. tiene solución única. 2. tiene infinidad de soluciones. 3. no tiene solución. Problema 10.19 (Propuesto en Prueba de Desempeño (Acompañamiento) 2015) Determine si los siguientes enunciados son falso o verdadero. Justifique su respuesta.

Capítulo 10. Sistemas de ecuaciones lineales

180 1.

Todo sistema homogéneo de ecuaciones lineales tiene una solución no trivial.

Si un sistema de ecuaciones lineales tiene menos variables que ecuaciones, entonces tiene un número infinito de soluciones. 3. Si A no es invertible, entonces el sistema AX = B, tiene solución única. 4. Todo sistema que no tenga solución debe tener al menos dos variables. Todo sistema que no tenga una solución debe tener al menos dos ecua5. ciones. Problema 10.20 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Pruebe que si un sistema de ecuaciones lineales con coeficientes en R tiene al menos dos soluciones diferentes, entonces tiene infinidad de soluciones. (Sugerencia. Si x1 6= x2 son soluciones del sistema Ax = b, demuestre que x1 + k(x1 − x2 ) también es solución del sistema para todo k ∈ R. Luego demuestre que cualesquiera dos de estas soluciones son distintas). Problema 10.21 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Si A es la matriz de coeficientes de un sistema homogéneo formado por 4 ecuaciones y 8 incógnitas y hay 5 variables libres, ¿cuál es el rango de A? Problema 10.22 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Suponga que A es una matriz de 2 × 1 y que B es una matriz de 1 × 2. Demuestre que AB no es invertible. Problema 10.23 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Halla el valor de m para el cual el siguiente sistema  x + 3y = m − 10 4x + my − 8 = 0 2.

1. tiene solución única. 2. tiene infinidad de soluciones. 3. no tiene solución. Problema 10.24 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Calcule la solución (en los reales) del siguiente sistema de ecuaciones lineales:  x + 2y − 3z = 4 x + 3y + z = 11 Problema 10.25 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Un

agente secreto sabe que 60 aéreos, que consisten en aviones de combate y bombarderos, están estacionados en cierto campo aéreo secreto. El agente quiere determinar cuántos de los 60 equipos son aviones de combate y cuántos son bombarderos. Existe un tipo de cohete que llevan ambos aviones; el de combate lleva 6 de ellos y el bombardero sólo 2. El agente averigua que se requieren 250 cohetes para armar a todos los aviones del campo aéreo. Más aún, escucha que tienen el doble de aviones de combate que de bombarderos en la base (es decir, el número de aviones de combate menos dos veces el número de bombarderos es igual a cero). Calcule el número de aviones de combate y bombarderos en el campo aéreo o muestre que la información del agente debe de ser incorrecta ya que es inconsistente. Problema 10.26 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Pruebe que si un sistema de ecuaciones lineales con coeficientes en R tiene al menos dos

10.8 Ejercicios

181

soluciones diferentes, entonces tiene infinidad de soluciones. (Sugerencia. Si x1 6= x2 son soluciones del sistema Ax = b, demuestre que x1 + k(x1 − x2 ) también es solución del sistema para todo k ∈ R. Luego demuestre que cualesquiera dos de estas soluciones son distintas). Problema 10.27 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Si A es la matriz de coeficientes de un sistema homogéneo formado por 4 ecuaciones y 8 incógnitas y hay a lo más 5 variables libres, ¿cuál es el rango de A? Problema 10.28 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Suponga que A es una matriz de 2 × 1 y que B es una matriz de 1 × 2. Demuestre que AB no es invertible. Problema 10.29 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Halla el valor de m para el cual el siguiente sistema   mx + y + x = 1 x + my + z = m  x + y + mz = m2 1. tiene solución única. 2. tiene infinidad de soluciones. 3. no tiene solución. Problema 10.30 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) QuickInk Publisher edita tres calidades de libros: edición rústica, pasta dura, y empastados en piel. Para los rústicos, la empresa gasta en promedio 3 pesos en papel, 5 pesos en ilustraciones, y 5 pesos en las pastas. Para los de pasta dura, gasta 3 pesos en papel, 7 pesos en ilustraciones, y 11 pesos en pastas. Y para los empastados en piel, gasta 4 pesos en papel, 14 pesos en ilustraciones, y 22 pesos en pastas. Si el presupuesto permite gastar 212 pesos en papel, 504 pesos en ilustraciones, y 712 pesos en pastas. ¿Cuántos libros de cada categoría pueden producirse? Problema 10.31 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Halla los valores de k para los cuales el siguiente sistema   x + y + (1 − m)z = m + 2 (1 + m)x − y + 2z = 0  2x − my + 3z = m + 2 1. tiene solución única. 2. tiene infinidad de soluciones. 3. no tiene solución. Problema 10.32 (Propuesto en Prueba de Desempeño (Acompañamiento) 2016) Un estudiante dedica 6 horas a dormir y 2 a comer. El resto lo dedica a estudiar, a jugar boliche y a otras actividades. Cada hora de estudio le cuesta en promedio 20 pesos, cada hora de boliche 120 pesos y el promedio por hora de otras actividades es de 40 pesos. Si dispone de 600 pesos por día, ¿cómo puede dividir el tiempo entre las tres cosas? Referencing Table 10.1 in-text automatically.

182

Capítulo 10. Sistemas de ecuaciones lineales

Treatments

Response 1

Response 2

Treatment 1 Treatment 2 Treatment 3

0.0003262 0.0015681 0.0009271

0.562 0.910 0.296

Cuadro 10.1: Table caption