Calculo Vectorial

Notas de clase de C´alculo Vectorial I Orestes Bueno Actualizado al 3 de marzo de 2015 II ´ Indice general Introducc

Views 145 Downloads 0 File size 3MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Notas de clase de C´alculo Vectorial I Orestes Bueno Actualizado al 3 de marzo de 2015

II

´ Indice general Introducci´on

V

1. Geometr´ıa anal´ıtica en el plano 1.1. Sistema de coordenadas cartesianas . . 1.2. El plano cartesiano . . . . . . . . . . . 1.3. Vectores en el plano . . . . . . . . . . . 1.4. Producto interno y a´ ngulo entre vectores ´ 1.5. Algebra lineal de vectores en el plano .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

1 2 3 5 7 12

2. El plano euclidiano 2.1. Rectas en el plano . . . . . . . . . . . . . . . . . 2.1.1. Ecuaci´on general de la recta . . . . . . . 2.1.2. Pendiente y ecuaci´on normal de una recta 2.2. Posiciones y distancias relativas entre rectas . . . 2.2.1. Intersecci´on de rectas . . . . . . . . . . . 2.2.2. Distancia entre rectas . . . . . . . . . . . ´ 2.3. Angulo entre rectas . . . . . . . . . . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

19 19 21 22 23 25 26 27

. . . .

29 29 30 33 37

. . . . . .

43 43 44 45 46 48 49

. . . . .

. . . . .

. . . . .

. . . . .

3. Geometr´ıa anal´ıtica en el espacio 3.1. Sistema de coordenadas en el espacio . . . . . 3.2. Geometr´ıa de vectores en el espacio . . . . . . 3.3. El producto vectorial y el triple producto escalar 3.4. Algebra lineal de vectores en el espacio . . . .

. . . .

. . . .

. . . .

. . . .

4. Rectas y planos en el espacio 4.1. Rectas en el espacio . . . . . . . . . . . . . . . . . . . 4.1.1. Posici´on relativa entre rectas . . . . . . . . . . 4.1.2. Distancia de un punto a una recta y entre rectas 4.2. Planos en el espacio . . . . . . . . . . . . . . . . . . . 4.2.1. Posici´on relativa entre planos . . . . . . . . . 4.2.2. Distancia de un punto a un plano y entre planos III

. . . .

. . . . . .

. . . .

. . . . . .

. . . .

. . . . . .

. . . .

. . . . . .

. . . .

. . . . . .

IV

´ INDICE GENERAL

5. Geometr´ıa proyectiva 5.1. Relaciones y clases de equivalencia . . . . . . . . . . . . . . . . 5.2. Coordenadas homog´eneas y el plano proyectivo . . . . . . . . . . 5.3. Rectas en el plano proyectivo . . . . . . . . . . . . . . . . . . . .

51 51 55 57

6. C´onicas en el plano proyectivo 6.1. El polo y la recta polar . . . . . . . . . . . . . . . . . . . . 6.2. Posici´on relativa de una recta y una c´onica . . . . . . . . . . 6.2.1. La ecuaci´on cuadr´atica homog´enea de dos variables . 6.2.2. Intersecci´on de una recta y una c´onica . . . . . . . . 6.3. Propiedades generales de matrices de orden tres . . . . . . . 6.4. Clasificaci´on de las c´onicas degeneradas . . . . . . . . . . . 6.4.1. C´onicas con matriz de rango uno . . . . . . . . . . . 6.4.2. C´onicas con matriz de rango dos . . . . . . . . . . . 6.5. Clasificaci´on de c´onicas mediante su intersecci´on con x3 = 0 6.6. C´onicas imaginarias . . . . . . . . . . . . . . . . . . . . . . 6.7. Recta tangente a una c´onica . . . . . . . . . . . . . . . . . .

63 66 68 68 70 71 74 74 76 77 77 79

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

Introducci´on Estas notas de clase fueron comenzadas, como manuscrito, cuando dict´e el curso de C´alculo Vectorial I en el semetre 2006-I, en la Facultad de Ciencias, de la Universidad Nacional de Ingenier´ıa. Luego, la versi´on digitada la comenc´e cuando retom´e el curso durante los semestre 2013-I y 2013-II. La idea de estas notas es proveer una visi´on medianamente formal de la geometr´ıa anal´ıtica, sin perder las ideas geometricas, y sin caer en la abstracci´on excesiva. As´ı, el p´ublico objetivo son alumnos de primeros a˜nos de una carrera orientada a ciencias o ingenier´ıa.

V

VI

´ INTRODUCCION

Cap´ıtulo 1

Geometr´ıa anal´ıtica en el plano La idea fundamental que di´o origen a la geometr´ıa anal´ıtica es la de relacionar a los elementos del plano (llamados puntos) con pares ordenados (que son pares de n´umeros). Tal relaci´on se denomina sistema de coordenadas. As´ı, un sistema de coordenadas involucra asignarle a cada elemento de un conjunto (que puede ser recta, plano, espacio, esfera, cono, etc.) una cantidad finita (o incluso infinita) de n´umeros. En adelante, consideraremos un plano P, y supondremos conocidas las nociones de punto, recta, segmento, a´ ngulo, etc. Supondremos tambi´en que en P se cumplen los postulados de Euclides:

Figura 1.1: Ren´e Descartes

1. por dos puntos diferentes s´olo se puede trazar una u´ nica l´ınea recta; 2. todo segmento rectil´ıneo se puede prolongar indefinidamente; 3. con un centro y un radio dado, s´olo se puede trazar una u´ nica circunferencia; 4. todos los a´ ngulos rectos son iguales; 5. si una recta corta a otras dos formando a un lado a´ ngulos internos, y la suma de estos es menor que dos rectos, las dos rectas prolongadas indefinidamente se encontrar´an de ese lado. Finalmente, supondremos tambi´en que sabemos medir en nuestro plano, es decir, dados dos elementos P, Q ∈ P, podemos determinar la distancia entre P y Q. En este caso, denotaremos por d(P, Q) a tal distancia. Podemos considerar entonces la funci´on distancia en nuestro plano P, como una funci´on d : P × P −→ R que cumple los siguientes hechos inmediatos: 1

´ ´ ANALITICA ´ CAPITULO 1. GEOMETRIA EN EL PLANO

2

1. d(P, Q) ≥ 0, para cualquier P, Q ∈ P; 2. d(P, Q) = 0 si, y solamente si, P = Q; 3. d(P, Q) = d(Q, P ), para cualesquiera P, Q ∈ P; 4. d(P, Q) ≤ d(P, R) + d(R, Q), para cualesquiera P, Q, R ∈ P; 5. d(P, Q) = d(P, R) + d(R, Q) si, y solamente si, R est´a en el segmento de recta que une P y Q. Con estas suposiciones, reconstruiremos la geometr´ıa anal´ıtica plana estudiada en el colegio y/o academia. Para esto, nuestro primer objetivo ser´a el de cuadricular el plano.

1.1.

Sistema de coordenadas cartesianas

Sea L una recta y consideremos un punto O ∈ L. Dicho punto O divide a L en dos partes disjuntas. Escojamos una de estas partes y a los elementos de esta denot´emoslos como puntos a la derecha de O. Del mismo modo, a los elementos de la parte restante, los llamaremos como puntos a la izquierda de O. As´ı, una vez hecha esta elecci´on, llamaremos a L como eje y a O ∈ L como el origen del eje L. Ahora, consideremos L un eje con origen O. Asignemos a cada punto de L un n´umero real, de la siguiente manera: dado P ∈ L, definimos p ∈ R como   si P = O, 0, p = d(O, P ), si P est´a a la derecha de O,   −d(O, P ), si P est´a a la izquierda de O. A tal n´umero p lo llamaremos coordenada de P asociada al eje L. Es importante observar que la coordenada de un punto P de L depende del origen O escogido en L y de que semirecta en L fue escogida como “a la derecha” de O. En adelante, dado un eje L, a la semirecta de L que contiene a los puntos con coordenadas positivas la denominaremos semieje positivo, y a la semirecta de L que contiene a los puntos con coordenadas negativas la denominaremos semieje negativo. Proposici´on 1.1. Sean L un eje, con origen O. Si P, Q ∈ L tienen coordenadas p, q ∈ R, respectivamente, entonces d(P, Q) = |p − q|. Demostraci´on. Dependiendo de la posici´on relativa de P , Q y O tenemos seis posibilidades. Probaremos una de ellas y para el resto se procede de manera an´aloga. Consideremos, por ejemplo, que Q est´a a la izquierda de O y P a la derecha de O, esto es, O ∈ P Q. En este caso, q = −d(O, Q) ≤ 0, p = d(O, P ) ≥ 0 y as´ı, d(P, Q) = d(Q, O) + d(O, P ) = −q + p = |p − q|.

1.2. EL PLANO CARTESIANO

3

Una vez determinado como asignarle coordenadas a puntos en una recta, podemos hacer lo propio para puntos del plano. Consideremos dos ejes LX y LY perpendiculares, ambos con el mismo origen O. Sea P ∈ P fijo. Si P ∈ LY entonces denotemos PX = O. En caso contrario, como P ∈ / LY , por el quinto postulado de Euclides, por P pasa una u´ nica recta paralela a LY y as´ı, consideramos PX como la intersecci´on de tal recta con LX . Del mismo modo, si P ∈ LX definimos PY = O y, de lo contrario, definimos PY como la intersecci´on de la u´ nica recta paralela a LX que pasa por P con LY . Sea x ∈ R la coordenada de PX respecto del eje LX y y ∈ R la coordenada de PY respecto del eje LY . Luego, asociamos a P el par ordenado (x, y). Tal par ordenado se denomina coordenada de P asociada a los ejes LX y LY . As´ı, teniendo dos ejes perpendiculares con origen com´un, hemos asignado a cada punto del plano, un par ordenado de n´umeros reales. A un par de ejes con estas caracter´ısticas, los llamaremos sistema de coordenadas cartesianas. En adelante, consideraremos un sistema de coordenadas cartesianas formado −→ por dos ejes: LX (denotado Ox y llamado eje x o eje de abscisas) y LY (denota−→ do Oy y llamado eje y o eje de ordenadas). Por simplicidad en la representaci´on gr´afica, y tambi´en por costumbre, dibujaremos al eje x como una recta horizontal y al eje y como una recta vertical. Adem´as, la regi´on de puntos con pares ordenados con componentes positivas se dibujar´a “arriba y a la derecha” del origen. Finalizaremos esta secci´on estableciendo la f´ormula de la distancia en el plano. Proposici´on 1.2. Sean P, Q ∈ P con coordenadas (a, b) y (c, d), respectivamente. Entonces p d(P, Q) = (a − c)2 + (b − d)2 . Demostraci´on. Sea L1 la recta paralela al eje x que pasa por P y L2 la recta paralela al eje y que pasa por Q. Es claro que L1 y L2 no son paralelos, luego estas se intersectan en un punto R. Como P R ⊂ L1 , RQ ⊂ L2 y L1 es perpendicular a L2 , entonces el tri´angulo P RQ es un tri´angulo rect´angulo con a´ ngulo recto en R. Probaremos que la distancia de P a R es |a − c|. Sea L01 la recta paralela al eje y que pasa por P y sea P 0 la intersecci´on de esta con el eje x. Sea Q0 la intersecci´on de L2 con el eje x. Entonces el cuadril´atero RP Q0 P 0 es un rect´angulo, luego d(P, R) = d(P 0 , Q0 ) = |a − c|, por la proposici´on 1.1. De manera an´aloga, se prueba que la distancia de Q a R es |b − d|. Finalmente, por el teorema de Pit´agoras, d(P, Q)2 = d(P, R)2 + d(R, Q)2 , es decir p d(P, Q) = (a − c)2 + (b − d)2 .

1.2.

El plano cartesiano

Tenemos identificado entonces el plano P con el conjunto de pares ordenados de n´umeros reales. Tal conjunto lo denotaremos como R2 , m´as precisamente: R2 = R × R = {(x, y) : x, y ∈ R}.

´ ´ ANALITICA ´ CAPITULO 1. GEOMETRIA EN EL PLANO

4

El nombre “par ordenado” proviene del hecho obvio de que es un par de numeros, dispuestos de forma tal que importa el orden en que aparezcan. Por ejemplo, (−5, 4) ∈ R2 y (4, −5) ∈ R2 pero no se cumple que (−5, 4) = (4, −5). En general, para determinar la igualdad de dos pares ordenados (x, y) y (a, b), debe verificarse x=a y y = b. Dado un par ordenado (α, β) ∈ R2 , diremos que α es la primera componente o componente “x”, y diremos que β es la segunda componente o componente “y”. As´ı como en el conjunto R de los n´umeros reales existen dos operaciones: la suma y el producto, en R2 podemos establecer dos operaciones fundamentales: la suma de pares ordenados y el producto de un par ordenado por un escalar. Definici´on 1.3. Sean (x, y) y (a, b) elementos de R2 . Definimos la suma de (x, y) y (a, b) como el par ordenado (x, y) + (a, b) = (x + y, a + b). Por otro lado, dado t ∈ R y (x, y) ∈ R2 , definimos el producto de (x, y) por el escalar t como el par ordenado t · (x, y) = (tx, ty). Las operaciones anteriormente definidas satisfacen las siguientes propiedades. Proposici´on 1.4. 1. La suma es asociativa, es decir u + (v + w) = (u + v) + w, para todo u, v, w ∈ R2 ; 2. la suma es conmutativa, es decir u + v = v + u, para todo u, v ∈ R2 ; 3. existe un elemento θ ∈ R2 tal que v + θ = v, para todo v ∈ R2 ; 4. para todo v ∈ R2 , existe w ∈ R2 tal que v + w = θ; 5. la suma y el producto por un escalar son distributivos entre ellos, es decir, α(u+v) = αu+αv y (α+β)v = αv +βv, para todo u, v ∈ R2 y α, β ∈ R; 6. el producto de escalares y el producto por un escalar son asociativos, es decir, α(βv) = (αβ)v, para todo α, β ∈ R y v ∈ R2 ; 7. 1 ∈ R tambi´en es neutro multiplicativo del producto por un escalar, es decir, 1 · v = v, para todo v ∈ R2 . Demostraci´on. Probaremos los ´ıtems 2, 3 y 4. 2. Sean u = (xu , yu ) y v = (xv , yv ), arbitrarios, entonces u + v = (xu + xv , yu + yv ) = (xv + xu , yv + yu ) = v + u. Observe que hemos usado que la suma de n´umeros reales es conmutativa.

1.3. VECTORES EN EL PLANO

5

3. Para probar la existencia de algo, basta construirlo y mostrarlo expl´ıcitamente. Consideremos θ = (0, 0) ∈ R2 (que claramente existe) y probemos que cumple la condici´on mencionada. Sea v = (x, y) cualquiera, entonces v + θ = (x + 0, y + 0) = (x, y) = v, como quer´ıamos probar. 4. Consideremos ahora v = (x, y) cualquiera. Para probar que existe w ∈ R2 tal que v + w = θ, definimos w = (−x, −y). Entonces v + w = (x, y) + (−x, −y) = (x + (−x), y + (−y)) = (0, 0) = θ. En adelante, al par (0, 0) ∈ R2 lo denotaremos con el s´ımbolo 0 o incluso, cuando no haya peligro de confusi´on, con el s´ımbolo 0. Del mismo modo, si v = (x, y), denotaremos −v = (−x, −y). La proposici´on 1.4 implica que el conjunto R2 , junto con las operaciones de suma y producto por un escalar, cumple los axiomas de espacio vectorial.

1.3.

Vectores en el plano

Un concepto que no es visto en los cursos b´asicos de geometr´ıa, pero si en los de f´ısica, es el de vector. Usualmente, un vector se define como un objeto geom´etrico que posee magnitud y sentido, y es representado gr´aficamente como una flecha. As´ı, la magnitud y el sentido del vector estar´ıan relacionados al tama˜no y direcci´on a la que apunta la flecha. Otra manera de definir vectores es establecer la noci´on de segmento dirigido, esto es, un segmento de recta en el cual se distinguen el punto de inicio y el punto final. Para definir, lo m´as formal posible, la noci´on de vector, dibujemos una flecha en el plano P e intentemos determinar sus caracter´ısticas. Consideremos el punto P que marca el inicio de la flecha y el punto Q que marca el final (osea el punto del plano donde se ubica la punta de la flecha). Observe que para “reconstruir” nuestra flecha basta determinar los puntos P y Q, y determinar el punto de inicio. As´ı, un vector est´a determinado por un par ordenado de puntos (P, Q), donde P representa el origen del vector y Q el final (o destino) del vector. ¿Que significa “magnitud” y “sentido” en este caso? La magnitud del vector est´a dada por la distancia entre P y Q. Sin embargo, sin un sistema de coordenadas, el “sentido” no est´a bien determinado. Consideremos entonces un sistema de coordenadas cartesianas en P. Entonces, nuestra flecha se encuentra ahora dibujada sobre el plano “cuadriculado”. En este caso, tanto P y Q se representan por pares ordenados. Observe que el “sentido” del vector no depende de P , sino de en que posici´on se encuentra Q respecto de P y en que posici´on est´an ambos respecto de los ejes coordenados. As´ı, consideremos un sistema de coordenadas, con ejes paralelos al sistema original, pero con origen

6

´ ´ ANALITICA ´ CAPITULO 1. GEOMETRIA EN EL PLANO

de coordenadas el punto de origen del vector. Entonces, en este nuevo sistema, P tiene coordenadas (0, 0) y la magnitud y el sentido del vector est´a determinados completamente por las coordenadas de Q. Esto significa que podemos caracterizar un vector por un par ordenado, es decir, por un elemento de R2 . Es aqu´ı donde surgen confusiones respecto a como interpretar los elementos de 2 R . Para fijar las ideas, consideremos el par (3, 1) ∈ R2 y fijemos un sistema de coordenadas en P. Por un lado (3, 1) representa al punto de P que est´a a 3 unidades de distancia y a la derecha del eje y y a 1 unidad de distancia y hacia arriba del eje x. Por otro lado, (3, 1) representa al vector en P que teniendo como origen (0, 0) tiene como final (3, 1). M´as aun, (3, 1) representar´a a cualquier vector en P con origen P y final Q tal que las coordenadas de Q en un sistema coordenado con ejes paralelos al sistema original y con origen en P son (3, 1). Observaci´on 1.5. Algunos autores usan el nombre radio vector para denotar a los vectores que tienen como origen al punto (0, 0). Para ayudar a mitigar este problema, consideraremos s´ımbolos diferentes para denotar puntos y vectores en el plano. Usualmente, denotaremos los puntos del plano con letras may´usculas (P , Q, R, A,...) y a los vectores con letras min´usculas (v, w, n,...). Adem´as, al vector con origen P y destino Q lo denotaremos como −−→ P Q. Proposici´on 1.6. Fijemos un sistema de coordenadas en P. Sean P, Q ∈ P con −−→ coordenadas (p1 , p2 ) y (q1 , q2 ), respectivamente. Entonces el vector P Q es representado por el par ordenado Q − P = (q1 − p1 , q2 − p2 ). Ejemplo 1.7. Consideremos P, Q ∈ P con coordenadas (2, 1) y (1, −1) respecti−−→ vamente. Sea v = P Q. Entonces v = Q − P = (−1, −2). ¿C´omo se interpretan geom´etricamente las operaciones de suma y producto por un escalar de R2 ? Si consideramos los elementos de R2 como vectores, podemos interpretar dichas operaciones. Para el caso de la suma, si v = (x1 , y1 ) y w = (x2 , y2 ) son (radio) vectores en el plano, entonces v + w = (x1 + x2 , y1 + y2 ) es el (radio) vector cuyo final es el punto final del vector w, considerando como su origen el punto final del vector v. Del mismo modo, si u = (x, y) es un (radio) vector y t > 0, entonces t · u es el (radio) vector cuya magnitud es la magnitud de u multiplicada por t y cuyo sentido es el mismo de u. Si t = 0 entonces t · u es el vector nulo, es decir, el vector con magnitud cero. Finalmente, si t < 0 entonces t · u es el vector con la misma magnitud que (−t) · u y sentido opuesto. Note que estas operaciones no tienen sentido geom´etrico si interpretamos los elementos de R2 como puntos. As´ı, al decir que R2 es un espacio vectorial, estamos interpretando los elementos de R2 como vectores en el plano y no como puntos del plano. Para terminar de caracterizar los vectores en el plano, recordemos que la magnitud de un vector es la distancia entre sus puntos de origen y destino. Tal propiedad de un vector puede caracterizarse de la siguiente manera.

´ 1.4. PRODUCTO INTERNO Y ANGULO ENTRE VECTORES

7

Definici´on 1.8. Sea v = (x, y) ∈ R2 un vector en el plano. Definimos la norma (o magnitud) de v como el n´umero p kvk = d((0, 0), (x, y)) = x2 + y 2 . As´ı, la norma de un vector se interpreta como el tama˜no del vector. Observe que la norma est´a definida como la distancia del punto final del radio vector v a su origen (que es el origen del sistema de coordenadas). Podemos considerar entonces la funci´on norma como la funci´on k · k : R2 −→ R. Proposici´on 1.9. Se cumplen las siguientes propiedades de la norma de un vector: 1. kvk ≥ 0, para todo v ∈ R2 ; 2. kvk = 0 si, y solo si, v = 0; 3. ku + vk ≤ kuk + kvk, para todo u, v ∈ R2 ; 4. kt · vk = |t|kvk, para todo v ∈ R2 , t ∈ R. Juntando la proposici´on anterior y la proposici´on 1.6 obtenemos Corolario 1.10. Si P, Q ∈ P entonces −−→ d(P, Q) = kP Qk = kP − Qk. Finalizaremos la secci´on estableciendo dos definiciones que usaremos a menudo. Diremos que dos vectores son paralelos si uno es el producto del otro por un escalar. Escrito en notaci´on simb´olica, diremos que los vectores v y w son paralelos si, o bien v = 0 o bien existe t ∈ R tal que v = tw. De este modo, establecemos por definici´on que el vector 0 es paralelo a cualquier vector de R2 . Diremos que un vector es unitario si este tiene norma igual a 1. En notaci´on simb´olica, u es unitario si kuk = 1. Dado cualquier v ∈ R2 , v 6= 0, entonces el 1 vector u = v satisface kvk

1 1

kuk =

kvk v = kvk kvk = 1. Es decir u es unitario y v = kvku. Esto quiere decir que todo vector no nulo es paralelo a un vector unitario.

1.4.

Producto interno y a´ ngulo entre vectores

Un concepto importante al momento de trabajar con vectores es el a´ ngulo entre estos. Un caso particular importante es cuando dos vectores son perpendiculares, esto es, cuando forman un a´ ngulo recto. Dado que ahora representamos vectores en el plano como elementos de R2 , es necesaria una manera de determinar el a´ ngulo de dos vectores a partir de sus representaciones como pares ordenados. Para esto, introduciremos la noci´on de producto interno.

´ ´ ANALITICA ´ CAPITULO 1. GEOMETRIA EN EL PLANO

8

Definici´on 1.11. Sean v = (x1 , y1 ) y w = (x2 , y2 ) vectores en el plano. Definimos el producto interno de v con w como el escalar hv, wi = h(x1 , y1 ), (x2 , y2 )i = x1 x2 + y1 y2 . Observaci´on 1.12. Es usual en la literatura llamar al producto interno como producto escalar y denotar hv, wi como v · w. Nosotros no usaremos tal notaci´on en principio para no confundir con el t´ermino “producto por un escalar” y tambi´en para estar acorde a los libros de matem´atica m´as avanzada. Podemos considerar al producto interno como una funci´on. En este caso, h·, ·i denota una funci´on con dominio R2 × R2 (cuyos elementos son pares de pares ordenados) y con rango R. Claramente no escribiremos h·, ·i(u, v) sino hu, vi. La siguiente proposici´on contiene las principales propiedades del producto interno. Proposici´on 1.13. Se cumplen las siguientes propiedades del producto interno: 1. hu, vi = hv, ui, para todo u, v ∈ R2 ; 2. hu, ui ≥ 0, para todo u ∈ R2 ; 3. hu, ui = 0 si, y solo si, u = 0; 4. htu, vi = thu, vi, para todo u, v ∈ R2 y t ∈ R; 5. hu + v, wi = hu, wi + hv, wi, para todo u, v, w ∈ R2 . Demostraci´on. Consideremos u = (x1 , y1 ), v = (x2 , y2 ), w = (x3 , y3 ) y t ∈ R, arbitrarios. En este caso, hv, ui = x2 x1 + y2 y1 = x1 x2 + y1 y2 = hu, vi, hu, ui = x1 x1 + y1 y1 = x21 + y12 ≥ 0, htu, vi = h(tx1 , ty1 ), (x2 , y2 )i = tx1 x2 + ty1 y2 = t(x1 x2 + y1 y2 ) = thu, vi, lo que prueba 1, 2 y 4. Si u = (0, 0) entonces hu, ui = 0 + 0 = 0, trivialmente. Rec´ıprocamente, si hu, ui = 0 entonces x21 + y12 = 0, y esto implica que x1 = y1 = 0, es decir, u = 0. As´ı, hemos probado 3. Finalmente, hu + v, wi = h(x1 + x2 , y1 + y2 ), (x3 , y3 )i = (x1 + x2 )x3 + (y1 + y2 )y3 = x1 x3 + x2 x3 + y1 y3 + y2 y3 = (x1 x3 + y1 y3 ) + (x2 x3 + y2 y3 ) = hu, wi + hv, wi. Esto prueba 5.

´ 1.4. PRODUCTO INTERNO Y ANGULO ENTRE VECTORES

9

Sea v = (x, y) ∈ R2 , entonces hv, vi = x2 + y 2 = kvk2 . Luego, podemos obtener la norma de un vector a partir del producto interno, de la siguiente manera p kvk = hv, vi. Del mismo modo, la distancia entre dos puntos P y Q est´a dada por p d(P, Q) = kP − Qk = hP − Q, P − Qi. Ahora, usaremos el producto interno para determinar el a´ ngulo entre vectores. Comenzaremos con el siguiente lema. Lema 1.14. Sea v = (x, y) ∈ R2 un vector no nulo. Entonces v = (x, y) = kvk(cos(θ), sen(θ)), donde θ es el a´ ngulo que forma el vector v con el semieje x positivo. Demostraci´on. Consideremos los puntos P = (x, y) y Q = (x, 0). Entonces el tri´angulo OQP es rect´angulo, con a´ ngulo recto en Q. Sea φ = ∠P OQ, entonces cos(φ) =

d(Q, O) |x| = d(P, O) kvk

y

sen(φ) =

d(P, Q) |y| = . d(P, O) kvk

Se consideran cuatro posibilidades, dependiendo en que parte del plano se encuentre v. Supongamos que v est´a en el primer cuadrante. Entonces x ≥ 0, y ≥ 0 y θ = φ. Luego v = (x, y) = (kvk cos(θ), kvk sen(θ)) = kvk(cos(θ), sen(θ)). Los casos restantes se demuestran de manera an´aloga. Por ejemplo, supongamos que v est´a en el cuarto cuadrante. Entonces x ≥ 0, y ≤ 0 y θ = 2π − φ. Luego x , kvk (−y) y sin(θ) = sin(2π − φ) = − sen(φ) = − = , kvk kvk

cos(θ) = cos(2π − φ) = cos(φ) =

y as´ı tenemos probado este caso. Teorema 1.15. Sean u, v ∈ R2 y θ el a´ ngulo que forman u y v. Entonces hu, vi = kukkvk cos(θ).

(1.1)

Observaci´on 1.16. En el caso que u o v sea nulo, el a´ ngulo entre u y v no est´a bien definido. Sin embargo, en este caso, el teorema se cumple para cualquier θ ∈ R.

10

´ ´ ANALITICA ´ CAPITULO 1. GEOMETRIA EN EL PLANO

Demostraci´on. Si u = 0 o v = 0 entonces hu, vi = 0 = kukkvk cos(θ), para cualquier θ ∈ R. Supongamos que u 6= 0 y v 6= 0, y sean α y β los a´ ngulos que forman u y v con el semieje x. Por el lema 1.14, tenemos u = (kuk cos(α), kuk sen(α)),

v = (kvk cos(β), kvk sen(β)).

Luego hu, vi = kukkvk cos(α) cos(β) + kukkvk sen(α) sen(β) = kukkvk(cos(α) cos(β) + sen(α) sen(β)) = kukkvk cos(α − β) = kukkvk cos(β − α). El resultado se sigue observando que el a´ ngulo que forman los vectores u y v es o bien α − β o bien β − α. Una consecuencia importante del teorema anterior es la desigualdad de CauchySchwarz. Corolario 1.17. Dados u, v ∈ R2 , |hu, vi| ≤ kukkvk, y la igualdad se da si, y solo si, u y v son paralelos. Demostraci´on. Basta tomar valor absoluto en la ecuaci´on (1.1) y observar que | cos(θ)| ≤ 1, para todo θ ∈ R. Finalmente, la segunda parte del corolario se sigue observando que la igualdad se da si, y solo si, cos(θ) = 1, es decir, θ = 0 o π. Observaci´on 1.18. La demostraci´on que hemos de la desigualdad de CauchySchwarz hace uso de la f´ormula expl´ıcita del producto interno que definimos. La siguiente demostraci´on alternativa, en cambio, solo hace uso de las propiedades intr´ınsecas del producto interno. Dados u, v ∈ R2 , es claro que la desigualdad se cumple si v = 0. En el caso que v 6= 0, consideremos la funci´on g : R −→ R definida como g(t) = ku − tvk2 = hu − tv, u − tvi = kuk2 − 2thu, vi + t2 kvk2 . Observe que g(t) es un polinomio cuadr´atico, cuyo coeficiente cuadr´atico es no negativo. No es dif´ıcil concluir que esta funci´on alcanza su m´ınimo en el punto hu, vi t0 = cuyo valor es kvk2 g(t0 ) = kuk2 − 2

hu, vi2 hu, vi2 hu, vi2 2 + = kuk − . kvk2 kvk2 kvk2

hu, vi2 ≥ 0. Esto implica la desigualdad. Obkvk2 serve que se da la igualdad si y solo si g(t0 ) = ku − t0 vk2 = 0, es decir u = t0 v. Como g(t0 ) ≥ 0 entonces kuk2 −

´ 1.4. PRODUCTO INTERNO Y ANGULO ENTRE VECTORES

11

Definici´on 1.19. Diremos que dos vectores u, v ∈ R2 son ortogonales si hu, vi = 0. La siguiente consecuencia importante del teorema 1.15 relaciona las nociones de perpendicularidad y ortogonalidad. Corolario 1.20. Dos vectores u, v ∈ R2 , no nulos, son perpendiculares si, y solo si, hu, vi = 0. Demostraci´on. Basta observar que hu, vi = 0 si, y solamente si, cos(θ) = 0, π 3π donde θ es el a´ ngulo que forman. Luego θ = o θ = . 2 2 El corolario anterior simplifica bastante los c´alculos para determinar si dos vectores son perpendiculares, pues basta comprobar que su producto interno es 0. Ejemplo 1.21. Sea v = (2, 5) ∈ R2 . Entonces (10, −4), (−5, 2), (15, −6) son todos ortogonales a v pues h(2, 5), (10, −4)i = 2 × 10 + 5 × (−4) = 20 − 20 = 0, h(2, 5), (−5, 2)i = 2 × (−5) + 5 × 2 = −10 + 10 = 0, h(2, 5), (15, −6)i = 2 × 15 + 5 × (−6) = 30 − 30 = 0. Observe que (10, −4), (−5, 2), (15, −6) son todos paralelos entre si. ¿Existir´a vector en R2 , ortogonal a (2, 5) pero no paralelo a (−5, 2)? La respuesta es no, es decir, todo vector ortogonal a (2, 5) debe ser paralelo a (−5, 2). Observamos que, en general, un vector en R2 posee infinitos vectores ortogonales a el, y todos estos son paralelos entre s´ı. Dotaremos a uno de estos una notaci´on especial. Dado v = (x, y) ∈ R2 definimos su ortogonal como v ⊥ = (−y, x). Claramente hv, v ⊥ i = 0 y kv ⊥ k = kvk. Geom´etricamente v ⊥ es una rotaci´on de 90◦ de v en sentido antihorario. Es inmediato ver que (v ⊥ )⊥ = −v. Consideremos ahora u y v en R2 , con v 6= 0. Por lo visto en la observahu, vi ci´on 1.18, t0 = es el que minimiza la funci´on g : R −→ R, g(t) = kvk2 hu, vi ku − tvk2 . Denotemos w = t0 v = v, entonces w es paralelo a v. Adem´as, kvk2 hv, u − wi = hv, ui − hv, wi = hu, vi −

hu, vi kvk2 = 0. kvk2

Es decir u − w es ortogonal a v, luego es paralelo a v ⊥ . As´ı, tenemos la siguiente descomposici´on de u, u = w + (u − w) = t0 v + s0 v ⊥ , donde s0 existe pues u − w es paralelo a v ⊥ . No es dif´ıcil concluir que s0 =

hu, v ⊥ i hu, v ⊥ i = . kvk2 kv ⊥ k2

(1.2)

´ ´ ANALITICA ´ CAPITULO 1. GEOMETRIA EN EL PLANO

12

Definici´on 1.22. Sea v ∈ R2 , no nulo. Dado u ∈ R2 , definimos la proyecci´on ortogonal de u sobre v como el vector Proyv u =

hu, vi v. kvk2

Con esta definici´on, la ecuaci´on (1.2) se expresa como u = Proyv u + Proyv⊥ u, y de aqu´ı, de inmediato tenemos que Proyv⊥ u = u − Proyv u. Por otro lado, la ecuaci´on (1.2) tambi´en puede escribirse como u= Observe que

hu, v ⊥ i v ⊥ hu, vi v · + · , kvk kvk kv ⊥ k kv ⊥ k

v v⊥ y ⊥ son unitarios, luego kvk kv k k Proyv uk =

|hu, vi| kvk

y

k Proyv⊥ uk =

|hu, vi| . kvk

Definici´on 1.23. Sea v ∈ R2 , no nulo. Dado u ∈ R2 , definimos la componente ortogonal de u sobre v como Compv u =

hu, vi . kvk

As´ı, concluimos los c´alculos anteriores escribiendo u = Proyv u + Proyv⊥ u = Compv u ·

v v⊥ + Compv⊥ u · ⊥ . kvk kv k

(1.3)

Finalmente, presentamos propiedades inmediatas de la proyecci´on ortogonal. Proposici´on 1.24. Sea v ∈ R2 , v 6= 0. Entonces 1. Proyv u = Proyt·v u, para todo u ∈ R2 y t ∈ R, t 6= 0; 2. Proyv (u + w) = Proyv u + Proyv w, para todo u, w ∈ R2 ; 3. Proyv (t · u) = t · Proyv u, para todo u ∈ R2 y t ∈ R.

´ 1.5. Algebra lineal de vectores en el plano Definici´on 1.25. Sean v1 , . . . , vn ∈ R2 vectores en el plano. Diremos que un vector v es una combinaci´on lineal de los vectores v1 , . . . , vn si existen coeficientes reales α1 , . . . , αn tales que v = α1 v1 + α2 v2 + · · · + αn vn . En este caso, diremos que v1 , . . . , vn generan v. Adem´as, si todo vector v ∈ R2 es generado por v1 , . . . , vn , diremos que v1 , . . . , vn generan R2 .

´ 1.5. ALGEBRA LINEAL DE VECTORES EN EL PLANO

13

Ejemplo 1.26. Sean v1 = (1, 2), v2 = (−1, 4), v3 = (1, 0) y v = (3, 7). En este caso, tenemos 3 5 v = (3, 7) = (1, 2) + (−1, 4) + (1, 0). 2 2 Luego v es combinaci´on lineal de v1 , v2 y v3 . Observe que esta no es la u´ nica manera de expresar v como combinaci´on lineal de v1 , v2 , v3 , por ejemplo 1 7 v = (3, 7) = (1, 2) + 0(−1, 4) − (1, 0). 2 2 Del mismo modo, podemos escribir (0, 0) como dos diferentes combinaciones lineales de v1 , v2 , v3 , a saber (0, 0) = 0(1, 2) + 0(−1, 4) + 0(1, 0) = −2(1, 2) + (−1, 4) + 3(1, 0). Finalmente, observamos que v1 , v2 , v3 generan todo R2 pues, para (x, y) ∈ R2 , arbitrario,  y y (1, 0). (x, y) = (1, 2) + 0(−1, 4) + x − 2 2 Ejemplo 1.27. Sean v1 = (1, 0) y v2 = (1, 1). En este caso, para cualquier (x, y) ∈ R2 , (x, y) = (x − y)(1, 0) + y(1, 1). Luego v1 y v2 generan R2 . Observaci´on 1.28. Dado cualquier conjunto de vectores v1 , . . . , vn , el vector 0 ∈ R2 siempre es combinaci´on lineal de estos, de la siguiente manera 0 = 0 · v1 + · · · + 0 · vn . La unicidad que poseen los coeficientes de las combinaciones lineales de los vectores (1, 0) y (1, 1) es una propiedad importante y digna de tener nombre propio. Definici´on 1.29. Diremos que los vectores v1 , . . . , vn ∈ R2 son linealmente independientes si, escribiendo 0 = α1 v1 + · · · + αn vn , con α1 , . . . , αn ∈ R, la u´ nica posibilidad para estos es α1 = α2 = · · · = αn = 0. Por otro lado, si v1 , . . . , vn no son linealmente independientes entonces se denominan linealmente dependientes.

14

´ ´ ANALITICA ´ CAPITULO 1. GEOMETRIA EN EL PLANO

Probemos que (1, 0) y (1, 1) son linealmente independientes. Sean α, β ∈ R tales que (0, 0) = α(1, 0) + β(1, 1). Entonces 0 = α + β y 0 = β. Esto implica que α = β = 0, es decir, la u´ nica posibilidad para α y β es ser ambos cero. As´ı, los vectores (1, 0) y (1, 1) tienen la propiedad de ser linealmente independientes y al mismo tiempo generar todo R2 . Definici´on 1.30. Diremos que un conjunto v1 , . . . , vn es una base de R2 si estos son linealmente independientes y generan R2 . Los vectores v1 = (1, 2), v2 = (−1, 4) y v3 = (1, 0) del ejemplo 1.26 son linealmente dependientes, pues podemos escribir (0, 0) = (−2) · (1, 2) + 1 · (−1, 4) + 3 · (1, 0). En general, los vectores v1 , . . . , vn son linealmente dependientes si existen escalares α1 , . . . , αn ∈ R, no todos nulos, tales que 0 = α1 v1 + · · · + αn vn . Ejemplo 1.31. Consideremos e1 = ˆı = (1, 0) y e2 = ˆ = (0, 1). Tenemos que todo v = (x, y) ∈ R2 se escribe como v = (x, y) = x(1, 0) + y(0, 1). Luego e1 y e2 generan R2 . Adem´as, si 0 = αe1 + βe2 entonces α = β = 0, por lo tanto, e1 y e2 es linealmente independiente y, por ende, una base de R2 . Esta base es conocida como la base can´onica de R2 . Ejemplo 1.32. Considere v1 = (2, 3) y v2 = (8, 12). Estos son linealmente dependientes pues (0, 0) = −4(2, 3) + (8, 12). (1.4) M´as a´un, de (1.4), tenemos que (8, 12) = 4(2, 3), es decir, (2, 3) y (8, 12) son paralelos. El comportamiento del ejemplo anterior ocurre en general, como muestra la siguiente proposici´on. Proposici´on 1.33. Sean v1 , v2 ∈ R2 . Las siguientes afirmaciones son equivalentes: 1. v1 , v2 son paralelos; 2. v1 , v2 son linealmente dependientes; 3. si v1 = (x1 , y1 ) y v2 = (x2 , y2 ) entonces x1 y2 − x2 y1 = 0.

´ 1.5. ALGEBRA LINEAL DE VECTORES EN EL PLANO

15

Demostraci´on. Supongamos que v1 , v2 son paralelos, entonces existe t ∈ R tal que v1 = tv2 . Esto implica que 0 = v1 − tv2 = 1 · v1 + (−t) · v2 . Como 1 6= 0 entonces concluimos que v1 y v2 son linealmente dependientes. Supongamos que v1 y v2 son linealmente dependientes. Entonces existen α, β ∈ R, no ambos nulos, tales que 0 = αv1 + βv2 , es decir 0 = αx1 + βx2 ,

(1.5)

0 = αy1 + βy2 .

(1.6)

De aqu´ı, consideremos cuatro posibilidades: 1. si x1 = 0 y β 6= 0 entonces, de (1.5), x2 = 0 y as´ı x1 y2 − x2 y1 = 0; 2. si x1 = 0 y β = 0 entonces α 6= 0 y, de (1.6), y1 = 0, esto implica x1 y2 − x2 y1 = 0; 3. si x1 6= 0 y β 6= 0 entonces, de (1.5), x2 α , − = β x1 x2 α y1 ; y por lo tanto, de (1.6) y2 = − y1 = β x1 4. si x1 6= 0 y β = 0 entonces, de (1.5), α = 0, que es una contradicci´on. Luego este caso no puede darse. As´ı, en cualquier caso, hemos probado que x1 y2 − x2 y1 = 0. Finalmente, supongamos que x1 y2 = x2 y1 . Si v1 = 0 entonces no hay nada que probar. As´ı, supongamos que v1 6= 0, es decir x1 6= 0 o y1 6= 0. Si x1 6= 0 x2 entonces y2 = y1 y x1 x2 x2 v2 = (x2 , y2 ) = (x1 , y1 ) = v1 . x1 x1 y2 Del mismo modo, si y1 6= 0 entonces x2 = x1 y y1 y2 y2 v2 = (x2 , y2 ) = (x1 , y1 ) = v1 . y1 y1 En ambos casos, tenemos que v1 y v2 son paralelos. Ejemplo 1.34. Si v ∈ R2 y w = 0 entonces v y w son paralelos y por tanto v y w son linealmente dependientes. En general, si v1 , . . . , vn son tales que al menos uno de ellos es el vector nulo, por ejemplo v1 = 0, entonces son linealmente dependientes pues 0 = 1 · v 1 + 0 · v2 + · · · + 0 · vn = 1 · 0.

16

´ ´ ANALITICA ´ CAPITULO 1. GEOMETRIA EN EL PLANO

Ejemplo 1.35. Sea v1 = (x, y) 6= (0, 0) y v2 = v1⊥ = (−y, x). Supongamos que v1 y v2 son paralelos, es decir, existe t ∈ R tal que (x, y) = t(−y, x). Es obvio que t 6= 0, luego tenemos el sistema −ty = x,

tx = y,

que implica que 0 = (t2 + 1)y. Como t2 + 1 > 0, para cualquier t, entonces y = 0 y por tanto x = 0. Esto es una contradicci´on pues v1 6= 0. Esta contradicci´on surge de suponer que v1 y v2 son paralelos. As´ı, para cualquier v ∈ R2 , v y v ⊥ son linealmente independientes. ¿Cuantos elementos posee una base de R2 ? Hasta ahora hemos exhibido una base de dos elementos, sin embargo, no sabemos a priori si podremos encontrar bases de m´as elementos. Probaremos que en R2 toda base posee exactamente dos elementos. Lema 1.36. Sean v1 , . . . , vn ∈ R2 tales que v1 , . . . , vk es linealmente dependiente, con k ≤ n. Entonces v1 , . . . , vn es linealmente dependiente. Demostraci´on. Como v1 , . . . , vk es linealmente dependiente entonces existen escalares α1 , . . . , αk , no todos nulos, tales que 0 = α1 v1 + · · · + αk vk . Definiendo αk+1 = · · · = αn = 0, tenemos 0 = α1 v1 + · · · + αk vk + αk+1 vk+1 + · · · + αn vn , donde nuevamente α1 , . . . , αn no son todos nulos. As´ı, v1 , . . . , vn son linealmente dependientes. Presentaremos ahora el resultado principal de esta secci´on. Teorema 1.37. Sean v1 , v2 ∈ R2 linealmente independientes. Entonces v1 y v2 generan R2 . Demostraci´on. Consideremos v1 = (x1 , y1 ) y v2 = (x2 , y2 ). Por la proposici´on 1.33, tenemos que x1 y2 − x2 y1 6= 0. Dado cualquier v = (x, y) ∈ R2 , consideremos xy2 − x2 y x1 y − xy1 α= , β= . x1 y2 − x2 y1 x1 y2 − x2 y1 Luego, un c´alculo de rutina muestra que αv1 + βv2 = v, es decir, v es generado por v1 , v2 .

´ 1.5. ALGEBRA LINEAL DE VECTORES EN EL PLANO

17

Observaci´on 1.38. En la demostraci´on anterior, los valores de α y β fueron obtenidos al aplicar la regla de Cramer al sistema de ecuaciones αx1 + βx2 = x, αy1 + βy2 = y. Corolario 1.39. Sea v1 , . . . , vn ∈ R2 un conjunto linealmente independiente. Entonces n ≤ 2. Demostraci´on. Por el lema 1.36, basta probar que cualquier terna de vectores v1 , v2 , v3 es linealmente dependiente. Esto es inmediato si v1 y v2 son paralelos. Luego, supongamos que v1 y v2 son linealmente independientes, entonces, por el teorema 1.37, v3 es generado v1 y v2 , es decir, v3 = αv1 + βv2 . Luego, 0 = αv1 + βv2 − v3 , y como −1 6= 0 entonces v1 , v2 , v3 es linealmente dependiente. El rec´ıproco del teorema 1.37 tambi´en se cumple. Proposici´on 1.40. Si v1 , v2 generan R2 entonces son linealmente independientes. Demostraci´on. Supongamos que v1 y v2 no son linealmente independientes. Entonces existe t ∈ R tal que v2 = tv1 . Luego, como todo v ∈ R2 es generado por v1 , v2 , v = αv1 + βv2 = (α + tβ)v1 , es decir, todo v ∈ R2 es paralelo a v1 , lo cual es una contradicci´on. Supongamos que v1 , . . . , vn es una base de R2 , entonces es linealmente independiente. Luego por el corolario 1.39, n ≤ 2. Pero si n = 1 entonces v1 no puede generar todo R2 , luego n = 2. As´ı, toda base de R2 posee dos elementos. Este hecho hace que podamos establecer la dimensi´on de R2 como la cantidad de elementos que posee cualquier base de R2 . En este caso, como toda base posee dos elementos, tenemos que R2 tiene dimensi´on dos.

18

´ ´ ANALITICA ´ CAPITULO 1. GEOMETRIA EN EL PLANO

Cap´ıtulo 2

El plano euclidiano Las dos ideas fundamentales de la geometr´ıa euclidiana son el punto y la recta. En esta, estas dos nociones son descritas de manera imprecisa, siendo sus principales caracter´ısticas determinadas por los postulados de Euclides. La ventaja de tener un sistema de coordenadas en el plano es que nos permite definir con precisi´on estas nociones. Consideremos un plano P, dotado de un sistema de coordenadas cartesiano. Identificando P con R2 con este sistema, entonces un punto es simplemente un elemento de R2 , es decir, par ordenado Figura 2.1: Euclides P = (x, y). Nuestra tarea ahora ser´a la de “definir” recta, tambi´en por medio de nuestro sistema de coordenadas.

2.1.

Rectas en el plano

Definiremos una recta mediante dos caracter´ısticas de esta: una direcci´on (dada por un vector) y un punto de paso. A esta definici´on se le denomina representaci´on vectorial de la recta. Definici´on 2.1. Sea P0 ∈ P y v ∈ R2 un vector no nulo. La recta que pasa por P0 con direcci´on v es el conjunto L(P0 , v) = {P = P0 + tv ∈ P : t ∈ R}. Ejemplo 2.2. Consideremos P0 = (2, −1) y v = (1, 1). Entonces L(P0 , v) = {(x, y) = (2, −1) + t(1, 1) : t ∈ R} = {(2 + t, t − 1) : t ∈ R}. 19

20

´ CAPITULO 2. EL PLANO EUCLIDIANO

As´ı, todo punto (x, y) ∈ L(P0 , v) es de la forma x = 2 + t,

y = t − 1.

En general, si P0 = (x0 , y0 ) ∈ P y v = (v1 , v2 ) ∈ R2 entonces todo punto (x, y) ∈ L(P0 , v) satisface x = x0 + tv1 ,

y = y0 + tv2 .

(2.1)

La ecuaci´on (2.1) se denomina ecuaci´on param´etrica de la recta. Consideremos P0 ∈ P y v ∈ R2 no nulo. Para cualquier P ∈ L(P0 , v) existe −−→ t ∈ R tal que P = P0 + tv. Esto equivale a P0 P = P − P0 = tv, es decir, el vector −−→ −−→ P0 P es paralelo a v. Luego, P ∈ L(P0 , v) si, y solamente si, P0 P es paralelo a v. En particular, dados dos puntos distintos del plano, sabemos que pasa una u´ nica −−−→ recta por ellos. Para hallarla, basta considerar v = P0 P1 6= 0 y as´ı definir −−−→ L(P0 , P1 ) := L(P0 , P0 P1 ). Ejemplo 2.3. Sean P0 = (1, 3) ∈ P y P1 = (3, −2) ∈ P. Entonces −−−→ v = P0 P1 = P1 − P0 = (2, −5) y L = L(P0 , v) = {(x, y) = (1, 3) + t(2, −5) : t ∈ R}. La recta generada por el punto de paso P0 y el vector direcci´on v no varia si usamos cualquier punto de la recta y cualquier vector direcci´on paralelo a v, como muestra la siguiente proposici´on. Proposici´on 2.4. Sea L = L(P0 , v) una recta y sean r, s ∈ R, con s 6= 0. Entonces L = L(P0 + rv, sv). Demostraci´on. Como P0 + rv ∈ L(P0 , v) entonces, para todo t0 ∈ R, (P0 + rv) + t0 sv = P0 + (r + t0 s)v ∈ L(P0 , v), es decir, L(P0 + rv, sv) ⊂ L(P0 , v). Del mismo modo, para todo t ∈ R, P0 + tv = (P0 + rv) +

t−r sv ∈ L(P0 + rv, sv), s

implicando que L = L(P0 , v) = L(P0 + rv, sv). Corolario 2.5. Sean P0 ∈ P y v ∈ R2 , v 6= 0, entonces 1. para cualquier P ∈ L(P0 , v), L(P, v) = L(P0 , v); 2. para cualquier w 6= 0 paralelo a v, L(P0 , w) = L(P0 , v); 3. para cualquier P ∈ L(P0 , v) y cualquier w 6= 0 paralelo a v, L(P, w) = L(P0 , v).

2.1. RECTAS EN EL PLANO

21

Ejemplo 2.6. Sean P0 = (−1, 5) ∈ P y v = (−1, 1) ∈ R2 . Entonces L = L(P0 , v) tiene como ecuaciones param´etricas x = −1 − t,

y = 5 + t.

Consideremos por ejemplo t = −3. Entonces P = (x, y) = (2, 2) ∈ L. Por otro lado w = 7v = (−7, 7) es paralelo a v. Luego, por el teorema 2.4, L = L(P0 , v) = L(P, w). Observe que si consideramos L = L(P, w), el punto P0 se representa como 3 P0 = P + w. 7

2.1.1.

Ecuaci´on general de la recta

Supongamos P0 = (x0 , y0 ) y v = (v1 , v2 ) ∈ R2 , y consideremos la recta −−→ L(P0 , v). Dado P = (x, y) ∈ L(P0 , v), tenemos que P0 P es paralelo a v, luego es ortogonal a v ⊥ , es decir −−→ hP − P0 , v ⊥ i = hP0 P , v ⊥ i = 0. Utilizando las componentes de P0 , P y v, obtenemos 0 = h(x − x0 , y − y0 ), (−v2 , v1 )i = −v2 x + v2 x0 + v1 y − v1 y0 . Definiendo a = −v2 , b = v1 y c = v2 x0 − v1 y0 , concluimos que P = (x, y) ∈ L(P0 , v) si, y solamente si, ax + by + c = 0. Definici´on 2.7. Sea L una recta tal que, todo punto (x, y) ∈ L satisface ax + by + c = 0.

(2.2)

La ecuaci´on (2.2) se denomina ecuaci´on general de la recta L. En este caso, denotaremos L = L(a, b, c) = {(x, y) ∈ P : ax + by + c = 0}. Ejemplo 2.8. Consideremos la recta dada en el ejemplo 2.6, L = L(P0 , v), con P0 = (−1, 5) ∈ P y v = (−1, 1) ∈ R2 . Por lo visto anteriormente, tenemos que a = −1, b = −1 y c = 4. Luego, −x − y + 4 = 0 es una ecuaci´on general de L. Multiplicando esta ecuaci´on por −1, tenemos la tambi´en ecuaci´on general de L, x + y − 4 = 0. No es dif´ıcil verificar que L(a, b, c) = L(ta, tb, tc), para todo t 6= 0. Luego, la ecuaci´on general de una recta no es u´ nica. Adem´as, observe que el conjunto L(a, b, c) no siempre representa una recta. Por ejemplo, L(0, 0, 0) = P y L(0, 0, 1) = ∅.

22

´ CAPITULO 2. EL PLANO EUCLIDIANO

Ya hemos probado que toda recta en representaci´on vectorial puede ser representada mediante su ecuaci´on general. La siguiente proposici´on establece condiciones para que una ecuaci´on de la forma ax + by + c = 0 determine una recta en el plano. Proposici´on 2.9. Dados a, b, c ∈ R tales que (a, b) 6= (0, 0), el conjunto L(a, b, c) determina una recta en el plano con vector direcci´on v = (−b, a). Demostraci´on. Sea v = (a, b)⊥ = (−b, a) 6= 0 el cual ser´a el vector direcci´on de la recta. Falta entonces encontrar un punto de paso. Definamos P0 = (x0 , y0 ) ∈ P como ( (1, − cb ), si a = 0, P0 = (x0 , y0 ) = b+c (− a , 1), si a 6= 0. Observe que P0 est´a bien definido y satisface la ecuaci´on general de L, es decir, ax0 + by0 + c = 0.

(2.3)

Probaremos ahora que L(a, b, c) = L(P0 , v). Dado cualquier P = (x, y) ∈ L(a, b, c), tenemos ax + by + c = 0. Restando la ecuaci´on anterior con (2.3) tenemos que a(x − x0 ) + b(y − y0 ) = 0, −−→ es decir, hP − P0 , (a, b)i = 0. Luego P0 P es paralelo a (a, b)⊥ = (−b, a) = v. Por lo tanto, P ∈ L(P0 , v). Ejemplo 2.10. Consideremos la recta L con ecuaci´on general 7x − 3y + 5 = 0. Consideremos P0 = (− 27 , 1) ∈ L y v = (7, −3)⊥ = (3, 7). Por lo visto anteriormente, L = L(P0 , v), es decir, todo P = (x, y) ∈ L cumple 2 (x, y) = (− + 3t, 1 + 7t). 7

2.1.2.

Pendiente y ecuaci´on normal de una recta

Sea L una recta no vertical (esto es, con vector direcci´on no paralelo a (0, 1)), cuya ecuaci´on general es a0 x + b0 y + c0 = 0. Como la recta no es vertical entonces b0 6= 0 y as´ı obtenemos, a0 y = − x − c0 b0 a0 donde, denotando m = − y b = −c0 , tenemos la ecuaci´on normal de L, b0 y = mx + b.

2.2. POSICIONES Y DISTANCIAS RELATIVAS ENTRE RECTAS

23

Llamaremos a m como la pendiente de L. Algunos autores llaman a b como el intercepto de L. Sea L = L(P0 , v) = L(a0 , b0 , c0 ) una recta no vertical. Si v = (v1 , v2 ) entonces v2 a0 = tan(θ), m=− = b0 v1 donde θ es el a´ ngulo que forma el vector v con el semieje x positivo. Por otro lado, si tenemos una recta L, no vertical, cuya ecuaci´on normal es y = mx + b entonces es inmediato verificar que L = L(m, −1, b). Luego, L tendr´a como vector direcci´on a v = (1, m). Ejemplo 2.11. Considere la recta L con ecuaciones param´etricas x = −2t + 3 y y = 4t + 1. Entonces un vector direcci´on de L es (−2, 4). Tenemos que L no es vertical y as´ı su pendiente es m=

4 = −2. −2

Por otro lado, la recta intercepta al eje y cuando x = −2t + 3 = 0, es decir, cuando t = 3/2. Por lo tanto b = 4(3/2) + 1 = 7.

2.2.

Posiciones y distancias relativas entre rectas

Comenzaremos estableciendo dos definiciones importantes al momento de estudiar dos rectas en el plano. Definici´on 2.12. Sean L1 = L(P1 , v1 ) y L2 = L(P2 , v2 ) rectas en el plano. Diremos que L1 y L2 son paralelas si sus vectores direcci´on v1 y v2 son paralelos. Del mismo modo, diremos que L1 y L2 son ortogonales si v1 y v2 son ortogonales. Observe que la definici´on de paralelismo y ortogonalidad de dos rectas no depende de la elecci´on de los vectores direcci´on de estas. Esto es importante dado que una recta posee infinitos vectores direcci´on. En caso tengamos las ecuaciones generales de las rectas, tambi´en es posible determinar si son paralelas o ortogonales. Proposici´on 2.13. Sean L1 = L(a1 , b1 , c1 ) y L2 = L(a2 , b2 , c2 ) rectas en el plano. Entonces 1. L1 y L2 son paralelos si, y solamente si, (a1 , b1 ) y (a2 , b2 ) son paralelos; 2. L1 y L2 son ortogonales si, y solamente si, (a1 , b1 ) y (a2 , b2 ) son ortogonales. Demostraci´on. Recordemos que si L = L(a, b, c) entonces v = (−b, a) es el vector direcci´on de L. As´ı, basta observar que (a, b) y (c, d) son paralelos (respectivamente, ortogonales) si, y solamente si, (−b, a) y (−d, c) son paralelos (respectivamente, ortogonales).

24

´ CAPITULO 2. EL PLANO EUCLIDIANO

Supongamos, en particular, que L1 y L2 no sean verticales, y tengan como ecuaciones normales y = m1 x + b1 y y = m2 x + b2 , respectivamente. En este caso, 1. L1 y L2 son paralelos si, y solamente si, m1 = m2 ; 2. L1 y L2 son ortogonales si, y solamente si, m1 · m2 = −1. En este u´ ltimo caso, la condici´on m1 · m2 = −1 implica que ninguna de las dos rectas es horizontal. El siguiente lema caracteriza el comportamiento de dos rectas distintas en el plano. Lema 2.14. Sean L1 y L2 rectas distintas en el plano. Entonces L1 y L2 son paralelas si, y solamente si, L1 ∩ L2 = ∅. Demostraci´on. Sean v1 y v2 los vectores direcci´on de L1 y L2 , respectivamente. Supongamos que L1 y L2 son paralelas y tienen un punto en com´un P . Luego, v1 = tv2 y, por el corolario 2.5, L1 = L(P, v1 ) = L(P, tv2 ) = L(P, v2 ) = L2 , lo cual contradice la hip´otesis de L1 6= L2 . Luego si L1 y L2 son paralelas, no pueden poseer puntos en com´un, es decir L1 ∩ L2 = ∅. Rec´ıprocamente, supongamos que L1 y L2 no son paralelas. Entonces v1 y v2 son linealmente independientes y, por el teorema 1.37, v1 y v2 generan R2 . Luego, −−−→ para P1 P2 = P2 − P1 , existen r, s ∈ R tales que P2 − P1 = rv1 + sv2 , es decir, P = P2 − sv2 = P1 + rv1 . Esto prueba que P ∈ L1 ∩ L2 6= ∅. Una aplicaci´on inmediata del lema anterior nos permite caracterizar las posiciones relativas de dos rectas en el plano. Teorema 2.15. Dadas dos rectas en el plano, ocurre una, y solamente una, de las siguientes posibilidades: 1. las rectas son paralelas y no disjuntas (por ende, iguales); 2. las rectas son paralelas y disjuntas; 3. las rectas no son paralelas y poseen un u´ nico punto en com´un.

2.2. POSICIONES Y DISTANCIAS RELATIVAS ENTRE RECTAS

2.2.1.

25

Intersecci´on de rectas

Por el teorema 2.15, en el caso que L1 = L(P1 , v1 ) y L2 = L(P2 , v2 ) no sean paralelas, estas poseen un punto en com´un R = P1 + tv1 = P2 + sv2 . Entonces, P1 − P2 + tv1 = sv2 . Tomando producto interno con v2⊥ , podemos despejar t y obtener t=

hP2 − P1 , v2⊥ i . hv1 , v2⊥ i

Observe que hv1 , v2⊥ i 6= 0 pues v1 y v2 no son paralelos. An´alogamente, podemos obtener el valor de s, hP2 − P1 , v1⊥ i s=− . hv2 , v1⊥ i As´ı, tenemos −−−→ −−−→ hP1 P2 , v2⊥ i hP1 P2 , v1⊥ i R = P1 + v1 = P2 − v2 . hv1 , v2⊥ i hv2 , v1⊥ i

(2.4)

Ejemplo 2.16. Sea L1 la recta que pasa por P1 = (1, 1) y Q1 = (4, 5), y L2 la recta que pasa por P2 = (−1, 6) y Q2 = (5, 3). Luego v1 = Q1 − P1 = (3, 4) es un vector direcci´on de L1 y v2 = (2, −1)//(6, −3) = Q2 − P2 es un vector −−−→ direcci´on de L2 . Por otro lado, P1 P2 = P2 − P1 = (−2, 5). Reemplazando en 2.4 tenemos h(−2, 5), (1, −2)i (3, 4) h(3, 4), (1, −2)i 12 = (1, 1) + (3, 4) 5 = (41/5, 53/5).

R = (1, 1) +

Observaci´on 2.17. Consideremos el caso particular que L(P1 , v) y L(P2 , w) sean ortogonales. Sin perdida de generalidad, podemos considerar que w = v ⊥ , luego podemos reescribir la ecuaci´on (2.4) como R = P1 + es decir,

−−−→ −−−→ hP1 P2 , vi hP1 P2 , v ⊥ i ⊥ v , v = P − 2 kvk2 kv ⊥ k2

−−−→ −−−→ R = P1 + Proyv P1 P2 = P2 − Proyv⊥ P1 P2 .

Ahora consideremos el caso en que L1 = L(a1 , b1 , c1 ) y L2 = L(a2 , b2 , c2 ). Como estas son paralelas, entonces (a1 , b1 ) y (a2 , b2 ) no son paralelos y, por la proposici´on 1.33, ∆ = a1 b2 − a2 b1 6= 0.

´ CAPITULO 2. EL PLANO EUCLIDIANO

26 Luego, el sistema de ecuaciones

a1 x + b1 y = −c1 a2 x + b2 y = −c2 posee una u´ nica soluci´on (x0 , y0 ) que precisamente son las coordenadas del punto de intersecci´on de las rectas L1 y L2 . Por la regla de Cramer, tenemos x0 =

2.2.2.

c2 b1 − c1 b2 , a1 b2 − a2 b1

y0 =

a2 c1 − a1 c2 . a1 b2 − a2 b1

Distancia entre rectas

Sea L = L(P, v) una recta y Q un punto que no pertenece a L. Intentaremos calcular la distancia del punto Q a la recta L. Esta distancia puede ser definida como la menor distancia posible entre Q y cualquier punto de la recta L. As´ı, consideremos la funci´on real h : R −→ R definida como −−→ h(t) = d(Q, P + tv)2 = kQ − P − tvk2 = kP Q − tvk2 . Observamos que h es precisamente la funci´on g definida en la observaci´on 1.18, −−→ considerando u = P Q, cuyo m´ınimo se alcanzaba en −−→ hP Q, vi t0 = kvk2 Luego,

−−→ −−→ −−→

2 h(t0 ) = kP Q − t0 vk2 = P Q − Proyv P Q .

Recordemos que, por la ecuaci´on (1.3), −−→ −−→ −−→ P Q = Proyv P Q + Proyv⊥ P Q. As´ı, concluimos que la distancia buscada es −−→ −−→ |hP Q, v ⊥ i| d(Q, L) = k Proyv⊥ P Qk = . kvk

(2.5)

En el caso que L = L(a, b, c), encontraremos una f´ormula para d(Q, L). Escribamos Q = (x0 , y0 ) y sea P = (x1 , y1 ) ∈ L un punto de paso de L. Adem´as, sin perdida de generalidad, podemos suponer que el vector direcci´on v de L es tal que v ⊥ = (a, b). Reemplazando en (2.5), −−→ |hP Q, v ⊥ i| d(Q, L) = kvk |h(x0 − x1 , y0 − y1 ), (a, b)i| √ = a2 + b2 |ax0 + by0 − (ax1 + by1 )| √ , = a2 + b2

´ 2.3. ANGULO ENTRE RECTAS

27

y, recordando que P = (x1 , y1 ) ∈ L(a, b, c) implica ax1 + by1 = −c, obtenemos d(Q, L) =

|ax0 + by0 + c| √ . a2 + b2

(2.6)

Finalmente, dadas dos rectas L1 y L2 paralelas, definimos la distancia entre ellas como la distancia de cualquier punto de L1 a L2 . Denotaremos a esta distancia como d(L1 , L2 ).

´ 2.3. Angulo entre rectas Dadas las rectas L1 y L2 , definiremos el a´ ngulo entre L1 y L2 como el menor a´ ngulo formado por cualquier par de vectores direcci´on de ambas rectas. Como el a´ ngulo entre vectores no depende de la longitud de estos, solo de la direcci´on, entonces, escribiendo L1 = L(P1 , v1 ) y L2 = L(P2 , v2 ), el a´ ngulo entre estas es el menor entre los a´ ngulo formados por v1 y v2 y v1 y −v2 . Sea α el a´ ngulo formado por v1 y v2 y β el a´ ngulo formado por v1 y −v2 . Entonces cos(α) =

hv1 , v2 i = − cos(β). kv1 kkv2 k

Como 0 ≤ α, β ≤ π y α + β = π entonces el menor a´ ngulo ser´a determinado por aquel cuyo coseno es positivo. As´ı, el a´ ngulo buscado sera θ ∈ [0, π2 ] tal que cos(θ) =

|hv1 , v2 i| . kv1 kkv2 k

Observe que el a´ ngulo obtuso que forman dos rectas ser´ıa el suplemento del a´ ngulo entre ellas. Si L1 y L2 tienen ecuaciones normales y = m1 x + b1 y y = m2 x + b2 , respectivamente, entonces estas tienen vectores direcci´on v1 = (1, m1 ),

v2 = (1, m2 ).

Luego, si θ es el a´ ngulo entre L1 y L2 , entonces cos(θ) =

|hv1 , v2 i| |1 + m1 m2 | p =p kv1 kkv2 k 1 + m21 1 + m22

y as´ı podemos calcular la tangente de θ, s m1 − m2 1 . tan(θ) = − 1 = cos(θ)2 1 + m1 m2

28

´ CAPITULO 2. EL PLANO EUCLIDIANO

Cap´ıtulo 3

Geometr´ıa anal´ıtica en el espacio En este cap´ıtulo estableceremos las nociones b´asicas de geometr´ıa anal´ıtica en el espacio. Del mismo modo que trabajamos con el plano, el objetivo es asociarle al espacio E un sistema de coordenadas, sin embargo, no entraremos en detalles de como hacer esto (aunque la construcci´on es completamente an´aloga). Asimismo, mediante este sistema de coordenadas, dotaremos a cada vector en el espacio de una representaci´on mediante elementos del espacio R3 . La mayor´ıa de definiciones dadas en este cap´ıtulo ser´an meras generalizaciones al caso Figura 3.1: Josiah Willard Gibbs R3 de lo visto en R2 . Por otro lado, la gran diferencia entre estos conjuntos es la operaci´on geom´etrica de vectores conocida como producto vectorial.

3.1.

Sistema de coordenadas en el espacio

Consideraremos E dotado de tres ejes, perpendiculares entre si y con el origen en com´un. De este modo, cada punto de P ∈ E tiene asociado una terna ordenada, es decir, un elemento del conjunto R3 = R × R × R = {(x, y, z) : x, y, z ∈ R}. Para representar gr´aficamente el sistema de coordenadas que estamos considerando, llamaremos a los tres ejes coordenados como eje x, eje y y eje z. Adem´as, si en el plano formado por los ejes x y y, estos est´an ubicados de manera usual (el eje x visto como una recta horizontal, el eje y visto como una recta vertical y sus semiejes positivos ubicados apuntado hacia la derecha y hacia arriba, respectivamente) entonces el semieje z positivo lo consideraremos como “escapando” del plano xy. 29

´ ´ ANALITICA ´ CAPITULO 3. GEOMETRIA EN EL ESPACIO

30

Del mismo modo que lo hecho en el plano, una terna ordenada representar´a tanto puntos del espacio como vectores en el espacio, pudiendo estos ser “radio vectores” o “vectores libres”. Interpretando las ternas ordenadas como radio vectores podemos establecer, nuevamente, la suma de ternas ordenadas y el producto de una terna por un escalar. Definici´on 3.1. Sean (x, y, z) y (a, b, c) elementos de R3 . Definimos la suma de (x, y, z) y (a, b, c) como la terna ordenada (x, y, z) + (a, b, c) = (x + a, y + b, z + c). Por otro lado, dado t ∈ R y (x, y, z) ∈ R3 , definimos el producto de (x, y) por el escalar t como t · (x, y, z) = (tx, ty, tz). Estas operaciones cumplen las mismas propiedades que satisfacen sus an´alogas en R3 , dadas en la proposici´on 1.4. As´ı, este hecho nos permite decir que R3 es un espacio vectorial real. Proposici´on 3.2. 1. La suma es asociativa, es decir u + (v + w) = (u + v) + w, para todo u, v, w ∈ R3 ; 2. la suma es conmutativa, es decir u + v = v + u, para todo u, v ∈ R3 ; 3. existe un elemento θ ∈ R3 tal que v + θ = v, para todo v ∈ R3 ; 4. para todo v ∈ R3 , existe w ∈ R3 tal que v + w = θ; 5. la suma y el producto por un escalar son distributivos entre ellos, es decir, α(u+v) = αu+αv y (α+β)v = αv +βv, para todo u, v ∈ R3 y α, β ∈ R; 6. el producto de escalares y el producto por un escalar son asociativos, es decir, α(βv) = (αβ)v, para todo α, β ∈ R y v ∈ R3 ; 7. 1 ∈ R tambi´en es neutro multiplicativo del producto escalar, es decir, 1 · v = v, para todo v ∈ R3 . Otra definici´on que tiene su an´alogo en R3 es la de paralelismo de vectores. Diremos que dos vectores u y v son paralelos si u = 0 o existe t ∈ R tal que u = tv.

3.2.

Geometr´ıa de vectores en el espacio

La geometria obtenida de considerar vectores en el espacio (representados por ternas ordenadas) es similar en el sentido de definici´on a lo hecho para el caso del plano. La primera definici´on que adaptaremos para nuestro caso ser´a la de producto interno de vectores.

´ DE VECTORES EN EL ESPACIO 3.2. GEOMETRIA

31

Definici´on 3.3. Sean v = (x1 , y1 , z1 ) y w = (x2 , y2 , z2 ) vectores en el espacio. Definimos el producto interno de v con w como el escalar hv, wi = h(x1 , y1 , z1 ), (x2 , y2 , z2 )i = x1 x2 + y1 y2 + z1 z2 . Nuevamente, tenemos las propiedades fundamentales del producto interno. Proposici´on 3.4. Se cumplen las siguientes propiedades del producto interno: 1. hu, vi = hv, ui, para todo u, v ∈ R3 ; 2. hu, ui ≥ 0, para todo u ∈ R3 ; 3. hu, ui = 0 si, y solo si, u = 0; 4. htu, vi = thu, vi, para todo u, v ∈ R3 y t ∈ R; 5. hu + v, wi = hu, wi + hv, wi, para todo u, v, w ∈ R3 . Definiremos ahora la norma de vectores en el espacio. Definici´on 3.5. Sea v = (x, y, z) ∈ R3 . Definimos la norma del vector v como p kvk = x2 + y 2 + z 2 . p Es inmediato verificar que kvk = hv, vi. Por ende, las propiedades fundamentales de la norma tambi´en se verifican. Proposici´on 3.6. Se cumplen las siguientes propiedades de la norma de un vector: 1. kvk ≥ 0, para todo v ∈ R3 ; 2. kvk = 0 si, y solo si, v = 0; 3. ku + vk ≤ kuk + kvk, para todo u, v ∈ R3 ; 4. kt · vk = |t|kvk, para todo v ∈ R3 , t ∈ R. Debido a las propiedades del producto interno, podemos reutilizar la prueba dada en la observaci´on 1.18 para obtener la desigualdad de Cauchy-Schwarz. Teorema 3.7. Dados u, v ∈ R3 , |hu, vi| ≤ kukkvk, y la igualdad se da si, y solo si, u y v son paralelos. Dados dos puntos P, Q ∈ E, podemos hallar la distancia entre ellos mediante la norma del vector con origen en P y final en Q.

32

´ ´ ANALITICA ´ CAPITULO 3. GEOMETRIA EN EL ESPACIO

Definici´on 3.8. Dados P, Q puntos en el espacio E, la distancia entre P y Q es dada por p d(P, Q) = kP − Qk = hP − Q, P − Qi. As´ı, si P = (x1 , y1 , z1 ) y Q = (x2 , y2 , z2 ) entonces p d(P, Q) = (x1 − x2 )2 + (y1 − y2 )2 + (z1 − z2 )2 Por supuesto, la distancia entre puntos del espacio cumple las propiedades fundamentales de la distancia. 1. d(P, Q) ≥ 0, para cualquier P, Q ∈ E; 2. d(P, Q) = 0 si, y solamente si, P = Q; 3. d(P, Q) ≤ d(P, R) + d(R, Q), para cualesquiera P, Q, R ∈ E; Adem´as, d(P, Q) = d(P, R)+d(R, Q) si, y solamente si, R est´a en el segmento de recta que une P y Q. Esto permite llamar a la distancia que hemos definido como distancia euclidiana. Un vector v ∈ R3 se denomina unitario si kvk = 1. Observamos que, como en el caso del plano, todo vector v 6= 0 es paralelo a un vector unitario, pues v v = kvk . kvk v y es unitario. kvk Mediante el producto interno, podemos generalizar la noci´on de ortogonalidad al espacio. Definici´on 3.9. Diremos que dos vectores u, v ∈ R3 son ortogonales si hu, vi = 0. Observe que no hemos establecido a´un el a´ ngulo entre vectores en el espacio. La f´ormula para el c´alculo del a´ ngulo ser´a an´aloga al caso del plano. Definici´on 3.10. Sean u y v vectores en R3 . El a´ ngulo entre u y v es el a´ ngulo θ ∈ [0, π] tal que hu, vi . cos(θ) = kukkvk Queremos ahora definir la proyecci´on ortogonal de un vector sobre otro no nulo. Consideremos u y v en R3 , con v 6= 0. Nuevamente, por lo visto en la hu, vi observaci´on 1.18, t0 = es el que minimiza la funci´on g : R −→ R, g(t) = kvk2 hu, vi v, entonces w es paralelo a v. Adem´as, ku − tvk2 . Denotemos w = t0 v = kvk2 hv, u − wi = hv, ui − hv, wi = hu, vi −

hu, vi kvk2 = 0. kvk2

Es decir u−w es ortogonal a v. Como en el caso del plano, daremos nombre propio al vector w.

3.3. EL PRODUCTO VECTORIAL Y EL TRIPLE PRODUCTO ESCALAR 33 Definici´on 3.11. Sea v ∈ R3 , no nulo. Dado u ∈ R3 , definimos la proyecci´on ortogonal de u sobre v como el vector Proyv u =

hu, vi v. kvk2

Del mismo modo, definimos la componente ortogonal de u sobre v como Compv u =

hu, vi . kvk

Finalmente, observamos que se cumplen propiedades an´alogas a las de la proyecci´on ortogonal en el plano. Proposici´on 3.12. Sea v ∈ R3 , v 6= 0. Entonces 1. Proyv u = Proyt·v u, para todo u ∈ R3 y t ∈ R, t 6= 0; 2. Proyv (u + w) = Proyv u + Proyv w, para todo u, w ∈ R3 ; 3. Proyv (t · u) = t · Proyv u, para todo u ∈ R3 y t ∈ R.

3.3.

El producto vectorial y el triple producto escalar

Observemos que no hemos definido el an´alogo en R3 de la noci´on de vector ortogonal de v ∈ R3 . Recordemos que en el caso del plano, si u ∈ R2 entonces todo vector ortogonal a u era paralelo a u⊥ . Dicho de otra manera, u⊥ genera a los vectores ortogonales de u. Esto no es el caso en el espacio, pues, dado un vector v ∈ R3 , existen infinitos vectores ortogonales a v no paralelos entre si. Ejemplo 3.13. Sea v = (1, 1, 1). Podemos considerar, para cada t ∈ [0, π2 i, el vector ut = (cos(t)2 , sin(t)2 , −1). Claramente v y ut son ortogonales, para cualquier t. Adem´as, es inmediato verificar que ut y us no son paralelos, cuando t 6= s. As´ı como el vector ortogonal en el plano fue definido para hallar r´apidamente un vector perpendicular a uno dado, el producto vectorial de dos vectores nos permitir´a hallar un vector perpendicular a dos vectores dados en el espacio. Sean u = (x1 , y1 , z1 ) y v = (x2 , y2 , z2 ) vectores en R3 . Definimos el producto vectorial de u y v mediante sus componentes, como u × v = (y1 z2 − z1 y2 , z1 x2 − x1 z2 , x1 y2 − y1 x2 ). Es usual en la literatura encontrar la siguiente f´ormula nemot´ecnica del producto vectorial   ˆı ˆ kˆ u × v = det x1 y1 z1  , x2 y2 z2       y1 z1 x1 z1 x1 y1 ˆ = det ˆı − det ˆ + det k y2 z2 x2 z2 x2 y2

34

´ ´ ANALITICA ´ CAPITULO 3. GEOMETRIA EN EL ESPACIO

donde ˆı, ˆ, kˆ son los vectores can´onicos de R3 . Se sigue de esta definici´on que el vector u × v es ortogonal a u y a v a la vez, pues hu, u × vi = x1 (y1 z2 − z1 y2 ) + y1 (z1 x2 − x1 z2 ) + z1 (x1 y2 − y1 x2 ), = 0, hv, u × vi = x2 (y1 z2 − z1 y2 ) + y2 (z1 x2 − x1 z2 ) + z2 (x1 y2 − y1 x2 ), = 0. Geom´etricamente, el producto vectorial de dos vectores u y v es un vector ortogonal a ambos, siempre y cuando no sean paralelos. La direcci´on de u × v en el espacio se determina mediante la regla de la mano derecha. La siguiente proposici´on contiene a las propiedades fundamentales del producto vectorial. Proposici´on 3.14. Se cumplen las siguientes propiedades del producto vectorial en el espacio. 1. u × v = −v × u, para todo u, v ∈ R3 ; 2. (tu) × v = t(u × v) = u × (tv), para todo t ∈ R, u, v ∈ R3 ; 3. u × (v + w) = u × v + u × w, para todo u, v, w ∈ R3 ; 4. u × (v × w) = hu, wiv − hu, viw, para todo u, v, w ∈ R3 . Observaci´on 3.15. Sin usar propiedades del determinante, la prueba de esta proposici´on es laboriosa, a menos que se establezca cierta notaci´on que no usaremos m´as adelante. Dado w ∈ R3 , denotemos por wk a la k-´esima componente de w. Luego si u1 , u2 ∈ R3 entonces u1 = (u11 , u12 , u13 ) y u2 = (u21 , u22 , u23 ). Observemos que en este caso, la k-´esima componente del producto vectorial de u1 y u2 es dada por (u1 × u2 )k = (−1)k+1 (u1i u2j − u1j u2i ), donde {i, j, k} = {1, 2, 3} e i < j. Demostraci´on de la proposici´on 3.14. 1. Dado cualquier componente k ∈ {1, 2, 3}, tenemos [u1 × u2 ]k = (−1)k+1 (u1i u2j − u1j u2i ), = −(−1)k+1 (u2i u1j − u2j u1i ) = −[u2 × u1 ]k . Luego, u1 × u2 = −u2 × u1 . 2. Sea t ∈ R cualquiera. Para cualquier componente k, [(tu1 ) × u2 ]k = (−1)k+1 ((tu1i )u2j − (tu1j )u2i ), = t(−1)k+1 (u1i u2j − u1j u2i ) = t[u1 × u2 ]k . Del mismo modo se prueba que [(tu1 ) × u2 ]k = [u1 × (tu2 )]k .

3.3. EL PRODUCTO VECTORIAL Y EL TRIPLE PRODUCTO ESCALAR 35 3. Dado u3 ∈ R3 , tenemos, para cualquier componente k, [u1 × (u2 + u3 )]k = (−1)k+1 (u1i (u2 + u3 )j − u1j (u2 + u3 )i ) = (−1)k+1 (u1i u2j + u1i u3j − u1j u2i − u1j u3i ) = (−1)k+1 (u1i u2j − u1j u2i ) + (−1)k+1 (u1i u3j − u1j u3i ) = [u1 × u2 ]k + [u1 × u3 ]k . 4. Dado k ∈ {1, 2, 3}, sean i, j ∈ {1, 2, 3}, i < j tales que {i, j, k} = {1, 2, 3}. Tenemos tres posibilidades para i, j, k, todas an´alogas. Probaremos el caso en que i < j < k, es decir i = 1, j = 2 y k = 3. En este caso [u1 × (u2 × u3 )]3 = (u11 (u2 × u3 )2 − u12 (u2 × u3 )1 ) = u11 (u23 u31 − u21 u33 ) − u12 (u22 u33 − u23 u32 ) = u11 u23 u31 + u12 u23 u32 − (u11 u21 u33 + u12 u22 u33 ) = (u11 u31 + u12 u32 )u23 − (u11 u21 + u12 u22 )u33 = (u11 u31 + u12 u32 + u13 u33 )u23 − (u11 u21 + u12 u22 + u13 u23 )u33 = [hu1 , u3 iu2 − hu1 , u2 iu3 ]3 . Es inmediato de las propiedades anteriores el siguiente corolario. Corolario 3.16. Dados u, v, w ∈ R3 , tenemos (u + v) × w = u × w + v × w. Se sigue de la propiedad 1. de la proposici´on 3.14 que el producto vectorial no es conmutativo. M´as a´un, es f´acil verificar que tampoco es asociativo. Por ejemplo consideremos u = (1, 0, 0) y v = w = (1, 1, 0). Entonces u × v = (0, 0, 1), (u × v) × w = (−1, 1, 0), v × w = (0, 0, 0) y as´ı, (u × v) × w = (−1, 1, 0) 6= (0, 0, 0) = u × (v × w). Mediante el producto vectorial, podemos definir el triple producto escalar de tres vectores u, v, w ∈ R3 como [u, v, w] = hu, v × wi. En caso u = (x1 , y1 , z1 ), v = (x2 , y2 , z2 ) y w = (x3 , y3 , z3 ), tenemos [u, v, w] = hu, v × wi = x1 (y2 z3 − z2 y3 ) + y1 (z2 x3 − x2 z3 ) + z1 (x2 y3 − y2 x3 ), = x1 (y2 z3 − z2 y3 ) − y1 (x2 z3 − z2 x3 ) + z1 (x2 y3 − y2 x3 ),   x1 y1 z1 = det x2 y2 z2  . x3 y3 z3 Comenzaremos probando una propiedad de conmutatividad del triple producto escalar.

36

´ ´ ANALITICA ´ CAPITULO 3. GEOMETRIA EN EL ESPACIO

Proposici´on 3.17. Dados u, v, w ∈ R3 , se tiene [u, v, w] = [v, w, u] = [w, u, v]. Demostraci´on. Es consecuencia de la invariancia por intercambio de filas del determinante. Podemos relacionar el producto vectorial con el producto interno de la siguiente manera. Proposici´on 3.18. Sean u, v ∈ R3 , entonces ku × vk2 = kuk2 kvk2 − hu, vi2 . Demostraci´on. Usando la proposici´on 3.17 y el ´ıtem 4. de la proposici´on 3.14, tenemos ku × vk2 = hu × v, u × vi = [u × v, u, v], = [u, v, u × v] = hu, v × (u × v)i, = hu, hv, viu − hv, uivi, = kvk2 kuk2 − hu, vi2 . Corolario 3.19. Sean u, v ∈ R3 y θ ∈ [0, π] el a´ ngulo entre ellos. Entonces ku × vk = kukkvk sen(θ). Observe que la f´ormula anterior es el a´ rea del paralelogramo cuyos lados est´an dados por los vectores u y v. En el caso de tener tres vectores u, v, w ∈ R3 , que supondremos que no est´an contenidos en un mismo plano, podemos calcular el volumen del paralelep´ıpedo que forman. Supongamos que la base del paralelep´ıpedo es formada por v y w y que el vector u no est´a en el plano formado por v y w. Luego, por definici´on, el volumen del paralelep´ıpedo ser´a dado por V = altura × a´ rea de la base. Observe que la altura ser´a la magnitud del vector Proyv×w u y que el a´ rea de la |[u, v, w]| base es dada por kv × wk. Luego como k Proyv×w uk = , tenemos kv × wk V = |[u, v, w]|. Es decir, |[u, v, w]| es el volumen del paralelep´ıpedo cuyos lados son los vectores u, v y w.

3.4. ALGEBRA LINEAL DE VECTORES EN EL ESPACIO

3.4.

37

Algebra lineal de vectores en el espacio

Las definiciones de combinaci´on lineal, generaci´on, independencia lineal y base de R2 son inmediatamente generalizadas en R3 . En general, son definidas para cualquier espacio vectorial. Por completitud, y para recordar las definiciones, las enunciaremos nuevamente. Definici´on 3.20. Sean v1 , . . . , vn ∈ R3 vectores en el plano. Diremos que un vector v es una combinaci´on lineal de los vectores v1 , . . . , vn si existen coeficientes reales α1 , . . . , αn tales que v = α1 v1 + α2 v2 + · · · + αn vn . En este caso, diremos que v1 , . . . , vn generan v. Adem´as, si todo vector v ∈ R3 es generado por v1 , . . . , vn , diremos que v1 , . . . , vn generan R3 . Definici´on 3.21. Diremos que los vectores v1 , . . . , vn ∈ R3 son linealmente independientes si, escribiendo 0 = α1 v1 + · · · + αn vn , con α1 , . . . , αn ∈ R, la u´ nica posibilidad para estos es α1 = α2 = · · · = αn = 0. Por otro lado, si v1 , . . . , vn no son linealmente independientes entonces se denominan linealmente dependientes. Definici´on 3.22. Diremos que un conjunto v1 , . . . , vn es una base de R3 si estos son linealmente independientes y generan R3 . Ejemplo 3.23. Sean v1 = (1, 2, 3), v2 = (2, 0, 3), v3 = (−1, 1, 0) y v = (3, 7, 0). En este caso, tenemos v = (3, 7, 0) = 2(1, 2, 3) − 2(−2, 0, 3) + 3(−1, 1, 0). Luego v es combinaci´on lineal de v1 , v2 y v3 . Supongamos que podemos expresar 0 como combinaci´on lineal de v1 , v2 y v3 , es decir, 0 = (0, 0, 0) = α(1, 2, 3) + β(−2, 0, 3) + γ(−1, 1, 0). Luego β = −α, 2α + γ = 0 y 3α = γ. De aqu´ı, obtenemos que α = 0, β = 0 y γ = 0. Por lo tanto v1 , v2 y v3 son linealmente independientes. Observe que esto no ocurre en R2 , pues probamos que tres vectores cualesquiera siempre son linealmente dependientes.

´ ´ ANALITICA ´ CAPITULO 3. GEOMETRIA EN EL ESPACIO

38

R3 ,

Finalmente, observamos que v1 , v2 , v3 generan todo R3 pues, para (x, y, z) ∈ arbitrario,

  2 (x, y, z) = x + y − z (1, 2, 3) 3 + (z − x − y)(2, 0, 3)   4 + z − 2x − y (−1, 1, 0). 3 Ejemplo 3.24. Consideremos e1 = ˆı = (1, 0, 0), e2 = ˆ = (0, 0, 1) y e3 = kˆ = (0, 0, 1). Cualquier v = (x, y, z) ∈ R3 puede escribirse como v = (x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1). Es decir, e1 , e2 y e3 generan R3 . Por otro lado, si (0, 0, 0) = α(1, 0, 0)+β(0, 1, 0)+ γ(0, 0, 1) entonces α = β = γ = 0, es decir, e1 , e2 y e3 son linealmente independientes. Por lo tanto, forman una base, que es denominada base can´onica de R3 . Probaremos que toda base de R3 posee exactamente tres elementos. Para esto, comenzaremos caracterizando la independencia lineal de dos vectores en el espacio. Proposici´on 3.25. Sean v1 , v2 ∈ R3 . Las siguientes afirmaciones son equivalentes: 1. v1 , v2 son paralelos; 2. v1 , v2 son linealmente dependientes; 3. v1 × v2 = 0. Demostraci´on. La prueba de que 1 y 2 son equivalentes es an´aloga a la de la proposici´on 1.33. Para probar que 1 es equivalente a 3, basta observar que v1 y v2 son paralelos si, y solo si, el a´ ngulo que forman es θ = 0 o θ = π, y luego usar el corolario 3.19. Corolario 3.26. Sean u, v, w ∈ R3 tales que u es ortogonal a v y a w. Entonces u es paralelo a v × w. Demostraci´on. Por la proposici´on 3.25, basta verificar que u × (v × w) = 0. En efecto, por la proposici´on 3.14, ´ıtem 4, tenemos u × (v × w) = hu, wiv − hu, viw = 0, pues ambos productos internos son cero, por hip´otesis. Esto prueba el resultado.

3.4. ALGEBRA LINEAL DE VECTORES EN EL ESPACIO

39

Ejemplo 3.27. Considere v1 = (1, 2, 0), v2 = (0, −1, 1) y v3 = (1, 1, 1). Estos son linealmente dependientes pues (0, 0, 0) = (1, 2, 0) + (0, −1, 1) − (1, 1, 1). Sin embargo, estos vectores no son paralelos dos a dos. En el caso de tres vectores, podemos caracterizar su independencia linear mediante el triple producto escalar. Para esto, probaremos primero dos lemas. Lema 3.28. Sean u, v, w ∈ R3 linealmente dependientes tales que v, w son linealmente independientes. Entonces u es combinaci´on lineal de v y w. Demostraci´on. Como u, v, w son linealmente dependientes, existen escalares α, β, γ ∈ R, no todos nulos, tales que αu + βv + γw = 0. Si α = 0 entonces βv + γw = 0. Esto implica, desde que v, w son linealmente independientes, que β = γ = 0. Esto es una contradicci´on. Luego α 6= 0 y as´ı β γ u = (− )v + (− )w, α α es decir, u es combinaci´on lineal de v y w. Lema 3.29. Sean u, v, w ∈ R3 tales que existe z ∈ R3 , no nulo, ortogonal a todos ellos. Entonces u, v y w son linealmente dependientes. Demostraci´on. Si cualquier par en u, v y w es paralelo, entonces no hay nada que probar. Luego, supongamos que tanto u y v como v y w son linealmente independientes. Entonces u × v 6= 0, v × w 6= 0 y como z es ortogonal a u, v y w entonces, por el corolario 3.26, z es paralelo a u × v y a v × w. Esto implica que existe t ∈ R tal que u × v = t(v × w). As´ı, (u + tw) × v = 0, es decir, u + tw y v son paralelos. Luego, existe s ∈ R tal que u + tw = sv, es decir, u − sv − tw = 0. Esto prueba que u, v, w son linealmente dependientes. Proposici´on 3.30. Tres vectores v1 , v2 y v3 en R3 son linealmente dependientes si, y solamente si, [v1 , v2 , v3 ] = 0. Demostraci´on. Supongamos que v1 , v2 , v3 son linealmente dependientes. Luego, sin perdida de generalidad, podemos suponer que v1 es combinaci´on lineal de v2 y v3 , es decir, para escalares α, β ∈ R, v1 = αv2 + βv3 .

´ ´ ANALITICA ´ CAPITULO 3. GEOMETRIA EN EL ESPACIO

40

Multiplicando escalarmente por v2 × v3 , tenemos [v1 , v2 , v3 ] = hv1 , v2 × v3 i = hαv2 + βv3 , v2 × v3 i = αhv2 , v2 × v3 i + βhv3 , v2 × v3 i = 0. Rec´ıprocamente, supongamos que [v1 , v2 , v3 ] = hv1 , v2 × v3 i = 0. Luego v2 × v3 es ortogonal a v1 , v2 y v3 . Por el lema 3.29, v1 , v2 y v3 son linealmente dependientes. Lema 3.31. Sean v1 , . . . , vn ∈ R3 tales que v1 , . . . , vk es linealmente dependiente, con k ≤ n. Entonces v1 , . . . , vn es linealmente dependiente. Presentaremos ahora el resultado principal de esta secci´on. Teorema 3.32. Tres vectores v1 , v2 , v3 ∈ R3 son linealmente independientes si, y solamente si, generan R3 . Demostraci´on. Escribamos vi = (xi , yi , zi ), para i = 1, 2, 3. Dado v = (x, y, z) cualquiera, nuestro objetivo es hallar escalares α1 , α2 , α3 ∈ R tales que v = α1 v1 + α2 v2 + α3 v3 . Esto es equivalente a resolver el sistema matricial      x1 x2 x3 α1 x  y1 y2 y3  α2  = y  . z 1 z2 z3 α3 z   x1 x2 x3 Como det  y1 y2 y3  = [v1 , v2 , v3 ] 6= 0 entonces la regla de Cramer nos z1 z 2 z3 permite resolver expl´ıcitamente este sistema. En este caso, tenemos α1 =

[v, v2 , v3 ] , [v1 , v2 , v3 ]

α2 =

[v1 , v, v3 ] , [v1 , v2 , v3 ]

α3 =

[v1 , v2 , v] . [v1 , v2 , v3 ]

Rec´ıprocamente, supongamos que v1 , v2 y v3 son linealmente dependientes. En caso todos ellos sean paralelos entre si, basta elegir cualquier vector v ∈ R3 no paralelo de modo que no podr´a ser escrito como combinaci´on lineal de v1 , v2 , v3 . Supongamos ahora, sin perdida de generalidad, v2 y v3 no son paralelos, por ende, son linealmente independientes. Por el lema 3.28, v1 es combinaci´on lineal de v2 y v3 . Luego v = v2 ×v3 6= 0 es ortogonal a v1 , v2 , v3 . En particular, v no es generado por v1 , v2 , v3 . La demostraci´on del siguiente corolario es an´aloga a la del corolario 3.33. Corolario 3.33. Sea v1 , . . . , vn ∈ R3 un conjunto linealmente independiente. Entonces n ≤ 3.

3.4. ALGEBRA LINEAL DE VECTORES EN EL ESPACIO

41

Supongamos que v1 , . . . , vn es una base de R3 , entonces es linealmente independiente. Luego por el corolario 3.33, n ≤ 3. Pero dos vectores, o menos, no pueden generar todo R3 , luego n = 3. As´ı, toda base de R3 posee tres elementos. En conclusi´on, R3 es un espacio vectorial de dimensi´on tres.

42

´ ´ ANALITICA ´ CAPITULO 3. GEOMETRIA EN EL ESPACIO

Cap´ıtulo 4

Rectas y planos en el espacio Euclides, en su libro “Los Elementos”, defini´o a la recta como “una longitud, sin anchura, que yace por igual respecto de los puntos que est´an en ella”. Del mismo modo, defini´o superficie como “aquello que solo tiene longitud y anchura” y superficie plana como “aquella superficie que yace por igual respecto de las lineas que est´an en ella”. La geometr´ıa anal´ıtica permite formalizar estas nociones, del mismo modo como fue hecho para la recta en el cap´ıtulo 2. Figura 4.1: Alexis de Clairault

4.1.

Rectas en el espacio

La definici´on de recta en el espacio es an´aloga a su definici´on en el plano, mediante un punto de paso y un vector direcci´on. Esta representaci´on se denomina ecuaci´on vectorial de la recta. Definici´on 4.1. Sea P0 ∈ E y v ∈ R3 un vector no nulo. La recta que pasa por P0 con direcci´on v es el conjunto L(P0 , v) = {P = P0 + tv ∈ P : t ∈ R}. −−→ Observe que P ∈ L(P0 , v) si, y solo si, P P0 y v son paralelos. Dados P0 = (x0 , y0 , z0 ) y v = (v1 , v2 , v3 ), consideremos la recta L(P0 , v). Si P = (x, y, z) ∈ L(P0 , v) entonces existe t ∈ R tal que P = P0 + tv, es decir, x = x0 + tv1 ,

y = y0 + tv2 ,

z = z0 + tv3 .

(4.1)

Esta representaci´on de la coordenadas de la recta se denomina ecuaci´on param´etrica de la recta. 43

´ CAPITULO 4. RECTAS Y PLANOS EN EL ESPACIO

44

Si suponemos que v1 , v2 , v3 6= 0, entonces podemos despejar t en la ecuaci´on (4.1) para obtener t=

y − y0 z − z0 x − x0 = = . v1 v2 v3

A esta relaci´on se le denomina ecuaci´on continua de la recta. Proposici´on 4.2. Sea L = L(P0 , v) una recta en el espacio. Si P ∈ L y w 6= 0 es paralelo a v entonces L = L(P, w). Podriamos pensar que una generalizaci´on de la ecuaci´on general de la recta en el plano, ax + by + cz + d = 0, servir´ıa como ecuaci´on general de la recta en el espacio, sin embargo, este no es el caso. Del mismo modo, no es posible generalizar la ecuaci´on normal, ni la noci´on de pendiente.

4.1.1.

Posici´on relativa entre rectas

Definici´on 4.3. Diremos que dos rectas son paralelas (respectivamente, ortogonales) si sus vectores direcci´on son paralelos (respectivamente, ortogonales). Comenzaremos caracterizando a las rectas paralelas en el espacio. Proposici´on 4.4. Sean L1 y L2 rectas paralelas en el espacio. Entonces L1 = L2 o L1 ∩ L2 = ∅. Demostraci´on. Si L1 ∩ L2 = ∅ entonces no hay nada que probar. Supongamos que existe R ∈ L1 ∩ L2 y sean v1 y v2 los vectores direcci´on de L1 y L2 , respectivamente. Entonces por la proposici´on 4.2, L1 = L(R, v1 ) = L(R, v2 ) = L2 . Es posible tener en el espacio dos rectas no paralelas que no se intersecan. Por ejemplo, considere P1 = (0, 0, 0), v1 = (1, 0, 0), P2 = (0, 0, 1), v2 = (0, 1, 0) y las rectas L1 = L(P1 , v1 ) y L2 = L(P2 , v2 ), cuyos vectores direcci´on no son paralelos. Si se tuviera R ∈ L1 ∩ L2 entonces existen t, s ∈ R tales que R = P1 + tv1 = (t, 0, 0) = (0, s, 1) = P2 + sv2 , lo cual es claramente imposible. Definici´on 4.5. Diremos que dos rectas L1 y L2 son alabeadas (o se cruzan) si no son paralelas y no se intersecan. Es posible caracterizar cuando dos rectas son alabeadas mediante el triple producto escalar. Teorema 4.6. Sean L1 = L(P1 , v1 ) y L2 = L(P2 , v2 ) rectas en el espacio. En−−−→ tonces L1 y L2 son alabeadas si, y solamente si, [P2 P1 , v1 , v2 ] 6= 0.

4.1. RECTAS EN EL ESPACIO

45

Demostraci´on. Probaremos que las negaciones son equivalentes. Supongamos que L1 y L2 no son alabeadas, entonces o son paralelas o se cortan en un punto R ∈ L1 ∩ L2 . Si son paralelas, entonces sus vectores direcci´on son paralelos y, por −−−→ lo tanto, linealmente dependientes. Luego P2 P1 , v1 y v2 son tambi´en linealmente −−−→ dependientes y por ende [P2 P1 , v1 , v2 ] = 0. Por otro lado, si R ∈ L1 ∩ L2 entonces existen t, s ∈ R tales que R = P1 + tv1 = P2 + sv2 . −−−→ −−−→ Luego P2 P1 + tv1 − sv2 = 0, es decir, P2 P1 , v1 y v2 son tambi´en linealmente −−−→ dependientes y por ende [P2 P1 , v1 , v2 ] = 0. −−−→ −−−→ Rec´ıprocamente, si [P2 P1 , v1 , v2 ] = 0 entonces P2 P1 , v1 y v2 son linealmente dependientes. Si v1 y v2 son paralelos entonces L1 y L2 no pueden ser alabeadas −−−→ por definici´on. Si v1 y v2 no son paralelos entonces, por el lema 3.28, P2 P1 es combinaci´on lineal de v1 y v2 . Luego, existen α, β ∈ R tales que −−−→ P2 − P1 = P2 P1 = αv1 + βv2 . As´ı, basta definir R = P1 + αv1 = P2 − βv2 ∈ L1 ∩ L2 para probar que L1 y L2 no son alabeadas. Podemos enunciar el teorema que caracteriza la posici´on relativa de dos rectas en el espacio. Teorema 4.7. Dadas dos rectas en el espacio, ocurre una, y solo una, de las siguientes posibilidades: 1. las rectas son paralelas y no disjuntas (por ende, iguales); 2. las rectas son paralelas y disjuntas; 3. las rectas no son paralelas y poseen un (´unico) punto en com´un; 4. las rectas son alabeadas.

4.1.2.

Distancia de un punto a una recta y entre rectas

Sean Q y L = L(P, v), un punto y una recta en el espacio, respectivamente. Para determinar la distancia de Q a L, seguiremos las ideas de la secci´on 2.2.2. Observemos que la menor distancia entre Q y L est´a dada por la magnitud del vector −−→ −−→ −−→ w = P Q − Proyv P Q = P Q − t0 v,

´ CAPITULO 4. RECTAS Y PLANOS EN EL ESPACIO

46

−−→ hP Q, vi . Calculando kwk, donde t0 = kvk2 −−→ −−→ kwk2 = hP Q − t0 v, P Q − t0 vi, −−→ −−→ = kP Qk2 − 2t0 hP Q, vi + t20 kvk2 , −−→ −−→ 2 hP Q, vi2 = kP Qk − , kvk2 −−→ −−→ kP Qk2 kvk2 − hP Q, vi2 = , kvk2 −−→ kP Q × vk2 = . kvk2 As´ı,

−−→ kP Q × vk . d(Q, L) = kwk = kvk

De nuevo como en el caso del plano, para determinar la distancia entre dos rectas paralelas , basta tomar un punto en una y hallar su distancia a la otra. Finalmente, calcularemos la distancia entre dos rectas alabeadas. Sean L1 = L(P1 , v1 ) y L2 = L(P2 , v2 ) rectas alabeadas. Luego v1 y v2 no son paralelas, y por tanto v = v1 × v2 6= 0. La distancia entre L1 y L2 ser´a dada por la magnitud del vector −−−→ w = Proyv P1 P2 , es decir d(L1 , L2 ) =

4.2.

−−−→ −−−→ |hP1 P2 , v1 × v2 i| |[P1 P2 , v1 , v2 ]| = . kv1 × v2 k kv1 × v2 k

Planos en el espacio

Recordemos que, geom´etricamente, los vectores en R3 que son combinaci´on lineal de dos vectores linealmente independientes forman un plano en el espacio. As´ı, un plano en el espacio est´a determinado por un punto de paso y dos vectores direcci´on linealmente independientes. Esta representaci´on se denomina ecuaci´on vectorial del plano. Definici´on 4.8. Sea P0 ∈ E y u, v ∈ R3 linealmente independientes. El plano que pasa por P0 y con vectores direcci´on u, v, es el conjunto P(P0 , u, v) = {P = P0 + tu + sv : t, s ∈ R}. −−→ Observe que P ∈ P(P0 , u, v) si, y solo si, P0 P es combinaci´on lineal de u y v.

4.2. PLANOS EN EL ESPACIO

47

Sea P = P(P0 , u, v) un plano. Como u, v son linealmente independientes, y por tanto no paralelos, podemos considerar el vector n = u × v 6= 0. Este vector, geom´etricamente, sera perpendicular a todo vector contenido en el plano. Llamaremos a n como vector normal del plano. Sea P ∈ P(P0 , u, v). Entonces existen t, s ∈ R tales que P − P0 = tu + sv. Tomando producto interno con n = u × v, tenemos −−→ hP0 P , ni = htu + sv, u × vi = 0. −−→ −−→ Rec´ıprocamente, si hP0 P , u × vi = 0 entonces P0 P , u y v son linealmente depen−−→ dientes. Por el lema 3.28, P0 P es combinaci´on lineal de u y v. Esto implica que P ∈ P(P0 , u, v). Luego, podemos definir la representaci´on normal del plano P mediante −−→ P(P0 , n) = {P ∈ E : hP0 P , ni = 0}. Proposici´on 4.9. Sea P = P(P0 , n) un plano, Q0 ∈ P y m paralelo a n, no nulo. Entonces P(Q0 , m) = P(P0 , n). Sea n = (a, b, c) ∈ R3 , no nulo y P0 = (x0 , y0 , z0 ). Dado P = (x, y, z) ∈ P(P0 , n), tenemos −−→ 0 = hP0 P , ni = h(x − x0 , y − y0 , z − z0 ), (a, b, c)i, = ax + by + cz + (−ax0 − by0 − cz0 ). Denotando d = −ax0 − by0 − cz0 , tenemos que todo punto P = (x, y, z) ∈ P(P0 , n) satisface la ecuaci´on ax + by + cz + d = 0. Esta ecuaci´on es llamada ecuaci´on general del plano. No siempre una ecuaci´on de la forma ax+by +cz +d = 0 representa un plano. La siguiente proposici´on, an´aloga a la proposici´on 2.9, da condiciones suficientes para ello. Proposici´on 4.10. Sean a, b, c, d ∈ R tales que n = (a, b, c) 6= 0. Entonces el conjunto P = {(x, y, z) : ax + by + cz + d = 0} es un plano con normal n = (a, b, c). Demostraci´on. No es dif´ıcil verificar que P = 6 ∅. Sea P0 = (x0 , y0 , z0 ) ∈ P, probaremos que P = P(P0 , n). Como P0 ∈ P entonces ax0 + by0 + cz0 + d = 0, es decir d = −ax0 − by0 − cz0 . Luego, si P = (x, y, z) entonces −−→ hP0 P , ni = hP − P0 , ni = a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = ax + by + cz − ax0 − by0 − cz0 = ax + by + cz + d.

´ CAPITULO 4. RECTAS Y PLANOS EN EL ESPACIO

48

Luego, P ∈ P si, y solo si, P ∈ P(P0 , n).

4.2.1.

Posici´on relativa entre planos

Del mismo modo que en el caso de rectas, podemos definir paralelismo y ortogonalidad de planos. Definici´on 4.11. Sean P1 = P(P1 , n1 ) y P2 = P(P2 , n2 ) planos en el espacio. Diremos que P1 y P2 son paralelas si sus vectores normales n1 y n2 son paralelos. Del mismo modo, diremos que P1 y P2 son ortogonales si n1 y n2 son ortogonales. Observe que la definici´on de paralelismo y ortogonalidad de dos planos no depende de la elecci´on de los vectores normales de estos. Esto es importante dado que un plano posee infinitos vectores normales. Los siguientes lemas caracterizan el comportamiento de dos planos en el espacio. Lema 4.12. Dos planos paralelos en el espacio son, o bien iguales, o bien disjuntos. Demostraci´on. Sean P1 y P2 dos planos en el espacio y sean n1 y n2 sus vectores normales, respectivamente, luego n1 y n2 son paralelos. Supongamos que P1 y P2 no son disjuntos, luego, tienen un punto en com´un R. As´ı, por la proposici´on 4.9, P1 = L(R, n1 ) = P(R, n2 ) = P2 , es decir, P1 = P2 . Lema 4.13. Si dos planos son disjuntos entonces son paralelos. En caso contrario, su intersecci´on es una recta. Demostraci´on. Sean P1 = P(P1 , n1 ) y P2 = P(P2 , n2 ) dos planos en el espacio. Supongamos que P1 y P2 no son paralelos, entonces n1 y n2 son linealmente independientes y v = n1 × n2 6= 0. Esto adem´as implica que w = n1 × (n1 × n2 ) = hn1 , n2 in1 − hn1 , n1 in2 6= 0. Por otro lado, w no es ortogonal a n2 , pues hw, n2 i = hhn1 , n2 in1 − hn1 , n1 in2 , n2 i = hn1 , n2 i2 − kn1 k2 kn2 k2 = −kn1 × n2 k2 6= 0. Consideremos la recta L = L(P1 , w). Observe que L ⊂ P pues si P ∈ L entonces −−→ P1 P es paralelo a w y por ende ortogonal a n1 . Determinemos la intersecci´on de L con P2 : un punto R ∈ L ∩ P2 debe cumplir R = P1 + tw,

y

−−→ hP2 R, n2 i = 0.

4.2. PLANOS EN EL ESPACIO

49

−−−→ Juntando ambas ecuaciones, obtenemos hP2 P1 + tw, n2 i = 0, es decir, −−−→ −−−→ hP2 P1 , n2 i hP2 P1 , n2 i t= = . −hw, n2 i kn1 × n2 k Luego R ∈ L ∩ P2 ⊂ P1 ∩ P2 . Esto prueba que P1 y P2 no son disjuntos. En este caso, la recta L(R, v) = P1 ∩ P2 . As´ı, podemos caracterizar las posiciones relativas de dos planos en el espacio. Teorema 4.14. Dados dos planos en el espacio, ocurre una, y solamente una, de las siguientes posibilidades: 1. los planos son paralelos y no disjuntos (por ende, iguales); 2. los planos son paralelos y disjuntos; 3. los planos no son paralelos y se cortan en una recta.

4.2.2.

Distancia de un punto a un plano y entre planos

Sea Q ∈ E y P = P(P, n) un plano. La distancia de Q a P se define como la menor de las distancias entre Q y cualquier punto R ∈ P, es decir, d(Q, P) = m´ın{d(Q, R) : R ∈ P}. Teorema 4.15. Sea Q ∈ E y P = P(P, n) un plano. Entonces −−→ d(Q, P) = k Proyn P Qk. −−→ Demostraci´on. Sea w = Proyn P Q y consideremos A = Q − w. Entonces −→ hP A, ni = hQ − w − P , ni −−→ −−→ hP Q, ni = hP Q − n, ni knk2 −−→ −−→ = hP Q, ni − hP Q, ni = 0, es decir, A ∈ P y, por la proposici´on 4.9, tenemos P = P(A, n). Dado cualquier R ∈ P, tenemos −−→ −→ −→ d(R, Q)2 = kRQk2 = kRA + AQk2 −→ −→ −→ −→ = kRAk2 + 2hRA, AQi + kAQk2 −→ ≥ kAQk2 = d(A, Q)2 , −→ −→ −→ donde observamos que AQ = w es paralelo a n y por lo tanto hRA, AQi = 0. Esto significa que kwk = d(A, Q) = m´ın{d(Q, R) : R ∈ P} = d(Q, P).

50

´ CAPITULO 4. RECTAS Y PLANOS EN EL ESPACIO

Cap´ıtulo 5

Geometr´ıa proyectiva Como ya hemos mencionado, la idea principal detr´as de la geometr´ıa anal´ıtica es la de asociar un sistema de coordenadas al plano. En el cap´ıtulo 1 hicimos esto mediante el uso de los axiomas de Euclides. En este cap´ıtulo, definiremos en el plano otro sistema de coordenadas, que nos permitir´a, en cierto sentido, extenderlo, de modo que cualquier par de rectas tengan intersecci´on no vac´ıa. Recordemos que, de la manera como las rectas son descritas en el cap´ıtulo 2, esto no siempre ocurre. Para definir este nuevo sistema de coorde- Figura 5.1: Filippo Bruneleschi nadas en el plano, que llamaremos sistema de coordenadas homog´eneas, necesitaremos de la noci´on de relaci´on de equivalencia.

5.1.

Relaciones y clases de equivalencia

Empezaremos definiendo la noci´on de relaci´on. Definici´on 5.1. Sean A y B conjuntos no vac´ıos. Una relaci´on R de A a B es la terna ordenada (A, B, R), donde R ⊂ A × B. En este caso, al conjunto A se le denomina conjunto de partida, al conjunto B se le denomina conjunto de llegada y al conjunto R se le denomina regla de correspondencia o tambi´en gr´afico. Ejemplo 5.2. Sean A = {1, 2, 3, 4} y B = {a, b, c}, y consideremos R = {(1, b), (1, c), (2, a), (4, a)} ⊂ A × B. Entonces R = (A, B, R) es una relaci´on de A a B. 51

52

´ ´ PROYECTIVA CAPITULO 5. GEOMETRIA

Debemos hacer e´ nfasis que, seg´un su definici´on, una relaci´on depende de tres objetos: el conjunto de partida, el de llegada y la regla de correspondencia. Por ejemplo, consideremos A0 = {1, 2, 3, 4, 5}. Entonces A ⊂ A0 y R ⊂ A0 × B. En este caso, la relaci´on R0 = (A0 , B, R) no es la misma que la relaci´on R definida anteriormente, pese a tener la misma regla de correspondencia. A´un as´ı, para no recargar la notaci´on y mantener compatibilidad con la literatura, denotaremos a las relaciones y a sus reglas de correspondencia con el mismo s´ımbolo. Ejemplo 5.3. Sean X = {n ∈ N : n es par} y Y = {a, b, c, d, . . . , z}. Entonces R = {(2, a), (4, z), (10, z), (8, b)} ⊂ X × Y, es una relaci´on de X a Y . Note que estamos denotando con el s´ımbolo R tanto a la relaci´on como a la regla de correspondencia, sin embargo, se tiene claro cuales son los conjuntos de partida y de llegada. Un caso particular de relaci´on es cuando los conjuntos de partida y de llegada coinciden. Dado A 6= ∅, diremos que R es una relaci´on en A si R es una relaci´on de A en A. Adem´as, si (a, b) ∈ R entonces tambi´en denotaremos aRb. Definici´on 5.4. Sea A 6= ∅ y R una relaci´on en A. Diremos que R es 1. reflexiva, si xRx, para todo x ∈ A; 2. sim´etrica, si xRy implica yRx; 3. transitiva, si xRy y yRz implican xRz. Adem´as, diremos que R es de equivalencia si R cumple las tres propiedades anteriores. Ejemplo 5.5. Sea A = R y defina R = {(x, y) ∈ R × R : x ≤ y}. Observe que, para x, y ∈ R, (x, y) ∈ R ⇐⇒ xRy ⇐⇒ x ≤ y. Como x ≤ x, para todo x ∈ R, entonces xRx. Luego R es una relaci´on reflexiva. Por otro lado, si x ≤ y y y ≤ z entonces x ≤ z. Esto implica que R es una relaci´on transitiva. Sin embargo, x ≤ y no implica en general que y ≤ x, basta considerar x = 0 y y = 1. As´ı, R no es una relaci´on sim´etrica. Ejemplo 5.6. Sea A = R y defina S = {(x, y) ∈ R × R : |x| = |y|}. As´ı, dado cualquier x ∈ R, se tiene que |x| = |x|, luego S es una relaci´on reflexiva. Del mismo modo, si |x| = |y| entonces claramente |y| = |x|. Entonces S es sim´etrica. Finalmente, si |x| = |y| y |y| = |z| entonces |x| = |z|. Concluimos que S es transitiva y por lo tanto, es una relaci´on de equivalencia en R. Las relaciones de equivalencia no solamente tienen sentido en el a´ mbito matem´atico.

5.1. RELACIONES Y CLASES DE EQUIVALENCIA

53

Ejemplo 5.7. Sea A = {alumnos UNI}, considerando los alumnos matriculados en la UNI actualmente. Luego podemos definir la relaci´on, para a, b ∈ A a ∼ b ⇐⇒ a y b ingresaron el mismo a˜no. Dado a ∈ A (es decir, dado un alumno de la UNI), claramente a ingres´o el mismo a˜no que si mismo. Esto es cierto para cualquier a ∈ A, luego ∼ es reflexiva. Del mismo modo, si a y b ingresaron el mismo a˜no, entonces b y a ingresaron el mismo a˜no. Entonces ∼ es sim´etrica. Finalmente, si a y b ingresaron el mismo a˜no y b y c ingresaron el mismo a˜no, entonces a y c ingresaron el mismo a˜no. Esto quiere decir que ∼ es transitiva. Concluimos que ∼ es una relaci´on de equivalencia en A. En matem´aticas, la gran utilidad de las relaciones de equivalencias es que nos permiten clasificar elementos dentro de un conjunto. Recordemos que clasificar elementos en un conjunto significa agrupar elementos con una caracter´ıstica com´un (el criterio con el que se est´a clasificando). A cada agrupaci´on de elementos con tal caracter´ıstica com´un la llamaremos clase de equivalencia. Definici´on 5.8. Sea A 6= ∅ y ∼ una relaci´on de equivalencia en A. Dado x ∈ A definimos la clase de equivalencia de x como el conjunto [x] = {y ∈ A : x ∼ y}. Es decir, la clase de equivalencia de x es el conjunto de los elementos de A que est´an relacionados (via la relaci´on ∼) con x. A x lo llamaremos representante de la clase de equivalencia [x]. Ejemplo 5.9 (Continuaci´on del ejemplo 5.6). Sea x = 3 ∈ R. Entonces, la clase de equivalencia de x = 3 es el conjunto [3] = {y ∈ R : 3 S y}. Observe que 3 S y si, y solamente si, |y| = |3| = 3. Luego y = 3 o y = −3. Esto implica que [3] = {−3, 3}. En general, si a ∈ R entonces a S b si, y solamente si, |a| = |b|, es decir, b = a o b = −a. Luego, [a] = {a, −a}. Observe que en este caso, [−a] = {a, −a} = [a]. Ejemplo 5.10 (Continuaci´on del ejemplo 5.7). Sea x = Juan un alumno de la UNI que ingres´o en el a˜no 2008. Entonces y ∼ Juan si, y solo si, y ingres´o en el mismo a˜no que Juan, esto es, en el a˜no 2008. Luego podemos escribir [Juan] = {alumnos de la UNI que ingresaron en el 2008}. Como ∼ es una relaci´on reflexiva, Juan ∼ Juan, y esto implica que Juan ∈ [Juan]. Observe que el conjunto [Juan] no depende del alumno Juan en s´ı, sino de la caracter´ıstica en com´un de los alumnos relacionados con Juan. En este caso,

´ ´ PROYECTIVA CAPITULO 5. GEOMETRIA

54

Juan es el representante de los alumnos de la UNI que ingresaron en el 2008. Si sabemos que Miguel tambi´en ingres´o en el 2008 entonces Juan ∼ Miguel, [Miguel] = [Juan] y Miguel tambi´en es un representante de los alumnos UNI que ingresaron en el 2008. Proposici´on 5.11. Sea A 6= ∅ y ∼ una relaci´on de equivalencia en A. Entonces 1. [x] 6= ∅, para todo x ∈ A; 2. [x] ∩ [y] 6= ∅ si, y solamente si, [x] = [y]; [ 3. A = [x]. x∈A

Demostraci´on. 1. Como ∼ es reflexiva entonces x ∼ x, para todo x ∈ A. Entonces x ∈ [x], que prueba que [x] 6= ∅. 2. Claramente, si [x] = [y] entonces [x] ∩ [y] = [x] = [y] 6= ∅, por el ´ıtem anterior. Rec´ıprocamente, supongamos que existe z ∈ [x] ∩ [y], es decir, z ∼ x y z ∼ y. Esto, por simetr´ıa y transitividad de ∼, implica que x ∼ y. Luego, w ∼ x junto con x ∼ y implica que w ∼ y. Del mismo modo, w ∼ y, junto con y ∼ x implica que w ∼ x. Esto prueba que [x] = [y]. [ 3. Como cada [x] ⊂ A entonces la uni´on de todos ellos, [x], va a estar x∈A

contenida en A. Por otro lado, si w ∈ A entonces w ∈ [w] ⊂

[

[x], es

x∈A

decir, A ⊂

[

[x]. Esto prueba la igualdad de ambos conjuntos.

x∈A

Finalmente, agrupamos todas las clases de equivalencia en un nuevo conjunto. Definici´on 5.12. Sea A 6= ∅ y ∼ una relaci´on de equivalencia en A. Definimos el conjunto cociente de A sobre ∼ como A = {[x] : x ∈ A}. ∼ Ejemplo 5.13 (Continuaci´on del ejemplo 5.10). Tenemos que el conjunto cociente de A = {alumnos UNI} con la relaci´on ∼ es el conjunto cuyos elementos son las clases de equivalencia de elementos de A. Por lo visto en el ejemplo 5.10, cada clase de equivalencia es el conjunto de alumnos de la UNI que ingresaron el mismo a˜no. As´ı, podemos escribir A = {{ingresantes 2013}, {ingresantes 2012}, {ingresantes 2011}, . . .}. ∼ Note que los elementos de A/∼ “clasifican” al conjunto de alumnos de la UNI por a˜no de ingreso.

´ 5.2. COORDENADAS HOMOGENEAS Y EL PLANO PROYECTIVO

55

Ejemplo 5.14. Sea A = R y defina la relaci´on ∼ como x ∼ y ⇐⇒ x − y ∈ Z. Es f´acil comprobar que ∼ es una relaci´on de equivalencia. Considerando x0 = 0.6 ∈ R, tenemos que y ∼ 0.6 si, y solamente si, y = 0.6 + m, con m ∈ Z. As´ı, [0.6] = {m + 0.6 : m ∈ Z} = {. . . , −1.4, −0.4, 0.6, 1.6, 2.6, . . .}. Observe que [−0.4] = [2.6] = [0.6], pues todos los representantes est´an relacionados por ∼. Del mismo modo, para cualquier x ∈ R, [x] = {x + m : m ∈ Z} = {. . . , x − 2, x − 1, x, x + 1, x + 2, . . .}. Luego, [x + m] = [x], para cualquier x. Probaremos ahora que R = {[w] : w ∈ [0, 1i}. ∼ En efecto, si [x] ∈ R/∼, para x ∈ R, entonces w = x − JxK ∈ [0, 1i, donde JxK ∈ Z es el m´aximo entero de x. Luego, w ∼ x y por lo tanto, [x] = [w].

5.2.

Coordenadas homog´eneas y el plano proyectivo

Con las herramientas dadas en la secci´on anterior, construiremos un nuevo conjunto. Sea A = R3 \ {0} y en A definamos la siguiente relaci´on ∼, para u, v ∈ R3 , u, v 6= 0, u ∼ v ⇐⇒ ∃ t ∈ R, u = tv. (5.1) Es claro que si u ∼ v y u = tv, t ∈ R, entonces t 6= 0 pues ni u ni v son nulos. Probaremos que ∼ es una relaci´on de equivalencia. Dado u ∈ R3 \ {0}, consideramos t = 1 y as´ı tenemos u = 1 · u, es decir, u ∼ u. Luego ∼ es refleuiva. Dados u, v ∈ R3 \ {0}, tales que u ∼ v entonces u = tv, para alg´un t ∈ R. Como t 6= 0 entonces definimos s = 1/t ∈ R y as´ı, v = su, es decir, v ∼ u. As´ı, ∼ es sim´etrica. Finalmente, si u ∼ v y v ∼ w, entonces u = tv y v = sw, para t, s ∈ R. Entonces, podemos escribir u = (ts)w, es decir, u ∼ w. Luego, ∼ es transitiva y, por lo tanto, relaci´on de equivalencia. Ejemplo 5.15. Sea u = (1, 5, 2) 6= 0. Entonces v ∼ u si, y solo si, v = t(1, 5, 2). Luego, podemos escribir [u] = [(1, 5, 2)] = {(t, 5t, 2t) : t 6= 0}. Note que esta es la recta en R3 que pasa por 0 y con direcci´on u, quit´andole el punto 0.

´ ´ PROYECTIVA CAPITULO 5. GEOMETRIA

56

Dado u = (a, b, c) ∈ R3 , u 6= 0, denotaremos [u] = [(a, b, c)] = [a : b : c]. As´ı, [a : b : c] es la recta que pasa por (0, 0, 0) y con direcci´on (a, b, c), quit´andole el punto (0, 0, 0). Definamos entonces el objeto que nos permitir´a extender el plano euclidiano y dotarlo de nuevas coordenadas. Definici´on 5.16. Consideremos en R3 \ {0} la relaci´on de equivalencia ∼ definida R3 \ {0} como en (5.1). Al conjunto cociente lo llamaremos plano proyectivo y lo ∼ denotaremos como P2 (R). As´ı, P2 (R) = {[x : y : z] : (x, y, z) ∈ R3 , (x, y, z) 6= (0, 0, 0)}. Otras notaciones halladas en la literatura para el plano proyectivo son P2 (R), y P2 . Esta u´ ltima notaci´on se usa cuando queda claro que trabajamos con n´umeros reales, que es el caso. As´ı, en adelante, denotaremos al plano proyectivo como P2 . Sea [a : b : c] ∈ P2 tal que c 6= 0. Como para cualquier t 6= 0 se tiene (ta, tb, tc) ∈ [a : b : c] entonces [ta : tb : tc] = [a : b : c], para todo t 6= 0. As´ı, en 1 particular, considerando t = 6= 0, tenemos c   a b [a : b : c] = : :1 . c c RP2

Es decir, hemos probado {[x : y : z] ∈ P2 : z 6= 0} ⊂ {[x : y : 1] ∈ P2 : x, y ∈ R}. Como la otra inclusi´on es inmediata, tenemos la igualdad de los conjuntos anteriores. Entonces podemos escribir P2 = {[x : y : 1] : x, y ∈ R} ∪ {[x : y : 0] : x, y ∈ R}. Definici´on 5.17. Al conjunto A2 = {[x : y : 1] : x, y ∈ R} lo llamaremos conjunto de puntos afines de P2 , o tambi´en puntos propios, y al conjunto P2∞ = {[x : y : 0] : x, y ∈ R} lo llamaremos conjunto de puntos del infinito, o tambi´en, puntos impropios. Estamos en condiciones de dotar al plano P de un nuevo sistema de coordenadas.

5.3. RECTAS EN EL PLANO PROYECTIVO

57

Proposici´on 5.18. Sea ϕ : R2 −→ A2 definido por ϕ(x, y) = [x : y : 1]. Entonces ϕ es una biyecci´on. Demostraci´on. Claramente ϕ es sobreyectiva, pues, si [x : y : 1] ∈ A entonces ϕ(x, y) = [x : y : 1]. Falta probar que ϕ es inyectiva. En efecto, sean (x, y) y (a, b) tales que ϕ(x, y) = ϕ(a, b). Luego [x : y : 1] = [a : b : 1], es decir (x, y, 1) ∈ [a : b : 1]. Esto significa que existe t 6= 0 tal que tx = a, ty = b y t = 1, es decir x = a y y = b y, por lo tanto, (x, y) = (a, b). As´ı, la funci´on ϕ asocia a cada (x, y) ∈ R un u´ nico elemento de A2 , y viceversa, es decir, todo elemento de A2 tiene asociado un u´ nico (x, y) ∈ R2 . De esta manera podemos decir que A2 es una copia de R2 en P2 . Dado (x, y) ∈ R2 , las coordenadas homog´eneas de (x, y) es cualquier (X, Y, Z) ∈ [x : y : 1], es decir, la terna (X, Y, Z) satisface Z 6= 0 y x=

X , Z

y=

Y . Z

Ejemplo 5.19. Sea (1, 2) ∈ R2 . Entonces [1 : 2 : 1] = {(t, 2t, t) ∈ R3 : t 6= 0}. Por lo tanto, son coordenadas homog´eneas de (1, 2) las ternas (−1, −2, −1), (3, 6, 3), (−4, −8, −4), etc. Ejemplo 5.20. Sea P0 ∈ R2 un punto que en coordenadas homog´eneas se representa por (1, 5, 6). Entonces P0 tiene coordenadas cartesianas   1 5 (x, y) = , . 6 6 Para evitar esta multiplicidad en las coordenadas homog´eneas, en lugar de trabajar con ternas en R3 , trabajaremos con elementos de A2 . Luego, diremos que la representaci´on de P0 = (x, y) ∈ R2 en coordenadas homog´eneas est´a dada por la clase de equivalencia [x : y : 1]. Finalmente, observamos que P2 no solamente contiene a los elementos de A2 , sino tambi´en a los puntos del infinito, P2∞ . Como A2 est´a identificado biun´ıvocamente con R2 , entonces podemos decir que P2 es una extensi´on del plano R2 . Luego, podemos llamar a P2 como el plano euclidiano extendido.

5.3.

Rectas en el plano proyectivo

Para definir rectas en P2 procederemos de la siguiente manera: consideraremos una recta en R2 y deduciremos que ecuaci´on satisfacen las coordenadas homog´eneas de los puntos de esta.

´ ´ PROYECTIVA CAPITULO 5. GEOMETRIA

58

Sea L0 una recta en R2 con ecuaci´on general ax + by + c = 0. Sea (x, y) ∈ L0 y sea [X : Y : Z] ∈ P2 su representaci´on en coordenadas homog´eneas. Entonces x=

X , Z

y=

Y , Z

X Y y por lo tanto a + b + c = 0. Luego, como Z 6= 0, multiplicamos por Z la Z Z ecuaci´on anterior y tenemos aX + bY + cZ = 0. As´ı, la representaci´on en coordenadas homog´eneas de L es el conjunto L = {[X : Y : Z] ∈ P2 : aX + bY + cZ = 0}. Podemos considerar L0 como “contenida” en L en el siguiente sentido: si (x, y) ∈ L0 entonces ϕ(x, y) = [x : y : 1] ∈ L. Esta “inclusi´on” es propia, pues [−b : a : 0] ∈ L pero no corresponde a ning´un punto de R2 . Observe que [−b : a : 0] es la intersecci´on de L con P2∞ . Recordemos que si ax + by + c = 0 es la ecuaci´on general de L0 , entonces (a, b, c) 6= (0, 0, 0) y L0 tambi´en tendr´a como ecuaci´on general a (ta)x + (tb)y + (tc) = 0, para cualquier t 6= 0. Esto significa que la ecuaci´on de L0 no depende de (a, b, c) en s´ı, sino del conjunto de los m´ultiplos de (a, b, c), es decir, de [a : b : c]. Esto motiva la siguiente definici´on. Definici´on 5.21. Sea [a : b : c] ∈ P2 . La recta proyectiva asociada a [a : b : c], o simplemente, recta en P2 , es el conjunto L[a : b : c] = {[X : Y : Z] ∈ P2 : aX + bY + cZ = 0}. Si (a, b) 6= (0, 0) entonces L[a : b : c] representar´a una recta en R2 . En efecto, consideremos la recta L0 = L(a, b, c), con ecuaci´on general ax + by + c = 0. Entonces (x, y) ∈ L(a, b, c) si, y solamente si, [x : y : 1] ∈ L[a : b : c]. A este tipo de rectas las llamaremos rectas afines o propias. En caso [a : b : c] ∈ P2 y (a, b) = (0, 0), se tiene que c 6= 0. Luego [a : b : c] = [0 : 0 : 1] y as´ı tenemos la recta L[0 : 0 : 1] = {[X : Y : Z] : Z = 0} = P2∞ . Es decir, el conjunto de los puntos del infinito P2∞ es una recta en P2 , la que llamaremos recta del infinito. Esta recta proyectiva no representa ninguna recta en R2 . Sea L = L[a : b : c] una recta en P2 que representa a la recta L(a, b, c) de 2 R (es decir, (a, b) 6= (0, 0)). Estudiaremos la intersecci´on de L con la recta del infinito P2∞ . Sea [X0 : Y0 : Z0 ] ∈ L ∩ P2∞ . Entonces Z0 = 0 y aX0 + bY0 = 0.

5.3. RECTAS EN EL PLANO PROYECTIVO

59

Esto implica que h(a, b), (X0 , Y0 )i = 0, por lo tanto (X0 , Y0 ) es paralelo a (a, b)⊥ = (−b, a). Concluimos que, para alg´un t ∈ R, (X0 , Y0 , Z0 ) = t(−b, a, 0), y, as´ı, [X0 : Y0 : Z0 ] = [−b : a : 0]. Esto significa que [−b : a : 0] es la intersecci´on de L con P2∞ . Luego, toda recta de P2 diferente a P2∞ , interseca a este en un u´ nico punto. Sean (x1 , y1 ) y (x2 , y2 ) puntos en R2 y L0 la recta que pasa por ellos. No es dif´ıcil comprobar que (y1 − y2 )x + (x2 − x1 )y + (x1 y2 − x2 y1 ) = 0, es la ecuaci´on general de L. Luego, si P = [X1 : Y1 : Z1 ] y Q = [X2 : Y2 : Z2 ] son elementos de A2 , representados por (x1 , y1 ) = (X1 /Z1 , Y1 /Z1 ) y (x2 , y2 ) = (X2 /Z2 , Y2 /Z2 ), la recta en R2 que pasa por ellos esta dada por       Y2 X2 Y1 Y1 X2 X1 X1 Y2 − − − x+ y+ = 0, Z1 Z2 Z2 Z1 Z1 Z2 Z2 Z1 o equivalentemente, (Y1 Z2 − Y2 Z1 )x + (X2 Z1 − X1 Z2 )y + (X1 Y2 − X2 Y1 ) = 0. As´ı, la recta L(P, Q) que pasa por los puntos P = [X1 : Y1 : Z1 ] y Q = [X2 : Y2 : Z2 ] en P2 (no necesariamente en A2 ), con P 6= Q, es la recta proyectiva dada por (Y1 Z2 − Y2 Z1 )X + (X2 Z1 − X1 Z2 )Y + (X1 Y2 − X2 Y1 )Z = 0. Es inmediato verificar que esta ecuaci´on puede ser obtenida de calcular el determinante   X Y Z det X1 Y1 Z1  = 0. X2 Y2 Z2 Esta representaci´on se denomina ecuaci´on algebraica de la recta L(P, Q). Ejemplo 5.22. Sea P = [1 : −1 : 1] y Q = [4 : 0 : 2], que representan a los puntos (1, −1) y (2, 0) de R2 , respectivamente. Entonces la recta L(P, Q) est´a dada por   X Y Z 0 = det  1 −1 1  = −2X + 2Y + 4Z = 2(−X + Y + 2Z). 4 0 2 Luego, la recta proyectiva que pasa por P y Q es L[−1 : 1 : 2]. Por otro lado, esto implica que la recta que pasa por (1, −1) y (2, 0) tiene ecuaci´on general −x + y + 2 = 0.

´ ´ PROYECTIVA CAPITULO 5. GEOMETRIA

60

Ejemplo 5.23. Sea P = [1 : −1 : 1] y Q = [2 : 3 : 0]. Como en el ejemplo anterior, P representa a (1, −1), sin embargo Q es un punto del infinito y no representa ning´un punto en R2 . No obstante, la recta L(P, Q) est´a dada por   X Y Z 0 = det  1 −1 1  = −3X + 2Y + 5Z. 2 3 0 Luego, la recta proyectiva que pasa por P y Q es L[−3 : 2 : 5]. Esta recta proyectiva representa en P2 a la recta L0 en R2 que tiene ecuaci´on general −3x + 2y + 5 = 0. Claramente (1, −1) ∈ L0 y notemos que (2, 3) es el vector direcci´on de L0 . El comportamiento de los ejemplos anteriores puede ser probado en general. Proposici´on 5.24. Sean P ∈ A2 , Q ∈ P2 y P0 el punto de R2 que tiene a P como coordenada homog´enea. Considere L la recta proyectiva que pasa por P y Q. Entonces L representa a una recta L0 en R2 y 1. si Q ∈ A2 entonces L0 = L(P0 , Q0 ), donde Q tiene a Q0 como coordenada homog´enea; 2. si Q ∈ P2∞ entonces L0 = L(P, v), donde v = (v1 , v2 ) ∈ R2 es tal que Q = [v1 : v2 : 0]. Demostraci´on. Como P ∈ A2 entonces L = 6 P2∞ y, por tanto, representa a una recta en R2 . Si P = [X1 : Y1 : Z1 ] y Q = [X2 : Y2 : Z2 ] entonces la recta L tiene ecuaci´on (Y1 Z2 − Y2 Z1 )X + (X2 Z1 − X1 Z2 )Y + (X1 Y2 − X2 Y1 )Z = 0, y por lo tanto L0 tiene ecuaci´on general (Y1 Z2 − Y2 Z1 )x + (X2 Z1 − X1 Z2 )y + (X1 Y2 − X2 Y1 ) = 0.

(5.2)

Es inmediato comprobar que P0 = (X1 /Z1 , Y1 /Z1 ) ∈ L0 . Si Q ∈ A2 entonces Q es coordenada homog´enea de Q0 = (X2 /Z2 , Y2 /Z2 ) el cual, mediante un c´alculo de rutina, est´a en L0 . As´ı L0 = L(P, Q). Por otro lado, si Q ∈ P2∞ entonces Z2 = 0 y por (5.2), la ecuaci´on general de L0 ser´ıa (−Y2 Z1 )x + (X2 Z1 )y + (X1 Y2 − X2 Y1 ) = 0, o, equivalentemente, −Y2 x + X2 y +

X1 Y2 − X2 Y1 = 0. Z1

Observamos, de esta ecuaci´on general, que L0 tiene vector direcci´on v = (X2 , Y2 ), lo que prueba la proposici´on.

5.3. RECTAS EN EL PLANO PROYECTIVO

61

Sean P = [X1 : Y1 : Z1 ] y Q = [X2 : Y2 : Z2 ] puntos distintos en P2 y R = [X : Y : Z] ∈ L(P, Q). Entonces   X Y Z det X1 Y1 Z1  = 0, X2 Y2 Z2 y, por lo tanto, los vectores de R3 , (X1 , Y1 , Z1 ), (X2 , Y2 , Z2 ) y (X, Y, Z) son linealmente dependientes. Como P y Q son distintos entonces (X1 , Y1 , Z1 ) y (X2 , Y2 , Z2 ) no son paralelos y, as´ı, son linealmente independientes. Luego deben existir λ, µ ∈ R, no ambos nulos, tales que (X, Y, Z) = λ(X1 , Y1 , Z1 ) + µ(X2 , Y2 , Z2 ). Tomando clase de equivalencia obtenemos h i [X : Y : Z] = λ(X1 , Y1 , Z1 ) + µ(X2 , Y2 , Z2 ) .

(5.3)

Esta u´ ltima ecuaci´on ser´a escrita de ahora en adelante como [X : Y : Z] = λ[X1 : Y1 : Z1 ] + µ[X2 : Y2 : Z2 ],

(5.4)

o, en componentes, X = λX1 + µX2 , Y = λY1 + µY2 ,

(5.5)

Z = λZ1 + µZ2 . Tanto (5.4) o (5.5) ser´an llamadas ecuaciones param´etricas de la recta L(P, Q). Ejemplo 5.25. Sean P = [6 : −4 : 2] y Q = [3 : 2 : −1]. Entonces la recta L(P, Q) tiene ecuaci´on param´etrica [X : Y : Z] = λ[6 : −4 : 2] + µ[3 : 2 : −1]. As´ı, tenemos X = 6λ + 3µ, Y = −4λ + 2µ, Z = 2λ − µ. Observaci´on 5.26. Debemos hacer e´ nfasis que la ecuaci´on (5.4) es un abuso de notaci´on. Estrictamente hablando, la ecuaci´on param´etrica de una recta proyectiva debe escribirse como en la ecuaci´on (5.3). Finalmente, probaremos el resultado principal de esta secci´on. Teorema 5.27. Sean L1 y L2 rectas en P2 . Entonces L1 ∩ L2 6= ∅.

62

´ ´ PROYECTIVA CAPITULO 5. GEOMETRIA

Demostraci´on. Consideremos L1 = L[a1 , b1 , c1 ] y L2 = L[a2 , b2 , c2 ] y sean u = (a1 , b1 , c1 ) y v = (a2 , b2 , c2 . Si u y v son paralelos, entonces [a1 : b1 : c1 ] = [a2 : b2 : c2 ] y, por lo tanto, L1 ∩ L2 = L1 = L2 6= ∅. En caso contrario, definimos w = u × v 6= 0 y escribamos w = (X, Y, Z). Entonces 0 = hu, wi = a1 X + b1 Y + c1 Z

y

0 = hv, wi = a2 X + b2 Y + c2 Z.

Esto muestra que [X : Y : Z] ∈ L1 ∩ L2 . Corolario 5.28. Sean L1 y L2 rectas afines y distintas en P2 y sea R ∈ L1 ∩ L2 . Entonces R ∈ P2∞ si, y solo si, L1 y L2 representan rectas paralelas en R2 . Demostraci´on. Consideremos L1 = L[a1 , b1 , c1 ] y L2 = L[a2 , b2 , c2 ], donde (a1 , b1 ) y (a2 , b2 ) son no nulos. De la demostraci´on del teorema anterior, tenemos que si R = [X : Y : Z] entonces Z = a1 b2 −a2 b1 . Luego, por la proposici´on 1.33, Z = 0 si, y solo si, (a1 , b1 ) y (a2 , b2 ) son paralelos. Esto es equivalente a que las rectas en R2 representadas por L1 y L2 sean paralelas.

Cap´ıtulo 6

C´onicas en el plano proyectivo En este cap´ıtulo, estudiaremos las c´onicas desde el punto de vista de la geometr´ıa proyectiva. Para esto, comenzaremos estableciendo detalles importantes de las c´onicas en el plano cartesiano. Sean ε > 0, L0 una recta en R2 y F0 ∈ P. Una c´onica en el plano es el conjunto   d(P0 , F0 ) C0 = P0 ∈ P : =ε . d(P0 , L0 ) En este caso, llamaremos a ε como la excentricidad de C0 , a L0 como la recta directriz de C0 Figura 6.1: Jean-Victor Poncelet y a F0 como el foco de C0 . Podemos establecer, por definici´on, que si ε < 1 entonces C0 es una elipse, si ε = 1 entonces C0 es una par´abola y si ε > 1 entonces C0 es una hip´erbola. Estas son las llamadas c´onicas usuales. Si escribimos F0 = (x0 , y0 ), L0 = L(a, b, c) y P0 = (x, y) ∈ C, entonces P0 cumplir´a (ax + by + c)2 (x − x0 )2 + (y − y0 )2 = ε2 , a2 + b2 o, escrito de forma polinomial, a11 x2 + 2a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0, donde a2 ε2 , a2 + b2 abε2 =− 2 , a + b2 bcε2 =− 2 − y0 , a + b2

b2 ε2 , a2 + b2 acε2 =− 2 − x0 , a + b2 c2 ε2 =− 2 + x20 + y02 . a + b2

a11 = 1 −

a22 = 1 −

a12

a13

a23

a33 63

64

´ ´ CAPITULO 6. CONICAS EN EL PLANO PROYECTIVO Esto motiva la siguiente definici´on.

Definici´on 6.1. Una c´onica en el plano cartesiano R2 es el lugar geom´etrico de los puntos de R2 que satisfacen una ecuaci´on de la forma a11 x2 + 2a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0.

(6.1)

As´ı, si C0 es una c´onica entonces C0 = {(x, y) ∈ R2 : (x, y) satisface (6.1)}. Adem´as, la ecuaci´on (6.1) ser´a llamada ecuaci´on general de la c´onica. Ahora convertiremos la ecuaci´on (6.1) a coordenadas homog´eneas. Sea (x, y) ∈ C0 , donde C0 es una c´onica, y sea [x1 : x2 : x3 ] su representaci´on en coordenadas homog´eneas. Entonces x = x1 /x3 , y = x2 /x3 y, reemplazando en (6.1), obtenemos x2 x1 x2 x2 x1 x2 a11 21 + 2a12 2 + a22 22 + 2a13 + 2a23 + a33 = 0. x x3 x3 x3 x3 3 Multiplicando por x23 6= 0, a11 x21 + 2a12 x1 x2 + a22 x22 + 2a13 x1 x3 + 2a23 x2 x3 + a33 x23 = 0.

(6.2)

Esto motiva la definici´on de una c´onica en P2 . Definici´on 6.2. Diremos que C en P2 es una c´onica si C tiene la forma C = {[x1 : x2 : x3 ] ∈ P2 : [x1 : x2 : x3 ] satisface (6.2)}. Podemos escribir la ecuaci´on (6.2) de manera matricial como    x1   a11 a12 a13 x1 x2 x3 a12 a22 a23  x2  = 0 a13 a23 a33 x3   a11 a12 a13 Observe que A = a12 a22 a23  es una matriz de orden 3 × 3, sim´etrica, es a13 a23 a33 > decir A = A . Evitaremos el caso trivial en que A sea la matriz nula. Luego, toda c´onica en P2 tiene asociada una matriz 3 × 3 sim´etrica y no nula. Observaci´on 6.3. Para simplificar la notaci´ on, en adelante representaremos a [x1 :   x1 x2 : x3 ] ∈ P2 como el vector columna x2 . De este modo, si P = [x1 : x2 : x3 ] x3 y Q = [x01 : x02 : x03 ] entonces Q = AP ser´a una abreviaci´on de escribir  0    x1 a11 a12 a13 x1 x02  = a12 a22 a23  x2  x03 a13 a23 a33 x3   Adem´as, P > representar´a al vector fila x1 x2 x3 .

65 De este modo, podemos abreviar la notaci´on para las c´onicas. Dada una matriz A de orden 3 × 3 y sim´etrica, la c´onica C en P2 asociada a A est´a dada por C = {P ∈ P2 : P > AP = 0}.   1 0 −1 Ejemplo 6.4. Sea A =  0 1/2 −1. Entonces la c´onica C asociada a A tiene −1 −1 2 ecuaci´on 1 x21 + x22 + 2x23 − 2x1 x3 − 2x2 x3 = 0, 2 que, en coordenadas cartesianas, se escribe como 1 x2 + y 2 + 2 − 2x − 2y = 0. 2 Luego, C representa a la c´onica en R2 con ecuaci´on (x − 1)2 +

(y − 2)2 = 1, 2

√ la cual es una elipse, con centro (h, k) = (1, 2) y semiejes a = 1 y b = 2.   −1 0 0 0 1/2. Entonces la c´onica C asociada a A Ejemplo 6.5. Sea A =  0 0 1/2 0 tiene ecuaci´on −x21 + x2 x3 = 0, que, en coordenadas cartesianas, se escribe como −x2 + y = 0. Luego, C representa a la c´onica en R2 con ecuaci´on y = x2 la cual es una par´abola. No siempre una matriz sim´etrica genera una c´onica en el sentido usual.   1 0 0 Ejemplo 6.6. Sea A = 0 0 0 . Entonces la c´onica C asociada a A tiene 0 0 −1 ecuaci´on x21 − x23 = 0, que, en coordenadas cartesianas, se escribe como x2 − 1 = 0. Si consideramos C = {(x, y) : x2 = 1}, este conjunto es formado por dos rectas verticales en R2 , con ordenadas 1 y −1. Claramente C no una de las c´onicas usuales.

66

´ ´ CAPITULO 6. CONICAS EN EL PLANO PROYECTIVO

  1 0 0 Ejemplo 6.7. Sea A = 0 1 0. Entonces la c´onica C asociada a A tiene ecua0 0 0 ci´on x21 + x22 = 0, que, en coordenadas cartesianas, se escribe como x2 + y 2 = 0. Claramente C = {(x, y) : x2 + y 2 = 0} = {(0, 0)}, es decir, este conjunto es formado por un u´ nico punto de R2 . Para diferenciar cuando una c´onica en P2 representa, o no, a una c´onica usual en R2 , usaremos la matriz asociada a la c´onica. Definici´on 6.8. Sea C una c´onica en P2 y A su matriz asociada. Diremos que C es degenerada si det(A) = 0. En caso contrario, diremos que C es no degenerada. Es inmediato de la definici´on que las c´onicas en los ejemplos 6.6 y 6.7 son degeneradas y las c´onicas de los ejemplos 6.4 y 6.5 son no degeneradas. Este criterior de clasificaci´on de c´onicas es a´un insuficiente, pues incluso c´onicas no degeneradas podr´ıan no representar a ninguna c´onica usual.   1 0 0 Ejemplo 6.9. Sea A = 0 1 0. Entonces la c´onica C asociada a A es no 0 0 1 degenerada y tiene ecuaci´on x21 + x22 + x23 = 0. que, en coordenadas cartesianas, se escribe como x2 + y 2 + 1 = 0. Luego, C = {(x, y) : x2 +y 2 +1 = 0} = ∅, es decir, la c´onica asociada a la matriz identidad es no degenerada, sin embargo, no representa a ninguna c´onica usual.

6.1.

El polo y la recta polar

Definici´on 6.10. Sea C una c´onica en P2 , con matriz asociada A. Diremos que P y Q en P2 son C-conjugados (o conjugados respecto de C) si P > AQ = 0.

6.1. EL POLO Y LA RECTA POLAR

67

Es inmediato de la definici´on que P ∈ P2 es conjugado con si mismo, respecto de una c´onica C, si, y solamente si, P ∈ C. Adem´as, como A es sim´etrica, la relaci´on de conjugaci´on es sim´etrica, pues P > AQ = Q> AP. Por otro lado, si H ∈ P2 es tal que AH = 0, entonces todo punto Q ∈ P2 es conjugado con H, en particular H es conjugado con si mismo, luego H ∈ C. A los puntos H tales que AH = 0 los llamaremos puntos singulares de C. As´ı, dado P ∈ P2 , el conjunto de los puntos conjugados a P respecto de C es {Q ∈ P2 : Q> AP = 0}. Si P no es punto singular de C y consideramos N = AP ∈ P2 , N = [a : b : c], entonces podemos representar el conjunto anterior como {[X : Y : Z] ∈ P2 : aX + bY + cZ = 0}, el cual es claramente una recta, que llamaremos recta polar de P . Definici´on 6.11. Sea C una c´onica y sea P ∈ C no singular. La recta polar de P es el conjunto de los puntos Q ∈ P2 conjugados a P respecto de C. Denotaremos esta recta como LC (P ), es decir, LC (P ) = {Q ∈ P2 : Q> AP = 0}. Ahora procedamos de manera inversa, es decir, dada una recta proyectiva ver si es la polar de alg´un punto en P2 . Definici´on 6.12. Sea C una c´onica. Dada una recta L en P2 , diremos que P es el polo de L, respecto de C, si L = LC (P ). Dado P ∈ P2 un punto no singular de una c´onica C, es f´acil calcular su recta polar, basta determinar N = AP . Sin embargo, para determinar el polo P = [X : Y : Z] de una recta L = L[a : b : c] tendr´ıamos que resolver el sistema lineal de tres variables a11 X + a12 Y + a13 Z = a, a12 X + a22 Y + a23 Z = b,

(6.3)

a13 X + a23 Y + a33 Z = c, el cual podr´ıa no tener soluci´on. Esto no ocurre en el caso de c´onicas no degeneradas, pues como det(A) 6= 0 entonces el sistema lineal (6.3) tiene soluci´on, que adem´as es u´ nica. Esto muestra que para el caso de c´onicas no degeneradas, el polo de una recta siempre existe y es u´ nico.

´ ´ CAPITULO 6. CONICAS EN EL PLANO PROYECTIVO

68

Ejemplo 6.13.  Consideremos lac´onica C dada en el ejemplo 6.4, que tiene matriz 1 0 −1 asociada A =  0 1/2 −1, y consideremos P = [1 : 2 : 1]. Entonces la −1 −1 2 recta polar de P est´a dada por N = AP = [0 : 0 : −1] = [0 : 0 : 1], es decir, LC (P ) = P2∞ . Es decir, la recta polar de P , respecto de C, es la recta del infinito. Luego, el polo de la recta del infinito, respecto de la elipse C, es P . Ejemplo 6.14.  Consideremos lac´onica C dada en el ejemplo 6.5, que tiene matriz −1 0 0 0 1/2, y consideremos P = [2 : 4 : 1]. Entonces la asociada A =  0 0 1/2 0 recta polar de P est´a dada por N = AP = [−2 : 1/2 : 2] = [−4 : 1 : 4], es decir, LC (P ) tiene ecuaci´on general −4X + Y + 4Z = 0. Es decir, la recta polar de P , respecto de C, es representada en R2 por la recta L0 con ecuaci´on normal y = 4x − 4. Observe que L0 es la recta tangente a la par´abola con ecuaci´on y = x2 en (2, 4). Proposici´on 6.15. Sean C una c´onica no degenerada, L una recta proyectiva y P ∈ P2 . Si P ∈ L entonces el polo de L pertenece a la recta polar de P . Demostraci´on. Como C es no degenerada entonces L tiene un polo Q ∈ P2 . Como P ∈ L = LC (Q) entonces P y Q son conjugados. Luego Q ∈ LC (P ), es decir, el polo de L pertenece a la polar de P . Corolario 6.16. Sea C una c´onica no degenerada y L una recta proyectiva. Entonces las rectas polares, respecto de C, de todos los puntos de L se intersecan en un u´ nico punto, el cual es el polo de L. Demostraci´on. Como el polo de L existe entonces, por la proposici´on anterior, el polo de L pertenece a todas las rectas polares de los puntos de L. Sea Q ∈ P2 que pertenece a toda recta polar de puntos de L. Entonces todo punto de L es conjugado a Q, es decir, LC (Q) = L. Como el polo de L es u´ nico entonces Q debe ser el polo de L.

6.2.

Posici´on relativa de una recta y una c´onica

6.2.1.

La ecuaci´on cuadr´atica homog´enea de dos variables

Queremos encontrar las soluciones de la ecuaci´on cuadr´atica homog´enea ax2 + 2bxy + cy 2 = 0,

(6.4)

donde a, b, c ∈ R son constantes. Observe que (x, y) = (0, 0) siempre es soluci´on de este tipo de ecuaci´on, por lo que llamaremos a esta soluci´on como soluci´on trivial. Adem´as, si (x, y) es soluci´on de (6.4) entonces, para cualquier t ∈ R, (tx, ty) tambi´en es soluci´on. Por ende, si dos soluciones son una m´ultiplo de otra, ser´an consideradas iguales, en caso contrario, diremos que son independientes.

´ RELATIVA DE UNA RECTA Y UNA CONICA ´ 6.2. POSICION

69

Caso I: a = 0 En este caso, la ecuaci´on (6.4) toma la forma y(2bx + cy) = 0, cuyas soluciones son (1, 0) y (c, −2b) (o cualquier m´ultiplo de ellos). As´ı, tenemos 1. si b = 0 y c = 0 entonces todo (x, y) ∈ R2 es soluci´on de (6.4); 2. si b = 0 y c 6= 0 entonces (c, −2b) = c(1, 0). Luego, solo tendremos una soluci´on independiente (x, y) = (1, 0); 3. si b 6= 0, entonces tenemos dos soluciones independientes (1, 0) y (c, −2b). Caso II: a 6= 0 En este caso, tenemos que (6.4) no posee ninguna soluci´on no trivial de la x forma (x, 0), x ∈ R. Luego podemos hacer el cambio de variable t = y obtener y at2 + 2bt + c = 0. Usando la f´ormula de las ra´ıces de una ecuaci´on cuadr´atica, obtenemos ! ! √ √ −b + b2 − ac −b − b2 − ac 2 0 = at + 2bt + c = a t − t− , a a es decir, (ax + (b −

p p b2 − ac)y)(ax + (b + b2 − ac)y) = 0.

Definamos ∆ = b2 − ac, tenemos tres posibilidades, 1. si ∆ > √ 0 entonces tenemos dos soluciones independientes: (b − (b + ∆, −a);



∆, −a) y

2. si ∆ = 0 entonces tenemos una soluci´on independiente: (b, −a); 3. si ∆ < 0 entonces (6.4) no posee soluciones no triviales, de hecho, (6.4) puede escribirse como el polinomio irreducible (ax + by)2 + (ac − b2 )y 2 = 0. Observaci´on 6.17. Observe que podemos unificar los casos I y II mediante el uso del discriminante ∆ = b2 − ac. Si a = b = c = 0 entonces la ecuaci´on (6.4) posee infinitas soluciones independientes. En caso contrario, 1. si ∆ > 0 entonces (6.4) posee dos soluciones independientes; 2. si ∆ = 0 entonces (6.4) posee una soluci´on independiente; 3. si ∆ < 0 entonces (6.4) no posee soluciones independientes.

´ ´ CAPITULO 6. CONICAS EN EL PLANO PROYECTIVO

70

6.2.2.

Intersecci´on de una recta y una c´onica

Sea C una c´onica con matriz asociada A y L = L(P, Q) la recta que pasa por los puntos P y Q de P2 , P y Q arbitrarios pero distintos. Queremos estudiar la intersecci´on entre C y L. Para esto, un elemento R ∈ C ∩ L debe satisfacer R> AR = 0, R = αP + βQ, para ciertos α, β ∈ R, (α, β) 6= (0, 0). Combinando ambas ecuaciones obtenemos el sistema cuadr´atico 0 = (αP + βQ)> A(αP + βQ) = α2 P > AP + 2αβP > AQ + β 2 Q> AQ.

(6.5)

En el caso que P > AP = 0, se desprenden tres posibilidades. 1. Si P > AQ = 0 y Q> AQ = 0, entonces cualquier (α, β) 6= (0, 0) es soluci´on de (6.5). Esto implica que L ⊂ C. 2. Si P > AQ = 0 y Q> AQ 6= 0, entonces la u´ nica soluci´on independiente (α, β) = (1, 0) da lugar a R = P , es decir, C ∩ L = {P }. 3. Si P > AQ 6= 0 entonces tenemos dos soluciones independientes: (α, β) = (1, 0), que da lugar al punto R = P , y (α, β) = (Q> AQ, −2P > AQ), que da lugar a un punto R 6= P . Esto significa que C ∩ L est´a formado por dos puntos P, R en L, donde R = Q si Q ∈ C, es decir C ∩ L = {P, R}. Ahora supongamos que P > AP 6= 0. Entonces analizamos el discriminante ∆ = (P > AQ)2 − P > AP · Q> AQ. As´ı, consideremos tres posibilidades: 1. si ∆ > 0, tenemos dos soluciones independientes. Cada una de estas soluciones generan puntos R1 y R2 en L, R1 6= R2 . En este caso, tenemos C ∩ L = {R1 , R2 }. 2. Si ∆ = 0 tenemos una u´ nica soluci´on independiente. Esta genera un u´ nico punto R ∈ L. En este caso, C ∩ L = {R}. 3. Si ∆ < 0, la ecuaci´on (6.5) no posee soluciones reales. Luego C ∩ L = ∅. Ejemplo 6.18. Consideremos la c´onica C dada por x21 + x22 − 25x33 = 0 y la recta que pasa por los puntos (0, 0) y (8, 6) de R2 . Estos puntos se representan en P2 como [0 : 0 : 1] y [8 : 6 : 1], que claramente no pertenecen a la c´onica. Adem´as, la matriz asociada a la c´onica es   1 0 0 0 . A = 0 1 0 0 −25

6.3. PROPIEDADES GENERALES DE MATRICES DE ORDEN TRES

71

Con estos datos, P > AP = −25, P > AQ = −25 y Q> AQ = 75, luego, la ecuaci´on (6.5) se escribe como −25α2 − 50αβ + 75β 2 = −25(α2 + 2αβ − 3β 2 ) = −25(α − β)(α + 3β) = 0. Esto implica que hay dos puntos de intersecci´on R1 = 1 · P + 1 · Q = [8 : 6 : 2] = [4 : 3 : 1] y R2 = −3 · P + 1 · Q = [8 : 6 : −2] = [−4 : −3 : 1], que representan a los puntos (4, 3) y (−4, −3) de R2 .   1 0 0 Ejemplo 6.19. Sea la c´onica C, cuya matriz asociada es A = 0 −1 0, y 0 0 0 consideremos P = [1 : 1 : 1] y Q = [2 : 2 : −1]. En este caso, P > AP = Q> AQ = 0, luego P, Q ∈ C. Adem´as, se verifica que P > AQ = 0. Luego, la recta L que pasa por P y Q est´a contenida en C. Concluimos la secci´on presentando un resumen de estos resultados en el cuadro 6.1. P > AQ 6= 0 P ∈C

P ∈ /C

P > AQ

=0

C ∩ L = {P, R}

Q> AQ 6= 0

C ∩ L = {P }

Q> AQ = 0

L⊂C

∆>0

C ∩ L = {R1 , R2 }

∆=0

C ∩ L = {R}

∆ ) = 1, es decir, rc (A) = 3.   −1 1 2     Ejemplo 6.21. Consideremos ahora A = −3 3 6  y observemos que to  1 −1 −2 das las filas de A son paralelas a (−1, 1, 2) y todas las columnas de A son paralelas a (−1, −3, 1). Luego rf (A) = rc (A) = 1. En general, tenemos la siguiente proposici´on. Proposici´on 6.22. Para cualquier matriz A ∈ R3×3 , rf (A) = rc (A). As´ı, en adelante denotaremos por r(A) al rango de A (ya sea por filas o columnas). Dada una matriz A = [aij ] ∈ R3×3 , los menores de A son los n´umeros Mij definidos como determinante de la matriz 2 × 2 que se obtiene Mij = . de quitar a A la fila i y la columna j       a22 a23 a12 a13 a11 a13 , M21 = det  , M32 = det  y Por ejemplo, M11 = det  a32 a33 a32 a33 a21 a23   a11 a12 . En total una matriz 3 × 3 posee nueve menores. A los meM33 = det  a21 a22 nores M11 , M22 y M33 se les denomina menores principales de A. Recordemos

6.3. PROPIEDADES GENERALES DE MATRICES DE ORDEN TRES

73

que, para el c´alculo del determinante de A, utilizamos los cofactores de A, que son los menores multiplicados por un signo que depende de la posici´on del menor, especificamente, Aij = (−1)i+j Mij . Por ejemplo, A12 = −M12 . Podemos utilizar los cofactores de una matriz para formar una nueva matriz, la matriz adjunta. Definici´on 6.23. Sea A ∈ R3×3 una matriz. La matriz adjunta (cl´asica) de A es la matriz   A11 A21 A31     adj(A) = [Aji ] = A12 A22 A32  .   A13 A23 A33 La matriz adjunta provee una f´ormula para la inversa de una matriz. Teorema 6.24. Para cualquier matriz A ∈ R3×3 , tenemos A · adj(A) = det(A) · I, donde I es la matriz identidad. En particular, si A es invertible, entonces A−1 =

1 adj(A). det(A)

Observaci´on 6.25. Es usual en la literatura denotar por Aij a los menores de una matriz A y por Cij a los cofactores. Sin embargo, no seguiremos esta notaci´on para estar de acuerdo con el libro de Granero. Teorema 6.26. Sea A ∈ R3×3 . Son equivalentes 1. A es invertible, es decir, existe matriz B tal que AB = BA = I; 2. det(A) 6= 0; 3. r(A) = 3; 4. si x ∈ R3 es tal que Ax = 0 entonces x = 0; 5. para cualquier b ∈ R3 , el sistema Ax = b posee soluci´on u´ nica. Si A satisface alguna de las propiedades anteriores (por lo tanto, todas) ser´a llamada matriz no singular. En caso contrario, A ser´a llamada matriz singular. Por 4., para una matriz singular A, existe x ∈ R3 , x 6= 0, tal que Ax = 0, que ser´a llamado punto singular de A. En caso A sea singular, podemos usar los menores de A para determinar su rango.

74

´ ´ CAPITULO 6. CONICAS EN EL PLANO PROYECTIVO

Proposici´on 6.27. Sea A ∈ R3×3 una matriz singular, no nula. Entonces r(A) = 2 si, y solo si, alguno de sus menores es no nulo. Del mismo modo, r(A) = 1 si, y solo si, todos sus menores son nulos. Finalmente, en el caso de una matriz singular de rango dos, probaremos cierto sentido de unicidad de los puntos singulares. Proposici´on 6.28. Sea A ∈ R3×3 , de rango dos. Entonces existe x ∈ R3 , x 6= 0, tal que Ax = 0. Adem´as, cualquier otro x0 ∈ R3 con esta propiedad, es paralelo a x. Demostraci´on. Sean a1 , a2 , a3 los vectores fila de A. Sin perdida de generalidad, podemos suponer que a1 y a2 son linealmente independientes, luego a3 es combinaci´on lineal de a1 y a2 . Definamos x = a1 × a2 , entonces las componentes de Ax son los productos internos ha1 , xi, ha2 , xi y ha3 , xi. Por definici´on de x, tenemos ha1 , xi = ha2 , xi = 0 y, como a3 es combinaci´on lineal de a1 y a2 , tambi´en se tiene ha3 , xi = 0. As´ı, Ax = 0. Por otro lado, cualquier x0 ∈ R3 tal que Ax0 = 0 cumple ha1 , x0 i = ha2 , x0 i = ha3 , x0 i = 0, es decir, x0 es ortogonal a a1 y a2 , por lo tanto, debe ser paralelo a a1 × a2 = x. Finalmente, por medio de la matriz adjunta, podemos obtener una f´ormula para el punto singular de una matriz. Proposici´on 6.29. Sea A ∈ R3×3 una matriz de rango dos, y sean a1 , a2 y a3 sus filas. Si ai y aj , i 6= j, son linealmente independientes, entonces v = (A1k , A2k , A3k ), es no nulo, y es un punto singular de A, para k 6= i, j. Por ejemplo, si las filas a1 y a2 son linealmente independientes entonces v = (A13 , A23 , A33 ) es un punto singular de A.

6.4.

Clasificaci´on de las c´onicas degeneradas

En esta secci´on clasificaremos a las c´onicas que poseen una matriz asociada singular, es decir, a las c´onicas degeneradas. Por el teorema 6.26, la matriz asociada a una c´onica degenerada puede tener rango uno o dos. Estudiaremos estos dos casos por separado.

6.4.1.

C´onicas con matriz de rango uno

Sea C una c´onica en P2 tal que su matriz asociada A posea rango uno. Luego, por la proposici´on 6.27, todos los menores de A son nulos, en particular los menores principales A11 , A22 y A33 . Escribamos   a11 a12 a13     A = a12 a22 a23  ,   a13 a23 a33

´ DE LAS CONICAS ´ 6.4. CLASIFICACION DEGENERADAS

75

luego, A11 = A22 = A33 = 0, es decir a22 a33 = a223 ,

a11 a33 = a213 ,

a11 a22 = a212 .

(6.6)

Esto muestra que a11 , a22 y a33 poseen el mismo signo, pues de otro modo, tendr´ıamos que alguno de los cuadrados a223 , a213 o a212 ser´ıa negativo. Luego, sin perdida de generalidad, podemos suponer que aii ≥ 0, para i = 1, 2, 3. As´ı, denotemos √ αi = aii . Tomando ra´ız cuadrada en (6.6), y usando la notaci´on anterior, obtenemos α2 α3 = |a23 |,

α1 α3 = |a13 |,

α1 α2 = |a12 |,

y, por lo tanto, a23 = ±|a23 | = ±α2 α3 , a13 = ±|a13 | = ±α1 α3 , a12 = ±|a12 | = ±α1 α2 . Ahora, reemplazando en la ecuaci´on general de la c´onica, tenemos 0 = a11 x21 + 2a12 x1 x2 + a22 x22 + 2a13 x1 x3 + 2a23 x2 x3 + a33 x23 = α12 x21 ± 2α1 α2 x1 x2 + α22 x22 ± 2α1 α3 x1 x3 ± 2α2 α3 x2 x3 + α32 x23 = (±α1 x1 ± α2 x2 ± α3 x3 )2 , donde los signos de cada αi dependen de los signos de cada aij , con i 6= j. Concluimos que la c´onica en este caso es una recta, con ecuaci´on general ±α1 x1 ± α2 x2 ± α3 x3 = 0. Dado que la ecuaci´on general de dicha recta est´a elevada al cuadrado, se dice que esta recta es una recta doble o de multiplicidad dos.   0 0 0     Ejemplo 6.30. Sea la c´onica C con matriz A = 0 1 −1, la cual claramente   0 −1 1 es de rango uno. En este caso, su ecuaci´on general es 0 = x22 − 2x2 x3 + x23 = (x2 − x3 )2 . En este caso, la c´onica es dada por la recta x2 = x3 , de multiplicidad dos.   1 1 2     Ejemplo 6.31. Sea la c´onica C con matriz A = 1 1 2. En este caso, su   2 2 4 ecuaci´on general es 0 = x21 − 2x1 x2 + x22 + 4x23 − 4x1 x3 − 4x2 x3 = (x1 − x2 + 2x3 )2 . En este caso, la c´onica es dada por la recta x1 − x2 + 2x3 = 0, de multiplicidad dos.

´ ´ CAPITULO 6. CONICAS EN EL PLANO PROYECTIVO

76

6.4.2.

C´onicas con matriz de rango dos

Sea una C una c´onica con matriz asociada A tal que r(A) = 2. Por la proposici´on 6.28, existe x ∈ R3 , u´ nico salvo vectores paralelos, tal que Ax = 0. Definiendo H = [x], donde [ · ] denota la clase de equivalencia definida en la secci´on 5.2, tenemos que H es el u´ nico punto singular de la c´onica C. La caracterizaci´on de C entonces resultar´a del siguiente teorema. Teorema 6.32. Sea C una c´onica con matriz asociada de rango dos y H ∈ P2 su u´ nico punto singular. 1. Para cualquier P ∈ C, P 6= H, la recta que pasa por P y H est´a contenida completamente en C. 2. Para cualquier P ∈ / C, la recta que pasa por P y H solo corta a la c´onica en H. 3. Para todo par de puntos P, Q ∈ C, no colineales con H, la recta que pasa por P y Q corta a la c´onica C u´ nicamente en P y Q. Demostraci´on. 1. Como P ∈ C, H ∈ C y AH = 0 entonces P > AH = 0 y, por lo visto en el cuadro 6.1, L(P, H) ⊂ C. 2. Por el cuadro 6.1, esto ocurre pues ∆ = (P > AH)2 − P > AP · H > AH, = (P > 0)2 − P > AP · 0, = 0. 3. Como P y Q no son colineales con H, en particular, ambos son distintos de H. Nuevamente nos referimos al cuadro 6.1 para observar que basta probar que P > AQ 6= 0. Supongamos, por el contrario, que P > AQ = 0, luego Q ∈ LC (P ). Sin embargo, esto no es posible pues P > AH = P > 0 = 0, es decir H ∈ LC (P ), que har´ıa que P , Q y H sean colineales. Proposici´on 6.33. Sea P ∈ C, P 6= H, y sea R no conjugado con P . Entonces la recta que pasa por P y R corta a la c´onica en otro punto Q ∈ C, distinto de P . Adem´as, P , Q y H no son colineales. As´ı, tenemos dos posibilidades para C: C = {H} o existe P ∈ C, P 6= H, es decir, P no es un punto singular de C. Esto significa que la recta polar LC (P ) est´a bien definida y podemos encontrar un punto fuera de ella. Luego, por la proposici´on anterior, tenemos que existe Q ∈ C, distinto de P , tal que P , Q y H no son colineales. Por el teorema anterior, la recta que pasa por P y Q corta a la c´onica u´ nicamente en P y Q y, m´as aun, las dos rectas que unen P y Q con H,

´ DE CONICAS ´ ´ CON X3 = 077 6.5. CLASIFICACION MEDIANTE SU INTERSECCION respectivamente, est´an contenidas en C. Falta probar la otra inclusi´on. Sea R ∈ C que no est´e en alguna de las dos rectas. Entonces la recta que une P y R cortar´ıa a la c´onica en P , R y en la recta que une Q con H, lo cual contradice el teorema anterior. Concluimos que, en este caso, una c´onica formada por m´as de un punto es una uni´on de dos rectas distintas, concurrentes en el punto singular.

6.5.

Clasificaci´on de c´onicas mediante su intersecci´on con x3 = 0

Es posible clasificar las c´onicas proyectivas mediante su cantidad de puntos del infinito. Para esto aplicaremos lo visto en la secci´on 6.2 para el caso particular de L = P2∞ , que tiene ecuaci´on general x3 = 0. Sea C una c´onica, no necesariamente no degenerada con ecuaci´on general a11 x21 + 2a12 x1 x2 + a22 x22 + 2a13 x1 x3 + 2a23 x2 x3 + a33 x23 = 0. Entonces haciendo x3 = 0, tenemos la ecuaci´on a11 x21 + 2a12 x1 x2 + a22 x22 = 0,

(6.7)

que es un caso particular de la ecuaci´on (6.4). En este caso, observe que ∆ = a212 − a11 a22 = −A33 . Por lo visto en la secci´on 6.2 y en particular la observaci´on 6.17, tenemos 1. si a11 = a12 = a13 = 0 entonces todo (x1 , x2 ) es soluci´on de (6.7), es decir, 2 ⊂ C; P∞ 2. si A33 > 0 entonces ∆ < 0 y C no posee puntos de intersecci´on con P2∞ , en este caso diremos que C es una elipse; 3. si A33 = 0 entonces ∆ = 0 y C posee un punto de intersecci´on con P2∞ , en este caso diremos que C es una par´abola; 4. si A33 < 0 entonces ∆ > 0 y C posee dos puntos de intersecci´on con P2∞ , en este caso diremos que C es una hip´erbola.

6.6.

C´onicas imaginarias

Hasta ahora, el primer intento de clasificar las c´onicas ha sido mediante su matriz asociada, es decir, dividiendo las c´onicas en “no degeneradas” y “degeneradas”. Intuitivamente se espera que las c´onicas degeneradas sean las c´onicas no usuales, mientras que las no degeneradas sean las c´onicas cl´asicas (elipse, par´abola e hip´erbola). Sin embargo, incluso no todas las c´onicas no degeneradas son las c´onicas usuales, por ejemplo, la c´onica x21 +x22 +x23 = 0, cuya matriz asociada es la matriz identidad. Esta c´onica no posee puntos en P2 , como f´acilmente se verifica. Para detectar este tipo de c´onicas definiremos a las c´onicas imaginarias.

78

´ ´ CAPITULO 6. CONICAS EN EL PLANO PROYECTIVO

Definici´on 6.34. Diremos que una c´onica C es imaginaria si C = {H}, con H punto singular de C, en caso C sea degenerada; o C = ∅, si C es no degenerada. Ejemplo 6.35. Las c´onicas dadas por las ecuaciones x21 +x22 +x23 = 0 y x21 +x22 = 0 son imaginarias, siendo la primera no degenerada y la segunda degenerada. En el segundo caso, la c´onica posee como u´ nico punto su punto singular H = [0 : 0 : 1]. Para detectar este tipo de c´onicas, consideraremos las rectas horizontales y = k y daremos condiciones para que ninguna (excepto quiz´as una) de estas rectas interseque a la c´onica. Sea C una c´onica, con ecuaci´on general a11 x21 + 2a12 x1 x2 + a22 x22 + 2a13 x1 x3 + 2a23 x2 x3 + a33 x23 = 0. Consideremos las rectas de la forma y = k que en coordenadas homog´eneas tienen la forma x2 = kx3 . Reemplazando en la ecuaci´on general de la c´onica tenemos a11 x21 + 2a12 kx1 x3 + a22 k 2 x23 + 2a13 x1 x3 + 2a23 kx23 + a33 x23 = 0, que puede escribirse como a11 x21 + 2(a12 k + a13 )x1 x3 + (a22 k 2 + 2a23 k + a33 )x23 = 0, El discriminante de esta ecuaci´on es ∆k = (a12 k + a13 )2 − a11 (a22 k 2 + 2a23 k + a33 ) = a212 k 2 + 2a12 a13 k + a213 − a11 a22 k 2 − 2a11 a23 k − a11 a33 = −(a11 a22 − a212 )k 2 + 2(a12 a13 − a11 a23 )k − (a11 a33 − a213 ) = −A33 k 2 + 2A23 k − A22 . Para que la c´onica C sea imaginaria, imponemos la condici´on ∆k < 0, para todo k ∈ R (excepto quiz´as uno, en caso C sea degenerada), es decir A33 k 2 − 2A23 k + A22 > 0,

(6.8)

para todo k ∈ R, excepto quiz´as uno. Consideremos e = A223 − A22 A33 = −a11 det(A). ∆ Luego tenemos varias posibilidades. 1. Si A33 < 0 entonces para k suficientemente grande tendremos A33 k 2 − 2A23 k + A22 < 0. Luego, C es una hip´erbola y no es imaginaria. 2. Si A33 = 0 y A23 6= 0, entonces, dependiendo del signo de A23 , tendremos −2A23 k + A22 < 0, para k suficientemente positivo (o negativo). En este caso C es una par´abola, pero tampoco es imaginaria.

´ 6.7. RECTA TANGENTE A UNA CONICA

79

e = −a11 det(A) = 0 y, por 3. Si A33 = 0 = A23 , entonces A22 > 0. Luego ∆ lo tanto C es degenerada, pues, en caso a11 = 0 entonces A22 = −a213 ≤ 0. Luego C es una par´abola imaginaria. e = 0, entonces C es degenerada pues, si a11 = 0 entonces 4. Si A33 > 0 y ∆ 2 A33 = −a12 ≤ 0. En este caso, C es una elipse imaginaria degenerada. e < 0, entonces C es una elipse imaginaria no degenerada. 5. Si A33 > 0 y ∆

6.7.

Recta tangente a una c´onica

Dada una c´onica C no degenerada, queremos determinar cuando una recta L es tangente a C. Por lo visto en la secci´on 6.2, esto se dar´a cuando C y L se intersequen en un punto, u´ nicamente. Definici´on 6.36. Diremos que una recta L es tangente a la c´onica no degenerada C si existe R ∈ P2 tal que C ∩ L = {R}. Ahora, mostraremos la relaci´on existente entre la recta tangente a una c´onica con la recta polar. Teorema 6.37. Sea C una c´onica no degenerada, y sea P ∈ C. Entonces la recta tangente a C en el punto P es la recta polar LC (P ). Demostraci´on. Sea Q ∈ P2 distinto de P , y sea L la recta que pasa por P y Q. Por lo visto en el cuadro 6.1 de la secci´on 6.2, L intersecar´a a C u´ nicamente en el punto P si, y solamente si, P > AQ = 0. Esto equivale a decir que Q ∈ LC (P ). Teorema 6.38. Sea C una c´onica no degenerada, sea P ∈ / C y L una recta que pasa por P . Entonces L es tangente a C si y solamente si L pasa por una intersecci´on de C con LC (P ). Demostraci´on. Supongamos que L es tangente a C y sea Q ∈ L el punto de tangencia. Luego Q ∈ C y, por lo tanto, Q 6= P . Por el cuadro 6.1 de la secci´on 6.2, tenemos que ∆ = 0, es decir, (P > AQ)2 = P > AP · Q> AQ = 0, es decir, Q ∈ LC (P ). Rec´ıprocamente, supongamos que L pasa por Q ∈ C ∩ LC (P ). Entonces el discriminante asociado a la intersecci´on de L con C es ∆ = (P > AQ)2 − P > AP · Q> AQ = 02 − (P > AP ) · 0 = 0. Esto implica que L es tangente a C.