UNIDAD 1

S.E.P. S.N.E.S.T. D.G.E.S.T ESPECIALIDAD: ING. CIVIL MATERIA: FUNDAMENTOS DE MACANICA DE LOS MEDIOS CONTINUOS TEMA: U

Views 189 Downloads 69 File size 1MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

S.E.P.

S.N.E.S.T.

D.G.E.S.T

ESPECIALIDAD: ING. CIVIL MATERIA: FUNDAMENTOS DE MACANICA DE LOS MEDIOS CONTINUOS TEMA: UIDAD I. FUNDAMENTOS MATEMATICOS PRESENTA:

CATEDRATICO:

SEMESTRE: 5º GRUPO: “G”

JUCHITAN DE ZARAGOZA, OAX. A DICIEMBRE DE 2017

CONTENIDO

INTRODUCCION

UNIDAD I Fundamentos matemáticos 1.1

Notación indical.

1.2

Operaciones de tensores.

1.3

Métodos para el calculo de valores y vectores propios.

1.4

Gradiente, divergencia y rotacional.

1.5

Teoremas de Green y Stokes.

CONCLCION BIBLIOGRAFIA

INTRODUCCION

Matemática es el estudio de los sistemas que consisten de objetos elementales, cuya naturaleza ha de ser exacta y no tener doble sentido (dos objetos pueden ser iguales o diferentes, conectados o no, cualquier operación ha de dar el resultado exacto etc.). Matemática puede ser vista como “la ciencia de todos los mundos posibles” (mundos de objetos exactos). En estos temas se abarca lo principal en cuanto al movimiento y equilibrio de la una partícula o objeto cundo se le aplica esfuerzos en diferentes puntos y diferente dirección con fuerzas variables. Matemática se divide en distintas ramas, las bases internas o externas de cualquier trabajo matemático que pueden estar formalizadas como teorías axiomáticas. Cada teoría es un estudio de un cierto sistema(mundo) de objetos llamado el modelo de esa teoría. Aunque cada modelo de teoría puede ser sólo una de sus posibles interpretaciones entre otros modelos igual de legítimos. Por ejemplo, digamos que todas las hojas de papel son el sistema de puntos materiales, los modelos de la misma teoría de la geometría plana euclidiana, pero independientes entre sí.

UNIDAD I.- Fundamentos matemáticos Los Fundamentos de la matemática es el estudio de conceptos matemáticos básicos como números, figuras geométricas, conjuntos, funciones, etc. y cómo forman jerarquías de estructuras y conceptos más complejos, especialmente las estructuras fundamentalmente importantes que forman el lenguaje de la matemática: fórmulas, teorías y sus modelos, dando un significado a las fórmulas, definiciones, pruebas, algoritmos, etc. también llamados conceptos metamatemáticas, con atención a los aspectos filosóficos y la unidad de la matemática. La búsqueda por los fundamentos de la matemática es una pregunta central de la filosofía de las matemáticas; la naturaleza abstracta de los objetos matemáticos presenta desafíos filosóficos especiales. Los fundamentos de la matemática como un todo no apuntan a contener los fundamentos de cada tópico matemático. Generalmente, los fundamentos de un campo de estudio se refieren a un análisis más o menos sistemático de sus conceptos más básicos, su unidad conceptual y su ordenamiento natural o jerarquía de conceptos, los cuales podrían ayudar a conectarlos con el resto del conocimiento humano. El desarrollo, surgimiento y aclaración de los fundamentos puede aparecer tarde en la historia de un campo, y podría no ser visto por algunos como su parte más interesante. Las matemáticas siempre jugaron un rol especial en el pensamiento científico, sirviendo desde tiempos antiguos como modelo de verdad y rigor para la inquisición racional, dando herramientas o incluso fundamentos para otras ciencias (especialmente la física). Pero la matemática ya hacía abstracciones muy elevadas en el siglo XIX, que trajeron paradojas y nuevos desafíos, exigiendo un examen más profundo y sistemático de la naturaleza y del criterio de la verdad matemática, así como también una unificación de las diversas ramas de la matemática en un todo coherente. La búsqueda sistemática de los fundamentos de la matemática empezó al fin del siglo XIX, y formó una disciplina matemática nueva llamada lógica matemática, con fuertes vínculos con la ciencia de la computación teórica. Fue mediante una serie de crisis con resultados paradójicos, que los descubrimientos se estabilizaron durante el siglo XX con un amplio y coherente cuerpo de conocimiento matemático con muchísimos aspectos o componentes (teoría de conjuntos, teoría de modelos, teoría de pruebas...), cuyas detalladas propiedades y posibles variantes aún están en campo de investigación. Su alto nivel de sofisticación técnica inspiró a muchos filósofos a conjeturar que podrían servir como modelo para los fundamentos de otras ciencias.

1.1. Notación indicial. El convenio de sumación de Einstein, notación de Einstein o notación indicial a la convención utilizada para abreviar la escritura de sumatorios, en el que se suprime el símbolo de sumatorio (representado con la letra griega sigma - Σ). El convenio fue introducido por Albert Einstein en 1916. Se aplica en matemáticas en especial a los cálculos realizados en álgebra lineal destinados a la física. El convenio se aplica sólo a sumatorias sobre índices repetidos. El convenio se usa especialmente con tensores donde es muy frecuente la operación de suma sobre índices repetidos y sería muy fatigoso escribir explícitamente los signos de sumatorios. Definición. Dada una expresión lineal en términos de forma explícita:

en la que se escriben todos sus

𝒖 = 𝑢1 𝑥1 + 𝑢2 𝑥2 + ⋯ + 𝑢𝑛 𝑥𝑛 Esta puede expresarse convencionalmente como el sumatorio: 𝑛

𝒖 = ∑ 𝑢𝑖 𝑥𝑖 𝑖=1

La notación de Einstein obtiene una expresión aún más condensada eliminando el signo de sumatorio y entendiendo que en la expresión resultante un índice indica suma sobre todos los posibles valores del mismo. 𝒖 = 𝑢𝑖 𝑥𝑖 Índice. Un índice utilizado en la notación de Einstein puede aparecer en forma de producto hasta dos veces en mismo término de una expresión, por lo que las siguientes expresiones son válidas: 𝑘𝑖 𝑥𝑖 𝑽𝑖 = 𝑢𝑖𝑗 𝑥𝑗 𝐶𝑖𝑗𝑘 𝑒𝑖 𝑒𝑗 𝑒𝑘 Y las siguientes expresiones no se encuentran definidas o son inválidas: 𝑥𝑖 𝑦𝑖 𝑧𝑖 𝑎𝑚 𝑥𝑚𝑗 𝑦𝑚𝑘 En cálculo de tensores es también común utilizar una de las ocurrencias como un subíndice y la otra como un superíndice. Por ejemplo, en la siguiente expresión en . 𝑎𝜇 𝑏𝜇 = 𝑎0 𝑏0 + 𝑎1 𝑏1 + 𝑎2 𝑏2 + 𝑎3 𝑏3 Un índice que se repite dos veces en el mismo término de una ecuación se conoce como índice mudo, por ejemplo: 𝐴 = 𝐴𝑖 𝑒𝑖 Un índice que se repite en cada uno de los términos de una expresión a excepción de los términos constantes se conoce como índice libre: 𝑆𝑟 = 𝑎𝑟 𝑥𝑖 + 𝑏𝑟 𝑥𝑗 + 𝑐𝑟 − 1

Los índices libres no se expanden en forma de sumatorio, sino que representan un sistema de ecuaciones independientes.

Representación vectorial. Se emplea el convenio de Einstein en Álgebra lineal para distinguir fácilmente entre vectores columna y vectores fila. Se puede, por ejemplo, poner índices sobre-escritos para representar elementos en una columna e índices subscritos para representar elementos en una fila. Siguiendo esta convención, entonces: 𝑢 = 𝑢𝑖 = [𝑢1 , 𝑢2 … 𝑢𝑛 ] Para 𝑖 = 1,2,3, … , 𝑛 Representa 1 𝑥𝑛 vector fila y representa𝑛𝑥 1 vector columna. 𝑢1 𝑉 = 𝑣 = [ 𝑢2 ] Para 𝑗 = 1,2,3, … , 𝑛 𝑢𝑛 En matemática y en física teórica y en particular en la relatividad general, los vectores fila representan vectores contra variantes mientras que los vectores columna representan vectores variantes. 𝑗

Ejemplo: Reescribir en notación indical las siguientes expresiones: 1) 𝑎1 𝑥1 𝑥3 + 𝑎2 𝑥2 𝑥3 + 𝑎3 𝑥3 𝑥3 Solución:

𝑎1 𝑥1 𝑥3

(𝑖 = 1,2,3)

2) 𝑥1 𝑥1 + 𝑥2 𝑥2 Solución:

𝑥1 𝑥1

(𝑖 = 1,2)

𝑎11 𝑥 + 𝑎12 𝑦 + 𝑎13 𝑧 = 𝑏𝑥 3) {𝑎21 𝑥 + 𝑎22 𝑦 + 𝑎23 𝑧 = 𝑏𝑦 𝑎31 𝑥 + 𝑎32 𝑦 + 𝑎33 𝑧 = 𝑏𝑧 Solución: 𝑎1𝑗 𝑥𝑗 = 𝑏1 𝑎11 𝑥1 + 𝑎12 𝑥2 + 𝑎13 𝑥3 = 𝑏1 {𝑎21 𝑥1 + 𝑎22 𝑥2 + 𝑎23 𝑥3 = 𝑏2 ⟶ {𝑎2𝑗 𝑥𝑗 = 𝑏2 ⟶ 𝑎𝑖𝑗 𝑥𝑗 = 𝑏𝑖 𝑎31 𝑥1 + 𝑎32 𝑥2 + 𝑎33 𝑥3 = 𝑏3 𝑎3𝑗 𝑥𝑗 = 𝑏3 Como podemos apreciar, la utilización indicial supone que la expresión quede concisa. En muchos casos, tratar de realizar manipulaciones algebraicas sin

utilizar notación indical o tensorial es casi imposible debido a la gran cantidad de términos que pueden intervenir.

1.2. Operaciones de Tensores. Producto tensorial y producto exterior. Dados dos tensores se puede definir entre ellos el llamado producto tensorial cuyo resultado es un tensor de tipo más complejo cuyas componentes pueden obtenerse a partir de los tensores originales. El producto de dos tensores es un tensor cuyo rango es la suma de los rangos dados por los dos tensores. Este producto implica la multiplicación ordinaria de los componentes de un tensor y es llamado producto exterior. Por ejemplo: 𝒋𝒌

𝒋𝒌𝒍

𝑨𝒊 𝑩𝒍𝒎 = 𝑪𝒊𝒎

Subir y bajar índices. En una variedad riemanniana existe la posibilidad de definir una operación sobre tensores, que en general no puede realizarse en una variedad cualquiera. Esa operación permite substituir en los cálculos un tensor de tipo por otro de tipo con tal que . Esta operación se denomina usualmente ley de subir o bajar índices. Esa operación se basa en la existencia de un isomorfismos entre espacios de tensores variantes y contra variantes definidos sobre una variedad riemanniana o pseudoriemanniana

. Por tanto para emplear, la subida

y bajada de índices es necesario usar el tensor métrico llamado co-tensor métrico).

(y su inverso

,

Estas operaciones resultan muy útiles en la teoría general de la relatividad donde cualquier magnitud física puede ser representada por tensores variantes o contra variantes indistintamente, y sin alterar el significado físico, según las necesidades del problema planteado.

Así para cualquier magnitud física representada por un tensor de tercer rango, puede ser representado por varios conjuntos de magnitudes relacionables gracias a la operación de "subir y bajar índices":

Contracción. La contracción de tensores es una operación que reduce el orden total de un tensor. Esta operación reduce un tensor tipo (𝒏, 𝒎) a otro tipo (𝒏 − 𝟏, 𝒎 − 𝟏). En términos de componentes, esta operación se logra sumando el índice de un tensor contra variante y una variante. Por ejemplo, un tensor (1,1)

puede ser contraído a un escalar a través de

; donde el convenio de

sumación de Einstein es empleado. Cuando el tensor (1,1) se lo interpreta como un mapeo lineal, esta operación es conocida como la traza. La contracción se utiliza usualmente con el producto tensorial para contraer el índice de cada tensor. La contracción puede también entenderse en términos de la definición de un tensor como un elemento de un producto tensorial de copias del espacio con el espacio , descomponiendo primero el tensor en una combinación lineal de tensores más simples, y posteriormente aplicando un factor de a un factor de . Por ejemplo: Puede ser escrito como la combinación lineal de

La contracción de

en el primero y último espacio es entonces el vector:

Producto interno. El producto interno de dos tensores se produce al contraer el producto exterior de los tensores. Por ejemplo, dados dos tensores y

su producto externo es

producto interno:

Igualando índices,

, se obtiene el

.

Ejemplo 1: La siguiente tabla presenta los cosenos directos descritos entre la base original 𝑥1 , y la nueva base 𝑥‘1 . Determine los cosenos de la tercera línea. 𝑥1

𝑥2

𝑥3

𝑥‘1

3/5

-4/5

0

𝑥‘2

0

0

1

𝑥‘3

Solución Se debe cumplir que ê‘3 = ê‘1 × ê‘2 𝑒1 𝑒2 𝑒3 4 3 |3/5 −4/5 0 | = − 𝑒1 − 𝑒2 + 0𝑒3 5 5 0 0 1 3/5 −4/5 0 0 1| ⇒ 𝑄=| 0 −4/5 −3/5 0

1.3. Métodos para el cálculo de valores y vectores propios. En álgebra lineal, los vectores propios, auto vectores o eigenvectores de un operador lineal son los vectores no nulos que, cuando son transformados por el operador, dan lugar a un múltiplo escalar de sí mismos, con lo que no cambian su dirección. Este escalar λrecibe el nombre valor propio, autovalor, valor característico o eigenvalor. A menudo, una transformación queda completamente determinada por sus vectores propios y valores propios. Un espacio propio, auto espacio o eigenespacio es el conjunto de vectores propios con un valor propio común. Las transformaciones lineales del espacio —como la rotación, la reflexión, el ensanchamiento, o cualquier combinación de las anteriores; en esta lista podrían incluirse otras transformaciones— pueden interpretarse mediante el efecto que producen en los vectores. Los vectores pueden visualizarse como flechas de una cierta longitud apuntando en una dirección y sentido determinados. 

   

Los vectores propios de las transformaciones lineales son vectores que, o no se ven afectados por la transformación o se ven multiplicados por un escalar, y por tanto no varían su dirección. El valor propio de un vector propio es el factor de escala por el que ha sido multiplicado. Un espacio propio es un espacio formado por todos los vectores propios del mismo valor propio, además del vector nulo, que no es un vector propio. La multiplicidad geométrica de un valor propio es la dimensión del espacio propio asociado. El espectro de una transformación en espacios vectoriales finitos es el conjunto de todos sus valores propios.

Por ejemplo, un vector propio de una rotación en tres dimensiones es un vector situado en el eje de rotación sobre el cual se realiza la rotación. El valor propio correspondiente es 1 y el espacio propio contiene a todos los vectores paralelos al eje. Como es un espacio de una dimensión, su multiplicidad geométrica es uno. Es el único valor propio del espectro (de esta rotación) que es un número real. Formalmente, se definen los vectores propios y valores propios de la siguiente manera: Si A: V → V es un operador lineal en un cierto espacio vectorial V, v es un vector diferente de cero en V y c es un escalar tales que 𝐴𝒗 = 𝑐𝒗 Entonces decimos que v es un vector propio del operador A, y su valor propio asociado es c. Observe que si v es un vector propio con el valor propio c entonces cualquier múltiplo diferente de cero de v es también un vector propio con el valor propio c. De hecho, todos los vectores propios con el valor propio asociado c junto con 0, forman un subespacio de V, el espacio propio para el valor propio c. Observe además que un un espacio propio Z es un subespacio invariante de A, es decir dado w un vector en Z, el vector Aw también pertenece a Z. espacio propio Z es un subespacio

invariante de A, es decir dado w un vector en Z, el vector Aw también pertenece a Z. Casos de interes espcial. Intuitivamente, para las transformaciones lineales del espacio de dos dimensiones , los vectores propios son: 

Rotación: ningún vector propio de valores reales (existen en cambio pares valor propio, vector propio complejos).



Reflexión: los vectores propios son perpendiculares y paralelos al eje de simetría, los valores propios son -1 y 1, respectivamente.



Escalado uniforme: todos los vectores son vectores propios, y el valor propio es el factor de escala.



Proyección sobre una recta: los vectores propios con el valor propio 1 son paralelos a la línea, vectores propios con el valor propio 0 son paralelos a la dirección de la proyección.

Cálculo de valores propios y vectores propios de matrices. Si se quiere calcular los valores propios de una matriz dada y ésta es pequeña, se puede calcular simbólicamente usando el polinomio característico. Sin embargo, a menudo resulta imposible para matrices extensas, caso en el que se debe usar un método numérico. Cálculo simbólico. Una herramienta importante para encontrar valores propios de matrices cuadradas es el polinomio característico: decir que λ es un valor propio de A es equivalente a decir que el sistema de ecuaciones lineales A v = λ v --> A v - λ v = 0 (Factorizando por v queda) (A - λI) v = 0 (donde I es la matriz identidad) tiene una solución no nula v (un vector propio), y de esta forma es equivalente al determinante: det(𝐴 − 𝜆𝐼) = 0 La función p(λ) = det(𝐴 − 𝜆𝐼)es un polinomio de λ pues los determinantes se definen como sumas de productos. Éste es el polinomio característico de A: los valores propios de una matriz son los ceros de su polinomio característico. Todos los valores propios de una matriz A pueden calcularse resolviendo la ecuación: Si A es una matriz 𝑛 × 𝑛, máximo 𝑛 valores propios.

entonces

tiene

grado 𝑛 y 𝐴 tiene

como

El teorema fundamental del álgebra dice que esta ecuación tiene exactamente 𝑛 raíces (ceros), teniendo en cuenta su multiplicidad. Todos los polinomios reales de grado impar tienen un número real como raíz, así que para n impar toda matriz real tiene al menos valor propio real. En el caso de las matrices reales, para 𝑛 par e impar, los valores propios no reales son pares conjugados.

Encontrando vectores propios. Una vez que se conocen los valores propios λ, los vectores propios se pueden hallar resolviendo el sistema de ecuaciones homogéneo: Una forma más sencilla de obtener vectores propios sin resolver un sistema de ecuaciones lineales se basa en el teorema de Cayley-Hamilton que establece que cada matriz cuadrada satisface su propio polinomio característico. Así, si son los valores propios de A se cumple que

por lo que los vectores columna de propios de .

son vectores

Ejemplo de matriz sin valores propios reales. Un ejemplo de matriz sin valores propios reales es la rotación de 90 grados en el sentido de las manecillas del reloj:

Cuyo polinomio característico es y sus valores propios son el par de conjugados complejos i, -i. Los vectores propios asociados tampoco son reales. Ejemplo: Considérese la matriz

que representa un operador lineal R³ → R³. Si se desea computar todos los valores propios de A, se podría empezar determinando el polinomio característico:

y porque p(x) = - (x - 2)(x - 1)(x + 1) se ve que los valores propios de A son 2, 1 y -1. El teorema de Cayley-Hamilton establece que cada matriz cuadrada satisface su propio polinomio característico. Es decir: Efectivamente, para el caso del valor propio 2, se puede comprobar que

De donde (1, 1, -1) es un vector propio asociado a 2.

Cálculo numérico. En la práctica, los valores propios de las matrices extensas no se calculan usando el polinomio característico. Calcular el polinomio resulta muy costoso, y extraer las raíces exactas de un polinomio de grado alto puede ser difícil de calcular y expresar: el teorema de Abel-Ruffini implica que las raíces de los polinomios de grado alto (5 o superior) no pueden expresarse usándose simplemente raíces enésimas. Existen algoritmos eficientes para aproximar raíces de polinomios, pero pequeños errores en la estimación de los valores propios pueden dar lugar a errores grandes en los vectores propios. En consecuencia, los algoritmos generales para encontrar vectores propios y valores propios son iterativos. La manera más fácil es el método de las potencias: se escoge un vector aleatorio y se calcula una secuencia de vectores unitarios:

,

,

, ...

Esta sucesión casi siempre convergerá a un vector propio correspondiente al mayor valor propio. Este algoritmo es sencillo, pero no demasiado útil aisladamente. Sin embargo, hay métodos más populares, como la descomposición QR, que se basan en él.

1.4. Gradiente, divergencia y rotacional. Gradiente. En cálculo vectorial, el gradiente de un campo escalar es un campo vectorial. El vector gradiente de evaluado en un punto genérico del dominio de , ( ), indica la dirección en la cual el campo varía más rápidamente y su módulo representa el ritmo de variación de en la dirección de dicho vector gradiente. El gradiente se representa con el operador diferencial nabla seguido de la función (cuidado de no confundir el gradiente con la divergencia, ésta última se denota con un punto de producto escalar entre el operador nabla y el campo). También puede representarse mediante , o usando la notación . La generalización del concepto de gradiente a campos vectoriales es el concepto de matriz Jacobiana. Si se toma como campo escalar el que se asigna a cada punto del espacio una presión P (campo escalar de 3 variables), entonces el vector gradiente en un punto genérico del espacio indicará la dirección en la cual la presión cambiará más rápidamente. Otro ejemplo es el de considerar el mapa de líneas de nivel de una montaña como campo escalar que asigna a cada pareja de coordenadas latitud/longitud una escalar altitud (campo escalar de 2 variables). En este caso el vector gradiente en un punto genérico indicará la dirección de

máxima inclinación de la montaña. Nótese que el vector gradiente será perpendicular a las líneas de contorno (líneas "equiescalares") del mapa. El gradiente se define como el campo vectorial cuyas funciones coordenadas son las derivadas parciales del campo escalar, esto es:

Esta definición se basa en que el gradiente permite calcular fácilmente las derivadas direccionales. Definiendo en primer lugar la derivada direccional según un vector:

Una forma equivalente de definir el gradiente es como el único vector que, multiplicado por el vector unitario, da la derivada direccional del campo escalar:

Con la definición anterior, el gradiente está caracterizado de forma unívoca. El gradiente se expresa alternativamente mediante el uso del operador nabla: Interpretación del gradiente. De forma geométrica el gradiente es un vector que se encuentra normal (perpendicular) a la curva de nivel en el punto que se está estudiando, llámese (𝑥, 𝑦), (𝑥, 𝑦, 𝑧), (tiempo, temperatura), etcétera. Algunos ejemplos son: 

Considere una habitación en la cual la temperatura se define a través de un campo escalar, de tal manera que en cualquier punto ∅(𝑥, 𝑦, 𝑧), la temperatura es ∅(𝑥, 𝑦, 𝑧). Asumiremos que la temperatura no varía con respecto al tiempo. Siendo esto así, para cada punto de la habitación, el gradiente en ese punto nos dará la dirección en la cual se calienta más rápido. La magnitud del gradiente nos dirá cuán rápido se calienta en esa dirección.  Considere una montaña en la cual su altura en el punto (𝑥, 𝑦) se define como 𝐻(𝑥, 𝑦). El gradiente de H en ese punto estará en la dirección para la que hay un mayor grado de inclinación. La magnitud del gradiente nos mostrará cuán empinada se encuentra la pendiente. Propiedades. El gradiente verifica que:     

Es ortogonal a las superficies equiescalares, definidas por =cte. Apunta en la dirección en que la derivada direccional es máxima. Su módulo es igual a esta derivada direccional máxima. Se anula en los puntos estacionarios (máximos, mínimos y puntos de silla). El campo formado por el gradiente en cada punto es siempre ir rotacional, esto es,

Divergencia. La divergencia de un campo vectorial mide la diferencia entre el flujo entrante y el flujo saliente de un campo vectorial sobre la superficie que rodea a un volumen de control, por tanto, si el campo tiene "fuentes" o "sumideros" la divergencia de dicho campo será diferente de cero. Divergencia de un campo vectorial. La divergencia de un campo vectorial en un punto es un campo escalar, y se define como el flujo del campo vectorial por unidad de volumen conforme el volumen alrededor del punto tiende a cero:

Donde es una superficie cerrada que se reduce a un punto en el límite. El símbolo representa el operador nabla. Esta definición está directamente relacionada con el concepto de flujo del campo. Como en el caso del flujo, si la divergencia en un punto es positiva, se dice que el campo posee fuentes. Si la divergencia es negativa, se dice que tiene sumideros. El ejemplo más característico lo dan las cargas eléctricas, que dan la divergencia del campo eléctrico, siendo las cargas positivas manantiales y las negativas sumideros del campo eléctrico. Se llaman fuentes escalares del campo al campo escalar que se obtiene a partir de la divergencia de

La divergencia de un campo vectorial se relaciona con el flujo a través del teorema de Gauss o teorema de la divergencia. Coordenadas cartesianas. Cuando la definición de divergencia se aplica al caso de un campo expresado en coordenadas cartesianas,

El resultado es sencillo:

Coordenadas ortogonales. Sin embargo, para un caso más general de coordenadas ortogonales curvilíneas, como las cilíndricas o las esféricas, la expresión se complica debido a la dependencia de los vectores de la base con la posición. La expresión para un sistema de coordenadas ortogonales es:

Donde los son los factores de escala del sistema de coordenadas, relacionados con la forma del tensor métrico en dicho sistema de coordenadas. Esta fórmula general, para el caso de coordenadas cartesianas ( ) se reduce a la expresión anterior. Para coordenadas cilíndricas (

) resulta:

Para coordenadas esféricas (

) resulta

Coordenadas generales. En sistemas de coordenadas generales, no necesariamente ortogonales, la divergencia de un vector puede expresarse en términos de las derivadas parciales respecto a las coordenadas y el determinante del tensor métrico:

Rotacional. En el cálculo vectorial, el rotacional o rotor es un operador vectorial que muestra la tendencia de un campo vectorial a inducir rotación alrededor de un punto. Matemáticamente, esta idea se expresa como el límite de la circulación del campo vectorial, cuando la curva sobre la que se integra se reduce a un punto:

Aquí, es el área de la superficie apoyada en la curva , que se reduce a un punto. El resultado de este límite no es el rotacional completo (que es un vector), sino solo su componente según la dirección normal a y orientada según la regla de la mano derecha. Para obtener el rotacional completo deberán calcularse tres límites, considerando tres curvas situadas en planos perpendiculares. Fuente vectorial y escalar. Al campo vectorial, J, que se obtiene calculando el rotacional de un campo F en cada punto, 𝐉= ∇×𝐅 Se conoce como las fuentes vectoriales de F (siendo las fuentes escalares las que se obtienen mediante la divergencia). Un campo cuyo rotacional es nulo en todos los puntos del espacio se denomina irrotacional o se dice que carece de fuentes vectoriales. Y si está definido sobre un dominio simplemente conexo entonces dicho campo puede expresarse como el gradiente de una función escalar, o dicho de otra forma, el campo deriva de un potencial:

Expresión en formas cartesianas. Partiendo de la definición mediante un límite, puede demostrarse que la expresión, en coordenadas cartesianas, del rotacional es

Que se puede expresar de forma más concisa con ayuda del operador nabla como un producto vectorial, calculable mediante un determinante:

Debe tenerse muy presente que dicho determinante en realidad no es tal pues los elementos de la segunda fila no tienen argumento y por tanto carecen de sentido. Además dicho determinante sólo puede desarrollarse por la primera fila. En definitiva, la notación en forma de determinante sirve para recordar fácilmente la expresión del rotacional. En la notación de Einstein, con el símbolo de Levi-Civita se escribe como:

Propiedades: 

Todo campo potencial (expresable como el gradiente de un potencial escalar) es irrotacional y viceversa, esto es,



Todo campo central (radial y dependiente sólo de la distancia al centro) es irrotacional.

En particular, el campo electrostático de una carga puntual (y por superposición, cualquier campo electrostático) es ir rotacional. 

El rotacional de un campo vectorial es siempre un campo solenoidal, esto es, su divergencia siempre es nula:

Ejemplos 1: Sea F= (x2yz2, xyz2, x+y+z) Aplicando la fórmula del rotacional obtenemos: Rot F =(1-2xyz) i –(1-2x2yz) j +(yz2-x2z2) k La divergencia de F será Div F =2xyz2+xz2+1 Veamos como son el rotacional y la divergencia en (0, 0, 0), (1, 1, 1) (0, 0, 0) ...... Rot F = i - j ………. Div F = 1 O sea que este flujo, en este punto tiene una fuente y además el flujo tiene una tendencia rotacional. La rotación del flujo se da en un plano cuya normal es el vector i - j y además, como la divergencia = 1, su flujo tiene a abrirse (es una fuente) (1, 1, 1) ...... Rot F = -i + j.........Div F = 4 En este punto, el flujo tiene una tendencia rotacional en el plano cuya normal es el vector -i+j, y como la divergencia es igual a 4, hay una fuente.

Ejemplo 2: La divergencia de un rotacional es igual a 0 F= (M (x, y, x), N(x, y, z), P(x, y, z)) = M(x, y, x) i + N(x, y, z) j + P(x, y, z) k Rot F = (Py - Nz, - Px + Mz, Nx – My)) Div Rot F = Pyx – Nzx - Pxy + Mzy + Nxz - Myz =0 Existirá el Rot (Div F)? Nota: Un campo cuyo rotacional es 0, se llama irrotacional.

1.5. Teoremas de Green y de Stokes.

Teorema de Green. En física y matemáticas, el teorema de Green da la relación entre una integral de línea alrededor de una curva cerrada simple C y una integral doble sobre la región plana D limitada por C. El teorema de Green se llama así por el científico británico George Green y es un caso especial del más general teorema de Stokes. El teorema afirma: Sea C una curva cerrada simple positivamente orientada, diferenciable por trozos, en el plano y sea D la región limitada por C. Si L y M tienen derivadas parciales continuas en una región abierta que contiene D,

A veces la notación

Se utiliza para establecer que la integral de línea está calculada usando la orientación positiva (anti horaria) de la curva cerrada C. Relación con el teorema de la divergencia: El teorema de Green es equivalente a la siguiente analogía bidimensional del teorema de Stokes:

Donde

es el vector normal saliente en la frontera.

Para ver esto, considere la unidad normal en la parte derecha de la ecuación. Como es un vector apuntando tangencialmente a través de una curva, y la curva C está orientada de manera positiva (es decir, en contra del sentido de las agujas del reloj) a través de la frontera, un vector normal saliente sería aquel que apunta en 90º hacia la derecha, el cual podría ser . El módulo de este vector es: . Por lo tanto: .

Tomando los componentes de: El lado derecho se convierte en:

Que por medio del teorema de Green resulta:

Teorema de Stokes. El teorema de Stokes en geometría diferencial es una proposición sobre la integración de formas diferenciales que generaliza varios teoremas del cálculo vectorial. Se nombra así por George Gabriel Stokes (1819-1903), a pesar de que la primera formulación conocida del teorema fue realizada por William Thomson y aparece en una correspondencia que él mantuvo con Stokes. El teorema fundamental del cálculo establece que la integral de una función f en el intervalo [a, b] puede ser calculada por medio de una anti derivada F de f:

El teorema de Stokes es una generalización de este teorema en el siguiente sentido:



Para la F elegida, . En el lenguaje de las formas diferenciales es decir que f(x) dx es la derivada exterior de la 0-forma (como por ejemplo una función) F: dF = f dx. El teorema general de Stokes aplica para formas diferenciales mayores en vez de F.



En un lenguaje matemático, el intervalo abierto (a, b) es una variedad matemática unidimensional. Su frontera es el conjunto que consiste en los dos puntos a y b. Integrar f en ese intervalo puede ser generalizado como integrar formas en una variedad matemática de mayor orden. Para esto se necesitan dos condiciones técnicas: la variedad matemática debe ser orientable, y la forma tiene que ser compacta de manera que otorgue una integral bien definida.



Los dos puntos a y b forman parte de la frontera del intervalo abierto. Más genéricamente, el teorema de Stokes se aplica a variedades

orientadas M con frontera. La frontera ∂M de Mes una variedad en sí misma y hereda la orientación natural de M. Por ejemplo, la orientación natural del intervalo da una orientación de los dos puntos frontera. Intuitivamente a hereda la orientación opuesta a b, al ser extremos opuestos del intervalo. Entonces, integrando F en los dos puntos frontera a, b es equivalente a tomar la diferencia F(b) − F(a). Por lo que el teorema fundamental relaciona la integral de una función sobre un intervalo, con una integral o suma de la primitiva de la función en los límites que encierran dicho intervalo:

Por otro lado el teorema de Green hace algo similar en dos dimensiones, relaciona la integral a lo largo de una curva simple con la integral de una combinación de derivadas sobre un área limitada por la curva simple:

Similarmente el teorema de la divergencia relaciona la integral de una función sobre una superficie con la integral de una combinación de derivadas sobre el interior del conjunto:

El teorema de Stokes generaliza todos estos resultados, relacionando la integral sobre una frontera con la integral de una función "derivada" sobre el interior de la región limitada por la frontera. Formulación General. Sea M una variedad de dimensión n diferenciable por trozos orientada compacta y sea ω una forma diferencial en M de grado n-1 y de clase C. Si ∂ M denota el límite de M con su orientación inducida, entonces

aquí d es la derivada exterior, que se define usando solamente la estructura de variedad. El teorema debe ser considerado como generalización del teorema fundamental del cálculo y, de hecho, se prueba fácilmente usando este teorema. El teorema se utiliza a menudo en situaciones donde M es una subvariedad orientada sumergida en una variedad más grande en la cual la forma ω se define. El teorema se extiende fácilmente a las combinaciones lineales de las subvariedades diferenciables por trozos, las, así llamadas, cadenas. El teorema de Stokes demuestra entonces que las formas cerradas definidas módulo una forma exacta se pueden integrar sobre las cadenas

definidas módulo borde. Ésta es la base para el apareamiento entre los grupos de homología y la homología de Rham. El clásico teorema de Kelvin-Stokes:

que relaciona la integral de superficie del rotacional del campo vectorial sobre una superficie Σ en el 3-espacio euclidiano a la integral de línea del campo vectorial sobre su borde, es un caso especial del teorema de Stokes generalizado (con n = 2) una vez que identifiquemos el campo vectorial con una 1-forma usando la métrica en el 3-espacio euclidiano. Asimismo el teorema de Ostrogradsky-Gauss o Teorema de la divergencia:

Es un caso especial si identificamos un campo vectorial con la n-1 forma obtenida contrayendo el campo vectorial con la forma de volumen euclidiano. El teorema fundamental del cálculo y el teorema de Green son también casos especiales del teorema de Stokes generalizado. La forma general del teorema de Stokes que usa formas diferenciales es de más alcance que los casos especiales, por supuesto, aunque los últimos son más accesibles y a menudo son considerados más convenientes por físicos e ingenieros. Otra forma de escribir el mismo teorema es la siguiente:

Donde

es un campo vectorial cualquiera.

Establece que la integral de superficie del rotacional de un campo vectorial sobre una superficie abierta es igual a la integral (curvilínea) cerrada del campo vectorial a lo largo del contorno que limita la superficie.

Ejemplos: Calcule el área de la porción del paraboloide z = x 2 + y 2 que está comprendida entre los planos z = 0 y z = 1. Solución: La intersección del paraboloide con el plano z = 0 es el punto (0, 0) y con el plano z = 1 es la circunferencia x 2 + y 2 = 1. La región limitada por la proyección de dicha circunferencia sobre el plano XY es 𝐷 = {(𝑥, 𝑦) ∈ ℝ2 : 𝑥 2 + 𝑦 2 ≤ 1}

Podemos considerar la siguiente parametrización: 𝑟(𝑥, 𝑦) = (𝑥, 𝑦, 𝑥 2 + 𝑦 2 ), (𝑥, 𝑦) ∈ 𝐷 De esta manera S = r(D), siendo S la superficie descrita en el enunciado. Su producto vectorial fundamental es: 𝑁(𝑥, 𝑦) = (−2𝑥, −2𝑦, 1),

𝑦

‖𝑁(𝑥, 𝑦)‖ = √4𝑥 2 + 4𝑦 2 + 1.

El área solicitada será: 𝑎(𝑆) = ∬ ‖𝑁(𝑥, 𝑦)‖𝑑𝑥𝑑𝑦 ∬ √4𝑥 2 + 4𝑦 2 + 1𝑑𝑥𝑑𝑦. 𝐷

𝐷

Esta integral la haremos mediante un cambio de variable a coordenadas polares. 𝑥 = 𝜌 cos 𝜑 𝑦 = 𝜌 𝑠𝑒𝑛 𝜑}

𝑐𝑜𝑛

0 0

𝑦 1

2𝜋

𝑎(𝑆) = ∬ √4𝑥 2 + 4𝑦 2 + 1𝑑𝑥𝑑𝑦 = ∫ [∫ √4𝜌2 + 1𝜌𝑑𝜑 ] 𝑑𝜌 = 𝐷

0

= 2𝜋 [

0

12 1 𝜋 (4𝜌2 + 1)3/2 ] = (5√5 − 1). 0 6 83

CONCLUSION

En esta unidad se han expuesto los fundamentos principales que se han tenido en cuenta al estudiar los procesos de resolución de problemas y de formación de habilidades matemáticas en relación con la lógica y estructura del proceso de enseñanza aprendizaje. Como se ha visto en esta unidad la notación indical fue introducida por Einstein en 1916 dando así a diversos de matemáticos a continuar con las ecuaciones dadas. Llegando así a complementar con la teoría de Green y Stokes. Cada una de las teorías es el marco natural que se utiliza para formalizar la otra: cada teoría de conjuntos está formalizada como una teoría descrita por la teoría de modelos; esta última más bien viene como un desarrollo de la teoría de conjuntos (definiendo teorías y sistemas como objetos complejos) que directamente como una teoría. Ambas conexiones deben ser consideradas por separado: los dos papeles de la teoría de conjuntos, como base y un objeto de estudio para la teoría de modelos, deben distinguirse. Pero estas formalizaciones van a exigir mucho trabajo para completarse. La resolución de problemas se refleja en las tendencias contemporáneas de la educación matemática como eje del diseño curricular en sus funciones de medio y fundamento del aprendizaje y de fijación del saber y poder matemáticos.

BIBLIOGRAFIA

http://es.wikipedia.org/wiki/C%C3A1lculo_tensorial http://w3.mecanica.upn.es/mmc-ig/Apuntes/indices.pdf http://es.wikipedia.org/wiki/Vector_propio_y_valor_propio http://es.wikipedia.org/wiki/Divergencia_(matematica) http://es.wikipedia.org/wiki/Gradiente http://es.wikipedia.org/wiki/Teoria_de_Green http://es.wikipedia.org/wiki/Teoria_de_Stokes