# multilineal lección 7

## topological bundle

A bundle is a bunch of objects:

• a topo space $X$ which will be called the base of the bundle
• another topo space $E$ called the total of the bundle
• a topo-space $F$, called the fiber of the bundle and
• a scheme of maps $F\subset E\stackrel{\pi}\to X$ such that

for each $p\in X$ there exists $U$ neighborhood of $p$ in $X$ such that the fiber $\pi^{-1}U$ is homeomorphic to $F\times U$ via

$\pi^{-1}U\stackrel{\varphi}\to F\times U$

in such a way that the composition

$\varphi^{-1}\circ\pi: F\times U\to U$

is the projection in the second factor. The map $\pi$ is called the projection of the bundle and any other map $\sigma:X\to E$ that obeys $\sigma\circ\pi=1_X$ usualy is called a section of the bundle.

Examples of sections in vector bundles are the famous:

## vector-bundles and/or tensor-fields on surfaces

• if $T\Sigma=\bigsqcup_pT_p\Sigma$ is the tangent bundle on a surface then a map $\Sigma\to T\Sigma$ is called vector field on the surface…

other bundle are:

• ——————————————————————————–
• $T\Sigma^*=\bigsqcup_pT_p\Sigma^*$ is the cotangent bundle
• $\Sigma\to T\Sigma^*$ is called covector field
• ————————————————————————————–
• $T^{(1,1)}\Sigma=\bigsqcup_p(T_p\Sigma\otimes T_p\Sigma^*)$ is the rank two mixed tensor bundle
• $\Sigma\to T^{(1,1)}\Sigma$ is a rank two mixed tensor field
• —————————————————————————————————
• $T^{(2,1)}\Sigma=\bigsqcup_p(T_p\Sigma\otimes T_p\Sigma\otimes T_p\Sigma^*)$
• $\Sigma\to T^{(2,1)}\Sigma$ is a rank three mixed tensor field 2-contravariant and 1-covariant
• ————————————————————————————————————————–
• $T^{(n,m)}\Sigma=\bigsqcup_p[(T_p\Sigma)^{\otimes n}\otimes (T_p\Sigma^*)^{\otimes m}]$ is the rank $n+m$ tensor bundle n-contravariant and m-covariant
• $\Sigma\to T^{(n,m)}\Sigma$ is a rank $n+m$ mixed tensor field n-contravariant and m-covariant

—————————————————

## the covariant derivative allow you to “connect” several bundles

on $\mathbb{R}^n$ we have

$D_Xf=\langle X,{\rm{grad}}f\rangle$

$D_XY=(JY)X$

$D_X(A\otimes B)=(D_XA)\otimes B+A\otimes(D_X B)$

… remember that if $A=A^s\partial_s$ and $B=B^s\partial_s$ then $A\otimes B=A^sB^t\partial_s\otimes\partial_t$. That is $(A\otimes B)^{ij}=A^iB^j$

——————————————————–

and on a surface $\Sigma\subset\mathbb{R}^3$ we have

$\nabla_Xf=\langle X,{\rm{grad}}f\rangle$

$\nabla_XY=(JY)X-\langle (JY)X,N\rangle N$

$\nabla_X(A\otimes B)=(\nabla_XA)\otimes B+A\otimes(\nabla_X B)$

——————————————————–

it is true that $\nabla_{\partial_k}X=({X^s}_{,k}+X^t{\Gamma^{s}}_{tk})\partial_s$ determines ${X^s}_{;k}:={X^s}_{,k}+X^t{\Gamma^{s}}_{tk}$ as a rank two mixed tensor

——————————————————–

$\mathbf{T}=\mathbf{T}^{ij}\partial_i\otimes\partial_j$

$\nabla_{\partial_k}\mathbf{T}=({\mathbf{T}^{ij}}_{,k}+\mathbf{T}^{tj}{\Gamma^{s}}_{tk}+\mathbf{T}^{it}{\Gamma^{s}}_{tk})\partial_s$

so

${\mathbf{T}^{ij}}_{;k}:={\mathbf{T}^{ij}}_{,k}+\mathbf{T}^{it}{\Gamma^{s}}_{tk}+\mathbf{T}^{tj}{\Gamma^{s}}_{tk}$

——————————————————–

so in absense of curvature: ${\Gamma^{ij}}_k=0$, then ${\mathbf{T}^{ij}}_{;k}={\mathbf{T}^{ij}}_{,k}$

——————————————————————————————–

How do a covector field varies along  $X$?

1. $\nabla_{\partial_k}dx^i=-{\Gamma^i}_{sk}dx^s$
2. $w_{i;k}=w_{i,k}-w_s{\Gamma^s}_{ik}$
3. $\nabla_X(w\otimes \theta)=(\nabla_Xw)\otimes \theta+w\otimes(\nabla_X\theta)$

### 21 responses to “multilineal lección 7”

1. maestro tengo una duda sobre el porque de la existencia del tensor se Riemann, en este articulo: http://es.wikipedia.org/wiki/Tensor_de_curvatura al principio hablan de como el tensor de Riemann describe la curvatura de variedades de cualquier dimensión y que cualquier otra curvatura se obtiene a partir de este, mi pregunta es: por que necesariamente un tensor de rango 4 escribe cualquier curvatura?, por que tiene que ser el tensor de Riemann y no alguna otra entidad matematica, y por que necesariamente ese rango?, hay alguna demostracion?.

gracias de antemano maestro, pasela bien estas vacaciones

• David, las preguntas que planteas muy válidas tienen respuestas elaboradas que conviene que tu las re-elabores,,, hay un libro clasiquísimo de Manfredo do Carmo titulado Riemannian Geometry del 1992, en el cuenta la historia de los trabajos de Gauss en superficies y de como Riemann con mucha visión multidimensional dió a Christoffel la inspiración para la formulación que ahora disfrutamos,,, ¿Conoces el libro de Roger Penrose llamado “La nueva mente del emperador” ? en el dice como entender las partes del tensor, en términos del de Weyl y el de Ricci y de como la energia y la materia se alinean en el lenguaje de la curvatura,,, Pero wikipedia en español nomas no te va a sacar de dudas o te puede confundir levemente lo cual es bueno, en el f.english está un poco mejor,,, : )

Saludos

2. prueba $\sum_{k=0}^{\infty}a_kx^k$ poniendo un latex y un espacio, entre el primer “pesos” y el backslash de “sum”… para obtener:

$\sum_{k=0}^{\infty}a_kx^k$

3. maestro y que onda con eso de que el nakahara define el map con productos tensoriales en vez de cartesianos?

• no conozco el contenido del Nakahara…
ni que signifique para él el producto $\otimes$, pero es obvio que $R$ come tres campos vectoriales y arroja uno (tri-linealmente):

$(X,Y,Z)\mapsto R(X,Y)Z$

Por fa, checate la versión

http://de.wikipedia.org/wiki/Riemannscher_Kr%C3%BCmmungstensor

en germano donde dice que la definición considera:

$R\ :\ \Gamma^{\infty}(M)\times\Gamma^{\infty}(M)\times\Gamma^{\infty}(M)\to\Gamma^{\infty}(M)$

donde $\Gamma^{\infty}(M)$ es el conjunto de los campos vectoriales en $M$, por cierto, lo mismo que ${\cal{X}}(M)$

4. aporto:

si

$R(\partial_i,\partial_j)\partial_k={R^s}_{ijk}\partial_s$

entonces

$dx^t(R(\partial_i,\partial_j)\partial_k)=dx^t({R^s}_{ijk}\partial_s)={R^s}_{ijk}{\delta^t}_s={R^t}_{ijk}$.

Algunos autores suelen escribir $\langle dx^t,\partial_s\rangle$ para $dx^t(\partial_s)$, donde están apareandose un covector (básico) con un contravector (básico)…

• ha pues si, ahi ya esta explicito, es la propia definicion del map, me faltaba considerar la base del espacio vectorial imagen, gracias maestro

5. ha que mala onda no se puso bien lo de latex, bueno era algo asi: R : x(M) ⊗ x(M) ⊗ x(M) →x(M)

• el tensor de curvatura mapea $C^{\infty}(M)$-trilineal:

${\cal{X}}(M)\times{\cal{X}}(M)\times{\cal{X}}(M)\to{\cal{X}}(M)$

donde ${\cal{X}}(M)$ es el conjunto de los campos vectoriales de $M$

También habría de considerarse que $M$ no necesariamente es un espacio euclideano $\mathbb{R}^n$ sino más bien como un espacio topológico cualquiera, más específico: una variedad diferenciable (differential manifold), a el cual será medida su curvatura… como el ejemplo de las superficie en $\mathbb{R}^3$

6. David D

si maestro, a esa me refiero, hay alguna demostración de por que se define así?, he visto varias demostraciones pero que se refieren directamente a las componentes del tensor (el que sale al evaluar esa formula de arriba evaluada en los vectores básicos producto interior con covector basico)

• según entiendo el “extraterrestre” B. Riemann y B. Chrsitoffel lo desarrollaron observando todo el enjambre de curvaturas que disponian en su tiempo (curvatura y torsión de curvas, curvatura gaussiana,…)

por fa checate:

http://en.wikipedia.org/wiki/Riemann_curvature_tensor

y quizás eso te ayude un poco más… la versión en el fregado gachupín no ayuda mucho…

7. y otra cosa maestro, creo que la base esta incompleta cuando deriva covariantemente al tensor T que tiene en negritas

• efectivamente…

• cómo ejercicio de latex ¿porqué no escribes la corrección?

• $\nabla_{\partial_k}\bf{T}=({\bf{T}^{ij}}_{,k}+\bf{T}^{sj}{\Gamma^{i}}_{sk}+\bf{T}^{is}{\Gamma^{j}}_{sk})\partial_i\otimes\partial_j$

• corrected: the latex, content: fine, but improved and enhancing

8. maestro tengo una duda que olvide preguntarle hoy que lo vi, es fácil checar la formula del tensor de curvatura y calcularlo para los distintos casos, pero por que se definió así?, cual es la abstracción o la visión detrás del tensor?, hay alguna demostración?, yo cheque que en parte fue producto de preguntarse si hay alguna importancia en el orden de derivación covariante de las variables, que de hecho lo hay.

• te refieres a

$R(X,Y)Z=\nabla_X\nabla_YZ-\nabla_Y\nabla_XZ-\nabla_{[X,Y]}Z$?

• maestro en internet y en muchos textos una vez teniendo esa expresión se observa que para obtener las componentes del tensor usual (1,3) se evalúa eso de ahí en vectores basicos y se hace producto interior con un covector basico de la base dual,

no entiendo muy bien este ultimo paso aunque al leer el Nakahara y wikipedia me di una idea,

según entiendo es análogo a una función escalar (tomando en este caso una dependiente de dos variables), en esta evaluamos desde R^2 y nos lanza un escalar, el producto cartesiano nos lanza un punto que vive en R^3, ahora con el tensor de riemann: teniendo la expresion de arriba que veo que le nombran operador de curvatura, tenemos un campo tensorial que el nakahara lo espresa como

$R:\chi(M)\otimes\chi(M)\otimes\chi(M)\longrightarrow\chi(M)$

entonces asi como la funcion escalar es un punto en R^3 (quiza abusando del lenguaje) entonces el operador de curvatura con el uso del producto tensorial entre su imagen y preimagen nos da un tensor que vive en un correspondiente espacio vectorial cuyas bases sabemos que definen tensores mixtos de rango 4 mixto (1,3)

• edité un poco este comentario para que puedas formular un poco mejor tus conceptos y tus preguntas…