multilineal lección 7


topological bundle

A bundle is a bunch of objects:

  • a topo space X which will be called the base of the bundle
  • another topo space E called the total of the bundle
  • a topo-space F, called the fiber of the bundle and
  • a scheme of maps F\subset E\stackrel{\pi}\to X such that

for each p\in X there exists U neighborhood of p in X such that the fiber \pi^{-1}U is homeomorphic to F\times U via

\pi^{-1}U\stackrel{\varphi}\to F\times U

in such a way that the composition

\varphi^{-1}\circ\pi: F\times U\to U

is the projection in the second factor. The map \pi is called the projection of the bundle and any other map \sigma:X\to E that obeys \sigma\circ\pi=1_X usualy is called a section of the bundle.

Examples of sections in vector bundles are the famous:

vector-bundles and/or tensor-fields on surfaces

  • if T\Sigma=\bigsqcup_pT_p\Sigma is the tangent bundle on a surface then a map \Sigma\to T\Sigma is called vector field on the surface…

other bundle are:

  • ——————————————————————————–
  • T\Sigma^*=\bigsqcup_pT_p\Sigma^* is the cotangent bundle
  • \Sigma\to T\Sigma^* is called covector field
  • ————————————————————————————–
  • T^{(1,1)}\Sigma=\bigsqcup_p(T_p\Sigma\otimes T_p\Sigma^*) is the rank two mixed tensor bundle
  • \Sigma\to T^{(1,1)}\Sigma is a rank two mixed tensor field
  • —————————————————————————————————
  • T^{(2,1)}\Sigma=\bigsqcup_p(T_p\Sigma\otimes T_p\Sigma\otimes T_p\Sigma^*)
  • \Sigma\to T^{(2,1)}\Sigma is a rank three mixed tensor field 2-contravariant and 1-covariant
  • ————————————————————————————————————————–
  • T^{(n,m)}\Sigma=\bigsqcup_p[(T_p\Sigma)^{\otimes n}\otimes (T_p\Sigma^*)^{\otimes m}] is the rank n+m tensor bundle n-contravariant and m-covariant
  • \Sigma\to T^{(n,m)}\Sigma is a rank n+m mixed tensor field n-contravariant and m-covariant

—————————————————

the covariant derivative allow you to “connect” several bundles

on \mathbb{R}^n we have

D_Xf=\langle X,{\rm{grad}}f\rangle

D_XY=(JY)X

D_X(A\otimes B)=(D_XA)\otimes B+A\otimes(D_X B)

… remember that if A=A^s\partial_s and B=B^s\partial_s then A\otimes B=A^sB^t\partial_s\otimes\partial_t. That is (A\otimes B)^{ij}=A^iB^j

——————————————————–

and on a surface \Sigma\subset\mathbb{R}^3 we have

\nabla_Xf=\langle X,{\rm{grad}}f\rangle

\nabla_XY=(JY)X-\langle (JY)X,N\rangle N

\nabla_X(A\otimes B)=(\nabla_XA)\otimes B+A\otimes(\nabla_X B)

——————————————————–

it is true that \nabla_{\partial_k}X=({X^s}_{,k}+X^t{\Gamma^{s}}_{tk})\partial_s determines {X^s}_{;k}:={X^s}_{,k}+X^t{\Gamma^{s}}_{tk} as a rank two mixed tensor

——————————————————–

\mathbf{T}=\mathbf{T}^{ij}\partial_i\otimes\partial_j

\nabla_{\partial_k}\mathbf{T}=({\mathbf{T}^{ij}}_{,k}+\mathbf{T}^{tj}{\Gamma^{s}}_{tk}+\mathbf{T}^{it}{\Gamma^{s}}_{tk})\partial_s

so

{\mathbf{T}^{ij}}_{;k}:={\mathbf{T}^{ij}}_{,k}+\mathbf{T}^{it}{\Gamma^{s}}_{tk}+\mathbf{T}^{tj}{\Gamma^{s}}_{tk}

——————————————————–

so in absense of curvature: {\Gamma^{ij}}_k=0, then {\mathbf{T}^{ij}}_{;k}={\mathbf{T}^{ij}}_{,k}

——————————————————————————————–

How do a covector field varies along  X?

  1. \nabla_{\partial_k}dx^i=-{\Gamma^i}_{sk}dx^s
  2. w_{i;k}=w_{i,k}-w_s{\Gamma^s}_{ik}
  3. \nabla_X(w\otimes \theta)=(\nabla_Xw)\otimes \theta+w\otimes(\nabla_X\theta)

21 responses to “multilineal lección 7

  1. maestro tengo una duda sobre el porque de la existencia del tensor se Riemann, en este articulo: http://es.wikipedia.org/wiki/Tensor_de_curvatura al principio hablan de como el tensor de Riemann describe la curvatura de variedades de cualquier dimensión y que cualquier otra curvatura se obtiene a partir de este, mi pregunta es: por que necesariamente un tensor de rango 4 escribe cualquier curvatura?, por que tiene que ser el tensor de Riemann y no alguna otra entidad matematica, y por que necesariamente ese rango?, hay alguna demostracion?.

    gracias de antemano maestro, pasela bien estas vacaciones

  2. prueba $\sum_{k=0}^{\infty}a_kx^k$ poniendo un latex y un espacio, entre el primer “pesos” y el backslash de “sum”… para obtener:

    \sum_{k=0}^{\infty}a_kx^k

  3. maestro y que onda con eso de que el nakahara define el map con productos tensoriales en vez de cartesianos?

  4. aporto:

    si

    R(\partial_i,\partial_j)\partial_k={R^s}_{ijk}\partial_s

    entonces

    dx^t(R(\partial_i,\partial_j)\partial_k)=dx^t({R^s}_{ijk}\partial_s)={R^s}_{ijk}{\delta^t}_s={R^t}_{ijk}.

    Algunos autores suelen escribir \langle dx^t,\partial_s\rangle para dx^t(\partial_s), donde están apareandose un covector (básico) con un contravector (básico)…

    • ha pues si, ahi ya esta explicito, es la propia definicion del map, me faltaba considerar la base del espacio vectorial imagen, gracias maestro

  5. ha que mala onda no se puso bien lo de latex, bueno era algo asi: R : x(M) ⊗ x(M) ⊗ x(M) →x(M)

    • el tensor de curvatura mapea C^{\infty}(M)-trilineal:

      {\cal{X}}(M)\times{\cal{X}}(M)\times{\cal{X}}(M)\to{\cal{X}}(M)

      donde {\cal{X}}(M) es el conjunto de los campos vectoriales de M

      También habría de considerarse que M no necesariamente es un espacio euclideano \mathbb{R}^n sino más bien como un espacio topológico cualquiera, más específico: una variedad diferenciable (differential manifold), a el cual será medida su curvatura… como el ejemplo de las superficie en \mathbb{R}^3

  6. David D

    si maestro, a esa me refiero, hay alguna demostración de por que se define así?, he visto varias demostraciones pero que se refieren directamente a las componentes del tensor (el que sale al evaluar esa formula de arriba evaluada en los vectores básicos producto interior con covector basico)

  7. y otra cosa maestro, creo que la base esta incompleta cuando deriva covariantemente al tensor T que tiene en negritas

  8. maestro tengo una duda que olvide preguntarle hoy que lo vi, es fácil checar la formula del tensor de curvatura y calcularlo para los distintos casos, pero por que se definió así?, cual es la abstracción o la visión detrás del tensor?, hay alguna demostración?, yo cheque que en parte fue producto de preguntarse si hay alguna importancia en el orden de derivación covariante de las variables, que de hecho lo hay.

      • maestro en internet y en muchos textos una vez teniendo esa expresión se observa que para obtener las componentes del tensor usual (1,3) se evalúa eso de ahí en vectores basicos y se hace producto interior con un covector basico de la base dual,

        no entiendo muy bien este ultimo paso aunque al leer el Nakahara y wikipedia me di una idea,

        según entiendo es análogo a una función escalar (tomando en este caso una dependiente de dos variables), en esta evaluamos desde R^2 y nos lanza un escalar, el producto cartesiano nos lanza un punto que vive en R^3, ahora con el tensor de riemann: teniendo la expresion de arriba que veo que le nombran operador de curvatura, tenemos un campo tensorial que el nakahara lo espresa como

        R:\chi(M)\otimes\chi(M)\otimes\chi(M)\longrightarrow\chi(M)

        entonces asi como la funcion escalar es un punto en R^3 (quiza abusando del lenguaje) entonces el operador de curvatura con el uso del producto tensorial entre su imagen y preimagen nos da un tensor que vive en un correspondiente espacio vectorial cuyas bases sabemos que definen tensores mixtos de rango 4 mixto (1,3)

      • edité un poco este comentario para que puedas formular un poco mejor tus conceptos y tus preguntas…

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s