# multilineal lección 1

The following sections will develop the primary notion of multilinear algebra from the  minimal requirements of you were being exposed to a course of linear algebra (and if vector calculus is already in your experiences, better). This sections are written in the language of Shakespeare  cuz  (because) science is better written-in or transmited-on (and more efficiently)  than  in spanish.

Latter, you should be able to understand a many examples of applications: firstly on geometry and in physics simultaneously or subsequently. Please visit  these notes frequently because they are going to be upgraded continuosly, and… enjoy!

A essential key to understand tensors is to use the linear algebra and the several-variables-calculus that you already should know.

$\mathbf{\S 1.}$ Do you remember that linear transformations can be added among them and multiplied by scalars? then you could understand that the dual space $V^*$, of the vector space $V$, is another vector space: if we set

$V^*=\{\mbox{\footnotesize all linear transformations}: V\to\mathbb{R}\}$

and if $f,g$ are two arrows $V\to\mathbb{R}$ then $f+g$  define another element of $V^*$. It also makes sense if $\alpha\in\mathbb{R}$ then $\alpha f$  defines another linear functional.

Exercise: write down the definitions of $f+g$ and $\alpha f$  and give three concrete examples. For the record: the elements of $V^*$ are also called covectors.

An example of a covector defining a linear transformation is $a=[a_1,a_2,...,a_n]:\mathbb{R}^n\to\mathbb{R}$ via a pairing

$v\mapsto av$,

i.e. multiplication of matrices:

$\left(\begin{array}{c}v^1\\v^2\\\vdots\\v^n\end{array}\right)\mapsto [a_1,a_2,...,a_n] \left(\begin{array}{c}v^1\\v^2\\\vdots\\v^n\end{array}\right) =a_1v^1+a_2v^2+\cdots+a_nv^n=a_sv^s$

$\mathbf{\S 2.}$ A multilinear scalar is a function defined over products of vector spaces to the scalar base field which is linear on each slot of the arguments. In other words, considering each factor of

For example: $F:V\times W\to\mathbb{R}$ is bilinear if

1. $F(a^1v_1+a^2v_2,w)=a^1F(v_1,w)+a^2F(v_2,w)$ and
2. $F(v,c^1w_1+c^2w_2)=c^1F(v,w_1)+c^2F(v,w_2)$

Examples of this are metrics (in vectorspaces cf. versus metrics in general)  and  quadratic forms.

A general method to construct multilinear scalars is by means of the tensor product of  covectors: if $f,g\in V^*$, then their tensor product is

$f\otimes g(x,y):=f(x)g(y)$

it is easy to check that this construction is a bilinear application. Also generalizable in the following sense: if $f:V\to\mathbb{R}$ and $g:W\to\mathbb{R}$ are two covector in different vector spaces still the formula $(x,y)\mapsto f\otimes g(x,y)=f(x)g(y)$ produce a bilinear assignation. Augmenting factors is not a problem. A trilinear transformation is a map $V\times W\times U\to\mathbb{R}$ which is linear in each slot and it can be constructed via

$f\otimes g\otimes h(x,y,z):=f(x)g(y)h(z)$

where $f\in V^*$, $g\in W^*$ and $h\in U^*$.

Question: if   $T:V\times W\times U\to\mathbb{R}$ is a trilinear map: how is it that $T$ is related with the triple tensor product above?

Remark: since the sum of linear transformations gives other linear tranformation we could construct the vectorspace of linear transformations and in the same manner it is posible to give to the set of all bilinear maps from $V\times W$ into the scalar field, namely

$Bil(V\times W,\mathbb{R})$

the estructure of vectorspace: summing two bilinear maps is not a problem as far as acting scalar over them.  Ahead we are gonna learn how to distiguish base for all these machines.

$\mathbf{\S 3.}$ The tensor product of vector spaces is a device to construct new vector spaces form old ones. Let us explain with an example: suppose that we want to build a vector space from to initial ones $V$ and $W$, vector spaces over the real numbers,  and both are finite dimensional, say $\dim V=n$ and $\dim W=m$.   So $V$ is generated by $n$ basic vectors $b_1,b_2,...,b_n$ . It is obvious that if $x\in V$ then $x=x^1b_1+x^2b_2+\cdots+x^nb_n$ for some scalars $x^i\in\mathbb{R}$, and similarly for $W$ with $c_1,c_2,...,c_m$ as base vectors. So let us construct the tensor product of  $V$ and $W$, symbolized

$V\otimes W$

It is  the vector space whose base vectors are the symbols $b_i\otimes c_j$. This means that if $\tau\in V\otimes W$ then this vector must be a linear combination

$\tau=\tau^{11}b_1\otimes c_1+\tau^{12}b_1\otimes c_2+\cdots+\tau^{nm}b_n\otimes c_m$

here the scalars $\tau^{ij}$ are called components of tensor $\tau$. Clearly $\dim V\otimes W=nm$.

The Einstein sum convention allow us to write $x=x^sb_s$ for vectors in  $V$ but

$\tau=\tau^{st}b_s\otimes c_t$

in $V\otimes W$.

$\mathbf{\S 4.}$ Basis for covector and tensor products. One can check inmediatly that given a vectorspace and a base for them, in symbols:

$V={\rm{gen}}\{b_1,b_2,...,b_n\}$

that the defined assignations $\beta^i: b_j\mapsto {\delta^i}_j$ determine  linear maps $V\to\mathbb{R}$ via linear extension:

$x\mapsto\beta^i(x)$

where

$\beta^i(x)=x^s\beta^i(b_s)=x^s{\delta^i}_s=x^i$

and where we exactly know what it means $x=x^sb_s$. Hence we can appreciate that  the $\beta^i$ are simple projectors. With them we will be in position of describe a basis in $V^*$, in $V\otimes W$ and more.

Simply the vector space $V^*$ is is generated by $f=f_t\beta^t$. If $x\in V$ then $x=x^sb_s$ and then

$f(x)=x^sf_t\beta^t(b_s)=x^sf_t{\delta^t}_s=x^sf_s$

Let us describe the basis of $V^*\otimes V^*$.  Knowing that $V^*={\rm{gen}}\{\beta^1,\beta^2,...,\beta^n\}$ then for any $f=f_s\beta^s$ and if $g=g_s\beta^s$ is another covector then

$f\otimes g=f_sg_t\beta^s\otimes\beta^t$

Observe that if $b_i, bj$ are two base vectors then

$f\otimes g(b_i,b_j)=f_sg_t\beta^s\otimes\beta^t(b_i,bj)$

$=f_sg_t\beta^s(b_i)\beta^t(bj)$

$=f_sg_t{\delta^s}_i{\delta^t}_j$

$f\otimes g(b_i,b_j)=f_ig_j$

$\mathbf{\S 5.}$ How do the  components of a tensor vary when  the base vectors are changed? A change of basis in $V$ is determined by

$c_1={A^1}_1b_1+{A^2}_1b_2+...+{A^n}_1b_n$

$c_2={A^1}_2b_1+{A^2}_2b_2+...+{A^n}_2b_n$

$...$

$c_n={A^1}_nb_1+{A^2}_nb_2+...+{A^n}_nb_n$

or simply $c_j={A^s}_jb_s$. So the matrix of  the change of basis is ${A^i}_j$:  i-rows and j-columns.

Let us remember how the components of a vector $v\in \mathbb{R}^n$ change when we have a $C:\mathbb{R}^n\to \mathbb{R}^n$:

if $v=v_e=v^se_s= v_b=w^sb_s$ where $b_j={C^i}_je_i$ then $C^{-1}v_e=v_b$

How do  the components  of a matrix of a linear transformation $T:\mathbb{R}^n\to\mathbb{R}^m$ change, when we change basis $B:\mathbb{R}^n\to\mathbb{R}^n$  and $D:\mathbb{R}^m\to\mathbb{R}^m$?

$(Tv)_{\varepsilon}=[T]v_e$

$(Tv)_{\varepsilon}=[DD^{-1}TB][B^{-1}]v_e$

$D^{-1} (Tv)_{\varepsilon}=Tv_d=[D^{-1}TB]v_b$

$(Tv)_{\delta}=[D^{-1}TB]v_b$

$\mathbf{\S 6.}$

Tensors in components

Given a pair of order 2 tensor $A=A^sb_s$ and $B=B^tb_t$ entonces

$A\otimes B=A^sB^tb_s\otimes b_t$

In other words the components of $A\otimes B$

$(A\otimes B)^{ij}=A^iB^j$

Or if $C=C^{uv}b_u\otimes b_v$ then

$A\otimes C=A^sC^{uv}b_s\otimes b_u\otimes b_v$

or

$(A\otimes C)^{ijk}=A^i C^{jk}$

Wedge Product of Covectors

Given two covectors,  $f,b$, we define their wedge product as

$f\wedge g=f\otimes g-g\otimes f$

With this we have a bilinear alternating-map:

$f\wedge g=f\otimes g-g\otimes f$ evaluated at the basis

$f\wedge g(b_i,b_j)=f\otimes g(b_i,b_j)-g\otimes f(b_i,b_j)$

And what is the triple wedge product?

$f\wedge g\wedge h=$

$=f\!\otimes \!g\otimes \!h-f\!\otimes \!h\otimes \!g+g\otimes h\otimes f-g\otimes f\otimes h+h\!\otimes f\!\otimes \!g-h\!\otimes \!g\otimes \!f$

where $f,g,h$ are basic three covectors.

… continuará

lección uno en pdf, versión preliminar con misprints y errores a proposito o adrede. Reporta-los para obtener puntos en la calificación final. Pulsa:  https://juanmarqz.files.wordpress.com/2009/10/leccionuno.pdf

### 28 responses to “multilineal lección 1”

1. Pingback: 2010 in review | juanmarqz

2. saludos maestro, le dejo este link, esta bueno, desde lo basico hasta lo mas usual, buenas demostraciones, algo deficiente en el uso de indices al principio solamente, luego lo wacho

• deficiente, además, en tejer la geometría (GPS) y el álgebra lineal (dualidad, productos tensoriales, álgebra de Grassmann) como para un primer curso,.. es como el Spiegel pero centralizado a R^3,.. está en castellanoso,.. si aporta al enjambre de referencias disponibles y, complementa hacia una visión anticuada del tema,.. sin embargo para un lector de segunda vuelta, enriquece…

3. q onda maestro apenas cheque la respuesta y pues si esta bien, pues yo estoy en el cucei a las once, de hecho si entiendo bien todo el show matricial, pues ya relei y todo, lo entiendo muy bien, fue una confucion leve y del error, pues lo que pasa es que quizas veo algo ambiguo, dado que relaciona una i-esima base nueva con una i-esima base vieja, siendo no se relacionan una a una en verdad, quiza no comprendi la idea de la notacion, eso es todo, nos vemos mañana si gusta como el digo estoy desde las once, espero su respuesta…..

• … si las bases no se relacionáran uno-a-uno no sería un cambio de base…

yo estaré por esa hora en mi cubículo, Saludos

4. maestro tenia una confusión en todo ese show de como se ve una transformacion en otra base etc, de hecho confundí algo que ya habia entendido a la perfección pero según he leído cheque que en el de grossman manejan la matriz de cambio de base, que es la misma matriz que usted ve como la inversa del cambio de base, se que es un libro de bajo nivel y que el como lo nombremos no tiene importancia mientras funcione, solo le aviso, pues checo que como se usa la famosa formula de encontrar la matriz de cambio de base haciendo el arreglo de la matriz rectangular donde se aplica gauss-jordan funciona de la manera en como grossman lo aplica dado que la matriz que obtenemos es exactamente la matriz que nos hace ver los componentes en la nueva base la cual usted la hace ver como la inversa, se que mientras funcione no hay pedo, solo para que considere y tambien el la leccion cero creo que hay un errorsillo con un indice en el apartado C.B.G− 1, dado que no cuadra con lo que esta abajo. en tanto a mi confusion ya no hay priblema, fue un tripeadon nada mas, pase buen fin de semana

• Primero acerca del informe de error at C.B.G.-1… no hay tal por ahí.

Y para encontrar los componentes de la matriz en términos de las nuevas bases usamos

$Tv=CC^{-1}TBB^{-1}v$ para luego llegar a $C^{-1}Tv=[C^{-1}TB]B^{-1}v$ en otras palabras $(Tv)_{\eta}=[C^{-1}TB]v_b$… y aquí vemos como la matriz $[C^{-1}TB]$ relaciona los nuevos componentes de $Tv$ y $v$ en las nuevas bases respectivas.

Debes recordar que los componentes de un vector cambian con el inverso de la matriz de cambio de base: $v_b=B^{-1}v_e$… recomendaré re-leer y re-entender el ejemplo previo a C.B.G.-1, de todos modos si quieres mañana hablamos y te invito un café si te gusta, saludos.

5. he maestro entonces que onda, estableció que el gradiente es igual al diferencial total igual al jacobiano simplemente por que tienen las mismas componentes?, entonces que ocurren con las bases, se que ya tomamos a las 1-formas como covectores desde hace rato, esto ultimo sale de la dualidad euclidiana?, no me queda muy claro esto de la dualidad euclidiana, de lo demás y como se usa y todo el show estoy bien, he leído algo de teoria sobre la dualidad euclidiana y la base dual estandar, de hecho en un texto toman a las 1-formas como la base dual estandar por la simple observacion del gradiente y el diferencial, tambien ya cheque sus notas, va a ver esto mas a fondo en la clase?, si es asi pues no hay pedo que nos esperemos, gracias, pasela bien en estas vacaciones de “santos”

• me parece que esto es causado (la leve confusion) por que es usado que las funciones coordenadas $x^i$ son lineales… pero en un caso mas general las funciones coordenadas no son lineales y entonces habria un poco mas de complejidad.

Checa que:

$x^i=Jx^i={\rm grad}x^i=[0,...,0,1,0,...,0]=:dx^i$

solo por que $x^i$ son lineales y que $dx^i(e_j)={\delta^i}_j$

Cuando estudiemos calculo en superficie vas a tener abundantes ejemplos (para contrastar) de dualidad no euclideana, y esto es por que la mayoria de las correspondientes funciones coordenadas no son lineales… saludos, main Freund

6. maestro: una duda sobre las 1-formas estudiadas como funcionales lineales de un espacio vectorial a los reales…. también son proyectores?, si es así, en el mapeo le puedo asignar a cada diferencial de i-esima variable una i-esima base dual?, si es así queda perfectamente visible la formalidad del delta Kronocker, siendo el map de un vector la i-esima proyeccion de este por el diferencial de la i-esima variable….lo vi asi dado que como son dezplazamientos infinitesimales linealmente independientes, en vez de usarlos como las bases mejor los asocio a una base dual siendo el dezplazamiento de la primer variable por el primer covector basico, indicando este la direccion de dicho dezplazamiento

• juan

si… : )

7. he maestro pero observe en el mathematica lo siguiente: el producto Kronecker (vector, covector)=matriz, (covector,covector)=matriz fila, (vector, vector)= matriz, (covector, vector)= matriz fila, quiera ver su observacion en esto, no se si haya o no incongruencias….

• por ahora en el programa de la clase no entra. Y de la versión en mathematica no tengo experiencia activa con esa función, sorry… pero en el caso que te involucres en eso bastante, podemos abrir un lugarcito por acá donde tu podrías escribir y describir al respecto, saludos

8. Que onda profe, he visto varias funciones del mathematica y observe que ahí manejan el producto kronocker, según investigue es igual al tensorial no?, el mecanismo es el mismo…., pues en general esta chingon el programa, le hiba a preguntar como indexar covectores en el progama, pero ya le haye, pasela bien

9. maestro: solo para ver si entendí bien algo: un algebra tensorial de un espacio vectorial arbitrario tiene infinitos sumandos directos, pero un algebra exterior tiene finitos sumandos directos no?….dada la limitante de la dimensión del propio espacio, y otra cosa: es posible una explicacion breve de lo que es geometricamente,…. ya sea un bivector?

• Bien, $TV=\bigoplus_{n\in\mathbb{N}}\bigoplus_{n=k+l}T^{(k,l)}V$ tiene muchos sumandos…, Pero el álgebra grassmaniana tiene dimensión finita: $2^m$, donde $m=\dim V$, y esto es por que

$\Lambda V=\Lambda^0V\oplus\Lambda^1V\oplus\cdots\oplus\Lambda^mV$

y cuya suma de dimensiones es:

${m\choose 0}+{m\choose 1}+{m\choose 2}+\cdots{m\choose m}=2^m$

Ahora, si bien en $\mathbb{R}^3$ los covectores $dx,\ dy,\ dz$ básicos representan infinitesimos desplazamientos lineales (en dirección de los ejes cada uno), los correspondientes bivectores $dy\wedge dz,\ dz\wedge dx,\ dx\wedge dy$ (en ese orden) infinitesimos desplazamientos de infinitesimos elementos de área con respecto a los tres planos $YZ,\ ZX,\ XY$, complementarios a los ejes $x,y,z$… Para el trivector $dx\wedge dy\wedge dz$ tenemos que representa un volumen tridimensional infinitesimal. Todo aquello se utiliza en la teoría de integrales: de longitud, de área y de volumen…

10. prueba escribir: -latex u^r- entre los signos de dolar (pero sin los guiones) y debe funcionar…

11. que onda profe, creo que haye unos cuantos errores en el pdf de esta leccion, el primero en la pagina 8 en donde dice las trasformaciones trilineales son similarmente tratadas, en la cuarta linea de demostracion falta $u^{r}$, y tambien tengo algo de confuncion en tanto a los deltas que siguen de ese error, en el ultimo delta coinciden bien los indices entre el vector basico y su dual, pero en los dos deltas primeros cambio los indices de abajo, en la demostracion misma del bilineal cambio todo los subindices por otros, manteniendo los indices de arriba intactos…..

12. he maestro, una duda sobre abiertos en el espacio euclideo, por que cuando mapeamos usamos siempre como dominio un abierto?, tal como fue el caso de “omega” un abierto en R^2

• David:

con un ejemplo: si usamos la parametrización del “circle” que incluye $\sqrt{1-x^2}$, veremos que ésta está definida en el cerrado $[-1,1]$… pero en los dos puntos de la frontera $\{-1,1\}$ no tenemos derivada y por lo tanto la tangente se pierde… aunque se puede establecer con un límite
saludos

13. que onda profe, un libro que recomiende de analisis tensorial o algo asi?, cheque el de Murray R. Spiegel de analisis vectorial, tambien trae analisis tensorial, se ve completo y bien aplicado, que tal recomienda ese?

• está ese, es bueno para entender que -hace unos 30 años o más- la gente que escribía para estos temas era muy “mala onda” : )

también está el Sokolnikof que está mejor

todo lo que encuentres por aquí sirve, léete todo (por ejemplo: las multilineal lecciones) y si detectas algo que necesite aclaraciones me dices… con confianza, por fa

14. he profe, una duda sobre los skewfields, se supone que a lo que he leido y entendido, estos permiten las propiedades de grupo en sus correspondientes sub-grupos, como ejemplo en la multiplicacion de los cuaterniones, que segun lei tienen las propiedades de grupo, excepto en la multiplicacion, que no es abeliana……

• para entendernos mejor: el conjunto $\mathbb{H}$ cuyos elementos son matrices de la forma: $\left(\!\!\begin{array}{cc}a+bi&c+di\\-c+di&a-bi\end{array}\!\!\right)$, forman dos grupos $(\mathbb{H},+)$ -el conjunto con la suma de matrices, y $(\mathbb{H}\setminus{\rm{CERO}},\cdot)$, el conjunto sin la matriz de ceros, y la multplicación de matrices. Con la suma es un grupo abeliano, pero con la multiplicación es un grupo no-abeliano, pues la multiplicación de matrices es no conmutativa… ¿te aclara esto?

P.D. la matriz ${\rm{CERO}}=\left(\!\!\begin{array}{cc}0+0i&0+0i\\-0+0i&0-0i\end{array}\!\!\right)=\left(\!\!\begin{array}{cc}0&0\\ 0&0\end{array}\!\!\right)$ es la única que no tiene inverso multiplicativo de entre ellas…

15. se podria decir que el plano complejo es isomorfo a R^2?

• la transformación $f(a+bi)=\left[\!\!\begin{array}{cc}a&-b\\b&a\end{array}\!\!\right]$, de la que hablamos en la clase, lo demuestra

16. Edgar A.

We want to show that if $V$ is a vector space with Real entries, then $Bil(V)=\{V\times V\rightarrow\mathbb{R}\}$ is also a vector space.
We proved in class that $Bil(V)$ is an Abelian group, and we defined a multiplication by a scalar in $\lambda\in\mathbb{R}$.
So we just have to show that $Bil(V)$ complies with the vectorial space axioms.
Given, $A,B\in Bil(V)$, $v,w\in V$ and $\lambda,\gamma\in\mathbb{R}$, they have to follow:
(1) $\lambda(A+B)(v,w) = \lambda(A)(v,w) + \lambda(B)(v,w)$
(2) $(\lambda+\gamma)A(v,w) = \lambda A(v,w) + \gamma A(v,w)$
(3) $(\lambda \gamma)A(v,w)=\lambda(\gamma)A(v,w)$
(4) $1\cdot A(v,w)= A(v,w)$
So we begin:
(1) $\lambda(A+B){(v,w)}= \lambda(v^T([A]+[B])w)$ and since this is a group, the internal operation can be expressed as: $\lambda(v^T[A]w + v^T[B]w) = \lambda v^T[A]w + \lambda v^T[B]w$ which is $\lambda A(v,w)+\lambda B(v,w)$
(2) $(\lambda+\gamma)A(v,w)=(\lambda+\gamma)v^T[A]w=\lambda v^T[A]w+\gamma v^T[A]w$ which is $\lambda A(v,w)+\gamma A(v,w)$
(3) $(\lambda\gamma)A(v,w)=(\lambda\gamma)v^t[A]w=\lambda(\gamma v^T[A]w)$, because the scalars can be moved around. So we obtain: $\lambda(\gamma A(v,w))$
(4) $1\cdot A(v,w)=1\cdot v^T[A]w=v^T[A]w=A(v,w)$, which is very easy to see..

$\bullet$