Prodotto tensoriale

Disambiguazione – Se stai cercando il prodotto fra due tensori definiti sullo stesso spazio vettoriale, vedi Prodotto fra tensori.

In matematica, il prodotto tensoriale, indicato con {\displaystyle \otimes } , è un concetto che generalizza la nozione di operatore bilineare e può essere applicato a molteplici oggetti matematici, ad esempio a spazi vettoriali e moduli.

Nel caso di due spazi vettoriali V {\displaystyle V} e W {\displaystyle W} sul campo K {\displaystyle K} , il prodotto tensoriale V W {\displaystyle V\otimes W} è ancora uno spazio vettoriale su K {\displaystyle K} . Si può pensare ad una applicazione bilineare

V × W L , {\displaystyle V\times W\to L,}

come ad un prodotto {\displaystyle \cdot } tra i vettori di V {\displaystyle V} e W {\displaystyle W} con valori in un terzo spazio vettoriale L {\displaystyle L} .

Dato un altro spazio M {\displaystyle M} ed un omomorfismo

φ : L M , {\displaystyle \varphi \colon L\to M,}

si ha che φ ( v w ) {\displaystyle \varphi (v\cdot w)} è un prodotto su V × W {\displaystyle V\times W} a valori in M {\displaystyle M} . Si può dimostrare che esiste un "prodotto universale" {\displaystyle \otimes } a valori in un certo spazio V W {\displaystyle V\otimes W} con la proprietà che tutti i possibili prodotti su V × W {\displaystyle V\times W} si possono ottenere, in modo unico, trasformando linearmente il codominio V W {\displaystyle V\otimes W} . Se v {\displaystyle v} e w {\displaystyle w} sono rispettivamente elementi di V {\displaystyle V} e W {\displaystyle W} si denota con v w {\displaystyle v\otimes w} il prodotto di v {\displaystyle v} e w {\displaystyle w} in V W {\displaystyle V\otimes W} . Per dimostrarne l'esistenza lo si costruisce come spazio quoziente dello spazio vettoriale libero su V × W {\displaystyle V\times W} imponendo le relazioni ovvie per far sì che la proiezione dopo l'immersione sia bilineare.

Prendendo spazi quozienti del prodotto tensoriale si possono aggiungere proprietà a {\displaystyle \otimes } . Ad esempio il prodotto universale simmetrico si ottiene imponendo la relazione

v w w v = 0 , {\displaystyle v\otimes w-w\otimes v=0,}

cioè prendendo il quoziente

( V W ) / Z , {\displaystyle (V\otimes W)/Z,}

dove Z {\displaystyle Z} è il sottospazio generato da tutti gli elementi del tipo v w w v {\displaystyle v\otimes w-w\otimes v} . Il prodotto universale antisimmetrico invece si ha imponendo la relazione

v w + w v = 0. {\displaystyle v\otimes w+w\otimes v=0.}

Queste costruzioni sono fondamentali in svariati campi (ad esempio permettono di definire metriche e forme differenziali sugli spazi tangenti di varietà differenziabili).

Partendo con degli R {\displaystyle R} -moduli M {\displaystyle M} e N {\displaystyle N} (strutture che generalizzano gli spazi vettoriali prendendo gli scalari in un anello invece che in un campo), e supponendo R {\displaystyle R} commutativo per semplicità, si può dare la stessa definizione che per il caso degli spazi vettoriali di M R N {\displaystyle M\otimes _{R}N} (anche in questo caso si può omettere il pedice a {\displaystyle \otimes } se è evidente dal contesto l'anello rispetto al quale si stanno considerando i moduli). Anche la dimostrazione dell'esistenza rimane la stessa. Nonostante le similitudini iniziali con il caso degli spazi vettoriali il prodotto tensoriale tra moduli può riservare delle sorprese. Ad esempio

( Z / m Z ) ( Z / n Z ) = 0 , {\displaystyle (\mathbb {Z} /m\mathbb {Z} )\otimes (\mathbb {Z} /n\mathbb {Z} )=0,}

se m {\displaystyle m} ed n {\displaystyle n} sono coprimi.

Definizione

Riprendendo quanto detto nell'introduzione, si definisce prodotto tensoriale di due spazi vettoriali V {\displaystyle V} , W {\displaystyle W} uno spazio V W {\displaystyle V\otimes W} assieme ad una applicazione bilineare

: V × W V W , {\displaystyle \otimes \colon V\times W\to V\otimes W,}

per cui data una qualsiasi operazione : V × W L {\displaystyle \cdot \colon V\times W\to L} bilineare esiste un unico omomorfismo

φ : V W L , {\displaystyle \varphi \colon V\otimes W\to L,}

che fattorizza {\displaystyle \cdot } tramite {\displaystyle \otimes } (vedi il primo diagramma a destra), cioè tale che

v w = φ ( v w ) . {\displaystyle v\cdot w=\varphi (v\otimes w).}

Un altro modo di scrivere la stessa cosa (vedi il secondo diagramma a destra) è che la coppia ( V W , ) {\displaystyle (V\otimes W,\otimes )} è un elemento universale per il funtore G {\displaystyle {\mathcal {G}}} dalla categoria degli spazi vettoriali a quella degli insiemi che manda X {\displaystyle X} nella famiglia delle funzioni bilineari

V × W X , {\displaystyle V\times W\to X,}

facendo corrispondere ad un omomorfismo

φ : X Y , {\displaystyle \varphi \colon X\to Y,}

la funzione che associa ad un prodotto

: V × W X , {\displaystyle \cdot \colon V\times W\to X,}

il prodotto ( v , w ) φ ( v w ) {\displaystyle (v,w)\mapsto \varphi (v\cdot w)} . In figura

( G ( φ ) ( ) ) ( v , w ) = φ ( v w ) = v w . {\displaystyle ({\mathcal {G}}(\varphi )(\otimes ))(v,w)=\varphi (v\otimes w)=v\cdot w.}

Si dirà anche che ( V W , ) {\displaystyle (V\otimes W,\otimes )} , o semplicemente V W {\displaystyle V\otimes W} , gode della proprietà universale per i prodotti tensoriali.

Se esistono due prodotti ( V 1 W , 1 ) {\displaystyle (V\otimes _{1}W,\otimes _{1})} e ( V 2 W , 2 ) {\displaystyle (V\otimes _{2}W,\otimes _{2})} che soddisfano la definizione allora esiste un unico isomorfismo φ {\displaystyle \varphi } tra V 1 W {\displaystyle V\otimes _{1}W} e V 2 W {\displaystyle V\otimes _{2}W} tale che φ ( v 1 w ) = v 2 w {\displaystyle \varphi (v\otimes _{1}w)=v\otimes _{2}w} per ogni coppia ( v , w ) {\displaystyle (v,w)} . Per la dimostrazione di questo e dell'esistenza di un prodotto tensoriale si rimanda alle relative sottosezioni.

Il codominio V W {\displaystyle V\otimes W} contiene tutti gli elementi del tipo v w {\displaystyle v\otimes w} , che sono immagini tramite {\displaystyle \otimes } delle coppie ( v , w ) {\displaystyle (v,w)} , ma l'elemento generico di V W {\displaystyle V\otimes W} non è di questa forma, è piuttosto una somma finita di tali termini, cioè, se U V × W {\displaystyle U\subset V\times W} è finito, sarà del tipo

( v , w ) U v w . {\displaystyle \sum _{(v,w)\in U}v\otimes w.}

Se V {\displaystyle V} e W {\displaystyle W} hanno dimensione n {\displaystyle n} ed m {\displaystyle m} con basi { v i } i = 1 , , n {\displaystyle \{v_{i}\}_{i=1,\dots ,n}} e { w j } j = 1 , , m {\displaystyle \{w_{j}\}_{j=1,\dots ,m}} rispettivamente, i vettori v i w j {\displaystyle v_{i}\otimes w_{j}} per i = 1 , , n {\displaystyle i=1,\dots ,n} e j = 1 , , m {\displaystyle j=1,\dots ,m} formano una base di V W {\displaystyle V\otimes W} (vedi Coordinate).

Sempre in dimensione finita, esiste un isomorfismo naturale tra lo spazio delle forme bilineari e V W {\displaystyle V^{*}\otimes W^{*}} (vedi Proprietà), che in geometria differenziale è spesso sfruttato per definire V W {\displaystyle V^{*}\otimes W^{*}} (e V W {\displaystyle V\otimes W} usando l'isomorfismo canonico dei due spazi con V {\displaystyle V^{**}} e W {\displaystyle W^{**}} rispettivamente). Per una trattazione più completa rispetto a questo punto di vista si rimanda alla voce Tensore.

Esistenza

Si è definito il prodotto tensoriale dicendo che è una coppia con una certa proprietà. In questa sezione si dimostrerà che una tale coppia effettivamente esiste.

L'idea di base è che tra gli elementi di uno spazio vettoriale candidato a "codominio universale" per un prodotto, non deve sussistere nessuna relazione ulteriore a quelle necessarie per rendere il prodotto bilineare. Quindi si parte da uno spazio libero, senza relazioni, e poi si pone uguale ciò che si vuole sia uguale (il che significa prendere quozienti, vedi il libro di Artin Algebra capitoli sugli anelli e sui moduli).

Sia F {\displaystyle F} lo spazio vettoriale libero su V × W {\displaystyle V\times W} . Si ricorda che F {\displaystyle F} è lo spazio vettoriale che come base ha tutte le coppie ( v , w ) {\displaystyle (v,w)} . Sia K {\displaystyle K} il sottospazio generato da tutti i vettori del tipo

( α v 1 + β v 2 , w ) α ( v 1 , w ) β ( v 2 , w ) {\displaystyle (\alpha v_{1}+\beta v_{2},w)-\alpha (v_{1},w)-\beta (v_{2},w)}
( v , α w 1 + β w 1 ) α ( v , w 1 ) β ( v , w 2 ) . {\displaystyle (v,\alpha w_{1}+\beta w_{1})-\alpha (v,w_{1})-\beta (v,w_{2}).}

Mandando a zero i vettori di K {\displaystyle K} , cioè passando al quoziente F / K {\displaystyle F/K} , la proiezione dopo l'immersione diventa bilineare. La coppia ( F / K , π i ) {\displaystyle (F/K,\pi \circ i)} , dove π {\displaystyle \pi } è la proiezione canonica ed i {\displaystyle i} l'immersione di V × W {\displaystyle V\times W} in F {\displaystyle F} , soddisfa le richieste ed è un prodotto tensoriale di V {\displaystyle V} e W {\displaystyle W} . La situazione può essere riassunta dal diagramma commutativo

La dimostrazione è immediata, infatti V × W {\displaystyle V\times W} è una base di F {\displaystyle F} quindi esiste un'unica estensione lineare s {\displaystyle s} di ρ {\displaystyle \rho } su F {\displaystyle F} , e visto che il nucleo di s {\displaystyle s} contiene K {\displaystyle K} (perché ρ {\displaystyle \rho } è bilineare) la proprietà caratteristica della proiezione nello spazio quoziente ci dà l'unica applicazione lineare f {\displaystyle f} per cui s = f π {\displaystyle s=f\circ \pi } , cioè esiste un'unica f {\displaystyle f} tale che (chiamando {\displaystyle \otimes } la funzione π i {\displaystyle \pi \circ i} )

ρ ( v , w ) = s i ( v , w ) = f π i ( v , w ) = f ( v w ) . {\displaystyle \rho (v,w)=s\circ i(v,w)=f\circ \pi \circ i(v,w)=f(v\otimes w).}

Unicità

L'unicità del prodotto tensoriale, nel senso indicato sopra, è una proprietà di tutti gli elementi universali.

L'unico punto non banale della dimostrazione è notare che se V W {\displaystyle V\otimes W} è un prodotto tensoriale, e la funzione

h : V W V W , {\displaystyle h\colon V\otimes W\to V\otimes W,}

è lineare e lascia fissi tutti i vettori della forma v w {\displaystyle v\otimes w} allora h {\displaystyle h} è l'identità. L'idea è fattorizzare {\displaystyle \otimes } tramite {\displaystyle \otimes } . Infatti per ipotesi {\displaystyle \otimes } è bilineare su V × W {\displaystyle V\times W} quindi esiste un'unica h {\displaystyle h} tale che

v w = h ( v w ) , {\displaystyle v\otimes w=h(v\otimes w),}

e dato che l'applicazione identità soddisfa queste condizioni, deve essere

h = i d . {\displaystyle h=\mathrm {id} .}

Ora si supponga che ( V 1 W , 1 ) {\displaystyle (V\otimes _{1}W,\otimes _{1})} e ( V 2 W , 2 ) {\displaystyle (V\otimes _{2}W,\otimes _{2})} soddisfino entrambi la proprietà universale, allora esistono

φ : V 1 W V 2 W , {\displaystyle \varphi \colon V\otimes _{1}W\to V\otimes _{2}W,}

e

ψ : V 2 W V 2 W , {\displaystyle \psi \colon V\otimes _{2}W\to V\otimes _{2}W,}

tali che per ogni coppia ( v , w ) {\displaystyle (v,w)} si ha

φ ( v 1 w ) = v 2 w {\displaystyle \varphi (v\otimes _{1}w)=v\otimes _{2}w} e ψ ( v 2 w ) = v 1 w {\displaystyle \psi (v\otimes _{2}w)=v\otimes _{1}w} .

Sostituendo l'una nell'altra si ha

( φ ψ ) ( v 2 w ) = v 2 w ,   ( ψ φ ) ( v 1 w ) = v 1 w , {\displaystyle (\varphi \circ \psi )(v\otimes _{2}w)=v\otimes _{2}w,\ (\psi \circ \varphi )(v\otimes _{1}w)=v\otimes _{1}w,}

da cui, per quanto detto all'inizio, φ ψ {\displaystyle \varphi \circ \psi } è l'identità su V 2 W {\displaystyle V\otimes _{2}W} mentre ψ φ {\displaystyle \psi \circ \varphi } è l'identità su V 1 W {\displaystyle V\otimes _{1}W} . In altre parole φ {\displaystyle \varphi } è un isomorfismo, ed è l'unico per cui valga

φ ( v 1 w ) = v 2 w . {\displaystyle \varphi (v\otimes _{1}w)=v\otimes _{2}w.}

Proprietà

Di seguito U {\displaystyle U} , V {\displaystyle V} e W {\displaystyle W} saranno spazi vettoriali su un campo k {\displaystyle k} , ed u {\displaystyle u} , v {\displaystyle v} e w {\displaystyle w} dei loro rispettivi elementi.

  • Associatività:
    ( U V ) W U ( V W ) , {\displaystyle (U\otimes V)\otimes W\cong U\otimes (V\otimes W),}
    con
    ( u v ) w u ( v w ) . {\displaystyle (u\otimes v)\otimes w\leftrightarrow u\otimes (v\otimes w).}
    L'applicazione è ben definita perché è assegnato il valore ad un insieme di generatori. Fissiamo u {\displaystyle u} . Sia
    f u : V × W ( U V ) W , {\displaystyle f_{u}\colon V\times W\to (U\otimes V)\otimes W,}
    la funzione bilineare
    f u ( v , w ) = ( u v ) w . {\displaystyle f_{u}(v,w)=(u\otimes v)\otimes w.}
    Se la fattorizziamo tramite il prodotto tensoriale (applichiamo la proprietà universale) abbiamo l'applicazione lineare
    φ u : V W ( U V ) W , {\displaystyle \varphi _{u}\colon V\otimes W\to (U\otimes V)\otimes W,}
    che manda v w {\displaystyle v\otimes w} in ( u v ) w {\displaystyle (u\otimes v)\otimes w} . Anche la funzione
    U × ( V W ) ( U V ) W , {\displaystyle U\times (V\otimes W)\to (U\otimes V)\otimes W,}
    che manda ( u , v w ) {\displaystyle (u,v\otimes w)} in φ u ( v w ) {\displaystyle \varphi _{u}(v\otimes w)} è bilineare e fattorizzandola abbiamo l'omomorfismo voluto. Possiamo costruire in modo analogo l'inversa ottenendo l'isomorfismo.
  • Commutatività:
    V W W V , {\displaystyle V\otimes W\cong W\otimes V,}
    con
    v w w v . {\displaystyle v\otimes w\leftrightarrow w\otimes v.}
    Per dimostrarlo è sufficiente fattorizzare tramite il prodotto tensoriale la funzione bilineare
    f : V × W W V , {\displaystyle f\colon V\times W\to W\otimes V,}
    con
    f ( v , w ) = w v . {\displaystyle f(v,w)=w\otimes v.}
    In modo analogo possiamo ottenere l'inversa. Attenzione: questo non vuole in alcun modo suggerire che in V V {\displaystyle V\otimes V} i due vettori v w {\displaystyle v\otimes w} e w v {\displaystyle w\otimes v} sono uguali, semmai è vero il contrario.
  • Distributività rispetto alla somma diretta:
    U ( V W ) ( U V ) ( U W ) , {\displaystyle U\otimes (V\oplus W)\cong (U\otimes V)\oplus (U\otimes W),}
    con
    u ( v , w ) ( u v , u w ) . {\displaystyle u\otimes (v,w)\leftrightarrow (u\otimes v,u\otimes w).}
    Questa volta non conviene usare il tipo di dimostrazione dei casi precedenti perché non riusciremmo a costruire l'inversa. Dimostriamo allora che ogni prodotto su U × ( V W ) {\displaystyle U\times (V\oplus W)} si fattorizza in modo unico tramite ( U V ) ( U W ) {\displaystyle (U\oplus V)\otimes (U\oplus W)} . L'applicazione
    φ : U × ( V W ) ( U V ) ( U W ) , {\displaystyle \varphi \colon U\times (V\oplus W)\to (U\oplus V)\otimes (U\oplus W),}
    che manda ( u , ( v , w ) ) {\displaystyle (u,(v,w))} in ( u v , u w ) {\displaystyle (u\otimes v,u\otimes w)} è bilineare. Se E {\displaystyle E} è uno spazio vettoriale e ψ {\displaystyle \psi } un'applicazione bilineare da U × ( V W ) {\displaystyle U\times (V\oplus W)} in E {\displaystyle E} , possiamo scrivere
    ψ ( u , ( v , w ) ) = ψ ( u , ( v , 0 ) ) + ψ ( u , ( 0 , w ) ) {\displaystyle \psi (u,(v,w))=\psi (u,(v,0))+\psi (u,(0,w))}
    questo ci dà la fattorizzazione tramite φ {\displaystyle \varphi } .
  • Tensorizzare con il campo degli scalari:
    k k V V , {\displaystyle k\otimes _{k}V\cong V,}
    con
    α v α v . {\displaystyle \alpha \otimes v\leftrightarrow \alpha v.}
    Intuitivamente è quasi ovvio, formalmente dimostriamo che V {\displaystyle V} e la mappa bilineare
    φ : ( α , v ) α v , {\displaystyle \varphi \colon (\alpha ,v)\to \alpha v,}
    soddisfano la proprietà universale. Se
    ψ : k × V W , {\displaystyle \psi \colon k\times V\to W,}
    è bilineare, allora
    ψ ( α , v ) = ψ ( 1 , α v ) = ψ ( 1 , φ ( α , v ) ) , {\displaystyle \psi (\alpha ,v)=\psi (1,\alpha v)=\psi (1,\varphi (\alpha ,v)),}
    fattorizzando in modo unico ψ {\displaystyle \psi } tramite φ {\displaystyle \varphi } .
  • k n k V V n {\displaystyle k^{n}\otimes _{k}V\cong V^{n}} . Segue dalle precedenti.
  • k n k k m k n m {\displaystyle k^{n}\otimes _{k}k^{m}\cong k^{nm}} . Segue dalle precedenti.
  • Se V {\displaystyle V} e W {\displaystyle W} hanno dimensione finita esiste un isomorfismo canonico
    V W B i l ( V , W ; k ) , {\displaystyle V^{*}\otimes W^{*}\cong \mathrm {Bil} (V,W;k),}
    che associa φ ψ {\displaystyle \varphi \otimes \psi } a φ ψ {\displaystyle \varphi \cdot \psi } (che calcolata nella coppia ( v , w ) {\displaystyle (v,w)} vale φ ( v ) ψ ( w ) {\displaystyle \varphi (v)\psi (w)} ). Infatti
    f ( φ , ψ ) = φ ψ , {\displaystyle f(\varphi ,\psi )=\varphi \cdot \psi ,}
    è bilineare, quindi possiamo fattorizzarla tramite il prodotto tensoriale per ottenere un omorfismo che è suriettivo e quindi anche iniettivo perché i due spazi hanno la stessa dimensione.

Esempi

Sia V {\displaystyle V} uno spazio vettoriale su un campo K {\displaystyle K}

  • Tre esempi basilari per la geometria differenziale quando V {\displaystyle V} è lo spazio tangente M p {\displaystyle M_{p}} ad un punto p {\displaystyle p} di una varietà differenziale M {\displaystyle M} sono:
    • T r ( M p ) := M p M p {\displaystyle T^{r}(M_{p}):=M_{p}\otimes \cdots \otimes M_{p}} ( r {\displaystyle r} fattori), lo spazio dei tensori controvarianti di grado r {\displaystyle r} ;
    • T s ( M p ) := T s ( M p ) , {\displaystyle T_{s}(M_{p}):=T^{s}(M_{p}^{*}),} spazio dei tensori covarianti di grado s {\displaystyle s} ;
    • T s r ( M p ) := T r ( M p ) T s ( M p ) , {\displaystyle T_{s}^{r}(M_{p}):=T^{r}(M_{p})\otimes T_{s}(M_{p}),} spazio dei tensori misti di tipo ( r , s ) {\displaystyle (r,s)} .

    Con questi si può definire il fibrato tensoriale

    π : T s r M M , {\displaystyle \pi \colon T_{s}^{r}M\to M,}

    di tipo ( r , s ) {\displaystyle (r,s)} come l'unione disgiunta dei vari T s r ( M p ) {\displaystyle T_{s}^{r}(M_{p})} per tutti i punti di M {\displaystyle M} , cioè:

    T s r M := p M T s r ( M p ) {\displaystyle T_{s}^{r}M:=\coprod _{p\in M}T_{s}^{r}(M_{p})}

    assieme alla proiezione canonica π : ( p , x ) p {\displaystyle \pi \colon (p,x)\mapsto p} (si ricorda che se { M p } p M {\displaystyle \{M_{p}\}_{p\in M}} è una famiglia di insiemi indicizzata da M {\displaystyle M} la loro unione disgiunta è p { ( p , x ) : x M p } ) {\displaystyle \cup _{p}\{(p,x):x\in M_{p}\})} ).

  • Più in generale, sia in geometria differenziale che in topologia algebrica sono ricorrenti i fibrati tensoriali, cioè fibrati vettoriali che hanno per fibra un prodotto tensoriale. In particolare, se E M {\displaystyle E\to M} e H M {\displaystyle H\to M} sono due fibrati vettoriali, si indica con E H M {\displaystyle E\otimes H\to M} il fibrato tensoriale che ha come fibra il prodotto tensoriale delle fibre dei fattori e struttura di fibrato indotta nel modo ovvio.
  • In topologia algebrica, e più precisamente nella K-teoria, per studiare la struttura geometrica di uno spazio topologico X {\displaystyle X} si costruisce un certo anello K ( X ) {\displaystyle K(X)} partendo dall'insieme V e c ( X ) {\displaystyle \mathrm {Vec} (X)} dei fibrati vettoriali su X {\displaystyle X} . Le informazioni geometriche interessanti possono essere contenute solo in fibrati non banali (cioè in fibrati che non si spezzano globalmente nel prodotto cartesiano dello spazio di base con la fibra), quindi si considerano equivalenti due fibrati vettoriali E X {\displaystyle E\to X} e H X {\displaystyle H\to X} quando esistono due interi m {\displaystyle m} , n {\displaystyle n} tali che la somma di Whitney
    E B m X , {\displaystyle E\oplus B^{m}\to X,}
    è isomorfa a
    H B n X , {\displaystyle H\oplus B^{n}\to X,}
    dove
    B m M , {\displaystyle B^{m}\to M,}
    è il fibrato banale su X {\displaystyle X} con fibra m {\displaystyle m} -dimensionale. L'insieme V e c ( X ) {\displaystyle \mathrm {Vec} (X)} modulo questa relazione di equivalenza forma un anello, indicato con K ( X ) {\displaystyle K(X)} , rispetto alla somma
    [ E ] [ H ] := [ E H ] , {\displaystyle [E]\oplus [H]:=[E\oplus H],}
    e il prodotto
    [ E ] [ H ] := [ E H ] , {\displaystyle [E]\otimes [H]:=[E\otimes H],}
    dove [ E ] {\displaystyle [E]} è la classe di equivalenza di E X {\displaystyle E\to X} . Si noti che V e c ( X ) {\displaystyle \mathrm {Vec} (X)} è solo un semigruppo rispetto alla somma di Whitney.
  • In geometria differenziale, fra i vari modi di definire una connessione su un fibrato vettoriale E M {\displaystyle E\to M} c'è quello di considerarla come una mappa D {\displaystyle D} che ad ogni sezione di E {\displaystyle E} associa una sezione del fibrato tensoriale
    T ( M ) E M , {\displaystyle T^{*}(M)\otimes E\to M,}
    che ha per fibra su un punto p M {\displaystyle p\in M} lo spazio vettoriale T ( M p ) E p {\displaystyle T^{*}(M_{p})\otimes E_{p}} , in modo che
    • se s {\displaystyle s} e t {\displaystyle t} sono sezioni di E {\displaystyle E} allora
      D ( s + t ) = D ( s ) + D ( t ) ; {\displaystyle D(s+t)=D(s)+D(t);}
    • se s {\displaystyle s} è una sezione di E {\displaystyle E} ed f {\displaystyle f} una funzione liscia su M {\displaystyle M} allora
      D ( f s ) = d f s + f D ( s ) . {\displaystyle D(fs)=df\otimes s+fD(s).}
  • Se L {\displaystyle L} è un'estensione di K {\displaystyle K} possiamo cambiare il campo dei coefficienti di V {\displaystyle V} da K {\displaystyle K} a L {\displaystyle L} prendendo il prodotto tensoriale L K V {\displaystyle L\otimes _{K}V} (il K {\displaystyle K} a pedice di {\displaystyle \otimes } significa che abbiamo considerato L {\displaystyle L} come spazio vettoriale su K {\displaystyle K} ), che infatti è un L {\displaystyle L} -spazio vettoriale in modo canonico:
    w ( z v ) := ( w z ) v , {\displaystyle w(z\otimes v):=(wz)\otimes v,}
    per ogni w {\displaystyle w} e z {\displaystyle z} appartenenti ad L {\displaystyle L} . Nel caso particolare con K = R {\displaystyle K=\mathbb {R} } e L = C {\displaystyle L=\mathbb {C} } il processo si dice di complessificazione ed è utile per studiare la struttura degli endomorfismi di V {\displaystyle V} con autovalori complessi.

Coordinate

Basi e coordinate

Siano V {\displaystyle V} e W {\displaystyle W} due spazi vettoriali con basi { v i } i = 1 , , n {\displaystyle \{v_{i}\}_{i=1,\dots ,n}} e { w j } j = 1 , , m {\displaystyle \{w_{j}\}_{j=1,\dots ,m}} rispettivamente.

Si consideri il prodotto tensoriale ( F / K , π i ) {\displaystyle (F/K,\pi \circ i)} costruito sopra. È chiaro che

{ π ( i ( v , w ) ) : v V , w W } {\displaystyle \{\pi (i(v,w)):v\in V,w\in W\}}

è un insieme di generatori per F / K {\displaystyle F/K} . Un qualsiasi altro prodotto ( V W , ) {\displaystyle (V\otimes W,\otimes )} che goda della proprietà universale deve (vedi Definizione) essere isomorfo a ( F / K , π i ) {\displaystyle (F/K,\pi \circ i)} con ( π i ) ( v , w ) {\displaystyle (\pi \circ i)(v,w)} che corrisponde a v w {\displaystyle v\otimes w} , quindi si può affermare che { v w : v V , w W } {\displaystyle \{v\otimes w:v\in V,w\in W\}} genera V W {\displaystyle V\otimes W} .

Per un generico v w {\displaystyle v\otimes w} sia

v = x i v i {\displaystyle v=\sum x^{i}v_{i}}

e

w = y j w j . {\displaystyle w=\sum y^{j}w_{j}.}

Grazie alla bilinearità di {\displaystyle \otimes } possiamo espandere v w {\displaystyle v\otimes w} come

v w = ( i = 1 n x i v i ) ( j = 1 m y j w j ) = i = 1 n j = 1 m x i y j ( v i w j ) {\displaystyle v\otimes w=\left(\sum _{i=1}^{n}x^{i}v_{i}\right)\otimes \left(\sum _{j=1}^{m}y^{j}w_{j}\right)=\sum _{i=1}^{n}\sum _{j=1}^{m}x^{i}y^{j}(v_{i}\otimes w_{j})}

per esempio, bastano i vettori v i w j {\displaystyle v_{i}\otimes w_{j}} con i = 1 , , n {\displaystyle i=1,\dots ,n} e j = 1 , , m {\displaystyle j=1,\dots ,m} per generare V W {\displaystyle V\otimes W} .

Nelle proprietà si è visto che V W {\displaystyle V\otimes W} ha dimensione n m {\displaystyle n\cdot m} , quindi i v i w j {\displaystyle v_{i}\otimes w_{j}} , che in totale sono n m {\displaystyle n\cdot m} , formano una base.

Fissata la base { v i w j } {\displaystyle \{v_{i}\otimes w_{j}\}} , come accade per tutti gli spazi vettoriali, ogni elemento di V W {\displaystyle V\otimes W} è unicamente determinato dalle sue coordinate. Più esplicitamente se a {\displaystyle a} appartiene a V W {\displaystyle V\otimes W} , esiste un unico insieme di n m {\displaystyle n\cdot m} numeri a i j {\displaystyle a^{ij}} tale che

a = i = 1 n j = 1 m a i j v i w j . {\displaystyle a=\sum _{i=1}^{n}\sum _{j=1}^{m}a^{ij}v_{i}\otimes w_{j}.}

Tensori covarianti, controvarianti e misti in coordinate

Per alleggerire la notazione, in questa e nelle prossime due sezione si userà la convenzione di Einstein. In poche parole, quando un indice appare sia a pedice che ad apice in una formula si sottintende la sommatoria su quell'indice. Ad esempio

e j = L j i f i {\displaystyle e_{j}=L_{j}^{i}f_{i}}

in realtà sta per

e j = i L j i f i . {\displaystyle e_{j}=\sum _{i}L_{j}^{i}f_{i}.}

Come accennato negli esempi, in geometria differenziale ricorrono spesso prodotti tensoriali del tipo

V V   V V {\displaystyle V\otimes \cdots \otimes V\otimes \ V^{*}\otimes \cdots \otimes V^{*}}

dove V {\displaystyle V} è lo spazio tangente ad un punto di una varietà differenziale e V {\displaystyle V^{*}} è il suo duale. Se i fattori V {\displaystyle V} sono m {\displaystyle m} mentre i V {\displaystyle V^{*}} sono n {\displaystyle n} , i vettori di questo prodotto tensoriale si dicono tensori (misti) di tipo ( m , n ) {\displaystyle (m,n)} .

Nel caso particolare in cui n = 0 {\displaystyle n=0} cambiano nome in tensori controvarianti di ordine m {\displaystyle m} , mentre se ci sono solo fattori V {\displaystyle V^{*}} diventano i tensori covarianti di ordine n {\displaystyle n} .

Si fissi una base { e i } i = 1 , , r {\displaystyle \{e_{i}\}_{i=1,\dots ,r}} per V {\displaystyle V} e la duale { ε j } j = 1 , , r {\displaystyle \{\varepsilon _{j}\}_{j=1,\dots ,r}} su V {\displaystyle V^{*}} , per esempio

ε j ( e i ) = δ i j {\displaystyle \varepsilon ^{j}(e_{i})=\delta _{i}^{j}}

dove il termine di destra è il delta di Kronecker. Un tensore a {\displaystyle a} di tipo ( m , n ) {\displaystyle (m,n)} in componenti si scrive (adottando la convenzione di Einstein)

a = a j 1 j m i 1 i n e i 1 e i n ε j 1 ε j m {\displaystyle a=a_{j_{1}\dots j_{m}}^{i_{1}\dots i_{n}}e_{i_{1}}\otimes \cdots \otimes e_{i_{n}}\otimes \varepsilon ^{j_{1}}\otimes \cdots \otimes \varepsilon ^{j_{m}}}

con ogni i {\displaystyle i} ed ogni j {\displaystyle j} sommato tra 1 {\displaystyle 1} e r {\displaystyle r} (la dimensione di V {\displaystyle V} e V {\displaystyle V^{*}} ).

Cambiamenti di base e trasformazione delle componenti

Nel contesto della sezione precedente, siano { e i } i = 1 , , r {\displaystyle \{e_{i}\}_{i=1,\dots ,r}} e { f i } i = 1 , , r {\displaystyle \{f_{i}\}_{i=1,\dots ,r}} due basi di V {\displaystyle V} , e

L = ( L 1 1 L r 1 L 1 r L r r ) {\displaystyle L={\begin{pmatrix}L_{1}^{1}&\cdots &L_{r}^{1}\\\vdots &\ddots &\vdots \\L_{1}^{r}&\cdots &L_{r}^{r}\end{pmatrix}}}

la matrice di cambiamento di base che porta le coordinate di un vettore rispetto a { e j } {\displaystyle \{e_{j}\}} a quelle rispetto a { f i } {\displaystyle \{f_{i}\}} . Si ricorda che la j {\displaystyle j} -esima colonna di L {\displaystyle L} è formata dalle componenti di e j {\displaystyle e_{j}} rispetto alla base { f i } {\displaystyle \{f_{i}\}} , cioè

e j = L j i f i . {\displaystyle e_{j}=L_{j}^{i}f_{i}.}

Si fissino su V {\displaystyle V^{*}} le basi { ε l } {\displaystyle \{\varepsilon ^{l}\}} e { φ k } {\displaystyle \{\varphi ^{k}\}} duali di quelle prese in V {\displaystyle V} . Sia P {\displaystyle P} la matrice di cambiamento di base da { ε l } {\displaystyle \{\varepsilon ^{l}\}} a { φ p } {\displaystyle \{\varphi ^{p}\}} . In questo caso, perché gli indici dei covettori sono scritti in alto, la l {\displaystyle l} -esima riga di P {\displaystyle P} è data dalle componenti di ε l {\displaystyle \varepsilon ^{l}} rispetto a { φ k } {\displaystyle \{\varphi ^{k}\}} . Per definizione il prodotto P L {\displaystyle PL} ha in posizione l j {\displaystyle lj} il prodotto tra la l {\displaystyle l} -esima riga di P {\displaystyle P} e la j {\displaystyle j} -esima colona di L {\displaystyle L} . Come ricordato queste sono l'espressione in componenti di ε l {\displaystyle \varepsilon ^{l}} e di e j {\displaystyle e_{j}} rispetto a due basi una duale all'altra, quindi farne il prodotto riga per colonna equivale a calcolare

ε l ( e j ) = δ j l {\displaystyle \varepsilon ^{l}(e_{j})=\delta _{j}^{l}}

cioè, P L {\displaystyle PL} è la matrice identica, e P {\displaystyle P} è l'inversa di L {\displaystyle L} .

Trovare le leggi secondo cui variano le componenti di un tensore di tipo ( m , n ) {\displaystyle (m,n)} è solo questione di estendere per bilinearità un'espressione. Infatti, partendo dalle basi { e j } {\displaystyle \{e_{j}\}} e { ε l } {\displaystyle \{\varepsilon ^{l}\}} su V {\displaystyle V} e V {\displaystyle V^{*}} rispettivamente, un tensore a {\displaystyle a} si scrive in componenti

a = a l 1 l m j 1 j n e j 1 e j n ε l 1 ε l m {\displaystyle a=a_{l_{1}\dots l_{m}}^{j_{1}\dots j_{n}}e_{j_{1}}\otimes \cdots \otimes e_{j_{n}}\otimes \varepsilon ^{l_{1}}\otimes \cdots \otimes \varepsilon ^{l_{m}}}

ma

e j = L j i f i , ε l = P k l ϕ k {\displaystyle e_{j}=L_{j}^{i}f_{i},\quad \varepsilon ^{l}=P_{k}^{l}\phi ^{k}}

quindi sostituendo ed espandendo si arriva a

a = L j 1 i 1 L j n i n P k 1 l 1 P k m l m a l 1 l m j 1 j n f i 1 f i n ϕ k 1 ϕ k m {\displaystyle a=L_{j_{1}}^{i_{1}}\cdots L_{j_{n}}^{i_{n}}P_{k_{1}}^{l_{1}}\cdots P_{k_{m}}^{l_{m}}a_{l_{1}\dots l_{m}}^{j_{1}\dots j_{n}}f_{i_{1}}\otimes \cdots \otimes f_{i_{n}}\otimes \phi ^{k_{1}}\otimes \cdots \otimes \phi ^{k_{m}}\,\!}

o più classicamente, scrivendo solo le componenti

a k 1 k m i 1 i n = L j 1 i 1 L j n i n P k 1 l 1 P k m l m a l 1 l m j 1 j n . {\displaystyle a_{k_{1}\dots k_{m}}^{i_{1}\dots i_{n}}=L_{j_{1}}^{i_{1}}\cdots L_{j_{n}}^{i_{n}}P_{k_{1}}^{l_{1}}\cdots P_{k_{m}}^{l_{m}}a_{l_{1}\dots l_{m}}^{j_{1}\dots j_{n}}.\,\!}

Esempi

Fibrato tensoriale e sezioni in coordinate locali

La definizione di fibrato tensoriale di tipo ( m , n ) {\displaystyle (m,n)} su una varietà si trova negli esempi.

Si vedrà ora come la scelta di un sistema di coordinate locali per una varietà M {\displaystyle M} di dimensione r {\displaystyle r} determini una base per gli spazi tangenti ai, e quindi per le fibre nei, punti nel dominio delle coordinate locali.

Si fissi una carta ( U , x : U R n ) {\displaystyle (U,x\colon U\to R^{n})} , cioè, si scelga un sistema di coordinate locali sull'aperto U M {\displaystyle U\subset M} . Se p {\displaystyle p} è un punto di U {\displaystyle U} , di solito si indica con x i ( p ) {\displaystyle x^{i}(p)} la i {\displaystyle i} -esima coordinata di p {\displaystyle p} . Tra le quattro definizioni (equivalenti) di spazio tangente ad un punto che si trovano in letteratura prendiamo quella in cui i vettori tangenti sono derivazioni. Si dimostra (vedi, ad esempio, Warner paragrafi da 1.13 a 1.19) che i vettori

x 1 | p , , x r | p {\displaystyle \left.{\frac {\partial }{\partial x^{1}}}\right|_{p},\dots ,\left.{\frac {\partial }{\partial x^{r}}}\right|_{p}}

formano una base di M p {\displaystyle M_{p}} . Gli indici posti, come in questo caso, all'apice di una quantità a denominatore sono da considerarsi come a pedice. La base duale in M p {\displaystyle M_{p}^{*}} si indica con

d x 1 | p ,   , d x r | p . {\displaystyle dx^{1}|_{p},\ \dots ,dx^{r}|_{p}.}

Ricapitolando, la scelta di un sistema di coordinate locali ( U , x ) {\displaystyle (U,x)} identifica delle basi per gli spazi tangenti M p {\displaystyle M_{p}} ai punti p {\displaystyle p} appartenenti ad U {\displaystyle U} , e le corrispettive duali sugli M p {\displaystyle M_{p}^{*}} . Una fibra π 1 ( p ) {\displaystyle \pi ^{-1}(p)} , p U {\displaystyle p\in U} è, come segue direttamente dalla definizione, un prodotto tensoriale

M p M p M p M p {\displaystyle M_{p}\otimes \cdots \otimes M_{p}\otimes M_{p}^{*}\otimes \cdots \otimes M_{p}^{*}}

che quindi ha come base tutti i tensori di tipo ( m , n ) {\displaystyle (m,n)} della forma

x i 1 | p x i m | p d x j 1 | p d x j n | p . {\displaystyle \left.{\frac {\partial }{\partial x^{i_{1}}}}\right|_{p}\otimes \cdots \otimes \left.{\frac {\partial }{\partial x^{i_{m}}}}\right|_{p}\otimes dx^{j_{1}}|_{p}\otimes \dots \otimes dx^{j_{n}}|_{p}.}

Un elemento a ( p ) {\displaystyle a(p)} di π 1 ( p ) {\displaystyle \pi ^{-1}(p)} si scrive in coordinate come

a ( p ) = a j 1 j m i 1 i n ( p ) x i 1 | p x i m | p d x j 1 | p d x j n | p . {\displaystyle a(p)=a_{j_{1}\dots j_{m}}^{i_{1}\dots i_{n}}(p)\left.{\frac {\partial }{\partial x^{i_{1}}}}\right|_{p}\otimes \cdots \otimes \left.{\frac {\partial }{\partial x^{i_{m}}}}\right|_{p}\otimes dx^{j_{1}}|_{p}\otimes \dots \otimes dx^{j_{n}}|_{p}.}

Sfruttando queste "trivializzazioni" si può indurre una struttura di varietà differenziale su T n m {\displaystyle T_{n}^{m}} (vedi, ad esempio, Warner paragrafo 2.14).

Una funzione liscia a {\displaystyle a} da M {\displaystyle M} su T n m M {\displaystyle T_{n}^{m}M} tale che π ( a ( p ) ) = p {\displaystyle \pi (a(p))=p} si dice sezione o campo tensoriale, ed equivale ad assegnare ad ogni punto p {\displaystyle p} di M {\displaystyle M} un elemento a ( p ) {\displaystyle a(p)} della fibra π 1 ( p ) {\displaystyle \pi ^{-1}(p)} in modo che le componenti di a ( p ) {\displaystyle a(p)} in un (e quindi per ogni) sistema di coordinate locali contenente p {\displaystyle p} siano funzioni lisce di p {\displaystyle p} . Spesso, nei libri di fisica, viene usata la parola "tensore" per indicare un campo tensoriale.

Simboli di Christoffel, notazione matriciale e curvatura

La definizione di connessione come una funzione

D : Γ ( E ) Γ ( T ( M ) E ) , {\displaystyle D\colon \Gamma (E)\to \Gamma (T^{*}(M)\otimes E),}

con Γ ( E ) {\displaystyle \Gamma (E)} l'insieme delle sezioni del fibrato E M {\displaystyle E\to M} , che soddisfa le due proprietà elencate sopra ha il vantaggio di avere una espressione estremamente elegante in coordinate, usando la notazione matriciale.

Sia ( U , x = ( x 1 , , x m ) ) {\displaystyle (U,x=(x^{1},\dots ,x^{m}))} una carta locale di M {\displaystyle M} ed s 1 , , s n {\displaystyle s_{1},\dots ,s_{n}} sezioni di E {\displaystyle E} che formano una base in ogni punto di U {\displaystyle U} . Si ha che d x j {\displaystyle dx^{j}} , con j = 1 , , m {\displaystyle j=1,\dots ,m} , sono una base di T ( U ) {\displaystyle T^{*}(U)} quindi D ( s i ) {\displaystyle D(s_{i})} si scrive in coordinate come

D ( s i ) p = k = 1 n j = 1 m Γ i j k ( p ) d x j | p s k ( p ) , {\displaystyle D(s_{i})_{p}=\sum _{k=1}^{n}\sum _{j=1}^{m}\Gamma _{ij}^{k}(p)dx^{j}|_{p}\otimes s_{k}(p),}

per ogni p {\displaystyle p} appartenente ad U {\displaystyle U} , che d'ora in poi si darà per sottinteso e quindi si smetterà di scriverlo, e dove le Γ i j k ( p ) {\displaystyle \Gamma _{ij}^{k}(p)} sono funzioni lisce di p {\displaystyle p} chiamate simboli di Christoffel. Per rendere elegante la notazione si definiscono la matrice ω := ( ω i k ) i k {\displaystyle \omega :=(\omega _{i}^{k})_{ik}} , con l'indice in alto che varia sulle colonne e l'indice in basso sulle righe (mentre di solito è il contrario), a coefficienti in T ( U ) {\displaystyle T^{*}(U)}

ω i k := j = 1 m Γ i j k d x j , {\displaystyle \omega _{i}^{k}:=\sum _{j=1}^{m}\Gamma _{ij}^{k}dx^{j},}

ed il vettore colonna S := ( s k ) {\displaystyle S:=(s_{k})} a coefficienti nelle sezioni sopra ad U {\displaystyle U} . Allora

D ( s i ) = k = 1 n j = 1 m Γ i j k d x j s k = k = 1 n ω i k s k , {\displaystyle D(s_{i})=\sum _{k=1}^{n}\sum _{j=1}^{m}\Gamma _{ij}^{k}dx^{j}\otimes s_{k}=\sum _{k=1}^{n}\omega _{i}^{k}\otimes s_{k},}

sono n {\displaystyle n} equazioni che si sintetizzano per convenzione in

D ( S ) = ω S , {\displaystyle D(S)=\omega \otimes S,}

dove {\displaystyle \otimes } non è un prodotto tensoriale ma sta ad indicare che si deve usare la regola di moltiplicazione riga per colonna delle matrici, solo che al posto del classico prodotto tra scalari (che in questo contesto non ha palesemente senso perché i coefficienti delle matrici coinvolte non sono scalari, quindi non c'è pericolo di confusione) si usa il prodotto tensoriale; e l'operatore D {\displaystyle D} va applicato ad ogni singola componente di S {\displaystyle S} . La matrice ω {\displaystyle \omega } è detta matrice di transizione.

Fissato p {\displaystyle p} , le quantità ω i k ( p ) {\displaystyle \omega _{i}^{k}(p)} non sono dei tensori perché dipendono dalla scelta delle s 1 , , s n {\displaystyle s_{1},\dots ,s_{n}} . Questo significa che la geometria del fibrato vettoriale non è codificata nella matrice ω {\displaystyle \omega } . Nonostante ciò, manipolando la formula del cambiamento di coordinate di ω {\displaystyle \omega } , si vede facilmente che la matrice Ω := d ω ω ω {\displaystyle \Omega :=d\omega -\omega \wedge \omega } , detta matrice di curvatura, si trasforma nel modo corretto, ed è proprio questa che contiene le informazioni geometriche. Nei prossimi due paragrafi saranno dati ulteriori dettagli.

Cambio di coordinate
Lo stesso argomento in dettaglio: Matrice di transizione.

Sia T = ( t l ) {\displaystyle T=(t_{l})} un vettore colonna con componenti n sezioni di E {\displaystyle E} che formano una base ad ogni punto di U {\displaystyle U} . Se p {\displaystyle p} appartiene ad U {\displaystyle U} allora esistono m × m {\displaystyle m\times m} scalari a l k ( p ) {\displaystyle a_{l}^{k}(p)} tali che

t l ( p ) = k = 1 m a l k ( p ) s k ( p ) {\displaystyle t_{l}(p)=\sum _{k=1}^{m}a_{l}^{k}(p)s_{k}(p)}

o, posto A ( p ) := ( a l k ( p ) ) l k {\displaystyle A(p):=(a_{l}^{k}(p))_{lk}} (come prima, k {\displaystyle k} varia sulle colonne mentre l sulle righe), in notazione matriciale T = A S {\displaystyle T=AS} . Le a l k ( p ) {\displaystyle a_{l}^{k}(p)} sono delle funzioni di transizione per E {\displaystyle E} , e per definizione di fibrato sono lisce in p {\displaystyle p} . Per legare la matrice di trasferimento rispetto a S {\displaystyle S} , ω {\displaystyle \omega } , a quella rispetto a T {\displaystyle T} , ω {\displaystyle \omega '} , si noti che (usando la seconda proprietà della connessione)

D ( T ) = D ( A S ) = d A S + A D ( S ) = ( d A + A ω ) S = ( d A A 1 + A ω A 1 ) T {\displaystyle D(T)=D(AS)=dA\otimes S+AD(S)=(dA+A\omega )\otimes S=(dAA^{-1}+A\omega A^{-1})\otimes T}

dove A 1 {\displaystyle A^{-1}} , in ogni p {\displaystyle p} , è la matrice inversa di A ( p ) {\displaystyle A(p)} che ovviamente esiste perché A ( p ) {\displaystyle A(p)} manda una base in una base, e d A {\displaystyle dA} è la matrice che ha per componenti i differenziali delle componenti di A {\displaystyle A} . Quindi il cambio di coordinate per ω {\displaystyle \omega } è dato dalla formula

ω = d A A 1 + A ω A 1 . {\displaystyle \omega '=dAA^{-1}+A\omega A^{-1}.}

Il primo addendo di destra è proprio il motivo per cui le componenti di ω {\displaystyle \omega } non sono tensori.

La matrice di curvatura

Per vedere che la matrice di curvatura Ω := d ω ω ω {\displaystyle \Omega :=d\omega -\omega \wedge \omega } è invariante bastano due passaggi ulteriori. Si moltiplica a destra l'ultima equazione per A {\displaystyle A} , poi si fa la derivata esterna ottenendo

d ω A ω d A = d A ω + A d ω , {\displaystyle d\omega 'A-\omega '\wedge dA=dA\wedge \omega +Ad\omega ,}

dove ω d A {\displaystyle \omega '\wedge dA} è, come nel caso di {\displaystyle \otimes } tra due matrici, da considerarsi come una moltiplicazione riga per colonna con le componenti moltiplicate tramite il prodotto esterno {\displaystyle \wedge } . Ora si noti che

ω = d A A 1 + A ω A 1 d A = ω A A ω , {\displaystyle \omega '=dAA^{-1}+A\omega A^{-1}\quad \Rightarrow \quad dA=\omega 'A-A\omega ,}

sostituendo nella precedente si conclude

( d ω ω ω ) = A ( d ω ω ω ) A 1 . {\displaystyle (d\omega '-\omega '\wedge \omega ')=A(d\omega -\omega \wedge \omega )A^{-1}.}

cioè Ω {\displaystyle \Omega } è invariante.

Usando Ω {\displaystyle \Omega } si può definire il più classico tensore di Riemann R ( , ) {\displaystyle R(\cdot ,\cdot )} .

Definizione classica di tensore

La definizione universale del prodotto tensoriale è abbastanza recente. I tensori sono nati nel contesto della geometria differenziale e della rappresentazione dei gruppi come insiemi di numeri che al cambio di base si trasformano secondo la legge

a k 1 k m i 1 i n = L j 1 i 1 L j n i n P k 1 l 1 P k m l m a l 1 l m j 1 j n , P = L 1 . {\displaystyle a_{k_{1}\dots k_{m}}^{i_{1}\dots i_{n}}=L_{j_{1}}^{i_{1}}\cdots L_{j_{n}}^{i_{n}}P_{k_{1}}^{l_{1}}\cdots P_{k_{m}}^{l_{m}}a_{l_{1}\dots l_{m}}^{j_{1}\dots j_{n}},\quad P=L^{-1}.}

Questa definizione è tutt'oggi la più usata nei corsi e nei testi di fisica introduttivi sulla relatività generale.

Prodotto tensoriale di moduli

Possiamo estendere la definizione di prodotto tensoriale anche ai moduli. Se R {\displaystyle R} è un anello commutativo la costruzione per due R {\displaystyle R} -moduli M {\displaystyle M} , N {\displaystyle N} è praticamente identica a quella per gli spazi vettoriali. Se invece R {\displaystyle R} non è commutativo ma M {\displaystyle M} (rispettivamente. N {\displaystyle N} ) è un ( S , R ) {\displaystyle (S,R)} -bimodulo (rispettivamente ( R , S ) {\displaystyle (R,S)} ) allora si può aggiustare la costruzione ed il prodotto tensoriale risulta essere un S {\displaystyle S} -modulo destro (rispettivamente sinistro). In generale quando R {\displaystyle R} non è commutativo ed M {\displaystyle M} , N {\displaystyle N} sono due R {\displaystyle R} -moduli possiamo pretendere solamente la struttura di gruppo abeliano su M R N {\displaystyle M\otimes _{R}N} .

Può accadere che ci siano dei collassamenti nel prodotto tensoriale fra moduli. Prendiamo ad esempio Z / m Z {\displaystyle \mathbb {Z} /m\mathbb {Z} } e Z / n Z {\displaystyle \mathbb {Z} /n\mathbb {Z} } come Z {\displaystyle \mathbb {Z} } -moduli con m {\displaystyle m} , n {\displaystyle n} coprimi. Visto che possiamo scrivere l'unità come combinazione lineare di n {\displaystyle n} ed m {\displaystyle m}

1 = λ m + μ n , {\displaystyle 1=\lambda m+\mu n,}

abbiamo

x y = ( λ m + μ n ) x y = λ ( m x ) y + μ x ( n y ) = 0 , {\displaystyle x\otimes y=(\lambda m+\mu n)x\otimes y=\lambda (mx)\otimes y+\mu x\otimes (ny)=0,}

e siccome Z / m Z Z / n Z {\displaystyle \mathbb {Z} /m\mathbb {Z} \otimes \mathbb {Z} /n\mathbb {Z} } è generato dagli elementi x y {\displaystyle x\otimes y} concludiamo che

Z / m Z Z / n Z = 0. {\displaystyle \mathbb {Z} /m\mathbb {Z} \otimes \mathbb {Z} /n\mathbb {Z} =0.}

Prodotto tensoriale di spazi di Hilbert

Il prodotto tensoriale di due spazi di Hilbert è un altro spazio di Hilbert, che è definito come descritto di seguito.

Definizione

Siano H 1 {\displaystyle H_{1}} e H 2 {\displaystyle H_{2}} due spazi di Hilbert con prodotti interni ( , ) 1 {\displaystyle (\cdot ,\cdot )_{1}} e ( , ) 2 {\displaystyle (\cdot ,\cdot )_{2}} rispettivamente. Si costruisca il prodotto tensoriale H 1 H 2 {\displaystyle H_{1}\otimes H_{2}} di spazi vettoriali come spiegato sopra. Si può dotare questo prodotto tensore di spazi vettoriali di un prodotto interno definendo

( φ 1 φ 2 , ψ 1 ψ 2 ) := ( φ 1 , ψ 1 ) 1 ( φ 2 , ψ 2 ) 2 {\displaystyle (\varphi _{1}\otimes \varphi _{2},\psi _{1}\otimes \psi _{2}):=(\varphi _{1},\psi _{1})_{1}\cdot (\varphi _{2},\psi _{2})_{2}}

dove

φ 1 , ψ 1 H 1 {\displaystyle \varphi _{1},\psi _{1}\in H_{1}}

mentre

φ 2 , ψ 2 H 2 {\displaystyle \varphi _{2},\psi _{2}\in H_{2}}

ed estenderlo per linearità. Infine, si prenda il completamento rispetto a questo prodotto interno. Il risultato è il prodotto tensore di H 1 {\displaystyle H_{1}} e H 2 {\displaystyle H_{2}} come spazi di Hilbert.

Proprietà

Se H 1 {\displaystyle H_{1}} e H 2 {\displaystyle H_{2}} hanno come base ortonormale { φ k } {\displaystyle \{\varphi _{k}\}} e { ψ l } {\displaystyle \{\psi _{l}\}} , rispettivamente, allora { φ k ψ l } {\displaystyle \{\varphi _{k}\otimes \psi _{l}\}} è una base ortonormale per H 1 H 2 {\displaystyle H_{1}\otimes H_{2}} .

Esempi ed applicazioni

I seguenti esempi mostrano come i prodotti tensori emergano naturalmente.

Assegnati due spazi di misura X {\displaystyle X} e Y {\displaystyle Y} , con misure μ {\displaystyle \mu } e ν {\displaystyle \nu } rispettivamente, si può studiare lo spazio Lp chiamato L 2 ( X × Y ) {\displaystyle L^{2}(X\times Y)} , lo spazio delle funzioni su X × Y {\displaystyle X\times Y} che sono a quadrato sommabili rispetto alla misura prodotto μ × ν {\displaystyle \mu \times \nu } . Se f {\displaystyle f} e g {\displaystyle g} sono funzioni a quadrato sommabili su X {\displaystyle X} ed Y {\displaystyle Y} rispettivamente, si può definire una funzione h {\displaystyle h} su X × Y {\displaystyle X\times Y} ponendo h ( x , y ) = f ( x ) g ( y ) {\displaystyle h(x,y)=f(x)g(y)} . La definizione della misura prodotto assicura che tutte le funzioni con questa forma sono a quadrato sommabili, cosicché h {\displaystyle h} definisce una mappa bilineare L 2 ( X ) × L 2 ( Y ) L 2 ( X × Y ) {\displaystyle L^{2}(X)\times L^{2}(Y)\to L^{2}(X\times Y)} .

Anche le combinazioni lineari di funzioni della forma f ( x ) g ( y ) {\displaystyle f(x)g(y)} appartengono a L 2 ( X × Y ) {\displaystyle L^{2}(X\times Y)} . Risulta infatti che l'insieme delle combinazioni lineari è denso in L 2 ( X × Y ) {\displaystyle L^{2}(X\times Y)} , se L 2 ( X ) {\displaystyle L^{2}(X)} e L 2 ( Y ) {\displaystyle L^{2}(Y)} sono separabili. Questo mostra che L 2 ( X ) L 2 ( Y ) {\displaystyle L^{2}(X)\otimes L^{2}(Y)} è isomorfo a L 2 ( X × Y ) {\displaystyle L^{2}(X\times Y)} , e spiega perché si debba prendere il completamento nella costruzione del prodotto tensore fra spazi di Hilbert.

Analogamente, si può mostrare che L 2 ( X , H ) {\displaystyle L^{2}(X,H)} , lo spazio delle funzioni a quadrato sommabili X H {\displaystyle X\to H} , è isomorfo a L 2 ( X ) H {\displaystyle L^{2}(X)\otimes H} se lo spazio è separabile. L'isomorfismo manda f ( x ) φ L 2 ( X ) H {\displaystyle f(x)\otimes \varphi \in L^{2}(X)\otimes H} in f ( x ) φ L 2 ( X , H ) {\displaystyle f(x)\varphi \in L^{2}(X,H)} . Possiamo combinare ciò con il precedente esempio e concludere che L 2 ( X ) L 2 ( Y ) {\displaystyle L^{2}(X)\otimes L^{2}(Y)} e L 2 ( X × Y ) {\displaystyle L^{2}(X\times Y)} sono entrambi isomorfi a L 2 ( X , L 2 ( Y ) ) {\displaystyle L^{2}(X,L^{2}(Y))} .

Il prodotto tensore di spazi di Hilbert ricorre nella meccanica quantistica. Se una particella è descritta dallo spazio di Hilbert H 1 {\displaystyle H_{1}} , ed un'altra particella da H 2 {\displaystyle H_{2}} , allora il sistema composto dalle due particelle è descritto dal prodotto di H 1 {\displaystyle H_{1}} e H 2 {\displaystyle H_{2}} . Per esempio, lo spazio necessario a descrivere un oscillatore armonico quantistico è L 2 ( R ) {\displaystyle L^{2}(R)} , e per descrivere due oscillattori armonici si userà L 2 ( R ) L 2 ( R ) {\displaystyle L^{2}(R)\otimes L^{2}(R)} , che è isomorfo a L 2 ( R 2 ) {\displaystyle L^{2}(R^{2})} . Quindi il sistema a due particelle è associato ad una funzione d'onda della forma φ ( x 1 , x 2 ) {\displaystyle \varphi (x_{1},x_{2})} . Un esempio più generale è fornito dagli spazi di Fock, che descrivono un sistema con un numero variabile di particelle.

Prodotto tensore ed entanglement

Come detto sopra, uno degli assiomi della meccanica quantistica moderna è che se due sistemi sono descritti dagli spazi di Hilbert V {\displaystyle V} e W {\displaystyle W} allora il sistema complessivo è descritto dal prodotto tensore V W {\displaystyle V\otimes W} . Una conseguenza diretta di questo assioma è il fenomeno dell'entanglement : l'esistenza di stati del sistema complessivo che non sono direttamente interpretabili a partire dagli stati delle sue componenti V {\displaystyle V} e W {\displaystyle W} .

Per essere più precisi, supponiamo che i sistemi rappresentati da V {\displaystyle V} e W {\displaystyle W} siano qubit, e quindi che dim V = dim W = 2 {\displaystyle \dim V=\dim W=2} (ma la situazione si generalizza immediatamente a qualsiasi dimensione finita). Scegliamo una base in V {\displaystyle V} ed una in W {\displaystyle W} , indicandole con { | 0 , | 1 } {\displaystyle \{|0\rangle ,|1\rangle \}} , allora il generico vettore nel prodotto tensore si scrive come p = c 1 | 00 + c 2 | 10 + c 3 | 01 + c 4 | 11 {\displaystyle p=c_{1}|00\rangle +c_{2}|10\rangle +c_{3}|01\rangle +c_{4}|11\rangle } dove | i j := | i | j {\displaystyle |ij\rangle :=|i\rangle \otimes |j\rangle } per i , j = 0 , 1 {\displaystyle i,j=0,1} .

Come si vede il generico vettore è allora sovrapposizione di vettori fattorizzabili, ossia corrispondenti ad un elemento in V × W {\displaystyle V\times W} . A prima vista, questo, potrebbe sembrare la manifestazione dell'entanglement, ma non è così: si tratta semplicemente della conseguenza dell'assioma della meccanica quantistica che impone di usare gli spazi di Hilbert per rappresentare gli stati di un sistema.

Il fenomeno dell'entanglement è qualcosa di diverso: per il generico vettore p {\displaystyle p} non è detto che esista un vettore v {\displaystyle v} in V {\displaystyle V} ed uno w {\displaystyle w} in W {\displaystyle W} che fattorizzano p {\displaystyle p} , ossia per i quali valga p = | v | w {\displaystyle p=|v\rangle \otimes |w\rangle } .

Bisogna fare attenzione al fatto che un vettore potrebbe non sembrare fattorizzato per una certa scelta di basi in V {\displaystyle V} e W {\displaystyle W} , ma esserlo per un'altra scelta di basi.

In genere, se nessuno dei due spazi ha dimensione 1 {\displaystyle 1} , esistono vettori non fattorizzabili per alcuna base e questi vengono chiamati stati entangled.

Linguaggi di programmazione vettoriali

I linguaggi di programmazione possono avere questa applicazione predefinita. Ad esempio, in APL il prodotto tensore è espresso come . × {\displaystyle \circ .\times } :

A . × B {\displaystyle A\circ .\times B} oppure A . × B . × C {\displaystyle A\circ .\times B\circ .\times C} .

In J il prodotto tensore è la forma diadica / {\displaystyle */} ; per esempio

a / b {\displaystyle a*/b} oppure a / b / c {\displaystyle a*/b*/c} .

Si noti che il trattamento con J permette la rappresentazione di alcuni campi tensoriali (così a {\displaystyle a} e b {\displaystyle b} possono essere funzioni invece che costanti—il risultato è allora una funzione derivata, e se a {\displaystyle a} e b {\displaystyle b} sono differenziabili allora anche a / b {\displaystyle a*/b} è differenziabile).

Comunque questo tipo di notazione non è universalmente presente nei linguaggi per la manipolazione di vettori. Alcuni linguaggi richiedono l'esplicito trattamento degli indici (per esempio, MATLAB) e possono supportare o meno funzioni di ordine più elevato come lo jacobiano (per esempio, Fortran/APL).

Bibliografia

Per un punto di vista algebrico:

  • (EN) Igor Shafarevich, Basic Notions of Algebra, Springer, 2005, ISBN 3-540-25177-4.
  • (EN) Serge Lang, Algebra, Springer, 2005, ISBN 0-387-95385-X.
  • (EN) Paul Moritz Cohn, Basic Algebra, Springer, 2003, ISBN 1-85233-587-4.
  • (EN) Saunders Mac Lane, Garrett Birkhoff, Algebra, AMS Chelsea, 1999, ISBN 0-8218-1646-2.

In relazione a geometria e topologia differenziali (alcuni di questi testi, più orientati alla geometria, presentano il prodotto tensoriale solo con le forme multilineari):

  • (EN) John Lee, Introduction to Smooth Manifolds, Springer, 2002, ISBN 0-387-95448-1.
  • (EN) Frank Warner, Foundations of Differentiable Manifolds and Lie Groups, Springer, 1983, ISBN 0-387-90894-3.
  • (EN) Michael Spivak, A Comprehensive Introduction to Differential Geometry, Vol. 1, Publish or Perish, Inc., 2005, ISBN 0-914098-70-5.
  • (EN) Klaus Jänich, Vector Analysis, Springer, 2001, ISBN 0-387-98649-9.
  • (EN) C. T. J. Dodson, Tim Poston, Tensor Geometry. The Geometric Viewpoint and its Use, Springer, 1991, ISBN 3-540-52018-X.
  • (EN) Shiing-shen Chern, W. H. Chern; K. S. Lam, Differential Geometry, World Scientific Publishing, 2000, ISBN 981-02-4182-8.
  • (EN) Richard Bishop, Samuel Goldberg, Tensor Analysis on Manifolds, Dover, 1980, ISBN 0-486-64039-6.
  • (EN) James Munkres, Analysis on Manifolds, Westview Press, 1990, ISBN 0-201-31596-3.

Per vedere il prodotto tensoriale usato in altri ambiti matematici:

  • (EN) P. J. Hilton, U. Stammbach, A Course in Homological Algebra, Springer, 1997, ISBN 0-387-94823-6.
  • (EN) David Eisenbud, Commutative Algebra: with a View Toward Algebraic Geometry, Springer, 1999, ISBN 0-387-94269-6.
  • (EN) Michael Atiyah, K-theory, Westview Press, 1994, ISBN 0-201-40792-2.
  • (EN) Dale Husemoller, Fibre Bundles, Springer, 1993, ISBN 0-387-94087-1.

Voci correlate

Altri progetti

Altri progetti

  • Wikizionario
  • Collabora a Wikizionario Wikizionario contiene il lemma di dizionario «prodotto tensoriale»

Collegamenti esterni

  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica