Tullio il simbolo di Levi-Civita
"Gli spaghetti e Levi-Civita."
Tullio Levi-Civita è stato un grande matematico italiano vissuto a cavallo tra il XIX e il XX secolo. È ricordato soprattutto perché, in collaborazione con il suo insegnante Gregorio Ricci Curbastro (che da il nome al tensore di Ricci), pubblicò nel 1900 un articolo fondamentale che pose le basi per il calcolo tensoriale. Tale articolo forniva gli strumenti che, tra le altre cose, sarebbero stati utilizzati da Einstein per la sua teoria della relatività generale del 1915.

In suo onore si chiama simbolo di Levi-Civita lo pseudotensore $n$-dimensionale di ordine $n$ (quindi una grandezza rappresentabile attraverso $n^n$ coordinate e $n$ indici) unitario e completamente antisimmetrico (cioè antisimmetrico rispetto allo scambio di ogni coppia di indici), e che quindi in dimensione $2$, ad esempio, sarà semplicemente \begin{equation} \epsilon_{ij} = \left( \begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array} \right) \label{SimboloDiRicciBidimensionale} \end{equation}
In suo onore mi sono permesso di chiamare "Tullio" (spero che mi perdonerà la confidenza) questa pagina che cerca di ripercorre gli innumerevoli ambiti in cui questa importante nozione, declinata in vari modi, svolge un ruolo cruciale. Questo percorso passerà per i numeri complessi, la combinatoria, l'algebra e l'analisi in dimensione arbitraria, per passare poi alla fisica relativistica, in particolare le equazioni di Maxwell della fisica classica e le equazioni spinoriali della meccanica quantistica relativistica.
I numeri complessi
Uno dei più semplici esempi di utilizzo del simbolo di Levi-Civita, in cui è tra l'altro sufficiente la sua definizione bidimensionale data dalla \eqref{SimboloDiRicciBidimensionale}, sono i numeri complessi (se i numeri complessi non ti sono familiari potresti dare un'occhiata al mio programma Argand.exe prima di continuare). I numeri complessi possono essere infatti rappresentati da matrici reali $2 \times 2$. Ogni numero nella forma $\left( a + i \, b \right) \in \mathbb{C}$ con $a , b \in \mathbb{R}$ e $i^2 = -1$ corrisponde infatti ad una matrice antisimmetrica nella forma $$ \left( \begin{array}{cc} a & b \\ -b & a \end{array} \right) $$ In questa forma la somma di numeri complessi corrisponde alla somma tra matrici e la moltiplicazione complessa è rappresentata dall'usuale prodotto "riga per colonna", com'è facile verificare $$ \left( \begin{array}{cc} a & b \\ -b & a \end{array} \right) \left( \begin{array}{cc} c & d \\ -d & c \end{array} \right) = \left( \begin{array}{cc} a \, c - b \, d & a \, d + b \, c \\ -a \, d - b \, c & a \, c - b \, d \end{array} \right) $$ infatti $$ \begin{alignedat}{2} &\left( a + i \, b \right) \left( c + i \, d \right) = \\ = \, &a \, c + i \left( a \, d + b \, c \right) + i^2 \, b \, d = \\ = \, &\left( a \, c - b \, d \right) + i \left( a \, d + b \, c \right) \end{alignedat} $$
Il ruolo dell'unità è svolto dalla delta di Kronecker $$ \delta_{ij} = \left( \begin{array}{cc} 1 & 0 \\ 0 & 1 \end{array} \right) $$ mentre l'unità immaginaria corrisponde alla matrice unitaria antisimmetrica $\epsilon_{ij}$, infatti $$ \left( \begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array} \right) \left( \begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array} \right) = \left( \begin{array}{cc} -1 & 0 \\ 0 & -1 \end{array} \right) $$ cioè $$ \sum_k \epsilon_{ik} \epsilon_{kj} = -\delta_{ij} $$ che può essere riscritto senza indici nella forma $$ \epsilon^2 = -\delta $$ in cui si vede chiaramente che è l'analogo di $$ i^2 = -1 $$
Le permutazioni
Il simbolo di Levi-Civita compare in svariati ambiti della matematica perché in sostanza codifica al suo interno il concetto di permutazione e di parità di una permutazione. Una permutazione semplice (senza ripetizioni) di $n$ elementi si dice pari se è ottenibile dalla sequenza di partenza con un numero pari di scambi, dispari viceversa.
Consideriamo ad esempio le prime $n$ lettere dell'alfabeto. Per $n = 2$ abbiamo banalmente $\text{AB}$ come permutazione pari ($0$ scambi) e $\text{BA}$ come permutazione dispari ($1$ scambio). Per $n = 3$ abbiamo $\text{ABC}$, $\text{BCA}$ e $\text{CAB}$ come permutazioni pari ($0$ scambi la prima, $2$ scambi le altre due) e $\text{CBA}$, $\text{BAC}$ e $\text{ACB}$ come permutazioni dispari ($1$ scambio ciascuna).
Passando a $n = 4$ le cose si complicano un po', ma il concetto resta lo stesso. In generale il numero di permutazioni semplice di $n$ elementi è $n!$, in quanto abbiamo prima di tutto la possibilità di scegliere $1$ tra gli $n$ elementi per la prima posizione, poi $n - 1$ possibilità per la seconda, e così via, fino alla penultima scelta in cui ci resteranno $2$ possibilità e infine l'ultima che sarà obbligata. Questo corrisponde proprio a $n! = n \left( n - 1 \right) ... 2$.
In dimensione $n$ il simbolo di Levi-Civita ha $n$ indici che prendono i valori da $1$ a $n$. Per definizione $$ \epsilon_{123...n} = 1 $$ e tutti gli altri valori sono determinati dalla richiesta di antisimmetria rispetto ad ogni possibile scambio di indici, cioè $$ \epsilon_{i...jk...} = -\epsilon_{i...kj...} $$ Questo comporta che i valori sono pari a $1$ per tutte le permutazioni pari (che includono anche la permutazione $123...n$ stessa) mentre i valori sono pari a $-1$ per le permutazioni dispari. Tutti i termini rimanenti, in cui compare almeno un indice ripetuto, sono pari a $0$. Questo è infatti l'unico modo di rispettare la condizione di antisimmetria, infatti $$ \epsilon_{i...jj...} = -\epsilon_{i...jj...} $$ implica che $$ \epsilon_{i...jj...} = 0 $$
Per $n = 2$ i valori sono quelli dati esplicitamente dalla \eqref{SimboloDiRicciBidimensionale} ($2! = 2$), mentre per $n = 3$ si ha $$ \epsilon_{123} = \epsilon_{231} = \epsilon_{312} = 1 $$ e $$ \epsilon_{321} = \epsilon_{213} = \epsilon_{132} = -1 $$ ($3! = 6$) e tutti i rimanenti termini sono pari a $0$. Per $n = 4$ i termini non nulli saranno $4! = 24$, eccetera.
Pseudotensori
È possibile definire i tensori in modo molto elegante ed astratto a partire dal concetto di prodotto tensoriale tra spazi vettoriali, ma per non dilungarci troppo, per i nostri fini (la definizione di pseudotensore) è sufficiente darne una definizione molto più pragmatica e "da fisico". Un tensore $n$-dimensionale di ordine $k$ è una grandezza che può essere rappresentata da $n^k$ coordinate (indicizzate da $k$ indici) che al cambio del sistema di riferimento si trasformano come il prodotto di $k$ vettori (che sono quindi tensori di ordine $1$, ognuno con il suo singolo indice).
Uno pseudotensore è una grandezza che può essere rappresentata da $n^k$ coordinate che al cambio del sistema di riferimento si trasformano come il prodotto di $k$ vettori nel caso di una rotazione, ma cambiano segno nel caso di una riflessione. Questo è legato al fatto che gli pseudotensori "codificano" il concetto di rotazione e, una volta stabilita una regola per il segno (ad esempio la rotazione antioraria positiva nel piano complesso o la classica regola della mano destra che si utilizza nel caso tridimensionale), questa deve essere mantenuta sempre. Ciò implica un cambio di segno nel caso in cui uno degli assi del sistema di riferimento cambi di segno. Per le rotazioni ciò non avviene e ciò è dovuto al fatto che un rotazione può sempre essere espressa attraverso due riflessioni (una rotazione $n$ dimensionale intorno ad una superficie $n - 2$ dimensionale corrisponde a due riflessioni rispetto a due superfici $n - 1$ dimensionali, la cui intersezione corrisponde proprio alla superficie $n - 2$ dimensionale rispetto alla quale è definita la rotazione) e il doppio cambio di segno si annulla nel risultato finale.
Il fatto che gli pseudotensori abbiano a che fare con le rotazioni è coerente con il fatto che la definizione di pseudotensore antisimmetrico non ha senso in dimensione $1$ (con un singolo indice non c'è nulla da antisimmetrizzare) dove pure la nozione di rotazione non ha senso (la superficie $n - 2$ dimensionale rispetto alla quale sarebbe definita la rotazione non esiste). Inoltre il ruolo degli pseudovettori, cioè gli pseudotensori di ordine $1$, è evidenziato nel caso tridimensionale dal fatto che sono anche chiamati vettori assiali.
Il simbolo di Levi-Civita è uno pseudotensore di ordine $n$ (in dimensione $n$) che vale $1$ per le permutazioni pari degli indici, $-1$ per quelle dispari, mentre quando compare una ripetizione di indice vale $0$. Questo, come abbiamo visto nel paragrafo precedente, è dovuto alla richiesta di completa antisimmetria rispetto allo scambio di ogni coppia di indici.
I duali di Hodge
Grazie al simbolo di Levi-Civita possiamo passare da tensori $n$-dimensionali di ordine $k$ a pseudotensori di ordine $n - k$ (o da pseudotensori di ordine $k$ a tensori di ordine $n - k$). Il risultato di questa trasformazione è chiamato duale di Hodge e il duale di un tensore $a$ si indica con $\star a$. Questo viene fatto contraendo tutti gli indici possibili tra il tensore di ordine $k$ e lo pseudotensore antisimmetrico di ordine $n$. Ad esempio nel caso tridimensionale avremo $4$ possibilità $$ \left( \star a \right)_{ijk} = \epsilon_{ijk} \, a $$ $$ \left( \star a \right)_{ij} = \sum_k \epsilon_{ijk} \, a_k $$ \begin{equation} \left( \star a \right)_i = \sum_j \sum_k \epsilon_{ijk} \, a_{jk} \label{DualeDiHodgeTridimensionaleTensoreDoppio} \end{equation} $$ \star a = \sum_i \sum_j \sum_k \epsilon_{ijk} \, a_{ijk} $$ contraendo lo pseudotensore con tensori di ordine $0$, $1$, $2$ e $3$ rispettivamente. Nel caso bidimensionale ci saranno $3$ possibilità, nel caso quadridimensionale $5$, eccetera.
In dimensione $3$ il passaggio da vettori a pseudotensori di ordine $3 - 1 = 2$ è legato al prodotto vettoriale (vedi paragrafo successivo). In dimensione $4$ il passaggio da tensori di ordine $2$ a pseudotensori di ordine $4 - 2 = 2$ e da quadrivettori a tensori di ordine $4 - 1 = 3$ è fondamentale per una descrizione quadridimensionale dell'elettromagnetismo (vedi relativo paragrafo più sotto).
Il prodotto esterno
Il prodotto esterno (o in inglese prodotto wedge, o ancora prodotto Grassmann, dal nome di Hermann Grassmann che per primo, in grande anticipo con i tempi, lo definì, perfino prima che fosse definito da Gibbs e Heaviside il prodotto vettoriale che in un certo senso generalizza) tra due tensori $a$ e $b$ di ordine $k$ e $h$ si indica con $a \wedge b$ ed è un tensore di ordine $k + h$ avente come componenti la somma dei prodotti delle componenti prese con tutte le possibili permutazioni di indici, predendo il valore positivo per le permutazioni pari, negativo per le permutazioni dispari. Il numero di addendi è quindi pari al numero di permutazioni semplici (senza ripetizioni), che è pari al fattoriale di $k + h$, e il risultato è antisimmetrico per definizione.
Nel caso, ad esempio, del prodotto esterno di un vettore (tensore di ordine $1$) per un tensore di ordine $2$ avremo: $$ \left( a \wedge b \right)_{ijk} = a_i \, b_{jk} + a_j \, b_{ki} + a_k \, b_{ij} - a_k \, b_{ji} - a_j \, b_{ik} - a_i \, b_{kj} $$ Nel caso invece del prodotto tra due vettori, vale a dire il prodotto esterno tra due tensori di ordine $1$, il risultato è un tensore doppio antisimmetrico $$ \left( a \wedge b \right)_{ij} = a_i \, b_j - a_j \, b_i $$ chiamato bivettore. Queste espressioni sono valide in dimensione arbitraria.
Nel caso particolare di $n = 3$ un bivettore risulta $$ \left( a \wedge b \right)_{ij} = \left( \begin{array}{ccc} 0 & a_x \, b_y - a_y \, b_x & a_x \, b_z - a_z \, b_x \\ a_y \, b_x - a_x \, b_y & 0 & a_y \, b_z - a_z \, b_y \\ a_z \, b_x - a_x \, b_z & a_z \, b_y - a_y \, b_z & 0 \end{array} \right) $$ e il suo duale di Hodge è uno pseudotensore di ordine $3 - 2 = 1$, quindi uno pseudovettore che non è altro che il risultato dell'ordinario prodotto vettoriale, infatti si vede che $$ \left( a \wedge b \right)_{ij} = \left( \begin{array}{ccc} 0 & \left( a \times b \right)_z & -\left( a \times b \right)_y \\ -\left( a \times b \right)_z & 0 & \left( a \times b \right)_x \\ \left( a \times b \right)_y & -\left( a \times b \right)_x & 0 \end{array} \right) $$ dove $$ \left( a \times b \right)_i = \sum_j \sum_k \epsilon_{ijk} \, a_j \, b_k = \left( \begin{array}{c} a_y \, b_z - a_z \, b_y \\ a_z \, b_x - a_x \, b_z \\ a_x \, b_y - a_y \, b_x \end{array} \right) $$ e quindi $$ \left( a \times b \right)_i = \left( \star \left( a \wedge b \right)_{jk} \right)_i $$ (l'indice $i$ che compare a secondo membro è l'indice del termine $\epsilon_{ijk}$ che compare nella definizione \eqref{DualeDiHodgeTridimensionaleTensoreDoppio} per l'operatore $\star$ applicato ad un tensore di ordine $2$ in dimensione $3$). Il prodotto vettoriale può quindi essere definito algebricamente come il duale di Hodge del prodotto esterno tra due vettori tridimensionali e in questo modo si evita tra l'altro il fastidioso abuso di notazione della definizione di prodotto vettoriale data utilizzando il determinante di una matrice.
È importante notare come questa operazione che associa un vettore ad una coppia di vettori sia possibile solo in dimensione $3$. Questo è dovuto in sostanza al fatto che il caso tridimensionale è l'unico in cui il numero di dimensioni coincide con il numero di grandezze necessarie a specificare una rotazione. In dimensione $2$ ne basta $1$, in dimensione $4$ ne servono $6$, in generale in dimensione $n$ ne servono $$ \frac{n \left( n - 1 \right)}{2} $$ che sono proprio il numero di componenti indipendenti di un tensore doppio antisimmetrico ($n^2$ sono i valori di una matrice $n \times n$, meno $n$ perché i valori della diagonale sono nulli da $n^2 - n = n \left( n - 1 \right)$, diviso $2$ perché i valori da una parte della diagonale sono uguali a quelli dall'altra parte a meno del segno).
In dimensione $4$ invece un bivettore può essere scritto nella forma $$ \left( \begin{array}{cccc} 0 & a_x & a_y & a_z \\ -a_x & 0 & b_z & -b_y \\ -a_y & -b_z & 0 & b_x \\ -a_z & b_y & -b_x & 0 \end{array} \right) $$ Si può vedere facilmente che al cambio del sistema di riferimento le componenti $a_x$, $a_y$ e $a_z$ si trasformano come un vettore tridimensionale, mentre le coordinate $b_x$, $b_y$ e $b_z$ si trasformano come uno pseudovettore. Questo ci tornerà utile quando parleremo delle equazioni di Maxwell in forma quadridimensionale.
La derivata esterna e il teorema di Stokes-Cartan
Il prodotto esterno permette di definire la derivata esterna $\partial \wedge f$ di un campo tensoriale $f$ di ordine $k$ in dimensione $n$ arbitraria. Essa è il prodotto esterno tra il vettore formato dalle derivate parziali $$ \partial_i = \frac{\partial}{\partial x^i} $$ (dove $x^i$ indica le coordinate $n$-dimensionali), e il tensore stesso. Sarà quindi l'antisimmetrizzazione del prodotto tensoriale $$ \partial_i f_{j ...} $$ ovvero la somma di tutte le $k!$ possibili permutazioni di indici presi con segno positivo se pari, negativo se dispari. Essa è la naturale generalizzazione dell'operazione di differenziazione in spazi $n$-dimensionali. Essendo il primo fattore un tensore di ordine $1$, la derivata esterna di un tensore di ordine $k$ sarà un tensore di ordine $k + 1$.
Il teorema di Stokes-Cartan è dovuto, nella sua forma moderna, ad Élie Cartan, che unificò i risultati di George Green, Lord Kelvin, Michail Ostrogradskij e George Stokes. Detto a volte teorema di Stokes generalizzato o anche semplicemente teorema di Stokes, afferma che per ogni dimensione $n > 0$, per ogni $0 \leq k < n$, si ha $$ \int_\Omega \partial \wedge f \, d\Omega = \oint_{\partial \Omega} f \, d\partial \Omega $$ dove $\Omega$ è una superficie di dimensione $k + 1$ (il teorema richiede che $\Omega$ sia una varietà differenziabile non infinita, senza buchi e senza parti di bordo rimosse), $\partial \Omega$ è il suo bordo (il bordo, frontiera o contorno di uno spazio topologico è la chiusura dell'insieme meno il suo interno), quindi una superficie di dimensione $k$. $f$ è un campo tensoriale di ordine $k$, $\partial \wedge f$ è la sua derivata esterna, quindi un campo tensoriale di ordine $k + 1$. $d\Omega$ è l'elemento di volume infinitesimo $(k + 1)$-dimensionale, $d\partial \Omega$ è l'elemento di volume $k$-dimensionale. In uno spazio $n$-dimensionale avremo quindi $n$ declinazioni del teorema, per campi tensoriali di ordine $k = 0, 1, ..., n - 1$.
Le varie declinazioni sono ad esempio il teorema fondamentale del calcolo integrale che corrisponde all'unica declinazione possibile per $n = 1$ $$ \int_a^b \frac{df(x)}{dx} dx = f(b) - f(a) $$ In questo caso $k = 0$ e $f$ è un'ordinaria funzione reale a variabile reale. A primo membro si integra in $\mathbb{R}$ da $a$ a $b$ e la derivata esterna si riduce alla derivata ordinaria, mentre a secondo membro l'integrazione sul bordo, che in questo caso è costituito dai due punti $a$ e $b$, si riduce alla differenza dei rispettivi valori di $f$ nei due punti.
Le tre declinazioni possibili per $n = 3$ corrispondono al
- teorema del gradiente $$ \int_C \nabla f \cdot dl = f(b) - f(a) $$ dove a primo membro si integra lungo la curva $C$ e a secondo membro $a$ e $b$ sono gli estremi di tale curva e ricordiamo che $\nabla = \left( \frac{\partial}{\partial x} , \frac{\partial}{\partial y} , \frac{\partial}{\partial z} \right)$ e la definizione di prodotto scalare tridimensionale $v \cdot w = v_x \, w_x + v_y \, w_y + v_z \, w_z$;
- teorema del rotore, detto anche teorema di Kelvin o teorema di Kelvin-Stokes $$ \int_S \left( \nabla \times f \right) \cdot u \, dS = \oint_C f \cdot dl $$ dove a primo membro si integra sulla superficie $S$, $u$ indica il versore ortogonale alla superficie nel punto e a secondo membro si integra lungo la curva chiusa $C$ che delemita $S$. In questo caso $f$ è uno pseudotensore di ordine $1$ (un vettore assiale) che corrisponde al duale di Hodge di un tensore di ordine $2$ (vedi la definizione di prodotto vettoriale data nel capitolo precedente).
- teorema della divergenza, detto anche teorema di Ostrogradskij \begin{equation} \int_V \nabla \cdot f \, dV = \oint_S f \cdot u \, dS \label{TeoremaDellaDivergenza} \end{equation} dove a primo membro si integra sul volume $V$ e a secondo membro sulla superficie chiusa $S$ che lo delimita e ricordiamo la definizione di divergenza, cioè il prodotto scalare tra le derivate e il vettore $\nabla \cdot f = \frac{\partial f_x}{\partial x} + \frac{\partial f_y}{\partial y} + \frac{\partial f_z}{\partial z}$;
A partire della forma generale si possono ottenere queste forme particolari grazie all'utilizzo dei duali di Hodge, e quindi in sostanza grazie al simbolo di Levi-Civita.
Le equazioni di Maxwell
La derivata esterna e i duali di Hodge costituiscono gli strumenti essenziali per una formulazione semplice ed elegante delle equazioni di Maxwell in forma quadridimensionale e relativisticamente invariante "a vista" (ricordiamo che le equazioni di Maxwell sono, comunque le si scriva, equazioni relativisticamente invarianti e col senno di poi sono storicamente le prime equazioni relativisticamente invarianti mai scritte).
È notevole il fatto che grazie a questi strumenti si possano ricavare le equazioni del campo elettromagnetico a partire da due semplici postulati. Primo, esiste la carica elettrica, che, definendo la densita di carica $\rho(x^i) = \rho(t, x, y, z) = dq / dV$ (la carica infinitesima $dq$ sul volume infinitesimo $dV$ in cui è contenuta) e integrando in un volume finito, possiamo esprimere con \begin{equation} q = \int dq = \int \rho \, dV \label{CaricaElettrica} \end{equation} Secondo, la carica elettrica si conserva. In una teoria relativistica una legge di conservazione deve essere necessariamente locale a causa della relatività del concetto di simultaneità. Di conseguenza la carica elettrica deve fluire nello spazio in modo continuo. Per definizione il flusso di un campo vettoriale $f$ attraverso una superficie orientata $S$ è $$ \int_S f \cdot u \, dS = \int_S f \cos \theta \, dS $$ dove $dS$ indica la superficie infinitesima, $u$ il versore ad essa perpendicolare e $\theta$ l'angolo sotteso tra il versore $u$ e il vettore $f$. Il flusso di carica elettrica si chiama corrente elettrica ed è definito da \begin{equation} i = \int j \cdot u \, dS \label{CorrenteElettrica} \end{equation} dove $j(x^i) = j(t, x, y, z)$ è il vettore densità di carica elettrica (che, per una carica puntiforme che si muove a velocità $v$, non è altro che $\rho \, v$). Se la carica si conserva la variazione della quantità di carica $q(t)$ presente in un volume finito deve essere uguale al flusso uscente dal volume stesso $$ \frac{dq}{dt} = - i $$ e sostituendo le definizioni di carica elettrica \eqref{CaricaElettrica} e corrente elettrica \eqref{CorrenteElettrica} a partire dalla densità di carica $\rho$ e di corrente $j$ otteniamo $$ \frac{d}{dt} \left( \int \rho \, dV \right) = - \oint j \cdot u \, dS $$ Utilizzando a secondo membro il teorema della divergenza \eqref{TeoremaDellaDivergenza} (e passando quindi dall'integrazione sulla superficie chiusa che delimita il volume all'integrazione sul volume stesso) otteniamo $$ \frac{d}{dt} \left( \int \rho \, dV \right) = - \int \nabla \cdot j \, dV $$ Se tale equazione vale per un volume finito deve valere anche per un volume infinitesimo e si arriva quindi all'equazione di continuità \begin{equation} \frac{\partial \rho}{\partial t} + \nabla \cdot j = 0 \label{EquazioneDiContinuitaTridimensionale} \end{equation} (si passa da $d / dt$ a $\partial / \partial t$ in quanto passiamo dalla derivata rispetto al tempo di $q(t)$, la quantità di carica che varia nel tempo in un volume finito, alla derivata rispetto al tempo della densità di carica $\rho(x^i) = \rho(t, x, y, z)$ in un punto).
Definendo il quadrivettore densità di corrente $$ J^i = \left( \begin{array}{c} \rho \\ j_x \\ j_y \\ j_z \end{array} \right) $$ e utilizzando la convenzione di Einstein per le sommatorie (si sottintende il simbolo di sommatoria quando un indice appare ripetuto, uno in alto e uno in basso) l'equazione di continuità \eqref{EquazioneDiContinuitaTridimensionale} diventa \begin{equation} \partial_i J^i = 0 \label{EquazioneDiContinuitaQuadridimensionale} \end{equation}
Il duale di Hodge del quadrivettore densità di corrente sarà $$ \left( \star J \right)_{ijk} = \epsilon_{ijkl} J^l $$ (continuando ad utilizzare la convenzione di Einstein, sottintendendo questa volta la sommatoria sull'indice $l$). Un tensore $4$-dimensionale di ordine $3$ ha ben $4^3 = 64$ componenti, che corrispondono alle disposizioni con ripetizioni di classe $3$ di $4$ elementi. Solo le componenti senza ripetizione di indici saranno diverse da zero. Esse saranno le disposizioni semplici di ordine $3$ di $4$ elementi. Per calcolarne il numero seguiamo lo stesso ragionamento fatto per le permutazioni semplici, ma con solo $k$ fattori, quindi nella sequenza $n \left( n - 1 \right) ... 2$, ci fermiamo al fattore $n - \left( k - 1 \right)$, cioè a $n - k + 1$. Il primo escluso è quindi $n - k$ e quindi i fattori esclusi corrispondono a quelli di $\left( n - k \right)!$, termine per il quale dovremo quindi dividere $n!$. Quindi $$ \frac{n!}{\left( n - k \right)!} = \frac{4!}{\left(4 - 3 \right)!} = 24 $$ Di queste $24$ quelle che si ottengono le une dalle altre cambiando solamente l'ordine degli indici potranno cambiare al più per il segno. Le componenti indipendenti saranno quindi le combinazioni semplici di lunghezza $3$ di $4$ elementi. In questo caso, non contando l'ordine, dovremo ulteriormente dividere il numero di disposizioni semplici per il numero di permutazioni semplici di $k$ elementi, quindi $k!$, quindi $$ \binom{n}{k} = \frac{n!}{\left( n - k \right)! \, k!} = \frac{4!}{(4 - 3)! \, 3!} = \frac{24}{6} = 4 $$ (chiamate coefficiente binomiale) che corrispondono proprio alle $4$ componenti del quadrivettore densità di corrente $J^i$. Per ognuna di esse abbiamo altre $2$ combinazioni uguali, permutando i primi $3$ indici di $\epsilon_{i j k l}$, infatti $$ \begin{array}{l} \star J_{1 2 3} = \epsilon_{1 2 3 i} J^i = \epsilon_{2 3 1 i} J^i = \epsilon_{3 1 2 i} J^i = J^0 = \rho \\ \star J_{2 3 0} = \epsilon_{2 3 0 i} J^i = \epsilon_{3 0 2 i} J^i = \epsilon_{0 2 3 i} J^i = J^1 = j_x \\ \star J_{3 0 1} = \epsilon_{3 0 1 i} J^i = \epsilon_{0 1 3 i} J^i = \epsilon_{1 3 0 i} J^i = J^2 = j_y \\ \star J_{0 1 2} = \epsilon_{0 1 2 i} J^i = \epsilon_{1 2 0 i} J^i = \epsilon_{2 0 1 i} J^i = J^3 = j_z \end{array} $$ per un totale di $12$ componenti uguali a $3$ a $3$. Inoltre altre $12$ componenti saranno uguali a $3$ a $3$ e saranno i medesimi termini con segno opposto, arrivando così alle $24$ componenti diverse da zero.
Utilizzando il duale di Hodge del quadrivettore densità di corrente l'equazione di continuità \eqref{EquazioneDiContinuitaQuadridimensionale} corrisponde quindi a \begin{equation} \partial \wedge \star J = 0 \label{EquazioneDiContinuitaQuadridimensionaleDuale} \end{equation} La derivata esterna di un tensore di ordine $3$ è un tensore di ordine $4$, avremo quindi ben $4! = 24$ addendi e $4^4 = 256$ coordinate. Per la simmetria di $\star J$ (dovuta alla sua costruzione tramite il duale di Hodge, e quindi il simbolo di Levi-Civita) e per la simmetria della derivata esterna, avremo però solo $4$ equazioni indipendenti che corrispondono alle $4$ equazioni $\partial_i J^i = 0$.
Il senso di passare a questa forma più complicata dell'equazione di continuità è che un fondamentale risultato della teoria delle forme differenziali chiamato lemma di Poincaré afferma che sotto certe condizioni una forma differenziale chiusa (la qui derivata esterna è nulla) è esatta (può essere definita come derivata esterna di una forma differenziale di ordine inferiore). In altri termini per un campo tensoriale antisimmetrico $g$ di ordine $k$ si ha $$ \partial \wedge g = 0 \quad \Rightarrow \quad g = \partial \wedge f $$ per un certo campo tensoriale antisimmetrico $f$ di ordine $k - 1$, a condizione che $g$ sia liscio (di classe $C^\infty$) e definito in un sottoinsieme aperto e contraibile di $\mathbb{R}^n$. Nel caso di campi fisici in spaziotempi piatti queste condizioni sono sempre soddisfatte. Tale teorema afferma quindi che la \eqref{EquazioneDiContinuitaQuadridimensionaleDuale} ci assicura l'esistenza di un tensore di ordine inferiore ($3 - 1 = 2$) la cui derivata esterna corrisponde a $\star J_{i j k}$.
Tale tensore antisimmetrico di ordine $2$ (quindi un bivettore) è proprio, a meno di un fattore costante (determinato dalle unità di misura scelte per tempi, lunghezze e cariche elettriche), il duale di Hodge del tensore elettromagnetico \begin{equation} F^{ij} = \left( \begin{array}{cccc} 0 & E_x & E_y & E_z \\ -E_x & 0 & B_z & -B_y \\ -E_y & -B_z & 0 & B_x \\ -E_z & B_y & -B_x & 0 \end{array} \right) \label{TensoreElettromagnetico} \end{equation} (dove $E$ è il vettore campo elettrico e $B$ lo pseudovettore campo magnetico) e l'equazione $$ \partial \wedge \star F = 4 \pi \, {\star J} $$ corrisponde proprio alle equazioni di campo, vale a dire alle equazioni che ci danno il campo elettromagnetico in funzione delle sorgenti, cioè le cariche e le correnti (a secondo membro compare il fattore $4 \pi$ perché tale termine si semplificherà con l'area della superficie della sfera $4 \pi \, r^2$, dando come risultato la nota legge di Coulomb, cioè la forza è uguale al prodotto delle cariche diviso il quadrato della distanza $r^2$).
Tali equazioni (lo si vedrà più facilmente nella versione tridimensionale) non caratterizzano completamente il campo elettromagnetico. Esse vengono completate da $$ \partial \wedge F = 0 $$ che corrisponde in sostanza al fatto che non esistono (non sono mai stati osservati) i monopoli magnetici (cioè la carica magnetica).
Prendendo il duale di Hodge di queste due equazioni e sfruttando l'antisimmetria del simbolo di Levi-Civita e del tensore elettromagnetico si può vedere che tali equazioni equivalgono a $$ \begin{alignedat}{2} \partial_j F^{ij} &= 4 \pi \, J^i \\ \partial_j \left( {\star F} \right)^{ij} &= 0 \end{alignedat} $$
È altrettanto facile, utilizzando la definizione \eqref{TensoreElettromagnetico}, vedere che queste ultime equazioni quadridimensionali corrispondono alle classiche equazioni di Maxwell in forma tridimensionale $$ \begin{alignedat}{2} \nabla \cdot E &= 4 \pi \, \rho &\qquad \nabla \times B - \frac{\partial E}{\partial t} &= 4 \pi \, j \\[1ex] \nabla \cdot B &= 0 &\qquad \nabla \times E + \frac{\partial B}{\partial t} &= 0 \end{alignedat} $$ Integrando e utilizzando le varie declinazioni del teorema di Stokes-Cartan (e quindi utilizzando ancora una volta il simbolo di Levi-Civita) otteniamo le equazioni di Maxwell in forma integrale $$ \begin{alignedat}{2} \oint E \cdot u \, dS &= 4 \pi \, q &\qquad \oint B \cdot dl &= \frac{d}{dt} \int E \cdot u \, dS + 4 \pi \, i \\[1ex] \oint B \cdot u \, dS &= 0 &\qquad \oint E \cdot dl &= - \frac{d}{dt} \int B \cdot u \, dS \end{alignedat} $$ che corrispondono alle leggi di Gauss per i campi elettrici e magnetici (a sinistra), la legge di Faraday per l'induzione elettromagnetica e la legge di Ampere-Maxwell (a destra).
Gli spinori
Da un punto di vista puramente algebrico gli spinori possono essere visti come l'analogo dei vettori in cui il ruolo del tensore metrico $g_{ij}$ viene svolto dallo pseudotensore unitario antisimmetrico $\epsilon_{ij}$.
Gli spinori appropriati per rappresentare le rotazioni nello spazio quadridimensionale di Minkowski possono essere definiti in modo analogo a quelli tridimensionali. Per una particella a spin $1 / 2$ definiamo la grandezza a due componenti complessi $$ \xi^\alpha = \left( \begin{array}{c} \xi^1 \\ \xi^2 \end{array} \right) $$ Una generica trasformazione $\xi^\alpha \rightarrow \xi'^\alpha$ Passando ad un diverso sistema di riferimento avente l'origine in comune con quello di partenza tale grandezza si trasformerà secondo le relazioni \begin{equation} \begin{alignedat}{2} \xi'^1 &= a \, \xi^1 + b \, \xi^2 \\ \xi'^2 &= c \, \xi^1 + d \, \xi^2 \end{alignedat} \label{TrasformazioniSpinore} \end{equation} Considerando solo rotazioni, escludendo quindi le riflessioni (inversione spaziale e inversione temporale), imponiamo al determinante della trasformazione \eqref{TrasformazioniSpinore} il vincolo \begin{equation} a \, d - b \, c = 1 \label{DeterminanteTrasformazioneSpinore} \end{equation} Consideriamo ora l'espressione \begin{equation} \xi^1 \eta^2 - \xi^2 \eta^1 \label{InvarianteSpinori} \end{equation} dove $\xi$ e $\eta$ sono due spinori arbitrari, e vediamo come si trasforma tale espressione. Da un facile calcolo, utilizzando le \eqref{TrasformazioniSpinore} e la \eqref{DeterminanteTrasformazioneSpinore}, risulta $$ \begin{alignedat}{2} \xi'^1 \eta'^2 - \xi'^2 \eta'^1 &= \left( a \, \xi^1 + b \, \xi^2 \right) \left( c \, \eta^1 + d \, \eta^2 \right) - \left( c \, \xi^1 + d \, \xi^2 \right) \left( a \, \eta^1 + b \, \eta^2 \right) = \\ &= a \, d \, \xi^1 \eta^2 + b \, c \, \xi^2 \eta^1 - b \, c \, \xi^1 \eta^2 - a \, d \, \xi^2 \eta^1 = \\ &= \left( a \, d - b \, c \right) \left( \xi^1 \eta^2 - \xi^2 \eta^1 \right) = \\ &= \xi^1 \eta^2 - \xi^2 \eta^1 \end{alignedat} $$ cioè la \eqref{InvarianteSpinori} è invariante.
Per rendere più naturale la definizione di tale grandezza introduciamo la matrice antisimmetrica $$ \epsilon_{\alpha \beta} = \left( \begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array} \right) $$ che ci permette di abbassare gli indici di uno spinore $$ \xi_\alpha = \epsilon_{\alpha \beta} \xi^\beta $$ Vediamo che $$ \begin{alignedat}{2} \xi_1 &= \xi^2 \\ \xi_2 &= -\xi^1 \end{alignedat} $$ In questo modo l'invarianza dell'espressione \eqref{InvarianteSpinori} può essere espressa attraverso l'invarianza del prodotto scalare tra spinori proprio come l'invarianza che viene espressa dall'invarianza del prodotto scalare tra vettori, infatti $$ \xi^\alpha \eta_\alpha = \xi^1 \eta_1 + \xi^2 \eta_2 = \xi^1 \eta^2 - \xi^2 \eta^1 $$ Gli spinori quindi risultano analoghi ai vettori ordinari, ma con il tensore $\epsilon_{\alpha \beta}$ che svolge il ruolo di tensore metrico e che, attraverso il prodotto scalare tra spinori, rappresenta l'invarianza della grandezza \eqref{InvarianteSpinori}. Notiamo inoltre che l'analogo della grandezza $v_i v^i$, che per un vettore $v$ rappresenta il quadrato della lunghezza, è $\xi^\alpha \xi_\alpha$ che per definizione risulterà sempre pari a zero. Questo è coerente con il fatto che gli spinori rappresentano rotazioni, per le quali il concetto di lunghezza è privo di significato.
Consideriamo ora l'espressione $$ \xi^1 {\xi^*}^1 + \xi^2 {\xi^*}^2 $$ che è la versione spinoriale del quadrato della funzione d'onda $\psi \, \psi^*$. Nel caso di spinori tridimensionali tale espressione, corrispondendo alla densità di probabilità, è uno scalare. In conseguenza a ciò gli spinori tridimensionali ${\xi^*}^\alpha$ devono trasformarsi come gli spinori covarianti $\xi_\alpha$. Per spinori quadridimensionali tale espressione è invece la componente temporale di un quadrivettore e quindi non imponiamo altre relazioni oltre la \eqref{InvarianteSpinori}. Le quattro grandezze complesse della \eqref{TrasformazioniSpinore} con la condizione \eqref{DeterminanteTrasformazioneSpinore} contengono quindi $8 - 2 = 6$ grandezze reali indipendenti, che corrispondono ai 6 angoli delle rotazioni quadridimensionali. Inoltre ora gli spinori complessi coniugati non si trasformano come gli spinori covarianti, ma secondo le complesse coniugate delle \eqref{TrasformazioniSpinore}. Per distinguerli tali spinori si indicano con un puntino sull'indice corrispondente. Per gli spinori quadridimensionali abbiamo quindi che ${\eta^*}^\alpha$ si trasforma come $\eta^{\dot \alpha}$. Quindi gli spinori puntati si trasformano secondo le relazioni \begin{equation} \begin{alignedat}{2} \eta'^{\dot 1} &= a^* \, \eta^{\dot 1} + b^* \, \eta^{\dot 2} \\ \eta'^{\dot 2} &= c^* \, \eta^{\dot 1} + d^* \, \eta^{\dot 2} \end{alignedat} \label{TrasformazioniSpinorePuntato} \end{equation} analoghe alle \eqref{TrasformazioniSpinore}. In questa forma tali spinori sono chiamati spinori di Weyl.
Gli spinori di rango superiore, detti multispinori, si definiscono come grandezze che si trasformano come prodotti di spinori, facendo attenzione alla distinzione tra indici puntati e non puntati. Ad esempio i multispinori di rango due possono essere di tre tipi $$ \zeta^{\alpha \beta} \qquad \zeta^{\alpha \dot \beta} \qquad \zeta^{\dot \alpha \dot \beta} $$ che si trasformano come prodotti di spinori con gli indici dei rispettivi tipi. Essendo le trasformazioni \eqref{TrasformazioniSpinore} e \eqref{TrasformazioniSpinorePuntato} algebricamente indipendenti non è necessario fissare l'ordine dei diversi tipi di indici, in altre parole lo spinore $\zeta^{\alpha \dot \beta}$ e $\zeta^{\dot \beta \alpha}$ rappresentano la medesima grandezza.
Il multispinore $\zeta^{\alpha \dot \beta}$ ha $4$ componenti indipendenti, esattamente come un quadrivettore. Queste grandezze realizzando quindi la stessa rappresentazione del gruppo proprio (senza riflessioni) di Lorentz. Per analogia con le relazioni tra spinori tridimensionali e vettori tridimensionali otteniamo le seguenti relazioni con un quadrivettore $a^i$ $$ \begin{alignedat}{2} a^0 &= \frac{1}{2} \left( \zeta^{1 \dot 1} + \zeta^{2 \dot 2} \right) \\ a^1 &= \frac{1}{2} \left( \zeta^{1 \dot 2} + \zeta^{2 \dot 1} \right) \\ a^2 &= \frac{i}{2} \left( \zeta^{1 \dot 2} - \zeta^{2 \dot 1} \right) \\ a^3 &= \frac{1}{2} \left( \zeta^{1 \dot 1} - \zeta^{2 \dot 2} \right) \end{alignedat} $$ Le formule inverse si ricavano facilmente. Da queste quattro relazioni otteniamo infatti $$ \begin{alignedat}{2} \zeta^{1 \dot 1} &= 2 a^0 - \zeta^{2 \dot 2} \\ \zeta^{1 \dot 2} &= 2 a^1 - \zeta^{2 \dot 1} \\ \zeta^{2 \dot 1} &= \zeta^{1 \dot 2} - 2 i a^2 \\ \zeta^{2 \dot 2} &= \zeta^{1 \dot 1} - 2 a^3 \end{alignedat} $$ Sostituendo la quarta nella prima si ottiene la componente $\zeta^{1 \dot 1}$, da questa, sostituendola nella quarta si ottiene la componente $\zeta^{2 \dot 2}$. Sostituendo la terza nella seconda si ottiene la componente $\zeta^{1 \dot 2}$ e infine da quest'ultima sostituita nella terza otteniamo $\zeta^{2 \dot 1}$. Otteniamo quindi \begin{equation} \zeta^{\alpha \dot \beta} = \left( \begin{array}{cc} a^0 + a^3 & a^1 - i a^2 \\ a^1 + i a^2 & a^0 - a^3 \end{array} \right) \label{QuadrivettoreSpinoriale} \end{equation} Ricordando la definizione di matrici di Pauli $$ \sigma_1 = \left( \begin{array}{cc} 0 & 1 \\ 1 & 0 \end{array} \right) \qquad \sigma_2 = \left( \begin{array}{cc} 0 & -i \\ i & 0 \end{array} \right) \qquad \sigma_3 = \left( \begin{array}{cc} 1 & 0 \\ 0 & -1 \end{array} \right) $$ e definendo il vettore di matrici $$ \sigma = \left( \begin{array}{c} \sigma^1 \\ \sigma^2 \\ \sigma^3 \end{array} \right) $$ vediamo che possiamo riscrivere le \eqref{QuadrivettoreSpinoriale} in forma compatta \begin{equation} \zeta^{\alpha \dot \beta} = a^0 + \sigma \cdot a \label{QuadrivettoreSpinorialeTridimensionale} \end{equation} dove naturalmente si sottintende che a secondo membro $a^0$ sia moltiplicato per la matrice unità e che $a$ rappresenti le tre componenti spaziali del quadrivettore $a^i$.
L'equazione d'onda per una particella a spin $1 / 2$ sarà costituita da equazioni che legano le derivate degli spinori $\xi^\alpha$ e $\eta_{\dot \alpha}$ ai valori degli spinori stessi nel medesimo istante. Per una particella libera l'unica grandezza che può entrare nelle equazioni del moto, oltre alla massa, è l'operatore energia-impulso che corrisponde al quadrivettore $i \partial_i$. Dalle regole generali \eqref{QuadrivettoreSpinoriale} vediamo che in notazione spinoriale questo quadrivettore corrisponde al multispinore $i \partial^{\alpha \dot \beta}$ che, a meno del fattore $i$, ha componenti controvarianti e covarianti $$ \begin{alignedat}{2} \partial^{\alpha \dot \beta} &= \left( \begin{array}{cc} \partial_0 + \partial_3 & \partial_1 - i \partial_2 \\ \partial_1 + i \partial_2 & \partial_0 - \partial_3 \end{array} \right) \\ \partial_{\dot \alpha \beta} &= \left( \begin{array}{cc} \partial_0 - \partial_3 & -\partial_1 + i \partial_2 \\ -\partial_1 - i \partial_2 & \partial_0 + \partial_3 \end{array} \right) \end{alignedat} $$ esprimibili in forma tridimensionale grazie alla \eqref{QuadrivettoreSpinorialeTridimensionale} da $$ \begin{alignedat}{2} \partial^{\alpha \dot \beta} &= \partial_0 + \sigma \cdot \nabla \\ \partial_{\dot \alpha \beta} &= \partial_0 - \sigma \cdot \nabla \end{alignedat} $$ Da queste considerazioni otteniamo le equazioni \begin{equation} \begin{alignedat}{2} i \partial^{\alpha \dot \beta} \eta_{\dot \beta} &= m \, \xi^\alpha \\ i \partial_{\dot \alpha \beta} \xi^\beta &= m \, \eta_{\dot \alpha} \end{alignedat} \label{EquazioniSpinoriali} \end{equation} o, con le derivate parziali espresse in forma tridimensionale $$ \begin{alignedat}{2} i \left( \partial_0 + \sigma \cdot \nabla \right) \eta &= m \, \xi \\ i \left( \partial_0 - \sigma \cdot \nabla \right) \xi &= m \, \eta \end{alignedat} $$
Notiamo che in caso di particelle non massive i secondi membri si annullano e le equazioni si disaccoppiano, diventando le due equazioni indipendenti $$ \begin{alignedat}{2} i \partial^{\alpha \dot \beta} \eta_{\dot \beta} &= 0 \\ i \partial_{\dot \alpha \beta} \xi^\beta &= 0 \end{alignedat} $$ chiamate equazioni di Weyl, equazioni d'onda proposte per descrivere i neutrini prima che l'osservazione del fenomeno di oscillazione dei neutrini decretò il fatto che non sono praticelle prive di massa.
La coppia di equazioni \eqref{EquazioniSpinoriali} per una particella a spin $1 / 2$ sono nella forma più naturale dal punto di vista della loro invarianza relativistica e sono equivalenti all'equazione di Dirac.