Matteo Basei

Una collezione di piccoli programmi realizzati a scopo didattico.

Tullio il simbolo di Levi-Civita

"Gli spaghetti e Levi-Civita."

Albert Einstein, rispondendo alla domanda su cosa gli piacesse di più dell'Italia.

Tullio Levi-Civita è stato un grande matematico italiano vissuto a cavallo tra il XIX e il XX secolo. È ricordato soprattutto perché, in collaborazione con il suo insegnante Gregorio Ricci Curbastro (che da il nome al tensore di Ricci), pubblicò nel 1900 un articolo fondamentale che pose le basi per il calcolo tensoriale. Tale articolo forniva gli strumenti che, tra le altre cose, sarebbero stati utilizzati da Einstein per la sua teoria della relatività generale del 1915.

Tullio Levi-Civita.
Tullio Levi-Civita

In suo onore si chiama simbolo di Levi-Civita lo pseudotensore $n$-dimensionale di ordine $n$ completamente antisimmetrico (cioè antisimmetrico rispetto allo scambio di ogni coppia di indici), che in dimensione $2$, ad esempio, sarà semplicemente \begin{equation} \epsilon_{ij} = \left( \begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array} \right) \label{SimboloDiRicciBidimensionale} \end{equation}

In suo onore mi sono permesso di chiamare "Tullio" (spero che mi perdonerà la confidenza) questa pagina che cerca di ripercorre gli innumerevoli ambiti in cui questa importante nozione, declinata in vari modi, svolge un ruolo cruciale. Questo percorso passerà per i numeri complessi, la combinatoria, l'algebra e l'analisi in dimensione arbitraria, per passare poi alla fisica relativistica, in particolare le equazioni di Maxwell della fisica classica e le equazioni spinoriali della meccanica quantistica relativistica.

Numeri complessi

Uno dei più semplici esempi di utilizzo del simbolo di Levi-Civita, in cui è tra l'altro sufficiente la sua definizione bidimensionale data dalla \eqref{SimboloDiRicciBidimensionale}, sono i numeri complessi. I numeri complessi possono essere infatti rappresentati da matrici reali $2 \times 2$. Ogni numero nella forma $\left( a + i \, b \right) \in \mathbb{C}$ con $a , b \in \mathbb{R}$ e $i^2 = -1$ corrisponde infatti ad una matrice antisimmetrica nella forma $$ \left( \begin{array}{cc} a & b \\ -b & a \end{array} \right) $$ In questa forma la somma di numeri complessi corrisponde alla somma tra matrici e la moltiplicazione complessa è rappresentata dall'usuale prodotto "riga per colonna", com'è facile verificare $$ \left( \begin{array}{cc} a & b \\ -b & a \end{array} \right) \left( \begin{array}{cc} c & d \\ -d & c \end{array} \right) = \left( \begin{array}{cc} a \, c - b \, d & a \, d + b \, c \\ -a \, d - b \, c & a \, c - b \, d \end{array} \right) $$ Il ruolo dell'unità è svolto dalla delta di Kronecker $$ \delta_{ij} = \left( \begin{array}{cc} 1 & 0 \\ 0 & 1 \end{array} \right) $$ mentre l'unità immaginaria corrisponde alla matrice unitaria antisimmetrica $\epsilon_{ij}$, infatti $$ \left( \begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array} \right) \left( \begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array} \right) = \left( \begin{array}{cc} -1 & 0 \\ 0 & -1 \end{array} \right) $$ cioè $$ \sum_k \epsilon_{ik} \epsilon_{kj} = -\delta_{ij} $$ che può essere riscritto senza indici nella forma $$ \epsilon^2 = -\delta $$ in cui si vede chiaramente che è l'analogo di $i^2 = -1$.

Permutazioni pari e dispari

Il simbolo di Levi-Civita compare in svariati ambiti della matematica perché in sostanza è un modo per esprimere il concetto di parità di una permutazione. Una permutazione semplice (senza ripetizioni) di $n$ elementi si dice pari se è ottenibile dalla sequenza di partenza con un numero pari di scambi, dispari viceversa.

Consideriamo ad esempio le prime $n$ lettere dell'alfabeto. Per $n = 2$ abbiamo banalmente $\text{AB}$ come permutazione pari ($0$ scambi) e $\text{BA}$ come permutazione dispari ($1$ scambio). Per $n = 3$ abbiamo $\text{ABC}$, $\text{BCA}$ e $\text{CAB}$ come permutazioni pari ($0$ scambi la prima, $2$ scambi le altre due) e $\text{CBA}$, $\text{BAC}$ e $\text{ACB}$ come permutazioni dispari ($1$ scambio ciascuna). Notiamo come le permutazioni pari mantengono la stessa sequenza di $\text{ABC}$, cambiandone solo la lettera di partenza

$... \left[ \textbf{A B C} \right] \text{A B C A} ...$
$... \text{A} \left[ \textbf{B C A} \right] \text{B C A} ...$
$... \text{A B} \left[ \textbf{C A B} \right] \text{C A} ...$

e allo stesso modo le dispari, ma con ordine invertito

$... \left[ \textbf{C B A} \right] \text{C B A C} ...$
$... \text{C} \left[ \textbf{B A C} \right] \text{B A C} ...$
$... \text{C B} \left[ \textbf{A C B} \right] \text{A C} ...$

Passando a $n = 4$ le cose si complicano un po', ma il concetto resta lo stesso. In generale il numero di permutazioni semplice di $n$ elementi è $n!$, in quanto abbiamo prima di tutto la possibilità di scegliere $1$ tra gli $n$ elementi per la prima posizione, poi $n - 1$ possibilità per la seconda, e così via, fino alla penultima scelta in cui ci resteranno $2$ possibilità e infine l'ultima che sarà obbligata. Questo corrisponde proprio a $n! = n \left( n - 1 \right) ... 2$.

In dimensione $n$ il simbolo di Levi-Civita ha $n$ indici che prendono i valori da $1$ a $n$. Per definizione $$ \epsilon_{\underbrace{123...}_n} = 1 $$ e tutti gli altri valori sono determinati dalla richiesta di antisimmetria rispetto ad ogni possibile scambio di indici, cioè $$ \epsilon_{i...jk...} = -\epsilon_{i...kj...} $$ Questo comporta che i valori sono pari a $1$ per tutte le permutazioni pari (che includono anche la permutazione $123...n$ stessa) mentre i valori sono pari a $-1$ per le permutazioni dispari. Tutti i termini rimanenti, in cui compare almeno un indice ripetuto, sono pari a $0$. Questo è infatti l'unico modo di rispettare la condizione di antisimmetria, infatti $$ \epsilon_{ij...kk...} = -\epsilon_{ij...kk...} $$ implica che $$ \epsilon_{ij...kk...} = \epsilon_{ij...kk...} = 0 $$

Per $n = 2$ i valori sono quelli dati esplicitamente dalla \eqref{SimboloDiRicciBidimensionale} ($2! = 2$), mentre per $n = 3$ si ha $$ \epsilon_{123} = \epsilon_{231} = \epsilon_{312} = 1 $$ e $$ \epsilon_{321} = \epsilon_{213} = \epsilon_{132} = -1 $$ ($3! = 6$) e tutti i rimanenti termini sono pari a $0$. Per $n = 4$ i termini non nulli saranno $4! = 24$, eccetera.

Tensori e pseudotensori

È possibile definire i tensori in modo molto elegante ed astratto a partire dal concetto di prodotto tensoriale tra spazi vettoriali, ma per non dilungarci troppo, per i nostri fini (la definizione di pseudotensore) è sufficiente darne una definizione molto più pragmatica e "da fisico". Un tensore $n$-dimensionale di ordine $k$ è una grandezza che può essere rappresentata da $n^k$ coordinate (indicizzate da $k$ indici) che al cambio del sistema di riferimento si trasformano come il prodotto di $k$ vettori (che sono quindi tensori di ordine $1$, ognuno con il suo singolo indice).

Uno pseudotensore è una grandezza che può essere rappresentata da $n^k$ coordinate che al cambio del sistema di riferimento si trasformano come il prodotto di $k$ vettori nel caso di una rotazione, ma cambiano segno nel caso di una riflessione. Questo è legato al fatto che gli pseudotensori "codificano" il concetto di rotazione e, una volta stabilita una regola per il segno (ad esempio la rotazione antioraria positiva nel piano complesso o la classica regola della mano destra che si utilizza nel caso tridimensionale), questa deve essere mantenuta sempre. Ciò implica un cambio di segno nel caso in cui uno degli assi del sistema di riferimento cambi di segno. Per le rotazioni ciò non avviene e ciò è dovuto al fatto che un rotazione può sempre essere espressa attraverso due riflessioni (una rotazione $n$ dimensionale intorno ad una superficie $n - 2$ dimensionale corrisponde a due riflessioni rispetto a due superfici $n - 1$ dimensionali, la cui intersezione corrisponde proprio alla superficie $n - 2$ dimensionale rispetto alla quale è definita la rotazione) e il doppio cambio di segno si annulla nel risultato finale.

Il fatto che gli pseudotensori abbiano a che fare con le rotazioni è coerente con il fatto che la definizione di pseudotensore antisimmetrico non ha senso in dimensione $1$ (con un singolo indice non c'è nulla da antisimmetrizzare) dove pure la nozione di rotazione non ha senso (la superficie $n - 2$ dimensionale rispetto alla quale sarebbe definita la rotazione non esiste).

Il ruolo degli pseudovettori, cioè gli pseudotensori di ordine $1$, è evidenziato nel caso tridimensionale dal fatto che sono anche chiamati vettori assiali.

Il simbolo di Levi-Civita è uno pseudotensore di ordine $n$ (in dimensione $n$) che vale $1$ per le permutazioni pari degli indici, $-1$ per quelle dispari, mentre quando compare una ripetizione di indice vale $0$. Questo è dovuto alla richiesta di completa antisimmetria rispetto allo scambio di ogni coppia di indici.

Duali di Hodge

Grazie al simbolo di Levi-Civita possiamo passare da tensori $n$-dimensionali di ordine $k$ a pseudotensori di ordine $n - k$ (o da pseudotensori di ordine $k$ a tensori di ordine $n - k$). Il risultato di questa trasformazione è chiamato duale di Hodge e il duale di un tensore $a$ si indica con $\star a$. Questo viene fatto contraendo tutti gli indici possibili tra il tensore di ordine $k$ e lo pseudotensore antisimmetrico di ordine $n$. Ad esempio nel caso tridimensionale avremo $4$ possibilità $$ \left( \star a \right)_{ijk} = \epsilon_{ijk} \, a $$ $$ \left( \star a \right)_{ij} = \sum_k \epsilon_{ijk} \, a_k $$ \begin{equation} \left( \star a \right)_i = \sum_j \sum_k \epsilon_{ijk} \, a_{jk} \label{DualeDiHodgeTridimensionaleTensoreDoppio} \end{equation} $$ \star a = \sum_i \sum_j \sum_k \epsilon_{ijk} \, a_{ijk} $$ contraendo lo pseudotensore con tensori di ordine $0$, $1$, $2$ e $3$ rispettivamente. Nel caso bidimensionale ci saranno $3$ possibilità, nel caso quadridimensionale $5$, eccetera.

In dimensione $3$ il passaggio da vettori a pseudotensori di ordine $3 - 1 = 2$ è legato al prodotto vettoriale (vedi paragrafo successivo). In dimensione $4$ il passaggio da tensori di ordine $2$ a pseudotensori di ordine $4 - 2 = 2$ e da quadrivettori a tensori di ordine $4 - 1 = 3$ è utile per descrivere le leggi dell'elettromagnetismo (vedi relativo paragrafo più sotto).

Prodotto esterno

Il prodotto esterno (o in inglese prodotto wedge, o ancora prodotto Grassmann, dal nome di Hermann Grassmann che per primo, in grande anticipo con i tempi, lo definì, perfino prima che fosse definito da Heaviside e Gibbs il prodotto vettoriale che in un certo senso generalizza) tra due tensori $a$ e $b$ di ordine $k$ e $h$ si indica con $a \wedge b$ ed è un tensore di ordine $k + h$ avente come componenti la somma dei prodotti delle componenti prese con tutte le possibili permutazioni di indici, predendo il valore positivo per le permutazioni pari, negativo per le permutazioni dispari. Il numero di addendi è quindi pari al numero di permutazioni semplici (senza ripetizioni), che è pari al fattoriale di $k + h$, e il risultato è antisimmetrico per definizione.

Nel caso specifico del prodotto esterno tra due vettori, vale a dire il prodotto esterno tra due tensori di ordine $1$, il risultato è un tensore doppio antisimmetrico $$ \left( a \wedge b \right)_{ij} = a_i \, b_j - a_j \, b_i $$ chiamato bivettore.

Nel caso particolare di $n = 3$ un bivettore risulta $$ \left( a \wedge b \right)_{ij} = \left( \begin{array}{ccc} 0 & a_x \, b_y - a_y \, b_x & a_x \, b_z - a_z \, b_x \\ a_y \, b_x - a_x \, b_y & 0 & a_y \, b_z - a_z \, b_y \\ a_z \, b_x - a_x \, b_z & a_z \, b_y - a_y \, b_z & 0 \end{array} \right) $$ e il suo duale di Hodge è uno pseudotensore di ordine $3 - 2 = 1$, quindi uno pseudovettore che non è altro che il risultato dell'ordinario prodotto vettoriale, infatti si vede che $$ \left( a \wedge b \right)_{ij} = \left( \begin{array}{ccc} 0 & \left( a \times b \right)_z & -\left( a \times b \right)_y \\ -\left( a \times b \right)_z & 0 & \left( a \times b \right)_x \\ \left( a \times b \right)_y & -\left( a \times b \right)_x & 0 \end{array} \right) $$ dove $$ \left( a \times b \right)_i = \sum_j \sum_k \epsilon_{ijk} \, a_j \, b_k = \left( \begin{array}{c} a_y \, b_z - a_z \, b_y \\ a_z \, b_x - a_x \, b_z \\ a_x \, b_y - a_y \, b_x \end{array} \right) $$ e quindi $$ \left( a \times b \right)_i = \left( \star \left( a \wedge b \right)_{jk} \right)_i $$ (l'indice $i$ che compare a secondo membro, che sembra "comparire dal nulla", è l'indice del termine $\epsilon_{ijk}$ che compare nella definizione \eqref{DualeDiHodgeTridimensionaleTensoreDoppio} per l'operatore $\star$ applicato ad un tensore di ordine $2$ in dimensione $3$). Il prodotto vettoriale può quindi essere definito algebricamente come il duale di Hodge del prodotto esterno tra due vettori tridimensionali e in questo modo si evita tra l'altro il fastidioso abuso di notazione della definizione di prodotto vettoriale data utilizzando il determinante di una matrice.

È importante notare come questa operazione che associa un vettore ad una coppia di vettori sia possibile solo in dimensione $3$. Questo è dovuto in sostanza al fatto che il caso tridimensionale è l'unico in cui il numero di dimensioni coincide con il numero di grandezze necessarie a specificare una rotazione. In dimensione $2$ ne basta $1$, in dimensione $4$ ne servono $6$, in generale in dimensione $n$ ne servono $$ \frac{n \left( n - 1 \right)}{2} $$ che sono proprio il numero di componenti indipendenti di un tensore doppio antisimmetrico ($n^2$ sono i valori di una matrice $n \times n$, meno $n$ perché i valori della diagonale sono nulli da $n^2 - n = n \left( n - 1 \right)$, diviso $2$ perché i valori da una parte della diagonale sono uguali a quelli dall'altra parte a meno del segno).

In dimensione $4$ invece un bivettore può essere scritto nella forma $$ \left( \begin{array}{cccc} 0 & a_x & a_y & a_z \\ -a_x & 0 & -b_z & b_y \\ -a_y & b_z & 0 & -b_x \\ -a_z & -b_y & b_x & 0 \end{array} \right) $$ dove le componenti $a_x$, $a_y$ e $a_z$ si trasformano al cambio del sistema di riferimento come un vettore tridimensionale, mentre le coordinate $b_x$, $b_y$ e $b_z$ si trasformano come uno pseudovettore. Questo ci tornerà utile quando parleremo delle equazioni di Maxwell.

Derivata esterna e teorema di Stokes-Cartan

Il prodotto esterno permette di definire la derivata esterna $\partial \wedge f$ di un campo tensoriale $f$ di ordine $k$. Essa è il prodotto esterno tra il vettore formato dalle derivate parziali $$ \partial_i = \frac{\partial}{\partial x^i} $$ (dove $x^i$ indica le coordinate $n$-dimensionali), e il tensore stesso. Sarà quindi l'antisimmetrizzazione del prodotto tensoriale $$ \partial_i f_{j ...} $$ ovvero la somma di tutte le $k!$ possibili permutazioni di indici presi con segno positivo se pari, negativo se dispari. Essa è la naturale generalizzazione dell'operazione di differenziazione in spazi $n$-dimensionali. Essendo il primo fattore un tensore di ordine $1$, la derivata esterna di un tensore di ordine $k$ sarà un tensore di ordine $k + 1$.

Il teorema di Stokes-Cartan è dovuto, nella sua forma moderna, ad Élie Cartan, che unificò i risultati di George Green, Lord Kelvin, Michail Ostrogradskij e George Stokes. Detto a volte teorema di Stokes generalizzato o anche semplicemente teorema di Stokes, afferma che per ogni dimensione $n > 0$, per ogni $0 \leq k < n$, si ha $$ \int_\Omega \partial \wedge f \, d\Omega = \oint_{\partial \Omega} f \, d\partial \Omega $$ dove $\Omega$ è una superficie di dimensione $k + 1$ (il teorema richiede che $\Omega$ sia una varietà differenziabile non infinita, senza buchi e senza parti di bordo rimosse), $\partial \Omega$ è il suo bordo (il bordo, frontiera o contorno di uno spazio topologico è la chiusura dell'insieme meno il suo interno), quindi una superficie di dimensione $k$. $f$ è un campo tensoriale di ordine $k$, $\partial \wedge f$ è la sua derivata esterna, quindi un campo tensoriale di ordine $k + 1$. $d\Omega$ è l'elemento di volume infinitesimo $(k + 1)$-dimensionale, $d\partial \Omega$ è l'elemento di volume $k$-dimensionale. In uno spazio $n$-dimensionale avremo quindi $n$ declinazioni del teorema, per campi tensoriali di ordine $k = 0, 1, ..., n - 1$.

Le varie declinazioni sono ad esempio il teorema fondamentale del calcolo integrale che corrisponde all'unica declinazione possibile per $n = 1$ $$ \int_a^b \frac{df(x)}{dx} dx = f(b) - f(a) $$ Le tre declinazioni possibile per $n = 3$ corrispondono invece al teorema del gradiente $$ \int_C \nabla f \cdot dl = f(b) - f(a) $$ al teorema del rotore (detto anche teorema di Kelvin o teorema di Kelvin-Stokes) $$ \int_S \left( \nabla \times f \right) \cdot u \, dS = \oint_C f \cdot dl $$ e al teorema della divergenza (detto anche teorema di Ostrogradskij) $$ \int_V \nabla \cdot f \, dV = \oint_S f \cdot u \, dS $$ A partire della forma generale si possono ottenere queste forme particolari grazie all'utilizzo dei duali di Hodge, e quindi in sostanza grazie al simbolo di Levi-Civita.

Equazioni di Maxwell

La derivata esterna e i duali di Hodge costituiscono gli strumenti essenziali per una formulazione semplice ed elegante delle equazioni di Maxwell in forma quadridimensionale e relativisticamente invariante "a vista".

Utilizzando unità di misura naturali in cui $c = 1$ (ad esempio esprimendo i tempi in secondi e le distanze in secondi luce) tale forma è data semplicemente da $$ \partial \wedge \star F = 4 \pi \, {\star J} $$ $$ \partial \wedge F = 0 $$ dove $F$ e $J$ sono tensori che definiremo tra poco.

Grazie al lemma di Poincaré esse possono essere derivate direttamente dalla definizione del bivettore $F_{ij}$ a partire dal quadripotenziale $A_i$ e dall'equazione di continuità, quindi la conservazione della carica elettrica, legge che in una teoria relativistica non può che essere continua a causa della relatività del concetto di simultaneità. \begin{equation} \frac{\partial \rho}{\partial t} = -\nabla \cdot j \label{EquazioneDiContinuitaTridimensionale} \end{equation} (dove ricordiamo la definizione di divergenza, il prodotto scalare tra le derivate e il vettore $\nabla \cdot j = \frac{\partial j_x}{\partial x} + \frac{\partial j_y}{\partial y} + \frac{\partial j_z}{\partial z}$). Quadrivettore densità di corrente $$ J^i = \left( \begin{array}{c} \rho \\ j_x \\ j_y \\ j_z \end{array} \right) $$ Grazie alla definizione di questo quadrivettore e utilizzando la convenzione di Einstein per le sommatorie (si sottintende il simbolo di sommatoria quando un indice appare ripetuto, uno in alto e uno in basso) l'equazione di continuità \eqref{EquazioneDiContinuitaTridimensionale} diventa \begin{equation} \partial_i J^i = 0 \label{EquazioneDiContinuitaQuadridimensionale} \end{equation}

Il duale di Hodge del quadrivettore densità di corrente sarà $$ \left( \star J \right)_{ijk} = \epsilon_{ijkl} J^l $$ (continuando ad utilizzare la convenzione di Einstein, sottintendendo questa volta la sommatoria sull'indice $l$). Un tensore $4$-dimensionale di ordine $3$ ha ben $4^3 = 64$ componenti, che corrispondono alle disposizioni con ripetizioni di classe $3$ di $4$ elementi. Solo le componenti senza ripetizione di indici saranno diverse da zero. Esse saranno le disposizioni semplici di ordine $3$ di $4$ elementi. Per calcolarne il numero seguiamo lo stesso ragionamento fatto per le permutazioni semplici, ma con solo $k$ fattori, quindi nella sequenza $n$, $n - 1$, ..., ci fermiamo al fattore $n - \left( k - 1 \right)$, cioè a $n - k + 1$. Il primo escluso è quindi $n - k$ e quindi i fattori esclusi corrispondono a quelli di $\left( n - k \right)!$, termine per il quale dovremo quindi dividere $n!$. Quindi $$ \frac{n!}{\left( n - k \right)!} = \frac{4!}{\left(4 - 3 \right)!} = 24 $$ Di queste $24$ quelle che si ottengono le une dalle altre cambiando solamente l'ordine degli indici potranno cambiare al più per il segno. Le componenti indipendenti saranno quindi le combinazioni semplici di lunghezza $3$ di $4$ elementi. In questo caso, non contando l'ordine, dovremo ulteriormente dividere il numero di disposizioni semplici per il numero di permutazioni semplici di $k$ elementi, quindi $k!$, quindi $$ \binom{n}{k} = \frac{n!}{\left( n - k \right)! \, k!} = \frac{4!}{(4 - 3)! \, 3!} = \frac{24}{6} = 4 $$ (chiamate coefficiente binomiale) che corrispondono proprio alle $4$ componenti del quadrivettore densità di corrente $J^i$. Per ognuna di esse abbiamo altre $2$ combinazioni uguali, permutando i primi $3$ indici di $\epsilon_{i j k l}$, infatti $$ \begin{array}{l} \star J_{1 2 3} = \epsilon_{1 2 3 i} J^i = \epsilon_{2 3 1 i} J^i = \epsilon_{3 1 2 i} J^i = J^0 = \rho \\ \star J_{2 3 0} = \epsilon_{2 3 0 i} J^i = \epsilon_{3 0 2 i} J^i = \epsilon_{0 2 3 i} J^i = J^1 = j_x \\ \star J_{3 0 1} = \epsilon_{3 0 1 i} J^i = \epsilon_{0 1 3 i} J^i = \epsilon_{1 3 0 i} J^i = J^2 = j_y \\ \star J_{0 1 2} = \epsilon_{0 1 2 i} J^i = \epsilon_{1 2 0 i} J^i = \epsilon_{2 0 1 i} J^i = J^3 = j_z \end{array} $$ per un totale di $12$ componenti uguali a $3$ a $3$. Inoltre altri $12$ componenti saranno uguali a $3$ a $3$ e saranno i medesimi termini con segno opposto, arrivando così alle $24$ componenti diverse da zero. L'equazione di continuità \eqref{EquazioneDiContinuitaQuadridimensionale} corrisponde quindi a $$ \partial \wedge \star J = 0 $$

$$ F = \partial \wedge A $$ La derivata esterna del quadripotenziale ci da un bivettore, la cui componenti, come abbiamo già visto, possono essere interpretate come un vettore e uno pseudovettore tridimensionali. Questi non sono altro che il vettore campo elettrico $E$ e il vettore assiale campo magnetico $B$, secondo la matrice $$ F_{ij} = \left( \begin{array}{cccc} 0 & E_x & E_y & E_z \\ -E_x & 0 & -B_z & B_y \\ -E_y & B_z & 0 & -B_x \\ -E_z & -B_y & B_x & 0 \end{array} \right) $$ Essendo la derivata esterna di $A$ la sua derivata esterna è nulla, il che corrisponde all'equazione di Maxwell omogenea.

Spinori

Da un punto di vista puramente algebrico gli spinori possono essere visti come l'analogo dei vettori in cui il ruolo del tensore metrico $g_{ij}$ viene svolto dallo pseudotensore unitario antisimmetrico $\epsilon_{ij}$.

Gli spinori appropiati per rappresentare le rotazioni nello spazio quadridimensionale di Minkowski possono essere definiti in modo analogo a quelli tridimensionali. Per una particella a spin $1 / 2$ definiamo la grandezza a due componenti complessi $$ \xi^\alpha = \left( \begin{array}{c} \xi^1 \\ \xi^2 \end{array} \right) $$ Una generica trasformazione $\xi^\alpha \rightarrow \xi'^\alpha$ Passando ad un diverso sistema di riferimento avente l'origine in comune con quello di partenza tale grandezza si trasformerà secondo le relazioni \begin{equation} \begin{alignedat}{2} \xi'^1 &= a \, \xi^1 + b \, \xi^2 \\ \xi'^2 &= c \, \xi^1 + d \, \xi^2 \end{alignedat} \label{TrasformazioniSpinore} \end{equation} Considerando solo rotazioni, escludendo quindi le riflessioni (inversione spaziale e inversione temporale), imponiamo al determinante della trasformazione \eqref{TrasformazioniSpinore} il vincolo \begin{equation} a \, d - b \, c = 1 \label{DeterminanteTrasformazioneSpinore} \end{equation} Consideriamo ora l'espressione \begin{equation} \xi^1 \eta^2 - \xi^2 \eta^1 \label{InvarianteSpinori} \end{equation} dove $\xi$ e $\eta$ sono due spinori arbitrari, e vediamo come si trasforma tale espressione. Da un facile calcolo, utilizzando le \eqref{TrasformazioniSpinore} e la \eqref{DeterminanteTrasformazioneSpinore}, risulta $$ \begin{alignedat}{2} \xi'^1 \eta'^2 - \xi'^2 \eta'^1 &= \left( a \, \xi^1 + b \, \xi^2 \right) \left( c \, \eta^1 + d \, \eta^2 \right) - \left( c \, \xi^1 + d \, \xi^2 \right) \left( a \, \eta^1 + b \, \eta^2 \right) = \\ &= a \, d \, \xi^1 \eta^2 + b \, c \, \xi^2 \eta^1 - b \, c \, \xi^1 \eta^2 - a \, d \, \xi^2 \eta^1 = \\ &= \left( a \, d - b \, c \right) \left( \xi^1 \eta^2 - \xi^2 \eta^1 \right) = \\ &= \xi^1 \eta^2 - \xi^2 \eta^1 \end{alignedat} $$ cioè la \eqref{InvarianteSpinori} è invariante. Per rendere più naturale la definizione di tale grandezza introduciamo la matrice antisimmetrica $$ \epsilon_{\alpha \beta} = \left( \begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array} \right) $$ che ci permette di abbassare gli indici di uno spinore $$ \xi_\alpha = \epsilon_{\alpha \beta} \xi^\beta $$ Vediamo che $$ \begin{alignedat}{2} \xi_1 &= \xi^2 \\ \xi_2 &= -\xi^1 \end{alignedat} $$ In questo modo la \eqref{InvarianteSpinori} può quindi essere espressa attraverso il prodotto scalare tra spinori, infatti $$ \xi^\alpha \eta_\alpha = \xi^1 \eta_1 + \xi^2 \eta_2 = \xi^1 \eta^2 - \xi^2 \eta^1 $$ Gli spinori quindi risultano analoghi ai vettori ordinari, ma con il tensore $\epsilon_{\alpha \beta}$ che svolge il ruolo di tensore metrico e che, attraverso il prodotto scalare tra spinori, rappresenta l'invarianza della grandezza \eqref{InvarianteSpinori}. Nel caso di spinori tridimensionali tale espressione, corrispondendo alla densità di probabilità, è uno scalare. In conseguenza a ciò gli spinori tridimensionali ${\xi^*}^\alpha$ si trasformano come gli spinori covarianti $\xi_\alpha$. Per spinori quadridimensionali tale espressione è la componente temporale di un quadrivettore e quindi non imponiamo altre relazioni oltre la \eqref{InvarianteSpinori}. Le quattro grandezze complesse della \eqref{TrasformazioniSpinore} contengono quindi $8 - 2 = 6$ grandezze reali indipendenti, che corrispondono ai 6 angoli delle rotazioni quadridimensionali. Inoltre ora gli spinori complessi coniugati non si trasformano come gli spinori covarianti, ma secondo le complesse coniugate delle \eqref{TrasformazioniSpinore}. Per distinguerli tali spinori si indicano con un puntino sull'indice corrispondente. Per gli spinori quadridimensionali abbiamo quindi che $\eta^{\dot \alpha}$ si trasforma come ${\eta^*}^\alpha$. In questa forma tali spinori sono chiamati spinori di Weyl.

Gli spinori di rango superiore, detti multispinori, si definiscono come grandezze che si trasformano come prodotti di spinori, facendo attenzione alla distinzione tra indici puntati e non puntati. Ad esempio i multispinori di rango due possono essere di tre tipi $$ \zeta^{\alpha \beta} \qquad \zeta^{\alpha \dot \beta} \qquad \zeta^{\dot \alpha \dot \beta} $$ che si trasformano come prodotti di spinori con gli indici dei rispettivi tipi. Essendo le trasformazioni (3.1) e (3.8) algebricamente indipendenti non è necessario fissare l'ordine dei diversi tipi di indici, in altre parole lo spinore $\zeta^{\alpha \dot \beta}$ e $\zeta^{\dot \beta \alpha}$ sono la stessa cosa.

Il multispinore $\zeta^{\alpha \dot \beta}$ ha $4$ componenti indipendenti, esattamente come un quadrivettore. Queste grandezze realizzando quindi la stessa rappresentazione del gruppo proprio (senza riflessioni) di Lorentz. Per analogia con le relazioni tra spinori tridimensionali e vettori tridimensionali otteniamo le seguenti relazioni con un quadrivettore $a^i$ $$ \begin{alignedat}{2} a^0 &= \frac{1}{2} \left( \zeta^{1 \dot 1} + \zeta^{2 \dot 2} \right) \\ a^1 &= \frac{1}{2} \left( \zeta^{1 \dot 2} + \zeta^{2 \dot 1} \right) \\ a^2 &= \frac{i}{2} \left( \zeta^{1 \dot 2} - \zeta^{2 \dot 1} \right) \\ a^3 &= \frac{1}{2} \left( \zeta^{1 \dot 1} - \zeta^{2 \dot 2} \right) \end{alignedat} $$ Le formule inverse si ricavano facilmente. Da queste quattro relazioni otteniamo infatti $$ \begin{alignedat}{2} \zeta^{1 \dot 1} &= 2 a^0 - \zeta^{2 \dot 2} \\ \zeta^{1 \dot 2} &= 2 a^1 - \zeta^{2 \dot 1} \\ \zeta^{2 \dot 1} &= \zeta^{1 \dot 2} - 2 i a^2 \\ \zeta^{2 \dot 2} &= \zeta^{1 \dot 1} - 2 a^3 \end{alignedat} $$ Sostituendo la quarta nella prima si ottiene la componente $\zeta^{1 \dot 1}$, da questa, sostituendola nella quarta si ottiene la componente $\zeta^{2 \dot 2}$. Sostituendo la terza nella seconda si ottiene la componente $\zeta^{1 \dot 2}$ e infine da quest'ultima sostituita nella terza otteniamo $\zeta^{2 \dot 1}$. Otteniamo quindi \begin{equation} \zeta^{\alpha \dot \beta} = \left( \begin{array}{cc} a^0 + a^3 & a^1 - i a^2 \\ a^1 + i a^2 & a^0 - a^3 \end{array} \right) \label{QuadrivettoreSpinoriale} \end{equation} Ricordando la definizione di matrici di Pauli $$ \sigma_1 = \left( \begin{array}{cc} 0 & 1 \\ 1 & 0 \end{array} \right) \qquad \sigma_2 = \left( \begin{array}{cc} 0 & -i \\ i & 0 \end{array} \right) \qquad \sigma_3 = \left( \begin{array}{cc} 1 & 0 \\ 0 & -1 \end{array} \right) $$ e definendo il vettore di matrici $$ \sigma = \left( \begin{array}{c} \sigma^1 \\ \sigma^2 \\ \sigma^3 \end{array} \right) $$ vediamo che possiamo riscrivere le \eqref{QuadrivettoreSpinoriale} in forma compatta \begin{equation} \zeta^{\alpha \dot \beta} = a^0 + \sigma \cdot a \label{QuadrivettoreSpinorialeTridimensionale} \end{equation} dove naturalmente si sottintende che a secondo membro $a^0$ sia moltiplicato per la matrice unità e che $a$ rappresenti le tre componenti spaziali del quadrivettore $a^i$.

L'equazione d'onda per una particella a spin $1 / 2$ sarà costituita da equazioni che legano le derivate degli spinori $\xi^\alpha$ e $\eta_{\dot \alpha}$ ai valori degli spinori stessi nel medesimo istante. Per una particella libera l'unica grandezza che può entrare nelle equazioni del moto, oltre alla massa, è l'operatore energia-impulso che corrisponde al quadrivettore $i \partial_i$. Dalle regole generali \eqref{QuadrivettoreSpinoriale} vediamo che in notazione spinoriale questo quadrivettore corrisponde al multispinore $i \partial^{\alpha \dot \beta}$ che, a meno del fattore $i$, ha componenti controvarianti e covarianti $$ \begin{alignedat}{2} \partial^{\alpha \dot \beta} &= \left( \begin{array}{cc} \partial_0 + \partial_3 & \partial_1 - i \partial_2 \\ \partial_1 + i \partial_2 & \partial_0 - \partial_3 \end{array} \right) \\ \partial_{\dot \alpha \beta} &= \left( \begin{array}{cc} \partial_0 - \partial_3 & -\partial_1 + i \partial_2 \\ -\partial_1 - i \partial_2 & \partial_0 + \partial_3 \end{array} \right) \end{alignedat} $$ esprimibili in forma tridimensionale grazie alla \eqref{QuadrivettoreSpinorialeTridimensionale} da $$ \begin{alignedat}{2} \partial^{\alpha \dot \beta} &= \partial_0 + \sigma \cdot \nabla \\ \partial_{\dot \alpha \beta} &= \partial_0 - \sigma \cdot \nabla \end{alignedat} $$ Da queste considerazioni otteniamo le equazioni \begin{equation} \begin{alignedat}{2} i \partial^{\alpha \dot \beta} \eta_{\dot \beta} &= m \, \xi^\alpha \\ i \partial_{\dot \alpha \beta} \xi^\beta &= m \, \eta_{\dot \alpha} \end{alignedat} \label{EquazioniSpinoriali} \end{equation} o, con le derivate parziali espresse in forma tridimensionale $$ \begin{alignedat}{2} i \left( \partial_0 + \sigma \cdot \nabla \right) \eta &= m \, \xi \\ i \left( \partial_0 - \sigma \cdot \nabla \right) \xi &= m \, \eta \end{alignedat} $$

Notiamo che in caso di particelle non massive i secondi membri si annullano e le equazioni si disaccoppiano, diventando le due equazioni indipendenti $$ \begin{alignedat}{2} i \partial^{\alpha \dot \beta} \eta_{\dot \beta} &= 0 \\ i \partial_{\dot \alpha \beta} \xi^\beta &= 0 \end{alignedat} $$

La coppia di equazioni \eqref{EquazioniSpinoriali} per una particella a spin $1 / 2$ sono nella forma più naturale dal punto di vista della loro invarianza relativistica e sono equivalenti all'equazione di Dirac.