Network Bar

sabato 12 maggio 2018

Una storia di paradossi, disuguaglianze e baffi

Come ha rilevato Richard Feynman, la natura vista dal punto di vista della meccanica quantistica è assurda. Il mondo quantistico, infatti, è ricco di paradossi, il più noto dei quali è indubbiamente quello del gatto


Albert, la senti questa voce?
La meccanica quantistica è certamente imponente. Ma una voce interiore mi dice che non è ancora reale. La teoria dice molto, ma non ci conduce realmente più vicino al segreto del "grande vecchio". Io, in ogni caso, sono convinto che Egli non gioca a dadi.
La relatività generale e la meccanica quantistica non sono mai andate molto d'accordo e di questo se ne rendeva perfettamente conto Albert Einstein durante le sue discussioni sulla meccanica quantistica e in particolare sull'interpretazione di Copenhagen, quella positivista dovuta alla scuola dei fisici teorici di Niels Bohr e sviluppata in particolare dal suo allievo Werner Heisenberg. Le critiche di Einstein a tale interpretazione probabilistica, che poi era quella che meglio si adattava al carattere delocalizzato rilevato da Erwin Schroedinger, sfociarono nell'articolo del 1935 scritto con Boris Podolsky e Nathan Rosen, Can quantum-mechanical description of physical reality be considered complete?, dove i tre teorici si concentrarono sui seguenti due punti:
  1. la descrizione quanto-meccanica della realtà data dalla funzione d'onda non è completa
  2. quando gli operatori corrispondenti a due quantità fisiche non commutano le due quantità non possono avere una realtà simultanea
I tre autori conclusero che la negazione di (1) implica la negazione di (2) quindi La descrizione della realtà fisica data dalla funzione d'onda non è completa.
Mentre abbiamo così mostrato che la funzione d'onda non fornisce una descrizione completa della realtà fisica, lasciamo aperta la questione se esista o meno una descrizione di tale genere. Crediamo, comunque, che una tale teoria è possibile.
Invisibili agli occhi
Come già scritto nel post precedente, a metà degli anni Venti del XX secolo Luois de Broglie propose l'esistenza di una sorta di orologio interno dell'elettrone legato a un'onda pilota (onda di materia) che avrebbe dovuto guidare la particella nel suo moto. L'idea venne ben presto abbandonata da de Broglie, per poi venire ripresa successivamente da David Bohm nel 1952 con la teoria delle variabili nascoste. Per testare l'idea di Bohm arriva nel 1964 la disuguaglianza di Bell, scoperta dal fisico teorico John Stewart Bell. Il teorema che ne segue può essere così enunciato:
Nessuna teoria fisica delle variabili nascoste locali può mai riprodurre tutte le predizioni della meccanica quantistica
Rimandandovi a quanto scritto su Discussione su una disugliaglianza, l'unica cosa che resta da aggiungere è che, con il teorema di Bell sono poste le basi per l'entanglement quantistico.
Un intricato groviglio di particelle
Il primo a parlare di entanglement fu Erwin Schroedinger in un articolo di commento al paradosso EPR uscito nello stesso anno. Le sue conclusioni a proposito del paradosso stesso sono semplici:
Il paradosso potrebbe essere sciolto, però, se un'osservazione non fosse legata a un momento preciso. Ciò, però, renderebbe l'attuale interpretazione della meccanica quantistica priva di significato, poiché al momento gli oggetti delle sue predizioni sono considerati il risultato di misure in determinati momenti di tempo.
L'entanglement, o intreccio, intricazione, può essere così definito: secondo la meccanica quantistica è possibile realizzare uno stato costituito da due particelle caratterizzato da determinati valori globali delle osservabili fisiche (in particolare lo spin). Questo implica che se misuriamo lo spin di una delle due particelle, allora automaticamente conosciamo lo spin dell'altra, questo per via della conservazione dello spin del sistema. E questo fatto risulta vero indipendentemente dalla distanza tra le due particelle, che allora si dicono formare un entanglement.
Tale effetto era particolarmente indigesto per Einstein, perché implicava una violazione dell'insuperabilità della velocità della luce e del principio di causalità. Einstein, però, pensava alle due particelle entagled come a due entità distinte e separate, ma nel momento in cui le due diventano un unico sistema, esse non possono più essere descritte con due distinte funzioni d'onda, ma devono necessariamente essere descritte come un unico oggetto quantistico.
Ad ogni buon conto la disuguaglianza di Bell forniva un ottimo modo per testare al meglio le variabili nascoste: o esse sono vere e non è possibile l'esistenza di particelle intimamente legate una all'altra, o sono false e l'entanglement è un effetto reale.
Così nel 1969 John Clauser, Michael Horne, Abner Shimony, Richard Holt proposero il primo esperimento per testare la verità o la falsità della disuguaglianza di Bell, che poi fu lo stesso Clauser a condurre insieme con Stuart Freedman nel 1972. Per quanto non conclusivo, il risultato fu a favore della meccanica quantistica.
Il passo successivo venne compiuto nel 1982 da Alain Aspect, Philippe Grangier, Gérard Roger: è con questi esperimenti che si può iniziare a parlare più propriamente di entanglement.
Vennero condotti altri esperimenti, tutti a favore della meccanica quantistica, ma due esperimenti in particolare fanno crollare quasi tutte le speranze per i modelli delle variabili nascoste: nel 2015 B. Hensen et al. portano a compimento il primo esperimento alle condizioni esatte proposte da Bell nel suo articolo. Con questo lavoro crolla definitivamente il realismo locale. Prima, nel 2007, Simon Gröblacher et al. testano la disuguaglianza di Leggett, una variazione di quella di Bell: sia la disuguaglianza sia i risultati sperimentali implicano che il realismo e alcuni tipi di non-località non sono compatibili, lasciando una porta aperta a proposte meno restrittive rispetto alla formulazione di Bohm di modelli con variabili nascoste. L'ultimo risultato è recente e porta la firma di un ricercatore italiano: un team di base a Basilea guidato da Matteo Fadel ha realizzato un entanglement tra due gruppi di atomi.
Informatica quantistica
La scoperta dell'entanglement è diventata fondamentale non solo per la fisica fondamentale, ma anche per la nascita e lo sviluppo dell'informatica quantistica. Essa si basa su alcuni punti importanti (via it.wiki):
  • No-cloning: l'informazione quantistica non può essere copiata con fedeltà assoluta, e quindi neanche letta con fedeltà assoluta. (William Wootters, 1982).
  • L'informazione quantistica può invece essere trasferita con fedeltà assoluta, a patto che l'originale venga distrutto nel processo. Il teletrasporto quantistico è stato ottenuto per la prima volta da Nielsen, Klinn e LaFlamme nel 1998.
  • Ogni misura compiuta su di un sistema quantistico distrugge la maggior parte dell'informazione, lasciandolo in uno stato base. L'informazione distrutta non può essere recuperata. Ciò è una derivazione diretta dai postulati della meccanica quantistica (PMQ).
  • Anche se in qualche caso è possibile conoscere esattamente in che stato base si troverà il sistema dopo una misura, il più delle volte avremo solo previsioni probabilistiche. Anche questo deriva direttamente dai PMQ.
  • Alcune osservabili non possono avere simultaneamente valori definiti con precisione, per il principio di indeterminazione di Heisenberg. Ciò ci impedisce sia di stabilire con esattezza le condizioni iniziali prima del calcolo, sia di leggere i risultati con precisione.
  • L'informazione quantistica può essere codificata, e solitamente lo è, tramite correlazioni non-locali tra parti differenti di un sistema fisico. In pratica, si utilizza l'entanglement.
Unità fondamentale dell'informatica quantistica è il qubit, sistema fisico quantistico che si trova in una sovrapposizione di stati. In questo modo, a differenza dell'informatica classica, la logica su cui si basa quella quantistica non è più a due valori (o booleana), ma a molti valori. Più in generale, come aveva già rilevato il matematico George Mackey, è la meccanica quantistica stessa a basarsi su una logica a molti valori.
Ovviamente, essendo i qubit quantistici, sono soggetti all'entanglement. Se però in un processo di calcolo l'entanglement non risulta in qualche modo coinvolto, allora tale calcolo può essere condotto con maggiore efficacia da un computer classico.
Tutti i risultati ottenuti, sia sperimentali sia applicativi (sebbene questi ultimi siano soltanto all'inizio), non hanno comunque spento la diatriba sull'interpretazione della meccanica quantistica. Forse la conclusione più lucida e umile che si può porre a questa storia è quanto scrive Aspect nel 2007 su Nature a commento dell'articolo di Gröblacher:
La conclusione che si può trarre è più una questione di gusto che di logica e si può dedurre che tale discussione è irrilevante per la scienza.
Con il sorriso e i baffi di Alain Aspect si chiude l'ultimo dei post ispirati alla serie di "lezioni" tenute al liceo "Cavalleri" di Parabiago. Anche in questo caso esiste una presentazione che, come il post, si intitola Una storia di paradossi, disuguaglianze e baffi.

Nessun commento:

Posta un commento