Meccanica Quantistica: esposizione divulgativa (Parte seconda) Interpretazione

L’interpretazione di Copenaghen era principalmente il prodotto di Neils Bohr e Werner Heisenberg, che erano fortemente sostenuti da Max Born, Wolfgang Pauli e John von Neumann. Tra quelli contrari all’interpretazione di Copenaghen ci sono stati Albert Einstein, Erwin Schroedinger, Louis de Broglie, Max Planck, David Bohm, Alfred Landé, Karl Popper e Bertrand Russell. Mentre quelli che sostengono l’interpretazione di Copenaghen costituiscono una “scuola” e una “ortodossia”, coloro che si oppongono ad essa hanno opinioni ampiamente divergenti. Ma questi ultimi sono stati denigrati uniformemente come troppo semplici o troppo “antiquati” per comprendere tali idee “moderne” come acausalità e positivismo. Anche i fisici sovietici si sono opposti all’interpretazione di Copenaghen, ma sulla base del fatto che si tratta di un “idealismo”.

Gli aspetti controversi essenziali dell’interpretazione di Copenaghen sono:

1) il Principio di incertezza (chiamato anche il Principio di Indeterminazione) di Heisenberg

2) il Principio di Complementarità di Bohr

Con il passare del tempo, l’interpretazione di Copenaghen è stata più specificamente identificata con un concetto noto come “il collasso della funzione d’onda” (chiamato anche “la riduzione del pacchetto d’onda”) come formulato da John Von Neumann. Queste idee verranno esaminate a turno.

Il Principio di incertezza di Heisenberg afferma che il prodotto dell’incertezza della posizione e del momento per ogni particella sarà più di un certo multiplo della costante di Planck. Poiché la quantità di moto è il prodotto di massa e velocità, e poiché la massa in un esperimento è solitamente quella di un elettrone, ciò può essere descritto in modo equivalente dicendo che più precisamente è nota la posizione di un elettrone, tanto meno precisamente la sua velocità è nota e viceversa. Bohr e Heisenberg illustrerebbero questo punto con il seguente esperimento mentale: macroscopicamente, la posizione di un oggetto può essere giudicata osservandola, cioè osservando i fotoni provenienti da una fonte di luce, rimbalzava sull’oggetto e arrivava ai nostri occhi. La posizione di un’auto non è molto alterata dai fotoni che la rimbalzano. Ma se i fotoni vengono rimbalzati su un elettrone per determinare la sua posizione, la sua velocità sarà alterata e incerta. I fotoni ad alta energia con lunghezza d’onda più corta hanno meno diffrazione – determinano la posizione degli elettroni in modo più preciso – ma in tal modo alterano la velocità dell’elettrone in modo più radicale.

Collasso della funzione d’onda

Ciò che apparentemente era iniziato come un semplice problema di misurazione in circostanze specifiche divenne gratuitamente generalizzato in un’asserzione metafisica. Sebbene l’esperimento mentale originale fosse una dimostrazione causale che assunse una posizione deterministica e una velocità (quantità di moto) sottostanti, l’interpretazione di Copenhagen cominciò a negare che l’elettrone ha una posizione o velocità definita. Dall’idea positivista che non ha senso discutere l’esistenza di qualcosa che non può essere misurato (posizione e velocità, entro certi limiti) è venuta l’idea che l’elettrone è una “possibilità” irreale e senza causa che raggiunge l’attualità solo dopo l’osservazione. Così il positivismo si è trasformato in soggettivismo (alcuni dicono “solipsismo”) e l’idea che l’osservatore in qualche modo crea la realtà dall’atto di osservazione.

Ovviamente un medico che cerca di misurare la pressione del sangue di un paziente deve affrontare un problema. Quello che lei misura non è semplicemente la pressione del sangue, ma la pressione sanguigna di una persona che ha la pressione del sangue presa da un medico. Un medico sarebbe più saggio nel cercare mezzi indiretti per determinare la vera pressione del sangue che affermare che la sua realtà “creata dall’osservatore” è tutta la realtà che esiste – e che il paziente non ha pressione sanguigna finché non prova a misurarla. Similmente, mezzi diversi dal bombardamento di fotoni potrebbero essere possibili per determinare la posizione e la velocità di un elettrone.

Una lastra fotografica contenente la traccia di un elettrone può essere utilizzata per determinare la posizione e la velocità entro un limite inferiore al limite di incertezza. Con un po ‘di razionalizzazione piuttosto discutibile, Heisenberg ha negato l’evidenza della lastra fotografica affermando che il suo Principio di incertezza è rilevante solo per prevedere il futuro e che “questa conoscenza del passato ha un carattere puramente speculativo”, aggiungendo “È una questione di personale convinzione che un tale calcolo riguardante la storia passata dell’elettrone possa essere ascritto a qualsiasi realtà fisica o no “. Per qualche ragione, la maggior parte dei fisici ha scelto una convinzione personale che negava la realtà fisica e si conformava all’interpretazione di Copenaghen.

Principio di indeterminazione: la posizione e la quantità di moto di un oggetto quantistico non possono essere contemporaneamente ben definite: il prodotto delle loro incertezze non può scendere al di sotto di una quantità minima.

Il Principio di Complementarità di Bohr nacque dalla difficoltà che i fisici stavano avendo nel loro tentativo di determinare se i fenomeni quantistici come la luce fossero particelle o onde. Ma la complementarità non è una soluzione. Invece, è un’affermazione che nessuna soluzione esiste e che i fisici sanno tutto ciò che si può sapere sulla domanda. Quindi sarebbe bene esaminare in modo specifico il contesto da cui nasce la complementarità.

A causa delle linee rette (raggi) evidenti nella propagazione della luce, Newton riteneva che la luce fosse composta da particelle. Ma gli effetti di diffrazione e altre prove hanno portato sempre più gli altri alla convinzione che la luce sia un’onda. Al momento delle equazioni di Maxwell (due secoli dopo il lavoro di Newton), la luce era intesa come pura onda – semplicemente una piccola parte di uno spettro elettromagnetico che va dalle lunghissime onde radio alle microonde alla luce e ai brevissimi raggi X e onde gamma. Ma poi la sperimentazione con l’effetto fotoelettrico ha portato Einstein alla conclusione che la luce è “quantizzata” sotto forma di fotoni. Infatti, più breve è la lunghezza d’onda elettromagnetica (e quindi, più l’onda è energica), più appare un’onda elettromagnetica simile a una particella.

Louis de Broglie ha suggerito che tutta la materia, non solo la radiazione elettromagnetica, ha questo carattere a doppia onda / particella. Quindi, qualcosa con un personaggio estremamente particellare come un baseball da un chilogrammo che si muove a dieci metri al secondo avrà una lunghezza d’onda di lunghezza “infinitesimale” associata ad esso – 25 ordini di grandezza più piccoli del diametro di un atomo di idrogeno ( cioè 10 -25 UA). Questo può essere indicativo dell’equivalenza massa / energia che si assocerebbe alle alte energie delle lunghezze d’onda corte. Un’onda radio, che può essere lunga miglia, esibisce un comportamento molto piccolo come una particella. È solo nei casi in cui la dimensione della particella è vicina alla lunghezza d’onda – come con un elettrone – che la “dualità” diventa veramente sconcertante. [Questa descrizione è una semplificazione eccessiva, tuttavia, poiché il comportamento particellare è una funzione del dispositivo di rilevamento, in particolare la dimensione relativa del dispositivo.] Il fatto che l’elettrone particellare sia associato a una lunghezza d’onda così breve è la ragione per cui maggiore risoluzione (meno diffrazione) può essere ottenuta con un microscopio elettronico che con un microscopio ottico.

L’equazione di Erwin Schroedinger è un’equazione differenziale di una particella di una data massa soggetta a forze variabili nel tempo e nello spazio. Le soluzioni dell’equazione di Schroedinger sono le onde della materia di de Broglie (psi) associate al moto della particella. Si possono fare paragoni tra l’equazione delle onde elettromagnetiche e l’equazione delle onde di materia di Schroedinger. L’equazione di Schroedinger contiene un termine complesso (immaginario, i ), che implica che le funzioni d’onda di de Broglie sono entità matematiche che non possono essere imputate per avere un’esistenza fisica. Alcuni fisici considerano questo fatto come una benedizione in quanto impedisce a chiunque di chiedere cosa stia “agitando” – la domanda che ha portato alla fallacia dell’esistenza dell’etere come spiegazione di ciò che le onde elettromagnetiche stanno “agitando”.

Einstein suggerì che il quadrato dell’ampiezza dell’onda elettromagnetica poteva essere interpretato come il numero medio di fotoni per unità di volume (intensità dell’onda, densità di energia, densità di fotoni). Allo stesso modo, Max Born ha proposto qualcosa come un’onda di materia squadrata di Broglie (il complesso coniugato ) che fornisce una quantità reale, non negativa che potrebbe essere interpretata come una misura della probabilità di trovare una particella in un dato momento e luogo.

Un’equazione che descrive le posizioni delle particelle in termini di probabilità non fornisce un modello visivo del mondo micro quantistico. Il Principio di Complementarità di Bohr sostenne che non possiamo mai costruire un modello visivo del micromondo basato su analoghi con oggetti nel macromondo. Il più vicino possibile a un modello è di considerare i due concetti classici mutuamente esclusivi dell’onda e della particella come aspetti “complementari” della realtà quantistica. L’idea che molti (o la maggior parte) dei fenomeni micromondo non possano essere modellati sui fenomeni del macromondo non è priva di fondamento. Ad esempio, probabilmente non c’è nulla nel nostro mondo macroscopico che possa fungere da buon modello per le interazioni tra protoni e neutroni in un nucleo. Nondimeno, è prematuro e arrogante suggerire che i fisici non potranno mai trovare un modello più utile del Principio di Complementarità di Bohr. (Schroedinger ha chiamato il principio di complementarità “una stravaganza dettata dalla disperazione per una grave crisi”).

Quando un elettrone viene effettivamente osservato, ciò che viene visto è una particella. Ma dove è probabile che l’elettrone sia osservato è descritto da una funzione d’onda (la psi dell’equazione d’onda di Schroedinger, “squared” – complesso coniugato). Maggiore è l’ampiezza della funzione d’onda “al quadrato” in ogni punto particolare, più è probabile che la particella sarà trovata in quel punto. L’interpretazione di Copenaghen sembra considerare l’elettrone come in qualche modo diffuso attraverso la funzione d’onda fino a quando “collassa” in un punto sull’atto di osservazione. Ma perché il semplice atto di osservazione dovrebbe causare “il collasso della funzione d’onda”?

Per alcuni, questa interpretazione dell’osservazione va oltre l’idea positivista secondo cui non ha senso descrivere ciò che non viene osservato – nell’idea che la coscienza controlla in qualche modo un evento fisico. Una vittima dell’amnesia che improvvisamente dimenticasse ciò che aveva appena osservato causerebbe una particella che si sarebbe “riattivata” in una funzione d’onda? Non probabile Infatti, una “funzione d’onda” incidente su una lastra fotografica si “collassa” in un punto (particella) indipendentemente dal fatto che la lastra venga esaminata immediatamente. L’interpretazione di Copenaghen considera il “collasso del pacchetto d’onde” come un concetto fondamentale e irriducibile, nel senso che non si dovrebbe cercare di analizzare il “meccanismo” del collasso. Ma la traiettoria di un elettrone in una camera a nebbia assomiglia molto a quella di una particella in movimento, nonostante l’affermazione di Heisenberg che è insensato parlare di “il percorso di un elettrone”. L’elettrone “ricollassa” in ogni punto di condensa? Einstein e von Neumann hanno dichiarato che la teoria quantistica non è appropriata per descrivere singoli sistemi fisici (particelle), ma è rilevante solo per un grande numero di tali sistemi. Tutto ciò che “crolla” è la nostra conoscenza del sistema, secondo Einstein. Un esperimento che coinvolge la diffrazione circolare e il famoso esperimento a due fenditure, illustrano il comportamento più perplesso delle particelle / onde subatomiche.

Una fotografia di modello di interferenza di elettroni del 1927

Per l’esperimento a due fenditure, si può immaginare di sparare particelle classiche (pallottole) in un pannello contenente due fessure nella Figura 1a e osservare la distribuzione delle particelle contro uno schermo (obiettivo). Come mostrato all’estrema destra della Figura 1a – e sulla sinistra della Figura 1b – il bersaglio avrà due “tumuli” di particelle.Se la luce monocromatica coerente (luce laser) di una lunghezza d’onda appropriata viene proiettata su uno schermo contenente un’apertura circolare di dimensioni appropriate, uno schermo sul lato più lontano dell’apertura visualizzerà un occhio di bue (serie di anelli concentrici) noto come Disco Airy. Il disco Airy è considerato la conseguenza della diffrazione circolare delle onde luminose attraverso l’apertura. Tuttavia, se gli elettroni (oi fotoni) vengono sparati individualmente, a intervalli di un minuto, su un’apertura, dopo un periodo di settimane una lastra fotografica sul lato più lontano dell’apertura visualizzerà un disco Airy. Inoltre, più piccola è l’apertura, più grande è il disco Airy, esattamente come previsto dalla relazione di incertezza. Dal momento che gli elettroni sono emersi attraverso l’apertura uno alla volta, non c’è alcun dubbio che interferiscano. Invece, la funzione d’onda descrive la probabilità di trovare un elettrone in un punto nello spazio. Il disco Airy ha degli anelli scuri dove la maggior parte degli elettroni ha colpito la lastra fotografica (il carattere granuloso degli anelli indica chiaramente la loro composizione di particelle individuali che colpiscono la piastra).

Successivamente, si consente alle onde classiche (onde d’acqua) di propagarsi verso un pannello con due fenditure come in Figura 2a . Le onde si diffrangono alle fenditure e producono il modello di interferenza mostrato all’estrema destra della Figura 2a e sulla sinistra della Figura 2b . Infine, si possono sparare elettroni da un filamento di tungsteno riscaldato verso il pannello a due spaccature come in Figura 3a . Sembra che stiamo sparando oggetti simili a proiettili verso il pannello, ma quando guardiamo la distribuzione all’estrema destra della Figura 3a – e sulla sinistra della Figura 3b – vediamo schemi di interferenza. A questo punto siamo tentati di pensare che dobbiamo esserci sbagliati, che gli elettroni devono essere stati davvero delle onde. Per chiarire la questione, spariamo agli elettroni uno alla volta, ma otteniamo comunque il modello di interferenza di Figura 3b.

Ma questo modello è il risultato cumulativo di molti elettroni. Ogni singolo elettrone aggiunge semplicemente un piccolo punto (come atteso da una particella) al modello di distribuzione cumulativa (un modello di interferenza, come previsto da un’onda). Se il singolo elettrone fosse una “onda” che potrebbe attraversare entrambe le fenditure e produrre interferenze, perché fa un singolo punto sullo schermo piuttosto che un’immagine che è stesa? Potremmo provare a determinare quale fenditura attraversa l’elettrone dirigendo un raggio di luce verso le fenditure. Ma un tale raggio di luce deve avere una lunghezza d’onda inferiore alla distanza tra le fessure per distinguere quale fenditura attraversasse l’elettrone. La luce di una lunghezza d’onda così breve può essere abbastanza energica da disturbare l’elettrone (come nell’esperimento di pensiero del Principio di Uncertainty). Abbastanza sicuro, Figura 1b sullo schermo – significa che i nostri sforzi per studiare le fessure hanno alterato il risultato. Cosa si può concludere da questo? I sostenitori dell’interpretazione di Copenaghen affermano che questi esperimenti supportano le loro teorie di acausalità, non oggettività dell’elettrone e di una funzione d’onda che “collassa” in una particella quando colpisce lo schermo. Di fronte a prove così sconcertanti, l’interpretazione di Copenaghen appare non meno contraddittoria di qualsiasi altra interpretazione. Saranno menzionate diverse spiegazioni “deterministiche”.

Nelle LEZIONI DI FEYNMAN SULLA FISICA, Richard Feynman descrisse l’esperimento di interferenza a doppia fenditura per singole particelle come l’unico mistero nella meccanica quantistica. L’esperimento a due fenditure era originariamente un esperimento mentale basato sui risultati della diffrazione dei cristalli di elettroni. L’esperimento è stato successivamente effettuato molte volte utilizzando fessure – con i risultati previsti. Il pannello contenente le fessure dell’esperimento contiene atomi. Non si può sapere come l’elettrone potrebbe interagire con la materia nel pannello alle fessure: in effetti, l’elettrone che colpisce lo schermo di destinazione potrebbe effettivamente essere uno che era originariamente nel pannello.

Due teorie di universi paralleli sono state proposte per spiegare i fenomeni visti per l’apertura circolare e l’esperimento con due fenditure. Queste teorie sono semplicemente interpretazioni che non fanno previsioni e non possono essere falsificate. Nella teoria più ingenua, un elettrone confrontato con le due fenditure fa sì che l’universo si divida in due: l’elettrone attraversa una fenditura in un universo e l’altra fende nell’altro universo. Questa “spiegazione” non riesce a spiegare l’apparenza di interferenze. Una teoria degli universi paralleli più sottili sostiene che esiste un numero infinito di universi paralleli in ogni momento e che gli elettroni “ombra” (o fotoni) degli universi paralleli causano l’interferenza con le particelle nel nostro universo. Ma nell’esperimento in cui gli elettroni (o i fotoni) vengono sparati uno dopo l’altro attraverso l’apertura circolare, non è necessario ipotizzare alcun tipo di interferenza dalle particelle “d’ombra”.

L’Airy Disk può essere semplicemente descritto come una distribuzione di probabilità di destinazioni di particelle derivanti dall’interazione delle particelle con l’apertura. Il fatto che le dimensioni dell’Airy Disk siano dovute alla dimensione dell’apertura è una prova persuasiva che l’interazione tra le particelle e l’apertura è la causa della distribuzione che sembra un modello di interferenza. La distribuzione degli elettroni nell’esperimento a due fenditure può essere attribuita allo stesso modo all’interazione degli elettroni con le fenditure piuttosto che all’interferenza con gli elettroni “ombra”. Il fatto che il bombardamento di elettroni con una luce sufficientemente energica per distinguere quale fenditura abbia attraversato l’elettrone fa sì che una distribuzione simile a una particella non debba essere interpretata come qualche interferenza metafisica della coscienza. Una spiegazione più semplice è che aumentando la velocità dell’elettrone mediante il bombardamento leggero si riduce l’interazione dell’elettrone con la fessura. Ad alte energie la lunghezza d’onda degli elettroni DeBroglie diventa troppo corta per diffrarre alla fessura. Se gli elettroni “ombra” degli universi paralleli stavano interferendo, quindi aumentare la velocità degli elettroni con un bombardamento leggero non comporterebbe l’eliminazione delle interferenze. (Mi rendo conto che il Rasoio di Occam è soggettivo, ma ipotizzare un numero infinito di universi paralleli mi sembra la più antieconomica di tutte le possibili spiegazioni). David Bohm è diventato famoso per la sua spiegazione delle “variabili nascoste”.

Proprio come una particella di fumo al microscopio è vista “dimenarsi” in risposta a atomi invisibili che si scontrano con esso (movimento Browniano), così anche le oscillazioni di un elettrone nella funzione d’onda potrebbero essere il risultato di invisibili “variabili nascoste” che possono propagarsi attraverso entrambe le fessure. Invece di essere “ombra” di elettroni da universi paralleli, queste variabili nascoste potrebbero semplicemente essere particelle subatomiche più piccole. I positivisti dell’interpretazione di Copenhagen respingono rapidamente il concetto di “variabili nascoste” sulla base del fatto che non ha senso considerare l’esistenza dell’invisibile. Ma non dobbiamo dimenticare che l’arch-positivista Ernst Mach ha negato a lungo l’esistenza degli atomi sulla base del fatto che essi sono al di là della conferma sensoriale. John von Neumann dimostrò un teorema che sosteneva dimostrato che le variabili nascoste non potevano spiegare la teoria quantistica – ma 34 anni dopo John Bell (del Teorema di Bell) dimostrò che una delle ipotesi di von Neumann era impossibile. Einstein considerava le “variabili nascoste” di Bohm come una soluzione “economica” al dilemma quantistico. Sfidò l’indeterminatezza da due ipotesi alternative, una molto “classica” e una molto meno classica dell’interpretazione di Copenaghen.

 La visione più classica era la sua interpretazione statistica della meccanica quantistica. In questa interpretazione, una particella può possedere una posizione e un momento precisi, ma la meccanica quantistica può solo fare previsioni statistiche su ciò che potrebbero essere – entro un intervallo. Nell’interpretazione della teoria dei campi unificata più radicale di Einstein, suggerì che (a livello subatomico) la posizione e il momento classico possono essere due manifestazioni di una realtà sottostante singolare (molto simile alla massa e all’energia). Per Heisenberg, un elettrone è una “potentia” ondulata, fino a quando l’onda “collassa” in un punto colpendo la lastra fotografica. Dall’interpretazione statistica della meccanica quantistica di Einstein, tuttavia, un elettrone ha una posizione e un momento discreti in ogni momento durante il suo volo, in modo tale che la funzione d’onda (e il disco Airy) sia significativa solo come descrizione statistica del comportamento di un gran numero di particelle – non di una particella individuale. Einstein non era affatto il solo a negare che la meccanica quantistica precluda il determinismo.

 Lo stesso Erwin Schroedinger riteneva che le sue equazioni fossero completamente deterministiche – e mantenne questa visione per tutta la sua vita. Schroedinger era impaziente dell’idea che gli eventi nel micromondo acquisissero la realtà solo quando vengono osservati. Per mostrare la stupidità di quella vista, ha escogitato l’esperimento mentale di un gatto in una scatola che potrebbe essere ucciso da un gas velenoso rilasciato da un meccanismo collegato a un contatore geiger che risponde a un campione debolmente radioattivo. Se un evento di decadimento radioattivo ha una probabilità del 50% di verificarsi entro un intervallo di 5 minuti, allora il gatto ha una probabilità del 50% di essere ucciso da gas velenoso rilasciato dal contatore geiger nei 5 minuti. Così, Sorprendentemente, “il gatto di Schoedinger” è stato più spesso interpretato come un’illustrazione di “osservatore creato realtà”, piuttosto che la reductio ad absurdum di Schroedinger. La conseguenza logica di questa interpretazione è che non c’è suono in una foresta quando un albero cade se non c’è nessuno lì ad osservarlo. In realtà, questa interpretazione implica che non ha senso chiedersi se un albero è caduto se non c’è un osservatore. (Einstein una volta chiese a Neils Bohr se la luna esiste quando nessuno la guarda).

Interpretazione a molti mondi ( MWI )

Per coloro che credono negli universi paralleli, il gatto di Schoedinger è vivo in alcuni universi e morto in altri. L’ interpretazione a molti mondi ( MWI ), come è più ampiamente conosciuta, è stata difesa da fisici di spicco come Stephen Hawkings e Steven Weinberg, sebbene nessuno di questi uomini consideri la teoria come qualcosa di più di un formalismo matematico. Altri fisici – in particolare David Deutsch -, tuttavia, attribuiscono la realtà fisica agli innumerevoli universi paralleli e credono che tutto ciò che può accadere debba essere accaduto in molti di quegli universi. Secondo MWI la funzione d’onda non collassa – ogni stato quantico esiste davvero in alcuni universi. (Per ulteriori informazioni su MWI, vedi le domande frequenti su Many-Worlds .)

Di nuovo, il mio “pregiudizio del rasoio di Occam” è che è scandaloso proporre innumerevoli universi paralleli generati per soddisfare un modello – interagendo / non interagendo convenientemente nei giusti modi per creare solo i giusti risultati – come l’interferenza “quantica” con il nostro universo (“interferenza” a onda di probabilità, non meno) – senza altra interazione. Lo “spazio” MWI è attribuito alla capacità di densità infinita di una quantità infinita di materia. Le spiegazioni sono un modo per dare un senso all’universo. Al contrario, MWI sembra non avere senso dell’universo. Meglio non avere una buona spiegazione che accettare una cattiva spiegazione per il gusto di avere una spiegazione.

C’è un altro esperimento che è cruciale per comprendere la filosofia della teoria quantistica e cioè l’esperimento mentale di Einstein, Rosen e Podolsky (spesso definito paradosso EPR da coloro che lo considerano paradossale). Immagina una “coppia coniugata” di particelle che sono il risultato del decadimento di una singola particella più grande. Supponendo che queste due particelle non interagiscano con altre materie, esse voleranno in direzioni opposte. La conservazione dello slancio richiede che le loro velocità siano le stesse. Supponiamo di bombardare una delle particelle con una luce ad alta energia (come nell’esperimento pensato sul Principio di Uncertainty). Possiamo quindi determinare la sua posizione (o quantità di moto) in base alla precisione che vogliamo e quindi calcolare la posizione (o quantità di moto) dell’altro membro della coppia. Quindi, l’affermazione secondo cui l’altro membro della coppia non ha una posizione precisa (o quantità di moto) finché non viene misurata (come pretende l’interpretazione di Copenaghen) sembra falsa. Ma, naturalmente, non possiamo davvero saperlo se non misuriamo effettivamente la posizione (o la quantità di moto) dell’altro membro – il che è proibitivo.

Una descrizione più rigorosa di EPR presuppone un sistema a due particelle in cui le due particelle si allontanano l’una dall’altra fino a quando non vengono separate da una grande distanza. Sebbene la meccanica quantistica imponga che non è possibile misurare simultaneamente la quantità di moto ( p ) di una particella e la sua posizione ( x ) entro un limite inferiore a un limite di incertezza, essa consente che per due particelle ( particella 1 e particella 2 ), la somma dei momenti ( p 1 + p 2 ) e la distanza tra le particelle ( x 2 – x 1) può essere misurato con qualsiasi precisione desiderata. È quindi concepibile che le misure della quantità di moto e le distanze inter particellari possano essere fatte per un sistema a due particelle vicino al pianeta Mercurio e che la particella 1 possa procedere nel suo corso (la sua velocità non è influenzata dalla gravità o da altre particelle) ignorata per per fare un esempio) sulla Terra, mentre la particella 2 procede verso Marte. Un segnale che viaggia alla velocità della luce potrebbe richiedere da quindici a venti minuti per raggiungere la particella 2 dalla particella 1 . Una misura della quantità di moto della particella 1 viene fatta con una precisione così elevata che la conoscenza della posizione della particella 1 è distrutto Ciò nonostante consente di calcolare la quantità di moto della particella 2 con la stessa precisione. Inoltre, la posizione della particella 2 potrebbe essere misurata con altissima precisione, distruggendo la conoscenza della sua quantità di moto. Ma poiché la quantità di moto della particella 2 era stata calcolata, la conoscenza della posizione e della quantità di moto della particella 2 prima di quest’ultima misura era determinata entro un limite inferiore al limite di incertezza. Quindi, la particella 2 possedeva una posizione e un momento più definiti di quanto la teoria dei quanti potesse calcolare. Quindi la meccanica quantistica si dimostra incompleta. Le grandi distanze tra la particella 1 ela particella 2 è usata per proibire la possibilità che la determinazione della quantità di moto della particella 1 per calcolare la quantità di moto della particella 2 in qualche modo comunichi un momento preciso alla particella 2 (“collassa la sua funzione d’onda”) da un segnale che si muove alla velocità della luce o meno.

Se lungo la traiettoria di un fotone polarizzato a 45° viene posto un Cristallo Birifrangente il fotone ha la probabilità’ uguale ad 1/2 di continuare per la sua strada oppure deviare. In pratica nell’esperimento illustrato in figura l’inserimento o meno del Cristallo Birifrangente se comporta notevoli conseguenze per il Realismo Locale, non comporta alcuna conseguenza per la meccanica quantistica. 
L’inserimento del Cristallo Birifrangente infatti, se va ad alterare il rapporto (5 a 4) tra risposte Concordi e Discordi secondo il realismo locale, per la meccanica quantistica – dato che per essa i “destini” delle particelle dei Settori A e B sono sempre costantemente legati –  l’inserimento (o meno) del Cristallo Birifrangente non produce variazioni. 
L’apparecchiatura verifica, nella pratica, il “legame” che unisce indissolubilmente, e “in tempo reale”, i fotoni delle coppie correlate …   Allorquando infatti, il fotone del Settore A devia in seguito all’attraversamento del Cristallo Birifrangente verso il rivelatore c,   ISTANTANEAMENTE  anche il fotone del Settore B “devia” verso il rivelatore  in d! 

L’essenza dell’esperimento EPR era l’affermazione di Einstein che la teoria quantistica non forniva una descrizione completa di tutto ciò che si poteva sapere su un sistema, come sostenuto dall’interpretazione di Copenaghen. La risposta di Bohr all’EPR era che una particella e lo strumento che la misurano costituiscono un sistema indivisibile e che le misurazioni della prima particella costituiscono un vincolo sulle previsioni future sul comportamento della seconda particella. Einstein non riuscì a vedere come questa risposta costituisse una risposta alla sua accusa secondo cui la teoria quantistica era incompleta ( es, non l’ultima parola come descrizione dell’universo). Anche Karl Popper non riuscì a vedere l’importanza della risposta di Bohr e non incontrò mai un fisico che potesse giustificarlo con la soddisfazione di Popper. Popper alla fine concluse che era l’autorità di Bohr, piuttosto che la sua contro-argomentazione, che consentiva a molti fisici di credere che il “paradosso EPR” fosse stato confutato. Ma David Bohm apportò un’importante modifica all’EPR che rese l’EPR più un’ipotesi testabile di un esperimento mentale. L’equazione delle onde di Schroedinger era stata generalizzata da Pauli per includere il numero quantico dello spin. Nella versione di Bohm di EPR, una coppia di protoni in uno stato singoletto che si divide e si dirige in direzioni diverse avrà uno spin opposto. Misurare lo spin di una particella quindi “collassa” la funzione d’onda di Pauli e determina istantaneamente la rotazione dell’altra particella in qualunque posizione remota possa essere. Ci sono tuttavia problemi con questa modifica dell’EPR. Per esempio, lo spin del protone è quantizzato e ha proprietà che lo rendono molto estraneo al concetto familiare di spin visto nei corpi macroscopici. Per un altro, bisogna misurare tre dimensioni dello spin per determinare l’effettivo,

John Bell ha trovato una soluzione al secondo problema, tuttavia, sotto forma di disuguaglianza ora nota come disuguaglianza di Bell . Il Teorema di Bell afferma che una violazione della disuguaglianza di Bell equivale a una confutazione dell’EPR. Un’ulteriore modifica dell’EPR sostituì i protoni accoppiati con fotoni accoppiati aventi polarizzazioni opposte. Questa alterazione ha il vantaggio che se un segnale viene comunicato da un fotone all’altro nell’istante di “collasso”, deve viaggiare più veloce della luce se deve raggiungere il fotone coniugato per “collassarlo”. La luce polarizzata può essere pensata come la luce che viaggia attraverso lo spazio come un coltello rotante. Si può immaginare un rilevatore come le barre della cella di prigione. Se il coltello gira su un piano verticale nella direzione del suo movimento, passerà attraverso le sbarre della prigione (essere rilevato). Se le barre sono abbastanza larghe, il coltello potrebbe ruotare su un piano leggermente diagonale (tra orizzontale e verticale) e passare ancora attraverso le sbarre della prigione. Il piano in cui il coltello gira può essere paragonato alla direzione della polarizzazione della luce.

Immagina che una coppia di fotoni venga emessa da un punto centrale (C) nello spazio (vedi Figura 1 ) e si propaghi in direzioni opposte verso un rilevatore di polarizzazione a destra (R) e a sinistra (L), ciascuna situata a una distanza di un anno luce da C. Il metodo di produzione di fotoni (una fonte di positronio di coppie di fotoni correlati) garantisce che le loro polarizzazioni saranno le stesse. Sia Bohr che Einstein sarebbero d’accordo sul fatto che se viene prodotta una coppia di fotoni e che i rivelatori siano entrambi orientati verticalmente (come nella figura 1)), un rilevamento di un fotone polarizzato verticalmente a L in un anno dopo la produzione di coppie di fotoni corrisponderà invariabilmente ad un rilevamento di un fotone polarizzato verticalmente a R. Analogamente, nessuno dei rivelatori rileverà fotoni polarizzati orizzontalmente. Immaginiamo ora che l’orientamento del rilevatore sinistro sia ruotato di 30 ° in senso orario nel piano perpendicolare alla linea da L a R, come in Figura 2 . La meccanica quantistica prevede che la proporzione di una serie di emissioni di luce polarizzata che corrispondono (entrambe rilevate o non rilevate) a L e R sarà cos 2 (30 °) = 0,75, il che significa che in 3 casi di 4 c’è stata una corrispondenza e in 1 caso di 4, un fotone è stato rilevato a L e non a R, o viceversa.

Il Teorema di Bell riguarda una previsione su cosa dovrebbe accadere nel set-up della Figura 3 , che è simile alla Figura 2 eccetto che il rivelatore in R è stato ruotato di 30 ° in senso antiorario nel piano perpendicolare alla linea da L a R. Campana dichiarata che l’ipotesi della località ( cioè l’ipotesi che nessun segnale possa viaggiare più velocemente della velocità della luce) impone che il numero di disallineamenti ( cioè errori) derivanti dalla rotazione istantanea in senso antiorario su R (producendo il set-up della Figura 3 dal Figura 2 set-up) può essere non più del doppio dei disallineamenti per la Figura 2, cioè. 2 casi su 4. Il numero di disallineamenti potrebbe essere inferiore, tuttavia, poiché le disallineamenti ( cioè gli errori) di entrambe le estremità potrebbero simulare una corrispondenza (disuguaglianza di Bell). Ma nella maggior parte degli esperimenti che sono stati eseguiti, la disuguaglianza di Bell è violata, precisamente nel modo predetto dalla meccanica quantistica, cioè , cos 2 (60 °) = 0,25, il che significa che in 1 caso di 4 c’è una corrispondenza e in 3 casi di 4 una mancata corrispondenza.

I primi esperimenti per testare la disuguaglianza di Bell per le polarizzazioni dei fotoni non erano abbastanza sofisticati da precludere i segnali tra i due fotoni L e R comunicati alla velocità della luce. Ma gli apparecchi usati da Alan Aspect all’Università di Parigi nel 1982 produssero risultati che avrebbero richiesto un segnale molte volte superiore alla velocità della luce. Tuttavia, l’apparato non è ancora abbastanza sofisticato da rivelare tutto tranne una piccola porzione dei fotoni emessi. Se la disuguaglianza di Bell vale per tutti i fotoni, deve essere spiegato perché l’apparecchio selezionerebbe i fotoni esattamente nel modo previsto dalla meccanica quantistica. Si potrebbe anche chiedersi se le stranezze dello spin del fotone (che è scarsamente compreso) siano abbastanza ben concepite da poter dire con certezza che l’esperimento replica EPR.

Nella loro lotta per comprendere gli esperimenti, i fisici possono sfidare qualsiasi cosa. Sfidano il tempo lineare, l’induzione, la logica deduttiva, la relatività, la teoria quantistica, la realtà, la causalità, la ragione, ecc. In un certo senso è salutare considerare nulla come sacrosanto, ma senza ragione e ordine la scienza degenera in chiacchiere incoerenti. I Laymen che ascoltano le speculazioni lontane dei fisici disperati tendono a cogliere ogni ipotesi bizzarra come fatto comprovato. Alcuni sono eccitati dall’idea che la realtà sia casuale, confusa, ambigua, contraddittoria e soggettiva come i propri processi mentali. Gli stessi fisici a volte confondono l’oscurità con la profondità o l’agilità matematica con la comprensione. Perdono l’umiltà, cessando di credere in una vastità di leggi fisiche sconosciute oltre la conoscenza presente.

La maggior parte dei fisici non fa alcun tentativo di formare modelli di realtà, concernenti se stessi solo con la predizione matematica – sebbene senza una esplicita negazione metafisica dell’esistenza della realtà oggettiva (che sarebbe un modello di realtà, ad esempio , l’interpretazione di Copenaghen). Penso che questo approccio indichi un’accettazione implicita sia della causalità che dell’oggettività della realtà. Sono favorevole all’idea che i cosiddetti paradossi delle fessure e delle aperture circolari possano essere spiegati dall’interazione tra particelle-fessura (particella-apertura) e un’interpretazione statistica. La mia seconda scelta sarebbero variabili nascoste – non nel senso di particelle, necessariamente, ma nel senso di fenomeni non scoperti che attualmente rendono la teoria quantistica incompleta.

Referenze

  1. A. Einstein, B. Podolsky, N. Rosen: “Può la descrizione quantomeccanica della realtà fisica essere considerata completa?” Phys. Rev. 41 , 777 (15 maggio 1935). La carta EPR originale.
  2. D. Bohm: Quantum Theory, Dover, New York (1957). Bohm discute alcune delle sue idee sulle variabili nascoste.
  3. N. Herbert: Quantum Reality, Doubleday. Un ottimo trattamento popolare di EPR e problemi correlati.
  4. M. Gardner: Science – Good, Bad and Bogus, Prometheus Books. Martin Gardner offre una visione scettica della scienza marginale associata all’EPR.
  5. J. Gribbin: Alla ricerca di Schrodinger’s Cat, Bantam Books. Un trattamento popolare di EPR e l’enigma del “gatto di Schrodinger” che risulta dall’interpretazione di Copenaghen.
  6. N. Bohr: “Può la descrizione quantomeccanica della realtà fisica essere considerata completa?” Phys. Rev. 48 , 696 (15 ottobre 1935). La risposta di Niels Bohr all’EPR.
  7. J. Bell: “Sul paradosso Einstein Podolsky Rosen” Physics 1 # 3, 195 (1964).
  8. J. Bell: “Sul problema delle variabili nascoste nella meccanica quantistica” Recensioni di Modern Physics 38 # 3, 447 (luglio 1966).
  9. D. Bohm, J. Bub: “Una soluzione proposta del problema di misura in meccanica quantistica secondo una teoria delle variabili nascoste” recensioni di Modern Physics 38 # 3, 453 (luglio 1966).
  10. B. DeWitt: “Meccanica quantistica e realtà” Physics Today pg 30 (settembre 1970).
  11. J. Clauser, A. Shimony: “Teorema di Bell: prove sperimentali e implicazioni” Rep. Prog. Phys. 41 , 1881 (1978).
  12. A. Aspect, Dalibard, Roger: “Test sperimentale delle disuguaglianze di Bell usando analizzatori variabili nel tempo” Phys. Rev. Letters 49 # 25, 1804 (20 dicembre 1982).
  13. A. Aspect, P. Grangier, G. Roger: “Realizzazione sperimentale dell’esperimento di Einstein-Podolsky-Rosen-Bohm gedanken, una nuova violazione delle disuguaglianze di Bell” Phys. Rev. Letters 49 # 2, 91 (12 luglio 1982).
  14. A. Robinson: “Scappatoia chiusa nel test della meccanica quantistica” Science 219 , 40 (7 gennaio 1983).
  15. B. d’Espagnat: “La teoria e la realtà dei quanti” Scientific American 241 # 5 (novembre 1979).
  16. “Teorema di Bell e determinismo ritardato”, Franson, Phys. Rev. D 31 10, 2529-2532 (maggio 1985).
  17. “Teorema di Bell senza variabili nascoste”, PH Eberhard, Il Nuovo Cimento, 38B 1, 75-80, (1977).
  18. “Teorema di Bell e diversi concetti di località”, PH Eberhard, Il Nuovo Cimento 46B , 392-419, (1978).

Specify a Disqus shortname at Social Comments options page in admin panel