In quest'articolo uscito su ArXiv, gli autori Francesco Giacosa e Giuseppe Pagliara interpretano l'anomalia GSI, di cui ho accennato in questo post, utilizzando solamente la Meccanica Quantistica (MQ). Gli autori fanno infatti notare che nell'ambito della Meccanica Quantistica non relativistica la legge del decadimento esponenziale è solo un'approssimazione, per quanto molto buona, che vale per tempi lunghi al seguito della "preparazione" dello stato instabile. Osservando invece il sistema subito dopo la preparazione si possono indurre delle deviazioni dalla legge del decadimento esponenziale a causa del cosiddetto effetto Zenone quantistico, una rivisitazione in termini quantistici di un particolare paradosso, chiamato appunto paradosso di Zenone.
Facciamo una piccola digressione: il collasso della funzione d'onda è indubbiamente la caratteristica peculiare dell'interpretazione della Meccanica Quantistica (vedi anche questo post) e certamente questo postulato radicale ha delle implicazioni dirette sulle conseguenze di un'osservazione sperimentale. Nel 1977 Misra e Sudarshan proposero l'effetto Zenone quantistico come una drammatica conseguenza sperimentale della necessità teorica ed interpretativa del fenomeno del collasso della funzione d'onda. La loro idea era di prendere un sistema instabile, per esempio un atomo in uno stato eccitato, e di sottoporlo a delle misurazioni ripetute. Ogni misurazione, secondo l'interpretazione di Copenaghen, farebbe collassare la funzione d'onda del sistema, riavviando così l'orologio interno, di modo che sia possibile, in linea di principio, ritardare indefinitivamente la transizione al livello fondamentale rispetto al tempo di decadimento atteso per quella data transizione. Supponiamo quindi che il sistema sia inizialmente nello stato eccitato, denotato dalla funzione d'onda Ψ2, e che questo sia caratterizzato da un tempo di vita pari a τ, dopo il quale esso decade, con una transizione, nel suo stato fondamentale, Ψ1. Per tempi molto minori di τ la probabilità di transizione è proporzionale al tempo t e dal momento che il tasso di transizione è proporzionale a 1/ τ, ne risulta che la probabilità sia uguale a \[P_{2\rightarrow1}=\frac{t}{\tau}.\] Se si compie una misurazione dopo un tempo t, allora la probabilità che il sistema si trovi ancora nello stato Ψ2 sarà \[P_{2}\left(t\right)=1-\frac{t}{\tau}.\] Supponiamo che a seguito della misurazione si scopra che il sistema si trovi ancora nello stato eccitato, in questo caso lo stato è collassato in Ψ2 e il processo inizia di nuovo. Se si compie un'altra misura, al tempo 2t, la probabilità che il sistema si trovi ancora nello stato eccitato sarà evidentemente \[\left(1-\frac{t}{\tau}\right)^{2}\simeq1-\frac{2t}{\tau},\] che è la stessa che uno otterrebbe se non si compisse la misura al tempo t. Fino a qui quindi non c'è niente di strano e nessun fantomatico "effetto Zenone" si è quindi presentato, ma non è la fine della storia. Infatti per "tempi estremamente piccoli", la probabilità di transizione non è proporzionale a t ma piuttosto a t2 (*) \[P_{2\rightarrow1}=\alpha\: t^{2}.\] In questo caso la probabilità che il sistema si trovi nello stato eccitato a seguito delle due misurazioni è data da \[\left(1-\alpha\: t^{2}\right)^{2}\simeq1-2\:\alpha\: t^{2},\] mentre se non si compie la prima misurazione risulta essere \[1-\alpha\left(2t^{2}\right)^{2}\simeq1-4\:\alpha\: t^{2}.\]
Facciamo una piccola digressione: il collasso della funzione d'onda è indubbiamente la caratteristica peculiare dell'interpretazione della Meccanica Quantistica (vedi anche questo post) e certamente questo postulato radicale ha delle implicazioni dirette sulle conseguenze di un'osservazione sperimentale. Nel 1977 Misra e Sudarshan proposero l'effetto Zenone quantistico come una drammatica conseguenza sperimentale della necessità teorica ed interpretativa del fenomeno del collasso della funzione d'onda. La loro idea era di prendere un sistema instabile, per esempio un atomo in uno stato eccitato, e di sottoporlo a delle misurazioni ripetute. Ogni misurazione, secondo l'interpretazione di Copenaghen, farebbe collassare la funzione d'onda del sistema, riavviando così l'orologio interno, di modo che sia possibile, in linea di principio, ritardare indefinitivamente la transizione al livello fondamentale rispetto al tempo di decadimento atteso per quella data transizione. Supponiamo quindi che il sistema sia inizialmente nello stato eccitato, denotato dalla funzione d'onda Ψ2, e che questo sia caratterizzato da un tempo di vita pari a τ, dopo il quale esso decade, con una transizione, nel suo stato fondamentale, Ψ1. Per tempi molto minori di τ la probabilità di transizione è proporzionale al tempo t e dal momento che il tasso di transizione è proporzionale a 1/ τ, ne risulta che la probabilità sia uguale a \[P_{2\rightarrow1}=\frac{t}{\tau}.\] Se si compie una misurazione dopo un tempo t, allora la probabilità che il sistema si trovi ancora nello stato Ψ2 sarà \[P_{2}\left(t\right)=1-\frac{t}{\tau}.\] Supponiamo che a seguito della misurazione si scopra che il sistema si trovi ancora nello stato eccitato, in questo caso lo stato è collassato in Ψ2 e il processo inizia di nuovo. Se si compie un'altra misura, al tempo 2t, la probabilità che il sistema si trovi ancora nello stato eccitato sarà evidentemente \[\left(1-\frac{t}{\tau}\right)^{2}\simeq1-\frac{2t}{\tau},\] che è la stessa che uno otterrebbe se non si compisse la misura al tempo t. Fino a qui quindi non c'è niente di strano e nessun fantomatico "effetto Zenone" si è quindi presentato, ma non è la fine della storia. Infatti per "tempi estremamente piccoli", la probabilità di transizione non è proporzionale a t ma piuttosto a t2 (*) \[P_{2\rightarrow1}=\alpha\: t^{2}.\] In questo caso la probabilità che il sistema si trovi nello stato eccitato a seguito delle due misurazioni è data da \[\left(1-\alpha\: t^{2}\right)^{2}\simeq1-2\:\alpha\: t^{2},\] mentre se non si compie la prima misurazione risulta essere \[1-\alpha\left(2t^{2}\right)^{2}\simeq1-4\:\alpha\: t^{2}.\]
Evidentemente l'osservazione dopo un tempo t ha abbassato il rate di transizione relativo al decadimento dallo stato eccitato a quello fondamentale. Infatti se esaminiamo il sistema a n intervalli regolari, da t=0 a t=T (che significa fare delle misurazioni ai tempi T/n, 2T/n, 3T/n, ..., T), la probabilità che il sistema rimanga nello stato eccitato, alla fine delle misurazioni, risulterà \[\left[1-\alpha\left(\frac{T}{n}\right)^{2}\right]^{n}\simeq1-\frac{\alpha}{n}T^{2}\] espressione che tende al valore 1 quando n tende all'infinito, il che significa che compiere un'osservazione continua su un sistema instabile non lo farà decadere mai!
Alcuni autori vedono in questa interpretazione un'assurdità, segno evidente della fallacità dell'idea di collasso della funzione d'onda. Questo effetto getta anche una cattiva luce sul metodo sperimentale ove l'oggetto dell'esperimento sia un sistema quantistico e riapre tutte le questioni sul concetto di misura, di indeterminazione intrinseca (ad opera del principio di indeterminazione) e sul ruolo dell'osservatore nella MQ. Possiamo comprendere meglio questo punto delicato con un esempio: pensiamo all'osservazione di una particella in una camera a bolle. In questo caso infatti la particella è costretta ad interagire continuamente con il liquido e dalle constatazioni precedenti si dovrebbe concludere che essa non decada mai all'interno della camera! Naturalmente questo non corrisponde al vero dal momento che se ne ha costante esperienza, ma può essere spiegato pensando al fatto che in una camera a bolle ogni interazione con gli atomi del liquido è sicuramente intervallata, ma per far si che l'effetto Zenone si presenti è necessario che gli intervalli temporali siano estremamente corti, affinchè la probabilità di transizione abbia una dipendenza da t2.
Tracce di particelle in una camera a bolle. |
In ogni caso, a mio parere, nei moderni acceleratori si potrebbero riscontrare degli effetti, benchè minimi, di questo tipo, dovuti proprio a delle sottigliezze sul metodo di rivelazione delle particelle e ciò dovrebbe indurre la comunità dei fisici sperimentali a riflettere sul significato delle misurazioni dei tempi di decadimento delle particelle o di qualunque altra proprietà puramente quantistica. Stiamo infatti misurando il valore reale (qualunque cosa significhi la parola reale) o con l'atto della misurazione stiamo "perturbando" il sistema? Queste domande non si esauriranno di certo in questo post, ma nel porle voglio suscitare nel lettore delle riflessioni che sebbene appaiano di natura squisitamente epistemologica rivelano un ruolo di primo piano nell'evoluzione della fisica.
Ritorniamo però ora all'articolo del giorno e al caso dell'anomalia GSI. Secondo gli autori il setup dell'esperimento GSI sarebbe perfetto per far emergere l'effetto Zenone, dal momento che si è in grado di creare uno stato instabile potenzialmente misurabile già al tempo t=0. Questa peculiarità, assieme a delle considerazioni sulla distribuzione dell'energia degli stati metastabili (gli autori attuano una modifica alla distribuizione di Breit-Wigner), conduce loro ad ottenere una legge per il rate di decadimento, avvalendosi di un solo parametro libero, che simula abbastanza bene quella riscontrata nell'esperimento GSI, del tipo \[\frac{dN_{dec}}{dt}=-\frac{dN}{dt}\propto e^{-\lambda t}\left(1+a\cos\left(\omega t+\phi\right)\right)\]
e cioè un andamento esponenziale modulato da una funzione sinusoidale.
Sarà questa la spiegazione definitiva dell'anomalia GSI? Potrebbe sempre essere un effetto dovuto all'oscillazione dei neutrini o ancora potrebbe essere causato da una ipotetica eccitazione interna dello ione “madre”, come spiegato nel mio vecchio post, questo ancora non si sa... ciò che è interessante notare è come, proprio partendo da dei risultati controversi, si arrivi o a consolidare le vecchie conoscenze o, nel caso più fortunato, ad andare oltre le conoscenze assodate. In quest'ultimo caso queste anomalie risultano il vero e proprio motore e trampolino di lancio per rivoluzionare la nostra visione del mondo!
Ritorniamo però ora all'articolo del giorno e al caso dell'anomalia GSI. Secondo gli autori il setup dell'esperimento GSI sarebbe perfetto per far emergere l'effetto Zenone, dal momento che si è in grado di creare uno stato instabile potenzialmente misurabile già al tempo t=0. Questa peculiarità, assieme a delle considerazioni sulla distribuzione dell'energia degli stati metastabili (gli autori attuano una modifica alla distribuizione di Breit-Wigner), conduce loro ad ottenere una legge per il rate di decadimento, avvalendosi di un solo parametro libero, che simula abbastanza bene quella riscontrata nell'esperimento GSI, del tipo \[\frac{dN_{dec}}{dt}=-\frac{dN}{dt}\propto e^{-\lambda t}\left(1+a\cos\left(\omega t+\phi\right)\right)\]
e cioè un andamento esponenziale modulato da una funzione sinusoidale.
Sarà questa la spiegazione definitiva dell'anomalia GSI? Potrebbe sempre essere un effetto dovuto all'oscillazione dei neutrini o ancora potrebbe essere causato da una ipotetica eccitazione interna dello ione “madre”, come spiegato nel mio vecchio post, questo ancora non si sa... ciò che è interessante notare è come, proprio partendo da dei risultati controversi, si arrivi o a consolidare le vecchie conoscenze o, nel caso più fortunato, ad andare oltre le conoscenze assodate. In quest'ultimo caso queste anomalie risultano il vero e proprio motore e trampolino di lancio per rivoluzionare la nostra visione del mondo!
Note:
- (*) Per i dettagli sulla questione e per il significato fisico del termine "tempi molto piccoli" si veda la teoria delle perturbazioni dipendente dal tempo in qualunque testo di Meccanica Quantistica.
- Ringrazio come al solito Francesca Dordei per la revisione dell'articolo :)
No comments:
Post a Comment