Iniziamo con il riassumere la giornata di ieri (lo ammetto, ho quasi sbagliato la previsione, ma sono stato contento di essermi sbagliato, ad ogni modo): al mattino, a partire dalle 9, nell'auditorium del CERN a Ginevra i due esperimenti ATLAS e CMS, entrambi con grandi presenze italiane, hanno presentato gli ultimissimi risultati sulla ricerca sperimentale del bosone di Higgs.
A iniziare le danze è stato Joe Incandela per CMS, che con una voce che tremava dall'emozione ha mostrato dati, grafici e i risultati sull'eccesso già mostrato nel seminario tenutosi nella prima metà di dicembre 2011. Le novità, comuni anche con ATLAS, i cui dati sono stati presentati da una impeccabile Fabiola Gianotti (a me il Comic Sans piace!!!), rispetto a quella conferenza: il completamento dell'esame dei dati del 2011 e i dati dei primi sei mesi di collisioni del 2012. Il risultato è diventato evidente proprio grazie ai dati del 2012 (il completamento dei dati del 2011, come si vedrà in maniera evidente in una immagine successiva proposta proprio da ATLAS, sembrava andare addirittura verso un peggioramento nella qualità) e il motivo lo spiega molto bene Marco Delmastro:
nel 2012 si è fatto lo sforzo di portare questa energia [l'energia di collisione dei fasci nel centro di massa] a 8 TeVIl motivo?
il ritmo di produzione atteso del bosone di Higgs aumenta con l'aumentare dell'energia delle collisioni, e aumenta di più di quanto non aumenti il ritmo di produzione di quasi tutti i rumori di fondo. In sostanza, a 8 TeV il rapporto segnale/rumore è più favorevole che a 7 TeV. Il che significa che, a parità di dati analizzati, a 8 TeV le probabilità di vedere un segnale aumentano, anche in modo sostanziale.E proprio grazie a questa scelta ecco che i frutti vengono colti sia da CMS sia da ATLAS I risultati possono allora così essere riassunti: CMS vede un eccesso con massa $m_H = 125.3 \pm 0.6 GeV$ e una significatività di $4.9 \sigma$; ATLAS vede un eccesso con massa $m_H = 126.5 GeV$ e una significatività di $5.0 \sigma$.
Possiamo allora liberare la gioia: abbiamo visto una nuova particella!
Innanzitutto cerchiamo di capire questa faccenda dei sigma, che Marco spiega in una serie di tre post (lanciare i dadi, Il significato di un eccesso, Zone di rumore di fondo controllato) e che io cercherò, qui, di spiegare nel modo più breve e completo possibile.
La distribuzione maggiormente utilizzata per descrive gli eventi casuali (nel senso degli eventi in cui entra in gioco la probabilità) che ci circondano è la distribuzione gaussiana, una forma a campana il cui picco si trova nel punto a maggiore probabilità, quello che, se ripeti le misure più e più volte, scoprirai di aver trovato più spesso degli altri. La larghezza della campana viene misurata attraverso una quantità chiamata deviazione standard, la sigma, $\sigma$. Se alla fine del mio esperimento fornisco il dato della media della distribuzione e dico di fornirlo con una significatività di $1 \sigma$ sto affermando di aver coperto poco meno del 67% della campana. Infatti se mi sposto, a destra e a sinistra della media, di $1 \sigma$, avrò racchiuso poco meno del 67% dei punti appartenenti alla distribuzione. Già se arrivo a $3 \sigma$ ho coperto il 99.7% della campana, ovvero posso rendere conto del 99.7% dei dati contenuti nella mia distribuzione. Se però riesco a fornire il dato con una significatività di $5 \sigma$, allora quello che sto facendo è coprire il 99.99...% della distribuzione, ovvero quasi tutta la distribuzione a disposizione (ricordiamo che c'è sempre quel piccolo margine di incertezza nella scienza, che cerchiamo sempre di ridurre al minimo o di esplorare non appena ne abbiamo le possibilità tecnologiche).
Per poter dire non solo di aver scoperto una particella, ma di essere in grado di rilevarne una già scoperta, devo quindi fornire i miei risultati con una significatività di $5 \sigma$, che in pratica rappresenta una conoscenza quanto più possibile completa della zona che sto esplorando. Se poi a questo unisco anche il problema che devo cercare di ridurre al minimo il mio errore, e quindi anche la $\sigma$, si capisce che questo compito è tanto più complesso quanto più è, ad esempio, sofisticato lo strumento che sto utilizzando, o quanto più è incredibile la sfida che sto affrontando. E la sfida del bosone di Higgs è certamente una sfida piuttosto complicata, per molti motivi. Come vedremo tra poco. Da dove viene il bosone di Higgs?
Per chiarire le difficoltà della sfida e quello che ancora ci aspetti, in effetti, è utile cercare di capire anche da dove viene il bosone di Higgs. La storia inizia con le origini del Modello Standard (MS) delle particelle elementari(1): nel corso degli anni Sessanta del XX secolo i tre teorici Glashow, Winberg e Salam svilupparono un modello teorico che era in gradi di spiegare le osservazioni fino a quel punto fatte e forniva tutta una serie di previsioni che vennero nel corso dei decenni confermate con una precisione senza pari. Senza scendere nei dettagli, il problema più importante all'interno del modello è l'origine della massa: il modello, infatti, è formulato per particelle senza massa, o comunque le masse delle particelle vanno, per così dire, messe a mano e così i numeri che riusciamo a ricavare dai calcoli coincidono, entro gli errori, come sempre, con i numeri che gli sperimentali ricavano invece dagli esperimenti. Ciò che disturba ancora più del dover aggiungere a posteriori la massa, ad esempio, dell'elettrone nelle equazioni, è che nel modello non si riesce a prevedere nemmeno la massa di particelle più importanti come i bosoni $W$ e $Z$. Per fornire la massa alle particelle, allora, si introdusse, non previsto all'inizio, un particolare meccanismo che trae le sue origini dalla ricerca nel campo della superconduzione.
I sistemi fisici vengono matematicamente rappresentati attraverso la così detta hamiltoniana, un operatore che contiene in sé tutte le informazioni utili per descrivere l'evoluzione del sistema. Per descrivere come un conduttore è in grado di diventare un superconduttore, l'hamiltoniana migliore, o ancor meglio, il miglior modello prodotto dai teorici è il modello di Ginzburg-Landau(2), che viene anche adottato come base per lo studio delle transizioni di fase più in generale. Il modello, per descrivere al meglio la transizione, introduce un parametro d'ordine $\phi$ che in pratica descrive l'interazione tra due elettroni. Quando il sistema attraversa la fase critica, ovvero passa dalla conduzione alla superconduzione, ovvero quando la temperatura scende (ma potrebbe anche salire in altri sistemi) sotto la così detta temperatura critica $T_C$, il potenziale $V$ è descritto dalla formula seguente: \[V (\phi) = \alpha \phi^* \phi + \frac{1}{2} \beta (\phi^* \phi)^2\] dove $\alpha$ e $\beta$ sono due paramentri reali, con il primo che cambia di segno al passaggio di fase. A causa di questo comportamento di $\alpha$, il potenziale ha la forma del sombrero(1) e il minimo di energia lo raggiunge sui punti del cerchio \[\phi^* \phi = - \frac{\alpha}{\beta}\] Non è finita qui, però: un passaggio di fase di questo genere produce la così detta rottura la simmetria del sistema, nel senso che il gruppo di simmetria del sistema cambia. Qui il concetto di gruppo di simmetria (che ho già approfondito in maniera più estesa tempo addietro) identifica un insieme di trasformazioni di simmetria che lasciano il sistema invariato: ad esempio se prendo un oggetto e inizio a spostarlo, sto applicando delle trasformazioni sul mio oggetto. Fino a che non ne cambio la forma queste trasformazioni sono dette di simmetria e il loro insieme, a patto che segua delle regole simili alle operazioni con i numeri, è detto gruppo di simmetria. Se però avviene qualcosa sul mio oggetto che ne modifica la forma o che impedisce alcuni movimenti particolari, allora ecco che alcune delle simmetrie precedenti non possono più essere applicate, perché altrimenti il sistema diventa evidentemente differente e quindi la simmetria risulta rotta. Con la rottura di simmetria si modificano anche le proprietà del sistema, e questo perché le proprietà fisiche del sistema sono legate in modi più o meno complicati alle proprietà matematiche del gruppo di simmetria. Fisicamente tutto questo si riflette, nel caso dei superconduttori, con un potenziale che assume la forma di un sombrero.
Esistono però situazioni in cui questo meccanismo genera massa. Il primo ad utilizzarlo a questo scopo fu Yoichiro Nambu che nel 1960 introdusse
l'idea di una connessione tra generazione della massa e rottura spontanea della simmetria(2)Insieme con Jona-Lasino introdusse questo stesso meccanismo nella fisica delle particelle, e dai suoi calcoli risultò che
la massa dei nucleoni è generata dalla rottura spontanea della simmetria chirale(2)Il modello predice anche l'esistenza di un bosone privo di massa, il bosone di Goldstone (o di Nambu-Goldstone). Il primo problema con questa predizione è che nessuna particella poteva essere identificata come bosone di Goldstone. A questo punto Nambu e Jona-Lasino supposero che tale ruolo poteva essere coperto dai pioni: infatti con la rottura di simmetria, il bosone di Goldstone avrebbe dovuto acquisire una pur piccola massa(2).
Se già il meccanismo di Nambu e Jona-Lasino è in principio quello che verrà utilizzato per fornire la massa alle particelle elementari nel MS, le cose diventano ancora più interessanti se osserviamo che nel 1963 Anderson notò come in un plasma di elettroni i fotoni, per potersi propagare al suo interno, dovrebbero realmente acquisire una massa!
Sebbene Anderson aveva mostrato che in un contesto non relativistico i bosoni di gauge e di Nambu-Goldstone privi di massa potevano combinarsi per formare una particella vettoriale massiva, molti teorici delle particelle credevano che ciò non sarebbe potuto accadere in una teoria relativistica.(3)Questa idea, invece, venne puntualmente smentita quando Englert, Brout, Higgs, Guralkin, Hagen e Kibble in una serie di 6 articoli (di cui tre del solo Higgs) utilizzarono il meccanismo all'interno del sistema matematico del MS, ottenendo così la generazione della massa per rottura di simmetria, producendo un valore di aspettazione non nullo per il parametro d'ordine $\phi$ e fornendo, di conseguenza, massa al campo vettoriale, e questa massa (o masse!) è quella del bosone di Higgs.
In tutta questa storia, però, c'è un solo, piccolissimo problema: il modello di Higgs e soci non fornisce alcuna predizione sulla massa del bosone. Al massimo, passando dai calcoli ai numeri, un intervallo di esistenza. E questo è sicuramente il primo problema che i fisici sperimentali si sono trovati di fronte, e soprattutto è uno dei punti deboli della teoria, uno di quei dettagli che renderebbero scettici persino i teorici più ottimisti. Senza contare che, da un punto di vista strettamente teorico e matematico, il bosone di Higgs è da considerarsi già fisica oltre il Modello Standard, visto che per certi versi ne rompe la bellezza matematica (che la sua completezza è altro discorso).
Le altre complessità stanno ad esempio nel numero di canali di decadimento coinvolti ($H \rightarrow \gamma\gamma$, $H \rightarrow ZZ^*$, $H \rightarrow WW^*$, $H \rightarrow \tau^+\tau^-$, $H \rightarrow bb$(1)) e nel loro grado di complessità, visto che alcuni producono ulteriori decadimenti, per cui bisogna essere bravi a distinguere tra i decadimenti direttamente collegabili all'Higgs e quelli invece no. C'è poi il problema della probabilità di produrre una particella relativamente leggera (125 GeV) rispetto alle energie coinvolte (7-8 GeV nel centro di massa) e di quanto il segnale riesce ad essere distinto dal rumore di fondo (problema, come scritto all'inizio, passando dai 7 GeV agli 8 GeV). E poi ci sono problemi specifici per ogni canale. Ad esempio per il canale difotonico Marco, su twitter, scrive (i tweet originali sono in inglese, quella che segue la mia traduzione):
Per vedere l'Higgs nel canale difotonico hai bisogno di una buona risoluzione d'energia, e di una eccellente identificazione fotonicaUna volta raccolti e selezionati i dati, ovviamente dopo aver tenuto conto delle caratteristiche che interessa approfondire, bisogna anche valutarne la qualità. Un modo, utilizzato da ATLAS, è quello di utilizzare il parametro $\mu$, il fattore di forza del segnale che
Il problema è che la maggior parte dei fotoni nelle collisioni pp non proviene dal decadimento dell'Higgs!
è definito tale che $\mu = 0$ corrisponde al modello di solo background e tale che $\mu = 1$ corrisponde al segnale del bosone di Higgs Standard.(1)Da notare che nel caso di $\mu$ negativo, si conclude che il numero di eventi non è sufficiente(1).
Una volta che abbiamo quindi raccolto, selezionato e valutato la bontà dei nostri dati, bisogna effettivamente elaborarli e valutarli anche dal punto di vista statistico: quindi bisogna innanzitutto valutare tutte le fonti di errore, l'entità che ciascuna voce avrà nella misura, dall'errore teorico, a quello sperimentale; bisogna poi cercare di produrre il risultato con il livello di significatività più alto possibile, ovvero bisogna essere il più vicini possibili ai già detti $5 \sigma$. Ad esempio dai dati del 2011 ATLAS concludeva che l'eccesso osservato avesse una massa di $m_H = 126 GeV$ con una confidenza di $2.9 \sigma$(1): Il miglioramento nella $\sigma$è stato incredibile proprio grazie ai dati raccolti nella prima parte del 2012, come mostrato molto bene in questo grafico: E a questo punto siamo pronti, possiamo mettere le bande scure sullo spettro di energia, dire dove il bosone di Higgs sicuramente non si trova e vedere quello che resta: Che emozione, ragazzi! Vederlo, finalmente!
A voler essere pignoli, però, quello che è stato osservato più che il bosone di Higgs è un bosone di Higgs, se le sue proprietà coincideranno con quelle predette dal modello di Higgs e soci, o forse più correttamente andrebbe indicato come un bosone di Goldstone relativistico. Certo stiamo parlando di una nuova particella, un nuovo bosone (è certamente un bosone, perché, date tutte le conservazioni note oggi, i decadimenti selezionati sono quelli di un bosone), che, indipendentemente dall'essere un bosone di Higgs Standard (ovvero simile in tutto e per tutto a quello predetto) o non Standard, esso, come hanno mostrato Ellis, Espinosa, Giudice, Hoecker e Riotto(4), si trova in una zona di estremo equilibrio tra vari tipi di universo. Il gruppo ha proposto i seguenti scenari: blow-up, collasso, metastabilità, sorpavvivenza.
Definendo la scala di Planck come $MP \sim 2 \times10^{18} GeV$, se l'Higgs ha una massa grande abbastanza, l'auto-accoppiamento del campo potrebbe avvenire in una regione non-perturbativa, e questo vuol dire che deve esistere un meccanismo di nuova fisica che deve prevenire questo fatto (scenario blow-up).(4)
Se invece la massa dell'Higgs è sufficientemente piccola, il vuoto elettrodebole potrebbe diventare instabile e collassare in un altro vuoto, e anche in questo caso deve esistere un meccanismo di nuova fisica per prevenire questo collasso.
Nella regione metastabile,
(...) il vuoto elettrodebole ha una vita media più lunga dell'età dell'universo per decadere sia via fluttuazioni quantistiche a temperatura zero (...) sia via fluttuazioni termiche (...).(4)Infine nella regione di stabilità il Modello Standard è in grado di sopravvivere, ma c'è la possibilità che non sia il solo modello quantistico per l'universo. Infatti, quando Ellis et al. hanno testato la regione intorno ai 128.6 GeV per la massa dell'Higgs, che guarda caso è proprio la regione in cui si trova il nuovo bosone scoperto, il gruppo di teorici ha notato che:
la regione 'instabile' non è necessariamente incompatibile con la nostra esistenza(4)Le probabilità che abbiamo bisogno di nuova fisica oltre il Modello Standard sono quindi alte, soprattutto considerando che la massa di questo bosone si trova proprio in una regione di intersezione tra più scenari. Non solo: a ben guardare questo nuovo bosone è anche molto vicino a una linea di transizione tra uno scenario e l'altro, quasi a confermare l'estremo equilibrio su cui viaggia il nostro universo già dedotto a partire dai dati raccolti prima da WMAP e poi da Planck. Che l'Higgs possa essere importante per il nostro universo viene ben spiegato in un pdf diffuso dall'INFN, quindi a maggior ragione se il bosone scoperto da ATLAS e CMS non si dovesse rivelare esattamente il bosone previsto da Higgs e soci, allora sì che potremmo iniziare una nuova caccia, inizialmente soprattutto teorica, a quella fisica ancora da scoprire!
This historic milestone is only the beginning, it has global implications for the futureTutto questo, però, non sarebbe stato possibile senza le persone che, come Marco, hanno lavorato su ATLAS e CMS, che hanno montato l'esperimento, testato i sistemi, realizzato e testato i software d'analisi. Alcune di queste persone ho avuto la fortuna di incontrarle, perché provengono dall'Università della Calabria. E molte di queste hanno dovuto vincere l'ostilità e la diffidenza interne del locale Dipartimento di Fisica, dove molti componenti (alcuni anche influenti, ma per fortuna non abbastanza!) ritenevano che la fisica dell'LHC non fosse in realtà fisica. Ecco: a tutte queste persone va il mio pensiero e la dedica di questo post, a tutti quei ricercatori e dottorandi che ora possono dirlo a tutto il mondo: abbiamo sempre fatto fisica e questo è il risultato!
(Rolf Heuer, direttore del CERN)
I think I'm going to cry. Seriously. Most of us have been working all their professional lifes for this
(Marco Delmastro)
Comunicati ufficiali:
CERN | ATLAS | slides
Approfondimenti:
viXra blog | physics4me | Cosmic Log | npr
In italiano: Marco Delmastro | Amedeo Balbi | OggiScienza | Roberto Battiston | Matteo Bordone con Amedeo Balbi
Per divertirsi: Have We Found The Higgs Boson Yet?
Coincidence? I think NOT. #higgs #douglasadams(CC: @ProfBrianCox) twitter.com/mashupman/stat…
— Sebastiaan van Dijk (@mashupman) July 4, 2012
The next steps for ATLAS, the LHC and the high-energy physics community are to measure the properties of this particle and compare these measurements with the predicted properties of the Higgs Boson. Already some of these properties match the predictions: the fact that it is seen in the predicted channels and at a mass favoured by other, indirect measurements. In the weeks and months ahead, ATLAS will better measure these properties, enabling a clearer picture to emerge about whether this particle is the Higgs Boson, or the first of a larger family of such particles, or something else entirely.
(1) ATLAS Collaboration (2012), Combined search for the Standard Model Higgs boson in pp collisions at sqrt(s) = 7 TeV with the ATLAS detector (preprint)
(2) Tom W B Kibble, Arttu Rajantie, Riccardo Guida, Eugene M. Izhikevich, Chris Quigg (2009). Englert-Brout-Higgs-Guralnik-Hagen-Kibble mechanism (history) Scholarpedia, 4 (1) DOI: 10.4249/scholarpedia.8741
(3) Tom W B Kibble, Arttu Rajantie, Eugene M. Izhikevich, Nick Orbeck, Riccardo Guida, Carlos Lozano, Nicolau Leal Werneck, Chris Quigg, John C Taylor (2009). Englert-Brout-Higgs-Guralnik-Hagen-Kibble mechanism Scholarpedia, 4 (1) DOI: 10.4249/scholarpedia.6441
(4) Ellis, J., Espinosa, J., Giudice, G., Hoecker, A., & Riotto, A. (2009). The probable fate of the Standard Model Physics Letters B, 679 (4), 369-375 DOI: 10.1016/j.physletb.2009.07.054 (arXiv)
Gran bell'articolo Gianluigi....Complimenti :-)
RispondiEliminaGrazie mille, carissimo!
RispondiElimina