mercoledì 3 settembre 2008

LHC: COUNT DOWN VERSO L'ORIGINE?


Devo dire che dopo delle rilassanti vacanze mi potrei anche divertire leggendo qua e la ciò che sta saltando fuori dai commenti ad articoli di giornali e blog, se non fosse che c'è chi l'ansia ce l'ha davvero. Mi sembra di assistere alle paure medievali per l'avvento dell'anno 1000 e per questo mi sembra piuttosto insensata la scelta fatta dal mondo scientifico di non commentare se non indirettamente e laconicamente, quasi deridendo ciò che sta accadendo.

Il 25 giugno scrissi un articolo per spiegare in che cosa consiste il Large Hadron Collider (LHC). Mi premeva spiegare l'importanza di questo avanzatissimo strumento di ricerca, ma anche far comprendere come l'uomo deve avere come imperativo filosofico la ricerca e la comprensione della propria origine. Tentare di scoprire come nasce e come evolve la materia è un po' come comprendere il perché della propria esistenza. Più volte ho spiegato come la vita dipenda da una sequenza di eventi rari e casuali che però statisticamente, nel grande numero di interazioni, avvengono con regolarità in tutto il cosmo. La nascita di molecole prebiotiche è una naturale conseguenza di fenomeni di sintesi molecolare favoriti in nubi di gas interstellare dalla presenza dell'energia luminosa di nuove stelle appena entrate in sequenza principale. Ma tutto ciò non potrebbe accadere se nel gas non ci fosse già un'adeguata abbondanza degli elementi che stanno alla base della nostra forma di vita: carbonio, azoto, ossigeno, insieme agli altri elementi della tavola periodica che originano tutti dal processo di nucleosintesi generato dalla fusione dell'idrogeno stellare. Non è ancora chiaro però come l'idrogeno, elemento sovrano, e l'elio siano stati prodotti nell'universo.

In questi ultimi cinquant'anni si sono fatti passi da gigante nel comprendere i meccanismi che stanno alla base della fisica del nostro universo, non credo però di sbagliarmi se dico che forse mai riusciremo a comprendere appieno la natura del tutto. Il principale problema è comunque riuscire a discriminare tra i modelli di universo sino ad ora formulati, quale si avvicina di più alla realtà? Per far ciò occorre basarsi su degli indicatori tra i quali l'omogeneità e la densità della materia presente nell'universo, affrontando a volte problemi che appaiono sicuramente più filosofici che fisici, come la comprensione della natura della materia oscura che sappiamo rappresentare quasi il novantacinque per cento della materia presente nel nostro universo. Un muro concettuale insormontabile ci separa dalla conoscenza. Per superarlo occorre esaminare in laboratorio le condizioni che hanno dato vita alla materia ai primordi dell'universo, ma per far ciò occorre riprodurre condizioni quanto più simili a quelle che riteniamo fossero presenti nell'universo neonato.

Nel corso degli ultimi due secoli, lo studio delle cinque forze fondamentali della natura: gravitazionale, elettrica, magnetica, nucleare forte e debole (quella con cui interagiscono i neutrini con la materia ordinaria), ci ha portato a comprendere come la forza elettromagnetica e debole, non sono altro che manifestazioni diverse di un'unica forza che ora chiamiamo elettrodebole. Tale consapevolezza ci ha portato a concepire la teoria (o le teorie) di GUT (Grand Unification Theory), un insieme di sotto teorie costruite ad hoc, che prevedono l'unificazione delle forze non-gravitazionali (elettrodebole e forte) in una unica descrizione supersimmetrica. Per il momento non c'è alcuna verifica sperimentale delle teorie di GUT, poiché la tipica scala energetica di grande unificazione dovrebbe essere di 10.000 TeV mentre sino ad oggi si sono effettuati esperimenti sino ad energie inferiori all'ordine del TeV (mille miliardi di eV). Tuttavia alcuni modelli di universo permettono di fare stime precise riguardo all'evoluzione, in particolare riguardo alle dissimmetrie osservate tra materia e antimateria. Secondo alcuni modelli, nei primi istanti di vita dell'universo si è prodotto un surplus di particelle a discapito delle antiparticelle, ciò avrebbe portato alla rottura della simmetria originaria e a un universo costituito dalla sola materia ordinaria attuale: quella che noi osserviamo e di cui siamo fatti. La completa simmetria prevista invece dalle GUT fra particelle e antiparticelle suggerirebbe che la dissimmetria fra le quantità di materia e antimateria debba necessariamente colmarsi nel tempo attraverso un progressivo decadimento della materia. Tuttavia ogni sforzo fatto sino ad oggi per osservare sperimentalmente il decadimento della materia ordinaria (decadimento del protone in un positrone e un pione neutro) non ha avuto successo. Invece la scoperta dell'oscillazione del neutrino, già prevista sulla base delle osservazione dei flussi di neutrini solari, ha rinnovato l'interesse verso le teorie di GUT che sembravano essere finite in stallo.

Il fatto che un neutrino sia descrivibile da una sovrapposizione di tre autostati (detti sapori) ciascuno dei quali possiede una differente massa, fa si che a ciascun autostato sia associata una differente frequenza di oscillazione. L'interferenza di tre sapori permette ad ogni neutrino di oscillare passando parte del suo tempo in uno dei tre distinti stati, ciascuno con differente massa. Per esempio, il modello solare standard predice che i neutrini elettronici vengono prodotti durante le reazioni di fusione che avvengono nel nucleo solare. Se questi neutrini interagiscono immediatamente con un bosone W, possono produrre muoni per il 50% del tempo ed elettroni per l'altro 50% in base al sapore mostrato, cosa che di fatto avviene. La questione di come invece le masse si formino non ha ancora trovato una risposta conclusiva. Nel Modello Standard della fisica delle particelle i fermioni hanno massa soltanto perché interagiscono con il campo del bosone di Higgs, peccato che proprio il bosone di Higgs sia l'unica particella prevista dal modello standard non ancora osservata che proprio con l'LHC si spera di poter osservare.

La necessità di far chiarezza in questa selva di teorie, coindcide perciò con la necessità di togliersi dal guado. La fisica teorica si è un po' impantanata e solo la verifica sperimentale può essere d'aiuto.

Il Large Hadron Collider è allora lo strumento che ci vuole, anche se dal punto di vista energetico è ancora 10 volte più debole del necessario. Quattordici TeV è l'energia prodotta nel centro di massa nella collisione tra due nucleoni, ma nel programma scientifico è prevista la collisione tra nuclei di piombo accelerati sino all'energia massima nel centro di massa di 1150 TeV, pari all'incirca all'energia di riposo di 1.000.000 di protoni. Se in uno di questi eventi si formasse malauguratamente un micro-black-hole neutro e statico, la sua materia sarebbe collassata sotto il suo orizzonte degli eventi, occupando uno spazio inferiore a 10^-52 m di diametro e producendo a distanze pari a quelle atomiche un campo gravitazionale non superiore a 10^-12 g, insufficiente per "ingoiare" materia in tempi non cosmologici. Considerando poi le energie in gioco a livello delle interazioni della radiazione cosmica con la materia, in milioni di anni centinaia di micro-black-holes avrebbero già potuto formarsi un po' dappertutto. Il CERN ha comunque elaborato sulla base delle attuali conoscenze un'attenta valutazioni dei rischi possibili, valutazione che personalmente condivido pienamente.

Daltra parte, data la grande quantità di eventi prodotti all'interno dell'acceleratore e la nostra relativa ignoranza, statisticamente non si può affermare che mai in questo genere di esperimenti si potranno produrre dei micro-black-hole, tale affermazione sarebbe falsa, come falso sarebbe affermare che mai un meteorite ci cadrà sulla testa. Gli effetti quantistici possono in linea di principio generare fluttuazioni in grado di raggiungere l'energia critica di soglia o anche produrre effetti inaspettati; personalmente ritengo che la loro formazione possa essere plausibile solo ad energie superiori a 10^16 TeV, comparabili con l'energia di Planck e ben al disopra dell'energia di esercizio dell'LHC, ma anche se si formassero e crescessero assorbendo l'energia del collider, nello stato di vuoto in cui si troverebbero la loro vita sarebbe breve, terminando in un magnifico flash.

2 commenti:

Anonimo ha detto...

"l'uomo deve avere come imperativo filosofico la ricerca e la comprensione della propria origine. Tentare di scoprire come nasce e come evolve la materia è un po' come comprendere il perché della propria esistenza."

Giusto! ma...

"Più volte ho spiegato come la vita dipenda da una sequenza di eventi rari e casuali che però statisticamente, nel grande numero di interazioni, avvengono con regolarità in tutto il cosmo."

Se è "regolare" e statisticamente ricorsivo, allora non può essere troppo "casuale", no?
E poi:

"non credo però di sbagliarmi se dico che forse mai riusciremo a comprendere appieno la natura del tutto"

Vuol dire che "la strada verso la conoscenza segue un andamento asintotico!" (questo mi è venuto in mente la prima volta alle superiori studiando i limiti)

Max ha detto...

In un certo senso hai ragione quando dici che se è "regolare" allora non può essere troppo casuale, occorre però chiarire cosa significa casuale: un po' come giocare al superenalotto ... tu non vinci, io non vinco, ma qualcuno sicuramente vince. La casualità non impedisce ad un evento di accadere, ma ne determina solo l'imprevedibilità.

Per quanto riguarda invece la conoscenza, si può conoscere quel che si può "sperimentare" direttamente attraverso i propri sensi o indirettamente attraverso degli strumenti adeguati (metodo sperimentale) e anche in questo caso la totale conoscenza dipende dal numero delle variabili in gioco. Ipotizziamo per esempio che un fenomeno sia perfettamente descritto con 3 variabili ma noi possiamo percepirne sole 2; in questo caso una variabile è nascosta e il modello non può pienamente sottostare al metodo sperimentale. Un po' come leggere due dimensioni in uno spazio di 3. Tutto ci apparirebbe piatto. Quindi è impossibile affermare di conoscere a fondo qualunque cosa, compreso l'animo umano.