CERN: ESPERIMENTI AL LIMITE DELL’INCREDIBILE

 

   L’Organizzazione Europea per la Ricerca Nucleare, comunemente conosciuta con l’acronimo CERN, è il più grande laboratorio di fisica delle particelle. Si trova al confine tra Svizzera e Francia alla periferia ovest della città di Ginevra. La convenzione che istitutiva il CERN fu firmato il 29 settembre 1954 da 12 stati membri. Oggi ne fanno parte 20 alcuni dei quali sono extraeuropei.

   Lo scopo ufficiale del CERN è di fornire ai ricercatori gli strumenti necessari per la ricerca fisica. Questi sono principalmente gli acceleratori di particelle, che portano nuclei atomici e particelle subnucleari a energie molto elevate, e i rivelatori che permettono di osservare i prodotti delle collisioni tra fasci di queste particelle. Ad energie sufficientemente elevate, i prodotti di queste reazioni possono essere radicalmente differenti da costituenti originali dei fasci, e a più riprese sono state prodotte e scoperte in questa maniera particelle fino a quel momento ignote.

   Il CERN ufficialmente nasce dall’esigenza dei paesi europei dopo la seconda guerra mondiale di creare un centro europeo per la ricerca per ridare all’Europa il primato nella fisica, poiché i principali centri di ricerca, si trovavano negli Stati Uniti. A tale scopo, nel 1952 undici paesi europei riunirono un consiglio di scienziati con il compito di tradurre in realtà questo progetto. Questo consiglio di scienziati fu denominato Consiglio Europeo per la Ricerca Nucleare da cui l’acronimo CERN.

   Perché dico ufficialmente? I reali motivi per la nascita erano altri. L’Europa dopo il secondo conflitto mondiale era la propaggine più diretta degli USA, sia come mercato da favorire, sia come barriera antisovietica e area strategica. Il Piano Marshall non fu certamente un atto di generosità, ma un calcolo preciso e lungimirante ispirato da queste esigenze.

   Gli Stati Uniti hanno sempre esercitato un pesante condizionamento per evitare che ci siano passi politici sostanziali verso un’effettiva unione europea (questo per evitare che sorgesse un polo imperialista rivale), facendo leva sulle contraddizioni esistenti tra le borghesi europee. Il primo grande scacco della nascente integrazione europea riguardò proprio le politiche di difesa. Dopo l’istituzione della Comunità Europea del Carbone e dell’Acciaio del 1951 fu avanzata la prima proposta apertamente politica, la creazione nel 1952 della Comunità Europea di Difesa (CED), che offriva l’occasione per avviare un’integrazione europea che avrebbe avuto conseguenze politiche di enorme portata (questo al là dalle valutazioni di merito, esso sarebbe stata un’integrazione politica  che avrebbe creato un imperialismo in concorrenza con quello USA). La sua definitiva bocciatura da parte del Parlamento francese del 1954 derivò proprio dai timori per il riarmo della Repubblica Federale Tedesca, alla quale Washington voleva dare la bomba atomica: con il risultato che, per gli interessi USA, quest’ultima ottenne il diritto autonomo a riarmarsi e fu ammessa nella NATO.

   Un capitolo d’importanza non marginale di questa politica riguardò gli aspetti legati alla ricerca scientifica. Per gli Stati Uniti mentre lanciavano il programma dell’Atomo per la Pace[i] diveniva molto importante anche poter utilizzare per i loro fini il potenziale scientifico esistente nei paesi membri l’alleanza atlantica. Per gli USA era necessario che le ricerche si svolgessero in campi liberi da qualsiasi vincolo di segreto, e che non dessero accesso a conoscenze d’interesse militare diretto. Si trattava cioè di favorire o sostenere lo sviluppo di campi di ricerca che fossero in qualche modo vicini alle ricerche militari, ma che fornissero conoscenze e capacità che solo gli Stati Uniti fossero poi in grado di trasferire nel campo militare.

   Nel 1949 il sottosegretario di Stato J. E. Webb nominò una commissione di consiglieri politici e scientifici per studiare la politica estera degli USA in materia scientifica.———- Nel documento finale della commissione si legge tra l’altro: “La sicurezza degli USA, e quella dei popoli liberi con la quale si identifica la nostra propria sicurezza, dipende da una politica nazionale che tenga correttamente conto del potere della scienza. Un forte potenziale intellettuale, non importa in quale paese si trovi, può produrre delle idee creatrici fondamentali importanti per il nostro benessere e la nostra sicurezza nazionale. È chiaro che tali idee dovranno essere integrate rapidamente e continuamente nel nostro pensiero scientifico. In nessuna circostanza dobbiamo venire sorpresi per avere mancato di riconoscere o per avere sottovalutato un’idea o un qualche progresso scientifico per il nostro avvenire. Gli avvenimenti degli anni passati mostrano purtroppo che noi potremmo subire un’altra Pearl Harbour, che ci potrebbe derivare dal progresso della scienza se noi lasciamo semplicemente le cose al caso.[ii] (…) La scienza fondamentale è la base di tutte le tecnologie; le idee che escono dai laboratori oggi prenderanno forma domani nelle mani dei tecnici. Qualsiasi programma seri di assistenza tecnica deve ammettere questo fatto. L’aiuto alla scienza fondamentale è giustificato dalla garanzia che la tecnologia del futuro avrà uno stock di idee nuove a cui appoggiarsi”.[iii]

   Ma le ricerche che investono la sfera della “sicurezza nazionale” sono coperte da segreto. La via per superare questa difficoltà veniva indicata nel 1952 da M. H. D. Smith, membro dell’Atomic Energy Commission (AEC), il quale si riferiva significativamente proprio dalla fisica delle alte energie: “Per fortuna ci sono campi di lavoro della AEC dove il segreto può e deve essere dimenticato. Ci sono dei domini della ricerca scientifica fondamentale dove la possibilità di un’utilizzazione militare immediata è troppo piccola al confronto della necessità di una ricerca molto spinta e aperta. La fisica delle alte energie è un tale dominio. La conoscenza che acquisiremo a partire dagli studi in questo campo di attività ci può aiutare alla fine a fabbricare armi migliori, ma possiamo stare certi che ciò avverrà in tempi molto lunghi. L’aiuto che riceveremo sarà talmente indiretto da poter essere trasferito nella zona del segreto senza estendere tale zona”.

   Insomma, il fatto che questa fisica non abbia implicazioni militari dirette, si traduce in un interesse militare differito. Si tracciò così un obiettivo ambizioso della politica scientifica statunitense: quello di promuovere, o incoraggiare, la formazione di grande organismo scientifico multinazionale europeo, senza alcun carico diretto per il bilancio nazionale.

   Nel giugno del 1950 il fisico americano Rabi iniziò il primo passo concreto verso la creazione di tale laboratorio intereuropeo. Quale membro della delegazione degli Stati Uniti, egli era presente alla conferenza dell’UNESCO che si teneva quell’anno a Firenze. Parlando ufficialmente a nome degli Stati Uniti sollecitò l’UNESCO a usare i suoi uffici per impiantare un laboratorio di fisica (egli aveva in mente la fisica delle alte energie) con mezzi che potessero essere superiori a quelli a disposizione di ogni singola nazione europea e che potessero essere confrontati con quelli degli USA a Brookhaven e a Berkeley. Questo fu un passo importante perché in tal modo il progetto ebbe il sostegno del prestigio e dell’influenza della scienza americana.

   Quando nel 1954 prende vita il progetto del centro di ricerca europeo vagliato dal Consiglio Europeo per la Ricerca Nucleare e nasce l’Organizzazione Europea per la Ricerca Nucleare, essa ne eredita l’acronimo.

   Il CERN nasceva con la benedizione statunitense, gli obiettivi politici degli USA si riflettevano nelle strutture e nella vita del CERN: per essere assunti si doveva firmare una dichiarazione di non appartenere a partiti politici e un impegno a non svolgere attività politica né all’interno, né all’esterno del centro.

   Il complesso degli acceleratori del CERN comprende sette acceleratori principali, costruiti in vari periodi a partire dalla fondazione dell’istituto. Fin dal principio, è stato previsto che ogni nuova e più potente macchina avrebbe utilizzato le precedenti come “iniettori” creando una catena di acceleratori che porta gradualmente un fascio di particelle a energie sempre più elevate. Difatti, ogni tecnologia di accelerazione delle particelle ha limiti ben precisi di energia operativa massima e minima, e nessuna macchina del CERN oltre agli acceleratori lineari può accettare particelle “ferme”.

 

GLI ESPERIMENTI AL CERN SULL’ANTIMATERIA

 

   In fisica l’antimateria è un agglomerato di antiparticelle[iv] corrispondenti alle particelle che costituiscono la materia ordinaria. Ad esempio, un atomo di antidrogeno è composto da un antiprotone caricato negativamente, attorno al quale orbita un positrone (antielettrone) caricato positivamente. Se particella e antiparticella vengono a contatto tra loro, si distruggono emettendo fotoni ad alta energia (raggi gamma) o altre coppie di particelle-antiparticelle tali che la somma dell’energia totale (precedente e seguente l’impatto) rimanga costante.

   Il termine antimateria fu usato per la prima volta nel 1898 da Arthur Schuster in due lettere inviate alla rivista Nature[v] nella quale speculava sulla possibile esistenza di un sistema solare costituito di antimateria in cui anche la gravità era di segno opposto, cioè repulsiva.[vi]

   La prima seria ipotesi dell’esistenza dell’antimateria fu ad opera del fisico Paul Dirac nel 1928 che dedusse l’esistenza dell’antiparticella dell’elettrone, dotata di carica positiva, quale soluzione della versione relativistica dell’equazione di Schrödinger (detta appunto equazione di Dirac). Nel 1932 Carl David Anderson diede la conferma sperimentale dell’esistenza dell’antielettrone e lo chiamò positrone, contrazione di “positive electron”. Charles Janet nel 1929 immaginò addirittura una tavola periodica degli elementi costituita di antimateria.

   Nel 1959 i fisici Emilio Segrè e Owen Chamberlain scoprirono l’antiprotone e grazie a questa scoperta ricevettero il premio Nobel.

   Il CERN fu uno dei centri di ricerca che si occupò dell’antimateria.

   Nel 1965 al CERN di Ginevra con l’acceleratore di particelle PS (protosincrotrone) il gruppo di ricerca condotto da Antonino Zichichi scoprì il primo nucleo di antimateria, e cioè un nucleo di antideuterio contemporaneamente a un gruppo del Laboratorio Nazionale di Brookhaven a New York con l’AGS (Alternating Gradient Synchrotron).

   Nel 1978 ricercatori italiani e francesi guidati da Giorgio Giacomelli scoprirono nuclei di antitrizio (un antiprotone e due antineutroni) e di antielio 3 (due antiprotoni e un antineutrone).

   Nel 1997 al CERN ricercatori svizzeri, italiani, inglesi, danesi, giapponesi e brasiliani nell’ambito del progetto ATHENA, crearono i primi atomi di antidrogeno, circa 50.000 atomi.

   Nel giugno 2011 gli scienziati riuscirono a intrappolare 300 atomi di anti-idrogeno con tempi variabili fino a 16 minuti e 40 secondi.[vii]

   Sempre nel 2011 è stato spedito nello spazio un magnetometro preparato al CERN che ha il compito di catturare qualche nucleo di antielio. Quest’operazione ha messo assieme 16 nazioni. 60 università e centri di ricerca, 600 fisici.[viii]

  Quest’avventura, che ha del fantascientifico, nasce dalla spiegazione che gli scienziati hanno offerto dell’origine dell’Universo. Al momento del Big Bang, ci sarebbe stata solamente materia e antimateria. Poi è successo qualcosa per cui è prevalsa la materia, ma dove sia finita l’antimateria nessuno lo sa. Per acchiappare l’antimateria nascosta nei raggi cosmici e lanciata da eventuali antigalassie bisogna andare fuori dall’atmosfera terrestre perché quando incontrano lo strato d’aria, interagendo si trasformano. Questo esperimento è stato preparato da 15 anni con un potente magnete che imbriglia, separa e rivela le eventuali antiparticelle. Contemporaneamente si cerca di scovare altre antiparticelle per decifrare l’enigma della materia oscura.[ix] Questa ricerca fa volare la fantasia, richiama la fantascienza quando gli scienziati si pongono una domanda: esiste soltanto l’universo che vediamo, conosciamo e abitiamo, oppure ve ne sono altri? Afferma Roberto Battiston dell’Istituto Nazionale di Fisica Nucleare (INFN) e governatore assieme, al premio Nobel Samuel Ting dell’operazione: “Se il magnetometro catturerà qualche antinucleo di elio gli antimondi non saranno più una concezione fantastica”.[x]

   Dopo il disastro dello Shuttle Columbia nel 2003 la NASA aveva cancellato la missione con il magnetometro Ams ma la nuova amministratore nominato da Obama l’ha ripristinata dietro la spinta del Congresso. I fisici italiani sono in prima fila nell’ardua ricerca cosmica con una quota del 25% dell’investimento complessivo di 150 milioni di euro (che sale a due miliardi aggiungendo gli oneri di agenzie e istituti).

   Gli studi dell’antimateria hanno sempre interessato i militari che vagheggiano sulla possibilità di utilizzarla sia per innescare la fusione nucleare, sia per realizzare armi nucleari di tipo completamente nuovo, che non richiedono una massa critica: se si riesce a disporre un quantitativo qualsiasi di antimateria, basta portarlo in contatto con un’uguale quantità di materia per liberare l’energia di annichilazione. Il problema di fondo consiste naturalmente nella possibilità di produrre quantitativi apprezzabili di antimateria e di conservarla isolata dalla materia ordinaria. Può anche darsi che questa prospettiva sia ancora avveniristica: in ogni caso i militari statunitensi sperano nella prospettiva di disporre di antiprotoni prodotti al CERN e spediti “imbottigliati” in trappole elettromagnetiche. Vi sono anche altre strade, come quella di realizzare strani atomi con un protone e un anti-protone al posto dell’elettrone esterno. Vi sono anche molte altre prospettive più complesse, forse avveniristiche, che fanno capire ulteriormente le ricadute militari della ricerca fondamentale: una di esse consisterebbe nel formare “coppie di Cooper” di antiprotoni, simili, alle copie di elettroni di elettroni che nello stato superconduttivo non interagiscono con gli atomi circostanti; o nel generare con antiprotoni stati simili a quelli che gli elettroni formano nell’elio liquido. Un’ulteriore possibilità potrebbe essere offerta dal fatto, scoperto nel CERN di Ginevra, che un antiprotone fermato da un nucleo di uranio genera tra 16 e 22 neutroni: questo abbasserebbe enormemente la massa critica per una reazione a catena.

   Attualmente gli antiprotoni sono prodotti in tre grandi laboratori utilizzando grandi acceleratori di particelle: il CERN, il Fermi National Accelerator Center negli USA, e il laboratorio di Serpukhov in Russia. Fasci molto intensi di positroni sono prodotti al Livermore. Esperimenti per produrre antimateria sono programmati alla NIF. Anche il Giappone ha avviato un ambizioso programma di ricerca sull’antimateria.  I superlaser potranno probabilmente migliorare notevolmente i metodi di produzione  dell’antimateria.

  In tutte queste ricerche, c’è sempre un ma. E se il “giocattolo” scapasse di mano ai militari dei principali paesi imperialisti? Chi può impedire a qualsiasi paese, di impegnarsi in nome del “progresso” e dello “sviluppo”, in ricerche sulla fusione nucleare, sui super laser, sulle a nanotecnologie o sui supercomputer? Chi è in grado di controllare che queste tecnologie non abbiamo ricadute militari?

   Del resto, mentre l’attenzione è puntata sulla Corea del Nord e sull’Iran (che al più sta facendo quello che il Brasile ha già fatto, senza tanto scadalo), molto meno scalpore è stato fatto sulla rilevazione che la Corea del Sud aveva eseguito in segreto esperimenti di arricchimento dell’uranio.

 

Al CERN c’è la porta del tempo?

 

   Gli autori di fantascienza assieme ad Einstein, lo avevano già immaginato. Nel 2008 ufficialmente saremmo entrati nell’era dei viaggi del tempo.

   Nell’autunno del 2008 veniva comunicato di un programma inerente l’esperimento più ambizioso del nuovo millennio attraverso l’utilizzo dell’acceleratore di particelle LHC (Large Hadron Collider) al CERN di Ginevra.[xi] E lì, nella macchina che gli scienziati hanno concepita per “leggere nella mente di Dio”, gli scontri tra particelle elementari – 10 volte più energetici di quanto mai realizzato finora – potrebbe creare una scorciatoia spazio-temporale, una specie di cunicolo.[xii]

   Indubbiamente questa ipotesi è audace, ma ha un fondamento teorico. Ed è affascinante perché cerca di spingere al limite le nostre conoscenze sullo spazio, sul tempo e sulla materia. Secondo due matematici russi Volovich Igor e Irina Aref’eva, infatti, l’energia liberata dagli scontri tra particelle, pur essendo piccola in assoluto (è pari all’energia necessaria a far volare una zanzara), è così concentrata da creare una minuscola  distorsione spazio-temporale come previsto dalla relatività. L’oggetto che si viene a creare è un cosiddetto wormhole.

   I primi a ipotizzare l’esistenza teorica dei wormhole furono Einstein e Rosen nel 1935.

   Wormhole è un termine scherzoso che vuole dire letteralmente “buco di verme”, proprio perché assomiglia al buco scavato da un verme in una mela: una sorta di scorciatoia tra due luoghi distanti dell’universo.

   In queste ipotesi si pensava di usare i wormhole per i viaggi nello spazio: per esempio, si entra dalla Terra e si esce sulla stella Vega. Successivamente si ipotizza di usarli per i viaggi nel tempo: si entra oggi dalla terra e si esce su Vega 10.000 anni dopo.

   C’è un solo limite di principio ai viaggi nel passato: non si può mai raggiungere un istante precedente alla costruzione del wormhole stesso. Perché il viaggio, sia possibile, infatti, il cunicolo deve esistere già. Altrimenti sarebbe come cercare di raggiungere con la metropolitana una fermata oltre il capolinea. Una volta che il wormhole si è formato, però, se è abbastanza largo da essere attraversato, per tutto l’arco della sua esistenza può essere usato per raggiungere l’anno zero.

   Si ha notizia che nell’ottobre del 2011[xiii]  che sarebbe cominciata la fase operativa dei viaggi del tempo. Il volontario è il tenente John Tintor (c’è da porsi la domanda, come mai un militare?).

   Questi esperimenti generano delle perplessità in molti studiosi. Walter Wagner e Luis Sancho, hanno chiesto al tribunale di Honolulu, di non accendere il LHC. I due studiosi temono che l’esperimento potrebbe creare un buco nero capace di mangiarsi la Terra o l’intero universo.

 

 

 

Alcune considerazioni sulla situazione attuale della ricerca scientifica

 

   Storicamente la ricerca scientifica e asservita al potere economico e politico. La scienza moderna è stata uno dei fattori più potenti per promuovere l’accumulazione e l’economia capitalista.

   Nell’attuale fase di crisi generale (crisi che non è solo economica, ma anche politica, culturale e ambientale) del Modo di Produzione Capitalistico, i meccanismi economici si inceppano, le risorse scarseggiano, si accresce la competizione con le potenze emergenti (come la Cina), e i margini di profitto si riducono., i tradizionali servizi della scienza non hanno più o non hanno in molti casi, un ritorno economico immediato come un tempo.

   Oggi, malgrado il ritmo dell’innovazione sia divenuto più frenetico esso sembra solo allontanare la minaccia, ma non superarla. Anche la scienza sembra aver perduto la sua spinta propulsiva, a fronte a meccanismi più spiccioli e di ben più corto respiro, come la precarizzazione del lavoro e l’abbattimento del suo costo, con manovra come lo spostamento della produzione in zone dove lo sfruttamento della forza lavoro è a livelli selvaggi.

   Attualmente chi cerca finanziamenti per i propri programmi di ricerca sa bene che vengono richieste perentoriamente garanzie di ricadute applicative ed dell’utilizzo dei finanziamenti privati,  non si possono nutrire illusioni sulle finalità di essi.. Allo stesso modo vengono posti strettissimi limiti all’allargamento dell’organico del  personale. In altre parole, abbassare i costi e ridurre gli impegni a lungo termine sembrano oggi obiettivi ben superiori a quello dello dell’innovazione tecnico-scientifica.

   In questo contesto rimangono ovviamente settori di ricerca per loro natura privilegiati, in prima luogo la ricerca militare, legata a quella economia di guerra su cui sembrano puntare le economie dei paesi imperialisti.

   Questo sviluppo dell’economia di guerra deve essere vista dentro il processo di decomposizione in atto del Modo di Produzione Capitalistico.

 

 

 


[i] La campagna dell’Atomo per la Pace, fu lanciata nel 1953 da Eisenhower, e promossa da una conferenza che si svolse a Ginevra nel 1955. Gli obiettivi di questa campagna erano:

1)       Commercializzare massicciamente i reattori nucleari, ammortizzando e mettendo a frutto gli enormi investimenti nei reattori militari, per la produzione di plutonio, e per la propulsione navale, cui derivarono direttamente i reattori commerciali: era la manifestazione del complesso militare – industriale.

2)       Dimostrare la superiorità della tecnologia statunitense e del mondo occidentale.

3)       Promuovere la formazione di settori specifici di ricerca e d’istituzioni nei vari paesi: quest’obiettivo faceva parte, ancora una volta, dello statuto internazionale che si veniva definendo per tutto questo comparto di ricerca, anche se in questo particolare settore il confine tra usi civili e militari era e rimane più ambiguo, com’è ampiamente dimostrato dal Sudafrica, dall’India, dal Pakistan, dall’Iran, dalle due Coree e di molti altri paesi.

 

[ii] In merito all’attacco giapponese a Pearl Harbour nel 1941, l’esame dei documenti declassificati ha dimostrato in modo inequivocabile che Roosevelt fece di tutto per provocare quell’attacco giapponese, fino al punto di destituire un ammiraglio e di indebolire la flotta, per avere il pretesto per rovesciare il sentimento dominante nell’opinione pubblica contraria all’entrata in guerra: si veda il ponderoso studio di Robert B. Stinness, Il Giorno dell’Inganno, Milano, Il Saggiatore, 2001.

 

[iii] Il rapporto fu pubblicato nel 1950 con il titolo “Science and foreign affairs” (pubblicazione 3860 del Dipartimento di Stato): le notizie qui riportate furono in parte rese note nel maggio 1953 da un articolo apparso su La Nouvelle Critique, Un plan USA de mainmise sur la science, e sono riprese nel saggio di Angelo Baracca e Silvio Bergia, La Spirale delle Alte Energie.

[iv] Un’antiparticella è una particella elementare che, rispetto a un’altra particella, è caratterizzata dalla stessa massa da numeri quantici, come carica elettrica o numero barionico, ecc. opposti. Ad esempio, il positrone, antiparticella dell’elettrone, ha la sua stessa massa ma carica elettrica opposta. Alcune particelle, come il fotone, hanno carica elettrica e altri numeri quantici tutti nulli. In questi casi, particella e antiparticella coincidono. Ciò non è vero per tutte le particelle elettricamente neutre. Ad esempio, l’antineutrone e il neutrone sono particelle diverse poiché hanno numero barionico diverso da zero. Le antiparticelle sono prodotte nelle interazioni tra particelle con la trasformazione di energia in massa, come previsto dalla teoria della relatività. Ad esempio, nelle reazioni nucleari, nell’interazione dei raggi cosmici. Con i nuclei delle molecole presenti in atmosfera, o in interazioni prodotte da acceleratori di particelle. L’antimateria interagisce molto velocemente se viene a contatto con la materia ordinaria che le circonda con un fenomeno chiamato annichilazione nella quale la massa della particella e dell’antiparticella che interagiscono si trasforma di nuovo in energia. Per questo motivo, quando creata in laboratorio, l’antimateria resta osservabile solo per tempi molto brevi.

 

[v] A. Schuster (1898). Potential Matter.—A Holiday Dream, Nature.

 

[vi] E. R. Harrison, Cosmology: The Science of the Universe, 2nd, Cambridge University Press.

 

[ix] In cosmologia il termine materia oscura indica quella componente di materia che si manifesta attraverso i suoi effetti gravitazionali, ma non è direttamente osservabile. Il concetto di materia oscura ha senso solo all’interno dell’attuale cosmologia basata Big Bang; infatti, non si sa altrimenti spiegare come si siano potute formare le galassie e gli ammassi di galassie in un tempo così breve come quello osservato. Non ci si spiega inoltre come le galassie, oltre a formarsi, si mantengano integre, anche se la materia visibile, composta da barioni, non può sviluppare abbastanza gravità per tale scopo. Anche da questa prospettiva il concetto di materia oscura ha senso solo all’interno dell’attuale modello standard che prevede come unica forza cosmologica quella gravitazionale; se il Modello Standard risultasse errato, non si avrebbe necessità di materia oscura, dato che non si ha alcuna evidenza sperimentale se non le violazioni di un modello matematico.

[xi] Focus N. 5/2008.

 

[xii] Nell’acceleratore LHC le particelle subatomiche (protoni) si scontreranno tra loro ad altissime energie, per consentire lo studio delle leggi fondamentali della fisica.

 

[xiii] Metro, 10.10.2011.

~ di marcos61 su marzo 15, 2012.

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

 
%d blogger hanno fatto clic su Mi Piace per questo: