free web hosting | website hosting | Business Web Hosting | Free Website Submission | shopping cart | php hosting

 

 

 

                             V. La realtà cosmica tra l’immenso e l’infinitesimo

 

 

             5.1 Introduzione   

                                                       

    In questo capitolo guarderemo filosoficamente a ciò che la fisica ci offre sulle particelle elementari e sull’insieme cosmico, assumendo a viatico ciò che Steven Weinberg scrive a conclusione de I primi tre minuti: «Lo sforzo d capire l’universo è tra le pochissime cose che innalzano la vita umana al di sopra del livello di una farsa, conferendole un po’ della dignità di una tragedia.» [1]  Sappiamo bene che la Relatività è inconciliabile con la MQ, d’altra parte questa non considera la gravità (irrilevante a livello quantistico) e quella non considera gli effetti quantistici (irrilevanti a livello macrocosmico). Se però questa è aporia insuperabile per la fisica, non é detto che lo sia per la filosofia, poiché non la priva della possibilità, coi suoi “propri” mezzi d’indagine, di guardare all’aporia “a suo modo”. Ciò che riguarda la filosofia solo in parte riguarda la fisica, e viceversa. A noi filosofi interessa l’ontologia, ai fisici l’esattezza dei calcoli; noi non dobbiamo fare i conti con il quadro cogente ed ineludibile dei dati né con la loro compatibilità rispetto a teorie. La filosofia può “estrarre” il dato fisico, tradurlo, reinterpretarlo ed utilizzarlo come “tessera analogica” del “proprio” mosaico teorico. Il compito del filosofo è di mettere in evidenza ciò che la fisica trascura, poiché ignorandolo o trascurandolo esso si offre alla mistificazione teologica. Il fatto sia l’atomo che il suo nucleo siano quasi del tutto vuoti e che l’universo “noto” (il 5% del totale) sia perlopiù vuoto, essendo il “pieno” costituito dal 73,5% idrogeno, il 24,9% elio e lo 0,7% di ossigeno, mentre il “pesante” (com’è il carbonio) sia solo lo 0,9%, per il fisico può essere solo un dettaglio, non per il filosofo.

    Se una teoria fisica deve “necessariamente” attenersi al dato accertato e ripetibile ed astenersi da ogni “andar oltre” arbitrario (pena l’auto-invalidarsi) la filosofia  può farlo senza che venga meno la legittimità del suo fare ontologia. Lo può perché non deve affatto dar conto alla scienza di ciò che dice, dal momento che opera (come già sostenevamo [2]) ad un livello differente del conoscere. La filosofia deve appoggiarsi alla scienza senza esserne ancilla ma semmai soror: una sorella cognitiva che nulla ha da suggerirle, nel senso che nulla può aggiungere alle sue acquisizioni ma può “interpretarla” e coniugarla con l’esistenzialità, elemento dirimente del filosofare. Dobbiamo ribadirlo: la filosofia può unicamente correlare la realtà materiale (che la scienza rivela) con la realtà antropica, quella che l’homo sapiens esperisce. Noi, infatti, possiamo ragionare solamente da uomini (e magari da Dèi!); nulla ci accomuna alle particelle elementari, né agli atomi, né alle molecole e neppure alle cellule! La filosofia, questa roba da uomini, deve cercare di leggere, interpretare e trasferire in una weltanschauung plausibile gli elementi utili che ogni singola branca della scienza offre. Ma per fare ciò deve averli prima correlati con l’effettualità antropica reale, esperita ed esperibile da parte dell’homo sapiens comune, ri-verificando a posteriori la compatibilità della formulazione antropica con la datità scientifica.

    L’intento specificamente filosofico non è para-scientifico, ma assume dati e concetti che la scienza mette a disposizione solo come basi gnoseologiche del filosofare, che resta però autonomo dal fare scienza. È proprio grazie a ciò che diventano possibili letture traslate dei dati fisici, tali da permettere di astrarre dal linguaggio della fisica e considerare per esempio i bosoni non più quali “mediatori” di forze, bensì come “generatori” di esse e leganti-agenti delle particelle. Allo stesso modo il vuoto quantistico può essere riferito dal filosofo al kenón di Leucippo quale “culla del divenire”, mentre le equazioni einsteniane della relatività possono suggerire una specificamente “filosofica” costante di spazio-tempo (cst). Tutto ciò non pretende alcuna validità scientifica ma esclusivamente euristica nell’ambito di una ricerca gnoseologica che tenta di sfondare l’orizzonte filosofico tradizionale in una nuova prospettiva ontologica. Metaforicamente, potremmo dire che la filosofia può saltare sul carro della scienza e farsi trasportare sin che il viaggiare su esso è produttivo, dopo di che salta giù e procede “da sé”  e per vie proprie e specifiche.

                              

 

                                               

 

                                                  5.2 La scienza e i suoi limiti    

 

    Il modo di considerare e rapportarsi alla scienza (chiamato naturalismo o filosofia naturale sino al XVIII secolo) è cruciale per la filosofia e per il suo svilupparsi e sussistere in quanto tale. Ciò si gioca sul filo di un conflitto che parte da molto lontano, nel V sec.a.C., quando nella cultura greca si verifica una vera guerra teoretica tra due concezioni opposte dell’essere. Atomismo e idealismo, ovvero filosofia naturalistica e teologia filosofale si sono affrontati in una lotta all’ultimo sangue anche se le cronache ne tacciono. Come si sa quella guerra l’ha vinta l’idealismo, e da quel momento la scienza vera ha dovuto accettare un ruolo minore-volgare rispetto alla nobile-fondante “scienza prima”: la teologia filosofale. Quell’unica attività conoscitiva fondata sullo studio della natura, ovvero del mondo reale, ha dovuto configurarsi marginalmente e riduttivamente quasi solo come aspetto artigiano dell’operare cogitativo umano, perché  l’epistéme era esclusivamente metafisica. Così la teologia di Platone iniziava la sua gloriosa e lunghissima carriera, seguita da quella di Aristotele che tornerà un pochino nell’alveo della scienza nel tardo periodo della sua speculazione allorché Teofrasto gli fornirà le sue osservazioni. Però lo Stagirita resta talmente gravato dal peso dei fondamenti idealistici ereditati da Platone e non riesce a creare altro che modelli cosmologici di tipo teologico e considerazione biologiche che ri-traducono in linguaggio metafisico le vere conoscenze di naturalisti autentici oscuri e persi nell’anonimato.

    Un poco più tardi, all’inizio del III sec.a.C. il centro della ricerca scientifica si sposterà ad Alessandria, ed è là che si avrà, a cominciare da Euclide, un fiorire scientifico coniugato con un modo molto diverso di fare matematica e tecnologia. Per Euclide la matematica è “funzione” astratta applicata alla natura reale, quella che si offre all’osservazione e all’indagine, e che può essere “misurata” nei suoi aspetti e nella sua struttura [3]. Con lui una folta schiera di osservatori producono conoscenza vera, paziente, cumulativa, progressiva, che costituirà quel complesso, articolato ed oscuro patrimonio scientifico del quale non sappiamo quanto sia andato perduto e quanto arrivato a fondare la scienza occidentale, e ciò grazie a figli di Maometto dal momento che quelli di Cristo (almeno sino al XIII secolo) la ritenevano frutto del Maligno. La sconfitta dell’atomismo, e con esso del legame tra riflessione filosofica e ricerca naturalistica ha trovato la sua fossa nell’assunzione del pensiero di Platone e Aristotele nella teologia cristiana, costituendo quel connubio idealismo-cristianesimo che dominerà la cultura europea. Schrödinger ha colto il cuore del problema laddove, dopo aver rilevato la scomparsa degli scritti degli illuministi ionici e degli atomisti ed invece la massiccia trasmissione di quelli idealistici, scrive: «Senza dubbio la preponderanza degli scritti di Platone e di Aristotele che ci furono conservati è dovuta alla loro importanza per la teologia cristiana. […] Essi furono per così dire annessi al cristianesimo, su cui esercitarono, come si sa, un’influenza durevole.» [4]

    Il reale fisico va colto a più livelli d’indagine, dai costituenti-base alle strutture che lo determinano, alle articolarsi di esse, ai meccanismi interni e alle modificazioni-evoluzioni  , cercando cause ed effetti, nascite e morti, coniugazioni e disgiunzioni, relazioni opposizioni.. In questo quadro generale articolato e incerto qualsiasi assolutizzazione è devastante, poiché il conoscere è evolutivo, si costituisce in un “avanti” che si struttura e si qualifica in gran parte attraverso errori. La scienza sbaglia, e sbagliando si corregge, e solo correggendosi si avvicina sempre più alla realtà pur senza mai raggiungerla, poiché i nostri modelli della realtà fisica più profonda o più remota restano nulla più che “riproduzioni mentali”! O se si vuole “immagini” o “rappresentazioni” che l’homo sapiens si fa della realtà cosmica. Anche se la scienza punta all’oggettività i margini di antropicità restano elevatissimi in numerosi campi dell’indagabile. Ludwig Boltzmann (1844-1906) è il primo scienziato ad ammettere chiaramente che la scienza teorica non ha carattere veritativo. Nell’Ottocento era ancora diffusa la credenza nei poteri illimitati della scienza di rivelare la verità sul mondo, ma Boltzmann ha capito che l’esperienza viene sempre trascesa dalla teorizzazione scientifica. Essa idealizza la natura nella misura in cui “dice sempre molto di più” del dicibile in base ai “dati” reali che l’esperienza concede. Perciò egli afferma nel 1890:

 

Ritengo che compito della teoria sia costruire un’immagine del mondo esterno che esiste solo in noi, che ci serva da guida in tutti i nostri pensieri ed esperimenti; cioè, per così dire, ci serva da guida nel compimento del processo di ragionamento […]  È una tendenza propria dello spirito umano crearsi una tale immagine e adattarla sempre più al mondo esterno. [5]

 

Un’immagine del cosmo che ci guidi bene e utilmente con i suoi segni e simboli, la “nostre” forme dell’interpretazione e della comprensione di esso; accettabile, dice Boltzmann, se accettata come “nostro” modo di ragionare e rappresentarci intorno al cosmo. È questo un convenzionalismo onesto, che vede la scienza come un’insieme di opinioni umane produttrici di un’immagine della realtà sempre migliorabile.

    Quasi mezzo secolo più tardi Schrödinger, diffidente verso l’eccessiva materializzazione della scienza, espone nel 1935, in Alcune osservazioni sulle basi della conoscenza scientifica, una critica coerente con la sua forma mentis di intellettuale complesso e umanista:

 

Si ammette universalmente che le cosi dette scienze esatte, come la chimica, la fisica, l’astronomia, perseguono lo scopo di farci raggiungere verità certe e obbiettive […] Si ammette inoltre universalmente che la scienza “ci procuri” per davvero questa verità obbiettiva […] si ammette che tutte le proposizioni della scienza relative al comportamento reale della materia -  ciò che si usa chiamare scienze della natura – possiedano realmente questo carattere obbiettivo […] Mi preme insistere sul fatto che, in via di principio, ciò non è vero. [6]

 

E prosegue:

 

È del tutto impossibile sottomettere quest’ipotesi al controllo dell’esperienza; si può anzi asserire che ogni esperienza che si potrebbe immaginare a questo riguardo è destinata a fallire, ossia a provare, se mai, il contrario. La scienza non basta dunque a se stessa, ma ha bisogno d’un assioma fondamentale che viene dall’esterno. [7]

   

Schrödinger ha sempre sostenuto questo principio un po’ provocatorio, ma da quel grande scienziato che è rimane coerente con i suoi principi filosofici oltre che scientifici. In realtà egli intende opporsi agli eccessi della radicalizzazione dell’indeterminismo quantistico e al relativismo scientifico che ne deriva. Atteggiamento gnoseologico corretto, ma senza dimenticare che la sua scarsa fiducia nella datità si è poi rivelata ingiustificata, poiché sono passati ottant’anni (che per la scienza contemporanea sono molti) e l’indeterminismo del livello subatomico della materia è stato ripetutamente confermato. Egli aveva del tutto torto e Heisenberg ragione? I dati gli danno torto, ma gli asserti della scienza non sono mai definitivi, e sempre in fieri. Ma ipotesi come le ”variabili nascoste” e simili non hanno avuto alcun seguito e tutti i tentativi di invalidare la MQ sono a tutt’oggi fallite. 

    Max Born ci ricorda che gli scienziati tendono a dimenticare il fatto che non esistono osservazioni scientifiche di attendibilità assoluta, anche per una certa casualità implicita in esse stesse. Da ciò il suo monito:

 

La storia della scienza rivela una forte tendenza a dimenticare questo fatto. Quando una teoria scientifica è saldamente stabilita e confermata, essa muta di carattere, ed entra a far parte del sostrato metafisico della sua epoca: la dottrina si trasforma così in un dogma. La verità è invece che nessuna dottrina scientifica possiede un valore che vada oltre quello probabilistico, ed essa è sempre suscettibile di venir modificata alla luce di nuove esperienze. [8]

    

 Trent’anni più tardi Richard Feynman, sempre disincantato e ironico, osserverà con una certa amarezza:

 

Non è la nostra ignoranza degli ingranaggi e delle complicazioni interne che fa apparire nella natura la probabilità, la quale sembra invece essere una caratteristica intrinseca di essa. Qualcuno ha espresso quest’idea così: ”La natura stessa non sa da che parte andrà l’elettrone.” Una volta un filosofo ha detto: “È necessario per l’esistenza stessa della scienza che le  stesse condizioni producano sempre gli stessi risultati”. Bèh, non è vero. Anche quando le condizioni rimangono eguali, non si può predire dietro a quale foro si vedrà l’elettrone. Eppure la scienza, nonostante tutto, continua ad andare avanti, anche se le stesse condizioni non producono sempre gli stessi risultati. Certo, il fatto di non poter predire esattamente quello che succederà ci rende un po’ infelici. […] Quello che è necessario “per l’esistenza stessa della scienza” e quelle che sono le caratteristiche della natura non devono essere determinate da pretenziose condizioni aprioristiche, ma dal materiale con cui lavoriamo, cioè dalla natura. Noi guardiamo, vediamo, troviamo, e non possiamo decidere in precedenza quello che deve essere. Le possibilità più plausibili spesso risultano non essere vere.  [9]

 

E a ciò si associa la straordinaria modestia di vedere nel modo seguente la prassi scientifica:

 

In genere, per cercare una nuova legge usiamo il seguente procedimento. Anzitutto tiriamo a indovinare la forma della legge e poi calcoliamo le conseguenze della nostra supposizione per vedere quello che ne deriverebbe se la legge che abbiamo cercato di indovinare fosse giusta. Poi confrontiamo il risultato del calcolo con la natura per mezzo di esperimenti, paragonandolo direttamente con l’osservazione e vediamo se funziona. Se non concorda con l’esperimento, allora la nostra legge è sbagliata, e i questa semplice affermazione sta la chiave della scienza. [10]   

 

Un eminente uomo di scienza dotato di grande umanità che con laicità e modestia guarda ad una realtà fisica che più la si avvicina e più si scopre la nostra ignoranza su essa.

    Roger Penrose è un fisico che non si è mai accontentato di fare il fisico. Matematico insigne e platonista convinto egli ha sempre visto gli enti fisici connessi a quelli matematici, ma senza atteggiamenti ideologici. Il suo contributo all’epistemologia riguarda proprio il modo di cogliere il nesso tra la matematica e la fisica sperimentale, “guide” sinergiche della ricerca perché l’astrattezza della prima è controllata e contemperata dalla concretezza della seconda:

 

In tutta la storia delle scienze fisiche i progressi sono stati ottenuti trovando il corretto bilanciamento tra le limitazioni, le tentazioni e le rivelazioni matematiche, da una parte, e dall’altra, la precisa osservazione delle azioni del mondo fisico, di solito per mezzo di esperimenti accuratamente controllati. Quando la guida sperimentale viene  a mancare, come nella maggior parte dell’attuale ricerca fondamentale, questo bilanciamento non funziona più. La coerenza matematica è ben lungi dall’esser un criterio sufficiente per dirci se è probabile che siamo sul giusto cammino. [11]

 

In assenza della verifica sperimentale, il criterio di preferenza di una teoria rispetto ad altre può darsi “per moda”, specialmente se c’è bellezza matematica. Osserva ancora che: «La competizione, spesso frenetica, scatenata da questa facilità di comunicazione, porta a “schierarsi dalla parte dei più”, perché i ricercatori temono di essere lasciati indietro se non partecipano». [12] Il fascino matematico costituisce quindi un problema serio per la fisica teorica. Aggiunge:

 

Il noto filosofo della scienza Karl Popper ha fornito un criterio ragionevole per l’ammissibilità scientifica di una teoria proposta, e precisamente che sia osservazionalmente falsificabile. Ho però paura che sia un criterio troppo rigoroso e che in definitiva rappresenti un punto di vista sulla scienza troppo idealistico per questo mondo attuale di “grande scienza”. [13]

 

Penrose dice eufemisticamente “troppo rigoroso” per non dire meramente logico, idealistico, astratto e forse “troppo alla moda”.

    Il falsificazionismo di Popper (1902-1994) è stato infatti un tipico fenomeno “di moda”: tanto bello quanto inutile. Abbiamo già visto che l’epistemologia [14] ha in lui un grande protagonista, molto critico verso lo sperimentalismo e l’induzione, ma essa in realtà ha percorso anche altre strade. I primi tentativi di analizzare il pensiero scientifico risalgono al ‘700, ma è solo verso la fine dell ‘800 e poi nel ‘900 che ha straordinari sviluppi, spesso solo come uno dei rivoli di quella ”ermeneutica infinita” che caratterizza il pensiero contemporaneo, perlopiù incapace di produrre nuove idee e ripiegato sulla reinterpretazione delle vecchie. Essa però è presto diventata terreno di scontro tra due visioni opposte della scienza, quella illuministica, che privilegia l’osservazione e la sperimentazione, e quella idealistica, che privilegia la teoria e la logica. L’intento dell’epistemologia idealistica: tornare a Platone e rifarsi a Cartesio, Spinoza, Leibniz, Hegel.

    Tra gli epistemologi neopositivisti Hans Reichenbach (1891-1953), allievo di Cassirer,  di fisici come Planck, Einstein e Born, e di matematici come Hilbert, porta la sua attenzione sui problemi della fisica con un saggio del 1928 dal titolo La filosofia dello spazio e del tempo. È convinto del prevalente carattere probabilistico della conoscenza scientifica e si oppone alla logica, che favorisce un operare scientifico astratto, che mortifica l’osservazione e l’esperimento. Pensa anche che l’induzione resti il fondamento dell’operare scientifico perché è capace di autocorreggersi. Indica col termine di interfenomeni gli accadimenti subatomici, oggetto della MQ, perlopiù inosservabili e richiedenti un approccio euristico di tipo differente dagli enti macroscopici, con procedimenti inferenziali specifici molto complessi. Nel 1944 scrive in Philosophic Foundation of Quantum Mechanics (I, 6) che: «Gli interfenomeni si costruiscono nella forma di una interpolazione interna alla sfera fenomenica. La differenziazione tra essi e i fenomeni trova analogia in meccanica quantistica tra ciò che non è osservabile e ciò che invece lo è.»   

    In ambito francese, e prima di Reichenbach, emerge la figura di Gaston Bachelard (1884-1962), pensatore con poca esperienza scientifica ma con un solido back ground umanistico. Anch’egli si oppone al logicismo astratto ed include nelle sue analisi considerazioni storiografiche, sociologiche e psicologiche, ampliando così l’orizzonte dell’epistemologia. Ciò che lo caratterizza è la validazione dell’elemento immaginativo all’interno del procedere scientifico quale elemento determinante di molte intuizioni innovative. Se in ambito austro-tedesco, almeno in un primo tempo, era posto il primato dell’empiria, il francese intende superarla in una visione più complessa, auspicando una maggior razionalizzazione che egli chiama ”noumenica” proprio in contrapposizione a quella fenomenica. Scrive nel 1934:

 

La realizzazione del razionale nell’esperienza fisica coincide con un realismo tecnico che è uno degli elementi caratterizzanti dallo spirito scientifico contemporanea, molto differente da quello del passato, lontano dall’agnosticismo positivista, dalle tolleranze del pragmatismo e senza alcuna relazione col realismo filosofico della tradizione. Si tratta infatti di un realismo di seconda istanza che reagisce contro la realtà del senso comune entrando in polemica con l’immediatezza di esso: si tratta invece di un realismo fatto di ragione realizzata e di ragione sperimentata. Il suo reale non viene respinto nell’ambito dell’inconoscibile ”cosa in sé”. Mentre la cosa in sé è noumeno per esclusione dei valori fenomenici, il reale scientifico ci pare invece costituito da una trama noumenica che indica le linee della sperimentazione. [15]    

 

Evidente in Bachelard l’intendimento di riformare la visione della scienza nei suoi opposti, sottraendola sia all’empirismo che al criticismo spiritualistico. Proponente di una “filosofia del “non” (ma riformatrice più che negatrice) ritiene che empirismo e razionalismo vanno coniugati in una prospettiva “bipolare”. Contro Cartesio auspica il dubbio sull’”acquisito” con uno “sforzo di novità” che guardi avanti, ma rivendica anche il recupero, contro gli eccessi del materialismo riduzionistico, di concetti come quello di”spirito”, però non in senso metafisico:

 

La scienza suscita un mondo, non più per un impulso magico immanente alla realtà, ma per un impulso razionale, immanente allo spirito. Dopo aver formato con i primi sforzi dello spirito scientifico una ragione a immagine del mondo, l’attività spirituale della scienza moderna è impegnata a costruire un mondo ad immagine della ragione. [16]       

 

Se Bachelard in Francia avrà seguaci che utilizzeranno e le sue posizioni per sviluppi di carattere eminentemente sociologico, in Austria, dopo Reichenbach, ci sarà una notevole messe di studi per formulare una ”visione della scienza” su base logica, ma che tenga comunque conto delle necessarie verifiche osservative ed empiriche. In seguito gli intenti da logici diventano presto “linguistici”, sì da contrapporre la linea “teorico-logica” alla “sintattica”, l’osservativo-sperimentale.

    Su tale linea è importante Rudolf Carnap (1891-1970), convinto che il linguaggio logico formale possa essere tradotto in forme descrittivo-linguistiche. Negli anni ’40 emigra negli USA e là sviluppa un’epistemologia sempre più distaccata dall’empirismo e sempre più astratta. Nel 1934 scrive:

 

Per problemi oggettivi si devono intendere quei problemi che riguardano gli oggetti del campo considerato, come ad esempio indagini circa le proprietà e le relazioni di tali oggetti. I problemi logici, d’altra parte, non si riferiscono direttamente agli oggetti, bensì alle proposizioni, ai termini, alle teorie ecc. […] Naturalmente, in un certo senso, anche i problemi logici sono oggettivi, in quanto si riferiscono a determinati oggetti – cioè a termini, proposizioni e simili – vale a dire agli oggetti della logica. [17]

 

Si comprende bene quale errore filosofico grossolano sia il ritenere che se un discorso logico si occupa di oggetti logici determinati sia per ciò stesso oggettivo. Il Carnap che ha rifiutato la metafisica torna ad impantanarsi con essa attraverso la logica. Ne abbiamo la prova poco più avanti:

 

Prescindendo dai problemi delle singole scienze, gli unici genuini problemi scientifici son quelli dell’analisi logica della scienza, delle sue proposizioni, termini, concetti, teorie e simili. A questo complesso daremo il nome di logica della scienza. […] In base a questa concezione, una filosofia che è stata purificata di tutti gli elementi non scientifici, non rimane altro che la logica della scienza. [18]

 

Se i ”genuini” problemi scientifici sono quelli della logica della scienza carnapiana non ci si stupirà del fiorire a cavallo della metà del ‘900 di “logicismi” dove la logica si rifà a modelli matematici e li coniuga con lo strutturalismo.  Una “pan-logica” che dopo aver detto di voler mettere in un angolo la metafisica (sotterrando osservazione ed esperimento) la rifonda come “struttura linguistica”. 

    Le teorie scientifiche sono oggetti mentali in parte misteriosi e nuove ontologie teoriche subentrano alle vecchie e spesso i miti si affermano come palingenesi di un “vecchio” riconfezionato “a nuovo”. Solo la critica di Kuhn ci pare emergere come valida sullo sfondo di uno scenario epistemologico ozioso ed abbastanza mitizzato. Un relativizzatore disincantato che con chiarezza ha individuato l’esistenza di statiche “cornici” culturali che ha chiamato “paradigmi”. Ebbene, anche un fisico di professione come Heisenberg affronta il problema ribadendo che sia la fisica classica che quella quantistica sono “giuste a loro modo”, sicché il “modo” di una teoria si manifesta in una “chiusura”, che è anche coerenza interna, nel senso che la sua validità esplicativa e predittiva non riguarda la realtà tutta, ma solo un certo livello di essa. Si tratta all’incirca di ciò che pensiamo anche noi ma da premesse differenti, poiché egli pensa che la materia sia “una”, mentre noi pensiamo che siano “molte” .   

    Heisenberg indica quattro teorie chiuse nella scienza moderna: la meccanica newtoniana, la teoria di Maxwell insieme con la RelR, la termodinamica e la meccanica statistica, la MQ. I requisiti di un teoria chiusa sono: 1°, essere coerente e priva di contraddizioni al suo interno; 2° descrivere in maniera accettabile l’esperienza. Una teoria chiusa funziona egregiamente sinché «la scoperta di nuovi gruppi di fenomeni, che non possono esser ordinati per mezzo dei vecchi concetti, ci dice che a questo punto abbiamo raggiunto il [suo] limite.» [19]  Relativamente al suo “contenuto di verità” il Nostro precisa che:

 

  1. la teoria chiusa è valida sempre; laddove l’esperienza può essere descritta per mezzo dei concetti di questa teoria, anche in un lontano futuro, le leggi di questa teoria saranno sempre corrette;
  2. la teoria chiusa non contiene nessuna affermazione certa circa il mondo delle esperienze. Perciò, per quanti fenomeni si possano comprendere con i concetti di questa teoria, questa rimane in senso stretto incerta e dipendente dal risultato;
  3. nonostante quest’incertezza, la teoria chiusa rimane una parte del nostro linguaggio scientifico e perciò costituisce un elemento essenziale della nostra attuale comprensione del mondo. [20]

 

Quanto vorremmo che con altrettanta chiarezza e consapevolezza molti professionisti dell’epistemologia si esprimessero circa i contenuti delle teorie scientifiche! La dicotomia qui posta tra i “concetti” della teoria e il “mondo” delle esperienze è importante punto gnoseologico; non si può mai sussumere l’esperienziale nel teorico, ma occorre trovarne la correlazione in termini di “funzionamento”.

    I limiti della scienza sono enormi e soltanto essendone consapevoli è possibile fare di essa il faro che illumina il cammino della conoscenza. Ma i limiti sono enormi non tanto a livello teorico, per le insufficienze mentali dell’homo sapiens, ma molto più per quei limiti tecnologici che impediscono all’osservazione e all’esperienza di procedere oltre certe barriere insormontabili che rendono irraggiungibile qualsiasi datità. I telescopi, i microscopi, le bottiglie di Leida, i manometri, i contatori Geiger e tutti gli altri gloriosi strumenti del nascere e affermarsi del pensiero scientifico sono lontani. Oggi per scoprire cose nuove ci vogliono soldi, tanti soldi, e la scienza pura divora soldi senza offrire prospettive sicure di ritorno economico. Per scoprire come è fatto il mondo subatomico e quali sono stati i processi che dal bigbang hanno portato all’oggi ci vogliono acceleratori di particelle dai costi proibitivi. Per produrre il “nucleare pulito”, la fusione dei nuclei, ci vogliono tecnologie ancora molto lontane ed anche solo per rilevare un neutrino occorre scavare nel profondo le montagne per avere in laboratori sotterranei schermi tali da riuscire a “fermarlo”.  Pensare e inventare teorie è sempre facile, è lo scoprire che è difficile!      

                                   5.3 Uno sguardo alla fisica contemporanea

 

    La situazione attuale delle conoscenze fisiche vede la Relatività riconosciuta e acquisita, mentre sia il Modello Standard (per le sue carenze e per qualche elemento ad hoc) e sia la MQ (per i suoi elementi controversi) ne sono aspetti critici. L’uno e l’altra funzionano in maniera soddisfacente per calcoli, misure e previsioni, ma le controversie sono numerose e special,mente il MS è precario con l’accavallarsi di nuove teorie, a volte compatibili a volte incompatibili con esso. Sono molti però i fisici che non nutrono dubbi sulla sua validità, tra questi Steven Weinberg, che ha scritto:

 

Nell’ultimo decennio una teoria particolareggiata del corso degli eventi verificatisi alle origini dell’universo è stata ampiamente accettata come “modello standard”. Non è cosa da poco saper dire esattamente com’era l’universo alla fine del primo secondo o del primo minuto o del primo anno. Per un fisico non c’è nulla di più gratificante del riuscire a elaborare le cose numericamente, dell’aver la capacità di dire che in un determinato momento la temperatura, la densità e la composizione chimica dell’universo avevano determinati valori. [21]  

 

Il punto di vista di un teorico che ragiona pragmaticamente, posizione che potrebbe venire riassunta nell’asserzione: «È vero perché funziona.»  

     Molto altri non la pensano così, ritenendo la posizione dei pragmatici discutibile, poiché l’incompatibilità tra la Relatività e la MQ, le due teorie dell’ estremamente grande e dell’estremamente piccolo, induce a proporne il superamento in una TOE che li coniughi. Il perseguimento di questa è ragionevole? Certamente, a patto di non volerla raggiungere “a tutti i costi”, poiché non è detto che unificare significhi capire e il pensare sempre che la realtà fisica debba essere semplice può indurre su strade sbagliate. Si tratta di una vecchia storia, che inizia nell’Ottocento con Laplace, e che ripropone puntualmente un “dover essere “ rispetto al “così si rivela”. Attribuire all’ignoranza una soluzione teorica insoddisfacente è un “classico” della storia del pensiero scientifico, ed Einstein si è arrovellato tutta la vita per cercare di superare la MQ ed i suoi aspetti indeterministici, correndo avventure teoriche poi rivelatesi sterili. È commovente come nella sua onestà intellettuale egli scrivesse nel 1940:

 

Alcuni fisici, trai quali io, non riescono a credere che si debba abbandonare, subito e per sempre, l’idea di una rappresentazione diretta della realtà fisica nello spazio e nel tempo; oppure che si debba accettare il punto di vista secondo cui gli eventi naturali sono come un gioco del caso. E dato a ogni uomo di scegliere la direzione del proprio sforzo; e inoltre ogni uomo può trarre un conforto dalle meravigliose parole di Lessing, secondo cui la ricerca della verità è più preziosa del suo possesso. [22]

 

Soffermiamoci su tre parole. La prima è l’aggettivo “diretta”, il suo uso rivela che Einstein credeva fermamente che la realtà fosse deterministica. La seconda è “gioco”, con cui il credente panteista non può ammettere che Dio giochi né col cosmo né con gli uomini. La terza è “verità”: il grande Albert è convinto che essa esista e che la si debba perseguire col massimo sforzo. Altri “grandi” della fisica, da Schrödinger, a Bohm a Penrose per citarne alcuni, erano altrettanto convinti che l’universo “debba” essere sia unitario che deterministico, un Uno-Tutto definito e intelligibile creato da un principio divino.  

    Per un’informazione sommaria ricordiamo che la fisica contemporanea si fonda su quattro blocchi teorici: la relatività ristretta o speciale (RelR), la relatività generale (RelG), la meccanica quantistica (MQ) e il modello standard (MS). Ad essi possiamo aggiungere la teoria M, lo sbocco ultimo delle stringhe, una TOE che include superandole sia la RelG che la MQ: gli elementi della materia sarebbero le superstringhe e le brane, con uno spazio a 11 dimensioni, di cui quattro visibili (tre spaziali e una temporale) e sette invisibili (compattate e nascoste). Essa, tra l‘altro, è compatibile con la RelG, perché questa ammette qualsiasi numero di dimensioni. La relatività è stata teorizzata da Einstein in due tempi (1905 la RelR e 1916 la RelG) e pare quindi fondamentale per qualsiasi teoria ulteriore. La RelR, rivelatrice dell’equivalenza masse/energie in funzione della velocità della luce c (E=mc2), si coniuga bene con la MQ ed ha con essa un rapporto stretto in riferimento al mondo subatomico. La RelG ha aperto uno scenario del tutto nuovo sulla macro-realtà, mettendo in mora spazio e tempo assoluti, unificando meccanica ed elettrodinamica e superando alcuni aspetti paradossali insiti nella teoria di Maxwell sulla carica elettrica in rapporto al magnetismo. Inoltre propone un’unità delle dimensioni cosmiche e fornisce la nuova lettura della gravità come “curvatura” dello spazio-tempo generata dall’azione delle masse .

    La MQ nasce dopo che Max Planck nel 1900 scopre che la realtà fisica non è continua ma discreta, fondata su “quanti elementari d’azione”. Il quanto è l’unità di energia/massa e misura le grandezze microfisiche in rapporto a quel coefficiente fisso (6,625 x 10 - 27 erg/sec) che è la costante di Planck (h). Su questa base Einstein può dimostrare che i fotoni si comportano sia come onde che come corpuscoli. Un ulteriore importante passo si ha quando Niels Bohr fornisce un nuovo modello della struttura dell’atomo mettendo in mora quello di Rutherford (simile a un minuscolo sistema solare” col nucleo al centro e gli elettroni orbitanti attorno). Bohr dimostra che se così fosse gli elettroni si schianterebbero quasi immediatamente sul nucleo, e che essi, invece, ”saltano” continuamente su orbite differenti (senza mai scendere al disotto di quella di energia minima) in una sorta di danza indeterministica definita talvolta “nebbia elettronica”. Il modello di Bohr verrà poi superato da altri più raffinati e la MQ procederà nei suoi sviluppi grazie ad importanti contributi di Louis de Broglie, Dirac e altri, ma soprattutto di Werner Heisenberg, che nel 1925 definisce il modello della MQ in termini che sono rimasti sostanzialmente immutati.  

    Con Heisenberg si consuma la definitiva cassazione della meccanica classica per il mondo subatomico, determinando quella dicotomica frattura teorica col mondo macroscopico che tanto infastidiva Einstein. Ne deriva la matematizzazione dell’atomo in quanto graficamente irrapresentabile, intuibile solo come intensità e frequenze di radiazioni emesse, sicché egli propone addirittura di vedere l’atomo solo come un “matrice” numerica generatrice di energia. Ma è Erwin Schrödinger nel 1926 a tornare a vedere gli elettroni come “cose”, o meglio come “pacchetti d’onde” orbitanti intorno al nucleo, in termini che permettono di riconsiderarli “oggetti” e quindi fenomeni interpretabili secondo la fisica classica. L’ipotesi pare convincente, ma poi la cosiddetta “interpretazione di Copenaghen” di Max Born dimostra che quella dell’elettrone non è un’onda “fisica” misurabile, ma solo un “onda di probabilità”. È una conclusione epocale, che mette definitivamente in crisi la concezione deterministica della realtà fisica; ma i “realisti-deterministi” come de Broglie, Schrödinger ed Einstein non si daranno mai per vinti, dando inizio ad una serrata battaglia concettuale che infiamma tutt’ora il mondo scientifico. Einstein porrà il suo paletto con la celebre frase «Sono convinto che Lui non gioca a dadi col mondo.», non il Dio-Volontà biblico ma il Dio-Necessità spinoziano. Da ciò la dichiarazione di fede: «Credo nel Dio di Spinoza che si rivela nell’armonia di tutto ciò che esiste, ma non in un Dio che si occupa del destino e delle azioni degli esseri umani.» [23]  

    L’ulteriore tappa della MQ la fissa ancora Heisenberg nel 1927 col Principio di Indeterminazione, che sancisce il fatto che la legge di causalità (dato il presente si può calcolare il futuro) non vale per il mondo subatomico. Per contro Heisenberg non condivide la conclusione di Bohr che la particelle quantistiche siano nel contempo onde e corpuscoli, e sarà de Broglie a dimostrare che ha ragione il danese, esistendo una complementarità onda-corpuscolo relativa a tutta la materia elementare. Questa “può” esistere in entrambi i modi ma mai contemporaneamente, quando è onda non può essere corpuscolo e viceversa. Di fronte a tali bizzarrie Einstein inizia la sua strenua battaglia teorica che lo terrà impegnato sino alla morte seguito da un schiera di fedeli adepti. Nel 1933 con la collaborazione di Boris Podolski e  Nathan Rosen egli cerca di dimostrare che la MQ è una teoria incompleta. Utilizza un “esperimento mentale”, noto come Paradosso EPR (dalle iniziali dei proponenti), che intende mettere in discussione la realtà dell’entanglement, la non-località della particella. Ma è smentito, prima da John Bell all’inizio degli anni ’60 e poi, definitivamente, da Alain Aspect nel 1982. La MQ ha vinto, malgrado ciò, ancor oggi, molti sperano che sia falsa.

   A base della validità di essa stanno evidenze sperimentali che dimostrano, ancora una volta, come le teorie possono essere bellissime ma false e bruttissime ma vere, essendo solo l’esperimento giudice della validità. John von Neumann nel ’32 è categorico nel difenderla e combatte a spada tratta l’ipotesi delle misteriose (e mistiche) “variabili nascoste” di Einstein, ma nel 1952 David Bohm, riesce a riproporle in maniera plausibile, come abbiamo visto. Ma è poi un semplice esperimento, quello “delle due fenditure”, a porsi come nodo gordiano nell’interpretazione della MQ, aprendo un nuovo orizzonte in cui indeterministi e deterministi si affrontano. Nasce anche il famoso paradosso del vivo/morto “Gatto di Schrödinger”, col quale, assumendo come veri gli assunti della MQ “di Copenaghen”, ci si trova di fronte al fatto che un ente hyletico reale metaforizzato e rappresentato con un gatto, se posto all’interno del mondo meccanico-quantistico diventa contemporaneamente vivo e morto. Ciò è correlato al famoso problema “dell’osservazione”, che col suo irrompere nel mondo subatomico fa sì che la particella debba “scegliere” dove stare e che energia avere. Tra chi afferma “non può essere così” e chi ribadisce che “eppure è così” si dipana una polemica mai sopita.

    Il Modello Standard ha anch’esso una gestazione lunga e complessa, più comprensibile viste le sue carenze, le sue fasi e i vari correttivi. Essendo poi a livello macrocosmico la gravità determinante per formazione e fenomenologia di stelle e galassie è chiaro perché il MS sia “incompleto”. Tuttavia, per ciò di cui si occupa, è attendibile e a tutt’oggi è anche l’unica teoria cosmogonica sufficientemente suffragata da dati sperimentali, calcoli e previsioni. Soffermiamoci ora sul big-bang, immaginato erroneamente come un’esplosione (fenomeno chimico-fisico che avviene in uno spazio che preesiste col rapidissimo passaggio di un solido o un liquido a gas). Il bigbang non può esser visto come un esplosione perché non avviene “nello spazio” ma “crea spazio” per raffreddamento e decompressione. Il MS descrive bene la natura e l’azione di tre dei quattro bosoni: fotoni, gluoni e nucleodeboli. Si può aggiungere che se i fermioni sono gli ingredienti del cosmo, i bosoni ne sono i cuochi, coloro che li mettono e li tengono insieme in quel pranzo magnifico che è l’universo [24]. Essi, inoltre, presentano un carattere molto importante anche ai fini tecnologici, non sono soggetti al principio di esclusione di Pauli, poiché mentre due fermioni non possono stare nello stesso posto i bosoni possano sovrapporsi e accumularsi (come i fotoni nel laser).

    I fotoni poi possono essere anche “virtuali”, potendo fungere da puri vettori di “energia di scambio” e sono tali quelli che si sprigionano dal vuoto.  Così ne parla Robert Oerter:

 

Un fotone reale, ovviamente, si muove lungo una linea retta, ma il fotone del diagramma [di Feynman] è un fotone virtuale, e la linea ondulata non rappresenta il suo vero cammino; il fotone virtuale percorre tutti i cammini, proprio come l’elettrone. [25]

 

La virtualità è uno stato aurorale e pre-elementare dell’ente hyletico; tale condizione è caratterizzata da un’aleatorietà totale. La virtualità particellare implica anche la possibilità di superare la c, che abbiamo visto come costante di spazio-tempo (cst) del mondo “reale”, non di quello “virtuale”. E tuttavia la virtualità pre-forma la realtà, sì che Oerter può precisare: «Le particelle virtuali possono sembrare troppo strane per essere importanti nel mondo reale, ma sono, a dire il vero, indispensabili.» Se si considera infatti la relazione di due elettroni stazionari in un atomo, essi, dovendosi respingere, rivelano la presenza tra loro di una certa “forza” fotonica. Ma questi fotoni si caratterizzano per energia, quantità di moto e tempo di vita «a prestito» [26]

    Distingue anche i fermioni dai bosoni lo spin, una proprietà intrinseca di tutti gli enti hyletici, simile a una rotazione della particella intorno a un asse interno, il cui valore è intero nei bosoni e frazionario nei fermioni. Abbiamo già visto che con lo spin la particella può esser visualizzata come una trottola che ruota su se stessa mentre si sposta, ma il concetto è così fondamentale che (a costo di qualche fastidioso tecnicismo che vorremmo evitare) è il caso di spender qualche parola in più citando come due grandi fisici vedono il fenomeno. Cominciamo con Gerard ‘t Hoft che scrive:

 

Una caratteristica specifica delle particelle piccole è che esse possono ruotare sul proprio asse. Come le palle da tennis e da biliardo possono ruotare su se stesse, ma non “nello spazio”, bensì “in sé”. E in più c’è un’importante differenza con le palle con cui giochiamo: che l’entità dello spin è fissa per ogni particella. Lo spin (più esattamente il momento angolare, approssimativamente massa x raggio x velocità di rotazione) può essere misurato in multipli della costante di Planck divisa per 2п. Misurato in questi termini, secondo la meccanica quantistica lo spin di ogni oggetto deve essere sempre o un numero intero o un numero semintero, cioè un numero intero  più ½. [27]   

 

 

Vediamo ora come Stephen Hawking spiega quest’importante fattore quantistico:

 

Queste particelle [tutte] hanno una proprietà chiamata spin. Un modo per pensare allo spin consiste nell’immaginare le particelle come piccole trottole che ruotano intorno a un asse. Quest’immagine può però esser sviante poiché la meccanica quantistica ci dice che le particelle non hanno un asse ben definito. Essa ci dice realmente lo spin di una particella è l’aspetto di abbia da direzioni diverse. Una particella di spin 0 è come un punto; essa appare sempre uguale da qualsiasi direzione la si guardi. Una particella di spin 1 è invece come una freccia; essa ci presenta aspetti diversi se guardata da direzioni diverse. La particella riprenderà lo stesso aspetto solo dopo una rivoluzione completa (di 360 gradi). Una particella di spin 2 è come una freccia con due punte, una a ciascuna estremità; essa riprenderà lo stesso aspetto solo dopo aver compiuto una semirivoluzione (180 gradi). Similmente, particelle di spin maggiore riprenderanno lo stesso aspetto dopo una frazione minore di una rivoluzione completa. Tutto questo sembra abbastanza semplice, ma il fatto notevole è che ci sono particelle [i fermioni] che non tornano ad avere lo stesso aspetto dopo una rivoluzione completa, bensì solo dopo due rivoluzioni complete. Queste particelle si dice che hanno uno spin di 1/2 (o spin semintero). [28]

 

I bosoni, i legagenti del cosmo,  possono avere spin 0, 1 o 2, i fermioni 1/2. Questi si raggruppano in tre “famiglie” per un totale di trenta particelle tutte determinabili sperimentalmente essendo legate dai loro valori. Essi sono divisi in due categorie in base alle masse: i leggeri leptoni (soggetti alla legagenza nucleare debole e all’elettromagnetismo) e i pesanti barioni (protoni e neutroni [29]), costituiti da 3 quark non isolabili [30] ma “confinati” dai gluoni all’interno di protoni e neutroni (formati da 3 quark) e di mesoni (formati da 2 quark). La legagenza gluonica (al contrario di quella gravitazionale) aumenta con la distanza, è quindi come se fosse un elastico che più lo si tende e più acquista forza tendendo a ritornare allo stato iniziale e così facendo stringe i quark all’interno dei nuclei. La seconda e la terza famiglia di fermioni non esiste in natura, si producono solo negli acceleratori di particelle, ma decadono subito nei loro corrispondenti della prima famiglia, quella dell’universo reale. Un’ultima nota sui neutrini: sono particelle misteriose, ritenute prive di massa o quasi (si parla di valori tra 0,5 a 10 eV  = da 1/1000 a 1/20.000 della massa dell’elettrone), che non interagiscono con altre forme di materia all’infuori dei bosoni nucleodeboli. E tuttavia questi, avendo un raggio d’azione molto minore delle dimensioni del nucleo, nei loro confronti sono praticamente inerti.

    I neutrini attraversano l’universo da un capo all’altro, compresi i nostri corpi, in un flusso continuo e massivo, essendo la loro quantità valutata in numero di 1 miliardo per m3 di spazio cosmico. Si sono formati in gran parte nelle prime fasi espansive dell’universo, ma saltano fuori in ogni fusione o fissione nucleare che avvenga nelle stelle, durante l’esplosione delle supernove, ma anche in piccola quantità da rocce terrestri. Il Sole è un grande produttore di neutrini (1038/sec.) e il flusso che colpisce la Terra è valutato in numero di 60 miliardi/sec./cm2, che ovviamente noi non percepiamo e che è rilevabile solo sperimentalmente e con enorme difficoltà. Ma persino noi, vivendo, produciamo neutrini, pare in misura di circa 20 mg. a testa, poiché il nostro corpo reca tracce di potassio - 40 che è radioattivo, sì da poter ritenere che ognuno di noi produca in media e pro die circa 300 milioni di neutrini che si disperdo nel cosmo quasi alla velocità della luce [31] .    

     Un grande conoscitore dei neutrini è Leon Lederman, che grazie ai suoi studi su essi ha ottenuto il Premio Nobel nel 1988. Nel suo The God Particle, dedicato all’higgsone (il bosone di Higgs) e al Modello Standard egli riserva qualche spazio ai neutrini, sottolineando come loro caratteristica importante sia la chiralità, la capacità del loro spin di andare sia in senso orario (destrorso) che anti-orario (sinistrorso). Si tratta di un’importante simmetria, supposta originaria degli inizi dell’universo e poi annullata proprio dall’higgsone come generatore di massa. Un’altra particolarità dei neutrini è di aver origine da interazioni deboli e di avere una reattività bassissima con le altre particelle, sicché, ci dice Lederman:

 

La probabilità che un neutrino subisca una collisione attraversando una lastra d’acciaio spessa due centimetri è uguale a quella di trovare, in un bicchier d’acqua dell’Atlantico raccolta a caso, una piccola gemma gettata, sempre a caso, nell’immensità dell’oceano. Eppure, nonostante la sua mancanza di proprietà [reattive], il neutrino ha un’enorme influenza nel corso degli eventi. È la fuga di un numero immenso di neutrini dal nucleo, per esempio, a scatenare quelle esplosioni stellari che spargono nello spazio elementi pesanti appena cucinati dentro una stella ormai condannata alla fine. Dopodiché i detriti dell’esplosione si riaggregano, ed è ad essi che si devono il silicio, il ferro e le altre buone cose che troviamo sui pianeti. [32]

 

Ciò che interessa in questa notazione è che la fisica contemporanea ci pone di fronte a realtà che sconvolgono un poco i nostri criteri di valutazione di forza o debolezza, di importanza o insignificanza, di presenza o assenza posti della fisica classica imperante sino al 1920 circa. E non già perché essa sia sbagliata, ma semplicemente perché avulsa dal mondo elementare delle particelle.          

    Per ogni particella di materia c’è una simmetrica di antimateria, ma siccome nel cosmo attuale prevalgono le prime, le seconde sono presente solo come elementi transitori di fenomeni subatomici provocati artificialmente negli acceleratori. Per ogni ente hyletico subatomico (ma non subnucleare) con un certa carica elettrica esiste il simmetrico di carica contraria [33]; così l’elettrone (e -), con carica -1, ha l’anti-elettrone (e+), a carica +1, chiamato positrone. I simmetrici non possono coesistere e incontrandosi si annichilano istantaneamente producendo energia sotto forma di fotoni. Analogamente un protone, (a carica +1), e un antiprotone (-1) si annichilano formando pioni (di 3 tipi) che subito decadono in muoni + neutrini + fotoni. È possibile anche realizzare artificialmente il processo inverso (la “creazione di coppie”); per esempio: sparando un fotone ad alta energia contro un nucleo si può creare (per un tempo infinitesimo) la coppia elettrone-positrone. L’annichilazione, a dispetto del suo etimo, non produce il nulla né viola il principio di conservazione di massa-energia; c’è solo un passaggio di materia a energia, e da questa si può ricreare quella col processo inverso, conferendo una quantità di energia pari a quella che si libera nell’annichilazione.    

    I bosoni sono perlopiù considerati fisica “mediatori di forza”, scambiati nelle trasformazioni dei fermioni, nei loro decadimenti, nel loro formarsi e assumere forme e strutture differenti. A noi pare che questa definizione (utile per la quotidianità dei fisici) sia filosoficamente impropria, poiché c’è forza laddove ci sono bosoni che la esprimono, non viceversa. Per questo li consideriamo in prima istanza “generatori”, in seconda “leganti”, in terza “agenti” e poi  “mediatori”, da ciò l’aver rinominato forza in legagenza. I bosoni infatti legano e slegano, agiscono sulle connessioni e gli stati, gestiscono le trasformazioni viaggiando da fermione a fermione: creano la realtà come primattori dell’accadere. Sono, in definitiva, ciò che per Leucippo era il moto, creatore di materia reale a partire da atomi. I bosoni sono assemblatori di masse in ogni loro forma, ma solo di uno, il fotone, noi abbiamo esperienza diretta coi nostri sensi, mentre dei tre bosoni vettori di forza debole (responsabili dei decadimenti), degli otto gluoni (le “colle elastiche” dei quark) e dei gravitoni (“pesantezza” dei nostri corpi a parte) non abbiamo alcuna percezione. Infine di enorme importanza il generatore del meccanismo che conferisce massa alle particelle: il bosone di Higgs o higgsone.

    Fondamentale per la comprensione del MS è il già citato concetto di simmetria, indicatrice di uno stato di rapporti interni che possano essere considerati stabili, quindi invarianti. Invarianza è pertanto sinonimo di simmetria e ci permette di comprendere quel che si intende per “rottura di simmetria”, il mutamento di struttura dovuto a una perturbazione. Responsabili ne sono i bosoni in funzione dello stato energetico e il MS le riferisce alle prime fasi dopo il bigbang quando si verificano i cosiddetti disaccoppiamenti, fasi che preludono l’evoluzione del cosmo verso l’“uniformità”. Il concetto è fondamentale per la legittimità teorica stessa del MS, col quale si suppone che all’inizio (ad energie irriproducibili) le varie legagenze fossero espresse da una sola proto-forza. Il termine supersimmetria, estremamente importante per gli ultimi sviluppi, teorizza l’esistenza di particelle “compagne simmetriche”, interscambiabili, di pari massa e pari carica, ma con spin differente, sicché una è un bosone e l’altra un fermione. L’’intercambiabilità bosoni-fermioni implica il fatto che le particelle possibili siano in numero molto maggiore di quelle note [34].

    Il nome di Teoria M è stato dato Edward Witten agli ultimi sviluppi della Teoria delle Supertringhe, di cui è uno dei massimi fautori [35]. Per comprendere la nascita dell’ipotesi delle “stringhe”, poi delle “superstringhe” e quindi delle “brane”, bisogna tener conto di due lacune fondamentali del MS. La prima riguarda l’esclusione della gravità e la seconda carenze teoriche del MS stesso, che per stare in piedi richiede numerose rinormalizzazioni (espedienti matematici per evitare valori infiniti) ed altri aggiustamenti di vario tipo. Va precisato che il concetto di stringa è a base di modelli esclusivamente matematici, quale entità fisica che dovrebbe esistere alla lunghezza di Planck (10-33), un milionesimo di miliardesimo di miliardesimo di miliardesimo di centimetro [36], ad un livello energetico inimmaginabile, un quadrilione di volte maggiore della massima energia raggiungibile nel nostro più potente acceleratore [37]. La sua forza teorica sta pertanto solo nel fatto che tutto o quasi tutto in esso  “quadra”, mentre nel MS buona parte “non quadra”; il fatto è che questo possiede una base fisica reale e verificabile, mentre le teorie delle stringhe sono solo matematiche.

    Ricordiamo i punti forti della teoria delle stringhe: 1° elimina le “quantità infinite” che una teoria quantistica dei campi come il MS non riesce ad evitare (e perciò le rinormalizza); 2° include il gravitone; 3° spiega perché esistano quattro famiglie di particelle e perché ogni famiglia abbia proprietà specifiche. La stringa, essendo un corpo esteso a due dimensioni, può chiudersi su se stessa, può arrotolarsi, descrivere-creare corpi a tre o più dimensioni: le brane. Lo spazio-tempo non è più costituito da 4 dimensioni, ma da 11 e in qualche ipotesi 20; dimensioni nascoste e “compattificate” all’interno dello spazio-tempo quadridimensionale e perciò quindi invisibili. La teoria delle superstringhe implica ben 5 differenti teorie integrabili (Bosonica, I, IIA, IIB, HO, HE), connesse e complementari. La novità recata della teoria M sta nel fatto che queste 5 teorie sono poste all’interno di un modello unico, dove appaiono come 5 “aspetti” differenti di una stessa teoria. Però questa teoria unitaria è ancora più astratta delle 5 considerate separatamente, però si offre come TOE.  Così ne parla il fisico “stringhista” Brian Greene:

 

Così come cinque diverse traduzioni di uno stesso libro possono sembrare cinque oggetti del tutto separati a chi non conosce le lingue, le cinque teorie sembravano distinte perché nessuno aveva ancora trovato un dizionario utile per capire che tutte erano la versione dello stesso modello. Dopo che Witten l’ebbe trovato, questo “dizionario” fu un’efficace dimostrazione del fatto che esisteva un’unica “fonte” comune ai cinque tipi di teoria di stringa. [38]

 

Quasi inevitabile che la teoria M , una sorta di grandioso e complesso congegno matematico (ma privo di riscontri) finisse per venire vista come una “religione” dai suoi detrattori, spaccando il mondo dei fisici in quattro categorie rispetto ad essa: i sacerdoti, gli agnostici, i bestemmiatori, i sacrileghi. Sotto il profilo teorico la frontiera aperta è quella delle p-brane, corpi multidimensionali dove p indica il numero di dimensioni (una stringa è una 1-brana, una membrana una 2-brana e così via). Spiega anche perché la gravità è molto più debole dell’elettromagnetismo, in quanto il gravitone è visto come una stringa a loop (a cappio) che sfuggendo alla materia “branica” appare debolissima. Altra conseguenze è che il big-bang non è più l’inizio dell’universo ma una fase secondaria derivata da una perturbazione del vuoto quantistico originario; in tale prospettiva il nostro è solo “uno” dei possibili universi esistenti. Ipotesi che peraltro era già stata avanzata anche in altre teorie estranee alle stringhe.  

 

                            

              

                                   5.4  La storia del cosmo nel modello standard

                 

    A titolo informativo (chi ne è informato può passare oltre) narreremo sinteticamente per flash, o fotogrammi come li chiama Weinberg,  la storia iniziale del cosmo secondo un MS che corrediamo di un approssimativo prebigbang. Prima dell’universo non c’era infatti né spazio né tempo e né materia, ma forse solo una sorta di “mare” quantistico in quiete, sicché si pensa ad una “turbativa energetica” (con formazione di una “bolla” quantistica) quale evento iniziale. Il bigbang (il Grande Botto) resta però il presumibile istante storico, iniziale o meno, in cui il nostro universo è nato. La plausibilità nasce dal rilevamento, nel 1964, della radiazione cosmica di fondo, quale “traccia” di quell’istante. Per quanto riguarda l’età del cosmo il satellite WMAP nel 2001 ha permesso di fissarla a 13,7 miliardi di anni circa fa, dopo esser partiti dai biblici 6.000 anni fissati nel ‘600 dal teologo Ussher [39]. Più importante di questo valore è tuttavia la ricostruzione della fenomenologia dei primi tre minuti

    Rammentiamo che il big-bang, senza un pre-bigbang, è  una singolarità considerata un “assurdo fisico” poiché in essa i parametri assumono valori infiniti; però, un “prima” si sottrae ad ogni spiegazione fisica [40]. Una singolarità esplosiva e la bolla di gas rovente che l’ha immediatamente seguita può far pensare al “Fiat lux!” del terzo versetto della Genesi, per cui il bigbang è utilizzato a sostegno della creazione “ex nihilo” secondo la Bibbia [41], per quanto in questa “prima” vengono creati il cielo e la terra e soltanto “dopo” la luce, mentre col big-bang è l”inizio di tutti gli inizi”. Fu Georges Lemaître (1894-1966) un astronomo belga e prete cattolico (a torto poco ricordato [42]) che nel 1931 formulò una teoria cosmologica che vedeva nell’esplosione di un atome primitif  l’origine del nostro universo in accordo col testo sacro. Dopo il bigbang, convenzionalmente il tempo zero, o lo 0 secondi dall’inizio, e sino a 10-43 s (con temperatura = 10 32 °K) si ha l’era di Planck, c’è solo un minuscolo grumo pesantissimo di pre-materia a una temperatura di 10 32 K°al termine della quale nascono i gravitoni. Successivamente, a 10 -36 e ad una temperatura di 10 28 K°, c’è l’èra dell’inflazione, nella quale si rompono le simmetrie e l’universo accelera improvvisamente l’espansione, aumentando vertiginosamente il suo volume. 

    A 10-36 s dal bigbang si verifica, in base a quanto teorizzato da Alan Guth nel 1981, un’accelerazione esponenziale dell’espansione, ad una velocità superiore a quella della luce. Per avere un’idea dell’entità del fenomeno ricordiamo che è stato calcolato un raddoppio del volume ogni 10-34 s, quindi un aumento di 217 per un intervallo di 10-2 s. Fenomeno così notevole che avrebbe determinato un’omogeneizzazione di quel nucleo cosmico originario, per cui lo spazio e il tempo si sono fusi in spazio-tempo rendendo l’universo “piatto” [43] e generando “orizzonte” uguale in tutte le direzioni. Sono passati ventotto anni dal primo annuncio nel 1981 della teoria inflazionaria di Alan Guth [44] e non si è trovato ad oggi nulla di meglio per spiegare la fenomenologia cosmica; anzi, sono venute ulteriori conferme sulla sua plausibilità. A 10 -35 e a 10 27 K° circa, ora con una velocità d’espansione ridotta, nel cosmo inizia l’èra dei quark: nascono miscugli di quark e gluoni. Essa dura sino a fino a 10 -6 sec. e con una temperatura scesa a 10 13 K°: e i gluoni cominciano ad aggregare i quark in protoni e neutroni. Successivamente (da 10 -4 sec. a 1/100 di sec.) i fotoni sono più liberi di collidere, creando particelle e antiparticelle che però subito si annichilano riproducendo fotoni e grandi quantità di energia libera. Ma, quel che è più importante, si verifica un minimo prevalere delle particelle sulle antiparticelle, sicché da questo momento l’universo diventa fatto di materia, mentre l’antimateria pare sparita. [45]

    Dopo circa un centesimo di secondo dal bigbang la temperatura è circa 1011°C (100.000.000.000 °C) [46], una temperatura alla quale nessun nucleo atomico può sussistere, mentre il grumo di materia-energia primordiale ha ora una densità scesa a 4.000.000.000 Kg/dm3. Elettroni, positroni, neutrini e fotoni nascono e si distruggono in una ridda creativo-annichilativa caotica. Il minuscolo grumo di plasma densissimo e caldissimo nel quale c’è già tutta la materia dell’universo prosegue la sua espansione alla velocità dei fotoni, da noi espressa come costante di spazio tempo al § 5.1. L’espansione prosegue e gli sviluppi seguono le leggi fisiche note e dopo l’era dei quark (10 -35 s – 10 -6 s) si ha l’era degli adroni (10 -4 s – 0,1 s ), poi a 0, 3 s dal big-bang, ad una temperatura ormai scesa a 4.000°K ha inizio l’era della radiazione col disaccoppiamento dei neutrini. A tre minuti dal bigbang l’universo è costituito principalmente da fotoni, neutrini e antineutrini [47], tutte particelle a massa 0, le uniche che possano esistere ad energie corrispondenti a 30 miliardi di gradi. L’espansione continua abbassando ulteriormente la temperatura in una fase che dura 300.000 (con un calo della temperatura da 10 31 a 10 27  gradi Kelvin).  Passata quest’èra comincia finalmente a crearsi la materia nelle forme del nostro attuale universo (si parla infatti di èra della materia) con la temperatura precipitata a “soli” 4.000 ° K.  Quella soglia cosmica che potremmo chiamare “delle alte energie” è finita e possono apparire le prime strutture chimiche: le molecole di idrogeno e poi quelle di elio, i due elementi che dominano tutt’ora lo spazio cosmico.   

    Ma nell’era della materia (o della ricombinazione) sono successe anche altre cose, innanzitutto i gravitoni sono ora capaci di addensare le particelle, poiché è diminuita la pressione della materia totale e della radiazione ad essa associata [48]. Sino a questo momento il cosmo era dominato dalle leggi della meccanica quantistica; da adesso è invece la gravità ad essere determinante (e con essa le leggi della relatività). Le radiazioni e le masse si disaccoppiano, diventano elementi termodinamici indipendenti e con futuri differenti, i fotoni smettono di reagire con la materia diventando solo più generatori di elettromagnetismo. Non interagendo più con altre particelle essi si spandono e illuminano il cosmo, mentre i bosoni nucleodeboli e i gluoni assemblano adroni ed elettroni in elementi più pesanti [49], sino a generare stelle e da esse galassie. Si crea quell’anisotropia termica che dura ancor oggi, poiché i fotoni, che sono un miliardo più numerosi di tutti i fermioni in circolazione (e generano entropia nella stessa misura) determinano la temperatura dell’universo. Per contro, la densità di massa della materia barionica (protoni e neutroni) è mille volte superiore a quella della radiazione fotonica, sicché la velocità di espansione dell’universo rimane enorme, “frenata” soltanto dai gravitoni. 

    La fase che segue l’èra della materia vede il cosmo sempre meno omogeneo, cominciando a strutturarsi e a differenziarsi su scala locale, dando luogo a materie “formate” come stelle che si assemblano in galassie, ammassi di galassie e super-ammassi. Mentre la materia barionica primordiale ed informe (protoni + neutroni) è collassata, raggrumandosi in materie organizzate, si rivela quel paesaggio cosmico definito che però è solo il 4% del totale, mentre il restante 96% sappiamo che certamente esiste (poiché se ne colgono gli effetti gravitazionali) ma non possiamo “vederlo”. Forse che i nostri strumenti, fatti di materia “visibile” e funzionanti ad energia “nota”, potrebbero essere inadeguati a rilevare materia ed energia “oscure”?  Da un paio di decenni si pensa a due categorie di particelle candidabili a costituire la materia oscura, una prima rappresentata da neutrini pesanti e una seconda dalle WIMP (weakly interacting massive particles). In quanto all’energia scura, la componente principale del cosmo col 73% del totale, con azione antigravitazionale, nessuna ipotesi è per ora formulabile.   

    Ma torniamo alla “materia chiara”: abbiamo visto che atomi di idrogeno, di elio, di deuterio e forse di litio cominciano ad aggregarsi per formare molecole che si addensano in masse gassosi (le cosiddette nubi proto-galattiche) che presto cominciano a collassare intorno a grumi di materia più pesante. Quando la gravità di questi “nuclei formativi” è diventata eguale alla pressione della radiazione, raggiungendo un equilibrio esterno-interno, nasce una sorta di motore energetico ad opera dei gluoni: sono nate le prime stelle. Esse “si accendono” e nel contempo, sotto l’azione dei gravitoni, si raccolgono a miliardi per formare galassie (legandosi in sottosistemi di vario tipo [50]). Queste si raccolgono a loro volta in ammassi e gli ammassi in super-ammassi. Siamo a 500 milioni di anni dopo il Big-Bang e lo stato del cosmo a quel momento è grosso modo già quello attuale. Ma quante sono le tipologie delle stelle? Molte. E dei corpi celesti in generale, caldi e freddi? Innumerevoli. È nato un pluralismo galattico sterminato e casuale in cui ci sono stelle “di tutti i colori” (in base alla temperatura interna): a coppie, gemelle, che si respingono, che si attraggono, che si cannibalizzano. Dopo i successivi 500 milioni di anni questo universo è ormai diventato macroscopico, eppure è ancora solo circa 1/5 di quello attuale [51]

    A questo punto dell’espansione si è già verificata la separazione dei fotoni dalle altre particelle e un disequilibrio, poiché a livello termodinamico generale si ha una radiazione omogenea, ma a livello locale tutto è disomogeneo e caotico. Momento critico perché basterebbe che i parametri evolvessero in modo differenti e il cosmo andrebbe verso la cosiddetta” morte termica”. Ma ciò non avviene, perché l’entropia della radiazione fotonica, enormemente maggiore di quella della materia barionica, ha assunto un valore (intorno a 10 9 ) che stabilizza tutto. Se infatti l’entropia barionica (definita anche “specifica”) fosse maggiore della fotonica si avrebbe un cosmo costituito da un gas molto denso (in linguaggio fisico, un plasma) senza formazione di stelle e galassie. Se, viceversa, fosse minore, l’idrogeno appena formato si trasformerebbe in elio e potremmo avere ammassi di materia vaganti, ma non ci sarebbero fotoni e l’universo sarebbe completamente buio. Esso è invece pieno di luce grazie ad essi ed è termodinamicamente chiuso, con l’entropia in continuo ma regolare aumento. Ciò avviene, appunto, perché la gravità negli agglomerati barionici frena l’espansione e “la controlla”. Se i fotoni determinano la temperatura dell’universo i barioni ne determinano la dinamica espansiva. Ciò fa si che, in un certo senso, non vi sia “scambio” tra spazio-tempo cosmico e materia locale (ammassi, galassie, stelle), sicché questa e quella paiono sussistere “indipendentemente”.

    Rimangono tuttavia da definire le funzioni della materia oscura e dell’energia oscura, probabilmente questa si somma alla materia barionica nel determinare il ritmo espansivo. L’energia-forza oscura, l’agente espansivo, sarebbe non solo quantitativamente dominate l’universo, ma agente sia formativo che distruttivo delle galassie. A dircelo un articolo su Le Scienze relativo a un recente studio americano:

 

L’energia oscura domina il nostro universo. E non solo ha impedito alle strutture cosmiche, come gli ammassi di galassie, di crescere ed evolvere ulteriormente, ma finirà anche per causarne la disgregazione. È questa la scoperta, combinazione di anni di studi e osservazioni, realizzata da un gruppo di astronomi guidato da Alexey Vikhlinin dello Smithsonian Astrophysical Observatory di Cambridge, in Massachusetts, e pubblicata in due diversi articoli sull’”Astrophysical Journal” del 10 febbraio 2009. Per condurre la ricerca Vikhlinin e collaboratori si sono avvalsi delle osservazioni d Chandra, i telescopio orbitante per raggi X lanciato dalla NASA nel 199 per l’osservazione dei fenomeni cosmici alle alte energie, andando a studiare in particolare l’evoluzione di alcune decine di ammassi di galassie attraverso l’analisi dell’emissione X del caldissimo gas intergalattico in cui gli ammassi stessi si trovano immersi. [52]     

    

    Se la poca materia che  ci è nota fluttua in un oceano di vuoto dominato dall’energia oscura, ma pare “determinata” da valori interpretabili come ad hoc, dobbiamo dedurne che l’universo è così perché altrimenti non esisterebbe, e che “perciò” deve avere alle spalle un intelligent design? I sostenitori di questa tesi (i creazionisti e i necessitaristi) dovrebbero dimostrarci che questo è l’”unico” processo formativo possibile, escludendo ogni altro universo ed “altri” processi “non andati a buon fine”; ciò non certo per l’assenza di condizioni tali da renderli possibili o “abortiti”, ma perché “non voluti” o “non necessitati”. Non dimostrabile ed ancor meno che questo sia l’unico degli universi possibili: l’onere della prova di un universo o “voluto” o “necessitato” tocca a chi se lo inventa e non pare proprio che un Dio-Volontà o un Dio-Necessità creatori siano più plausibili di un cosmo poco probabile. La fisica teorica ha dimostrato negli ultimi decenni che il mondo subatomico nella sua stocasticità ammette una pluralità di processi evolutivi da fluttuazioni causali. Il kenón (la leucippea fucina del divenire) e la sua fenomenologia dimostrano che le possibilità cosmogoniche possono essere infinite e contemporanee. La ricerca fisico-cosmologica si sta orientando sempre più verso tesi dell’esistenza di molti o addirittura infiniti universi, con il nostro “uno dei tanti” derivanti da alterazioni casuali del vuoto quantistico originario accanto a molti altri, “riuscito” a fronte dei molti “abortiti”. D’altra parte, ciò che è divenuto “c’è” (e quindi si autotestimonia con la sua esistenza) mentre ciò che non è divenuto “non c‘è” e (quindi non può farlo).

   Ciò che può raccontare la sua storia e soltanto ciò che c’è “qui ed ora”, mentre ciò che non c’è (ma può esser stato) non può farlo. Noi constatiamo l’esistenza di “questo” universo perché “ne siamo dentro”, mentre non possiamo sapere assolutamente nulla di ciò che “sta fuori” del nostro (limitatissimo) orizzonte cognitivo. A chi sostenesse che porre qualcosa oltre il nostro orizzonte cognitivo sia senza senso, facciamo notare che il concetto stesso di “orizzonte antropico” pone l’alterità logica dell’extra-antropico nella stessa misura in cui in fisica l’orizzonte degli eventi segna il confine tra il conoscibile e il non-conoscibile; così come nessuno può dimostrare il “nulla”. Se si riesce ad immaginare un Dio creatore che sta “fuori” o “dentro” l’universo fisico non si vede come si possano escludere ne i “fuori” né i “dentro” esclusivamente fisici. La nostra conoscenza è così limitata che non riusciamo a sapere quasi nulla di ciò che sta appena fuori della nostra galassia per una pura questione di “distanza”, immaginarsi il lontano o il “dentro” un atomo. Noi non possiamo sapere assolutamente nulla “neppure” di che tipo e quanti siano gli innumerevoli pianeti orbitanti attorno a quei miliardi di miliardi di stelle che sappiamo esistere ed abbiamo in minima parte identificato. Tra sconosciuti ed inconoscibili pianeti, alcuni o molti potrebbero essere calcati da esseri viventi, e magari ospitare animali pensanti che si sono creati anch’essi un Dio-Volontà e un Dio-Necessità, ma del “loro tipo”.  

 

 

                                  

 

                                        5.5 Il fisico, il meta-fisico e l’extra-fisico

 

    Abbiamo considerato a più riprese le opposizioni teoriche tra il fisico e il metafisico, cioè tra le speculazioni dell’ontologia filosofica e quelle dell’ontologia teologica, e siamo entrati ripetutamente nel merito del perché il pluralismo sia concezione filosofica e il monismo invece metafisica. Abbiamo anche sottolineato come la filosofia cerchi nel limite del possibile di fare riferimento a singole entità reali mentre la metafisica largheggia nell’utilizzo degli insiemali. Ricordiamo che le energie si denotano in forme diverse e che i fotoni, nei vari stati energetici (lunghezza d’onda/frequenza) ne sono espressione pervasiva e massiva, ma che le energie sono anche da considerarsi (attraverso la cst) corrispettivi di masse, in esse convertibili e da esse riconvertibili. Le masse dei fermioni sono infatti i differenti “mattoncini” del nostro universo, tenuti insieme da bosoni quali loro legagenti che li fanno stare insieme e formare atomi, molecole, cellule, DNA, materia cerebrale, pensiero filosofico e pensiero filosofale creatore di divinità e di spirito. La metafisica crea le ipostasi e la filosofia indaga quei divenienti che sono i fermioni come masse-energie e i bosoni come legagenze e metaforici “colle-calci-cementi” aggreganti i mattoncini. Bosoni sempre attivi nel costruire realtà e in numero di almeno 13 (8 gluoni + 3 nucleodeboli + fotone + gravitone) più l’higgsone come probabile 14° (e forse il dilatone come 15°). Non ci interessa andare oltre nell’elencazione anche se conosciamo come i mesoni (costituiti da due quark), che sono adroni instabili e quindi non nel cosmo reale in quanto instabili, ma partecipi di molti processi subnucleari.

    La filosofia deve necessariamente delimitare l’ambito della sua indagine in riferimento alla realtà antropica e a quella cosmica a nostra portata, senza concedere nulla alla fantasticherie ontologiche ma aprendo le porte alle fantasticherie poetiche, che sono sempre le benvenute e grazie alle quali “viviamo” e non solo “sopravviviamo”.  Il “poetico” è sempre coniugato con la filosofia, di cui costituisce l’estetica, il fisico è inconciliabile col meta-fisico ma non con l’extra-fisico, di cui anzi ha un gran bisogno per non ridurre l’orizzonte umano a ontologia e gnoseologia ma farne esistenzialità. La visione probabilistica e inconciliabile con quella finalistica delineando un orizzonte aperto e possibilistico contro quello chiuso e deterministico; da quest’apertura si intravede il pluralismo ontologico da noi posto in Necessità e libertà e definito là ipotetico, mentre come reale qualificavamo il pluralismo ontofisico di cui ci stiamo qui occupando. Il fatto che a tredici anni di distanza vediamo la necessità di riformulare i termini (ma non i concetti-base) è la conseguenza della ricerca ontologica di tutti questi anni. Essa ha riguardato la sfera del fisica in profondità ed estensione, dall’infinitamente piccolo all’infinitamente grande, da ciò la possibilità di nuove definizioni.

    Il pluralismo ontofisico d’altra parte non risponde a qualche nuova weltanschauung ma si sviluppa all’interno di quella del pluralismo ontologico e si coniuga col dualismo antropico reale, il primo concernente la sfera del fisico, il secondo quella dell’extra–fisico. Il pluralismo ontofisico, è “interno” pluralismo ontologico e completa l’esistenzialistico dualismo antropico reale come il suo indispensabile correlato ontologico. È estremamente importante capire che l’extrafisicità non ha nulla che fare con la metafisicità, perché il metafisico è ciò che preesiste al fisico e lo fonda, che gli sta “sopra”, “sotto” o “dentro”. L’extrafisico è invece “altro” dal fisico, lo accompagna e gli sta “accanto” o secondo l’espressione a suo tempo adottata, gli è al margine. All’unica realtà extra-fisica che è dato “sentire” e “intuire” realmente ed effettualmente all’homo sapiens gli abbiamo dato il nome di aiteria e di essa così parlavamo:

 

Perciò, quando tratto dell’aiteria, sono consapevole di non poter fare appello alle facoltà razionali del lettore, in quanto funzioni mentali “deduttive e computazionali”, ma devo ripetere ancora che essa può invece essere soltanto oggetto di un’operazione sinergica tra intelletto ed idema, vale a dire conseguente all’attività di una facoltà intellettiva come l’intuizione coniugata con l’idemale sensibilità intuitiva. Ciò non significa che la ragione rimanga estranea a questa operazione, poiché ad essa va affidato il controllo delle asserzioni concernenti l’aiteria affinché esse siano sempre perlomeno conformi a ciò di cui è possibile avere nozione, poiché tali asserzioni non debbono mai confliggere con le conoscenze certe che la ragione stessa ratifica. Quindi, sicuramente, questa rimane una “guida” per l’elaborazione dualistica, ma non può esserne sempre anche “strumento”. Questa è la ragione per cui devo introdurre ed accennare preliminarmente a quell’altra facoltà (l’intuizione) a cui ho affidato le “ragioni” della filosofia che propongo per quanto concerne tutto ciò che non è percepibile, conoscibile e razionalizzabile. [53]

 

È con una certa prudenza che 1995 vedevamo l’aiteria, cioè l’extrafisico alla nostra portata. Venivamo dal materialismo radicale e qualche incertezza era inevitabile. Oggi ci sentiamo più sicuri e confortati dall’esperienza. Non si vive solo di ragione ma anche di intuizione idemale ed è questa a regalarci una “sale della vita” che la ragione da sola non potrebbe darci. Non abbiamo disconosciuto la ragione come guida del nostro pensare, abbiamo solo riconosciuto oltre ad essa, all’intelletto e alla psiche un’altra funzione mentale, l’idema, la parte più intima e profonda della nostra individualità. Aggiungevamo:

 

 Solo di ciò che è percepibile (dai nostri sensi o da adeguati strumenti scientifici) è possibile infatti una vera conoscenza, anche se pur sempre in termini antropici. E tuttavia la nostra nozione della realtà non può limitarsi a questo. Se così fosse sarebbero irreali la maggior parte delle origini e delle cause delle nostre emozioni più profonde e incisive. Quindi negare realtà, per un riduttivo concetto positivistico, a tutto ciò che esorbita il “verificabile” è un autolesivo chiuderci gli orizzonti. Le nostre facoltà mentali al di fuori della ragione sono così vaste che nessuna persona “ragionevole” se ne può privare. Bisogna guardarsi da ogni forma di autosuggestione e illusione, ma occorre tenere presente che il nostro intelletto si rapporta al mondo per lo più attraverso vie non-razionali. Tra queste, la più importante è certamente l’intuizione. [54]   

 

Naturalmente non potevamo che escludere ogni elemento intuitivo dal presente lavoro, nel quale ci siamo sforzati (per quanto ne siamo capaci) di obbedire solo alla ragione, e tuttavia il DAR riceve ora maggiore definizione dalla cornice cosmologica e ontologica di cui il pluralismo ontofisico è portatore. Quel che è importante ribadire è che noi riconoscendo nell’aiteria un extrafisico non concediamo assolutamente nulla al metafisico da cui ci manteniamo lontanissimi. Aggiungeremo, anzi, che l’orizzonte dell’extrafisico ha potuto essere posto sulla base della definizione del fisico e in antitesi al metafisico. L’extrafisico infatti non è concerne nessuna sostanza-essenza-verità come il teologico, ma deriva da un atteggiamento post-materialistico che riconosce causalità indipendente, aiteriale, nel sorgere degli affetti, delle emozioni etiche ed estetiche, degli entusiasmi della conoscenza e della scoperta. 

 

 

 

 

                               5.6 Realtà-irrealtà, unità-pluralità, qualità-quantità

 

    Per quanto gli argomenti del titolo siano già stati accennati dobbiamo precisarli, perché la scienza teorica che si occupa del mondo subatomico è in alcune sue linee interpretative va in direzioni  opposte alle nostre. Le particelle elementari offrono infatti un quadro di tale virtualità, mutevolezza, convertibilità, commutabilità, interscambiabilità, ri-trasformabilità che pare inevitabile la tendenza ad una totale loro de-individuazione con conseguenti ipostasi moniste. Vi è poi chi, spingendosi oltre, arriva a vedere il mondo quantistico come “virtuale”, “inconsistente”, “fluttuante” (d’altra parte è fatto in buona parte di “onde”!), “immateriale” e persino “spirituale”. Caratteristiche in buona parte vere della realtà quantistica che si prestano a funambolismi teorici audaci. Una prima questione quindi è: esiste una realtà quantistica o no? E di converso: il mondo quantistico può essere considerato irreale? È chiaro che le risposte a quesiti di questo tipo dipendono dal concetto che si ha di realtà, poiché il punto di vista metafisico che pone il “reale = vero” nell’immutabile, come pensavano Parmenide, Platone, Aristotele e molti altri dopo di loro, il mondo quantico ovviamente reale non è. Se invece si pensa contro-metafisicamente che la realtà sia movimento, divenire, evoluzione, fluttuazione, mutevolezza, allora esso può apparire come il massimo della realtà.

    I fisici teorici, in realtà fisico-matematici, non sono però affatto interessati a tali problemi, per loro secondari o irrilevanti. Essi si limitano a registrare correttamente le mutevolezze-convertibilità-interscambialità delle particelle elementari ed ovviamente non si pongono problemi, oziosi dalla oro posizione, circa concetti ontologici come quelli di unità o di pluralità. Concetti che invece sono per la filosofia dirimente per la visione del mondo che essa può delineare. In ragione di quanto sopra possiamo temere che il pluralismo ontofisico perda credibilità proprio là dove ha posto una delle sue basi? Pensiamo proprio di no, ma anzi che ne esca rafforzato, poiché mutevolezze-convertibilità-interscambialità possono caratterizzare una realtà pluralistica e non certo una unitaria; infatti quanto più c’è mutevolezza-convertibilità-interscambialità e tanto meno c’è unità. Unitario può essere considerato semmai solo il vuoto quantistico che precede ogni realtà attuale; può esistere quindi “un” vuoto quantistico quando non esiste alcuna realtà. Questa si dà esclusivamente nel momento in cui delle particelle nascono “saltando fuori dal vuoto”, ed è per mezzo di esse che nasce una realtà, una realtà pluralistica creata dai “molti” e “differenti” enti hyletici che la formano e la determinano.

    Naturalmente non contestiamo affatto i punti di vista dei fisici teorici non collimanti col nostro, essi sono perfettamente giustificati e legittimati dagli stessi procedimenti teorico-matematici, che devono evidenziare gli aspetti peculiari della materia sub-atomica che la distinguono radicalmente dalla sur-atomica. Non solo, le mediazioni-interazioni sono il nocciolo duro della fisica teorica ai fini dei calcoli relativi alla fenomenologia subatomica, essi interessano il fisico molto più per i “come” funzionano che per i “che-cosa” le determinino e siano. Quindi che i fisici lavorino con la matematica ed elaborino definizioni matematiche relative alla fenomenologia quantistica per i suoi “funzionamenti” assai più che occuparsi della natura delle “cose” quantistiche è comprensibile e opportuno. Sono le caratteristiche dinamiche e computabili di una particella gli oggetti della fisica teorica, poiché di essa interessa il “ciò-che-fa”, “come-lo-fa”, “come–si-misura” e “quanto-vale”. Su questo punto la fisica e la filosofia si devono dividere; i “calcoli” dei teorici da una parte e le considerazioni ontologiche dall’altra. Dal punto di vista filosofico è privo di senso parlare di “realtà quantistica” bensì di innumerevoli “reali quantistici” ma per il fisico è indifferente.        

    In Necessità e liberta avevamo sottolineato come la materialità abbia come fattori fondamentali le quantità, mentre le qualità sono apparenti, riducibili direttamente o indirettamente a valori di densità, intensità, rapporti, frequenze ondulatorie, ecc. Luci e colori sono infatti frequenze di fotoni, i suoni frequenze di fononi, gli odori molecole volatili, le forme dei cristalli rapporti atomici, e così via. Siccome nell’universo attuale, espanso, freddo e a bassa energia, tutto è discreto e a base di esso stanno le moltitudini di particelle elementari, spesso “transitorie”, dobbiamo tornare su alcuni aspetti della pluralità ontica elementare. Ricordiamo che i costituenti della materia reale sono, in sintesi: 4 tipi di fermioni (quark up e down, elettroni e neutrini elettronici) e 4 tipi di bosoni (gravitoni, fotoni, gluoni e bosoni nucleodeboli), con i gluoni in realtà di 8 sottotipi e i bosoni nucleodeboli di 3. Quark up e down sono rispettivamente in quantità di 2 +1 nei protoni e 1 + 2  nei neutroni, questi due tipi di adroni (lett. = “pesanti”) costituiscono il nucleo degli atomi, sempre positivi per il prevalere dei protoni. Gli elettroni (a carica negativa) definiscono l’atomo come una struttura sistemica, orbitando intorno al nucleo a vari livelli energetici, tanto più alti nei più periferici e lontani dal nucleo. Il numero degli elettroni pareggia la carica positiva del nucleo sicché l’atomo è neutro e stabile, occupando un volume pressoché costante indipendentemente dalla sua massa totale. Ce ne spiega la ragione Kenneth Ford:

 

Tutti gli atomi, dall’idrogeno [p.a. = 1] all’uranio [p.a = 92] e oltre, risultano avere suppergiù tutti lo stesso raggio. La cosa può esser spiegata in termini della competizione energetica appena descritta. Se ci fosse solo un elettrone in circolazione attorno al nucleo di uranio, l’atomo sarebbe circa novantadue volte più piccolo di quello di idrogeno […] Ma via via che nuovi elettroni si aggiungono, vanno ad occupare regioni sempre più estese; il novantaduesimo e ultimo elettrone si unisce a una comitiva costituita da novantadue cariche positive [dei protoni] e novantuno cariche negative [degli altri elettroni]. La carica netta percepibile è positiva e unitaria, proprio come nel caso dell’idrogeno, e dunque l’elettrone si assesta in uno stato di moto simile a quello del solitario elettrone dell’idrogeno. [55]

  

    Ciò che deve essere ribadito con chiarezza è che il sistema-atomo non crea né determina quark, gluoni, elettroni e fotoni, poiché sono questi a crearlo. Per aiutarci a chiarire che cosa “non sia” il sistema-atomo lasciamo la parola al fisico teorico Gian Carlo Ghirardi in riferimento ai modelli pre-quantistici:

 

Il fatto che l’atomo abbia una estensione limitata comporta che le cariche in esso presenti devono muoversi su orbite circolari o ellittiche (a somiglianza del caso dei pianeti) e quindi possiedono un’accelerazione. Ma secondo le ben confermate leggi dell’elettromagnetismo (le equazioni di Maxwell), una carica accelerata emette inevitabilmente onde elettromagnetiche, cioè irraggia. Irraggiando essa perde energia e quindi la sua orbita si restringe portando la particella a cadere, in tempi brevissimi, sul nucleo. Un calcolo esplicito porta a concludere che ogni atomo dovrebbe avere una vita estremamente effimera [56]    

 

Ma ciò non è. L’atomo non funziona secondo la fisica classica all’opera specialmente nella RgG, dove sono i gravitoni a dominare, ma secondo quella quantistica della RgP, dove operano gli altri tre tipi di bosoni. Sia fermioni che bosoni sono comunque, allo stesso tempo, “cose” e “fluttuazioni”, “oggetti” e “funzioni”. Ora, se come cose-oggetti sono rigorosamente quantificabili, come fluttuazioni-funzioni parrebbero qualificabili.

    Un quadro così oscuro e indefinito è però così sgradevole che forte è la tendenza a manipolarlo per ottenerne uno chiaro e definito, e spinta cogente è sempre la sognata “armonia” cosmica coniugata con la sua “perfezione”, tanto smentite dai fatti quanto continuamente riconfermate nei desideri dei fisici-teologi (che sono incredibilmente tanti!)  Tra essi uno tra i più simpatici e garbati è certamente Freeman Dyson, fisico di prim’ordine ma con qualche sogno di troppo che abbiamo già citato, il quale sostiene:

 

La particolare armonia fra la struttura dell’universo e le esigenze della vita e dell’intelligenza è una terza manifestazione dell’importanza della mente nello schema della realtà. Come scienziati non ci possiamo spingere oltre. Abbiamo la prova che la mente è importante a tre livelli diversi [con fisica subatomica e esperienza umana]. [57]

 

Che il cosmo sia armonico e perfetto l’avevano già detto Platone e Aristotele e tutti i santi del Cristianesimo quanto razionalisticamente lo aveva ribadito Cartesio, Spinoza e Leibniz. Le dovizie logico-matematiche del devoto “teodiceo” tedesco sono note e dal più al meno corrispondono a quanto poi sosterrà anche quell’ateo materialista di Laplace che leibniziano non era. Celebratori di Dio o negatori di Dio non fanno differenza per il monismo-tuttismo-armonicismo-perfezionismo-determinismo, poiché la malattia monistica non è un influenza che passa, ma un imprinting profondo con cui dovremo fare i conti ancora molto a lungo.   

    Non possiamo però esimerci dall’affrontare una questione sottile quanto insidiosa circa la legittimità del nostro sostenere che la realtà sia fondamentalmente fatta di fermioni e di bosoni, rispettivamente come mattoncini e cementi dell’universo. In questa prospettiva le masse e le energie parrebbero poter essere viste come elementi cosmici derivati, mentre “la” energia in generale parrebbe essere all’origine del tutto. E ciò non solo per il fatto di potersi convertire in massa, ma perché appare anche come l’”agente trasformatore primario” in moltissimi processi fisici fondamentali reali e supposti. Si pensi anche al fenomeno dell’annichilazione elettone/positrone (e- + e+ 2γ),  qui in effetti noi abbiamo un fermione che scontrandosi col suo omologo anti-materiale produce bosoni. Ora, non c’è dubbio che il positrone non sia un bosone ma un fermione (per quanto anti), il fatto è però che la realtà di cui ci occupiamo e a cui la nostro filosofia fa riferimento (né potrebbe riferirsi ad altro) è fatto di materia, perché questa l’ha avuta vinta sull’antimateria a 10-4 sec. dal bigbang grazie al vantaggio convenzionale di 1.000.000.000 +1 particelle rispetto a 1.000.000.000  di antiparticelle.      

    Ma la realtà della materia non è la sola ragione. La particolarità dei bosoni rispetto ai fermioni (soggetti al principio di esclusione) è di potersi ammassare in spazi anche ristretti creando campi energetici. Fotoni e gravitoni sono anche espressioni di energie i quanto “le spostano” e “le convertono”, e siccome l’energia è movimento, quanto più un bosone è leggero e tanto più ne può portare. I fotoni, essendo privi di massa, sono latori ideali di energia non solo da una parte all’altra del cosmo ma anche dentro l’atomo. Elemento ulteriore è che mentre il numero dei fermioni nell’universo si può pensare costante, ciò non vale per i bosoni, il cui numero può cambiare [58] grazie ai loro stati sia reali che virtuali e alla loro varietà energetica. Si possono poi intravedere due specie di abbinamenti primari di bosoni-energie e di fermioni-masse, e altri secondari di bosoni-masse e fermioni-energie, poiché vi sono sia bosoni di massa rilevante come quelli nucleodeboli e sia fermioni molto energetici nella radioattività.

    Posto che bosoni e fermioni si possono considerare qualitativamente differenti, la domanda è semmai: perché queste due categorie di particelle elementari? Kenneth Ford ci aiuta a capirlo:

 

Il principio di esclusione non afferma che, dati due fermioni, questi non possono trovarsi in uno steso stato di moto: afferma che in uno stesso stato di moto non possono trovarsi due fermioni dello stesso tipo (due elettroni, o due protoni, o due quark up rossi). Analogamente, sono solo i bosoni a  mostrare una spiccata tendenza ad aggregarsi nello stesso stato di moto. Se ogni particella dell’universo  fosse diversa da tutte le altre, anche per un qualsivoglia minuscolo dettaglio, non importerebbe molto che fosse un fermione o un bosone, giacché in quel caso non ci sarebbe alcun divieto per i fermioni confratelli di occupare lo stesso stato di moto, né viceversa alcun incentivo a farlo per i bosoni. […] Il fatto che nel mondo subatomico si trovino oggetti autenticamente identici ha dunque conseguenze di portata cosmica, in senso letterale. Se, ad esempio, gli elettroni non fossero tutti esattamente identici tra loro, essi non riempirebbero gli orbitali atomici in sequenza, non esisterebbe alcuna tavola periodica degli elementi e non ci saremmo né io né voi. [59]

 

Da un punto di vista filosofico questo significa che: 1°, i fermioni mattoncini con la loro “modularità identica” permettono “ordinatamente” di assemblarsi per “addizione”a formare corpi estesi senza interferenze e sovrapposizioni. 2°, che i  bosoni-cementi possono invece sovrapporsi e sommarsi a formare campi legagenti capaci, in ragione della loro diversa intensità, di creare forze differenziate. 3°, che è la coniugazione delle differenti proprietà di bosoni e fermioni permettere l’estrema differenziazione cosmica. 4°, che la loro azione disegna il quadro fenomenologico dal semplice al complesso. 5°, che evolutivamente il divenire sino a livello molecolare è determinato dagli enti hyletici, mentre da questo in poi (a partire dalla RgM) il gioco non è più condotto da essi ma dagli assemblati caratterizzanti le varie regioni. 6°, che l’individualizzazione è una fenomeno che si pone a livello lontanissimo dall’elementarità, essendo questo il motivo per cui l’aiteria è potuta divenire accessibile alle individualità di animali di un certo livello assemblativo (dotati di idema) e assenti negli altri.      

    In se stessa molto significativa è l’equazione E = mc2 quale espressione ontologica fondamentale dell’essere fisico.. Il fatto che l’energia risulti pari alla massa moltiplicata per la velocità della luce al quadrato filosoficamente significa tre cose: 1a che l’energia è materia in movimento; 2 a che la massa è energia inattiva, 3 a che il moto è una modalità dell’energia inversamente proporzionale alla massa. A parità di stato energetico si ha che: 1° se la massa aumenta la velocità diminuisce; 2° per conferire movimento a una massa occorre cederle energia; 3° nessun oggetto fisico può viaggiare a velocità superiore alla c perché la sua massa diverrebbe infinita e per ciò stesso inamovibile. Ma ci sono anche altri fatti da considerare: 4°, la massa è la forma stabile e fondamentale della materia; 5° l’energia è quella instabile e “spendibile” per “produrre lavoro”; 6°, la velocità è l’espressione di un lavoro motorio; 7°, il lavoro è lo spostamento di masse.

    Una massa a riposo ha energia zero, se le si conferisce energia la massa si fa dinamica, se si vuole ottenere energia dalla massa si deve disgregarla (ma per far ciò occorre energia “d’impulso”). Ricordiamo che l’ousia (la sostanza) è per la teologia filosofale il fondamento immateriale dell’esser ente, con la massa accidente, il che è ovviamente falso. Quanto più vi è massa tanto più  c’è stabilità (e al limite addirittura eternità); dunque: se vi fosse qualcosa di divino esso non potrebbe che massa. All’“energia cosmica” come fantasticato fluire meta-materiale abbiamo già accennato esser altrettanto falso essendo possibili solo “stati” energetici, topici, locali, oggettuali. Nelle fusioni e nelle fissioni nucleari dove l’energia è il prodotto, la si può traduce in “lavoro”, produrre mutazioni, ma anche perdersi e disperdersi in calore. Schrödinger (che non era certo un rozzo materialista) affermava: «L’energia è un concetto “dinamico”, un concetto in primo luogo molto astratto, cui si arriva analizzando matematicamente il giuoco delle forze […] Per il fisico che fa uso del calcolo, l’energia è anzitutto nient’altro che una “costante d’integrazione”, senza dubbio molto importante delle equazioni del moto.» [60] Essa pare quasi solo una costante matematica che consente di calcolare le masse in movimento, senza realtà autonoma al di fuori di masse e di moti.

    Le masse sono la concretezza della materia e le energie la loro cinesi, perciò quelle sono sostanze “reali” del divenire. Se qualcuno immaginasse che all’origine vi fosse stata energia poi scissa in massa e movimento evocherebbe un processo divino, avvenuto per Volontà o per Necessità.  “Energia pura” sta infatti per “spirito” e se dallo spirito si è arrivati al “cosmo” esso non può essere che divino. Ma un cosmo è un fatto, uno stato, una situazione o una condizione? Difficile dirlo perché in qualunque modo lo si consideri i suoi confini sono fuori-misura per l’homo sapiens, che ha cercato costantemente di sostanziarlo per poterlo ridurre alla propria scala, ma pagando ciò sempre in “moneta teologica”: l’unica spendibile! La matematica funziona bene come lettrice di quest’entità semi-immaginaria potendo prescindere dalle realtà sostituendole con simboli, ma i simboli non possono sostituire il vuoto, le masse-energie e i legagenti né gli assemblati. Il rapporto tra masse ed energie è un’equivalenza coniugata con una differenza, essendo ciò che fa la differenza la cinesi. È quindi corretto da parte di Kenneth Ford sostenere che  se la massa è “energia a riposo” l’energia è “massa in movimento”, aggiungendo: «L’energia di massa può esser pensata come “energia di esistenza” dato che la materia possiede energia per il solo fatto che esiste.»  [61]

   La riflessione di un grande fisico-matematico come Penrose, talvolta con tentazioni teologiche ma sempre con l’acutezza e la proprietà dell’uomo di scienza, lo porta a dire:

 

In tutta la storia delle scienze fisiche i progressi sono stati ottenuti trovando il corretto bilanciamento tra le limitazioni, le tentazioni e le rivelazioni matematiche, da una parte, e dall’altra la precisa osservazione delle azioni del mondo fisico, di solito per mezzo di esperimenti accuratamente controllati. Quando la guida sperimentale viene a mancare, come nella maggior parte dell’attuale ricerca fondamentale questo bilanciamento non funziona a dovere. La coerenza matematica è ben lungi dall’essere un criterio sufficiente per dirci se è probabile che siamo sul “giusto cammino” (e, in molti casi, persino questa richiesta evidentemente necessaria è gettata al vento). [62] 

 

                                                          

 

 

                                              5.7 Il protagonismo dei bosoni

 

    I fermioni (barioni + leptoni) sono masse tenute assieme da bosoni a formare strutture fisiche, dai nuclei degli atomi alle galassie. Ne deriva che i fermioni sono masse elementari di per se stesse incapaci di produrre materia definita e concreta, ci vogliono infatti i bosoni a legarli e strutturarli. Questi creano legagenze (note la nucleoforte, nucleodebole, l’elettromagnetismo e la gravità) che aggregano o disaggregano i fermioni, distinguono le particelle, le fanno decadere, formano atomi, molecole, sostanze, stelle e altri corpi. I bosoni operano in maniere differenti e a diversi livelli con un incidenza della loro azione assemblante o disgregante (nel caso dei nucleodeboli) varia e complessa. I fermioni come attori-masse dell’essere fisico visto come un metaforico “palcoscenico” (con sfondi, quinte e macchine di scena) sono relativamente statici rispetto agli iperattivi bosoni, veri animatori dello spettacolo con la loro azione generatrice e modificatrice. In una metafora informatica vedremmo i primi essere gli hardware e i secondi i software. I due bosoni nucleari si dividono in sottotipi (8 nucleoforti e 3 nucleodeboli) operanti a brevissime distanze, mentre fotoni e i gravitoni (bosoni “spaziali”) permeano l’universo in ogni angolo. I bosoni spaziali creano campi energetici più o meno intensi, sicché tutti gli altri enti microscopi o macroscopici che si trovano nel loro d’azione ne sono condizionati. L’intensità dei campi da essi determinati e quindi il loro raggio d’azione è direttamente proporzionale al numero di bosoni per unità di volume, quindi a densità gravitazionali ed elettromagnetiche misurabili. Per quanto tutti i bosoni creino delle forze-interazioni” le differenze di intensità sono enormi. Nota Kenneth Ford:

 

Le interazioni forti [dei gluoni] superano in intensità le interazioni gravitazionali di un fattore fantastico: 1040. La colla nucleare (interazione forte) rende ridicolmente debole la colla cosmica (gravità). Le interazioni elettromagnetiche risultano meno intense delle  interazioni forti ‘solo’ di un fattore prossimo a 100, ma superano le interazioni deboli [dei bosoni nucleodeboli] dell’enorme fattore 1013. Le interazioni deboli, a loro volta, sono qualcosa come 1025 volte più intense delle interazioni gravitazionali. [63]

 

Va poi aggiunto che «quanto più forte è un’interazione tanto minore è il numero di particelle che la subiscono» e che «una particella che va incontro a un’interazione subisce sempre anche quelle più deboli» [64]  Ciò è così vero che persino le particelle a massa 0 vanno soggette all’azione dei gravitoni, i bosoni più deboli di tutti ma per questo più universali.  Forza a parte, per rendere intuibile la consistenza dei bosoni spaziali li si è immaginati come dei gas iperleggeri invisibili, con i fotoni che creano delle differenze di potenziale agli estremi dei campi elettromagnetici e i gravitoni che si addensano addosso alle masse in ragione della loro entità, degradando man mano che se ne distanziano e in ragione del quadrato della distanza.

    Accanto ai quattro bosoni noti è d’obbligo accennare a quello di Higgs, previsto dallo stesso MS come integrativo nel determinare le masse, che Ford vede come «la forma di energia più concentrata e più misteriosa». [65] Con lo higgsone il teatro della realtà fisica si fa ancora più complesso vedendo ulteriormente rafforzato il protagonismo bosonico, laddove le masse dipenderebbero da bosoni. Teorizzato da Peter Ware Higgs (n.1929) per risolvere un’incoerenza matematica del MS esso è un legagente cosmico importante, anche in quanto rende ragione del perché il fotone sia privo di massa mentre i tre nucleodeboli (W+, W- e Z0) abbiano massa notevole, essendo nati tutti dal progenitore elettrodebole per rottura di simmetria a 10 – 12 sec. dal bigbang.

    Il problema che però nasce con l’higgsone è che la massa parrebbe essere non “intrinseca” all’esistenza di una particella, ma “acquisita” ad un certo momento dell’evoluzione cosmica. Leon Lederman nota:

 

La variazione della massa con gli stati dl moto, il suo cambiamento secondo la configurazione del sistema e il fatto che alcune particelle, certamente il fotone e forse i neutrini, hanno massa a riposo uguale a zero, tutto ciò mette indubbio che il concetto di massa rappresenti un attributo fondamentale della materia. Dobbiamo poi ricordare il calcolo della massa che risulta in un valore infinito, cosa che non abbiamo mai risolto (semplicemente “rinormalizziamo” e via). Questa è la conoscenza di sfondo con la quale affrontiamo il problema dei quark, dei leptoni e dei vettori delle forze, che si differenziano per le masse. È questo che rende plausibile la storia che racconta Higgs, che la massa non è una proprietà intrinseca delle particelle ma una proprietà acquisita tramite la loro interazione con l’ambiente. [66]  

 

Ancora una volta, ciò che sembrava fondamentale non lo è e neppure ciò che appariva “proprio”, ma dal punto di vista ontologico questo fatto non la cambia molto nulla, perché essa non può occuparsi di ciò che non è ancora reale, ma deve partire da ciò che c’è, vale a dire ciò che si offre come divenire. E ciò che c’è è “questo universo freddo ed espanso” come contenitore di particelle, atomi, molecole e complessità.

    Inoltre gli higgsoni non sono operativi ad alte energie e ciò significa che al momento del bigbang essi, se c’erano, erano inattivi. Lederman afferma:

 

Il campo di Higgs com’è concepito ora può venire distrutto dalle alte energie (o alte temperature). Queste generano delle fluttuazioni quantistiche che possono neutralizzarlo. Perciò l’immagine congiunta dell’universo primitivo data dalla fisica delle particelle e dalla cosmologia, immagine pura dalle splendide simmetrie, è troppo calda per il campo di Higgs. Ma, come la temperatura/energia la sotto i 1015 gradi Kelvin o 100 GeV , esso spunta e fa il suo mestiere di generare masse. [67]   

 

Così posta la questione ci sarebbe da capire “quando” nell’evoluzione cosmica sia saltato fuori l’higgsone o gli higgsoni, facendosi strada la possibilità che essi debbano essere diversi per spiegare tutte le circostanze in cui agirebbero. Sìcché ancora Lederman:

 

Per fare il suo lavoro deve esistere, e deve essere sperimentalmente rilevabile, almeno una particella di Higgs elettricamente neutra. Questa può esser solo la punta dell’iceberg: di un intero zoo di bosoni di Higgs può rivelarsi necessario per descrivere completamente il nuovo “etere” [il mitico supposto medium ottocentesco delle onde elettromagnetiche]. [68]

 

Ciò non farebbe sicuramente felici i monisti, che vedrebbero ulteriormente allontanarsi il loro sognato Uno-Tutto.

    Vediamo perché affinché il MS sia valido debba esistere l’higgsone nelle parole di Gordon Kane dell’Università del Michigan nel suo The Particle Garden del 1995:

 

Lo stimolo per predire l’esistenza del bosone di Higgs non è la normale motivazione per le predizioni in gran parte della fisica. Se i bosoni di Higgs non esistono, non c’è infatti alcun disaccordo tra una predizione teorica e un esperimento esistente, nessun rompicapo empirico. La posta in gioco è invece l’esistenza di una teoria dotata di significato. Nella sua forma base la teoria standard è una teoria di particelle prive di massa[69]

 

Un “aggiustamento” atteso e sperato, quindi::

 

Secondo la teoria, le masse delle particelle deriverebbero dalle loro interazioni col campo di Higgs, e potrebbero quindi esser introdotte senza distruggere la coerenza della teoria stessa. Il processo per mezzo del quale le particelle ottengono una massa  è il cosiddetto “meccanismi di Higgs. […] La teoria standard con un campo di Higgs è una teoria quantistico-relativistica coerente ed è del tutto accettabile in relazione a qualsiasi criterio storico di fisica. […] Essa introduce con successo la massa per i bosoni W e Z, per i quark e per i leptoni. [70]

 

    Lee Smolin, contro ciò che chiama l’atomismo radicale di chi sostiene la fissità e l’immutabilità delle particelle, in base alla sua tesi evoluzionistica così li vede:

 

Se non ci fossero particelle di Higgs, l’elettrone non avrebbe massa, e si muoverebbe alla velocità della luce, come un fotone. Ma se si trova circondato da un gas di particelle di Higgs, un elettrone non riesce più a muoversi così velocemente. Sembra acquisire massa perché si muove, invece che nello spazio vuoto, in mezzo a una brodaglia di particelle di Higgs. Diventa più pesante perché quando ci si mette a spingerlo si spingono anche  tutte le particelle di Higgs che lo circondano. Ci sono in effetti buone ragioni per credere che il mondo sia riempito di un gas fatto di particelle di Higgs, che sono responsabili della massa dell’elettrone. [71]  

 

Se le particelle acquistano massa grazie ai bosoni di Higgs quindi non resta che attenderne l’identificazione, ma essi sfuggono ad essa perché si rivela solo ad energie superiori ad 1 TeV (un tera-elettronvolt = 1012 eV) che solo il nuovo LHC di Ginevra sarà in grado di rivelare.  L’elettronvolt (eV) è unità di misura sia dell’energia che della massa e corrisponde alla massa di un protone, per cui le masse si esprimono in eV, cioè come quantità d’energia. La massa può esser vista come una sorta di supporto del “ciò che è” [72], e non solo nel senso che le masse disegnano lo spazio-tempo incurvandolo, ma perché esse sono energie “ferme”. E proprio il fatto che la massa sia una forma di energia ha reso possibile l’unificazione teorica di elettromagnetismo e nucleodebole, poiché oltre un certo livello energetico i bosoni di assemblaggio debole assumono massa = 0, diventando equivalenti al fotone.  

    Un ulteriore cenno meritano il dilatone e l’inflatone (non previsti dal MS), da vedersi più che come altri due bosoni forse espressione di uno stesso bosone in due diverse linee di spiegazione delle primissime fasi del cosmo. L’ipotesi dell’esistenza dei dilatoni nella fase inflattiva nasce in riferimento alla teoria di Kaluza-Klein, che fin dagli ’20 del Novecento aveva aggiunto una quinta dimensione (invisibile perché “compattificata”) alle quattro dello spazio-tempo einsteniano, sì da rendere ad esso coerenti le equazioni elettromagnetiche di Maxwell. Tale modello è alla base di tutti gli sviluppi delle stringhe sino alle 11 dimensioni (7 compattificate). I dilatoni sarebbero particelle tendenti ad accoppiarsi a barioni e leptoni modificando debolmente le leggi della RelG sì da sfuggire ad ogni osservazione costituendo un fondo cosmico bosonico rilevante solo alla scala di Planck. Il fisico delle superstringhe Maurizio Gasperini così ne parla:

 

Per poter realizzare la simmetria duale è necessaria la presenza di una nuova forza trasmessa da una particella neutra e scalare (ovvero senza carica elettrica e senza spin) chiamato “dilatone”. L’importanza del dilatone nel contesto della teoria delle stringhe sta nel fatto che è proprio questo campo a determinare il valore della costante [gravitazionale] di Newton G, che a sua volta stabilisce l’intensità della forza gravitazionale […] la costante di Newton perde in questo contesto il suo ruolo di costante fondamentale della natura, e la teoria può descrivere situazioni fisiche in cui la gravità ha una forza molto più debole o più intensa del valore attuale a cui siamo abituati. Può anche descrivere situazioni in cui l’intensità della forza non è costante, ma varia da un punto all’altro dello spazio e del tempo. [73]  

 

Riassumendo, se i dilatoni esistono sono  i “relativizzatori” dei gravitoni e ciò spiegherebbe bene il fatto che la gravità possa risultare “vinta” da una forza contraria. 

    Gli inflatoni sono evocati come agenti della fase inflattiva, il fenomeno eclatante avvenuto tra i 10 -35 e i 10 -34 sec. dal bigbang, ma sono pensati solo come un tipo particolare di bosoni di Higgs («un campo di Higgs super-raffreddato» [74]). Essi sarebbero la cosiddetta “energia del vuoto” [75] e ipotizzati nell’ambito delle teorizzazioni relative alle superstringhe allo scopo di fornire una migliore spiegazione del perché ci sia stata l’inflazione, responsabile della notevole omogeneità dell’universo dopo i 10 -33 sec. Ne tratta diffusamente un altro teorico delle superstringhe, Brian Greene, dicendoci anche che a partire dall’età di 7 miliardi d’anni è possibile che la gravità a livello cosmico abbia cominciato, attraverso l’inflatone, ad assumere più forza repulsiva che attrattiva, sì da determinare l’attuale accelerazione dell’allontanamento delle galassie. Ma relativamente all’inflazione:

 

A causa della sua pressione negativa, l’inflatone generò un’enorme repulsione gravitazionale che spinse tutte le regioni del cosmo ad allontanarsi violentemente l’una dall’altra. Per usare il linguaggio di Guth: l’inflatone causò un’inflazione. La spinta repulsiva durò solo 10 -35 secondi, ma fu così forte che l’universo ebbe modo di ingrandirsi moltissimo. I calcoli cambiano a seconda del tipo di potenziale dell’inflatone, ma mostrano che l’espansione può essere stata pari a un fattore di 10 30, 10 50 o addirittura 10 100 o fors’anche più. […] Circa 10 -35 secondi dopo l’inizio dell’espansione, l’inflatone raggiunse un valore uniforme di energia minima e fece terminare la spinta repulsiva […] Da questo momento in poi la storia prosegue in pratica come nella versione standard del big bang: lo spazio continuò a espandersi e a raffreddarsi dopo il botto iniziale, e le particelle di materia poterono aggregare per formare galassie, stelle pianeti e altre strutture simili. [76]          

 

Se i bosoni diventassero sei saremmo più vicini alla TOE e con essa forse leggibili in una stessa lingua RgP, RgM e RgG. Il fatto è che di bosoni noi ne conosciamo bene per ora solo tre, con un quarto da individuare (il gravitone) e un quinto da scoprire (l’higgsone).   

    I gluoni sono abbastanza ben individuati e definiti poiché operano solo sui quark come “collanti”. Sono a massa nulla, elettricamente neutri e si esprimono in una “carica di colore”  (rosso r, verde v, blu b) in cromodinamica quantistica. Quando essi passano da un quark all’altro (avendo anche carica anti-colore) il colore del quark interessato cambia. Abbiamo già visto che l’azione gluonica è di tipo anti-repulsivo e anti-disgregativo, che la sua forza aumenta con la distanza comportandosi come un elastico che più è teso più tende tornare su se stesso. Interessante notare che i gluoni possono reagire anche con gluoni di altro tipo, ed essendo otto i tipi dare luogo a complesse combinazioni. Indicata con (+) la carica di colore e (-) la anti-colore la serie degli 8 gluoni è così esprimibile: r+r-, r+g-, r+b-, g+r-, g+g-, g+b-, b+r-, b+g- e b+b-. Essi possono anche combinarsi dando luogo a delle macroparticelle chiamate glueball, in realtà mesoni “esotici”.

    I nucleodeboli sono fotoni che, a dispetto dell’aggettivo, sono molto importanti e, tra l’altro, gli unici bosoni ad avere massa (e anche notevole). Pur operando nel nucleo non hanno rapporto coi gluoni ma sono apparentati coi fotoni nella teoria elettrodebole, infatti se perdono la massa diventano equivalenti ai fotoni. Sono 3 e hanno nome W+, W- e Z0 con masse che  vanno da 80 GeV per i primi due a 90 GeV per il terzo con comportamenti e agenze specifiche, infatti cambiano la loro azione in funzione degli altri enti hyletici che incontrano e producono la decadenza beta. Questo fenomeno subnucleare fa sì che un neutrone decada in un protone e si liberino elettroni (come radiazioni beta) e neutrini. Hanno tre tipi di azione in ragione della carica elettrica, per cui i W+ e i  W- agiscano in maniera differente dal neutro Z0 : a) un elettrone può emettere od assorbire un W+ o un W- dando luogo a un neutrino; b) un quark down (-1/3) può diventare un quark up (+1/3) emettendo o assorbendo un W+ o un W-; c) uno Z0 può essere emesso o assorbito sia dai leptoni che dai quark.  Altra specificità è data dal fatto che essi sono in grado di distinguere tra particelle destrogire e levogire e poi possono far mutare il “sapore” di uno dei sei  quark (up, down, top, bottom, charm, strange) per cui quando un neutrone decade in un protone uno dei suoi quark da down diventa up. Infine la capacità di violare la simmetria PC, quella che fa sì che assi spaziali destri o sinistri siano invertibili, una simmetria che gli altri bosoni rispettano. C’è per contro il loro raggio d’azione limitatissimo e i tempi d’azione piuttosto lunghi.

    Occupiamoci ora dei gravitoni, i generatori della legagenza gravitazionale, bosoni singolarmente di forza minima ma gigantesca nel loro concentrarsi a ridosso delle masse, importantissimi a livello macrocosmico perché grandi sono le masse in gioco, mentre già a livello molecolare essi divengono irrilevanti. La forza di gravità è espressa dall’equazione di Newton  F = G.m1.m2/r2,  in base alla quale essa è il prodotto delle masse in gioco diviso il quadrato della distanza tra esse. L’inversa proporzionalità tra il prodotto delle masse e la distanza al quadrato fa sì che questa sia più determinante di quello. Questo significa che nel mondo subatomico essendo le masse delle particelle minime o nulle essa è in genere irrilevante, se però la loro distanza diminuisse al di sotto la distanza di Planck (10 -33 cm.) a prevalere diventerebbero i gravitoni, che creerebbero un campo più intenso sia di quello dei fotoni che di quello dei gluoni. [77] Va però notato che essendo l’energia “massa in moto”, per la E = mc2  se ne può dedurre che anche l’energia determina la gravità, perciò nota Leonard Susskind:

 

Ma se energia e massa sono la stessa cosa, la frase può anche essere letta come «l’energia è la sorgente del campo gravitazionale. In altre parole tutte le forme di energia influenzano il campo gravitazionale e di conseguenza il moto delle masse vicine. L’energia del vuoto della teoria di campo quantistica non fa eccezione: anche lo spazio vuoto avrà un campo gravitazionale; se l’energia del vuoto non è nulla gli oggetti si muoveranno nel vuoto come se su di essi agisse una forza. La cosa interessante è che se l’energia del vuoto è un numero positivo, il suo effetto è una repulsione universale, una specie di antigravità tendente a far separare le galassie le une dalle altre.» [78]

 

Si noterà come il vuoto, da qualsiasi punto di vista lo si guardi, è un elemento dirimente della materia come culla, ma lo è anche da un punto di vista quantitativo, poiché la maggior parte di ciò che chiamiamo universo è in realtà vuoto e le due tipologie di bosoni spaziali, i fotoni e i gravitoni, fanno quello che fanno perché operano “nel vuoto”.

    I gravitoni non sono mai stati identificati e forse non lo saranno mai, proprio perché la loro forza è così debole che noi non potremo forse mai misurarla sperimentalmente nei nostri apparecchi. Ma i loro effetti quantitativi sono giganteschi in quanto riguardano non solo la materia visibile ma anche quella oscura ed essi partecipano e spesso determinano tutte le fenomenologie macrocosmiche, sia generative che distruttive. Da essi dipendono la formazione delle stelle e dei loro aggregati galattici, i tipi delle une e le forme delle altre, i cui ammassi creano delle specie di collane che solcano lo spazio vuoto. Nascite e morti di stelle, scontri e cannibalizzazioni tra esse e i loro aggregati, formazione di buchi neri e di ogni corpo celeste sono tutti fenomeni determinati dai gravitoni. Tutte le entità fisiche in qualche modo “ruotano”, e se lo spin è una rotazione particolarissima i quanto intrinseca alla particella, negli altri enti la rotazione è determinata dai gravitoni e differenze di orbita e velocità enormi ,col Sole ruota lentamente (2 Km./sec.) ma con stelle più energetiche che arrivano a 200 Km./sec. [79]

    La nascita delle stelle è di gran lunga il fenomeno più notevole, le officine dove nascono sono nubi di gas e di polveri vaganti nel cosmo tenuti insieme da una modesta ma sufficiente quantità di gravitoni. Quando però questa aumenta la nube si riscalda sino a innescare reazioni di fusione nucleare nella zona centrale che generano aumento di temperatura e di pressione interna, questa spinge le polveri verso la periferia. Si genera così un motore termico in equilibrio tra due forze opposte, l’una che induce collasso gravitazionale e l’altra che si oppone. Finché c’è combustibile nucleare a sufficienza la stella splende, dopo di che collassa. Per quanto abbiamo molto semplificato il processo questo è più o meno il modo in cui si accende una stella, con tipi di di radiazioni fotoniche molto variabile per intensità ed energia; i fotoni più energici hanno luce azzurra, quelli meno energetici luce rossa. È però la massa della stella a determinarne il destino e il tempo di vita, molto differente per quelle di massa superiore a 1,4 volte il Sole rispetto a quelle inferiori e sino a 1/10 di esso. Massa in generale costituita per circa il 75% di idrogeno e per il 25% di elio, più tracce di elementi più pesanti. Il motore stellare funziona fondendo i nuclei di idrogeno (peso atomico = 1) per produrre quelli di elio (p.a. = 2) e liberando elettroni, positroni,  neutrini e fotoni [80].

    Una stella, fondendo protoni e producendo energia, si surriscalda, e il Sole dopo 4,5 miliardi di anni che brilla è ora più caldo del 20%, ma finché nel nucleo ci saranno protoni da fondere funzionerà. Abbiamo però visto che il Sole è una stella media e come tale a vita abbastanza lunga, poiché collasserà non prima di altri 4 miliardi di anni, diventando dapprima una gigante rossa, poi una nana bianca ed infine una spenta e freddissima nana nera. Differente è il caso delle stelle massive (oltre 1,4 della sua massa) che vivono poco, perché i gravitoni sono così numerosi da produrre un campo gravitazionale intensissimo che la fusione protone-protone non è in grado di contrastare a lungo. Nella parte interna esse raggiungono i 20 milioni di °K e la fusione segue un procedimento differente, producendo poco elio e molto carbonio (p.a. = 12), consumando così più rapidamente il combustibile protonico. Ne deriva che tali stelle non vivono come il Sole 9-10 miliardi di anni, ma molto meno: con 3 masse solari circa 500 milioni di anni, con 20 soltanto 1 milione d’anni. Per contro, stelle più piccole del Sole vivono a lungo e una massa di ½ della sua permette già di vivere 100 miliardi d’anni [81]. Il fatto è che entro certi limiti di massa, una volta esaurito l’idrogeno, incomincia a fondere l’elio, la temperatura aumenta di molto ma il collasso avviene lentamente. All’opposto, nel caso di stelle oltre 8 masse solari il tutto è accelerato sino alla grandiosa esplosione finale in una supernova.

    Per dare un’idea del lampo di una supernova si consideri che la sua intensità è pari alla somma della luce di una galassia di cento miliardi di stelle, ma stelle di tale massa sono rare e nella Via Lattea si conta una supernova ogni mezzo secolo. Le supernove non sono solo eventi cosmici spettacolari ma importanti per altre ragioni che ci riguardano. Scrive John Gribbin:

 

Tali eventi hanno però un’importanza chiave nell’evoluzione di una galassia e per l’esistenza di esseri viventi come noi, perché le supernovae svolgono la duplice funzione di produrre tutti gli elementi più pesanti del ferro e di disseminarli nello spazio con la loro esplosione. Gran parte dei materiali che compongono il nostro corpo sono costituiti da atomi prodotti all’interno di supernovae. Da tali elementi, disseminati poi dall’esplosione nella materia interstellare, possono formarsi nuove generazioni di stelle, pianeti e persone. Noi siamo fatti letteralmente di polvere di stelle. [82]   

    

Ogni fascia di massa stellare evolve in un certo modo, ma spesso le stelle formano anche sistemi binari dal destino ancora differente. Se le costituenti di una coppia sono abbastanza distanti il sistema può permanere a lungo, ma se esse sono vicine può succedere che sia la più grande (tendendo a collassare prima) a diventare una gigante rossa cedendo materia dell’involucro esterno alla più piccola, che aumenta di massa. La maggiore prosegue il suo collasso, potendo diventare una nana bianca, una stella di neutroni o addirittura un buco nero [83].  

    Le poche informazioni che abbiamo fornito danno un’idea dei ruoli dei gravitoni, i veri dominatori della RgG e come abbiamo visto anche all’origine dei corpi macrocosmici, compresi i pianeti come la Terra. Lo sono anche della loro composizione e della possibilità che gli atomi di carbonio si assemblino con quelli di idrogeno, azoto ed ossigeno per formare molecole organiche più complesse, sino a generare cellule auto-replicanti. Alla domanda “come?” non c’è risposta poiché ciò è avvenuto circa 4 miliardi di anni fa, ma ciò che pare plausibile è che l’ultimo tipo di bosoni di cui ci occuperemo, i fotoni, possano aver avuto un ruolo importante in quanto i più energetici. Già solo gli ultravioletti infatti sono mutageni, per non dire dei raggi x e specialmente dei raggi gamma, formati da fotoni con un’energia che va da 10.000 a 10 milioni di eV. Per l’esistenza della vita sulla Terra è importante capire quale radiazione fotonica arrivi e quale no: al suolo arrivano solo le elevate lunghezze d’onda (quindi basse frequenze) di onde radio e del visibile (entro i 400 nm), mentre le radiazioni oltre i 102 nm e per pericolose (UV, raggi X e raggi γ) sono perlopiù schermate dalla stratosfera (sino a 45.000 metri) e altre fermati già a 100.000 metri.  Il fisico della Stanford University Leonard Susskind  precisa: «I fotoni ultravioletti e quelli dei raggi X hanno energia sufficiente per scalzare con facilità gli elettroni dagli atomi, e i raggi gamma riescono a rompere non solo i nuclei, ma addirittura gli stessi protoni e neutroni.» [84]

    Ma prima di passare ai fotoni va ancora ricordato che (per quanto ci riguarda) i gravitoni fanno sì che nella nostra centrale energetica, il Sole, i nuclei di elio decadano in nuclei di idrogeno liberando i fotoni che permettono una temperatura e una luminosità relativamente stabili. Infine, per quanto riguarda la nostra esistenza di animali massivi e senza ali, i gravitoni fanno sì che noi, “pesando” (secondo un’espressione convenzionale), restiamo attaccati al suolo e possiamo camminarci sopra. Così l’acqua che riempie i nostri mari ci sta dentro come fossero dei catini, l’acqua dei torrenti scende a valle alimentando centrali elettriche e irrigando campi, che la combustione produca fuoco che salendo verso l’alto si disperde, ed infine: che le nostre case e tutte le nostre costruzioni, come le macchine e gli oggetti vari che fabbrichiamo stiano dove li collochiamo e funzionino come funzionano.  Infine, anche dal punto di vista demografico i fotoni dominano l’universo: oltre 10 miliardi per ogni protone. [85]

    I fotoni sono i creatori della luce e i corrieri dell’energia delle stelle in tutte le direzioni. Se la vita sul nostro pianeta esiste lo è grazie ai fotoni, se non altro perché rendono possibile la sintesi clorofilliana e dai vegetali proviene il 90% dell’alimentazione animale. Tutto ciò che esiste alla nostra vista lo è grazie ai fotoni e Einstein negli anni ’30 notava: «In una stanza nella quale l’unica sorgente di luce è il sodio incandescente, tutto è giallo o nero. La dovizia dei colori nel mondo è il riflesso della varietà di componenti colorati della luce bianca.» [86] Aggiunge poco dopo sulla c: «Anche la ipotesi che tutti i corpuscoli di luce abbiano esattamente la stessa velocità nello spazio vuoto, sembra assai strana.» [87] Strana sicuramente, come lo sono tutte le costanti fisiche del mondo reale attuale-espanso, che non sono sempre esistite ma si sono “fatte” come huellas machadiane. Nelle loro differenziazioni, conseguenti al loro stato energetico (con specifiche frequenze e lunghezze d’onda), i fotoni creano le differenti radiazioni dell’iride, sicché noi e gli altri esseri viventi percepiscono un colore (la frequenza non assorbita) sui corpi opachi. Se esiste una “visibilità” è grazie ai fotoni, se vediamo il cielo azzurro, se cogliamo un alba o un tramonto, se siamo abbagliati dal bianco della neve, se ammiriamo il rosso di una mela o il verde di un prato.

    Poeticamente essenziali al nostro “sentire”, essi lo sono anche per il nostro esistere, il nostro percepire, il vedere e studiare il mondo; tali da essere i più grandi protagonisti del cosmo e a base della nostra esistenzialità. È con essi che noi viviamo, conosciamo le generalità del mondo e le specificità dei singoli enti, guardiamo e ci guardiamo, accendiamo luci artificiali e facciamo lavorare computer e correre treni, comunichiamo, informiamo, guardiamo, scopriamo e molto altro. Per la pluralità dell’essere i fotoni sono agenti principali per il ruolo sia di generatori di elettromagnetismo nelle sue molteplici forme e sia come protagonisti della maggior parte delle trasformazioni fisiche fuori e dentro degli atomi. Tali lo sono stati dall’inizio, impedendo in un primo tempo la nucleosintesi, accompagnandola in seguito, fissando poi i rapporti tra adroni ed elettroni, spandendo quindi la loro luce e rendendo trasparente l’universo. Sono metaforiche cerniere cosmiche che si collocano negli snodi e tra i piani di una realtà fisica fluttuante nel vuoto come enti particolari che sono particelle e antiparticelle nello stesso tempo. Ma anche quanti di energia e fautori delle più importanti trasformazioni potendo esistere in forme differenti in base al loro stato energetico: luce, calore, elettricità, magnetismo, microonde, radioonde, raggi X, raggi gamma.

    Per comprendere l’importanza dei fotoni come elementi principali della materia si può fare di loro oggetti di un esperimento mentale astratto. Si immagini un forno ideale a tenuta stagna (un sistema fisico chiuso) dove sia stato fatto il vuoto assoluto e lo si sia stato portato allo zero assoluto di temperatura (0 della scala Kelvin = - 273,15 °C.).   Si immagini ora di conferire calore dall’esterno con un flusso di fotoni. Questi penetrano nel forno e ne innalzano la temperatura man mano che aumentano di numero, ma essendo confinati una volta raggiunto il numero massimo compatibile con lo spazio disponibile incominciano ad aumentare la loro energia. Raggiunta quella di alcuni miliardi di gradi essi interagiscono e formano particelle di massa minima come elettroni e positroni, che si annichilano ri-producendo fotoni. Ad un successivo aumento dell’energia interna del forno (ulteriore conferimento di fotoni dall’esterno) le coppie elettroni-positroni cominciano a formare coppie di neutrini e di antineutrini. Queste, a loro volta, raggiunta la temperatura di 1014 K , creano coppie di protoni-antiprotoni e di neutroni-antineutroni. A temperature-energie ancora più alte, di 1015 K, essi si disintegrano generando quark, gluoni e generatori di forza debole. A tale livello energetico gli 8 gluoni perdono ogni identità, mentre i 3 generatori di forza debole (W +, W - e Z 0) diventano quanti privi di massa e quindi identici ai fotoni. I fotoni, come quanti di energia che si muovono alla cst, possono considerarsi creatori di se stessi attraverso la E = mc2 , a partire dalla scissione di nuclei massivi come quelli dell’uranio e del plutonio.   

    Tra i molteplici ruoli dei fotoni come detto c’è  anche quello di essere i fautori dei mutamenti negli atomi. Un atomo di un certo elemento diventa atomo di un isotopo dello stesso elemento o di un altro elemento contiguo grazie ai fotoni, i quali, uscendo o entrando nella sua configurazione, ne mutano l’assetto, le orbite degli elettroni e la loro quantità. In altre parole, per quanto di solito si usi dire che l’atomo “cambia” la sua configurazione cedendo od assorbendo un fotone, ci parrebbe più corretto dire che i fotoni, uscendo od entrando, “lo mutano”. In realtà, ciò che noi chiamiamo atomo, e quindi ciò che lo caratterizza in quanto tale e che determina le proprietà dei suoi assemblati o composti, è un “equilibrio”. Null’altro che l’esito strutturale di un insieme di particelle in equilibrio con i fotoni come protagonisti. Da notare infine che i fotoni creano campi vettoriali,cioè con una direzione, il che fa dire che essi muovano in linea retta, in realtà, come ci fa notare Susskind, essi si muovono piuttosto come dei cavatappi «avvitandosi lungo un’elica» [88].

 

 

 

NOTE

 

[89] S.Weinberg, I primi tre minuti, Milano, Mondadori 1997, p.171.

[90] C.Tamagnone, La filosofia e la teologia filosofale, Prefazione, Firenze, Clinamen 2007, pp.7-9.

[91] L.Russo  La rivoluzione dimenticata (Il pensiero scientifico greco e la scienza moderna), Milano, Feltrinelli 2001, pp.50-77. Il saggio di Russo porta all’evidenza tutti quegli aspetti della scienza ellenistica che anticipano le conoscenze moderne e ne indicano la via. Con la conquista romana essi sono perlopiù fraintesi, col Cristianesimo cassati completamente, sino al XIII secolo quando gli arabi li rendono noti all’Occidente.    

[92] E.Schrödinger, L’immagine del mondo, VII cap. Come la scienza rappresenta il mondo (1947), Boringhieri 1987, p.118.

[93] L.Boltzmann, Sul significato delle teorie, in: Modelli matematici, fisica e filosofia, Torino, Bollati Boringhieri 2004, p.52.

[94] E. Schrödinger  L’immagine del mondo, V cap., Alcune osservazioni sulle basi della conoscenza (1935), Torino, Boringhieri 1987, p.80.

[95] Ivi, p.81.

[96] M.Born, Filosofia naturale della causalità e del caso, Torino, Boringhiwei 1962, p.65

[97] R.Feynman, La legge fisica, Torino, Bollati Boringhieri 1993, pp.165-166.

[98] Ivi, p.171.

[99] R.Penrose, La strada che porta alla realtà, Milano, Rizzoli 2006, p.1014.

[100] Ivi, p.1018

[101] Ivi, p.1020.

[102] Si invita a tenere presente che nel mondo anglosassone il termine epistemology ha un significato più ampio, valendo anche come gnoseologia e teoria della conoscenza.

[103] G.Bachelard, Il nuovo spirito scientifico, Bari, Laterza 1951, pp.75-76.

[104] Ivi, p.84.

[105] R.Carnap, Sintassi logica del linguaggio, Milano, Silva 1961, p.375.

[106] Ivi, pp.377-378.

[107] W.Heisenberg, Oltre le frontiere della scienza, cit., p.57 (Il concetto di “teoria chiusa” nella scienza moderna, in: Dialectica, Neuchâtel 1948).

[108] Ivi, p.58

[109] S.Weinberg, I primi tre minuti, cit., pp.7-8

[110] A.Einstein, I fondamenti della fisica teorica, in: Opere scelte, a cura di E.Bellone, Torino, Bollati Boringhieri 1988, p.576.

[111] A.Einstein, Pensieri di un uomo curioso, Milano, Mondadori 1997, p.110.

[112] Il fatto che, secondo principio di esclusione fissato da Wolfgang Pauli nel 1924, due fermioni tempo non possano trovarsi nello stesso punto di spazio nello stesso istante rende possibile l’esistenza degli atomi, poiché gli elettroni non potendo sovrapporsi devono collocarsi attorno al nucleo su orbite “quantizzate” e differenti. I bosoni, non ne sono soggetti e ciò permette di ottenere il laser a fotoni collineati in un raggio unico. Con il nome di superfluidi e di superconduttori si indicano stati di materia bosonica concentrata che non hanno nulla a che vedere con i conduttori convenzionali fatti di atomi.      

[113] R.Oerter, La teoria del quasi tutto, Torino, Codice 2006, p.110

[114] Ivi, p.114.

[115] G.‘t Hoof, Il mondo subatomico. Alla ricerca delle particelle fondamentali, Roma, Editori Riuniti 2000, pp31-32.

[116] S.Hawking, Dal big bang ai buchi neri, Milano, Rizzoli 1998, pp.85-86.

[117] A distinguere i protoni dai neutroni sono la massa e la carica elettrica, che è determinata  dalla somma delle cariche dei quark che li formano. Siccome il quark up ha carica +2/3, mentre il quark down ha carica – 1/3, ne deriva che per il protone la somma è +1 (=  +2/3 + 2/3 – 1/3), mentre per il neutrone è 0 ( = + 2/3 – 1/3 -1/3).  

[118] Ogni quark all’interno di un protone occupa un volume che è circa un milionesimo del volume di esso (L.Randall, Passaggi curvi, Milano, Il Saggiatore 2005, p.163).

[119] A.Parlangeli, I segreti della materia, Bari, Dedalo 2003, p.30.

[120] L.Lederman, La particella di Dio, Milano, Mondadori 1996, p.372.

[121] Per quanto correntemente parlando di “carica” si alluda a quella elettromagnetica (positiva, negativa, nulla) perché riguarda la nostra esistenza, anche le altre due forze considerate in MQ conferiscono cariche alle particelle, che però si esprimono solo a livello subnucleare. Quella della nucleare forte si dice “di colore” ed è di tre tipi (blu, verde, rosso), quella della nucleare debole (isospin debole) può avere anche tre valori (+1/2, -1/2 e 0).

[122] I nomi dei supposti compagni supersimmetrici sono stati coniati aggiungendo il suffisso “s” per indicare il compagno bosonico di un fermione (il compagno del quark prende il nome di squark e quello dell’elettrone selettrone). Per i compagni fermionici dei bosoni il suffisso è “ino” (il fotone avrebbe un fotino, il gluone il gluino e così via).    

[123] Edward Witten (n.1951) è un fisico-matematico statunitense, chiamato spesso il “guru delle superstringe”.  

[124] B.Greene, L’universo elegante, Torino, Einaudi 2000, p.112.

[125] M.Kaku, Mondi paralleli, cit., p.247.

[126] B.Greene, La trama del cosmo, Torino, Einaudi 2004, p.448.

[127] Fino alla fine del Medioevo si pensava che Dio avesse creato il mondo “qualche” migliaio di anni prima. Fu poi l’arcivescovo inglese James Ussher, all’inizio del 1600, a decidere che occorreva fare calcoli “seri e precisi” in base ai “dati inoppugnabili” delle genealogie bibliche. Ne emersero risultati molto interessanti; per esempio: a) Dio aveva creato il mondo il 23 ottobre dell’anno 4004 a.C., b) la cacciata di Adamo ed Eva dal paradiso terrestre era stata il 10 novembre di quell’anno, c) l’approdo di Noè sull’Ararat dopo il diluvio universale era avvenuto il 5 maggio del 2348 a.C. Fino all’Ottocento cronologie di questo accompagnarono accreditate versioni della Bibbia come indispensabile corredo “gnoseologico”.

[128] In realtà il periodo per il quale non esiste a tutt’oggi una spiegazione soddisfacente riguarda soltanto i primi 10 – 43 secondi (la cosiddetta èra di Planck), poiché in quella fase le particelle quantistiche dovevano essere così vicine da avvertire reciprocamente la forza di gravità, non descrivibile (almeno per ora) in termini quantistici a quei livelli.

[129] Si veda a questo proposito Dio e la scienza di J.Guitton-G.Bogdanov e I.Bogdanov (Bompiani 1997), pp.25-32.

[130] Un ottimo libro di Jean-Pierre Luminet, L’invenzione del BigBang (Bari, Dedalo 2006), rende giustizia a questo scienziato troppo spesso dimenticato.

[131] Il problema della piattezza nasce dal fatto che l’universo si espanda quasi come un spazio euclideo, una sorta di fine tuning spontaneo che la teoria inflazionarla spiega ottimamente.  

[132] La teoria di Guth, che talvolta viene definito “vecchio modello inflazionarlo (a rapida rottura della simmetria) ha avuto con A.Linde (e successivamente con P.Steinhardt e A.Albrecht) un aggiornamento nel “nuovo modello inflazionarlo” (a rottura lenta), il quale sarebbe, secondo Stephen Hawking (Dal big-bang ai buchi neri, Rizzoli 1997,p.153) più attendibile.  

[133] K.W.Ford, La fisica delle particelle, Milano, Mondadori 1980, p.233. «C’è antimateria, magari in forma di antigalassie, da qualche parte nell’universo? Non lo si può escludere completamente, ma sembra altamente improbabile. Se ci fossero regioni popolate di antimateria, esisterebbero nell’universo superfici di confine tra le parti di materia e quelle di antimateria: qui elettroni e antielettoni vaganti si incontrerebbero e si annichilerebbero, dando origine a coppie di fotoni (raggi gamma) di energia caratteristica (circa0,5 MeV). Una simile radiazione proveniente dallo spazio non è mai stata osservata.»

[134] S.Weinberg, I primi tre minuti, cit., p.15.

[135] Ivi, p.17

[136] Ivi, p.87.

[137] L’ordine di grandezza degli adroni (mesoni, barioni e glueball) è da 10 -13 a 10 -14 cm. e l’elettrone 1/2000 circa di essi.

[138] I sistemi binari in equilibrio sono abbastanza frequenti, ma accade anche che una stella grande “cannibalizzi” una più piccola nel suo raggio d’azione. Precisa l’astrofisico Marco Roncadelli (Aspetti astrofisici della materia oscura, Napoli, Bibliopolis 2004, p.138): «Una conseguenza della formazione stellare in ammassi è un’elevata probabilità che due (o più) stelle costituiscano un sistema gravitazionalmente legato: di fatto, almeno metà delle stelle osservate sono sistemi binari (o multipli).»

[139] J.Gribbin, Enciclopedia di astronomia e cosmologia, Milano, Garzanti 1998, p.46.

[140] E.Ricci, Energia distruttrice, in: Le Scienze, febbraio 2009, p.23

[141] C.Tamagnone, Necessità e libertà, cit., p.41.

[142] Ivi, p.42.

[143] K.W.Ford, La fisica delle particelle, cit., pp.205-206

[144] G.C.Ghirardi, Un occhiata alle carte di Dio, Milano, Il Saggiatore 2003, p.5.

[145] F.Dyson, Turbare l’universo, cit., p.291.

[146] K.W.Ford, Il mondo dei quanti, Torino, Bollati Boringhieri 2006, p.147.

[147] Ivi, pp.150-151.

[148] E.Schrödinger,  L’immagine del mondo, VI, Lo spirito della scienza (1946), Boringhieri 1987, p.103.

[149] K.W.Ford, La fisica delle particelle, Milano, Mondadori 1980, p.47

[150] R.Penrose, La strada che porta alla realtà, cit., p.1014

[151] K.W.Ford, La fisica delle particelle, cit. p.162.

[152] Ivi, p.163.

[153] Ivi, p.165.

[154] L.Lederman, La particella di Dio, Milano, Mondadori 1996, pp.398-399.

[155] Ivi, p.401.

[156] Ivi, p.404.

[157] G. Kane, Il giardino delle particelle, Milano, Longanesi 1997, p.139

[158] Ivi, pp.139-141.

[159] L.Smolin, La vita del cosmo, cit., pp.64-65.

[160] Vanno distinti tre concetti di massa: 1a “a riposo” o “di quiete” (considerata immobile nel suo sistema di riferimento), 2 a “gravitazionale” (quantificata attraverso la gravità),  3 a “inerziale” (quantificata dalla forza necessaria per conferire accelerazione). La 2 a e la 3 a sono equivalenti.

[161] M.Gasperini,  L’universo prima del Big Bang, cit, pp.48-49.

[162] B.Greene, La trama del cosmo, cit., p.334.

[163] M.Lachièze-Rey, Oltre lo spazio e il tempo, p.145.

[164] B.Greene, La trama del cosmo, cit., pp.336-337.

[165] L.Susskind, Il paesaggio cosmico, Milano, Adelphi 2007, p116.

[166] Ivi, p.70

[167] M.Hack, L’universo alle soglie del Duemila,  Milano, Rizzoli, 1999, p.85.

[168] In realtà il processo è un po’ più complesso perché in un primo tempo la fusione produce un nucleo di deuterio, una forma isotopica dell’idrogeno di massa doppia (1 protone + 1 neutrone). L’elio a sua volta esiste in due isotopi, l’elio-3 (2 protoni + 1 neutrone) ed elio-4 ( 2 protoni + 2 neutroni). La fusione dell’idrogeno produce energia perché per fare un atomo di elio ce ne voglio 4 di idrogeno,  ma la massa dell’H è 1,008 mentre la massa dell’HE è 4,003, la differenza tra le masse da sommare e la massa-somma (4, 036 – 4,003 = 0,33) si manifesta come energia che tiene in fusione il nucleo stellare (il Sole ha una temperature interna di 15 milioni di °C e una densità del plasma che è di 20 volte quella del ferro) e che in parte emigra verso il mantello e si libera nello spazio in maniera discontinua.      

[169] J.Gribbin, Enciclopedia di astronomia e cosmologia, Milano, Garzanti 1998, pp.158-159.

[170] Ivi, pp.505-506.

[171] Ivi, p.160.

[172] L.Susskind, Il paesaggio cosmico, cit., p.27.

[173] L.M.Krauss, Il cuore oscuro dell’universo, Milano, Mondadori 1990, p.45.

[174] A.Einstein – L.Infeld, L’evoluzione della fisica, cit., p.110.

[175] Ivi, p.111.

[176] L.Susskind, Il paesaggio cosmico, cit., p.321.