free web hosting | free hosting | Business Web Hosting | Free Website Submission | shopping cart | php hosting


Free Web Hosting - Watch Free Movies Online - Watch Free TV Online - Free Web Pages

Find the cheapest Local Gas Prices and Gas Stations in your neighborhood and surrounding area.

 

 

 

 

                                                             Capitolo VII

                                         Dal vuoto al divenire probabilistico

 

 

 

                                      7.1  La culla dell’essere: il kenón e l’àkeiron

 

    Il concetto di vuoto è stato rivoluzionato dalla MQ e dal suo principio di indeterminazione, poiché l’analisi dei sistemi quantistici ha permesso di capire che un vuoto-nulla non esiste. Si parla infatti di un’energia di punto zero che costituisce il limite estremo di “vuotabilità” e “raffreddabilità”, rimanendo però nel vuoto una certa quantità di energia “ineliminabile” che costituisce lo stato fondamentale di un sistema fisico. Prova indiretta di ciò è stata data nel 1948 dal fisico olandese Hendrik Casimir con l’esperimento delle “due piastre”, rivelante una fluttuazione quantistica residua ineliminabile, confermata poi anche con procedimenti differenti [859]. Ciò conferma che il vuoto quantistico è da vedersi come la vera “culla della realtà”, da cui sono usciti ed escono i costituenti-base del mondo fisico, a ricordarci la straordinaria intuizione di Leucippo. Del vuoto conosciamo ormai abbastanza bene “come funziona”, come sia possibile far uscire da esso particelle virtuali che possono farsi reali e viceversa. Il fisico Jean Heidmann nota:

 

Il vuoto, quando si trova nel suo stato di contenuto energetico minimo, ne conterrebbe normalmente una certa quantità [di higgsoni] […] Perché il vuoto sia veramente sprovvisto di bosoni di Higgs, bisognerebbe fornirgli energia per riuscire ad annullare la loro intensità. Viceversa, questo significa che il vuoto, “veramente” vuoto, senza bosoni di Higgs, è ricco di energia latente che non chiede altro se non di manifestarsi. Ecco dunque una nuova straordinaria proprietà del vuoto dal punto della fisica quantistica. Quest’aspetto “dinamite” del vuoto svolge un ruolo di primo piano nella teoria dell’universo inflazionistico: immettendo in esso una considerevole energia, l’espansione dello spazio ha un avvio folgorante la cui violenza supera quella già eccezionale del Big Bang classico dei capitoli precedenti.  [860]

 

Possiamo ragionevolmente pensare il vuoto quantistico come l’unica possibile fucina della realtà, non ancora del tutto conosciuta ma sperimentalmente a portata di mano, ed evocante un quantistico “prima del bigbang”. Il supposto “mare quantistico” in quiete in cui una perturbazione energetica casuale avrebbe dato origine al processo cosmogonico doveva essere molto simile al vuoto che in memoria di Leucippo abbiamo chiamato kenón. Processo straordinario oppure ordinario e frequente il formarsi entro esso di un nucleo di materia compressa che esplode in un big-bang? Possibili Modelli standard numerosi o infiniti? Impossibile dirlo. Il MS, con tutti i suoi difetti, rimane ad oggi l’unico modello credibile in base ai dati sperimentali, ed esso, basandosi sulla MQ, coinvolge direttamente il vuoto quantistico nella nascita della realtà  

   Il MS non è perciò la “verità” sul cosmo, e tuttavia gli aspetti reali del cosmo gli danno sufficiente attendibilità sulla base di: A. la velocità di allontanamento delle galassie nel vuoto; B. la radiazione cosmica di fondo; C. l’abbondanza cosmica di deuterio ed elio [861]. Ma sul primo punto, se è vero che il MS è compatibile con le galassie che si allontanano, non spiega perché l’universo si espanda in accelerazione dal momento che la gravità opera in senso opposto. Torna così in ballo l’ipotesi della “costante cosmologica” di Einstein o “energia del vuoto”, ma da lui applicata a un universo considerato statico e non dinamico quale si sarebbe rivelato in seguito. La scoperta dell’espansione aveva fatto dire al grande Albert di essersi trattato del più grave errore della sua carriera, ma oggi, certi di un’accelerazione dell’espansione, la sua “costante “ pare rientrare in gioco. Bisogna però anche sottolineare l’improprietà di incaute evocazioni di essa, poiché i processi espansivi passati e presenti, comunque li si voglia vedere, sono per loro natura “incostanti” e quindi incompatibili col concetto di costante [862]. La costante cosmologica anticipava però quel “fattore espansivo” che oggi chiamiamo energia oscura, chiamata anche “energia del vuoto”, estranea a quel “dentro” in cui anche noi ci consideriamo, rivelativa di un andare cosmico verso un “fuori” che non sappiamo cosa sia ma che pensiamo come un “nulla”. Qualsiasi cosa ci possa essere al di fuori del nostro universo, sicuramente si tratta di qualcosa di così differente ed ontologicamente remoto e separato che siamo autorizzati a pensarlo, appunto, come un “niente” rispetto a ciò che ci concerne.

    Siccome l’accelerazione dell’espansione c’è e ne dobbiamo prendere atto, ma siamo anche consapevoli che dopo la fase inflazionaria essa fosse in decelerazione, come si conciliano tali fenomeni opposti da 10 -35 sec. dal bigbang ad ora, dopo 13,7 miliardi d’anni? Così celo piega Brian Greene:

 

Ed eccoci pronti per il nuovo colpo di scena. Se l’universo ha una costante cosmologica [forza espansiva] di valore adeguato (molto basso) fino a 7 miliardi di anni dopo il big bang la repulsione gravitazionale [anti-attrattiva] da essa generata viene annullata dalla gravità standard  e l’espansione risulta rallentata. Ma a questo punto la materia diventa troppo sparpagliata: l’attrazione diminuisce e la spinta contraria della costante cosmologica (che non diminuisce nel tempo, né è influenzata della distribuzione di materia) riesce pian piano a vincere la partita. Finisce allora l’era della decelerazione e inizia quella dell’espansione accelerata. [863]

 

Si sarà capito che Greene pensa a una “gravitazione invertita” per non introdurre una forza anti-gravitazionale. Ma, al di là delle terminologie, ciò che si evince è che essendo la materia raggrumata in galassie fluttuanti “nel vuoto”, nella misura in cui l’espansione le allontana l’una dall’altra la forza gravitazionale (proporzionale al quadrato della distanza) continuerà a diminuire fin al punto di diventare così bassa che la forza espansiva prevarrà.

    Partiamo per il nostro viaggio esplorativo con un omaggio alla fantasia poetica, la quale, molto di rado aiuta a indagare la realtà ma perlomeno produce bellezza e mai tronfia sapienza metafisica[864]. Evochiamo un simpatico e immaginifico personaggio arcaico, una sorta di poeta-contadino, di origine ionia e di nome Esiodo, vissuto in Beozia nella seconda metà del sec.VIII a.C. o poco dopo, che aveva cercato di metter un po’ d’ordine in una mitologia tanto ricca quanto confusa. La poesia è di per sé una splendida realtà antropica che poco aiuta a capire la realtà, tuttavia, talvolta . . . vede giusto! Recita infatti la Teogonia esiodea (verso 123): «Dunque, per primo fu Chaos, […] » [865]  Sono passati ventisette secoli da quell’affermazione che potrebbe essere anche di oggi, evocando il pre-cosmo. Tanto più che il significato antico della parola greca χάος non è per niente quello di “disordine”, assunto più tardi a indicare cose o fatti “non in ordine”, ma quello di “vuoto” primordiale o “abisso oscuro”, sede del nulla che precede ogni inizio. Il vuoto quantistico, da cui escono particelle quando si immette certe quantità di energia, pare evocato poeticamente da Esiodo come prefigurazione di ciò che i fisici della seconda metà del XX secolo avrebbero scoperto. All’origine di ogni cosa che possa esistere, quindi di qualsiasi essere, sta il vuoto, ed ogni considerazione sull’essere non può che partire da esso, come ha compreso più tardi un conterraneo del poeta: Leucippo.

    Per comprende l’importanza del vuoto cosmico, assimilabile a quello artificiale (il kenón) si tenga presente che esso pare costituire il 98% dell’universo noto, mentre il “pieno”, le galassie con tutti i loro componenti (stelle, buchi neri, quasar, nane bianche, nane rosse, nane brune, pianeti, asteroidi, polveri ecc.) è solo il 2%.  Ebbene, è in quel 98% che si nascondono materia oscura ed energia oscura,  entità insiemali che la fisica moderna ritiene certe ma di natura ignota. Il chaos primordiale esiodeo ci si offre quindi poeticamente gratis alludendo a qualcosa che ha preceduto la nascita del nostro universo; un “prima” rispetto a un big-bang che verosimilmente non è nato dal “nulla”. L’energia terrificante raccolta in quell’infinitesima pallina di materia primordiale compressa e caldissima esplosa in un’espansione gigantesca ha dato luogo 13,7 miliardi di anni fa al percorso formativo di un “espanso” da un immensamente “compresso”. Un’energia che prima dell’espansione era una massa. Forse a sua volta derivata da un’energia “indefinita” fattasi massa? Non possiamo saperlo, ma possiamo ricordare che il grande milesio Anassimandro (iniziatore con Talete del filosofare), naturalista ed astronomo, aveva intravisto l’arché nell’àpeiron, l’“infinito-indefinito” materiale pre-cosmico. Un’intuizione che Leucippo avrebbe sviluppato attraverso la ridefinizione dell’àpeiron come vuoto primordiale originario: il kenón, in agivano secondo lui le particelle indivisibili (gli atomi) che in esso (attraversandolo con movimento casuale) generavano per condensazione ed assemblaggio i corpi del mondo reale. 

    Un cenno ora su Anassagora, altro ionio quasi contemporaneo di Leucippo. Emigrato ad Atene ai tempi di Pericle e diventatogli poi stimato amico. Legittimo chiedersi se i due filosofi non abbiano potuto avere qualche rapporto prima che il primo raggiungesse la capitale attica e il secondo Abdera. Le ontologie dei due ionî sono infatti entrambe pluralistiche, per quanto quella di Anassagora sia qualitativa [866], pensando egli la realtà macroscopica costituita da semi (Aristotele le chiamerà omeomerìe) di ogni specie di cose esistenti. Ogni tipo di semi nell’assemblaggio con gli altri avrebbe dato luogo a cose della sua specie se “in maggioranza”, negli altri casi la sua presenza era sterile. L’errore di Anassagora sta evidentemente nell’aver pensato a semi fisici analoghi a quelli vegetali, ma ancor più per essersi inventato un principio (ma pur sempre materiale) come il noùs (un’intelligenza della materia), quale agente-attore degli assemblaggi. Una sorta di “deus ex machina” artificioso, come giustamente rilevava Aristotele nella Metafisica (I, , 985 a, 18-22) [867]. A segnare l’enorme distanza di speculazione ontologica rispetto a Leucippo la totale assenza del concetto di vuoto quale originario medium dell’accadere. 

    L’ontologia leucippea si fonda invece proprio sul vuoto come non-essere, ma “fondo” in cui si forma “il pieno”, l’essere, generato dagli atomi come elementi primi. Non poteva ovviamente riuscire ad immaginarli come esclusivamente quantitativi e li aveva pensati come “figure” in certi ordini e posizioni nel vuoto. Ad un uomo del V sec.a.C non si poteva chiedere di più dal punto di vista fisico, ma la rivoluzione ontologica di Leucippo sta nell’aver intravisto il pluralismo ontologico di contro a un monismo parmenideo allora dominante. Già solo questo è un colpo di genio intuitivo straordinario, per cui c’è solo da rammaricarsi che la breve stagione dell’atomismo primitivo si realizzi solo ad Abdera e venga presto emarginato dall’ idealismo platonico come “ateismo materialistico”, quindi empio ed erroneo. Ricordiamo che l’atomismo troverà soltanto qualche attenzione critica da parte di Aristotele e solo più tardi un rilancio con Epicuro, che apporterà importanti modifiche alla fisica atomistica, ma privilegiando l’etica. Questa finirà per lasciare solo sullo sfondo l’importante riformulazione dell’atomismo operata sia dall’introduzione della parenklisis (il clinamen lucreziano) e sia dal peso degli atomi, rimanendo come base ontologica di un edonismo riconosciuto come nocciolo del suo pensiero. 

    Gli άτομα, muovendo nel κενόν, creano secondo Leucippo i fattori elementari del reale, ma il κενόν è anche μή-όν (non-essere) costituendo invece gli άτομα l’όν (l’essere) che opera pluralisticamente nel “vuoto” quale “pieno” (πλήρης). Il μή-όν è non-essere di corpi reali non però un ούδέν (un niente), ma ciò che abbiamo chiamato culla (o fucina) dell’essere che il κενόν leucippeo costituisce. Questo “nulla di materia reale” e tuttavia “non-niente” è il vuoto in generale, ma a quello quantistico per distinguerlo daremo un altro nome. Abbiamo già accennato al nostro rifiuto del concetto filosofico tradizionale di nulla, assumendolo invece come sinonimo di vuoto quantistico. Il nulla è quindi per noi quello stato potenziale in cui niente di reale è presente, ma dove origina l’elementarità ipermateriale; l’abisso oscuro di possibilità d’esistenza a cui alludeva Esiodo. Il “vuoto cosmico” in cui sono immerse le galassie e in cui fluttuano gli elettroni non è però il “vuoto quantistico” come probabile “culla” originaria, essendo questa una realtà che ci è del tutto estranea. Ma neppure del vuoto cosmico non abbiamo esperienza diretta, poiché sulle nostre teste e fino a diverse decine di chilometri di altezza lo spazio è tutto pieno di materia gassosa “incollata” alla Terra dai gravitoni. Se però ci allontaniamo quanto basta a ridurre quell’attrazione a valori minimi (ma mai nulli) incominciamo ad incontrare regioni di spazio quasi esenti da materia, ma permeate da un fitta radiazione di particelle molto più attive che al suolo e dagli inattivi neutrini elettronici, che non reagiscono con nulla e attraversano tutto, i nostri corpi, i mari e le montagne.

    Fuori della gravità terrestre incomincia il vuoto cosmico che si estende fino al più lontano vuoto intergalattico. Questo è quasi privo di materia atomica ma in esso fluttuano particelle di varia natura e a differente energia: perlopiù protoni (85%) e nuclei di elio ionizzato (13%). L’urto di tali particelle cosmiche con l’atmosfera provoca reazioni complesse, in cui nascono altre particelle di vario genere (neutroni, mesoni, elettroni, fotoni, ecc.). Questo terribile bombardamento è fortunatamente schermato e decomposto dalla nostra atmosfera in quanto “piena”, e sulla Terra ne arriva pochissimo: prevalentemente fotoni a differente lunghezza d’onda ma comunque a bassa energia. I più pericolosi sono i fotoni indicati come raggi γ, con lunghezza d’onda bassissima (da 10-2 a 10-1 nm), altissima frequenza ed energia (10 keV per fotone) [868]. Nell’ordine energetico seguono i fotoni chiamati raggi X, poi gli ultravioletti, gli infrarossi, le microonde, le onde radio, a sempre maggior lunghezza d’onda e minor frequenza (data l’inversa proporzionalità). Anche il vuoto cosmico quindi non è vero vuoto, poiché non c’è materia organizzata ma ce n’è molta di elementare con prevalenza di fotoni di vari tipi 

    Un vuoto più prossimo a meritare tale nome è producibile in laboratorio, ma l’operazione è più teorica che reale, poiché allo stato attuale della tecnologia non esistono pompe in grado di fare il “vuoto assoluto” neppure allo “zero assoluto” (0° Kelvin = - 273° Celsius). Proviamo tuttavia ad immaginare tale operazione possibile, disponendo di un contenitore adeguato, a perfetta tenuta stagna, che portiamo allo zero assoluto e da cui pompiamo via tutta l’aria. Ebbene, se pure a quel punto il vuoto così realizzato sarebbe privo di materie secondo la fisica classica, in realtà esso non lo è per nulla in termini quantistici, poiché le materie rilevabili in fisica classica non rappresentano che un livello macroscopico di aggregazione degli enti hyletici. Nel vuoto quantistico non vi sono enti come quelli hyletici (fermioni e bosoni), ma solo delle possibilità, e in questa culla dell’essere possono nascerne di infinite se la si “perturba”. I concetti di “quiete” quantistica e di “perturbazione” sono utili per capire come nascano le particelle e nello stesso tempo ci aiutano a formulare un’ontologia “fisica”, quindi “reale”, che evidenzia l’assenza di significato ontologico di quella “metafisica”, del tutto “inventata”.

    Il “vuoto quantistico” è quindi quello stato di pre-materia neutra immettendo nel quale adeguate quantità di energie si può far “saltar fuori” particelle di materia. Se qualcosa di simile era il pre-cosmo da cui è nata la “singolarità” del big-bang esso potrebbe essere anche considerato il “ciò che c’è quando la materia non c’è”. E tuttavia esso, pur impregnato di aleatorietà, potrebbe anche esser pensato come un qualcosa che possiede già qualche legge interna verso qualche ordine evolutivo, o quanto meno una vettorialità verso un ordine. È quindi possibile pensarlo come un sistema evolutivo in nuce che tende a qualche strutturazione? Il vuoto quantistico che noi conosciamo, quello laboratoristico (kenón), non presenta elementi sistemici, ma solo la “probabilità” di particelle che possono “entrare” per tempi minimi nel nostro “sistema-cosmo” per sparire subito decadendo ad altro. È quindi evidente che non si può appaiare un vuoto quantistico originario pre-bigbang al vuoto quantistico pre-materia come lo produciamo nei laboratori. E tuttavia l’analogia non è fuori luogo, poiché, in entrambi i casi, la possibilità di un ante si fa realtà in un post la cui causa effettuale è un’immissione di energia, o per meglio dire di quanti.

    Il vuoto quantistico noto, il kenón, autorizza l’ipotesi di un suo analogo ma assai più profondo vuoto primordiale. Questo concetto, sia pur vago e incerto, di un possibile pre-cosmo da cui potrebbe essere saltata fuori quella “pallina” pesantissima e caldissima che chiamiamo bigbang ci porta alla tesi del pre-bigbang. L’esplosione-espansione primordiale [869] non sarebbe infatti da considerare il vero momento della nascita del cosmo, ma semplicemente una successiva fase esplosiva scatenata da qualche perturbazione casuale. Però di tale vuoto mare quantistico primordiale, da cui tutto potrebbe essere nato, non si potrà mai sapere se ci sia stato o no, proprio perché il big-bang “accadendo” ha distrutto qualsiasi informazione circa ciò che lo ha preceduto. Nulla di conoscibile quindi di tale supposto oceano pluralistico immobile, l’àkeiron, pieno di pre-legagenze in bonaccia (un”universo piatto”), ma pronte a produrre sotto perturbazioni casuali increspature e poi “bolle” di pre-particelle. Il kenón è un luogo dove particelle “virtuali” paiono presenti, in attesa che dall’esterno penetrino i quanti di cui hanno bisogno per saltar fuori e per acquisire la possibilità di configurarsi come “reali”. Kenneth Ford lo vede così:

 

Si è scoperto che le particelle posseggono un’esistenza transitoria, che lo spazio vuoto è un alveare di attività disordinata, che leggi di probabilità hanno sostituito le leggi di certezza, che una particella isolata è impegnata in una danza sfrenata e continua i cui passi sono causali e imprevedibili, che un principio di indeterminazione impedisce un esame troppo vicino e misure esatte e precise nel mondo dell’infinitamente piccolo […] Il quadro risultante del mondo è un caos quasi senza limiti governato soltanto da un gruppo di leggi di vincolo. [870]

 

Questo caos del vuoto “in quiete” contraddice la nostra idea di caos, essendo infatti riferibile a un mondo “altro” per noi in massima parte impenetrabile. L’unico rapporto che noi possiamo instaurare con questo strano mondo è bombardarlo con dell’energia per far emergere particelle virtuali, che però una volta emerse non riescono a sussistere. Per comprender bene i meccanismi che concernono tale fenomeno si pensi a una coppia elettrone + positrone che si annichilano restituendo l’energia immessa sotto forma di fotoni. Se però noi aggiungessimo ulteriore energia potrebbe succedere ciò che ci spiega Harald Fritzsch:

 

È possibile tuttavia impedire tale annichilazione somministrando sufficiente energia dall’esterno. Se questa somministrazione di energia supera la massa totale della coppia elettrone-positrone, è possibile creare le rispettive particelle reali senza violare il principio di conservazione dell’energia. Senza questa aggiunta di energia si avrebbe una coppia elettrone-positrone esclusivamente ‘virtuale’. Ora di tali coppie elettrone-positone virtuali è presente, nel vuoto, un numero infinito. Se su distanze molto piccole [sotto 10-12 cm.] esse possono modificare la fisica, a livello macroscopico invece non svolgono nessuna funzione.  [871]   

 

    Qualcuno ha immaginato che nel kenón vi siano “stampi” di tutte le particelle possibili e che i quanti di energia “irrompendo” li attivino per generare particelle; oppure, che essi siano energie latenti “informate”, capaci di trasformarsi secondo la E = mc2, in particelle reali. Il kenón sarebbe allora una sorta di hardware con un software di “informazione intrinseca”, o hyloinformazione, tale che, immettendo materie prime, cioè energie-masse, nascono materie “formate”.  Negli acceleratori, questi tubi sotterranei lunghi diversi chilometri al di fuori dei quali vengono creati campi magnetici giganteschi, già capita qualcosa di simile. In essi una particella-pallottola è sparata da una linea di partenza, la si “accelera” (la si carica di energia) su una particella-bersaglio e da una collisione “terribile” si genera spaventosa energia e scaturiscono altre particelle. Se le pallottole sono elettroni e i bersagli positroni essi si annichilano, lasciando per un istante infinitesimo un vuoto in cui esistono due fotoni allo stato libero. Ma quando lo stato energetico diminuisce non compaiono più elettroni e positroni, ma altre particelle “casuali” (neutrini, quark e mesoni) che si combinano ulteriormente a formare particelle reali stabili.

    Ci siamo avventurati nella creazione “a caso” e tuttavia siamo noi ad aver “determinato” artificialmente (in quanto agenti ”estranei” alla RgP) la perturbazione. Sapendo ciò che abbiamo fatto e immesso, in termini probabilistici siamo in grado di prevedere a che cosa possa condurre la perturbazione. La perturbazione attiva del kenón ci riporta all’ipotetico àkeiron, l’oceano quantistico in bonaccia da cui potrebbe esser saltato fuori il bigbang, ma quest’idea della perturbazione causale è vista come fumo negli occhi non solo dai teologi ma anche da numerosi fisici. E tuttavia l’ipotesi di uno stato quantistico pre-bigbang resta sempre più plausibile di un big-bang uscito dal nulla proprio perché c’è un fenomeno reale che l’avvalla: la perturbazione “artificialmente” del kenón. Non è quindi così peregrino immaginare un iper-kenón etero-perturbato che dà inizio a un’“evoluzione pre-cosmica” di masse-energie. Forse che la nascita della vita non è stata casuale e l’evoluzione biologica non è  prevalentemente accidentale e casuale ? [872]

    Quell’ipotetico mare quantistico in bonaccia se c’era (od esistesse tutt’ora “fuori” del nostro cosmo) è pensabile come un vuoto ad un livello fondamentale di materialità, forse già contenente  pre-informazione, forse pre-legagenze, forse pre-masse-energie. “Culla” da cui escono tutti i tipi di particelle virtuali che la fisica può ammettere “in attesa” di accedere alla realtà attraverso la nascita di un cosmo che le includa. Ma fors’anche molti altri tipi di particelle che né conosciamo né conosceremo mai, perché estranee al “nostro” tipo di universo o perché estinte in qualche fase del suo processo formativo, e di cui ogni informazione è andata perduta. L’importante è i pensare quell’inizio filosoficamente e non filosofalmente, ammettendo che noi possiamo accedere soltanto ad una parte minima della realtà persino nell’ambito del mondo che ci concerne, mentre ignoreremo sempre tutto di ciò che ne sta fuori. Purtroppo l’homo sapiens tende sistematicamente a rifiutare l’ignoranza e l’ha esorcizzata nei millenni con un espediente, quello di proiettare tutto ciò che non sa nell’onniscienza di qualche Dio o nell’intelligenza di qualche Principio Cosmico. Delle essenze “che sanno e che possono fare tutto ciò che all’uomo è precluso”, ma che nello stesso tempo permettono all’uomo di specchiarsi in esse e quindi di sentirsi, come essere pensante, partecipe “in piccolo” delle loro divine facoltà.

    Per quanto noi disponiamo di un’intelligenza abbastanza “adeguata” a leggere il mondo fisico molto di esso ci sfugge per strutturale incapacità di accedervi. Il bel saggio di Barrow, da cui abbiamo già tratto qualche citazione analizza il problema:

 

Queste speculazioni ci aiutano a capire che la nostra mente potrebbe esser carente di quello che è necessario per comprendere l’Universo, o anche piccole parti di esso. Potremmo dover affrontare questo problema, ossia il fatto che la nostra mente non sia in grado di afferrare certi concetti alla base della realtà. […] Per parafrasare J.B.S.Haldane, l’Universo potrebbe esser più strano non solo di quanto noi immaginiamo, ma anche di quanto “possiamo” immaginare. [873]

 

La sensazione che in generale si ricava dai discorsi dei fisici non-presuntuosi e non-ideologizzati è quella della consapevolezza di una certa “impotenza” intellettiva, di  “stranezze” e di enormi limiti tecnologici nell’indagine. Barrow ci ricorda che se le nostre leggi fisiche sono corrette dovremmo poter indagare la materia elementare a temperature di un milione di miliardi di volte più elevate di quelle oggi raggiungibili coi più potenti collisori [874].

     Se nel “nostro” universo le energie sono di certi tipi che definiremo per convenzione “positivi” (in quanto noi esistiamo grazie ad esse), potremmo immaginare il kenón che noi siamo in grado di produrre come l’“al di qua” di un metaforico specchio fisico reale da cui siamo separati e dove esistono energie negative. Lo specchio rimanda a noi una certa immagine della realtà e contemporaneamente cela nel suo fondo ”altri mondi” che “effettualmente” non ci concernono, quindi per noi non solo ignoti ma “irreali”. Il vuoto quantistico però è in-sé reale e siamo noi semmai ad essere irreali rispetto ad esso, “fatti” con entità fisiche differenti da quelle uscenti da un tipo di kenón che è “altro” rispetto a noi. In tale realtà “altra”, si celerà forse un tipo di “specularità” simile (o totalmente dissimile) da quella del tipo di kenón a noi accessibile? In questo le particelle saltano fuori dalla sua realtà per trasmigrare nella nostra e assumere quei valori positivi di energia che le rendono reali, per noi e “con noi”. Ma accade anche che, “al posto” della particella trasmigrata nel nostro mondo (e “ridefinita” nel suo essere), immediatamente un’altra particella identica, apparentemente “dal nulla”, nasca e ne prenda il posto.

    Il kenón, questo vuoto pseudo-nulla in cui si auto-creano particelle straniere all’universo noto (ma speculari ad altre del “nostro” mondo) viene chiamato dai fisici anche “falso vuoto” o “vuoto fluttuante”. In esso fluttuano disordinatamente particelle “sub-reali” costituenti una realtà differente da quella che ci concerne, ma che possono trasferirsi dall’aldilà all’aldiquà in certe condizioni, mutando la loro natura oppure no. Questo ci induce a renderci conto che di ciò che esiste realmente in senso lato solo una minima parte riguarda le nostre possibilità cognitive e che oltre ad uno “speculare negativo” dell’infra-visibile e a un “positivo” dell’ultra-invisibile vi è anche un “moltissimo” dell’universo visibile che resta comunque irraggiungibile in termini di “spazio-tempo”. In altre parole, il teoricamente accessibile è praticamente inaccessibile per una questione di spazio-tempo e a questo va’aggiunto tutto ciò che dipende da mezzi e strumenti tecnologici che saranno sempre impossibili da realizzare.  Lawrence Krauss ci offre di ciò che si nasconde nel vuoto una sua interpretazione generale:

 

Poiché una tale particella non può essere ”reale” nel senso che la si possa misurare, la si chiama particella “virtuale”. Possiamo perciò immaginare che, attorno a una particella, ci sia una ”nube” di particelle virtuali che balzano fuori momentaneamente dal vuoto, trasportando energie e quantità di moto che sono inversamente proporzionali al tempo e alla distanza che percorrono prima di svanire. [875]

 

    Possiamo chiudere quest’excursus sulla fisica del vuoto per trasferirne i contenuti nell’alveo della filosofia, e lo faremo con un’operazione terminologica conclusiva opportuna e dovuta. Nel definire il vuoto-nulla (che in realtà nulla non è affatto) siamo partiti dall’àpeiron di Anassimandro per approdare al kenón di Leucippo, constatando che in realtà la loro sintesi porta proprio a quell’ “illimitato-indefinito-vuoto-pre.essere” che abbiamo visto nel “vuoto-quantistico-fluttuante” della fisica. Faremo allora un omaggio ai due grandi filosofi ionici ridefinendo il vuoto ipotetico da cui può essere nata la realtà a noi nota, ma anche esser nata o poter nascere un “altra” che ci è ignota e non ci concerne ontologicamente, chiamandola àkeiron, da àpeiron + kenón. Noi supponiamo pertanto l’àkeiron come un ossimorico nulla-tutto, che è un “nulla” per noi e per la nostra realtà, ma che da vedersi come un remoto da noi “tutto di possibilità”. Appena infatti si abbandoni la prospettiva antropocentrica che fonda la maggior parte delle metafisiche e delle religioni, e si sfondi il loro “chiuso” orizzonte verso un nuovo orizzonte “aperto” al quale umilmente affacciarci, noi riconosceremo di non-sapere. Ma sapendo di non-sapere avremo acquisito qualche possibilità in più di conoscere, onorando così la filosofia come quell’amore del conoscere che deve guidarci nel nostro lavoro.

 

            

 

                 7.2 Il divenire, l’esistere e l’esistenzialità 

 

    Questo paragrafo si offre come parziale digressione dal discorso sulla fisica, poiché sposta temporaneamente la nostra attenzione sull’homo sapiens e su una sua specificità. Alludiamo a qualcosa di lui che è sì supportato dalla fisicità funzionale, ma che sta fuori dalla generalità dei corpi e delle menti come da tutto ciò che si offra come “umanità” generica. Stiamo parlando dell’individualità [876] implicata dall’esistere di ognuno di noi, che genera una categoria dell’essere tipicamente umana che abbiamo chiamato esistenzialità. Prenderemo il discorso alla larga con un inciso lessicale. Se si apre qualsiasi dizionario di filosofia ci si accorgerà che la voce essere è una delle più vaste e complesse, e comunque di gran lunga più estesa di quella sul divenire, con un rapporto non lontano da 10:1. Il termine esistenza è meglio trattato, ma più che altro perché sta alla base dell’indirizzo di pensiero noto come esistenzialismo. Nulla da rilevare se il termine essere concernesse un’ontologia dell’essere “reale”, l’unica ontologia che abbia gnoseologicamente un senso compiuto. Non si farà fatica però ad accorgersi che ciò a cui si fa riferimento è l’essere “metafisico”, cioè il divino nelle sue varie forme, accezioni e livelli. Realtà culturale in cui siamo immersi e di cui siamo permeati che fa sì che ciò che passa per cultura filosofica sia in realtà null’altro che la palude metafisica in cui siamo immersi da ventiquattro secoli.

    Quanto sopra appare abbastanza sconcertante per una cultura che si pretende “moderna” in virtù del livello scientifico e tecnologico raggiunto. Se la filosofia è “amore del conoscere” deve capire che oggetto del conoscere è il pluralismo del divenire. Questo si pone come superamento del nulla, quindi il reale che nasce dal potenziale, il dinamico e vitale che muove ed evolve sul fondale dello spazio-tempo, con una freccia del tempo che disegna la storia del cosmo e localmente della vita. In un’interessante saggio del 1997 il filosofo della scienza Massimo Pauri mette in rilievo l’improprietà del concetto usuale di “flusso del tempo”, in quanto esso lo sostanzializza occultando il vero divenire. Egli scrive:

 

Ma sarebbe errato identificare il divenire con il semplice passaggio del tempo e descriverlo con la metafora cinematica del “flusso” inteso come uno spostamento del presente. La metafora del flusso nel “fiume del tempo”  è fuorviante, intanto perché si riferisce al tempo come a una sostanza e poi perché tende ad occultare il cuore del problema del divenire che è, come ho detto, la realtà della potenzialità. [877]

 

Condividiamo. Quando sosteniamo che l’accadere non va confuso col divenire anche noi assumiamo il concetto di realtà a base del giudizio sulla fenomenologia fisica. E  intendiamo sottolineare che dal punto di vista della realtà fisica se qualcosa accade, ma abortisce (per ektromasi, come vedremo più avanti) e non lascia traccia di sé come diveniente,  è “come se” non fosse mai avvenuto perché non ha divenire.

    Il cuore del problema sta sempre nel fatto che l’homo sapiens fabbrica nel proprio cervello immagini mentali (pensieri) che finisce per credere reali, senza cercare i necessari confronto con i veri reali nella realtà generale quale loro quadro d’insieme. Il problema antropologico che si pone è anche in quale momento della sua evoluzione si può supporre siano nati nella mente dell’homo sapiens quei fittizi “paradigmi del mondo” di cui l’essere è sicuramente il principale. Non è escluso che siano nati ben prima che Parmenide descrivesse monisticamente il suo essere divino, ma resta senza risposta il domandarci se un essere sia stato pensato e soprattutto se accanto ad esso sia stato pensato anche un divenire (ma non certo nel senso mistico di Eraclito). Non impossibile che, sia pure in maniera vaga, possa essersi affacciata ad un certo stadio dell’evoluzione cerebrale di quest’animale a due gambe ancora dedito a caccia e raccolta la domanda: «potrebbe forse esserci una realtà in divenire?» Ma poi con l’avvento dell’agricoltura le comunità umane si strutturano in società gerarchizzate e le domande gnoseologiche si trasformano in risposte metafisiche.

    Con l’agricoltura e l’organizzazione sociale gerarchica, fatta di re e di sacerdoti che ne legittimano il ruolo, deve cassare ogni traccia di realtà transeunte, poiché il teologico essere dei metafisici “funziona” in quanto immutabile solido eterno e gratificante, e soprattutto perché “non costa nulla”. Al contrario il divenire, in quanto dinamico e mutante, inquieta, “costa”, e soprattutto mette in discussione una gerarchizzazione statica dell’essere finendo per dissestarla. Il divenire perciò non è mai gratis, ma ha un costo enorme per la stabilità sociale come per le emozioni e i sentimenti umani. Ma tutto ciò è il riflesso antropico del costo ontico di un complesso reale ontico dove sono i fattori energetici a pluralizzare e a dinamicizzare il “ciò che diviene”. La pluralità degli enti “divenienti” nel produrre realtà consuma anche energia e tale consumo si esprime come entropia, anche se a livello locale i viventi convertono un pò di energia in ordine organico e quindi in entropia negativa (neghentropia). Il divenire è però solo la facies fenomenica e “manifesta” di un accadere globale come sua infima parte, concernendo solo il “generato” e ignorando completamente l’”abortito” (l’ektromatico), che è sicuramente la maggior parte. 

    Noi conosciamo  il “manifestarsi” di una cellula cancerogena, ma ignoriamo del tutto le mutazioni cellulari potenzialmente pericolose “annullate” dall’attività dei “soldatini” del nostro sistema immunitario. Di queste nostre “guardie biologiche” conosciamo le strutture e i funzionamenti, ma per nulla le loro singole azioni “storiche” a difesa del nostro organismo, cioè i “fatti” che hanno impedito il “manifestarsi” di una mutazione pericolosa. Come non sappiamo nulla delle infinite volte in cui virus o batteri sono entrati nel nostro corpo e hanno operato in senso contrario alla salute, ma poi neutralizzati dai linfociti, il cui compito è appunto di annullare sul nascere ogni pericolosa intrusione anti-organismo. Ponendo l’accadere in tutta la sua profondità ed estensione alludiamo perciò ad un livello più profondo della realtà, la cui conoscenza ci è preclusa ma di cui la filosofia deve tener conto almeno sul piano teorico. In fondo, l’accadere, anche se noi non possediamo i mezzi per indagarlo, è sicuramente reale, metaforicamente più o meno come lo sono le uova che non schiuderanno mai rispetto a quelle da cui escono i pulcini.

    Il pensiero tradizionale non è mai stato capace di chiedersi se la fenomenicità non nasconda una cripto-fenomenicità abortiva che non “arriva al traguardo”, ma “accade”. Essa “è” solo per il lasso di tempo in cui accade, anche se poi non lascia alcuna traccia di sé. E tuttavia anche la “traccia” pone un problema ontologico, poiché negli acceleratori di particelle il più delle volte è solo una traccia a rivelare l’esistenza di qualcosa “che non c’è più” ma che c’era senza persistere,  inesistente “per noi” e nel nostro mondo. È vero che ciò che appare può avere più essere di ciò che non appare, ma un po’ d’essere può averlo anche ciò che “passa” senza apparire. Un assurdo storiografico è che la metafisica ha sempre conferito essenza ad uno spirituale “inventato” che non-appare perché si-nasconde, negandola a ciò che esiste, appare ed è percepibile. Su tale base è nato il nascondimento del “vero” essere, rivestendo di un suo surrogato il “pensato”, al punto che, posta una “verità” del pensato in Dio, automaticamente il pensiero metafisico è stato elevato a veicolo di divina verità. Le dicotomie essere/apparire o noumeno /fenomeno nascono da tale inganno; perciò la fenomenicità, che è anche esistenza, va svincolata da ipostasi come l’essenzialità o sostanzialità.

    La fenomenicità è l’aspetto evidente del divenire (la parte “effettuale” dell’accadere), mentre l’opposizione aristotelica in potenza/in atto fa molto comodo (e noi stessi l’abbiamo utilizzata) ma è impropria, poiché in potenza tutto è possibile, ma solo il “probabile” è accadibile e può diventare in atto. Il possibile può accadere, il probabile può divenire, il diveniente ha essere in ogni istante del suo divenire. Non sarebbe fuori luogo formulare cinque principi ontologici per tentare di classificare l’ontico dal massimamente generale al particolare: 1° l’accadibilità, 2° la divenienza, 3° la relazionabilità, 4° l’invarianza e 6° la teleonomia. Infatti l’accadibile prima o poi accade e parte di esso si fa diveniente e nel contempo relazionabile ad “altro-da-sé”, dopo di che il relazionabile entrando in rapporto con esistenti invarianti diviene esso stesso un possibile invariante, e una volta invariante la sua persistenza si perfezionerà attraverso la possibilità di diventare, “teleonomizzandosi”, il capostipite di una nuova categoria di esistenti.   

    L’esistere deriva dal latino ex-sistere = stare fuori: ma è uno stare fuori da che cosa? Orbene, uno “star fuori” da niente per la stessa ragione che non è “dentro” a niente; l’essere è infatti da vedere solo come uno stato “passante” del “diveniente”; si tratta di un ”è” che  istantaneamente diventa un “è stato” rispetto a un divenire generale. Affinché l’ex-sistere acquisti un senso noi dobbiamo mettere in campo un nuovo concetto, che si estrinsechi in un “chiamarsi fuori” da qualcosa. Ma l’unica entità che si eriga autonomamente “fuori” della generalità dell’accadere, del divenire e dell’essere, è l’individualità.  In teoria ogni essere vivente, in quanto tale rispetto alla “vita in generale” si chiama in qualche modo fuori della generalità che essa rappresenta: quindi ex-siste ( = sta fuori) dal vivere generale. Ma l’individualità implica la consapevolezza di poter pronunciare il pronome personale “io” e di percepirsi come unicità esistenziale attraverso un divenire che annulla ogni essere statico.

    Affinché l’ex-sistere sia reale, in quanto vissuto come tale, è quindi necessario che l’essere vivente abbia una qualche coscienza di un suo “star fuori” dalla generalità. Giocoforza concludere, allo stato attuale delle nostre conoscenze, che di ex-sistentia si possa parlare certamente per l’homo sapiens, probabilmente per i primati e forse per altri mammiferi molto intelligenti come cani, gatti, elefanti, delfini e poche altre specie. Siamo così giunti a uno snodo importante del filosofare che si pone oltre la fisica, la chimica e la vita, ponendosi come una forma limite dell’essere. Poiché l’esistenzialità di ogni individualità realmente ex-siste rispetto alla sfera di una realtà esterna. Un ente fisico non ha esistenza ma solo persistenza in un dato sistema e in essa si esaurisce il suo essere, mentre una sensibilità umana nel suo esistere ex-siste dall’esistenza generale. Si tratta della condizione di un essere vivente che nel vivere sa di vivere, potendo rappresentare un’unicità rispetto a un generalità che lo include ma non lo esaurisce. Di fronte a un tutto, a un insieme, a un noi, l’individualità è in grado di dire “io” e con ciò di assumere esistenzialità. È questo il fattore esistenzialistico già posto dualismo antropico reale che dovevamo richiamare nell’esposizione del pluralismo ontofisico, che vediamo come il massimo della generalità su cui si fonda il “persistere”, ma anche l’ex-sistere dell’individualità di ogni homo sapiens passato, presente e futuro.

    Abbiamo ritenuto opportuno inserire il presente paragrafo come memento del fatto che il pluralismo ontofisico non nasce da alcun riduzionismo materialistico, ma anzi lo supera verso orizzonti post-materialistici. La sfera del fisico in esso ammette l’extrafisico, poiché ha come sua base di partenza non già il materialismo monistico, ma un pluralismo ontologico che non chiude l’orizzonte ontico ed apre in maniera inusitata quello antropico. Giunti a questo punto dell’esposizione ci siamo preoccupati che il lettore che non conosca le nostre basi di partenza possa aver l’impressione che noi siamo dei materialisti riduzionisti. Noi siamo materialisti per quanto concerne la sfera del fisico ma non lo siamo appena ci collochiamo in un extrafisico rappresentato da realtà “altre” rispetto a quelle che la materialità rappresenta. Realtà che si offrono, appunto, in un’esistenzialità che si accompagna alla fisicità e su essa si fonda (perché le sue funzioni sono prodotte da neuroni e sinapsi) ma con la “possibilità” di poterne prescindere. Si tratta degli orizzonti aperti dalla sensibilità intuitiva che caratterizza l’individualità attraverso la funzionalità idemale. L’idema è infatti quella funzione-organizzazione mentale (accanto a psiche, ragione e intelletto) che ci permette di uscire temporaneamente dalla materialità per rapportarci all’aiterialità; essendo l’aiteria una realtà compresente e coesistente con la materia che ci costituisce, ma “altra” per quanto al margine di essa [878].

    Abbiamo coniugato il DAR (ed insieme l’idema e l’aiteria che lo concernono) per stabilire col pluralismo ontofisico la relazione tra essi in un quadro di riferimento chi li include, il pluralismo ontologico. E ciò perché, in quanto percipienti, osservanti e conoscenti, siamo anche senzienti, sicché il divenire degli enti in generale come fenomenicità generica va tenuto distinto da quello dell’individualità, che pensa ma anche “sente”. Gli enti che di essa sono dotati, per quanto divengano come tutti gli altri enti nella generalità, divengono “anche” qualcos’altro di più speciale come idioaiteri partecipi dell’aiteria [879]. Essi “esperiscono” la realtà come affettività, sentimentalità, eticità, esteticità con modalità assolutamente uniche, differenti da persona a persona. Queste esperienze per noi non sono epifenomeni del fisico e neppure del biologico in senso stretto, per la semplice ragione che la biologicità è ancora sempre una generalità. Con l’individualità e con l’esistenzialità noi siamo così arrivati al punto estremo della regionalizzazione dell’essere, poiché un individuo dotato di sensibilità intuitiva non solo è nella RgC ma (sia pure in piccola parte) anche in uno specifico “extra” a cui quella particolare funzione mentale che è l’idema gli permette di accedere.

    Entro la tematica dell’esistenzialità, implicante la consapevolezza della nostra insignificanza di fronte al cosmo, delle nostre insufficienze nell’approccio ad esso e della profonda ignoranza che ad esso ci rapporta, può emergere l’ironia esistenziale. Essa era già stata posta in Necessità e libertà come oggetto del § 6.5, quando scrivevamo:

 

L'ironia dualistica consiste in quell’atteggiamento che percepisce come ridicoli gli innumerevoli aspetti delle nostre paure come delle nostre sicurezze, delle nostre preoccupazioni come delle nostre apatie, ma soprattutto di quelle manifestazioni di assurda presunzione che ci fanno allontanare dal senso della realtà. [880]

 

E poco più oltre:

 

La nostra presunzione di importanza e talvolta addirittura di onnipotenza (spesso attribuita riduttivamente solo ai bambini e agli immaturi) che in genere caratterizza la nostra autovalutazione e il nostro comportamento deve essere portata in superficie, per ricondurci ai termini veri del nostro rapporto col mondo e della nostra vulnerabilità psichica. Però l’ironia dualistica è anche la conseguenza della consapevolezza che il mondo è costituito da due realtà di cui una, quella che ci concerne, in noi e attorno a noi, si annulla continuamente nel fluire dell'essere dinamico, e quindi è una sorta di “non-essere”, mentre l'altra, che ha qualche titolo per aspirare alla persistenza si proietta in un incerto futuro, ed è soltanto un’indefinita sagoma che si specchia nella nostra idema. In altre parole, è il fatto stesso di vivere che ci condanna alla finitudine e all’annullamento, mentre quell’incerto e indefinito futuro, che potrebbe in ogni caso diventare reale soltanto dopo la nostra morte, e comunque soltanto per un “derivato” della nostra individualità (l’idioaiterio), ci attende “ironicamente” ammiccante, tra le nebbie di dubbiose intuizioni che recano con sé una mare di incertezze. [881]

 

Erano là poste le coordinate di un atteggiamento filosofico che la sintetica voce di glossario così definiva: «Atteggiamento mentale di distacco dalle quotidiane vicende esistentive, derivante dalla consapevolezza della nostra individuale irrilevanza di fronte alla vastità dell’universo.» [882]     Correlando quanto scritto a suo tempo con quanto scriviamo ora abbiamo un chiarimento su che cosa si debba intendere per ironia esistenziale, concetto che si basa su due termini: uomo e cosmo. Il rapportarsi del primo al secondo si estrinseca in una ampia gamma di atteggiamenti mentali che spaziano da quello religioso-metafisico a quello scientifico-filosofico quali estremi inconciliabili.  L’atteggiamento religioso-metafisico, pur con sfumature formali molto ampie e differenti strumenti (rivelativi o logico-dialettici), si fonda su un pensato arbitrario, cioè su una rappresentazione pre-fabbricata in base ad a-priori ideologici. All’opposto, su un conosciuto quale frutto dell’indagine fisica e filosofica nascono i punti di vista dello scienziato e del filosofo. La rappresentazione, cioè la weltanschauung, si legittima allora come modalità dell’uomo di rapportarsi alla realtà “facendosene idea”; l’importante è che l’idea sia ontologicamente corretta. Abbiamo peraltro visto che ogni nostra formulazione intorno a materie cosmiche fuori portata, sia al livello micro della RgP che al macro della RgG, è il modo tipico dell’uomo di rapportarsi ai vari gradi dell’inconoscibile. L’atteggiamento del filosofo nei confronti del rapporto uomo-cosmo non può essere perciò che l’ironia in termini di esistenzialità consapevole.

 

        

 

                                        7.3 Le simmetrie fisiche come invarianze

 

    Il concetto di simmetria ha accompagnato l’evoluzione intellettuale dell’homo sapiens in molti modi, con risvolti principalmente estetici ma anche mistici. Da un lato le astratte simmetrie geometriche e dall’altra quelle concrete dei corpi animali, delle foglie e dei cristalli, hanno promosso sin dall’antichità l’associazione del simmetrico all’idea di perfezione. La cosa perfetta poi facilmente diventa “perfettamente creata” da un “perfetto creatore”, necessitato o volente. Intorno alla metà dell’800 però la scienza incomincia ad utilizzare il concetto di simmetria nel senso di “uguaglianza” tra parti, “stabile” rispetto a certi cambiamenti. È William Whewell che nel 1847 (The philosophy of Inductive Science) ne intuisce l’importanza scrivendo: «l’Idea di Simmetria è applicabile al mondo inorganico come a quello dei regni organici della natura; è presente ai nostri occhi nelle forme dei minerali come in quelle dei fiori e degli animali.» [883] Si fa strada l’idea di utilizzare il concetto in riferimento all’equivalenza, all’invarianza, all’”uguaglianza rispetto a”, finché Pierre Curie intorno al 1883 studiando le proprietà termiche elettriche e magnetiche dei cristalli intravede il rapporto tra struttura e simmetria e l’estende alla fisica generale [884]. In  Sur la symmétrie dans les phénomenes physiques egli giunge a tre conclusioni importanti: 1a, la simmetria di un mezzo fisico dev’essere minore o tutt’al più uguale a quella del fenomeno che lo concerne; 2a, le simmetrie delle cause devono ritrovarsi negli effetti; 3a (derivata dalla 1a), è la disimmetria a creare i fenomeni [885]. 

     Con Curie nasce la nuova semantica della simmetria, che da statica si fa dinamica e non è più solo un modo d’essere, ma di divenire. Su questa via nota Elena Castellani che anche Luigi Lagrange nel 1788 (in Mécanique Analytique) ne aveva data interpretazione matematica ponendo le basi di un’analisi del moto svincolate dalla scelta di variabili particolari. Sia Helmholtz che Poincaré contribuiranno a delineare un nuovo di guardare alla dinamica fino alla teoria trasformazionale della meccanica di William Rowan Hamilton e in equazione dei moti (la cosiddetta “hamiltoniana”). Ripresa da Carl Gustav Jacobi diventa “approccio trasformazionale” alla simmetria secondo una teoria delle trasformazioni canoniche, consistente «nello sfruttare le simmetrie di un problema per trasformarlo in un altro problema equivalente ma di più facile risoluzione»  [886].  Le “trasformazioni invarianti” diventano così simmetriche e le proprietà di simmetria (di invarianza) non più vincolate a equazioni di leggi pre-formulate. Una delle prime significative applicazioni del principio di  simmetria è l’einsteniana equazione della RelR, che pone l’invarianza fisica per mutamenti di moto rettilineo o uniforme, cioè a velocità costante c.

               L’ingresso pieno del concetto di simmetria nella fisica inizialmente limitata al grande si estende poi al piccolissimo ed Heisenberg nel 1926 pone la simmetria di scambio del mondo subatomico per permutazione tra particelle indistinguibili. Nascono così i gruppi di simmetria, una delle basi teoriche del MS, a cui lavorano Hermann Claus Weyl ed Eugene Wigner, che distinguerà le simmetrie dinamiche dalle simmetrie geometriche poste da Einstein [887].  Ulteriori passi determinano le simmetrie di parità, o di riflessione spaziale, e quelle di inversione temporale ridefinendo l’heisenberghiana simmetria di scambio in una simmetria interna degli enti subatomici sottratta allo spazio-tempo per riflessione spaziale e inversione temporale. Conseguenza teorica la definizione delle famiglie di particelle, sicché Heisenberg di fronte alle esigue differenze di massa di protoni e neutroni vede in essi stati differenti di uno stesso sistema fisico simmetrico. Nasce il prototipo di tutte le simmetrie interne, che prenderanno il nome di simmetrie di spin isotopico poi semplificato in simmetrie di isospin. Un altro passo ad opera di Weyl è il principio di invarianza di gauge, o principio di gauge, relativo all’invarianza “di fase”  nell’elettromagnetismo, in base al quale se una teoria fisica è simmetrica va considerata “locale” e indipendente dallo spazio-tempo.

    Quel principio verrà in seguito esteso alle altre tre legagenze, per cui oggi si parla di simmetrie di gauge riunendo gli aggettivi “interne”-“di fase”-“locali” quali teorie di gauge [888]. Le simmetrie come invarianze sono alterabili da perturbazioni determinando rotture di simmetria. Accanto alle simmetrie di gauge ha assunto poi grande importanza un tipo molto differente di simmetrie posto da Paul Adrien Dirac nel 1931 in Quantized Singularities in the Electromagnetic Field che coglie la specularità antiparticelle/particelle rispetto alla carica elettrica, sicché da allora si parlerà anche di antimateria. Un elettrone e un positrone, come un protone e un antiprotone, sarebbero infatti identici se non fosse per la carica elettrica, da ciò la simmetria di coniugazione di carica (indicata con C). Essa è però una simmetria “discontinua” cioè discreta, mentre le simmetrie prima viste sono “continue” [889]. Poi Wigner nel 1939 avanza la possibilità che la simmetria renda possibile classificare le particelle elementari in base a “rappresentazioni irriducibili” di gruppi, intendendo con l’aggettivo “irriducibili” l’elementarità degli oggetti.

    Era nata la corrispondenza tra sistemi e rappresentazioni irriducibili dei gruppi di simmetria e proprietà “invarianti” come la massa, lo spin o la carica elettrica, che il formalismo quantistico esprime con numeri quantici.  Gli oggetti della MQ sono così diventati degli “insiemi di invarianti” dove anche eventi casuali (le “rotture intricate”) generano caratteristiche che diventano in un secondo tempo nuove invarianti necessitate. Ciò che “non cambia” è necessitato per il proprio sussistere e fermioni e bosoni sono fattori invarianti dell’essere, generatori di fenomeni e di caratteri fenomenici elementari. Tutto ciò che essi creano aggregandosi mantiene e sviluppa un’elementarità diveniente. Le simmetrie sono quindi “indici di conservazione”, ma possiamo dedurne che esse siano sempre state conservative? Una frazione di secondo dopo il bigbang il nostro universo aveva già elementi di simmetria ma “nella più assoluta instabilità”, e tuttavia si evoca spesso la simmetria di una forza pre-bosonica da cui per rottura nascano gravitoni, gluoni e bosoni elettrodeboli, poi scissi per ulteriore rottura in fotoni e nucleodeboli (W+, W - e Z 0),  privi di massa i primi e massicci i secondi [890].

    L’analogia simmetria-necessità messa in crisi dall’evolvere bosonico? Non pare. Una dicotomia necessità/casualità non ha senso poiché esse “convivono” nel probabilismo ontico, sicché la coppia necessità/casualità è solo una polarità di riferimento. Simmetria significa che all’interno di un sistema fisico c’è linearità causale, mentre la sua rottura è accadimento che può essere sia lineare che non-lineare (intricato). Alla linearità necessitata può sempre subentrare un intrico causale indeterministico. Perciò le simmetrie paiono “interne” al modo d’essere del mondo subatomico, ma la fisica teorica Lisa Randall le vede solo come utili “strumenti di lettura”:

 

La simmetria è un indicatore che ci mette in condizioni di decidere quali siano le quantità degne di osservazione, perlomeno in linea di principio (quelle con la polarizzazione ammessa) e scartare le quantità spurie, che non dovrebbero esserci (quelle che comportano una polarizzazione falsa [non reale] nella direzione di moto). […] il filtro delle simmetrie interne distingue i processi fisici che preservano la simmetria da quelli falsi che non la preservano. Le simmetrie interne rendono facile eliminare le polarizzazioni-spazzatura: sono quelle che, se fossero presenti, romperebbero la simmetria  interna. [891]  

 

Porre una simmetria significa eliminare dai calcoli tutto ciò che è spurio e non riferibile alla realtà e che aiuta a comprendere come le particelle possano organizzarsi. La simmetria è quindi un filtro per scartare “false” rotture di simmetria e lasciare le “vere” (situazioni che vedono “rompersi” uno stato di cose e nascerne un altro). Le rotture di simmetria accadute durante la dilatazione dell’universo primordiale sono le tappe dell’ “evoluzione” cosmica successiva al big-bang, dalla massima concentrazione di energie-masse alla loro dispersione in un universo dilatato e raffreddato. La rottura di simmetria è concetto evoluzionistico che permette misure e previsioni; l’unico rischio è un loro uso finalizzato a formulare teorie “belle” o “eleganti”. La Randall osserva:

 

Le migliori teorie mantengono l’eleganza tipica delle simmetrie simmetriche, ma nello stesso tempo incorporano quelle rotture di simmetria che di fatto sono necessarie per dar conto dei fenomeni con cui il nostro mondo si manifesta. L’obiettivo è quello di elaborare teorie che siano sempre più aderenti ai fatti, senza venir meno all’eleganza: così, talvolta, le teorie risultano anche più belle. [892]

 

Una teoria deve innanzitutto essere aderente ai fatti, ma se è “bella” è meglio. Ma il filosofo si domanda: le rotture di simmetria sono sempre state belle o ce ne sono state di brutte diventate belle per successivi aggiustamenti? Se una rottura di simmetria distrugge un certo ordine per instaurarne uno nuovo, non sarà che le rotture pregresse siano belle se oggi entrano nelle nostre simmetrie?

    Possiamo proseguire dicendo che gli accadimenti fisici rispondono a modelli evolutivi su cose e fatti fisici non poi molto dissimili dall’evoluzione del vivente. Con la differenza che la biosfera si è costituita in tempi molto lunghi (sia pure con accelerazioni, rallentamenti e “salti”) mentre il mondo fisico si è costituito in un tempo brevissimo e caotico. Dopo quanto tempo dal bigbang è esistito qualcosa come un cosmo? Il termine κόσμος, che significa ordine, fu posto dalla teologia politeistica greca probabilmente già all’inizio del I millennio a.C. Ma già prima nel panenteismo indiano il brahman (l’Uno-Tutto-Necessità) aveva conferito ordine al proprio essere necessario. Nei monoteismi invece è il Dio-Volontà a creare l’essere-ordine e l’idea di “perfezione divina” si configura così come il frutto della convinzione che il cosmo sia “ordinato”. Sant’Agostino nel rileggere il testo biblico colloquiando con Dio può affermare:

 

Non hai insegnato tu, o Signore, a quest’anima che ti confessa, non hai tu insegnato, Signore, a me, come, prima che questa materia informe ricevesse da te una forma ordinata, nulla esisteva, né colore, né figura, né corpo, né spirito? Un nulla, però non assoluto, bensì un’entità informe, priva di qualunque aspetto. [893]

 

La simmetria come forma-ordine contrapposto all’informe-caos ha anche un risvolto antitesi del tipo determinismo/indeterminismo e pluralismo/monismo. Ma è anche importante capire se le simmetrie sono solo espedienti teorici o invece traduzione teorica di fatti reali. Ebbene, le violazioni di simmetria sono reali, poiché se qualcosa si può violare è perché esiste, ed infatti quelle indotte ad esempio dai bosoni nucleodeboli sono rilevabili e documentabili. Ciò mostra come le simmetrie in fisica siano qualcosa di “necessario” per la conservazione di certi equilibri, rotti dall’irrompere di perturbazioni sia casuali-naturali che indotte-artificiali. Nasce allora una incompatibilità tra l’olismo monistico di una fantasticata TOE (a simmetria “unica” e “inviolabile”) e la realtà pluralistica di successive rotture delle simmetrie. Se ne può dedurre ancora una volta che il monismo trova la sua ragion d’essere non nella realtà, ma nella volontà che essa “debba essere” in un certo modo ideologico e voluto. Il pluralismo ontofisico vede invece nella necessità delle simmetrie un “come” limitativo che le lega, ma anche le distingue.  

    Simmetria significa invarianza, quindi conservazione ed ordine; ma in fisica essa è un “perlopiù” e non un “sempre”, le simmetrie possono infatti anche esser deboli e insufficienti per conservare, e quindi facili da rompere passando da equilibri precari al altri più solidi. Ma siccome le teorie per funzionare ed essere utilizzabili prevedono simmetrie, seguiamo Lee Smolin:

 

Ci sono molte situazioni in cui le leggi della natura sono in qualche modo simmetriche, ma in cui le sole configurazioni stabili sono quelle asimmetriche. Siccome però la teoria è simmetrica, non si può dire quale fra le configurazioni stabili verrà scelta. La scelta deve invece essere fatta dal sistema stesso. Quando ciò accade, si dice che c’è stata una rottura spontanea di simmetria  delle leggi. Si immagini una matita in equilibrio sulla punta. Non può rimanere a lungo così, perché è instabile, e una spintarella da una parte o dall’altra la farà cadere. Se la matita è perfettamente equilibrata la gravità non può dirci da che parte cadrà: un lato vale l’altro. Ma ogni piccola perturbazione romperà la simmetria, portando al verificarsi di una situazione più stabile, ma con meno simmetria, una di quelle in cui la matita giace sul tavolo appoggiata a uno dei suoi spigoli. [894] 

 

La frase «la scelta essere fatta dal sistema stesso» dimostra che per il fisico monismo o pluralismo pari siano in quanto è irrilevante se la “scelta” sia fatta dal sistema o da uno dei suoi costituenti. Il filosofo invece è tenuto a cogliere il fatto che sono i secondi a determinare il primo. Inoltre, le matite sulle punte in natura non esistono, mentre di matite sul sedere ce ne sono moltissime, costituendo la maggior parte dei “luoghi dell’essere” soggetti a mutazione per quanto anche tipologie ed intensità delle perturbazioni siano determinanti. Se ne evince che le usuali dicotomizzazioni ordine/disordine, stabilità/instabilità, determinismo/indeterminismo e così via sono perlopiù improprie, poiché la realtà è fatta solo di possibilità e di probabilità, dove quasi-tutto può accadere e tutto è dal più al meno probabile in termini dinamici ed evolutivi. A nessun livello e da nessuna parte esiste un essere che non sia divenire dinamico anche in una relativa invarianza. Gli atomi, che abbiamo più volte indicati come sistemi “stabili” possono creare nuova realtà nella misura in cui si de-stabilizzano; e d’altra parte l’atomo vede fuori del nucleo un turbine elettronico di una dinamicità totale. Ma anche un protone è una struttura dinamica e nota Robert Oerter:

 

«All’interno del protone c’è un turbinio di attività: scambi di gluoni, coppie di quark-antiqurk virtuali che si creano e si distruggono.» [895]

 

    C’è da considerare un ulteriore aspetto della simmetria di carattere specificamente gnoseologico, poiché è in virtù di essa che noi possano conoscere qualcosa del cosmo anche lontanissimo da noi: la transazionalità. Essa indica la nostra possibilità, grazie all’invarianza cosmica tra “qui” e “molto lontano” di poterci considerare omogenei a tale molto lontano. Nota Brian Greene:

 

Quando affermiamo che le leggi fisiche valgono in Connecticut come a New York (e sulla Luna possiamo aggiungere) diciamo il vero, ma dobbiamo precisare le diverse condizioni locali. Ciò nonostante, e questo è ciò che ci interessa, la teoria e il suo potere esplicativo non cambiano da punto a punto: spostarsi da un laboratorio all’altro non richiede ai fisici di trovare di volta in volta leggi sempre nuove. Non è scritto da nessuna parte che dovesse essere così per forza. È possibile immaginare un universo in cui le leggi fisiche che valgono sulla Terra non ci dicono nulla su ciò che accade sulla Luna, nella galassia di Andromeda o nella nebulosa del Granchio. In realtà non possiamo sapere con assoluta certezza che leggi a noi note valgano anche negli angoli più remoti dell’universo; ma se così non fosse, si tratterebbe di luoghi molto, ma molto remoti, visto che le osservazioni astronomiche più accurate possibili ci mostrano un universo in cui le leggi valgono ovunque, perlomeno fin dove riusciamo a vedere. [896]

 

Questo è il punto: noi “vediamo” una realtà se essa è permeata da fotoni, o quantomeno, se è reattiva con le particelle di materia che conosciamo. Il fatto che “non-vediamo” (e quindi definiamo “oscura”) una realtà per ora ignota, significa che la natura di essa è differente, e che dovremo perciò scoprire quali caratteristiche possa avere.  Ma se sono le simmetrie a “permettere” di conoscere, se ne può dedurre secondo Greene che: «Le simmetria non sembrano semplici conseguenze delle leggi di natura. Dal nostro punto di vista, sono le fondamenta delle leggi stesse.» [897]

 

 

 

 

 

 

                                         7.4 Le rotture di simmetria come varianze

 

    Per Sant’Agostino la “forma ordinata” caratterizza l’opera del Dio-Volontà cristiano, escludendo ogni dis-formazione del mondo che solo il peccato come portatore di disordine determina. Ma ancor più per chi crede nel Dio-Necessità il cosmo è sempre perfetto e in ordine. Noi pensiamo invece che il cosmo non sia mai “in ordine” ma sempre in evoluzione verso altri ordini anch’essi transitori. Sono infatti le mutevoli relazioni tra enti fisici, strutture e sistemi, che in un gioco continuo distruggono e ricreano ordine; un gioco in gran parte deterministico ma con fattori di  indeterminazione che “rompono” per innovare. Il concetto di simmetria è sempre a rischio di esser utilizzato da ilozoisti, olisti e vitalisti, per dirci che il Tutto è “fondamentalmente” in ordine e che “si fa” nell’ordine. La fisica ci dice invece che una simmetria può sempre rompersi e che le simmetrie sono molte e varie per almeno quattro motivi. 1°: l’universo non è un sistema e non ha una simmetria, ma ne vede al suo interno molte come “contenitore” del “ciò che è”. 2°: il ciò-che-è va inteso come un “quelle che sono” le particelle elementari e i loro assemblati ai vari livelli regionali. 3°: le particelle elementari sono di specie molto differenti e il modo specifico del “loro farsi” e del “loro esistere” (ed insieme del “loro persistere” singolarmente e negli assemblati) disegna il “differire” pluralistico. 4°: le particelle elementari non sono in funzione di nulla che non sia il proprio sussistere e per questo una simmetria rotta si ripristina in altre forme.

    Monod aveva teorizzato per il vivente un’invarianza e una teleonomia. Nel fisico la simmetria è invarianza ma gli enti hyletici si negano a una teleonomia trasmissiva, ma solo “di permanenza” essendo il loro essere a-finalistico. A differenza delle cellule viventi essi non sono “nel tempo” non avendo freccia del tempo né andando da nessuna parte ma da ogni parte. Nel generare l’accadere cieco dal quale emerge il divenire esse divengono a caso e tuttavia generano simmetrie, sistemi, ordini, leggi. Anche le cellule generano simmetrie, enormemente più complesse ma attraverso tentativi evolutivi altrettanto ciechi, con successi e fallimenti simmetrici o asimmetrici in attesa di successi teleonomici. Successi di un sussistere nel divenire, nulla potendo divenire se già non sussiste e diviene, sicché la vita è un particolarissimo e straordinario aspetto di un generale “di rottura in rottura”. La vita però è regolata da leggi “ulteriori” rispetto ad ogni altra regione dell’essere, senza però che si possano porre “piani dell’essere” come livelli assiologici. Il vivente non è “più nobile” del fisico poiché esso sussiste nei nostri corpi come ReP interna a una ReC realizzata. Il fisico non è  “morto” ma fondamento da cui emerge il vitale; un “prima” elementare rispetto a uno stupefacente “dopo”. Come “ulteriorità” del divenire la vita non sappiamo neppure se sia limite evolutivo,poiché nessuno può immaginare ciò che potrebbe accadere prima che il Sole collassi, tra circa 4 miliardi di anni.

    È il caso a produrre o scatenare le rotture di simmetria?  Siccome esse concernono la RgP, soggetta alla MQ, pare inevitabile pensare al caso come attore principale del loro verificarsi. Una rottura di simmetria potrebbe esser nient’altro che una particolare azione dei bosoni su se stessi. Ci aiuta qualche considerazioni di Heisenberg:

 

Nell’ambito della realtà le cui connessioni sono formulate dalla teoria quantistica, le leggi naturali non conducono quindi ad un completa determinazione di ciò che accade nello spazio e nel tempo; l’accadere (all’interno delle frequenze determinate per mezzo delle connessioni) è piuttosto rimesso al gioco del caso. [898]

 

Un caso che, lo ribadiamo, non è il contrario della necessità, ma ciò che ad essa si alterna per innovare, così come la necessità si instaura per conservare. È ciò che legittima il caso quale creatore di nuove realtà. Relativamente ai cristalli, così capziosamente utilizzati dai deterministi, Heisenberg puntualizza:

 

Non solo il fatto che gli atomi si ordinino in un reticolo a formare la materia solida, ma anche lo specifico tipo dell’ordinamento, le simmetrie, la struttura del cristallo possono esser dedotte dalle leggi atomiche. Ma la particolare forma esterna del singolo cristallo resta, secondo le leggi a noi note, rimessa al gioco del caso; anche se si potessero riprodurre precisamente le medesime condizioni esterne per la formazione di un cristallo, tuttavia la forma del nuovo cristallo non sarebbe sempre la stessa. [899]

 

Ovvio che la formazione di un cristallo debba seguire le leggi fisiche nelle aggregazioni atomiche  poiché altrimenti il cristallo non esisterebbe, però non esistono due cristalli uguali perché le aggregazioni atomiche non avvengono in base a necessità ma “a caso”, ed ogni cristallo “che si forma” è divenire non-necessitato.

    Vedere le rotture di simmetria come necessitate sarebbe contraddittorio poiché esse sono passaggi, “non durano”. Perciò la rapida evoluzione iniziale del cosmo era il divenire indeterministico di una rottura originaria. Le proprie leggi intrinseche le particelle dell’universo primitivo le hanno create “facendosi” e determinando successive rotture di simmetrie innovative e non conservative. Anche le “durate” delle fasi cosmiche sono irrilevanti di fronte all’a-temporale probabilità, per cui un processo può andare sia in una direzione che in un’altra. Alcuni cosmologi pensano che il “nostro” universo non sia che “uno dei tanti” e quella del pluriverso è tesi ricorrente che trova sostenitori non solo tra gli “stringhisti”. L’accadere, nella sua generalità caotica, consiste sempre nell’avverarsi di “una” alternativa tra molte possibili, la quale accade ma raramente diviene. Tutte le altre, abortite, è come se non fossero mai accadute rispetto al divenire reale e l’aborto indica ogni “fallimento” generativo, fisico, chimico o biologico.

    Faremo ancora ricorso alla lingua greca assumendo il sostantivo έκτρωμα, più appropriato di άμβλωσις per indicare “fallimento”, in quanto il suffisso έκ indica “uscita fuori”, “esclusione”, e quindi meglio fonda il significato. Con ektromasi indichiamo quindi la fenomenologia di “ciò che fallisce”, di ciò che non ha esiti concreti, di ciò che, pur affacciandovisi, va ”fuori” dall’essere. Ektromatici sono i processi senza esito e l’ektromasi è un negativo rispetto al realizzarsi. Tale “fallimento” nell’accesso alla realtà è implicato solo dal caso, poiché ciò che è necessario, per definizione, ha sempre successo. Il caso è alla base dell’ektromasi nella misura in cui determina processi non-lineari di cause sconnesse, incrociate, sovrapposte. Processi non “già legificati” ma “nuovi” e tali da distruggere un ordine per favorirne un altro; ma il nuovo molto raramente produce realtà perché il più delle volte c’è ektromasi. Anche ogni mutazione genetica è una potenziale “possibilità” fuori del biologicamente già-dato, ma molto di rado ne esce qualcosa di nuovo dotato di invarianza e teleonomia.

    La rottura di simmetria quindi distrugge e crea: la necessità conserva e il caso distrugge per ricreare. I processi cosmogonici sono implicati dalla MQ e un grande studioso dell’entanglement come Zeilinger può ribadirci:

 

Nella fisica quantistica il caso non é soggettivo, cioè non dipende dalle nostre scarse conoscenze,  ma è oggettivo. Quindi, proprio come diceva Heisenberg, qui non è in gioco la nostra inconsapevolezza, ma il fatto che la natura stessa, in queste situazioni, non è predeterminata in alcun modo. [900]

 

In termini probabilistici, il necessario è “l’estremamente probabile” mentre il casuale è “l’estremamente improbabile”. Il caso è dunque innovatore e in parte selettore, ed una selezione di processualità fisica può esser vista come analoga alla selezione naturale nel vivente. Ciò  ci permette di vedere il divenire fisico anche in questi termini: «ogni evoluzione è accompagnata da qualche selezione» e la comparsa di qualcosa accompagna spesso la sparizione di qualcos’altro. Sparizione che può essere morte di un esistente o ektromasi, nel primo caso ciò che c’era non c’è più, nel secondo un “possibile” non è diventato “reale”. Un binomio caso/necessità va visto solo entro il probabilismo ontico per due motivi: 1° perché favorisce visioni manichee o surreali, 2° perché è incoerente con la realtà. Nel probabilismo noi possiamo invece includere ogni processo fisico reale o possibile secondo un gradiente probabilistico che nega la dicotomizzazione.

    Conservazione per necessità e innovazione per caso sono solo più gli estremi del probabilismo e ciò vale per la fisica, la chimica, la biologia. E per l’antropologia? In essa si pone la questione del libero arbitrio. La libertà dell’uomo di “non ripetere” e di”aprire” nuove prospettive fattuali, operative od esistenziali si legittima anche in riferimento al probabilismo fisico. In fisica ciò che si conserva pare metaforicamente “non-libero di cambiare” e ciò che capita fuori-della-conservazione è non-necessario. Abortire una decisione o renderla reale è “selezionare” qualcosa per far posto a qualcos’altro e ciò accade sia nell’esistere umano che nel divenire fisico. Due “motori” del mutamento e dell’innovazione analoghi:  il caso nella sfera fisica e l’eleuteria in quella umana  [901].  Sappiamo che alcuni neurofisiologi sostengono che nel momento in cui diveniamo coscienti di una decisione, essa era “già” stata formulata nei circuiti cerebrali, sì da far pensare a un determinismo neurale. Non ci pare convincente: 1° perché lo scarto temporale assumerebbe significato solo nel caso di una decisione inedita; 2° perché la struttura cerebrale, specialmente in riferimento alle sinapsi, è un costrutto personale ed unico; 3° gli automatismi mentali, ben noti da almeno un secolo, siamo noi ad instaurarli; 4° siamo dotati di istinto e quindi di “risposte” diventate automatiche con la filogenesi, ma mai cogenti. 

    Simmetrie ed invarianze, rotture e mutamenti parrebbero allora legittimare l’ipotesi di una pseudo-teleonomia fisica quale “tendenza alla stabilità e all’equilibrio”, qualcosa di simile a ciò che Monod, come già visto, aveva teorizzato per il vivente quale invarianza + teleonomia nel perpetuarsi del genotipo attraverso i fenotipi. Pare possibile cogliere un’analogia tra fisica e biologia in due sensi: simmetria = invarianza = necessità e rottura-di-simmetria = mutazione-genetica = casualità. Ma il concetto di pseudo-teleonomia nasconde anche il pericolo di evocare vitalismo o peggio olismo attraverso una “metafisicizzazione” della scienza che è sempre dietro l’angolo. Si evita il rischio ponendo alcuni punti fermi: 1°. L’universo non esiste come entità ma è solo come nominale insiemale del “ciò che è”. 2°. Il ciò-che-è si esprime ontologicamente indifferentemente come vitale, macroscopico od elementare. 3°. Le particelle elementari sono differenti per quanto convertibili e hanno un modo specifico di “farsi”, di “esistere” e di “persistere” nel cosmo sia singolarmente che assemblate. 4°.  Le strutture e i sistemi sono sempre disgregabili fino a tornare al pluralismo elementare. 5°. Le particelle non sono in funzione di null’altro che la propria persistenza. 6°. L’esistenza delle masse-energie è “meccanica” e differente da quella “vitale”.

    Solo assumendo quanto sopra si può avanzare una pseudo-teleonomia del fisico da subordinare alle probabilistiche peirasi ed epigenesi hyletica. Il divenire di una particella elementare non è “nel tempo”, ma interno allo spazio-tempo in un rapporto massa-energia senza freccia del tempo. I macro-assemblati atomici, le molecole, i corpi fisici e i sistemi in cui si aggregano e si coniugano, possono originare sistemi instabili, autodistruttivi e autoevolutivi con freccia del tempo. Le particelle elementari hanno come loro fine quello di “non aver alcun fine” e di “persistere senza un loro tempo” anche se va ricordato che i decadimenti e le annichilazioni possono lasciare “tracce” storica. Esistere e persistere non sono la stessa cosa, il primo indica un modo d’essere proprio di un ente, il secondo uno stare.  E tuttavia per esser diveniente bisogna prima stare nel divenire, perciò sono divenienti sia gli enti hyletici e sia gli esseri viventi poiché niente diviene se già non persiste, e la vita è solo un particolarissimo e straordinario modo di persistere, essere  e divenire. La vita obbedisce a leggi non tanto “differenti” quanto “ulteriori” rispetto alla materia inorganica, ma essa non è un “più nobile” dell’essere né la materia inorganica lo è meno.          

    Non si deve mai dimenticare che le leggi che governano la RgP, la RgM e la RgG sono alla base anche delle fenomenologie della RgC, almeno sino al livello assemblativo degli atomi.. È solo da quello molecolare in su che quattro elementi, idrogeno (peso atomico =1), carbonio (p.a. = 6), azoto (p.a. = 7) e ossigeno (p.a. = 8), diventano capaci di generare livelli evolutivi ulteriori, al di là dei quali iniziano nuovi tipi di aggregazione che conducono al vivente. Regionalizzando la realtà noi confermiamo il nesso tra le innumerevoli forme di aggregazione e le correliamo con la perpetuazione quale fattore-base nel rispetto di leggi fisiche la cui violazione è sempre possibile. Per quanto nell’inorganico non possa esistere esista alcuna “volontà di vita” la “tendenza perpetuativa” ne è espressione omologa inferiore nel senso che l’essere non può tendere al non-essere. Ma se la perpetuazione è governata dalle necessità, nulla di nuovo potrebbe mai accadere senza il caso e senza “mutazioni”. Il nuovo accade, perciò la linearità causale per quanto dominante non è assoluta e il caso può sempre produrre non-linearità. Il meccanismo fisico della necessità attraverso l’invarianza pilota l’esistenza della materia nel suo persistere, ma ogni qual volta accade qualcosa “di nuovo” è il caso a portare varianza dando nuove direzioni al divenire.

 

 

 

           7.5 Realtà, effettualità, possibilità, probabilità

 

    Dobbiamo ora tematizzare opportunamente quattro concetti correlati tra i quali vi è un rapporto non logico bensì fattuale e dove quello di realtà supporta gli altri.  Quando molti anni fa davamo ad un paragrafo di Necessità e libertà il titolo Ma che cos’è (per noi) la realtà?  dopo aver proposto la cassazione del termine “verità” (salvi i formalismi matematici, logici e giuridici) avevamo qualche buona ragione d’inserire quel fastidioso “per noi”. Più passa il tempo e più ci rendiamo conto di aver assunto allora un atteggiamento correttamente relativistico e riprendendo ora l’argomento non più sul piano esistenziale ma su quello ontologico abbiamo conferma della correttezza di quell’inciso. La regionalizzazione della realtà fisica che qui tematizziamo porta chiarezza e nel contempo avvalora la nostra prudenza. In effetti, escludendo per ora la RgG, si potrebbe inferire di primo acchito una differenza fondamentale tra la RgM e la RgC (che ci concernono) e la RgP, che non ci concerne ma che ci è dato conoscere un poco solo violandola, cioè irrompendo in essa coi nostri marchingegni. Noi apparteniamo infatti ad una realtà “a bassa energia” (o delle “grandi distanze”) mentre gran parte della materia elementare è indagabile ad “alte energie” (e micro-distanze) alle quali noi non possiamo esistere.

    Duns Scoto è colui che, verso la fine del XIII secolo, pone il reale come “il modo d’essere delle cose indipendentemente dall’esser pensate” (Opus Oxoniense, II d 3, q 5), e il fatto che ci siano voluti ben 17 secoli e questo teologo anti-aristotelico ed anti-tomista per formularlo lascia capire quanto sottovalutata e occultata sia rimasta la realtà. La nostra realtà di mammiferi è inconciliabile con quella degli enti hyletici e noi viviamo come se essi non ci fossero, mentre nella RgP ci sono solo loro e non possiamo esserci noi: “qui” siamo reali noi e loro irreali, “là” reali loro e irreali noi. La questione è però complessa, poiché anche “qui” le particelle ci sono e noi esistiamo grazie ad esse, però operano ad un livello che ci tocca poco, né i gravitoni hanno realtà “effettuale” nella RgP perché il loro tipo di legagenza è così debole che solo su grandi distanze e in presenza di grandi masse ha effetto. L’effettualità ha perciò peso rilevante nella definizione di realtà, non esistendo una realtà “generale” ma realtà particolari (regionali), in ognuna delle quali qualcosa può essere presente ma in-effettuale. Nella RgP i gravitoni ci sono, ma quasi “irrealmente”, mentre organismi viventi come noi, turbandola coi nostri mezzi osservativi, vi entriamo “realmente”, sia pure per poco. I nostri strumenti, fatti di molecole appartenenti  alla RgM, entrano forzosamente nella RgP e noi con loro, ma quando facciamo collidere una particella con un’altra tentiamo di riprodurre un “accaduto” dove solo la tecnologia è limite al conoscere, perché noi con le macchine riproduciamo effettualmente dei simil-fenomeni hyletici.

    L’effettualità, che avevamo definito a suo tempo come «il modo d’essere di ciò che accade realmente rispetto a ciò che è soltanto possibile» è ciò che indica gli effetti reali, verificabili e ripetibili imputabili a una causa a monte nota o ignota che sia. Un stato effettuale ci dice che dev’esserci qualcosa che lo determina o almeno lo favorisce.  Ma il significato filosoficamente più interessante dell’effettualità c’è proprio quando ci sfugge la causa, ignota o dubbia, mentre un fenomeno reale in noi o fuori di noi ci dà un segnale chiaro della sua esistenza. L’effettualità è quindi fattore di ratifica di una realtà conosciuta oppure segnale “funzionale” di una realtà non ancora definita o riconosciuta. Ciò su cui va richiamata l’attenzione è che gli effetti sono ciò da cui nasce la ricerca scientifica e filosofica assai più di quanto lo siano le cause, poiché è perlopiù dalla constatazione e definizione di un effetto che si riesce a risalire poi alle sue cause. La teologia, a contrario, pone una Causa Prima e da essa deriva le “seconde” e le categorizza per applicarle ad effetti reali con una risalita ontologica verso la Prima. all’indietro. Di livello in livello, per mezzo di una scansione ontologico-assiologica, la metafisica fabbrica perciò una realtà del tutto fittizia, che inizia con una Causa Prima-Ultima che è spesso una Necessità meccanicistica impersonale-immanente e meno spesso un Volontà personificata trascendente.

    Il concetto di possibilità è esemplare per comprendere come i bizantinismi della logica, a partire da Aristotele, siano riusciti a complicare oziosamente il semplice. Lo Stagirita  (Metafisica, V, 12, 1019 b 20-34) distingueva ben tre tipi di possibilità, partendo dal presupposto che «è impossibile ciò il cui contrario è necessariamente vero» [902]. Erano così posti l’impossibile e da esso il possibile come contrario, entrambi coniugati e dipendenti dalla necessità e dalla verità, senza il minimo riferimento alla realtà. Paradossalmente, è come se la realtà venisse implicitamente smembrata per farla sussumere e sottintendere da due concetti meramente logico-teologici: quello di verità e quello di necessità. Il possibile era pertanto: «in un senso ciò che non è necessariamente falso, in un altro ciò che è vero, in un altro ancora ciò che può essere vero.» [903].

    Anche dopo Aristotele la realtà non ha avuto miglior destino, basti pensare allo spinoziano “possibile in Dio = necessario”, o al leibniziano “Dio ha fatto il meglio possibile” o al kantiano “il possibile è una categoria della modalità”, per comprendere in quale confusione esso sia stato tenuto. Nel ‘900 poi Carnap (1891-1970) arriva a una geniale conclusione (Meanings and Necessity, § 39, 3), che in sintesi recita: “il possibile è il non-impossibile”. Da tali eccelse interpretazioni del concetto di possibilità occorre scendere al più terra–terra, tale da approdare a qualche “bassa” concettualizzazione realistica, poiché la realtà è “mondo” e per parlare di esso occorre accertarsi che esista.  Diremo allora che l’esistenza di una realtà cosmica va riconosciuta, poiché se non esistesse (come pensavano Berkeley e i panenteisti indiani) non potremmo parlarne. Sganciato il concetto di possibilità dalla verità logica e calato nella realtà, il possibile, molto semplicemente, appare come il “reale inattuale”, l’assente nell’ora e qui di un sistema, ma presente nell’orizzonte della realtà.  Potremo allora ridefinire il pluralismo ontofisico anche come un orizzonte del possibile (del ciò che può accadere) come l’“apertura” gnoseologica che ci chiama ad uscire dagli angusti confini del non-impossibile in cui la logica l’ha relegato.

    Una breve ricognizione storica sull’evoluzione delle scienza e della tecnologia, anche solo nell’ultimo secolo, sarà sufficiente a convincerci del fatto che una buona parte del nuovo è sempre un “fuori orizzonte”. L’ignoto è di fronte a noi per farsi scoprire, oggi, domani, dopodomani e sino a che la specie homo sapiens esisterà qui o altrove, ma presuppone l’umiltà del “sapere di non sapere”. Da quando la scienza opera liberamente, non più condizionata dai lacci metafisici, la realtà ci si è offerta come possibile e ci ha permesso di trovare con essa un rapporto reale. Ma la filosofia fa fatica a liberarsi dalla metafisica perché la commistione tra “l’amore del conoscere” e “la passione del divino” hanno camminato assieme per troppo tempo e distinguere la conoscenza dalle sue mistificazioni è spesso difficile. Ma non è mai troppo tardi, per cui anche un aggettivo come possibile può aiutarci a guardare meglio avanti e intravedere nuovi orizzonti di conoscenza che chiedono soltanto di essere guardati con umiltà, dedizione e, soprattutto, con filosoficità. 

    Il termine probabilità ha un’equivoca origine etimologica, poiché il latino probabilis deriva da probāre, che significa tanto “provare” quanto “approvare”. Il corrispondente italiano ha però assunto un chiaro significato in accordo col secondo, come approvabile, verosimile e credibile. È soltanto nel Settecento, e nello specifico in Francia, che vengono coniati i termini probabiliste prima (1708) e probabilisme poi (1743) in riferimento al rapporto statistico tra il numero dei casi favorevoli a un succedere rispetto alla somma delle possibilità di succedere + non-succedere. Quest’uso del termine è l’unico utile dal punto di vista filosofico, mentre il primo concerne la teologia e l’espressione «è probabile che … »  ha solo in parte  il valore di «io credo che … ». Ma siccome la credenza nella possibilità che un fatto succeda riguarda la psicologia, dal punto di vista filosofico è solo significato statistico ad essere utilizzabile. Ciò anche ricordando le oziose diatribe dei logici del Novecento circa il significato di “soggettivo” ed “oggettivo”, di probabilità intesa come “quoziente di conferma”, o “frequenza della conferma”, o “accettabilità del dato”, o “ragionevolezza di un valore”, ecc., che vanno superate 

    Definiremo semplicemente la probabilità come « l’espressione numerica su base statistico-previsionale dell’accadibilità di un fenomeno», ovvero la valutazione della percentuale di accadibilità sul totale delle possibilità che un certo fenomeno si verifichi oppure no.  Il vero opposto di probabile non è quindi l’improbabile, bensì il necessario, cioè l’assoluto, e il concetto di assolutezza (alla pari di quello di perfezione e necessità) ha caratterizzato la vicenda dell’homo sapiens dal momento in cui ha inventato il sacro e il metafisico. Quello di assoluto è un concetto bello, facile, semplificante e appagante, è un po’ come confezionare un bersaglio e fare sempre centro. Nella realtà non è così: i bersagli si intravedono perlopiù quando li si fallisce, e ciò riguarda tanto la scienza quanto l’autentica filosofia. Con le teologie (cultuali o filosofali) il fare centro è invece già sempre implicito nell’inventarsi un bersaglio con un centro e una freccia che sicuramente lo colpirà.  In realtà il solo assoluto legittimo è il “non-soluto”, ovvero la probabilità di una risposta a una domanda sull’ignoto. Nulla è assoluto, perché tutto è probabile in una scala che va da zero all’infinito e l’impossibile è solo il “del tutto improbabile”. Ma probabile e improbabile rispetto a che cosa? Ebbene questo è un grosso problema, poiché nello stesso momento in cui diremo “rispetto al reale” ci imbattiamo nella stessa difficoltà implicata nel fatto stesso di utilizzare il concetto di realtà come termine di valutazione di enti e fatti.

    Tuttavia, nel criterio da noi adottato di regionalizzare la realtà un punto diviene chiaro: nella “nostra” RgC nascita e morte sono immersi nella freccia del tempo e tutto è dominato dalla probabilità. La certezza potrebbe esserci soltanto col dominio assoluto della necessità, il che non è nella misura in cui il caso interviene ad alterare la linearità delle cause. Nella RgC è il caso a produrre le mutazioni genetiche che alterano le realtà strutturali acquisite e replicabili, ma è poi la selezione naturale a eliminare ogni esito biologico non utile, salvando ogni tanto qualcosa di utile che con l’instaurarsi di una necessità tende a mantenersi e riprodursi nell’invarianza e nella teleonomia. Ma anche questa è solo una probabilità, e di fronte a poche necessità che si instaurano ex novo ed offrono qualche moderata certezza, si erge uno sterminio di “casi morti” (di ektromasi) per improbabilità. In fisica sembra esistere l’impossibile, ma anche nel suo campo la prudenza è d’obbligo. In generale sembra regnare la reversibilità in molti fenomeni elementari, ma la freccia del tempo è all’opera appena si entri nella RgM dominando essa la RgC.

    Che nel mondo macroscopico sur-molecolare e complesso il tempo torni indietro è forse non un impossibile ma sicuramente un altamente improbabile. Storicamente non si è mai verificato che un essere vivente abbia rivissuto il proprio passato, e siccome tutto fa pensare che sarà così anche in futuro è “troppo difficile” che l’altamente improbabile possa verificarsi. La stessa prevalenza della materia nel nostro universo è da ritenersi il frutto della probabilità, e non si vede perché non potrebbe esserci vita dall’antimateria, anche se è difficile dire in quale maniera o misura potrebbe essere simile o dissimile alla nostra. Si tratta di una possibilità dove la probabilità è da ritenersi nulla in quanto si tratta di un‘incognita assoluta, appartenente al “mai conoscibile”. D’altra parte, la vita è nata per caso e il vivente si è strutturato nel modo a noi noto unicamente per il fatto che vi era una maggiore probabilità che esso si evolvesse così e non altrimenti. Tutto è possibile compreso l’improbabile e l’impossibile finisce per essere soltanto un’improbabilità che non si verifica mai, o quasi mai.  

    L’implicazione filosofica dell’ammissione della probabilità come unico criterio “realmente” utilizzabile per prevedere gli aspetti del divenire della realtà ha profonde conseguenze ontologiche. L’abolizione dell’”assoluto” (che presume l’esistenza della “verità”) mette anche fuori corso tutte le weltanschauungen teologiche, poiché gli “assoluti” (verità, perfezione, bene, unicità, eternità, trascendenza, ecc.) celano sempre una pulsione religiosa profonda e cogente, manifesta o criptata. Nei corto-circuiti ideologici che concernono le teologie in generale la risposta è sempre connessa e conseguente alla domanda stessa che la richiede, in un circolo dimostrativo che nell’attribuire verità alle premesse ne deriva la verità delle risposte. L’esistenza e la presenza di Dio nella realtà è presupposta dallo stesso concetto di Assoluto, dove il nome di Dio come referente può essere sostituito da quello, di Bene, Uno, Tutto, Necessità, Perfezione, Essere, ecc. e con essi intercambiato. Non importa infatti il nome che si dà all’Assoluto, importa quella pulsione tendenziale “verso Dio” che accompagna il “senso del divino” e che genera tutte quelle risposte che rassicurano, che appagano, che spiegano, che eliminano le incertezze e che affossano il dubbio e le incertezze. Ma soprattutto combattono l’irrimediabilmente ateo “relativismo delle probabilità”.

    Vediamo alcune considerazioni di Lee Smolin, un fisico un po’ “fuori schema” con molte idee originali e che apprezza l’originalità degli altri anche se tollera qualche stravaganza. In un certo senso egli è un relativista delle probabilità,  in quanto considera le connotazioni della fisica probabili e le nostre conoscenze relative. Scrive nel suo ultimo The Trouble with Physics, con sottotitolo The Rise of String Theory, the Fall of a Science, and What Comes Next: 

 

Ma se la scienza funziona perché viviamo in un mondo di regolarità, il suo modo di funzionare è dovuto ad alcune particolarità della nostra stessa costituzione. In particolare, siamo maestri nel trarre conclusioni sulla base di informazioni incomplete.  Costantemente, noi osserviamo il mondo, formuliamo previsioni e traiamo conclusioni. È quel che fanno i cacciatori-raccoglitori ed è anche quel che fanno i fisici delle particelle e i microbiologi. Non abbiamo mai informazioni sufficienti per giustificare completamente le conclusioni che traiamo. Essere capaci di agire sulla base di supposizioni e impressioni, e di agire con sicurezza quando le informazioni di cui disponiamo costituiscono un indizio, ma non una prova, è una capacità essenziale che fa di una persona un bravo imprenditore, un bravo cacciatore o agricoltore, o un bravo scienziato. È una delle caratteristiche che fanno degli esseri umani una specie di grande successo.  Ma questa capacità ha un prezzo molto alto, vale a dire che ci inganniamo con estrema facilità.  [904] 

 

Un monito, quindi, a diffidare di conclusioni assertive, magari proprio quando arrivano da scienziati grandi ma deterministi. Prosegue il Nostro:

 

Che gli altri ci imbroglino senza sforzo naturalmente lo sappiamo; la menzogna è punita severamente proprio perché è molto efficace. Dopo tutto, è solo perché siamo fatti per trarre conclusioni da informazioni incomplete che siamo così vulnerabili dalle menzogne. Il nostro atteggiamento di base dev’essere di fiducia, perché se pretendessimo un dimostrazione per ogni cosa, non crederemmo mai a nulla. A quel punto, non faremmo mai nulla,  non ci alzeremmo da un letto, non daremmo mai inizio a un’amicizia, a un matrimonio, a un’alleanza. Senza la capacità di aver fiducia, saremmo animali solitari. Il linguaggio è efficace e utile perché il più delle volte crediamo a ciò che ci dicono gli altri. [905]

 

L’uomo è “affermativo”,  “decisionista” e nel contempo “fidente”, ma nella stessa misura in cui si vede costretto ad esserlo per sopravvivere con altri deve “affermare fiducia” ,”decidere di fare” e “decidere di credere”, ben sapendo che potrà fare affermazioni false, prendere decisioni sbagliate e che sarà molto spesso ingannato.  Ma non solo dagli altri:

 

Ma un punto altrettanto importante, che fa riflettere, è la capacità con cui ci inganniamo da soli. E lo facciamo non solo individualmente ma anche en masse.  […]  La società umana ha fatto progressi perché ha imparato a richiedere ai suoi membri tanto la ribellione quanto il rispetto e perché ha scoperto i meccanismi sociali che nel corso del tempo equilibrano queste due qualità. Sono convinto che la scienza sia uno di questi meccanismi. È  un modo per alimentare e incoraggiare la scoperta di nuove conoscenze, ma più di ogni altra cosa è una collezione di attività e pratiche che, nel corso del tempo, si sono dimostrate efficaci per smascherare gli errori. È il nostro strumento migliore nella costante battaglia per dominare la nostra innata tendenza a ingannare noi stessi e gli altri. [906] 

 

 

 

                           7.6 Il probabilismo ontico

 

    Uno dei più colossali equivoci che è dato spesso incontrare nell’opinione corrente consiste nel ritenere che l’indeterminismo sia speculare/contrario del determinismo e che si fondi sulla generalizzazione del caso come causa ontica. Se così fosse, si tratterebbe non solo del frutto di una filosofia nichilistica, ma del tutto incoerente con la realtà fenomenica. Sarebbe come se venisse teorizzato il caos come stato dell’universo e l’indeterminazione casuale come “non-legge” del divenire. Ovviamente le cose non stanno così: mentre nel determinismo vi è la radicalizzazione concettuale della necessità (e il caso è ritenuto impossibile), nell’indeterminismo la necessità viene posta accanto al caso e con questo coniugata. Il divenire si presenta infatti come perlopiù deterministico e la casualità (la stocasticità) costituisce l’eccezione che produce il “nuovo”. In altre parole, mentre il determinismo esclude l’indeterminismo questo include quello e sotto molti punti di vista lo completa sottraendolo alla sua inconsistenza teorica. Un aspetto collaterale del problema si connette poi al concetto di libero arbitrio umano, che dal determinismo viene negato per questioni di coerenza interna, mentre, ovviamente, l’indeterminismo lo ammette. Ma il  libero arbitrio è un concetto teologico e tautologico privo di significato in filosofia: l’uomo possiede una certa libertà, l’eleuteria, perché esiste, perché ha esistenzialità, ma l’eleuteria è “libertà condizionata”.

    Il problema dell’eleuteria non si pone per l’indeterminismo poiché ne è implicata, mentre assume aspetti paradossali nell’ipostasi deterministica. In alcune weltanschauungen a questa legate, dove il problema della libertà umana viene posto esplicitamente (come nello Stoicismo), le aporie sono devastanti; ma quando esso viene occultato attenuandone la flagranza teorica, si hanno determinismi elusivi. Conseguenza paradossale della negazione dell’eleuteria è che siccome nel Cristianesimo è prevalsa l’ammissione della libertà umana di fare il bene o il male, il determinismo abbia finito non solo per presentarsi come weltanschauung anticristiana, ma addirittura atea. L’atteggiamento pro-libero-arbitrio, maggioritaria nella teologia cattolica, ha, in un certo senso, “indirizzato” chi la rifiuti a riconoscersi nel determinismo. È così accaduto che molti di coloro che rifiutavano la teologia cristiana (tra gli altri Laplace) si rifugiassero in monismi deterministici che erano vere e proprie teologie alternative. E d’altra parte i monismi deterministici storicamente identificabili cui potersi riferire sono tutti teologici (Stoicismo, Neoplatonismo, Brunismo, Spinozismo, Hegelismo). La religiosità neoplatonica, o bruniana o spinoziana non sono alternative a quella monoteista perché meno religiose; al contrario, sono spesso portatrici di una religiosità “più alta” e più spirituale.

    Se nelle metafisiche la casualità “deve” essere necessariamente esclusa per ragioni teoriche, nelle filosofie materialistiche e meccanicistiche (come quelle di Helvétius, d’Holbach o Marx) il caso “è bene” che venga escluso per opportunità. Il caso, come “sospensione della necessità” è talvolta visto come un possibile Cavallo di Troia di una “volontà” divina imperscrutabile, e ciò spinge direttamente l’ateo “virtuale” nelle braccia accoglienti e gratificanti della Necessità, facendo rientrare dalla finestra ciò che era stato espulso dalla porta. I materialismi deterministici infatti, da un punto di vista strettamente ontologico, finiscono per identificarsi coi panteismi teologici; però vanno riconosciuti ed apprezzati come profonde filosofie morali, miranti a migliorare la natura dell’uomo e portarlo verso socialità e solidarietà migliori. Va ricordato che in sostituzione dell’Ecclesia, come comunità armonica di tipo religioso, si erge lo Stato come comunità armonica laica attraverso una palingenesi del concetto di esso che Platone aveva posto in Repubblica e perfezionato in Leggi. Sia nel pensiero del teologo Hobbes che negli ateismi di Helvétius, di d’Holbach o di Marx si guarda a un Uno-Tutto umano virtuoso, con i singoli cittadini annullati (o quasi) in esso.

    Aggiungiamo che la materialità si coniuga con l’aiterialità [907] nel pluralismo ontofisico perché sono relativizzati gli aspetti materialistico-deterministici con concepire il caso e la necessità coniugati e alternati nel flusso del divenire. Ciò non solo apre l’orizzonte all’extrafisico ma permette di giungere a una teoria della causalità completa, esauriente e soprattutto non contraddittoria, aprendo la prospettiva probabilistica dove il caso è l’intersezione di linee causali accidentalmente sconnesse (non-lineari o intricate) e la seconda frutto di causalità lineare. La necessità e la casualità sono dunque sia correlate e sia i poli della probabilità ontologica; quindi dei complementari nei processi causali ed indici nominali del probabilismo ontico.  I fisici teorici sono da almeno mezzo secolo del tutto consapevoli di ciò (esclusi ovviamente i fisici-teologi) e Max Born ci ha ricordato che: «Il prima a far uso di considerazioni probabilistiche nella scienza fu Gauss, nella sua teoria degli errori sperimentali.» [908]  Poi aggiunge:

 

Ciò dimostra che il concetto di caso entra già nei primissimi stadi dell’attività scientifica, in virtù del fatto che nessuna osservazione è corretta in via assoluta. Io ritengo che il caso sia un concetto più fondamentale della causalità: infatti, in una circostanza concreta, la validità o meno della relazione di causa-effetto può venir giudicata soltanto applicando alle osservazioni le leggi del caso. [909]

 

Il probabilismo è fattore specifico della RgP e Murray Gell-Mann, considerando i successivi dimezzamenti della radioattività del più comune isotopo del plutonio (il Pu 239), scrive:

 

Mentre il momento dalla disintegrazione radioattiva non può essere previsto con precisione, le direzioni in cui si muoveranno le particelle prodotte dal decadimento del nucleo sono totalmente imprevedibili. Supponiamo che il nucleo del Pu 239 sia in quiete e che decada in due frammenti dotati di carica elettrica, uno molto maggiore dell’altra, in movimento di direzioni opposte. Tutte le direzioni sono allora ugualmente probabili per il moto di uno dei due frammenti, diciamo quello più piccolo. È impossibile dire in quale direzione esso si muoverà. [910]

 

La sfera del subatomico va guardata probabilisticamente perché qualsiasi altro approccio è irrimediabilmente ideologico. Non a caso un altro grande della fisica subatomica e anti-ideologo come Richard Feynman sottolinea che su 100 fotoni incidenti su una superficie di vetro “è probabile” che 4 di essi vengano riflessi, ma non si può sapere come e quando. Notando:

 

Bisogna concluderne che la fisica, scienza profondamente esatta, è ridotta a calcolare la sola probabilità di un evento, invece di prevedere che cosa accade in ciascun caso singolo? Ebbene, sì. È u ripiegamento, ma le cose stanno proprio così: la Natura ci permette di calcolare soltanto delle probabilità. Con tutto ciò la scienza è ancora in piedi. [911]  

 

    Dover rinunciare al “come” e al “quando” per la scienza è frustrante, ma tanto implica la particolare dinamica della RgP.  Da un punto di vista ontico è infatti l’energia cinetica a determinare la natura della particella: se la particella è lenta è onda se è veloce è corpuscolo. Ai fini dell’”individuazione” gioca un ruolo importante anche la compresenza di altre particelle. Essere abbastanza “isolata” in una certa zona di spazio-tempo significa essere individuo-corpuscolo mentre come onda solo se essa è “sola”. Questa sorta di “individualità” della particella, quindi, c’è e non c’è a seconda dello stato energetico e della compresenza di altre [912]. In definitiva però lo stato d’onda o corpuscolo è questione probabilistica, sicché il probabilismo ontico trova nella RgP un’ulteriore conferma. Se noi possiamo accantonare la dicotomia determinismo/indeterminismo è anche perché abbiamo ora strumenti di conoscenza indisponibili sino a pochi decenni fa. Oggi sappiamo che a livello fondamentale (subatomico) la realtà è indeterministica e tematizziamo con nuove evidenze la complessità della RgM. Essa è infatti uno degli aspetti dirimenti della realtà che ci circonda e solo analizzandola si capisce meglio ciò che è deterministico e di ciò che non lo è. Se infatti il “macroscopico semplice” ha solitamente comportamenti determinati, decifrabili, leggibili e formulabili con equazioni relativamente semplici (algoritmicamente ridotte), il “complesso” richiede un approccio differente. Il problema è che gli studi sulla complessità hanno aperto nuovi orizzonti, ma c’è la tendenza a rinchiuderli nel pensiero “tradizionale” includere nel caos deterministico anche quello indeterministico.

    Sappiamo che dopo x giocate la somma delle probabilità si equilibra e che la probabilità di uscita di uno dei sei numeri al gioco dei dadi è pari a 1/6 ( come quella che concerne  la roulette è di 1/36). Quel che io devo sapere (se non scelgo di giocare all’infinito e di azzerare il bilancio guadagni/perdite) è che “ogni volta” che getto i dadi e ogni volta che punto su un numero della roulette sarà solo il caso a far sì che io vinca o perda. È infatti l’”ogni volta” e non il “dopo tante giocate” ad essere gnoseologicamente significativo, anche se in astratto io posso dire che “prima o poi” le probabilità di aver perso o vinto diventeranno uguali.  Solo “sommando” storie successive e differenti di gioco io sono in grado di “prevedere” il risultato finale. Gell-Mann usa la metafora dell’ippodromo per farci capire l’inconsistenza del determinismo, poiché ogni metaforica “corsa di cavalli” delinea “storie alternative” di cui solo una diventa reale, e quindi “vera”. Tutte le altre vengono espulse nel corso del processo fenomenico del “correre dei cavalli”.  Se, per esempio, corrono dieci cavalli equivalenti in velocità, e quindi ognuno di essi ha la stessa probabilità di vincere, i dieci risultati possibili si escludono e la storia del “sistema corsa di 10 cavalli” è quindi solo storia “combinata” sulla base di dieci possibilità-storie “incoerenti” tra loro [913].  

   La coerenza, e con essa la determinazione, è possibile solo se si esclude ogni perdente dal calcolo e si considera solo il vincente: si accantonano gli ”abortiti” e si guarda solo ai “riusciti”. Se questo modo di considerare la realtà è pragmaticamente “utile” è però riduttivo: quindi gnoseologicamente scorretto. È ben vero che “questa volta”  io ho capito (a “grana grossa”) quel che mi può convenire o no, ma non ho capito assolutamente nulla dei meccanismi per cui “qui ed ora” un certo fatto accada o non accada.  L’accadere “sì o no” è infatti,  sia nella realtà effettuale che nella teoria, questione esclusivamente probabilistica, dove il massimamente probabile (la necessità) e il massimamente improbabile (il caso) sono i margini della sola cornice filosofica possibile. Il probabilismo ontofisico delinea allora un nuovo e corretto orizzonte teorico: 1°. perché permette di uscire dall’impasse teorica della dicotomia necessità/caso, e 2°, perché delinea un “gradiente” di probabilità per cui il caso e la necessità divengono soltanto concetti-limite del divenire.    

    Posti la necessità e il caso come poli estremi di una scala di probabilità, il divenire cavalca la freccia del tempo verso un “più probabile” e un “meno probabile” in base a linearità o intersezione di cause. Le nostre precedenti definizioni della necessità come “linearità di cause” e del caso come “sconnessione/incrocio/sovrapposizione” restano valide. Il probabilismo ontico  include l’una e l’altro e le supera in una nuova concezione ontologica dove, a qualsiasi regione lo si applichi, basta considerare le variabili in gioco. La probabilità che un accadimento fisico possibile entro una certa cornice sistemica si realizzi oppure no, che il divenire prenda una direzione verso l’ordine o verso il disordine, che una mutazione si evolva verso un successo o verso un aborto, è l’unico criterio filosofico valido. Il probabilismo non va perciò considerato come un espediente relativistico per etichettare ciò che si sottrae all’equazione deterministica. D’altra parte anche il dualismo onda-corpuscolo in fondo indica un “divenire di probabilità”, per cui Kenneth Ford può affermare: «Il dualismo onda-particella e il legame onda-probabilità sono dunque intimamente connessi.» [914] La probabilità è invece la sostanza della realtà fisica sia pure con peso differente nelle varie regioni e il “forse” congetturale l’unica certezza.   

 

 

NOTE 

 

[859] J.D.Barrow, Da zero a infinito, Milano, Mondadori 2002, p.226.

[860] J.Heidmann, L’odissea del cosmo, Roma-Bari, Laterza 1988, pp.141-142.

[861] M.Hack, Che relazione c‘è tra i differenti modelli dell’Universo e l’astrofisica?, in La favola dell’universo, cit., p.148.

[862] M.Lachièze-Rey, Oltre lo spazio e il tempo, cit., p.145.

[863] B.Greene, La trama del cosmo, cit., p.353.

[864] Ci riferiamo ovviamente al Platone di Repubblica (II, 377 a - 379 b;  X, 595 a – 596 c; 598 e – 607 e).

[865] Esiodo, Opere, Teogonia, Torino, Einaudi-Gallimard 1998, vv. 123-128, p.9.

[866] C.Tamagnone, Ateismo filosofico nel mondo antico, Clinamen Editrice 2005, pp.117-119.

[867] Aristotele, Opere 6°, Metafisica, Laterza 1973, p.18.

[868] L’elettronvolt (eV) è l’unità di energia utilizzata in fisica teorica corrispondente all’energia necessaria per accelerare un elettrone in un campo elettrico uniforme di 1 V, quella che gli conferisce una quantità di energia cinetica dell’ordine, appunto, di 1 V. Siccome l’energia è massa accelerata secondo la E = mc2, l’eV viene utilizzato oggi dai fisici anche come unità di massa. 

[869] Il termine esplosione per il big-bang è impropria. Per esplosione noi intendiamo infatti il fenomeno chimico per cui una certa molecola subisce, combinandosi con l’ossigeno, un’espansione in “un tempo” minimo ed abnorme “nello spazio”. Il big-bang invece è concepito come un’espansione che crea lo spazio-tempo espandendosi nel nulla.

[870] K.W.Ford, La fisica delle particelle, p.221.

[871] H.Fritzsch, Quark. I mattoni del mondo, Torino, Paolo Boringhieri 1983, p.140.

[872] D’altra parte anche in biologia, e specialmente in genetica, è possibile indurre “artificialmente” delle mutazioni simili o analoghe a quelle mutazioni che la natura produce “casualmente” e che determinano l’evoluzione del mondo vivente nei tempi lunghi.

[873] J.D.Barrow, Impossibilità, cit., p.144.

[874] Ivi, p.219.

[875] L.M.Krauss, Il cuore oscuro dell’universo, cit., p. 48.

[876] C.Tamagnone, Necessità e libertà, cit, pp.45-49.

[877] M.Pauri, La descrizione fisica del mondo e la questione del divenire temporale, in: AaVv, Filosofia della fisica, a cura di G.Boniolo, Milano, Bruno Mondatori, pp.279-280.

[878] C.Tamagnone, Necessità  libertà, cit., pp.207-208

[879] Ivi, pp.110-111.

[880] Ivi, p.134.

[881] Ivi, p.135

[882] Ivi, p.281.

[883] E.Castellani, Simmetria e natura, Roma-Bari, Laterza 2000, p.41.

[884] Ivi, pp.67-68.

[885] Ivi, p.68

[886] Ivi, pp.77-79.

[887] Ivi, pp.83-84.

[888] Ivi, pp.85-86.

[889] Ivi, p.122.

[890] Ricordiamo che i bosoni nucleodeboli sono capaci di distinguere la sinistra dalla destra (cioè violare la simmetria di parità). Non tutte le particella hanno un solo senso di rotazione; alcune come il protone e l’elettrone possono essere sia destrorse che sinistrorse essendo chirali. I nucleodeboli, distinguendo destra e sinistra, possono quindi agire in maniera differente su particelle destrorse o sinistrorse. Un bosone W - può anche commutare un neutrone in un protone convertendo un quark down in un up. Performance straordinarie, ma entro un raggio d’azione limitatissimo.   

[891] L.Randall, Passaggi curvi, Milano, Il Saggiatore 2005, p.210.

[892] Ivi, p.214.

[893] Agostino, Le Confessioni, Torino, Einaudi 1984, p.350.

[894] L.Smolin, La vita del cosmo, cit., pp.65-66.

[895] R.Oerter, La teoria del quasi tutto, cit., p.182

[896] B.Greene, La trama del cosmo, cit., pp.268-269.

[897] Ivi, p.271

[898] W.Heisenberg, Indeterminazione e realtà, Napoli, Guida 1991, p.128

[899] Ivi, pp.129-130.

[900] A.Zeilinger, Il velo di Einstein, cit., p.38.

[901] In Necessità e libertà (Clinamen 2004) è stato posto il concetto di eleuteria per indicare la libertà umana di desiderare, volere, fare, scegliere, ecc. che va tenuto distinto da quello di libertà in senso stretto, che concerne soltanto il non-necessitato, quindi l’ambito extrafisico. La volizione umana, infatti, si realizza concretamente, ma è sempre sub-conditione di disposizioni, condizioni, situazioni, contingenze, ecc. In breve: mai totalmente libera.

[902] Aristotele, Metafisica, Roma-Bari, Laterza 1973, p.147.

[903] Ivi, p.148.

[904] L.Smolin, L’universo senza stringhe, Torino, Einaudi 2007, pp.298-299.

[905] Ivi, p.299

[906] Ibidem.

[907] Ciò che concerne l’aiteria e che si offre all’intuizione idemale.

[908] M.Born, Filosofia naturale della causalità e del caso, cit., p.65.

[909] Ibidem.

[910] M.Gell-Mann, Il quark e il giaguaro, cit., p.159.

[911] R.Feynman, QED La strana teoria della luce e della materia, cit., p.35

[912] E. Schrödinger, L’immagine del mondo, Torino 1987, p.183.

[913] M.Gell-Mann, Il quark e il giaguaro, cit., pp.169-170

[914] K.W.Ford, La fisica delle particelle, cit., p.210