free web hosting | website hosting | Business WebSite Hosting | Free Website Submission | shopping cart | php hosting

 

 

 

 

                                                          Capitolo VIII

                                 

                                      Equilibrio ontico, complessità e spazio-tempo

 

 

                                                                                                   

            8.1  Relazioni dinamiche, equilibri ontici e ordine/disordine

 

    In ambito mesopotamico (e babilonese in particolare) sin dal 2.000 a.C  è certamente nato tutto quell’armamentario mitologico mediterraneo che ritroviamo sia nella religione greca (Omero ed Esiodo) sia in quella ebraica (Antico Testamento) sia in quelle persiana e fenicia. Ed è nell’Enûma Eliš babilonese la prima simbolizzazione nota del conflitto tra ordine e disordine, rappresentata dalla dea Tiamat (la natura primordiale) e dal dio Marduk (l’ordinatore del mondo).  Un mito che si è rivitalizzato continuamente con l’assunto che la natura è disordine e che un’Intelligenza astratta le conferisce ordine, con l’estensione che tutto ciò che non-è-ordine o è in sé demoniaco o è frutto del peccato dell’uomo. Nella realtà è vero il contrario, poiché il disordine è sì impossibilità di ordine “attuale” ma vettore verso un ordine “possibile”. È chiaro che nell’indeterministica RgP i fenomeni caotici siano assenti e che nelle regioni in cui sono presenti assemblati molecolari ci sia  organizzazione, operatività d’insieme e caos. È infatti da esso che nascono stupefacenti fenomeni auto-organizzativi. Per questo occorre un orizzonte cognitivo, che chiameremo delle “relazioni dinamiche” tra enti fisici operativamente connessi. Heisenberg negli anni ’30 scriveva:

 

Per noi il corso regolare nello spazio e nel tempo non è più lo scheletro del mondo, ma piuttosto solo una connessione tra altre che, attraverso il modo in cui noi indaghiamo, attraverso le domande che poniamo alla natura, viene trascelta dalla rete delle connessioni che chiamiamo mondo. [1]

 

Le «connessioni» qui evocate corrispondono alle relazioni dinamiche.  Il concetto di relazione , avanzato in Necessità e libertà acquista ora un senso compiuto relativamente al divenire ontico, ai suoi equilibri e ai suoi disquilibri. Poincaré affermava nel 1989 in La science et l’hipothèse: «Il fine della scienza non concerne le cose in sé, come pensano i dogmatici ingenui, ma le relazioni tra le cose, poiché al di fuori di questi rapporti non si può conoscere la realtà.» [2]

    L’ordine di idee che proponiamo è esprimibile anche come relazionismo della pluralità ontica, constatando che qualsiasi ente fisico “dato in un certo modo a noi” è relato ad altri e non è affatto detto che sia sempre stato, né sempre così, né che lo sarà in futuro e né che continuerà a sussistere. Né siamo in grado di dire ove vi sia o non ci sia equilibrio ontico al di là delle nostre approssimative percezioni e osservazioni. Però possiamo affermare che un’entità qualsiasi esiste se si colloca all’interno dell’equilibrio ontico di un sistema; un equilibrio che concerne i componenti di esso e che proprio determinandolo e in esso relazionandosi “sono”. Esso è infatti l’insieme delle relazioni che si instaurano tra enti presenti e interagenti, che ne un contesto ontico sistemico

    Nel dirigere il gioco del divenire i bosoni comunque generano e supportano epigenesi sostruttiva producendo invarianza. Dopo di che entrano in gioco nuove relazioni, azioni e retroazioni, che determinano una continua ri-sostruzione delle cause che a noi sfugge perché avviene in tempi cosmici e non antropici. Per l’uomo (che vive al massimo un centinaio di anni), ma anche per le civiltà (che vivono mille o duemila anni) i milioni di anni sono un inconcepibile e quasi un assurdo. Non solo, ogni entità reale è all’interno di un “ordine” possibile ma “fin che dura”, ovvero sin che la necessità, come invarianza, resiste alle mutazioni che il caso induce. L’operare di esso si eclissa con un equilibrio ontico mentre nasce nuova “dinamica relazionale” che fa sistema.

    Impossibile dire se nel cosmo prevalga l’ordine o il disordine, quel che è certo è che più si espande e più si raffredda, e più si raffredda più trova ordine, ma questo è più “contingente” che “necessitato”. Un sistema peraltro è sempre passibile di perturbazione endogena od esogena; il sistema è così spinto ad evolvere verso un nuovo ordine “immediato” o “ritardato”, e un equilibrio sistemico è frutto della coniugazione dei comportamenti dei costituenti-attori coinvolti. Però il sistema che essi rendono possibile diventa a posteriori anche “funzione” di essi e garante del loro relazionarsi. L’atomo è il modello-base dei sistemi fisici come esempio di equilibrio ontico compiuto come perlopiù lo sono i suoi assemblati, minimi o enormi, anch’essi latori di equilibrio finché non intervengano perturbazioni. Se dal fisico si passa al biologico, anche qui gli organismi e gli ecosistemi sono determinati da costituenti-attori che hanno coniugato le esigenze del loro esistere e dove la selezione naturale è legge predominate seguita dalla simbiosi ove possibile.

    In tema di equilibri ontici i contributi dei fisico-chimici sono assai interessanti, poiché è nella complessità sur-molecolare che è dato cogliere con grande evidenza la complessa e a volte sorprendente fenomenologia equilibrio/disquilibrio. Anche se non siamo sempre d’accorso con lui, un buon contributo è venuto da Ilya Prigogine col suo concetto di “struttura dissipativa” in dis-quilibrio e quindi “in evoluzione” verso nuovi equilibri:

 

Questa è la ragione per cui abbiamo introdotto il concetto di strutture dissipative, per sottolineare, con il loro stesso nome, la stretta associazione, a prima vista veramente paradossale, che può esistere tra struttura e ordine da una parte, e perdite e sprechi dall’altra. Abbiamo visto nel capitolo IV che la conduzione del calore era stata considerata come una fonte di sprechi dalla termodinamica classica. Qui invece la dissipazione dell’energia e della materia diventa, in condizioni lontane dall’equilibrio, fonte di ordine; la dissipazione è all’origine di ciò che si possono chiamare, a giusto titolo, nuovi stati della materia. [3]

 

 Ricordando che le strutture dissipative concernono sistemi di aggregazione costituiti da miliardi di molecole in stretta connessione sistemica, leggiamo ancora:

 

Ricordiamo solo che oggi sappiamo che la materia si comporta in maniera radicalmente diversa in condizioni di non-equilibrio, quando cioè i fenomeni irreversibili svolgono un ruolo fondamentale. Uno degli aspetti più spettacolari di questo nuovo comportamento è la formazione di strutture di non-equilibrio che esistono solo finché il sistema dissipa energia e resta in interazione col mondo esterno. Ecco un evidente contrasto con le strutture d’equilibrio, come ad esempio i cristalli, che una volta formati possono rimanere isolati e sono strutture “morte” che non dissipano energia. [4]  

 

Un problema filosofico che tuttavia aleggia è relativo ad almeno due corni interpretativi di quel che siano gli stati di equilibrio, poiché abbiamo visto che Boltzmann li vedeva come gli stati “ più probabili” in termini termodinamici, mentre Prigogine (vedendo i dis-quilibri come “creativi”) pensa ad una materia dinamica che si auto-evolve; evocando così “auto-poiesi”, “auto-formazioni” o “ auto-organizzazioni”.  

    Riprendiamo ora brevemente l’argomento nei termini più noti (la dicotomia ordine/disordine che già la mitologia poneva) lasciando la parola al fisico Giorgio Careri, che così spiega il disordine fisico:

 

Quello che veramente conta ai fini del disordine, è che gli individui del sistema si distribuiscano in tanti modi su dei livelli energetici, e che quindi siano possibili tanti stati microscopici identici dal punto di vista dell’energia totale media del sistema, ma diversi per il modo con cui la distribuzione degli individui su loro diversi livelli (e più generalmente sui loro diversi stati) può essere realizzata. È questo il vero concetto di disordine. [5]  

 

Quando sottolineavamo che il disordine nasce da perturbazioni casuali o imposte dall’esterno (laboratoristicamente), intendevamo proprio dire che un sistema perturbato “si apre al nuovo” nella misura in cui la necessità è temporaneamente sospesa dal caso. Tale “possibilità del nuovo” è da Careri allusa con l’espressione «con cui la distribuzione degli individui su loro diversi livelli […] può essere realizzata.»  Ma il disordine in un sistema è anche direttamente proporzionale al numero dei suoi sub-stati, sicché Careri aggiunge poco oltre: «Il disordine introdotto in un sistema macroscopico è semplicemente proporzionale all’aumento relativo del numero dei suoi stati microscopici.»  [6]    

    L’ordine e il disordine contrariamente a ciò che dicono i miti non sono oppositivi ma alternati, poiché la fenomenologia termodinamica (quella che riguarda il mondo reale-macroscopico) li rivela correlati: «Ordine e disordine nel quadro della termodinamica statistica seguito in questo capitolo, risultano due concetti complementari, nel senso che la presenza dell’uno implica di necessità l’assenza dell’altro.»  [7]   L’alternanza ordine/disordine segue certe direzioni che non sono necessariamente quelle della freccia storica del tempo, ma più spesso quella della freccia termodinamica del tempo (vedremo nel § 8.5 che anche Hawking vi fa riferimento):

 

In tutta la materia cosmica è rintracciabile quella che è stata chiamata la freccia del tempo, e più esattamente la freccia storica del tempo. Mentre la freccia storica del tempo procede nella direzione dell’aumento di informazione a livello macroscopico, la freccia termodinamica del tempo corre nella direzione opposta, di perdita di questa informazione. [8]   

 

Il rapporto ordine/disordine e quello di acquisto-d’informazione/perdita-d’informazione può presentarsi così:

 

La situazione finale della materia contenuta nel centro di una stella morente, dal punto di vista fenomenologico dello stato di ordine è assai simile a quella che si può raggiungere nei nostri laboratori alle più basse temperature. Nelle stelle morenti questo stato di ordine estremo è dovuto alla pressione eccezionalmente alta, che sovrasta l’effetto dell’altissima temperatura. Secondo le teorie correnti, quando si esaurito il combustibile nucleare, una stella, a seconda delle sue dimensioni, può diventare un buco nero, o una nana bianca, o una stella di neutroni. [9]

 

Ora, sono proprio le stelle di neutroni, quali “tombe stellari”, le campionesse dell’ordine cosmico:

 

Quando la densità attiva a 1014 gr./cm3 non ci sono quasi più elettroni liberi, ma solo neutroni e pochi protoni. […] Quindi all’interno di una stella di neutroni si può raggiungere lo stato più ordinato della materia che sia stato prodotto nel laboratorio alle più basse temperature, anche se la temperatura della stella è vicina a cento milioni di gradi. [10]   

 

L’analogia tra ciò che produce la fucina cosmica con ciò che noi possiamo fare in laboratorio, significa che la stella di neutroni è materia morta e inerte come lo è un superfluido ottenuto da noi a bassissime temperature.

 

                                        

 

                                 

 

 

                                            8.2 L’entropia e il caos tendenziale

 

    Il concetto di entropia [11] si presta a importanti considerazioni di carattere filosofico, nondimeno è stato utilizzato come tema di operazioni di carattere politico-sociologico interessanti sul piano etico ma poco significative per l’ontologia [12]. L’idea corrente di entropia come “perdita d’ordine” ha un suo fondamento, ma non ne vanno sopravvalutate le conseguenze reali, poiché riguarda solo i “sistemi chiusi”, che sono perlopiù teorici. Quindi un concetto abbastanza astratto, che Giorgio Careri così spiega:

 

In realtà come ha mostrato Borel nel 1912, l’informazione al livello microscopico viene perduta proprio perché nessun sistema fisico può essere considerati chiuso, nel senso che è proprio l’interazione delle particelle con le pareti del contenitore a distruggere la correlazione tra le velocità delle particelle e a far perdere così l’informazione al livello microscopico. In altri termini, la ragione della freccia termodinamica del tempo è dovuta al fatto che nessun sistema chiuso reale è un vero  sistema isolato, quindi l’informazione macroscopica si trasforma in informazione microscopica ma quest’ultima viene perduta per le inevitabili perturbazioni causate dal mondo esterno al sistema. [13]

 

Questo in termini generali, ma come considerare il cosmo nel suo insieme? Aggiunge Careri:

 

Diversa è la situazione dell’universo considerato come un tutto, perché solo in questo caso possiamo avere a che fare con un sistema isolato. Adesso l’informazione microscopica, se c’è, non può più esser perduta perché tutte le interazioni tra le particelle sono interne al sistema. Ma l’informazione microscopica non ci può essere, perché una proprietà fondamentale dell’universo, e della quale parleremo più avanti, è la sua isotropia. Vediamo quindi come non sia assolutamente possibile estendere all’intero universo il discorso termodinamico sulla freccia del tempo al quale siamo abituati. La problematica posta dall’universo come u tutto è cosa assai complessa, e non può essere affrontata senza fare uso della relatività generale. [14]   

 

Di sistemi chiusi in natura non se ne conoscono, a meno di considerare tale il cosmo nella sua totalità, ma per validare ciò dovremmo avere qualche elemento sul “fuori”, se esso abbia confini e se oltre essi ci sia il niente o un qualcosa. Lee Smolin fa riferimento alla Terra:

 

Il punto fondamentale è che la legge di crescita dell’entropia si applica solo ai sistemi isolati dal resto dell’universo, tali cioè che né materia e né energia possano entrare o uscire da essi. In questi casi – e solo in questi casi – la legge di crescita dell’entropia è valida. La superficie della Terra, però, non è un sistema chiuso. L’energia penetra continuamente nella biosfera principalmente sotto forma di luce solare [fotoni]. E ne esce principalmente sotto forma di calore, che viene irradiato nello spazio. È questo flusso costante di energia che rende possibile la vita. Un flusso di energia è essenziale in ogni processo di autorganizzazione, perché è presente su ogni scala una tendenza delle cose a finire nel disordine, tendenza dovuta al moto casuale degli atomi. È a causa di questo semplice fatto che ci sono molte più configurazioni di atomi in disordine di quante ce ne siano di organizzate in modo interessante. Una collezione di atomi, ciascuno dei quali si muove in modo casuale, assumerà uno stato disordinato con molta più probabilità di una configurazione organizzata, per il semplice motivo che di stati disordinati ce n’è un sacco di più. È per questo che lo stato disordinato è lo stato di equilibrio, perché una volta che tale stato venga raggiunto, è molto improbabile che il sistema possa per conto suo ritornare ad una configurazione più ordinata. L’essenza della legge di crescita dell’entropia è tutta qui. [15]      

 

Dunque, l’equilibrio è più da vedersi nel disordine che nell’ordine? Sì, se si considerano le configurazioni atomiche e molecolari, ma man mano che si sale nella scala degli assemblaggi pare sia l’ordine a prevalere. La modalità in cui l’energia ordinata può decadere in energia disordinata e inutile è tipica nelle trasformazioni termodinamiche. Quando l’energia elettrica o chimica producono energia meccanica una parte di essa si perde come calore riducendo notevolmente il “rendimento” della trasformazione. A meno che serva per scaldare l’energia calorica è inutile ai fini meccanici, ma, di entropia si parla anche ogni qual volta ha luogo un processo distruttivo di cose strutturate (cioè “informate”). Nel caso dei combustibili, essendo il “rendimento” proprio l’energia degradata a calore, il massimo ottenibile di esso è criterio di valore, sìcché  la “massima entropia” in ragione della massa del combusto è indice di convenienza.

    L’entropia è più correttamente da considerarsi come lo stato più probabile verso il quale evolve un sistema fisico quando perde equilibrio. Già Ludwig Boltzmann aveva sottolineato:  

 

Qualunque deviazione dall’equilibrio è degradazione dell’energia. Ugualmente improbabile è la forma di energia del puro lavoro meccanico; invece nel lavoro chimico può avere già luogo una miscela di atomi che almeno in parte corrisponde alle leggi della probabilità. Quelle che noi abbiamo chiamato precedentemente forme di energia degradata quindi non saranno altro che le forme più probabili di energia, o per meglio dire, sarà energia che è distribuita fra le molecole nel modo più probabile. [16]

 

Ritorna qui l’argomento dell’equilibrio che potrebbe essere così riespresso: che sia in equilibrio o meno un sistema tende sempre ad evolvere verso la struttura più probabile in termini energetici, cioè ad energia degradata e stabile. Ma teniamo presente che il concetto di energia “degradata” è giudizio negativo dell’uomo in vista dei suoi fini, antropico quindi e non ontologico.

    Anche Penrose si è cimentato nel definire l’entropia, e ci piace ricordare come egli la vede nel § 27.3 del suo massiccio The Road to Reality del 2004:

 

Mentre la prima legge [della termodinamica] è un’uguaglianza, la seconda legge è una diseguaglianza; ci dice che un’altra grandezza, nota come entropia, ha, dopo un certo processo un valore più grande (o almeno non più piccolo) di quello che aveva prima. L’entropia è, grosso modo, una misura della “randomness” (casualità) del sistema. Il nostro corpo, in movimento nell’aria, parte con un’energia in forma organizzata (l’energia cinetica del suo moto), ma, quando rallenta per la resistenza dell’aria, questa energia viene distribuita nei movimenti casuali delle particelle dell’aria e delle singole particelle del corpo. La “casualità è aumentata”; in termini più specifici, l’entropia è aumentata. [17]

 

Teoricamente essa è il frutto della cinesi casuale e interattiva tra particelle appartenenti a sottosistemi in moto, ma il suo ottenimento per combustione resta il più significativo per l’importanza che hanno assunto gli idrocarburi. Nel petrolio le molecole di ognuno degli idrocarburi che lo costituiscono posseggono un molecolare “ordine interno” che è hyloinformazione. Bruciarle significa distruggerla per produrre energia calorica degradandole a molecole semplici come l’anidride carbonica (CO2) Ma se la distruzione entropica del petrolio ci ha indotti ad estrarle e utilizzarlo, nel caso del legno i significati ontici e gnoseologici sono più profondi. Il legno è una struttura organica di grande complessità strutturale e con un ordine interno straordinario, con fibre rigorosamente orientate e di diversa costituzione in ragione della funzione vitale a cui assolvono (quelle esterne conducono la linfa, quelle più interne danno stabilità). La combustione del legno è quindi un processo che fa di una struttura naturale dotata di uno straordinario ordine interno e ricchissimo d’informazione in un poco di gas e ceneri

    Il legno è una sostanza complessa con caratteristiche meccaniche prodigiose, unendo grande leggerezza (è perlopiù vuoto) ad elasticità e resistenza, col grande pregio di essere traspirante e relativamente coibente. Esso è quindi ricchissimo di una bioinformazione che riguarda tutto il mondo vegetale. E tuttavia l’ordine interno, nato dalle funzioni vitali, anche nel momento in cui esse cessino rimane immutata l’hyloinformazione acquisita “vivendo e crescendo” per sintesi di anidride carbonica ed acqua coi fotoni come “agenti di fabbricazione”.  Ma vi sono anche oggetti umani ricchissimi di informazione, e il caso limite è costituito da opere d’arte fatte col legno, con la tela o con la carta, che vanno soggette a combustione esattamente come i rami nel bosco o i ceppi da caminetto. Qui l’informazione può essere addirittura sublime, ma andare distrutta in un istante con la distruzione del supporto materiale. Il fatto è che in generale si perde informazione ogni qual volta una sostanza naturale va distrutta o un manufatto umano si rompe; nel primo caso si perde hyloinformazione, nel secondo antropoinformazione L’entropia, indicata in termodinamica dal simbolo S, può essere quindi genericamente considerata “perdita d’informazione” ma non aumento di caos a livello cosmico.

    Si consideri peraltro che si parla di entropia negativa, o neghentropia, ogni qualvolta un organismo vivente capta l’energia dei fotoni per costruirsi e produrre ordine cellulare. Da molecole con modesta hyloinformazione attraverso digestione, metabolismo e fabbricazione di nuovi tessuti si ad elevatissima bioinformazione. E nel bioinformare anche il calore fa la sua parte, quindi non è energia degradata, a dimostrazione che utilità e degrado sono opinioni antropiche.  Così come va sfatata l’idea che l’entropia sia una “andata al caos” come Clausius pensava con un’estensione pseudo-filosofica del 2° principio della termodinamica, non giustificata da alcuna evidenza e anche teoricamente poco plausibile. Va ricordato che Boltzmann ha fornito una rilettura dell’entropia in termini statistici già nel 1896, avendo intuito che il calore era l’esito macroscopico della dinamica molecolare (a base della sua teoria cinetica dei gas), e che l’entropia di uno stato termodinamico è legata alla probabilità che tale stato sussista. Lo stato di un sistema termodinamico è quasi mai definibile perché è impossibile conoscere posizioni e velocità delle molecole, inoltre uno stato termodinamico ha un numero enorme di fattori determinanti. Solo statisticamente si può definire come può essere un certo stato termodinamico e il suo equilibrio più probabile è il suo stato più caotico e povero d’informazione.

    Vi è una tesi interpretativa determinista di Hans Christian von Baeyer, un teorico dell’informazione (che di rifà a una tesi già di Shannon e Weaver), secondo il quale Boltzmann avrebbe in realtà scoperto che la probabilità è il “numero dei modi” in cui un sistema può configurarsi. Ne deriva che l’entropia non sarebbe altro che la mancanza di informazioni sul numero totale dei modi in cui può esistere un sistema per una data situazione termodinamica. Nell’equazione di Boltzmann S = k log W , dove l’entropia è il prodotto della costante di Boltzmann (k) per il logaritmo del valore della probabilità (W), questa, interpretata come numero di modi possibili, si estrinsecherebbe come la totalità della “mancanza di informazioni” sul sistema stesso [18]. Interpretazione sicuramente affascinante, ma che, ancora una volta, dimostra come i deterministi siano capaci di trovare mille modi per camuffare una realtà fisica sotto una forma logica.  L’entropia, in una gnoseologia corretta, resta ciò che è, ovvero la quantità di energia di un sistema senza possibilità di riconversione. I fotoni calorifici possono solo “scaldare” e non producono effetti fisici né fotochimici, ma non sono per questo energia degradata né portano al caos. È solo che l’hyloinformazione dei fotoni al di sotto di una certa soglia energetica (di frequenza e di lunghezza d’onda) tende a zero.  

    Stephen Hawking, in Dal big bang ai buchi neri, ci rende una sintesi abbastanza chiara di come si ponga la questione del disordine portato dall’entropia in rapporto alla neghentropia, che resta comunque, almeno per quando se ne sa, un fenomeno solo del vivente, quindi “locale”:  

 

Il progresso del genere umano nella comprensione dell’universo ha stabilito un cantuccio d’ordine in un universo sempre più disordinato. Se il lettore ricordasse ogni parola di questo libro avrebbe registrato circa due milioni di elementi di informazione: l’ordine nel suo cervello sarebbe aumentato di circa due milioni di unità. Leggendo il libro, però, egli avrà convertito almeno un migliaio di calorie di energia ordinata, sotto forma di cibo, in energia disordinata sotto forma di calore, che viene dissipato nell’ambiente per convezione e sotto forma di sudore. Il disordine dell’universo risulterà in tal modo accresciuto di circa venti milioni di milioni di milioni di milioni di unità – ossia di quasi dieci milioni di milioni di milioni di volte più dell’aumento dell’ordine nel suo cervello – e questo nell’ipotesi che ricordasse perfettamente l’intero contenuto di  questo libro. [19]                    

    

Ciò che è qui sottolineato è che l’idea che gli uomini siano significativi creatori d’ordine “conoscendo” è falsa, poiché sono semmai le piante delle eccezionali fautrici di neghentropia, creano molto ordine col «migliaio di calorie di energia ordinata sotto forma di cibo» e quasi nessun disordine.   

 

 

 

                                         8.3 La complessità lineare e la intricata  

 

    Se l’indeterminazione è presente a tutti i livelli cosmici come portatrice di innovazione la determinazione rende possibile il persistere degli enti che costituiscono le varie regioni; e tuttavia vi sono aspetti della realtà che paiono casuali ma non lo sono. Si tratta dei sistemi caotici deterministici: così complessi da diventare quasi imprevedibili. La previsione è una delle funzioni primarie della scienza nel capire “come” si evolva un sistema o come un processo inizi o si concluda. Ma per quanto, in generale, il semplice risulti più prevedibile del complesso ciò non è sempre vero; né un sistema semplice si offre in equazioni semplici, né ciò che sembra casuale lo è sempre, né ciò che appare molto complesso si sottrae alla riduzione a un’equazione. La complessità ha rilievo teorico dalla metà del ‘900 e già Poincaré aveva compreso che fenomeni ritenuti stocastici in realtà non lo erano:

 

Una causa piccolissima che sfugga alla nostra attenzione determina un effetto considerevole che non possiamo mancare di vedere, e allora diciamo che l’effetto è dovuto solo al caso. Se conoscessimo esattamente le leggi della natura e la situazione dell’universo all’istante iniziale, potremmo prevedere esattamente la situazione dello stesso universo in un istante successivo. […] Può accadere che piccole differenze nelle condizioni iniziali ne producano di grandissime nei fenomeni finali. Un piccolo errore nelle prime produce un errore enorme nei secondi. La previsione diventa impossibile e si ha un fenomeno fortuito.» [20]   

 

Il matematico-epistemologo francese espone uno dei punti-chiave della complessità deterministica, cioè che un insignificante fattore iniziale può avere conseguenze inaspettate, sì da far pensare erroneamente a casualità. È il corretto esito teorico di un lungo percorso che ha in lui il “traghetto” verso la moderna teoria del caos deterministico. Purtroppo che questo (prevedibilmente) è poi diventato strumentale alla riproposizione del vecchio determinismo aprioristico, in base all’antico dogma in base al quale è solo nell’ignoranza o nel fraintendimento che nasce il concetto di caso. 

    Al caos deterministico certamente appartengono buona parte dei fenomeni complessi, ma ne è stata data un’inaccettabile estensione ideologica e mistificatoria. Nel 1948 l’articolo Science and Complexity del matematico Warren Weaver, apparso sulla rivista American Scientist, apre il nuovo corso degli studi sulla complessità. Weaver distingueva tre tipi di sistemi dinamici: 1° semplici; 2° a complessità disorganizzata; 3° a complessità organizzata. Ma saranno due Premi Nobel, Prigogine e Gell-Mann, i primi ad intuire l’importanza della complessità, diventando alfieri di una corrente di studi sempre più impetuosa, che ha coinvolto studiosi delle più varie discipline. Entrambi fondano centri per lo studio di essa, Prigogine a Bruxelles e Gell-Mann a Santa Fé. I due però ammettono entrambi il caso, mentre sul treno della complessità sarebbero poi saltati eserciti di necessitaristi integralisti (specialmente al Santa Fé) interessati a sviluppare il caos deterministico (insieme con l’autoorganizzazione “pilotata”), sino a farne una sorta di Leviatano della complessità. La situazione è pericolosa, perché si sta utilizzando l’“emergenza” in senso olistico non più solo in biologia ma anche in fisica. All’opposto, vi è chi difende il criterio riduzionistico interpretando il complesso unicamente come un “troppo complicato”.

    Tale confusione fa sì che Seth Lloyd sia riuscito all’inizio degli anni ’90 a classificare 31 differenti concetti di complessità e la proliferazione degli studi continua a portare poca chiarezza [21]. La partita è giocata tra matematici, fisici e chimici: i primi tendenzialmente deterministi, i secondi relativamente neutrali e i terzi spesso indeterministi. Famoso tra i primi René Thom (Teoria delle catastrofi), di cui abbiamo già parlato in La filosofia e la teologia filosofale, ma è Benoît Mandelbrot lo studioso che intorno al 1970 studia a fondo e con approcci nuovi quel tipo di oggetti matematici traducibili in forme geometriche che paiono casuali ma non lo sono, e li chiama frattali. Strutture grafico-cromatiche spesso di grande bellezza e variabili all’infinito assegnando differenti valori nell’equazione d’origine. Secondo Mandelbrot il cosmo stesso potrebbe essere un frattale, omogeneo a livello globale ma senza che la distribuzione della materia in esso sia uniforme. Altri dopo di lui sosterranno che il cosmo possa essere un insieme di frattali, un multi-frattale [22], mentre altri tenteranno di vedere frattali nelle distribuzioni delle galassie [23].

    Matematici come Gregory Chaitin e Andrei Kolgomorov accentuano l’elemento computazionale della complessità in funzione della “lunghezza di stringa”, come un software operante su un hardware. Ma sarà Alan Turing, che dopo aver ipotizzato la possibilità di costruire una “macchina ideale-universale-pensante”, a definire la complessità di una stringa informatica in rapporto alla lunghezza della sequenza di istruzioni dell’algoritmo. La lunghezza del programma, il numero di operazioni necessarie per realizzarlo, diventa il criterio della complessità, mentre la “comprimibilità” è lo strumento che semplifica l’algoritmo ai limite del possibile. Quanto più il sistema possiede elementi di casualità è poco comprimibile, viceversa quanto più è deterministico tanto più è semplificabile. Dal fronte matematico si passa presto al termodinamico e quindi all’entropia; ma il dominio è ancora del primo attraverso le teorie dell’informazione, con l’eccezione di Prigogine, che continua a lavorare alla complessità molecolare, e di Gell-Mann che tende a coniugare la fisica con la riflessione filosofica.

    Veniamo all’”effetto farfalla”, espressione sintetica coniata dal meteorologo Edward Lorenz negli anni ’70 per tradurre un effetto che nel 1963 formulava così: «Un meteorologo fece notare che se le teorie erano corrette un battito delle ali di un gabbiano sarebbe stato sufficiente ad alterare il corso del clima per sempre.» [24] La sostanza del discorso è che modellizzando con equazioni differenziali le evoluzioni di un sistema si constata che piccole differenze iniziali possono determinare andamenti diversissimi pur restando processi lineari, cioè deterministici. Il fatto è che a determinare la complessità è l’“insieme” delle variabili di un sistema ed essa è fenomeno collettivo, dove gli enti si coniugano in comportamenti “d’insieme”. Nota giustamente  Prigogine che «già a livello microscopico, assistiamo a una miscela di determinismo e probabilità » [25], aggiungendo:

 

Comunque le considerazioni statistiche della meccanica quantistica si applicano solo a livello macroscopico. Ecco uno dei punti interessanti dello studio sui punti di biforcazione che ho appena menzionato. Questi dimostrano che persino a livello macroscopico la nostra predizione del futuro mescola insieme determinismo e probabilità. Nel punto della biforcazione la predizione ha carattere probabilistico, mentre tra punti di biforcazione possiamo parlare di leggi deterministiche. [26]

 

I “punti di biforcazione” sono stati della complessità dove il disquilibrio genera possibilità evolutive bidirezionali a catena fino all’instaurarsi di nuovo equilibrio. Ma per quanto Prigogine sia un serio studioso dei fenomeni complessi ci sono deterministi come Angelo Vulpiani che sostengono essere concetto di entropia non univoco perché «non tutte le entropie sono uguali»:

 

L’apparente paradosso è che stiamo usando il termine complessità con troppa disinvoltura. Ciò mostra quanto sia sviante cercare di utilizzare la termodinamica in situazioni in cui non ha alcun ruolo. A parere dell’autore, questo è il caso di quelle che Prigogine chiama “strutture dissipative” (Nicolis, Prigogine, 1984): tutte le volte che è possibile esibire queste strutture è grazie a esplicite leggi dinamiche in cui la termodinamica non compare. [27]

 

    Il fatto è che la forma mentis dei necessitaristi tende alla difesa del determinismo giocando su ogni fattore utile a mettere in discussione l’indeterminismo. Quelli che Vulpiani chiama «indicatori di complessità» da definire «in termini precisi» [28] hanno tutta l’aria di essere strumentali alla riduzione della complessità a marchingegni matematici. Noi pensiamo invece che la complessità si sottragga per sua natura a tutte le semplicizzazioni per ridurla a caos deterministico, per cui l’indagine sulla complessità va estesa alla fisica non “a chiudere” ma “ad aprire”. Però Vulpiani ribadisce il vecchio cliché deterministico : «La storia della scienza può essere vista, in gran parte come una lotta contro il disordine, nel tentativo di trovare delle regolarità nel mondo dei fenomeni che appaiono in continuo cambiamento.» [29]  Ora, da un punto di vista storico ciò può essere vero, ma la tirannia gnoseologica “regolaristica” è proprio ciò da cui la scienza del futuro deve cercare di liberarsi, poiché sono gli studi sull’irregolare e sull’indeterminato il suo nuovo orizzonte, da sempre trascurato, da esplorare in futuro.

    Inevitabile che la matematica della complessità sia ormai diventata così generica e onnicomprensiva da essere estesa persino alla ”complessità sociale” in senso olistico. Tale complessità “generica e generalizzabile” si concentra sul caos deterministico con un tipo di approccio semplificatorio che trova anche in Cristoforo Sergio Bertuglia e Franco Vaio dei sostenitori. In Non linearità, caos, complessità (sottotitolo Le dinamiche dei sistemi naturali e sociali) essi affermano: « Una nuova prospettiva, detta olistica, si viene così affermando nello studio dei sistemi. Secondo tale prospettiva, ogni sistema va considerato nel suo complesso.» [30] Affermazione corretta in riferimento ai sistemi biologici (e in effetti gli esempi su cui si appoggiano sono perlopiù riferiti al vivente), ma nell’impostazione e negli sviluppi del saggio il carattere olistico è esteso a tutta la realtà. L’olismo riguarda un ambito definito, ed olistico non significa complesso: ciò che è olistico è l’organico organizzato mentre il complesso può essere assolutamente disorganizzato, caotico e più o meno stocastico.

    Ma Bertuglia e Vaio vedono la complessità solo come caos deterministico, negando quindi il caso nei termini classici di “ignoranza delle cause” o “difficoltà di calcolo”, e da ciò le solite banalità: «In realtà quello di casualità è un concetto di comodo, che traduce o la nostra ignoranza delle leggi di un fenomeno o l’impossibilità di osservare le eventuali ricorrenze per la lunghezza eccessiva del tempo di osservazione e/o del calcolo per l’elaborazione dei dati.» [31]  La complessità è diventata il nuovo Cavallo di Troia del determinismo con l’invenzione degli ”attrattori”, in base ai quali: «una particolare regione nello spazio delle fasi (un sottoinsieme dello spazio delle fasi), che un sistema dinamico tende a raggiungere nel corso della propria evoluzione.» Un sistema dinamico-matematico (ma non per questo reale) va verso l’attrattore come bacino di attrazione, press’a poco come in un lavandino tutto finisce nello scarico [32]. Il complesso è così “addomesticato” in un modello di calcolo simil-reale deterministico [33], mettendo completamente fuori campo i fattori stocastici. L’attrattore è “causa finale” nell’evoluzione di un sistema complesso senza differenze tra il “caotico” e lo “strano”, essendo il primo riferito alla dinamica matematica e il secondo alla sua configurazione geometrica frattale. Una tautologia come ammettono i Nostri: «Perlopiù gli attrattori caotici sono strani e gli attrattori strani sono caotici.» [34]

    Non meno determinista è Ian Stewart, un fisico-matematico studioso di linearità e biforcazioni, che ci offre una visione più articolata, prendendo le distanze dal determinismo semplicistico. Egli osserva che nel mondo occidentale l’ordine meccanicistico è rigorosamente necessitato e si oppone al disordine, mentre in quello orientale l’ordine e il caos sono integrati:

 

Nella mitologia indiana classica il cosmo passa per tre fasi principali: la creazione, la conservazione e la distruzione, le quali riflettono la nascita, la vita e la morte. Brahmā è il dio della creazione, Vişnu il dio della conservazione (ordine) e Šiva il dio della distruzione (disordine). […] La distinzione tra l’ordine di Vişnu e il disordine di Šiva non è identica alla distinzione tra bene e male, ma rappresenta invece due diversi modi di manifestazione della divinità: benevolenza e ira, armonia e dissonanza. [35]

 

Svolge poi un excursus storico sui concetti di ordine e disordine in Occidente da Talete sino a Poincaré, Birkhoff, Chaitin, Kolgomorov, per arrivare al topologo contemporaneo Stephen Smale, studioso dei sistemi dinamici e teorico degli attrattori matematici, precisando:

 

Un attrattore si definisce come ciò verso cui si muove il punto che rappresenta il sistema! […] L’essenza di un attrattore è che esso è una parte dello spazio delle fasi tale che qualsiasi punto si metta in moto nelle sue vicinanze gli si approssima sempre più. [36]

 

L’attrattore è l’obbiettivo verso cui si evolvono deterministicamente i sistemi dinamici già di per sé deterministici, né esso pone il problema determinismo/indeterminismo essendo il secondo negato; esso si limita a determinare matematicamente “dove va a finire” un sistema deterministico. Un attrattore “seleziona” tra i dinamismi quelli che giudica significativi concludendoli nel determinismo ed elimina le fasi indeterministiche. Nel gioco dei dadi c’è qualcosa di simile: una gettata è indeterministica, ma il risultato-somma di 1.200 gettate è considerata deterministica perché certifica l’instaurarsi di 1/6 di probabilità per ogni faccia del dado che esce 200 volte. È tautologico che “alla allunga” le probabilità si stabilizzino in un rapporto fisso, ma ciò non significa sempre determinismo.  Stewart passa dai problemi di matematica pura alla meteorologia e infine a uno dei casi più noti di complessità, quello della turbolenza, notata da ognuno di noi. 

    Se apriamo un rubinetto con gradualità vedremo che il flusso dell’acqua passa attraverso fasi molto differenti a seconda della quantità che esce. Se apriamo poco l’acqua uscirà in gocce isolate e singole, aprendo un poco di più le gocce saranno più rapide e si avvicineranno, aprendo ulteriormente scompariranno le gocce e avremo un flusso continuo, “laminare”. Esso è uniforme e si rompe in gocce solo in basso, se continuiamo si intensifica ma resta regolare magari mutando forma e tendendo a dividersi o ad assumere un andamento a spirale. Se però apriamo ancora ci sarà un momento in cui, improvvisamente, la regolarità si trasformerà in turbolenza, l’ordine in disordine [37]. Molti sono stati i tentativi di applicare il determinismo frattale anche alla turbolenza [38] ,  ma è nelle finzioni della realtà virtuale che se ne trova la migliore applicazione. Però Vulpiani sostiene che la turbolenza è un fatto fisico generale e non «distante dal mondo reale», poiché «esperimenti di laboratorio possono infatti decidere tra le varie proposte.» [39] 

    La non-adesione di Stewart al determinismo massimalistico lo porta a respingere la «Vasta Intelligenza» di Laplace per sostituirvi una prudenziale «Intelligenza Considerevole» e scrive:

 

Quando la dinamica di un sistema diventa caotica, c’è un compromesso tra la precisione con cui noi ne conosciamo lo stato corrente e il periodo di tempo per cui possiamo dire, in modo dettagliato, che cosa farà. E la precisione delle osservazioni dev’essere quasi impossibilmente buona per poter fare predizioni anche a medio termine. D’altra parte, possiamo fare ancora predizioni molto precise, non dell’esatto comportamento a lungo termine del sistema ma della sua generale natura qualitativa. Possiamo imporgli limiti quantitativi e determinarne i caratteri statistici. Se non puoi vincere, sposta i pali delle porte. [40]   

 

Un compromesso che però fa emergere la domanda: ma se è impossibile “determinare” l’andamento dinamico del caos perché assolutizzarlo come caos deterministico? Il fatto è che il determinismo è un’ideologia e come tenta di “imporre” le proprie modalità alla realtà per quanto Stewart sostenga: «Oggi la caologia non è più un’area attiva della teologia, e il termine è quindi disponibile per un’interpretazione più moderna: lo studio del caos deterministico.» [41]  In realtà esso concerne molta complessità, ma niente affatto tutta, sicché la sua totalizzazione ideologica è veramente una nuova teologia!

    Stewart passa poi all’argomento cruciale del mondo subatomico riconoscendo che «nessuno può predire quando un atomo deciderà di disintegrarsi», ma non pensa affatto che “Dio giochi ai dadi”, piuttosto che il suo gioco sia per noi «troppo profondo» [42]  Egli spera, come molti, che «qualche nuova versione della meccanica quantistica possa sostituire la natura probabilistica della funzione d’onda», concludendo: «quel che importa non è se Dio giochi ai dadi, ma come[43]  È consapevole che un determinismo semplicistico non sia più proponibile, però anch’egli ci ripete che il caso è un espediente:

 

Gli eventi casuali dovuti al caos deterministico, d’altra parte, si verificano anche all’interno di un sistema chiuso determinato da leggi immutabili. [..] L’indeterminazione quantistica potrebbe essere una cosa del genere. Un essere infinitamente intelligente dai sensi perfetti (Dio, la Vasta Intelligenza di Laplace o il Pensiero Profondo di Adams) potrebbe essere effettivamente in grado di predire esattamente quando un determinato atomo di radio decadrà, quando un dato elettrone si sposterà da un’orbita a un’altra. Ma col nostro intelletto limitato e con i nostri sensi imperfetti noi potremmo non essere mai in grado di capire il trucco. [44]

 

Limitazione e imperfezione, dunque, non ci consentirebbero di “capire” il determinismo assoluto del gioco di Dio, così come non capiamo i trucchi del prestigiditatore. L’impressione è che veri prestidigitatori siano i fautori di quei modelli che imitano la realtà (un po’ come fanno i disegni frattali) con equazioni deterministiche di una pseudo-realtà. Una di queste potrebbe essere il cosiddetto “gas di Lorentz”, basato su un modello matematico che riproduce un simil-virtuale moto browniano, sicché, ci ricorda Vulpiani:

 

Nel caso della particella browniana l’irregolarità è dovuta alla presenza delle molecole del fluido che la urtano in modo “casuale”; per la particella del gas di Lorentz non c’è causalità ma caos dovuto all’instabilità. L’effetto finale, per  quanto riguarda la diffusione, è comunque lo stesso.  [45]  

        

     Contro la tendenza a “necessitare” la complessità semplicizzandola è necessario ricondurla al suo significato più vasto, complicato, articolato, poliedrico, fuori dal cliché del “non poter definire-determinare per ignoranza o difficoltà di calcolo”. Il complesso non è l’olistico ma un comportamento “collettivo” con elementi di casualità che non permettono assolutizzazioni deterministiche. Il complesso è perlopiù probabilistico e non ci si può limitare a considerare la complessità lineare (dove l’indagine è facile) ma considerare anche la intricata (assai più difficile). La distinzione tra la complessità lineare e quella intricata ci induce ad associare a questa il concetto di ordine indeterministico, che non è un ossimoro ma implica il superamento di quegli schematismi mentali che associano la necessità all’ordine e il caso al disordine. L’ordine è solo uno stato di equilibrio e il disordine di squilibrio, poiché la realtà è mescolanza di equilibri che si squilibrano e di squilibri che si equilibrano.  Le mutazioni portano un nuovo che qualche volta ha successo e molte altre no in un cammino per tentativi (peiratico) fatto di successi e insuccessi, di nascite e di aborti. La causalità lineare è solo “variazione di forma” dell’esistente; quella intricata invece “cambia” l’esistente.

    L’intrico c’è dove le cause non sono connesse da una vettorialità ma sconnesse in una multidirezionalità, Un temporale molto violento è certamente un evento caotico che può avere conseguenze gravi o non averne. Da un grosso e vecchio albero attaccato dall’edera può sempre staccarsi un grosso ramo più secco, precipitare e ostruire una strada. Ma con tutto ciò, risalendo alle cause della perturbazione e alle condizioni dell’albero, siamo solo di fronte ad un accadimento provocato da una differenza di pressione nata da tutt’altra parte, da una forte umidità locale dovuta all’evaporazione, da un improvviso abbassamento di temperatura in quota e poi dalla vecchiezza della pianta. Tuttavia i grossi rami di vecchi alberi malati perlopiù non si staccano durante i temporali, anche se si può danneggiare l’attacco al tronco principale, sicché il ramo magari cade qualche settimana dopo per una modesta pioggerella che lo avrà e per uno scoiattolo saltato su di esso coi suoi pochi etti dinamici. Il ramo si staccherà e se la pianta costeggia una strada e in quel momento passerà il signor Rossi con la sua utilitaria esso rovinando magari la prenderà in pieno. Ci saranno molti o pochi danni alla carrozzeria e forse qualche scaglia di vetro sulla fronte del malcapitato; però, se lo prende in testa, può farlo secco.

    Nell’incidente patito dal signor Rossi le variabili del sistema appartengono a ordini differenti, con un temporale che ha dato inizio al processo senza effetti, con una pioggerella quindici giorni dopo, il salto di uno scoiattolo, e poi soprattutto il passaggio in quel momento dell’utilitaria. Nessuna relazione causale di tipo lineare in tale complessità di fenomeni fisici nel sistema “bosco lungo una strada”. Solo cause sconnesse nate da un intrico causale del tutto casuale nel “lì e in quel momento” in cui c’è un’effettualità reale del tutto imprevedibile. Qualsiasi tentativo di volere connettere le cause dell’evento, farne un processo lineare e farlo diventare deterministico, è destinato al fallimento. E non già perché siano intervenuti due animali a determinarlo di cui uno vittima: il salto dello scoiattolo potrebbe essere sostituito da una pietra staccatasi da  un declivio soprastante, o da un altro ramo più in alto caduto su quello in bilico o dal ventaccio di tre giorni prima che lo ha messo in tensione. E come il signor Rossi potrebbe esser sostituito dalla vecchina che sta andando dal fornaio o da una mamma che spinge una carrozzina con un bambino e così via. Le variabili del sistema sono “a piacere” ma il risultato indeterministico non muta: non c’è consequenzialità necessitata, siamo di fronte a complessità intricata e non lineare.         

 

 

 

 

                                8.4  Lo spazio, il tempo e la costante di spazio-tempo

 

    Lo spazio e il tempo della fisica newtoniana nella relatività einsteniana si squagliano e diventano spazio-tempo nel cronotopo di Minkowski [46], il quale è per noi (esistenti nella freccia del tempo), un non-intuibile perché percepiamo separatamente spazio e tempo. Da un punto di vista filosofico possiamo quindi dire che la relatività è priva di riferimenti alla nostra esistenzialità. Ma non meglio per la massa (che noi pensiamo erroneamente quale peso), la quale incurva lo spazio tempo con i gravitoni che creano campo gravitazionale. Come possiamo noi intuire un concetto geometrico come la curvatura correlandolo all’attrazione gravitazionale? E dunque: può la filosofia aiutare a risolvere la dicotomia tra la fisicità ed esistenzialità? La fisica non ci aiuta, ma un’ipotesi “non-fisica” è debole, quindi bisogna proiettarsi in una nuova prospettiva ontologica, per quanto l’incorrelabilità RelG-MQ (stringhe e brane a parte) la renda difficile. Si tratta di rivedere l’aporia fisico-esistenziale relativa a quelle che Kant chiamava intuizioni pure a priori, valide anche oggi sul piano percezionale del nostro vivere lo spazio che si estende da casa nostra al luogo di lavoro e il tempo che impieghiamo per raggiungerlo. Sicché il nostro rapporto con la realtà resta irrimediabilmente antropico in funzione del “ciò che ci concerne”. Basti pensare che se per assurdo noi vivessimo completamente al buio, in assenza di fotoni, non potremmo neanche avere alcuna idea dello spazio e probabilmente neppure del tempo.

    E tuttavia abbiamo la fortuna di disporre di due dati importanti: la velocità dei fotoni nel vuoto di 299.792.458 Km./s., che è costante, e l’equazione einsteniana che coniuga lo spazio/tempo con la massa. Perciò la c si offre a noi come costante di spazio-tempo (cst) nell’equazione E=mc2. Qualcosa di alluso già da Heisenberg nel 1958:

 

La velocità della luce è una misura posta dalla natura. Essa non ci dà informazioni su qualcosa di particolare, bensì sulla struttura generale del tempo e dello spazio. Struttura che però non è direttamente accessibile alla nostra intuizione. [47]

 

Se le energie e le masse sono intercambiabili è in funzione della velocità dei fotoni al quadrato, per cuci appare legittimo assumere la c come costante non solo relativa alle masse-energie ma anche allo spazio-tempo; infatti non solo i fotoni viaggiano alla c, ma ogni ente hyletico privo di massa.

    Enti privi di massa si muovono a una velocità che deve essere considerata allo stato attuale del conoscere la massima possibile, essendo la massa a ridurre la velocità nel vuoto, null’altro. La massa riduce la c e per questo è costante-limite di massa zero, sicché le masse sono variabili cosmiche fondamentali. Per qualsiasi corpo in moto la velocità è il rapporto tra spazio percorso e tempo impiegato; ma la c è più che un rapporto perché la natura “plastico-elastica” dello spazio-tempo ci permette di riferirla ad esso in “assenza di massa”. La c in assenza di masse pare allora correlare lo spazio-limite al tempo-limite e poter diventare una cst in assenza di energie-masse e limite di massa 0. La velocità di un corpo nel vuoto diminuisce all’aumento della massa come costante al quadrato nel rapporto dinamico masse/ energie e per la E=mc2 essa è √ 2 di una “costante relazionale energia/massa”. Per un valore costante di E le due variabili del prodotto sono inversamente proporzionali e dalla cst poi correlate sia tra di loro e sia con lo spazio-tempo che le masse-energie stesse hanno creato.

    L’assunzione ontologica di una cst come costante non solo correlata a masse/energie apre nuove prospettive ontologiche compatibili sia con la RelR sia con la RelG e inclusive  della MQ. Abbiamo due coppie, spazio-tempo ed energia-massa, legittimate nell’equazione come realtà cosmiche “calcolabili” perché la cst rende “reale” e costante il rapporto. Senza la cst nessuna transizione energia-massa è concepibile né calcolabile, per questo essa appare come un rapporto “reale” tra “reali” portati al loro limite estremo di “massimo spazio” per “minimo tempo”. Ciò non significa che la velocità dei fotoni, da noi assunta come cst, non sia superabile in assoluto, ma soltanto che in “questo” universo tale valore è costante e quindi costitutivo della realtà generale (salvo le sempre possibili eccezioni). Passiamo ora a considerare lo spazio e il tempo intuibili per vedere in quale misura siano messi in discussione dal cronotopo, poiché le due intuizioni pure di Kant rimangono antropicamente valide anche se non lo fossero cosmicamente.

    Per quanto il pluralismo ontofisico non riguardi l’esistenzialità esso non è incompatibile col dualismo antropico reale, essendo entrambi all’interno della cornice posta con l’ipotetico pluralismo ontologico in senso generalissimo. Ma l’esistenza umana è un “niente” relativamente al cosmo poiché l’essere globale se sul nostro pianetino sperduto esistessero anche 100 miliardi di umani. Che l’homo sapiens ci sia o non ci sia, anzi, che la vita ci sia o no, la Terra, il Sole, forse l’intera Via Lattea tutto ciò resta insignificante rispetto alla generalità del cosmo, anche perché i pianeti abitati da esseri viventi potrebbe essere a milioni. Noi siamo impossibilitati a rapportarci al cosmo perché siamo così irrilevanti che è come “se non ci fossimo” ed è questa la ragione per cui l’accadere cosmico è per noi un irraggiungibile “fuori orizzonte”. È quindi privo di alcun senso porre qualsiasi relazione tra reversibilità nella RgP, freccia del tempo e tempo cosmico poiché si tratta di tre parametri differenti e incommensurabili. La reversibilità non elimina la freccia del tempo e questa quella, e freccia del tempo umana non è quella cosmica così come la reversibilità del tempo è utile per concettualizzare la RgP, ma è del tutto incoerente sia con la RgM, sia con la RgC e sia con la RgG.

    La reversibilità nella RgP è una fondamentale e sorprendente che concerne solo questo stupefacente e quasi magico ambito di una realtà che offende le nostre capacità percezionali e molte nostre pretese di “antropica” intelligibilità. Noi, in quanto enti appartenenti alla RgC e alla RgM siamo estranei alla RgP, se non altro perché le particelle sono ubiquitarie e noi no, potendo esse andare indietro nel tempo e noi no. Una particella può inoltre “sentire” una particella gemella nata con lei nell’entanglement a distanze relativamente enormi e con essa ritornare al passato. Richard Feynman analizza anche questo fenomeni in un testo diventato famoso, dove troviamo anche questo passaggio:

 

Ad esempio, l’elettrone può emettere il nuovo fotone prima di assorbire il vecchio (b). Oppure, possibilità ancora più strana, l’elettrone emette un fotone, viaggiando all’indietro nel tempo, assorbe il vecchio fotone e poi si propaga nuovamente in avanti nel tempo (c). Il percorso di questi elettroni che viaggiano “all’indietro” può esser tanto lungo da apparire reale negli esperimenti di fisica in laboratorio. [48]

 

La storia di una particella pare infatti coniugata con quella della sua antiparticella, con la differenza che essa nel suo “farsi” e nel suo “andare” crea realtà, mentre la seconda non può farlo perché non abita la realtà, ma solo il kenόn.

    La particella può “reincontrare” l‘antiparticella con cui si era annichilata facendo apparire ex novo un fotone come quanto di energia insieme a dell’altro allorché noi provochiamo il processo inverso. Essendo la reversibilità intrinseca alla RgP Feynman può aggiungere: «Questa proprietà è generale. Ogni particella esistente in Natura ha un’ampiezza per muoversi all’indietro nel tempo.» [49]; ciò significa, nei termini da noi posti, che nella RgP l’accadere è piuttosto differente dal divenire. Ma questo non è mai eracliteo, governato dal lógos, bensì leucippeo, governato dalla kinēsis di enti-base, gli atomi, che solcano il kenón. Alla filosofia di Leucippo va riconosciuto di aver anticipato tutto ciò che la scienza avrebbe scoperto in seguito, mentre quella di Eraclito era in definitiva solo mera metafisica come lo è il divenirismo hegeliano. È significativo che sia dalla culla di Hegel che nascono i Bradley e i McTaggart con le loro pirotecnìe logico-dialettiche, per fortuna già smontate da tempo. Eppure esse trovano sempre sorprendenti quanto devastanti palingenesi, soprattutto quando utilizzano elementi della fisica moderna a sostegno di una tesi che resta, nella sostanza, quella di Parmenide.

    La freccia del tempo non c’è nella RgP da cui nasce e si fonda la realtà fisica, ma la reversibilità sparisce dai loro assemblati macromolecolari in su. Nella RgP c’è anche quell’interscambiabilità, quell’indeterminabilità e quella non-località (entanglement) che mancano nelle altre regioni. Amir Aczel nel suo Entanglement: The Greatest Mistery in Physics del 2001 ci dice:

 

L’entanglement ci insegna che la nostra esperienza quotidiana non ci fornisce la capacità di capire la natura di ciò che accade nel micromondo. […] L’entanglement può anche essere descritto come un principio di sovrapposizione che coinvolge due o più particelle. L’entanglement è, insomma, la sovrapposizione degli stati di due o più particelle, considerati come un unico sistema. L’idea di distanza spaziale, così come noi la intendiamo abitualmente, sembra svanire, se si pretende di applicarla a un sistema siffatto. Due particelle che possono anche distare tra loro chilometri, o persino anni luce, continuano a comportarsi in modo concertato: quello che accade a una di loro accade immediatamente anche all’altra, indipendentemente dalla distanza che le separa. [50]   

 

In tutto ciò non c’è alcun mistero appena si esca dalla gabbia del pensiero antropico che pretende il cosmo “fatto per l’uomo”. E non è tutto, accanto alla non-località vi è anche ciò che Kenneth Ford chiama “penetrazione”:

 

Se una particella si trova da un lato di una parete che, secondo la fisica classica, è totalmente impenetrabile, esiste una certa probabilità che essa passi dall’altro lato. Il decadimento alfa dei nuclei può venire spiegato come un fenomeno di penetrazione. La particella viene tenuta entro il nucleo da una barriera ‘impenetrabile’ di forza elettrica. Eppure c’è una piccola probabilità che essa possa saltare fuori attraverso la barriera e allontanarsi in modo da essere registrata da un contatore Geiger.  [51]

 

    La RgP ha infatti la “propria” realtà, mentre diventa “irreale” ( o “misterica”) quando si pretenda di specchiarla nelle altre regioni o nell’insieme cosmico. Essa in effetti è “incapsulata” nella realtà delle altre regioni ed in quanto tale quasi “inerte” dal punto di vista macrocosmic e ontologicamente differente. La realtà macroscopica, per contro, è nelle altre tre regioni e nella realtà insiemale cosmica, che è costituita da “distinti” mentre la RgP è costituita da “indistinti”. Se il mondo macroscopico è una “possibilità della microscopicità”, questa è una pre-realtà di quello, e nello stesso tempo è come se le particelle, dopo avere creato il cosmo, si fossero ritirate nel profondo delle sue pieghe, scomparendo in viscere senza tempo per abbandonare i loro assemblati alla freccia del tempo. Ma anche a livello superiore (quello degli atomi) occorre abbandonare i modelli causali antropologici. Robert Laughlin nota:

 

Peraltro gli atomi non sono sfere newtoniane ma eteree entità che, come ci insegna la meccanica quantistica, difettano proprio della principale proprietà di un oggetto: una posizione identificabile. Ecco perché se proviamo a descrivere gli atomi liberi in termini newtoniani finiamo inevitabilmente per cadere in affermazioni prive di senso, del genere “non sono né qui né là e sono simultaneamente ovunque”. Solo l’aggregarsi degli atomi in oggetti distinguibili restituisce una senso alla loro descrizione newtoniana, e non il contrario. [52]

 

Non sono leggi differenti ad agire ma le stesse leggi non sono “effettualmente” operanti allo stesso modo ovunque, perciò anche la cst ci aiuta a capire meglio i termini del problema nel senso che i fotoni e i neutrini elettronici, a massa nulla o quasi-nulla, possiamo considerarli anche generatori di velocità infinita e quindi “creatori” di spazio-tempo “al limite”. A grandi distanze e a basse energie lo spazio-tempo è assoluto e si manifesta per effetto delle masse che lo incurvano, perciò l’attrazione gravitazionale dovremmo chiamarla curvatura dello spazio-tempo. Ma ad alte energie, e distanze minime con uno spazio-tempo al limite è piuttosto lo spin la forma di dinamica più significativa e non certo la gravità. Infatti la RelG “funziona” per distanze superiori a 10-33 cm. circa e per energie di molto inferiori all’equivalente della massa in quiete di 1019 protoni [53]. 

    Anche se gli elettroni attuano dei percorsi che possono descrivere orbite, in realtà è come se operassero in un vuoto filosoficamente riferibile ad un leucippeo kenón pre-bigbang, ancora privo di spazio-tempo e dove il tempo e lo spazio, in un certo senso, sono ancora “compattati” e latenti in enti hyletici e cst. Nel mondo subatomico lo spazio-tempo è peraltro una realtà solo potenziale, che si sviluppa e si esprime soltanto nelle “forme” di assemblaggio macroscopiche, che sono sì fondate su quelle microscopiche, ma che, in un certo senso, proprio “esistendo” le negano come fossero matricide.. In virtù del fatto che queste e quelle si configurano e si strutturano come regioni differenti della realtà, esse appaiono divise da “confini” di carattere, in un certo senso, epi-fisico. Esse sembrano quindi “sovrapposte” entro i confini della fisicità generale, rimanendo tali “finché” qualcosa come una sfera macroscopica esisterà, poiché quando, prima o poi, “questo universo “finirà”, le regioni scompariranno e il mondo subatomico tornerà ad essere l’unica realtà.

 

 

 

 

                               8.4 La freccia del tempo

 

   Uno degli effetti più clamorosi della “malattia monistica” è certamente quello che concerne la concezione del tempo, e quando i monisti si chiamano Einstein, convinti dell’esistenza di una teoria fisica “unica” dell’universo, ne vengono fuori affermazioni curiose, tanto autorevoli quanto errate.  Per quel genio della fisica, ma legato alla teologia monista-determinista, era naturale arrivare a concludere che l’Uno-Tutto debba essere fisicamente “omogeneo” e descrivibile con un equazione unica. Per la teologia spinoziana (in cui egli si riconosceva) “necessariamente” il Tutto si riflette nell’Uno e questa in quello, con l’unità di spazio-tempo che rende il tempo reversibile. La freccia del tempo caratterizza il “farsi” macroscopico dell’essere, ma nel vivente il processo concepimento-nascita-sviluppo-morte è l’essenza stessa dell’essere diveniente. Se il tempo non esiste la vita non può esistere e nello spazio-tempo la vita non c’è mai stata (compresi i pensanti che hanno posto lo spazio-tempo e la reversibilità). La questione è di carattere regionale, perché la freccia del tempo fonda lo stesso pensiero che distingue lo spazio dal tempo e poi li fonde nello spazio-tempo. Si tratta di due reali differenti e non facenti parte della stessa realtà: il tempo in sé e la quarta dimensione dello spazio-tempo sono irrimediabilmente “separati”. L’aporia si scioglie solo se si smette di volere la realtà cosmica “una” e il cosmo un Uno-Tutto reale e sistemico, infatti leggi “toto-potenti” esprimibili con equazioni matematiche assolute non ammettono frecce del tempo.

    Non solo la vita è nella freccia del tempo, lo sono tutti gli enti fisici esclusi solo gli hyletici elementari; essa è storia del macroscopico con i suoi momenti-soglia al di là dei quali è impossibile il ritorno al “punto 0”. Perciò il divenire è sempre nel tempo a dispetto di ipotesi fantascientifiche sulla possibilità di inversione del tempo. E tuttavia è legittimala la domanda: «siamo sicuri che la “successione” del tempo dal passato verso il futuro sia reale e non illusoria?» Ebbene, non esiste una dicotomia realtà/illusione per l’esistenzialità poiché la vita stessa “è tempo” e mai spazio-tempo. Sia gli enti hyletici che assemblandosi hanno formato assemblati e sia questi che, a loro volta, si sono assemblati in macromolecole, ce l’hanno regalata tanti anni fa. Pensare uno scorrere del tempo “alla Kant”, indipendente dalle materie che creano spazio e tempo è quindi un errore ontologico grave. Tutte le metafore del tempo come un fiume che scorre e “in cui” la materia fluisce sono false, poiché sono i singoli enti di una regione che “divenendo” creano quel fiume per solcarlo divenendo. Il tempo esiste perché ci sono assemblati macroscopici che lo estraggono dallo spazio-tempo per dotarne il cosmo, per cui una stella “nasce e muore” allo stesso modo del moscerino, infatti entrambi “hanno storia” nella freccia del tempo.

    Non esiste un passare del tempo svincolato dal divenire di energie-masse-assemblaggi che lo disegnano poiché la morte “diviene” dalla nascita e l’esistenza di un assemblato implica la sua “fine”. Lo spazio-tempo è nell’essere degli enti elementari che lo determinano, ma poi viene diviso in spazio + tempo oltre una certa soglia dove la realtà va verso la complessità. Quindi, lo spazio-tempo c’è e non c’è, come anche lo spazio e il tempo ci sono e non ci sono, dipende dal “dove” si guarda e si cerca, poiché sono i divenienti che divenendo scrivono la loro storia, si tratti di un moscerino o di una stella. Quando né noi né la Terra né il Sole ci saranno più, e forse neppure la nostra galassia, in una certa frazione di cosmo il nostro tempo sarà morto nello spazio-tempo. Ma, altrove, altri fiumi di tempo continueranno a scorrere, creati da altri enti fisici, poiché non c’è nessuna Necessità e nessuna Volontà che possono stabilire ciò che debba o non debba essere.  

    Prigogine ha speso buona parte delle sue energie intellettuali per ribadire la realtà della freccia del tempo in funzione della complessità. Egli afferma in Le leggi del caos:  

 

Io ho sempre pensato che in tutto ciò [l’eliminazione del tempo dalla fisica] l’elemento teologico abbia giocato un ruolo importante. Per Dio tutto è dato; novità, scelta o azione spontanea dipendono dal nostro punto di vista umano, mentre agli occhi di Dio il presente contiene il futuro come il passato. In quest’ottica lo studioso grazie alla conoscenza delle leggi di natura ci avvicina progressivamente alla conoscenza divina. Certo, bisogna dire che questo programma ha avuto un successo straordinario, tanto che spesso è sembrato di essere arrivati a realizzarlo completamente. [54]

 

In realtà più avanti Prigogine usa il verbo “creare” per la direzione temporale, scrivendo:

 

Tutti questi esempi ci mostrano che la freccia del tempo ha il ruolo di creare strutture. Possiamo parlare di “sistema” solo nelle situazioni di non-equilibrio. Senza la correlazione a lunga portata dovute al non-equilibrio non ci sarebbe vita, né, a maggior ragione, cervello. Ecco spiegato il motivo per cui i fenomeni di non-equilibrio rappresentano con particolare evidenza il paradosso del tempo, che mette in luce, prima di tutto, il ruolo “costruttivo” del tempo. I fenomeni irreversibili non si riducono a un aumento di “disordine”, come si pensava un tempo, ma al contrario a un ruolo costruttivo importantissimo. [55]

 

Il concetto espresso è importante in quanto enuclea l’essenza dell’“evolutivo”. È probabile che la frase «la freccia del tempo ha il ruolo di creare strutture» sia solo un modo di dire, ma ci corre l’obbligo di rilevare che la freccia del tempo potrebbe essere una mera espressione linguistica. Essa non può creare un bel nulla, perché è solo il flusso autoprodotto di enti in evoluzione a tracciare un tempo del loro andare, ricordandoci il machadiano «Caminante no hay camino. Se hace camino al andar.».  

    La freccia del tempo in ogni caso è un concetto tanto problematico quanto intrigante a cui anche un fisico teorico come Hawking ha prestato grande attenzione. Egli sostiene esservi tre frecce del tempo: quella termodinamica, quella psicologica e quella cosmologica; la prima riguarda l’entropia e l’aumento del disordine, la seconda la percezione umana del passare del tempo, la terza la direzione espansiva del cosmo [56].  E precisa:

 

In questo capitolo sosterrò che nessuna nozione al contorno per l’universo, congiuntamente al principio antropico debole, può spiegare perché tutte e tre le frecce puntino nella stessa direzione, e inoltre perché debba esistere in generale una freccia del tempo ben definita. Sosterrò che la freccia psicologica è determinata da quella termodinamica, e che queste due frecce puntano sempre necessariamente nella stessa direzione. Se si suppone la condizione dell’inesistenza di confini per l’universo, vedremo che devono esistere una freccia del tempo termodinamica e una cosmologica ben definite, ma che esse non punteranno nella stessa direzione per l’intera storia dell’universo. Sosterrò però che solo quando esse puntano nella stessa direzione le condizioni sono idonee allo sviluppo di esseri intelligenti in grado di porsi la domanda: «Perché il disordine aumenta nella stessa direzione del tempo in cui l’universo si espande?»  [57]   

 

Il Nostro ci dà una lettura del WAP con la quale lega l’esistenza dell’uomo all’unidirezionalità delle frecce del tempo termodinamica e cosmica, mentre troppo spesso esso è stato visto con l’uomo quale suo garante. Hawking pensa che la memoria umana non sia poi così diversa da quella dei computer, e assume questa come metro di un memorare generale che va dal disordine all’ordine assumendo energia utile, quindi “ordinante”. Se, all’opposto, l’energia si dissipa, aumenta il disordine mnemonico:

 

Si può dimostrare che quest’aumento del  disordine è sempre maggiore dell’aumento d’ordine nella memoria stessa. Così, il calore espulso dal ventilatore dal computer registra un’informazione nella sua memoria, la quantità totale di disordine nell’universo aumenta ancora. La direzione del tempo in cui un computer ricorda il passato è la stessa in cui aumenta il disordine. […] Esattamente come un computer, anche noi dobbiamo ricordare le cose nell’ordine in cui aumenta l’entropia. Questo fatto rende la seconda legge della termodinamica quasi banale. Il disordine aumenta col tempo perché noi misuriamo il tempo nella direzione in cui il disordine aumenta. [58]    

 

    Il WAP è in gioco perché il cosmo espandendosi ratifica il fatto che la freccia termodinamica e quella cosmica vanno nella stessa direzione, infatti: «Le condizioni nella fase di contrazione non sarebbero idonee all’esistenza di esseri intelligenti» [59]  L’inflazione è implicata perché l’universo è privo di confini:

 

L’inflazione nel primissimo periodo di esistenza dell’universo, predetta dalla condizione dell’inesistenza di alcun confine, significa che l’universo deve espandersi con una velocità molto vicina al valore critico in corrispondenza del quale riuscirebbe ad evitare di strettissima misura il collasso, e quindi che non invertirà comunque al direzione del suo movimento per moltissimo tempo. A quel tempo tutte le stelle avranno esaurito il loro combustibile, e i protoni e i neutroni in esse contenuti saranno probabilmente decaduti in particelle di luce e radiazione [in fotoni]. L’universo si troverebbe allora in uno stato di disordine quasi completo. Non ci sarebbe una freccia termodinamica forte. Il disordine non potrebbe aumentare di molto perché l’universo sarebbe già in uno stato di disordine quasi completo. [60]      

 

Hawking ci spiega che possiamo esserci in questo mondo in espansione mentre non potremmo esistere in uno in contrazione:  

 

Per sopravvivere gli esseri umani devono consumare cibo. Che è una forma ordinata di energia, convertirlo in calore, che è una forma di energia disordinata. Perciò nella fase di contrazione dell’universo non potrebbero esistere forme di vita intelligente. Questa è la spiegazione del perché osserviamo che le frecce del tempo termodinamica e cosmologica sono puntate nella stessa direzione. Non che l’espansione dell’universo causi un aumento del disordine. A causare l’aumento del disordine, e a far sì che le condizioni siano favorevoli alla vita intelligente soltanto nella fase di espansione, è piuttosto la condizione dell’assenza di confini dell’universo. [61]   

                                                 

Interessante il discorso di Hawking sulle frecce temporali, e tuttavia, ammessa l’autorevolezza dello scrivente, dobbiamo rilevare l’antropicità del discorso, come se fosse la realtà antropica a servire da pietra di paragone di un rapporto tra il cosmico e il biologico. L’homo sapiens è parte importante del secondo come frutto evolutivo in una certa direzione, ma niente di più. Non é che l’intelligenza sia nata con l’uomo, poiché i neuroni li hanno anche gli altri animali e in forme elementari anche i vermi. Se l’uomo appare come l’animale più intelligente tra quelli fin’ora apparsi, vuol dire che la posizione eretta e la massa encefalica fanno la differenza, ed anche il linguaggio è frutto evolutivo nato dalla facoltà di produrre molti suoni vocali e di articolarli.   

 

 

 

 

NOTE

 

[62] W.Heisenberg, Indeterminazione e realtà, cit., p.78.

[63] H.Poincaré, La science et l’hypothèse, Paris, Flammarion 1902.

[64] I.Prigogine – I. Stengers, La nuova alleanza. (Metamorfosi della scienza), cit., p.148.

[65] I.Prigogine, Le leggi del caos, Roma-Bari, Laterza 2006, p.15.

[66] G.Careri, Ordine e disordine nella materia, Roma-Bari, Laterza 1982, p.46.

[67] Ivi, p.47.

[68] Ibidem.

[69] Ivi, p.171.

[70] Ivi, p.178.

[71] Ivi, p.180.

[72] Il concetto di entropia è stato introdotto dal fisico tedesco Rudolf Julius Emmanuel Clausius (1822-1888) come nuova grandezza termodinamica indicante sia lo stato di disordine di un sistema e sia di quanto un processo irreversibile lo impoverisca di ordine interno. L’energia resta infatti tipologicamente costante solo nei sistemi caratterizzati da processi reversibili; negli altri casi c’è aumento di entropia sino al raggiungimento di una stabilità energetica degradata nei sistemi chiusi. Clausius era però andato oltre la pura enunciazione del principio, sostenendo che «L’entropia dell’universo è in continua aumento», il che presuppone un universo “chiuso”.

[73] Ci riferiamo ad un famoso best-seller dell’economista-ecologo Jeremy Rifkin, che reca appunto come titolo Entropy (trad. it.: Entropia, Milano, Baldini  & Castoldi 2000). 

[74] G.Careri, Ordine e disordine nella materia, cit., pp.171-172.

[75] Ivi, p.172

[76] L.Smolin, La vita del cosmo, cit., pp.192-193.

[77] L.Boltzmann, Il secondo principio della meccanica del calore, in: Modelli matematici, fisica e filosofia, cit., p.37.

[78] R.Penrose, La strada che porta alla realtà, cit., p.690

[79] H.C. von Baeyer, Informazione, Bari, Dedalo 2005, p.125.

[80] S.Hawking, Dal big bang ai buchi neri, cit., pp.176-177

[81] H.Poincaré, Science et méthode, Paris, Flammarion 1908, in: A.Vulpiani, Determinismo e caos, Roma, Carocci 2004, p.20.

[82] P.Greco, Einstein e il ciabattino, cit., p.102.

[83] Ivi, p.250.

[84] Ivi, pp.248-249.

[85] http://it.wikipedia.org/wiki/Effetto_farfalla

[86] I.Prigogine, Le leggi del caos, cit., p.23

[87] Ibidem.

[88] A.Vulpiani, Determinismo e caos, Roma, Carocci 2004, p.95.

[89] Ibidem.

[90] Ivi, p.129.

[91] C.S.Bertuglia – F.Vaio, Non linearità, caos, complessità, Torino, Bollati Boringhieri 2003, p.40.

[92] Ivi, p.355.

[93] Ivi, p.144.

[94] Ivi, pp.144-160.

[95] Ivi, p.161.

[96] I.Stewart, Dio gioca a dadi?, Torino, Bollati Boringhieri 1993, p.28.

[97] Ivi, p.120.

[98] Ivi, p.185.

[99] Ivi, p.253.

[100] A.Vulpiani, Determinismo e caos, cit., p.85.

[101] I.Stewart, Dio gioca a dadi?, cit.,  p.310.

[102] Ivi, p.318.

[103] Ivi, p.319.

[104] Ivi, p.322.

[105] Ivi, p.327.

[106] A.Vulpiani, Determinismo e caos, cit., 131.

[107] Herman Minkowski è il matematico tedesco che introdusse ufficialmente il concetto di cronotopo, ovvero dello spazio-tempo quadridimensionale sulla base della relatività generale einsteniana.

[108] W.Heisenberg, Oltre le frontiere della scienza, cit., p.29 (La scoperta di Planck e i problemi filosofici della teoria atomica (Conferenza alla Verbandes Deutscher Physikalischer Gesellschaften, aprile 1958).

[109] R.Feynman, QED La strana teoria della luce e della materia, cit., p.124

[110] Ivi, p.125

[111] A.Aczel, Entanglement, Milano, Raffaello Cortina 2004, p.234.

[112] K.W.Ford, La fisica delle particelle, cit., pp.66-67.

[113] R.Laughlin, Un universo diverso, cit., p.50.

[114] S.Weinberg, Postfazione a Equilibrio perfetto, cit., a cura di G.Farmelo, (come sopravvivono le grandi equazioni 

[115] I.Prigogine, Le leggi del caos, cit., p.7.

[116] Ivi, p.23.

[117] S.Hawking, Dal big bang ai buchi neri, p.168.

[118] Ibidem.

[119] Ivi, pp.170-171.

[120] Ivi, p.175.

[121] Ivi, p.175.

[122] Ivi, pp.175-176.